wie zuverlässig sind heute Platten...? (1 Viewer)

catalpa

Portal Pro
May 9, 2009
444
28
Home Country
Germany Germany
Hallo,

wer sich mit MePo beschäftigt, wird über kurz oder lang einen größeren Haufen Daten ansammeln
und das hat zur Folge, dass man sich ein Datengrab (NAS, Samba-Server, externe Platten, usw.)
anschafft und sich mit ein paar TB rumplackt. Wenn man auf Nummer sicher geht, dann hat man
auch noch alles doppel. Ich tausche ca. 2x im Jahr je eine Platte gegen die nächst größere,
z.B. 2TB gegen 3TB. Die Daten werden also regelmäßig mal umkopiert, was sicher auch nicht
schlecht ist, quasi als Auffrischung der magnetischen Ausrichtung. Allerdings kommt es in letzter
Zeit häufiger zu Fehlern. Wegen der Doppelten Datenhaltung kann man die in der Regel
ausbügeln aber ein sehr ungutes Gefühl bleibt bei der Sache. Manche Fehler bekommt
man von SMART gemeldet, wenn z.B. bad blocks bei einem Selbsttest aufgetaucht sind aber heute
hatte ich einen Lesefehler auf einer 3TB WD red die gerade ein halbes Jahr alt ist und der erst bei
einem vollständigen Auslesen aufgefallen ist. Sprich wenn man nicht die ganze Platte kopiert und
SMART auch nix sagt (oder man es gar nicht an hat) dann merkt man garnicht, dass die Daten auf
der Platte evtl. das zeitliche gesegnet hat. Mein Vertrauen in die akutuellen Platten hat etwas gelitten,
die arbeiten halt am Rande des physikalisch machbaren und auf Grund der größe werden Fehler immer
wahrscheinlicher. Dass es nur noch zwei große Hersteller gibt tut vermutlich ein überiges :-/
 

radical

Portal Pro
December 16, 2010
1,466
191
Home Country
Germany Germany
So ähnlich verfahre ich auch mit meinen Platten. Ich lasse neue Platten erstmal 1 Bis 2 Wochen nebenher laufen und mehrmals in dieser Zeit vollschreiben. Sollten in der Zeit keine Fehler auftauchen, wird diese in den laufenden Betrieb eingebunden. Von den so getesteten Festplatten hat bislang noch keine einzige irgendwelche Fehler fabriziert. Die älteste hat jetzt etwas über 21tsd Stunden Betriebszeit.
 

catalpa

Portal Pro
May 9, 2009
444
28
Home Country
Germany Germany
21kh ist schon was, damit wäre ich ja zufrieden nur meine vorletzte (vor 3 Wochen) hatte bei 8kh 190 permanent def. Blöcke und wurde sicherheitshalber aus dem Rennen genommen und gestern gab es den ersten, nicht permanenten beschädigten Block bei einer recht neuen Platte. Da war es wohl ein Problem im Dateisystem (ext4) oder ein "gekipptes" Bit. Jedenfalls hat der eine Block eine 10GB-Datei zerstört, nix wirklich wichtiges aber es schockt etwas. Ich überlege jetzt, ob ich für die Altdaten (die sich nicht mehr ändern) Checksummen berechnen lasse, der Server könnte dann z.B. jede Woche alles prüfen und Alarm schlagen wenn sich was ändern sollte.
 

radical

Portal Pro
December 16, 2010
1,466
191
Home Country
Germany Germany
Meiner Erfahrung nach ist das relativ ungewöhnlich, dass eine Platte solange übersteht und dann doch unvermittelt beginnt zu sterben. Zu den Checksummen und ext4 kann ich nichts beitragen. Bin da wahrscheinlich altmodisch und bleibe bei meiner Sicherung auf externen Festplatten. Bin damit bisher am besten zurechtgekommen. Aber wenn du eh auf Linux unterwegs bist, wäre vielleicht mal ZFS für dich von Interesse. Mir wurde die Verwaltung von mehreren Systemen irgendwann zu aufwendig. Somit bin ich auf die altmodische Methode umgestiegen.
 

catalpa

Portal Pro
May 9, 2009
444
28
Home Country
Germany Germany
ZFS is etwas übertrieben, hardwareaufwendig und auch noch BSD oder Solaris, wenn ich das richtig sehe, mein Bedarf an neuem Gebastelt ist jetzt nicht so groß. Ich denke mit md5deep oder besser sha1deep könnte man leicht Prüfsummen über ganze Verzeichnisbäume spannen und diese regelmäßig gegenprüfen, ob sich was verändert hat. Die Frage ist nur wie rechenaufwendig das ist, wenn man damit stundenlang die Kiste auslastet, dann ist es Quatsch. Ich probiers später mal aus.

Ich habe gestern alle Platten sehr aufwendig nach Fehlern absuchen lassen (7h pro 3TB) und nichts weiteres gefunden. Smart auch o.k. bin gespannt wann das nächste Problem kommt aber evtl. ist die Pechsträhne ja auch vorbei oder es sind Erdstrahlen ;)
 

radical

Portal Pro
December 16, 2010
1,466
191
Home Country
Germany Germany
Man steckt halt nicht drin. Vielleicht auch eine lose Verbindung zum Kabel. Würde mich freuen wenn du dann über deine Erfahrungen berichtest.
 

radical

Portal Pro
December 16, 2010
1,466
191
Home Country
Germany Germany
Im consumer Bereich ist die Ausfallsicherheit ein absoluter witz. Und für der enterprise Bereich ist für den "Hausgebrauch" zu teuer. Da kann ich mir genauso gut ein NAS für den Backup kaufen.
 

catalpa

Portal Pro
May 9, 2009
444
28
Home Country
Germany Germany
...sehe ich ähnlich, ein RAID ist auch nicht das gelbe von Ei. Ich hatte jetzt zwei Fehler in drei Wochen an zwei Platten. Wenn eine Platte aus einem RAID5 ausfällt, dann muss für den Rebuild jedes Bit der anderen Platten o.k. sein. Wenn dabei noch ein Fehler auftritt ist alles im Eimer. Wenn dann würde ich eher an en RAID1 nehmen, was aber n teuer Spaß ist zumal ich eh schon n 1:1 Backup habe. Ich lasse gerade den md5 über 1TB bilden, dauert lange, schätze 3-4h, der Server ist ein nur kleiner Proliant n36l. Aber es scheint eher an der Platte zu liegen, die CPU-Last liegt bei 60%.
 

aspik

Retired Team Member
  • Team MediaPortal
  • April 14, 2008
    1,322
    586
    Software RAID! Empfehle UnRAID von http://lime-technology.com/. Benutze es ein paar Monate und bin sehr zufrieden. UnRAID benutzt das FileSystem ReiserFS (die Festplatten lassen sich auch außerhalb des Servers auslesen, z.B. mit TotalCommander). Es gibt ein PairityCheck mit denn man die Datenintegrität prüfen kann...

    Mit der richtigen Hardware kann man einen sehr preiswerten und stromsparenden Server bauen. Bei mir ist es ein Lian Li Q25 Gehäuse + Supermicro X7SPE-HF-D525 Mainboard. Stromverbauch bei allen Festplatten im Standby ca. 25W. Kosten für die Hardware ca. 450€, eine vergleichbare fertig Lösung von QNAP kostet fast 800€.
     

    Users who are viewing this thread

    Top Bottom