Leider ist dieser Deal mittlerweile abgelaufen
Western Digital My Cloud PR2100 2Bay NAS mit 4TB Festplatte für 326,68€ (Amazon ES)
250° Abgelaufen

Western Digital My Cloud PR2100 2Bay NAS mit 4TB Festplatte für 326,68€ (Amazon ES)

326,68€417,90€-22%Amazon.es Angebote
17
eingestellt am 7. Aug

Dieser Deal ist leider abgelaufen. Hier sind ein paar andere Optionen für Dich:

Moin, bei Amazon.es erhaltet ihr das Western Digital My Cloud PR2100 2Bay NAS mit 4TB Festplatte für 326,68€ inkl. Versand. Bezahlen könnt ihr mit Kreditkarte und einloggen mit dem Amazon.de Account.

Preisvergleich 417,90 €

  • Intel Pentium N3710 1,6GHz (Burst speed up to 2,56 GHz)
  • 4GB DDR3L RAM (nicht erweiterbar)
  • 2-Bay: mit zwei Festplatten-Einschüben inkl. 2x 2TB HDD´s
  • inkl. Software WD SmartWare Pro, Access, Sync, My Cloud mobile App
  • für Windows und MAC

Testberichte
testberichte.de/p/w…tml
techwatch.de/rev…st/
connect.de/ver…tml

Zusätzliche Info

Gruppen

Beste Kommentare
Um abschätzen zu können, ob eine Platte bereits quasi oder faktisch am Werk/durch den Transpart beschädigt oder gar defekt ist, befolge ich immer folgendes Protokoll:

1.Vorbereitung
Platte entweder ausgebaut direkt per SATA oder im Werkszustand USB in ein Linux System einbinden. Unter Windows/OS X können die nachfolgenden Schritte entsprechend adaptiert werden.

Falls die Platte direkt über USB angeschlossen wird, wird uas beispielsweise bei Ubuntu Versionen >=14.04 und allgemein bei fast allen Distros mit nem Linux Kernel >=3.15 das arbeiten mit smartctl erschweren. Windows/Mac OS X haben diese Probleme soweit ich weiß nicht, bei Linux muss allerdings, zumindest temporär, über modprobe, uas und usb-storage uas für das betreffende Laufwerk deaktiviert werden. Falls hier jemand Probleme bzw. Interesse hat, kann ich diesen Schritt auch noch gerne näher erläutern.Falls noch nicht vorhanden, nun die smartmontools per apt oder sonstiger verwendeter Paketverwaltung installieren.

SMART Tests werden von der Platte nach Anstoßen der Funktion selbstständig ausgeführt, solange selbige nicht anderweitig benutzt wird. Diese Tests kann und sollte man regelmäßig laufen lassen, um möglichst frühzeitig über Probleme mit der Platte Bescheid zu wissen.

Teil des Burn-ins ist jedoch, jeden Block mit allen möglichen Bitkombinationen zu überschreiben und selbige auch zu lesen, um sämtliche Fehlerquellen aufdecken zu können. Dies ist nötig, da SMART nur passiv arbeitet; es wird ein Fehler also erst protokolliert, sobald selbiger bereits aufgetreten ist.

Diese mehrfache Überschreibung von Daten zerstört alle vorhandenen Daten! Es gibt zwar eine nicht-zerstörerische Option, allerdings ist diese um einiges langsamer und nicht 100%ig zuverlässig.

Ergo: Keine Daten auf die Platte schreiben, bevor sie nicht getestet wurde.


2.Der Eigentliche Burn-in
Erst einen kurzen Selbsttest über die Platte laufen lassen per smartctl -t short /dev/sXX, wobei sXX hier und nachfolgend für den respektiven Laufwerkspunkt steht. Falls die Platte per USB angeschlossen ist und uas deaktiviert wurde, muss hier und bei allen nachfolgenden smartctl Befehlen noch unter Umständen eine vom Festplattengehäuse abhängige Flag -d angefügt werden.
Dann noch einen Conceyance Test hinterher mit smartctl -t conveyance /dev/sXX und zu guter Letzt ein ausführlicher Test mittels smartctl -t long /dev/sXX.
Diese Tests laufen im Hintergrund und der Fortschritt kann jederzeit über den Befehl smartctl -a /dev/sXX eingesehen werden.

Nun kommt der wahrlich zeitaufwendige Teil: Das wiederholte Beschreiben/Lesen jedes einzelnen Blocks.
Dazu führen wir den Befehl badblocks -b 4096 -ws /dev/sXX aus, wobei die Flag w für den zerstörerischen & effizienten Test steht und die Flag s für einen kontinuierlichen Output in die Konsole sorgt.
Theoretisch können wir hier statt der Flag w auch die Flag n setzen um vorhandene Daten zu erhalten, aber wie gesagt: Darauf verlassen würde ich mich nicht.
Es gibt verschiedene Wege, um die immense Laufzeit von badblocks zu beschleunigen. Allerdings sollte man sich dafür entsprechend in der Materie auskennen und dazu braucht man dann auch meine kleine Zusammenfassung hier nicht.
Mit dem oben genannten Befehl ist man bei modernen Platten auf der sicheren Seite.

Nun laufen insgesamt 4 Durchläufe mit verschiedenen Bitmustern (0xaa, 0x55, 0xff und 0x00) durch. Jeder einzelne Durchlauf beschreibt jeden Block mit dem angegebenen Muster und verifiziert diesen anschließend. Und das dauert sehr, sehr lange.

Als Erfahrungswert brauchen 6TB Platten etwa 2-3 Tage.

3. Verifizieren

Sobald badblocks fertig ist, führen wir noch einen ausführlichen Smart Test aus, um eventuelle Fehler aufzudecken. Also nochmal smartctl -t long /dev/sXX.


Zu guter Letzt prüfen wir nun das Resultat des SMART Tests per smartctl -a /dev/sXX.
Hier interessiert uns nun vor allem der Inhalt der Tabelle, insbesondere die Werte Reallocated_Sector_Ct, Current_Pending_Sector, und Offline_Uncorrectable. Wenn auch nur ein RAW_VALUE dieser Felder >= 0 ist, würde ich persönlich die Platte sofort zurückschicken. Ansonsten landet sie in meiner bestehenden Infrastruktur!

4. Festplatte möglichst lange am Leben halten

Hier gibt es verschiedene Philosophien. Ich verfolge folgende, welche sich über die letzten Jahre bewährt hat:

Festplatten werden bei Spin-ups/-downs am höchsten physisch belastet.
Statistiken zeigen, dass die meisten physikalischen HDD Ausfälle in diesen Phasen auftreten. Entsprechend sollte die Standby Zeit, also das Intervall, nach dem eine Festplatte ohne Read/Write Zugriffe herunterfährt, weise und vom Festplattentyp und dem Anwendungsfall abhängig gemacht werden.
Server-grade Festplatten wie z.B. WD Reds sind dafür ausgelegt und optimiert, 24/7 zu laufen. Das frisst natürlich etwas Strom, hält die Platten aber ein einem konstanten Zustand, welcher die Platte physisch schont. Die meisten Consumer-grade Platten dürften zwar theoretisch ebenfalls wenige Probleme mit einem 24/7 Betrieb haben, für die typischen Heimanwender macht dies allerdings in den meisten Fällen wenig Sinn. Es gilt also, einen gesunden Ausgleich zwischen möglichst wenigen Spin-ups/-downs und insgesamter Laufzeit der Platten zu finden. Ich persönlich greife z.B. auf die meisten meiner Netzwerkplatten nur wenige Male am Tag zu, meine HDD Standby-Zeiten habe ich bei 1-2 Stunden gesetzt.

Festplatten vertragen keine starken Temperaturschwankungen.
Wenn Festplatten zu schnell heruntergekühlt bzw. erwärmt werden, steigt die physikalische Belastung erheblich und dementsprechend kürzer fällt die zu erwartende Lebenszeit aus. Neben einer wohltemperierten Umgebung und im besten Fall auch eine aktiven Belüftung sollte also darauf geachtet werden, die Temperatur möglichst statisch zu halten. So ist es z.B. in vielen Fällen fatal, einen Server in der nichtbeheizten Garage aufzustellen. Solange die Platten laufen, halten sie sich selber warm. Sobald aber der Server z.B. im Winter hochgefahren wird, werden sie in sehr kurzer Zeit von teilweise Minusgraden auf 30-50 Grad erwärmt. Metall dehnt sich bei Erwärmung aus, das geht auf Dauer nicht gut.
Ebenso sollte z.B. kein Lüfter einfach auf eine Seite des Gehäuses/der Festplatte geklatscht werden. Dadurch entsteht ein Temperaturgradient zwischen den beiden Seiten, welcher einen ähnlichen zerstörerischen Effekt wie ein Betrieb in der nichtbeheizten Garage.


Ich hoffe, ich kann hiermit einigen Leuten bei dieser und weiteren Festplattenbestellungen helfen. Bei Fragen führe ich das entsprechende Gebiet gerne weiter aus
17 Kommentare
HDDs und Amazon Ausland = Katastrophe
Die verschicken solch ein NAS im Originalkarton ohne weitere Umverpackung
4TB = 2x2 TB. 300+ Euro? Es ist nicht mehr 2009?
m10107.08.2019 12:40

4TB = 2x2 TB. 300+ Euro? Es ist nicht mehr 2009?


Stimmt da waren Platten mit 2 TB billiger 😜
Sind da WD Reds drin?
Leider voll bestückt und zu wenig Kapazität.
Bei einer anstehenden Aufrüstung sind dann 2*2TB "über", d.h. es fallen mindestens 200€ an...
Wer zwei 2 TB Platten im Raid 0 benutzt, braucht doch keine NAS.
chaim07.08.2019 13:02

Wer zwei 2 TB Platten im Raid 0 benutzt, braucht doch keine NAS.



Es sagt hier aber niemand, dass er 2 TB in Raid 0 nutzt.

Finde immer lustig, wie sehr immer wieder 2 TB je Platte kritisiert werden. Es soll auch Nutzer geben, die kaum Videos auf ihren Platten haben und dennoch eine NAS nutzen. Und viele bekommen noch nicht einmal 1 TB voll, haben dann aber noch genügend Reserve...
floau07.08.2019 12:46

Sind da WD Reds drin?


Ja, aber die 2 TB Reds (WD20EFRX) empfehlen sich m.E. zumindest laut den Statistiken von Backblaze nicht besonders, da schneiden andere Baureihen/Kapazitäten deutlich besser ab:

Hard Drive Reliability Statistics (Backblaze)

Mir fällt momentan kein Grund ein, warum man dieses Angebot wahrnehmen sollte, aber diverse, warum ich gerne darauf verzichte.
floau07.08.2019 13:14

Es sagt hier aber niemand, dass er 2 TB in Raid 0 nutzt.Finde immer …Es sagt hier aber niemand, dass er 2 TB in Raid 0 nutzt.Finde immer lustig, wie sehr immer wieder 2 TB je Platte kritisiert werden. Es soll auch Nutzer geben, die kaum Videos auf ihren Platten haben und dennoch eine NAS nutzen. Und viele bekommen noch nicht einmal 1 TB voll, haben dann aber noch genügend Reserve...


so ist es, habe 2x 4 TB und davon sind 2x 200 GB grad mal belegt
Um abschätzen zu können, ob eine Platte bereits quasi oder faktisch am Werk/durch den Transpart beschädigt oder gar defekt ist, befolge ich immer folgendes Protokoll:

1.Vorbereitung
Platte entweder ausgebaut direkt per SATA oder im Werkszustand USB in ein Linux System einbinden. Unter Windows/OS X können die nachfolgenden Schritte entsprechend adaptiert werden.

Falls die Platte direkt über USB angeschlossen wird, wird uas beispielsweise bei Ubuntu Versionen >=14.04 und allgemein bei fast allen Distros mit nem Linux Kernel >=3.15 das arbeiten mit smartctl erschweren. Windows/Mac OS X haben diese Probleme soweit ich weiß nicht, bei Linux muss allerdings, zumindest temporär, über modprobe, uas und usb-storage uas für das betreffende Laufwerk deaktiviert werden. Falls hier jemand Probleme bzw. Interesse hat, kann ich diesen Schritt auch noch gerne näher erläutern.Falls noch nicht vorhanden, nun die smartmontools per apt oder sonstiger verwendeter Paketverwaltung installieren.

SMART Tests werden von der Platte nach Anstoßen der Funktion selbstständig ausgeführt, solange selbige nicht anderweitig benutzt wird. Diese Tests kann und sollte man regelmäßig laufen lassen, um möglichst frühzeitig über Probleme mit der Platte Bescheid zu wissen.

Teil des Burn-ins ist jedoch, jeden Block mit allen möglichen Bitkombinationen zu überschreiben und selbige auch zu lesen, um sämtliche Fehlerquellen aufdecken zu können. Dies ist nötig, da SMART nur passiv arbeitet; es wird ein Fehler also erst protokolliert, sobald selbiger bereits aufgetreten ist.

Diese mehrfache Überschreibung von Daten zerstört alle vorhandenen Daten! Es gibt zwar eine nicht-zerstörerische Option, allerdings ist diese um einiges langsamer und nicht 100%ig zuverlässig.

Ergo: Keine Daten auf die Platte schreiben, bevor sie nicht getestet wurde.


2.Der Eigentliche Burn-in
Erst einen kurzen Selbsttest über die Platte laufen lassen per smartctl -t short /dev/sXX, wobei sXX hier und nachfolgend für den respektiven Laufwerkspunkt steht. Falls die Platte per USB angeschlossen ist und uas deaktiviert wurde, muss hier und bei allen nachfolgenden smartctl Befehlen noch unter Umständen eine vom Festplattengehäuse abhängige Flag -d angefügt werden.
Dann noch einen Conceyance Test hinterher mit smartctl -t conveyance /dev/sXX und zu guter Letzt ein ausführlicher Test mittels smartctl -t long /dev/sXX.
Diese Tests laufen im Hintergrund und der Fortschritt kann jederzeit über den Befehl smartctl -a /dev/sXX eingesehen werden.

Nun kommt der wahrlich zeitaufwendige Teil: Das wiederholte Beschreiben/Lesen jedes einzelnen Blocks.
Dazu führen wir den Befehl badblocks -b 4096 -ws /dev/sXX aus, wobei die Flag w für den zerstörerischen & effizienten Test steht und die Flag s für einen kontinuierlichen Output in die Konsole sorgt.
Theoretisch können wir hier statt der Flag w auch die Flag n setzen um vorhandene Daten zu erhalten, aber wie gesagt: Darauf verlassen würde ich mich nicht.
Es gibt verschiedene Wege, um die immense Laufzeit von badblocks zu beschleunigen. Allerdings sollte man sich dafür entsprechend in der Materie auskennen und dazu braucht man dann auch meine kleine Zusammenfassung hier nicht.
Mit dem oben genannten Befehl ist man bei modernen Platten auf der sicheren Seite.

Nun laufen insgesamt 4 Durchläufe mit verschiedenen Bitmustern (0xaa, 0x55, 0xff und 0x00) durch. Jeder einzelne Durchlauf beschreibt jeden Block mit dem angegebenen Muster und verifiziert diesen anschließend. Und das dauert sehr, sehr lange.

Als Erfahrungswert brauchen 6TB Platten etwa 2-3 Tage.

3. Verifizieren

Sobald badblocks fertig ist, führen wir noch einen ausführlichen Smart Test aus, um eventuelle Fehler aufzudecken. Also nochmal smartctl -t long /dev/sXX.


Zu guter Letzt prüfen wir nun das Resultat des SMART Tests per smartctl -a /dev/sXX.
Hier interessiert uns nun vor allem der Inhalt der Tabelle, insbesondere die Werte Reallocated_Sector_Ct, Current_Pending_Sector, und Offline_Uncorrectable. Wenn auch nur ein RAW_VALUE dieser Felder >= 0 ist, würde ich persönlich die Platte sofort zurückschicken. Ansonsten landet sie in meiner bestehenden Infrastruktur!

4. Festplatte möglichst lange am Leben halten

Hier gibt es verschiedene Philosophien. Ich verfolge folgende, welche sich über die letzten Jahre bewährt hat:

Festplatten werden bei Spin-ups/-downs am höchsten physisch belastet.
Statistiken zeigen, dass die meisten physikalischen HDD Ausfälle in diesen Phasen auftreten. Entsprechend sollte die Standby Zeit, also das Intervall, nach dem eine Festplatte ohne Read/Write Zugriffe herunterfährt, weise und vom Festplattentyp und dem Anwendungsfall abhängig gemacht werden.
Server-grade Festplatten wie z.B. WD Reds sind dafür ausgelegt und optimiert, 24/7 zu laufen. Das frisst natürlich etwas Strom, hält die Platten aber ein einem konstanten Zustand, welcher die Platte physisch schont. Die meisten Consumer-grade Platten dürften zwar theoretisch ebenfalls wenige Probleme mit einem 24/7 Betrieb haben, für die typischen Heimanwender macht dies allerdings in den meisten Fällen wenig Sinn. Es gilt also, einen gesunden Ausgleich zwischen möglichst wenigen Spin-ups/-downs und insgesamter Laufzeit der Platten zu finden. Ich persönlich greife z.B. auf die meisten meiner Netzwerkplatten nur wenige Male am Tag zu, meine HDD Standby-Zeiten habe ich bei 1-2 Stunden gesetzt.

Festplatten vertragen keine starken Temperaturschwankungen.
Wenn Festplatten zu schnell heruntergekühlt bzw. erwärmt werden, steigt die physikalische Belastung erheblich und dementsprechend kürzer fällt die zu erwartende Lebenszeit aus. Neben einer wohltemperierten Umgebung und im besten Fall auch eine aktiven Belüftung sollte also darauf geachtet werden, die Temperatur möglichst statisch zu halten. So ist es z.B. in vielen Fällen fatal, einen Server in der nichtbeheizten Garage aufzustellen. Solange die Platten laufen, halten sie sich selber warm. Sobald aber der Server z.B. im Winter hochgefahren wird, werden sie in sehr kurzer Zeit von teilweise Minusgraden auf 30-50 Grad erwärmt. Metall dehnt sich bei Erwärmung aus, das geht auf Dauer nicht gut.
Ebenso sollte z.B. kein Lüfter einfach auf eine Seite des Gehäuses/der Festplatte geklatscht werden. Dadurch entsteht ein Temperaturgradient zwischen den beiden Seiten, welcher einen ähnlichen zerstörerischen Effekt wie ein Betrieb in der nichtbeheizten Garage.


Ich hoffe, ich kann hiermit einigen Leuten bei dieser und weiteren Festplattenbestellungen helfen. Bei Fragen führe ich das entsprechende Gebiet gerne weiter aus
TabulaRazor07.08.2019 14:12

Um abschätzen zu können, ob eine Platte bereits quasi oder faktisch am W …Um abschätzen zu können, ob eine Platte bereits quasi oder faktisch am Werk/durch den Transpart beschädigt oder gar defekt ist, befolge ich immer folgendes Protokoll:1. [...]


Sehr umfangreicher Beitrag. Ein Paar Fragen habe ich:
Ist das auf deinen Initiative gewachsen oder richtet sich das nach irgendeinem Standard?
Machst du das für das persönlich gute Gefühl? (Kann man das so beschreiben?!)
In einer großen Installation habe ich doch idR nicht die Zeit und die Ressourcen das so zu machen. Dafür lege ich ja entsprechend wert auf Hardware die vom Ausfall einer oder mehrere Komponenten unbeeindruckt ist. Nutzt du das also im Privaten Umfeld?

Für Speichermedien wie USB Sticks oder SDKarten gibt es ja auch Werkzeuge die das in abgewandelter Form machen (h2testw). Da finde ich das hilfreich weil man ja immer mal nen FakeMedium erwischen kann. Finde die Relation extrem! In diversen Statistiken (u. A. BlackBlaze) findet sich immer mal der Hinweis das Festplatten gerne sehr früh ausfallen wenn ab Werk ein Defekt vorliegt. Wäre es nicht "Komfortabler" auf den Ausfall vorbereitet zu sein.

Ich kenne es bei HDDs in allen Spielarten: doa, 2Wochen dann Kreissäge, mit Ansage durch Windows (SMART unauffällig), oder stetig schlechter werdende SMART Werte, die letzte Platte hat über 2 Jahre abgebaut - macht das nicht nach! hatte immer ein Backup von den an sich unwichtigen Daten. (Man wartet dann ja doch noch - vergeblich auf fallende Speicherpreise)

Finde das deine Strategie eine trügerische Sicherheit erzeugt (nur aus meinem Gefühl raus!). Ich will mich nie auf einen Datenträger verlassen wollen. Die sollen für mich Speicherplatz bereitstellen und bei Ausfall problemlos tauschbar sein ohne das ich groß hinter den Daten herrennen muss. (An dieser Steller benötigt man ja dann den meisten Gehirnschmalz)

Daher die Fragen. GANZ WICHTIG jeder darf hier mit seinen Platten machen was er will! Beispiel folgt:

H3llh0und080907.08.2019 16:10

Sehr umfangreicher Beitrag. Ein Paar Fragen habe ich:Ist das auf deinen …Sehr umfangreicher Beitrag. Ein Paar Fragen habe ich:Ist das auf deinen Initiative gewachsen oder richtet sich das nach irgendeinem Standard?Machst du das für das persönlich gute Gefühl? (Kann man das so beschreiben?!)In einer großen Installation habe ich doch idR nicht die Zeit und die Ressourcen das so zu machen. Dafür lege ich ja entsprechend wert auf Hardware die vom Ausfall einer oder mehrere Komponenten unbeeindruckt ist. Nutzt du das also im Privaten Umfeld?Für Speichermedien wie USB Sticks oder SDKarten gibt es ja auch Werkzeuge die das in abgewandelter Form machen (h2testw). Da finde ich das hilfreich weil man ja immer mal nen FakeMedium erwischen kann. Finde die Relation extrem! In diversen Statistiken (u. A. BlackBlaze) findet sich immer mal der Hinweis das Festplatten gerne sehr früh ausfallen wenn ab Werk ein Defekt vorliegt. Wäre es nicht "Komfortabler" auf den Ausfall vorbereitet zu sein.Ich kenne es bei HDDs in allen Spielarten: doa, 2Wochen dann Kreissäge, mit Ansage durch Windows (SMART unauffällig), oder stetig schlechter werdende SMART Werte, die letzte Platte hat über 2 Jahre abgebaut - macht das nicht nach! hatte immer ein Backup von den an sich unwichtigen Daten. (Man wartet dann ja doch noch - vergeblich auf fallende Speicherpreise)Finde das deine Strategie eine trügerische Sicherheit erzeugt (nur aus meinem Gefühl raus!). Ich will mich nie auf einen Datenträger verlassen wollen. Die sollen für mich Speicherplatz bereitstellen und bei Ausfall problemlos tauschbar sein ohne das ich groß hinter den Daten herrennen muss. (An dieser Steller benötigt man ja dann den meisten Gehirnschmalz)Daher die Fragen. GANZ WICHTIG jeder darf hier mit seinen Platten machen was er will! Beispiel folgt:[Video]



Um die Aussage deines Beitrages kurz paraphrasiert in einer Metapher zu verdeutlichen: Du kaufst dir online Lebensmittel, von denen bekannt ist, dass sie in vielen Fällen bereits verdorben beim Besteller ankommen und bei Verzehr nach einigen Wochen latenten Durchfall bewirken. Ob die Lebensmittel bereits verdorben sind kann man mit einer gewissen Wahrscheinlichkeit bereits durch einen Blick in die Verpackung sehen. Du bist dir der Gefahr bewusst und hast im Zweifelsfall noch eine weitere Packung des betreffenden Lebensmittel im Schrank, also schaust du nach Erhalt der Lieferung gar nicht erst rein und greifst im Falle von Durchfall einfach zur redundanten Packung.

Meine kleine Anleitung richtet sich weder nach einer ISO-Norm noch einem anderweitig anerkannten Standard, das ist lediglich meine persönliche Verfahrensweise, welche allerdings auf eigener und auch fremder Expertise beruht.

Wenn ich meine Tipps und Hilfestellungen selbst, auch und besonders privat, nicht befolgen würde, hätte ich auch keinen Beitrag gepostet, der selbiges suggeriert. Ich verdiene hiermit nichts, sondern versuche in meiner Freizeit etwas an die Community zurückzugeben.

Natürlich ist auch die Kombination eines Burn-ins und regelmäßiger SMART Tests keine Garantie dafür, dass man vor dem Abschmieren der Platte rechtzeitig gewarnt wird. Redundante Backups und parity protection sind natürlich nach wie vor absolut King.

Ergo kann man sich natürlich den Aufwand sparen und seine vom Paketboten durch den halben Garten geworfenen Platten direkt in seine Umgebung integrieren und sich im Zweifelsfall dann Wochen/Monate später mit dem Garantiefall herumschlagen oder eben zusätzlich zu den bereits angewendeten Mechanismen die Datensicherheit betreffend ein wenig Zeit investieren, um möglichst lange Freude mit den Medien zu haben.
TabulaRazor07.08.2019 16:49

Um die Aussage deines Beitrages kurz paraphrasiert in einer Metapher zu …Um die Aussage deines Beitrages kurz paraphrasiert in einer Metapher zu verdeutlichen: Du kaufst dir online Lebensmittel, von denen bekannt ist, dass sie in vielen Fällen bereits verdorben beim Besteller ankommen und bei Verzehr nach einigen Wochen latenten Durchfall bewirken. Ob die Lebensmittel bereits verdorben sind kann man mit einer gewissen Wahrscheinlichkeit bereits durch einen Blick in die Verpackung sehen. Du bist dir der Gefahr bewusst und hast im Zweifelsfall noch eine weitere Packung des betreffenden Lebensmittel im Schrank, also schaust du nach Erhalt der Lieferung gar nicht erst rein und greifst im Falle von Durchfall einfach zur redundanten Packung.Meine kleine Anleitung richtet sich weder nach einer ISO-Norm noch einem anderweitig anerkannten Standard, das ist lediglich meine persönliche Verfahrensweise, welche allerdings auf eigener und auch fremder Expertise beruht.Wenn ich meine Tipps und Hilfestellungen selbst, auch und besonders privat, nicht befolgen würde, hätte ich auch keinen Beitrag gepostet, der selbiges suggeriert. Ich verdiene hiermit nichts, sondern versuche in meiner Freizeit etwas an die Community zurückzugeben. Natürlich ist auch die Kombination eines Burn-ins und regelmäßiger SMART Tests keine Garantie dafür, dass man vor dem Abschmieren der Platte rechtzeitig gewarnt wird. Redundante Backups und parity protection sind natürlich nach wie vor absolut King. Ergo kann man sich natürlich den Aufwand sparen und seine vom Paketboten durch den halben Garten geworfenen Platten direkt in seine Umgebung integrieren und sich im Zweifelsfall dann Wochen/Monate später mit dem Garantiefall herumschlagen oder eben zusätzlich zu den bereits angewendeten Mechanismen die Datensicherheit betreffend ein wenig Zeit investieren, um möglichst lange Freude mit den Medien zu haben.


War auch kein Angriff. Wollte es nur verstehen.

Könnte problemlos das in meinen Alltag implementieren so viele Medien kommen da nicht in 10 Jahren zusammen. Und 3 Tage testen wäre auch nicht schlimm.

Wundert mich, dass es dafür nicht irgendeine standardisierte Vorgehensweise gibt. Oder das Linux Skript.

Wie sind so die Erfahrungen bezüglich defekt ab Werk mit dem Test?
H3llh0und080907.08.2019 17:15

War auch kein Angriff. Wollte es nur verstehen.Könnte problemlos das in …War auch kein Angriff. Wollte es nur verstehen.Könnte problemlos das in meinen Alltag implementieren so viele Medien kommen da nicht in 10 Jahren zusammen. Und 3 Tage testen wäre auch nicht schlimm. Wundert mich, dass es dafür nicht irgendeine standardisierte Vorgehensweise gibt. Oder das Linux Skript.Wie sind so die Erfahrungen bezüglich defekt ab Werk mit dem Test?



Habe ich auch nicht als solchen wahrgenommen, keine Sorge!

Naja, SMART Tests sind ja bereits ein Standard und ein initialer Burn-in ist ebenfalls recht weit verbreitet, besonders bei Serversystemen. Badblocks ist da quasi nur ein Mittel zum Zweck. Skripte die so ziemlich genau das gleiche bewirken, dürftest du zuhauf im Netz rumfliegen sehen.

Meine persönlichen Erfahrungen sind eine objektive Einschätzung betreffend natürlich belanglos, aber ich habe durchaus schon einige Platten mit mechanischen Problemen oder defekten Sektoren geliefert bekommen. Insofern war ich da immer froh, unproblematisch das 14-tägige Rücksenderecht in Gebrauch nehmen zu können.
TabulaRazor07.08.2019 17:22

Habe ich auch nicht als solchen wahrgenommen, keine Sorge!Naja, SMART …Habe ich auch nicht als solchen wahrgenommen, keine Sorge!Naja, SMART Tests sind ja bereits ein Standard und ein initialer Burn-in ist ebenfalls recht weit verbreitet, besonders bei Serversystemen. Badblocks ist da quasi nur ein Mittel zum Zweck. Skripte die so ziemlich genau das gleiche bewirken, dürftest du zuhauf im Netz rumfliegen sehen. Meine persönlichen Erfahrungen sind eine objektive Einschätzung betreffend natürlich belanglos, aber ich habe durchaus schon einige Platten mit mechanischen Problemen oder defekten Sektoren geliefert bekommen. Insofern war ich da immer froh, unproblematisch das 14-tägige Rücksenderecht in Gebrauch nehmen zu können.


Mit „ein paar“ kann ich ja schon was anfangen. Danke.

Das mit dem Retournieren ist leider undankbar. Der nächste Käufer bekommt die Platte, je nach Händler, auch mal gerne als Neuware zugeschickt.

Da fehlt irgendwie noch ne Lösung seitens der Hersteller. „Eine“ Software mit Protokoll am Ende oder so. Bei Amazon kann doch keiner prüfen ob die Platte wirklich defekt ist!
H3llh0und080908.08.2019 09:49

Mit „ein paar“ kann ich ja schon was anfangen. Danke.Das mit dem Ret …Mit „ein paar“ kann ich ja schon was anfangen. Danke.Das mit dem Retournieren ist leider undankbar. Der nächste Käufer bekommt die Platte, je nach Händler, auch mal gerne als Neuware zugeschickt.Da fehlt irgendwie noch ne Lösung seitens der Hersteller. „Eine“ Software mit Protokoll am Ende oder so. Bei Amazon kann doch keiner prüfen ob die Platte wirklich defekt ist!


Das kannst nur Du prüfen. Daher Platten am besten immer "auf Vorrat" holen , wenn man sie noch nicht direkt braucht, sondern als Spiegel/Backup immer mitlaufen lassen, bis paar hundert Stunden drauf hat. Also drei bis sechs Monate am besten. Nach der Testphase kannst dann halbwegs sicher sein, dass das Teil durchhält.
Da komm ich wohl ein paar Stunden zu spät.... wohl abgelaufen
Dein Kommentar
Avatar
@
    Text