domenica 5 febbraio 2012

Corruzione silenziosa dei dati

Una ricerca del CERN (vecchiotta, risale al 2007) effettuata per valutare l'affidabilità dello storage dellla elevatissima mole di dati che gli esperimenti di LHC avrebbero generato ha evidenziato come le probabilità inizialmente piccole di corruzione dei dati implichino invece un significativo numero di errori data l'enorme quantità di dati che stiviamo sugli HD al giorno d'oggi (1Tb di dati significa avere qualcosa come 3 files corrotti).
Robin Harris, in questo articolo, sottilinea come le tecnologie utilizzate oggi sui sistemi mainstream (in particolare i file system) siano assolutamente inadeguati, al contrario invece dei sistemi di classe enterprise (come ad esempio ZFS).
Naturalmente i sistemi in grado di preservare la consistenza dei dati hanno un costo (elevato), pertanto la loro applicazione deve essere valutata in funzione del valore dei dati che si vogliono archiviare.

Penso che nel prossimo futuro farò un utilizzo sempre più consistente ed esteso di ZFS:

Per quanto riguarda Oracle:

Nessun commento: