W latach 50. w Stanach Zjednoczonych wraz ze zwiększeniem ilości danych cyfrowych pojawiła się potrzeba zapewnienia szybkiego dostępu do nich. Najbardziej popularne w tym czasie nośniki danych – karty perforowane i streamery – takiego dostępu nie zapewniali. W przypadku kart perforowanych, żeby znaleźć potrzebne informacje lub kod programu należało ręcznie przeszukać zbiór kart – kartotekę, a następnie znalezioną kartę umieścić w czytniku. To znacząco wydłużało tzw. seek time, czyli czas dostępu – charakterystyka systemów przechowywania danych cyfrowych oznaczająca prędkość odnajdywania przez system potrzebnych w tej chwili danych.
4.5 MB danych w 62,500 kartach perforowanych, USA, 1955. Źródło: Reddit.com
Krótszy „czas dostępu” zapewniały streamery, czyli napędy taśmowe (od ang. streamer), które zaczęły się pojawiać na początku lat 50.
Praca ze streamerami wymagała dobrego wzroku i wygodnych ubrań. Źródło: flashbak.com
Taśma magnetyczna z danymi pod czas przewijania się z jednej szpuli na drugą przechodziła przez głowicę magnetyczną – ten mechanizm jest dobrze znany entuzjastom kaset magnetofonowych, VHS i innych. Aby znaleźć przypadkowe (ang. random) dane, należało przewinąć taśmę do miejsca, gdzie te dane zapisano. Czynność ta w środowisku informatycznym otrzymała nazwę „polerowanie butów” (od ang. shoe shining).
W 1956 roku firma IBM wypuściła na rynek urządzenie, które miało raz na zawsze rozwiązać opisany wyżej problem. To był pierwszy dysk twardy, który nazywał się RAMAC – od ang. Random Access Method of Accounting and Control, czyli “metodadostępu przypadkowego do celów rejestracji i kontroli”. Po trzydziestu latach rozwoju tej technologii pojawiły się dyski o współczesnych wymiarach – 3,5 cala (dysk firmy Rodime w 1983) oraz 2,5 cala (dysk firmy PrairieTek w 1988).
Przez ponad 50 lat zasady działania dysków twardych pozostają bez zmian. Doskonali się tylko ich konstrukcja. Dzięki temu dyski twarde są uznawane obecnie za urządzenia pewne i niezawodne. Z czasem opracowano metody skutecznej naprawy dysków, czyli odzyskiwania danych w przypadku awarii, które, co trzeba przyznać, zdarzają się bardzo rzadko. Informacje o tych metodach oraz wielu innych ciekawych faktów związanych z odzyskiwaniem danych znajdziecie Państwo w moim artykule opublikowanym w czasopiśmie „Prokuratura i Prawo”.
BAD sektory to najczęstsza przyczyna “śmierci” starych dysków twardych, kiedy nie możemy uzyskać dostęp do wcześniej zapisanych plików. Jako osoba, która na co dzień zajmuje się zawodowo odzyskiwaniem danych z uszkodzonych dysków twardych, postaram się w kilku słowach wyjaśnić przyrodę tego zjawiska.
Na początku wyjaśnijmy sobie, czym jest sektor w przypadku współczesnych HDD.
Podłoże talerzy magnetycznych we współczesnych HDD może być zrobione ze szkła lub aluminium. Na nią napylane są drobne cząsteczki materiału ferromagnetycznego. Pod mikroskopem to przypomina troszeczkę kawior (Zdjęcie 1).
Przygotowane w ten sposób talerzy montują w dysku twardym, po czym wykonują pierwsze formatowanie. Nosi ono nazwę Servo Track Writing (w skrócie STW) i polega na tym, że zmieniając bieguny pola magnetycznego poszczególnych cząsteczek głowice zapisująco-odczytujące pozostawiają na powierzchni talerza niewidzialne koncentryczne ścieżki (ang. Track).
Zdjęcie 2. Track’i na powierzchni dysku twardego uwidocznione przy pomocy mikroskopu sił magnetycznych Źródło: Matesy GmbH – Own work, CC BY-SA 3.0
Każda ścieżka zostaje podzielona na określoną liczbę sektorów. Niżej na rysunku (3) widzimy graficzne zobrazowanie jednego z takich tracków.
Każdy track się składa z kilku sektorów z danymi (Data sector) oraz sektorów z serwo-znacznikami (Servo sector). Te ostatnie mają charakter techniczny. Dzięki nim układ sterujący dysku (układ ten, nazywany również Sterownikiem Dyskowym, składa się z procesora, pamięci operacyjnej, kontrolera silnika i kilku innych elementów) zlokalizowany na płytce drukowanej (tzw. PCB – Printed Circuit Board) może ustalić pozycję głowicy odnośnie centrum tracka. Sterownik non-stop koryguję pozycjonowanie głowicy, gdyż może ona ulegać zmianom na skutek wibracji napędu, fluktuacji aerodynamicznych oraz mikro defektów powierzchni talerza (np z tzw. efektem bicia (ang. Runout), który polega na odchyleniu rzeczywistego Track’a od idealnego okrągu, na przykład zbliżeniu go nieco formą do owalu.)
W górnej części rysunku nr 1 została pokazana (schematycznie) struktura data sectora.
Widzimy tu odstęp pomiędzy sektorami zlokalizowanymi na jednej ścieżce (tzw. gap), adres sektora (A.M. – Address Mark), obszar z danymi (data) oraz obszar z kodem korekcyjnym (ECC – error correction code).
Wiedząc już jaka jest budowa i zasada działania sektorów na dysku twardym możemy zrozumieć, czym są bad sektory. Powstają one, kiedy Sterownik Dyskowy nie potrafi odczytać (poprawnie) któregoś z wymienionych wyżej elementów – wtedy cały ten sektor zostanie oznaczony jako uszkodzony.
Podobne uszkodzenia mogą powstawać w wyniku negatywnych zmian w warstwie ferromagnetycznej lub fizycznej degradacji talerza, o której opowiemy niżej. Uszkodzenia warstwy magnetycznej zdążają się na przykład, kiedy głowica zapisująca w trakcie zapisu zamiast docelowego sektora/ścieżki nadpisuje sąsiedni sektor (sektory). Powodem tu może być silna wibracja lub uderzenie dysku. W takiej sytuacji na miejscu obszaru z danymi (Data) może się okazać, na przykład, ECC lub Data należące do innego sektora. Przy próbie odczytu Sterownik Dyskowy wykryje niezgodność ECC z danymi zapisanymi w sektorze. Taki sektor może być zaliczony do sektorów „podejrzanych”. Z uwagi na to, że warstwa magnetyczna nie jest w tym przypadku uszkadzana, Sterownik Dyskowy będzie próbował wykorzystać „podejrzany” sektor do zapisu innych danych i w razie niepowodzenia stwierdzi fizyczne uszkodzenie powierzchni. Inaczej sytuacja wygląda w przypadku nadpisania serwo-znaczników. Uszkodzone obszary wyłącza się wtedy z użytkowania, ponieważ ich rekonstrukcja wymaga powtórzenia fabrycznych procedur testowania dysku, co oznaczałoby także skasowanie danych użytkownika.
Uszkodzenia fizyczne powstają z tego powodu, że warstwa ferromagnetyczna posiada te same cechy co i każdy inny magnes, a więc z czasem traci właściwości magnetyczne. Z reguły, skutki tego procesu w przypadku współczesnych HDD można zauważyć już po około pięciu latach, jeśli dysk jest przechowywany na półce. Raportują o tym m. in. biegli sądowi, którzy po latach próbują odczytać dowody cyfrowe. Przejawia się to w ten sposób, że liczba hash, którą biegły oblicza za każdym razem przystępując do analizy nośnika danych cyfrowych, zaczyna się nie zgadzać z liczbą hash uzyskaną wcześniej.
Badania wykazują, że degradacja warstwy magnetycznej postępuję szybszej, jeśli mamy do czynienia ze znacznymi wahaniami temperatury. W rezultacie może to doprowadzić nawet do całkowitej utraty właściwości magnetycznych, co oznacza też, że nie da się już odczytać zapisane na dysku dane.
Wysokie temperatury w połączeniu z wilgotnością zwiększają intensywność procesów korozyjnych. Warstwa magnetyczna talerzy jest wykonana z metalu i jak każdy metal jest na tą korozję narażona. Aby się przed nią uchronić warstwa magnetyczna jest pokryta dodatkowo dwoma warstwami ochronnymi, przy czym górna warstwa ochronna ma właściwości smarujące. Kiedy głowica w wyniku wibracji lub uderzeń dysku dotyka powierzchni talerza, to kontaktuje przede wszystkim z warstwą smarującą i przez to nie uszkadza się i nie uszkadza warstwy magnetycznej. Talerz może spokojnie „przeżyć” kilka takich dotknięć. Oczywiście z czasem głowica będzie zabrudzona materiałem smarującym, a przez to zwiększy się wysokość jej lotu, a w konsekwencji również wrażliwość na zmiany pola magnetycznego (zdolność do poprawnego odczytania poszczególnych bitów). W najgorszym przypadku to prowadzi do uszkodzenia całego dysku (była to główna przyczyna wysokiej awaryjności dysków twardych Seagate serii 10).
Warto pamiętać o tym, że grubość warstw ochronnych jest bardzo mała. Producenci zawsze szukają kompromisu pomiędzy ochroną warstwy z danymi a zapewnieniem głowicom możliwości odczytu mikroskopijnych zmian pola magnetycznego. Głowica musi znajdować jak najbliżej warstwy magnetycznej, a przy tym zachowywać bezpieczną wysokość lotu nad powierzchnią talerza.
Rysunek 2. Graficzne zobrazowanie przekroju talerza magnetycznego, zrobione w 1997 roku. Grubość warstw ochronnych wtedy wynosiła ok. 16 nm (0,000016 mm) Źródło: Kanu G. Ashar, Magnetic Disk Drive Technology
Z powyższych rozważań wynika, że każde wyjście poza zakres rekomendowanych warunków eksploatacji HDD przyśpiesza degradację warstwy z danymi. Wysokie temperatury sprzyjają szybszej demagnetyzacji warstwy roboczej. W połączeniu z wysoką wilgotnością to prowadzi do jej szybszej korozji. Rekomendujemy więc sprawdzić czy Państwa dysk twardy nie przegrzewa się i w razie konieczności zainstalować dodatkowe chłodzenie. Należy również kontrolować wilgotność powietrza w pomieszczeniu, w którym znajduje się komputer. Wysoka wilgotność może prowadzić także do innych uszkodzeń techniki komputerowej.
Jeśli macie Państwo uwagi lub życzenia, to zapraszam do pozostawienia komentarzy