W niniejszym opracowaniu poruszono tematykę skuteczności nadpisywania danych jako metody niszczenia informacji i jej odporności na późniejsze próby odzyskiwania danych lub analizy śledczej. W kontekście konieczności ochrony poufnych i wrażliwych danych przed dostępem niepowołanych osób prawidłowe nieodwracalne usuwanie informacji jest ważnym elementem cyberbezpieczeństwa, jednak spośród skutecznych metod niszczenia danych można wybrać metodę najbardziej uzasadnioną względami ekonomicznymi lub najmniej uciążliwą dla środowiska naturalnego. Celem pracy jest rozważenie, w jakich sytuacjach i pod jakimi warunkami taką metodą może być nadpisywanie danych.
Poniżej zdefiniowano pojęcia odzyskiwania i niszczenia danych, a także przedstawiono metody niszczenia danych poprzez fizyczne uszkodzenie lub zniszczenie nośnika. Dalej opisano podstawowe zasady działania dysków twardych oraz nośników półprzewodnikowych wykorzystujących układy pamięci typu Flash-NAND ze szczególnym uwzględnieniem fizyki zapisu i odczytu informacji. Omówiono proponowane w literaturze metody i potencjalne możliwości odzyskiwania nadpisanych danych z uwzględnieniem ich fizycznych i technicznych ograniczeń oraz zagrożenia zakłócenia poprawnej pracy programów nadpisujących dane. Opisane zostały dotychczasowe osiągnięcia w zakresie odzyskiwania danych niezależnie od dysku z wykorzystaniem specjalistycznych urządzeń, a także wskazane zostały kierunki rozwoju technologii dysków twardych i elektronicznych nośników danych.
Nośnikiem danych jest każdy przedmiot pozwalający na przechowywanie informacji w sposób umożliwiający późniejsze jej wierne odtworzenie. Pierwszymi nośnikami danych były karbowane kawałki drewna, gliniane tabliczki, zwoje papirusu, sznurki z węzełkami itd. Pojawienie się możliwości utrwalania informacji w inny sposób, niż jej zapamiętanie znacznie ułatwiło i przyśpieszyło rozwój cywilizacji. Ważnym przełomem w historii nośników danych było wynalezienie druku, który pozwolił na łatwe i tanie powielanie i rozpowszechnianie informacji. Jednak zarówno księgi przepisywane ręcznie przez klasztornych skrybów, jak i masowo drukowane są nośnikami analogowymi, które zrozumieć może tylko człowiek. (...)
Współcześnie dane cyfrowe przechowywane są w plikach zorganizowanych w strukturach logicznych. Struktury te zwykle widziane są przez użytkownika w formie drzewa katalogów niekiedy nazywanych folderami. Struktury logiczne zarządzane są przez systemy plików. Jednak nie zawsze tak było. W początkach techniki komputerowej dane były zapisywane i adresowane bezpośrednio w adresacji fizycznej nośników. Ciężar odnalezienia właściwych danych spoczywał na operatorze. To właśnie dlatego taśmy i karty perforowane często były opisywane w sposób czytelny dla człowieka, a niekiedy nawet zawierały pełne powtórzenie zakodowanej w nich informacji.
(...)
Jednym z podstawowych zadań systemu plików jest ochrona już zapisanych danych przed przypadkowym uszkodzeniem przez zapisanie w tym samym miejscu innej informacji. To właśnie system plików wie, które fragmenty zarządzanego przezeń obszaru nośnika są zajęte, a które są wolne i mogą przyjąć kolejne informacje. Jeśli obszar wolnego miejsca jest zbyt mały, by przyjąć kolejną porcję informacji, system zwróci komunikat informujący o niewystarczającej ilości wolnego miejsca na dysku (partycji). Ilość wolnego miejsca można zwiększyć poprzez usunięcie (skasowanie) informacji już znajdującej się na nośniku.
(...)
Odzyskiwanie danych to zespół czynności zmierzających do odzyskania informacji, do której został utracony dostęp przy pomocy zwykłych środków systemu operacyjnego,
w przypadku, gdy nie istnieje jej użyteczna kopia zapasowa. Przywrócenie danych z wykorzystaniem istniejącej kopii zapasowej nie jest odzyskiwaniem danych, a rutynową procedurą wykonywaną przez administratorów systemów. W przypadku istnienia sprawnej kopii zapasowej i jej pozostawania w dyspozycji obcego dysponenta żadna procedura niszczenia danych nie może być uznana za skuteczną. Dopiero w przypadku odpowiedniego zniszczenia wszystkich istniejących kopii informacji można uznać, że ta informacja została zniszczona.
(...)
Niszczenie danych polega na podjęciu takich działań, aby odzyskanie niszczonej informacji nie było w przyszłości możliwe żadnymi środkami. Podejmowanie działań w celu nieodwracalnego zniszczenia informacji nie musi wynikać z zamiaru zniszczenia dowodów działań nielegalnych lub nieetycznych. Może być ono podyktowane ochroną interesów właściciela tych danych, a także wymogami organizacyjnymi lub prawnymi związanymi np. z ochroną danych osobowych.
(...)
Niszczenie danych jest istotnym zagadnieniem z zakresu ochrony informacji przed nieautoryzowanym dostępem. Z tego względu procedury niszczenia danych są objęte różnego rodzaju regulacjami opracowywanymi przez instytucje rządowe, wojskowe i naukowe. Jednak szczegółowa lektura tych regulacji każe zwrócić uwagę na istotne rozbieżności pomiędzy nimi. Dlatego wybór odpowiedniej procedury gwarantującej skuteczność procesu niszczenia danych bez generowania nadmiernych kosztów często budzi poważne wątpliwości.
(...)
Dysk twardy jest energoniezależnym (nieulotnym – niewymagającym stałego zasilania dla podtrzymania stanów logicznych) nośnikiem danych wykorzystującym do przechowywania informacji zapis magnetyczny na jednym lub wielu talerzach zamkniętych
w obudowie. W początkach pamięci masowych tego typu obudowy były otwierane, a talerze mogły być wyjmowane i przenoszone do innych napędów. Obecnie otwarcie obudowy zwanej też hermoblokiem i ingerencja w podsystem mechaniczny dysku twardego jest równoznaczna z jego nieprzydatnością do dalszej eksploatacji. Operacje tego typu są zazwyczaj wykonywane tylko przez wyspecjalizowane laboratoria w celu odzyskania danych z niesprawnego nośnika.
(...)
Dane w dyskach twardych przechowywanie są w cienkiej warstwie magnetycznej pokrywającej obie powierzchnie wszystkich talerzy. Od fizycznych właściwości materiałów, z których jest wykonana ta warstwa uzależnione są parametry zapisu i odczytu sygnału, możliwa do uzyskania gęstość zapisu informacji, trwałość i odporność przechowywanego zapisu na czynniki zewnętrzne, takie jak zewnętrzne pole magnetyczne lub temperatura. Właściwości warstwy magnetycznej wpływają również na możliwość wystąpienia błędów podczas odczytu lub zapisu danych.(...)
Dysk twardy przechowuje informację na powierzchniach talerzy magnetycznych, na których utworzone są koncentryczne ścieżki podzielone na sektory. W celu uniknięcia zjawiska mimośrodowości, ścieżki i sektory tworzone są pod koniec procesu produkcji, już po mechanicznym złożeniu dysku. Proces tworzenia struktury ścieżek i sektorów na powierzchni nośnika nazywany jest formatowaniem niskopoziomowym.(...)
Aby było możliwe przesyłanie lub przechowywanie jakiejkolwiek informacji, konieczne jest określone powiązanie stanów logicznych z fizycznym stanem medium. Metody reprezentacji stanów logicznych można podzielić na dwie grupy: z powrotem do zera (RZ – Return-to-Zero) i bez powrotu do zera (NRZ – Non-Return-to-Zero). (...)
Odczytywany przez głowice sygnał magnetyczny jest sygnałem analogowym. Analogowa natura sygnału jest podstawą przekonania, że jego dokładna analiza może pozwolić na ustalenie poprzedniego stanu logicznego domeny. Często cytowany przykład z pracy Petera Gutmanna mówi, że jeżeli 0 zostanie przemagnesowane do logicznej jedynki, to w rzeczywistości osiągnie wartość 0,95, zaś przemagnesowanie jedynki na jedynkę wzmocni sygnał do poziomu 1,05. Sama analiza tego typu wymagałaby przechwycenia sygnału bezpośrednio z bloku głowic magnetycznych przy pomocy oscyloskopu, użycia mikroskopu sił magnetycznych lub podobnej aparatury.(...)
W najstarszych dyskach twardych gęstość zapisu danych była niewielka, a zmiany polaryzacji powierzchni dawały wyraźne i precyzyjne impulsy sygnału. Przy odczycie sygnału wystarczające było wykrywanie szczytów tych impulsów (peak-detection). Stosowanie tej metody wymaga, by amplituda sygnału była wyraźnie wyższa od poziomu szumu. W miarę wzrostu gęstości zapisu rośnie znaczenie zakłóceń występujących pomiędzy kolejnymi impulsami – tzw. interferencji międzysymbolowej (Inter Symbol Interference - ISI) oraz zmniejsza się odstęp sygnału od szumu. Konieczne staje się stosowanie coraz czulszych detektorów lub odpowiednie wzmocnienie sygnału. (...)
Podstawy serwomechanizmu współczesnych dysków twardych sięgają początku lat '70 poprzedniego stulecia, gdzie w konstrukcjach IBM 330 Merlin Drive oraz IBM 3340 Winchester po raz pierwszy w podsystemie serwomechanizmu zastosowano zamkniętą pętlę sprzężenia zwrotnego. Pętla sprzężenia zwrotnego wykorzystuje zamieszczoną na ścieżkach informację serwo do kontroli aktualnego położenia głowicy.(...)
Począwszy od przełomu lat '80 i '90 ubiegłego wieku do pozycjonowania bloku głowic magnetycznych w dyskach twardych powszechnie stosowane są silniki liniowe zbudowane z cewki umieszczonej pomiędzy dwoma magnesami stałymi. Po przeciwnej stronie bloku znajduje się zespół głowic magnetycznych. Całość umieszczona jest na osi, która pozwala na ruch obrotowy bloku. Magnesy są przymocowane na stałe do obudowy dysku twardego zazwyczaj za pomocą śrub lub nitów.(...)
Silniki elektryczne są urządzeniami służącymi do zamiany energii elektrycznej na pracę mechaniczną. Podstawą ich budowy są dwa elementy: nieruchomy stojan (stator) oraz obracający się wirnik (rotor). Na jednym z nich umieszcza się uzwojenia, a na drugim magnesy stałe. Możliwe jest umieszczenie wirnika wewnątrz stojana lub stojana wewnątrz wirnika. Powodowane zmianami prądu przepływającego przez uzwojenia zmiany pola elektrycznego w pochodzącym od stałych magnesów polu magnetycznym wymuszają obrót wirnika względem stojana.(...)
Krótko po 2000 r. producenci dysków twardych osiągnęli kres możliwości dalszego zwiększania gęstości zapisu informacji przy stosowanej wówczas metodzie zapisu równoległego (podłużnego). Wzajemne oddziaływania pomiędzy poszczególnymi domenami magnetycznymi powodowały, że dalsze zmniejszanie rozmiarów domen i zwiekszanie gęstości ich upakowania na powierzchni talerza skutkowałoby obniżeniem jakości danych oraz wzrostem ryzyka ich uszkodzenia lub utraty. Jedną z najpoważniejszych przeszkód uniemożliwiających dalsze zwiększanie gęstości zapisu równoległego jest zjawisko superparamagnetyzmu. (...)
Shingled Magnetic Recording – gontowy (dachówkowy) zapis magnetyczny, to technologia wykorzystująca fakt, że głowica odczytująca jest w stanie odczytać o wiele węższą ścieżkę niż zapisuje głowica zapisująca. Zwiększenie gęstości zapisu uzyskiwane jest przez częściowe nadpisanie sąsiedniej ścieżki. Zapis kolejnych ścieżek odbywa się z przesunięciem
w stosunku do poprzednich odpowiadającym szerokości głowicy odczytującej.(...)
Współczesne nośniki półprzewodnikowe takie, jak karty pamięci, pendrivy czy dyski SSD do przechowywania informacji użytkownika wykorzystują układy Flash-NAND. Nazwa układów pamięci tego typu pochodzi z języka angielskiego. Słowo „flash” oznacza w tym języku „błysk”, stąd i w języku polskim półprzewodnikowe nośniki danych niekiedy nazywane są pamięciami błyskowymi. Natomiast NAND jest skrótem od określenia „not-and” oznaczającego funkcję dysjunkcji logicznej (negacji koniunkcji). W polskiej literaturze można też spotkać określenie NIE-I.(...)
Najstarsze układy Flash NAND potrafiły odróżnić tylko dwa stany komórki pamięci: naładowana (zazwyczaj interpretowana jako logiczne zero) i nienaładowana (logiczna jedynka). Analogowa natura komórek pamięci oraz wzrost dokładności pomiaru prądu płynącego pomiędzy elektrodami tranzystora w procesie odczytu pozwoliły na wyróżnienie więcej niż dwóch stanów logicznych. Pozwala to przechowywać w jednej komórce pamięci więcej niż jeden bit informacji. (...)
Pamięci typu Flash-NAND nie pozwalają na zaadresowanie i uzyskanie dostępu bezpośrednio do dowolnej komórki pamięci. Tranzystory grupowane są w strony, które stanowią minimalną jednostkę adresowania przy odczycie. Rozmiar strony odpowiada zazwyczaj rozmiarowi rejestru danych danego układu pamięci. W najstarszych układach Flash NAND wyróżniano dwa typy stron – małą i dużą. Mała strona liczyła 528 bajtów – 512 B odpowiadających sektorowi danych użytkownika i 16 B informacji nadmiarowej. Duża strona miała rozmiar 2112 B – 2048 B odpowiadające czterem sektorom danych użytkownika i 64 B informacji nadmiarowej.(...)
Kontrolery nośników półprzewodnikowych wykonują podczas zapisu szereg operacji skupionych głównie na zapewnieniu jak największej szybkości i wydajności urządzenia, a także przedłużaniu jego żywotności i ograniczaniu ryzyka awarii. Pierwszy z tych celów osiąga się przede wszystkim przez rozpraszanie danych we wszystkich układach wchodzących w skład nośnika. Takie rozproszenie pozwala na równoległe przetwarzanie informacji w tych układach, przez co można uzyskać szybsze transfery tak podczas zapisu, jak i odczytu. Z kolei zapewnieniu jak najdłuższej bezawaryjnej pracy nośnika służy przede wszystkim kontrola zużycia i eliminacja z eksploatacji uszkodzonych bloków.(...)
Naturalne zużycie komórek pamięci jest najważniejszą przyczyną uszkodzeń nośników informacji wykorzystujących pamięci Flash-NAND. Awarie spowodowane uszkodzeniem bramek pływających tranzystorów mogą skutkować błędami w plikach użytkownika, strukturze logicznej systemu plików, ale też często błędami w zawartości lub strukturze danych serwisowych służących zapewnieniu poprawnej pracy urządzenia, a zwłaszcza podsystemu translacji fizycznej adresacji opartej o numery bloków i stron na logiczną adresację LBA. W przypadku uszkodzenia informacji niezbędnej dla prawidłowej translacji adresów fizycznych na logiczne podstawowy mikrokod urządzenia nie pozwala na dostęp do zawartości układów Flash-NAND. (...)
Wystąpienie pojedynczych bitowych błędów podczas odczytu stron nie jest dostatecznym powodem dla wyłączenia bloku z eksploatacji. W większości przypadków pojedyncze błędy odczytu są korygowane z wykorzystaniem kodów ECC (ang. Error Correction Code). Błędami przesądzającymi o uznaniu blok za uszkodzony zazwyczaj są błędy powstające podczas operacji kasowania i programowania w liczbie przekraczającej możliwości kodów korekcji ECC.
(...)
Jednym z podstawowych czynników wpływających zarówno na trwałość, jak i na wydajność nośników półprzewodnikowych wykorzystujących układy Flash-NAND jest liczba wolnych bloków gotowych na przyjęcie informacji. Najbardziej kosztownym sposobem uzyskania dużej liczby nadmiarowych bloków jest produkowanie nośników o fizycznej pojemności znacząco wyższej od nominalnej. Ze względów ekonomicznych producenci poszukują rozwiązań pozwalających na uzyskanie podobnego efektu bez zwiększania kosztów produkcji. Wykorzystują przy tym fakt, że dla poprawnego funkcjonowania nośnika i zawartej na nim informacji nie wszystkie dane faktycznie muszą być na tym nośniku przechowywane.
(...)
Fizyczne metody niszczenia danych są ukierunkowane na takie uszkodzenie nośnika, by odzyskanie z niego danych stało się niemożliwe. W przypadku tych metod nośnik z założenia staje się niezdatny do dalszej eksploatacji i musi zostać zutylizowany. Fizyczne metody niszczenia danych znajdują szerokie zastosowanie w wielu instytucjach zobligowanych przepisami prawa lub wewnętrznymi regulacjami do niszczenia nośników zgodnie z określonymi procedurami. Fizycznie powinny być także niszczone nośniki niesprawne, w stosunku do których nie jest możliwe skuteczne zastosowanie nieniszczących metod bezpowrotnego usunięcia informacji.(...)
Chemiczne metody niszczenia informacji sprowadzają się do rozpuszczenia nośnika w różnego rodzaju roztworach. Wybór substancji używanych do rozpuszczania nośników ograniczony jest materiałami, z których te nośniki są wykonywane. O ile nośniki wykonane z tworzyw sztucznych takie, jak płyty CD i DVD można zniszczyć stosunkowo łatwo, o tyle dyski twarde zbudowane z wykorzystaniem wielu różnych materiałów, w tym metali szlachetnych wymagają staranniejszego doboru odpowiedniego roztworu.(...)
Termiczne metody niszczenia danych polegają na poddaniu nośników działaniu odpowiednio wysokiej temperatury. Wartość tej temperatury jest różna dla różnych nośników. O ile nośniki wykonane z tworzyw sztucznych mogą się topić już w temperaturze kilkudziesięciu stopni Celsjusza, o tyle dyski twarde oraz nośniki półprzewodnikowe wykorzystujące układy Flash-NAND potrafią wytrzymać temperatury rzędu kilkuset stopni Celsjusza.(...)
Mechaniczne metody niszczenia nośników danych powszechnie uważane są za najskuteczniejszy sposób niszczenia informacji. Jednocześnie są to metody relatywnie tanie, zwłaszcza najprostsze z nich, jak np. uderzenie młotkiem lub przewiercenie dysku. Często też stosowane są profesjonalne urządzenia, jak zginarki, czy młynki do dysków. Jednak skuteczność niektórych spośród tych metod jest wysoce wątpliwa.(...)
Demagnetyzacja stosowana jest do niszczenia informacji na magnetycznych nośnikach danych, takich jak dyski twarde, dyskietki, taśmy magnetyczne. Demagnetyzację przeprowadza się zazwyczaj przy użyciu specjalnych urządzeń – demagnetyzerów zwanych też degausserami. Najważniejszym elementem takiego urządzenia jest umieszczona wewnątrz cewki komora na nośnik.(...)
Często przywoływane, choć niewykorzystywane w praktyce są metody wykorzystujące promieniowanie ultrafioletowe lub jonizujące. Metody te nawiązują do dawnego sposobu kasowania układów EPROM (Erasable – Programmable Read Only Memory) poprzez naświetlanie ich światłem ultrafioletowym o długości fali 253,7 nm. Energia dostarczana za pomocą światła ultrafioletowego służyła do uwolnienia elektronów z bramek pływających tranzystorów tworzących komórki bitowe pamięci.(...)
Jednym z proponowanych sposobów niszczenia danych jest wykorzystanie materiałów wybuchowych lub pirotechnicznych. W praktyce sposób ten można rozpatrywać jako metodę pośrednią pomiędzy uszkodzeniami nośnika mechanicznymi, a termicznymi. Jest to bardzo niepewny sposób niszczenia danych, a jego skuteczność jest losowa i trudna do zweryfikowania.(...)
Akta postępowań sądowych i kroniki kryminalne są kopalnią wielu różnych pomysłów niszczenia danych poprzez fizyczne uszkodzenie nośnika. Obok opisanych wyżej metod mechanicznych, do najpopularniejszych działań zmierzających do zniszczenia danych należy zalanie nośnika wodą lub inną cieczą oraz spowodowanie zwarć lub innych uszkodzeń o charakterze elektrycznym.(...)
W Internecie oraz w literaturze spotyka się różnego rodzaju koncepcje metod odzyskiwania danych w przypadku nadpisania. Skupiają się one zazwyczaj na odzyskiwaniu danych z nośników magnetycznych, a zwłaszcza z dysków twardych. W przypadku nośników półprzewodnikowych sprawa możliwości odzyskiwania nadpisanych danych jest dość oczywista. Zapisanie jakiejkolwiek informacji do bloku pamięci Flash-NAND wymaga jego uprzedniego skasowania w całości – opróżnienia bramek pływających wszystkich komórek pamięci ze znajdujących się w nich ładunków elektrycznych. Technologia ta nie daje więc dostatecznych podstaw dla twierdzeń o potencjalnej możliwości odzyskania nadpisanych danych.(...)
Zjawisko histerezy wiąże się z opóźnieniem reakcji na czynniki zewnętrzne. Tym samym aktualny stan układu może zależeć nie tylko od warunków, w jakich układ się znajduje, ale też od jego poprzedniego stanu. Także materiały magnetyczne charakteryzują się histerezą zależną od koercji danego materiału. Fakt ten leży u podstaw koncepcji wykorzystania zjawiska histerezy magnetycznej w celu ustalenia poprzedniego stanu namagnesowania warstwy magnetycznej dysku twardego.(...)
Magnetyzm rezydualny (resztkowy, szczątkowy), to pozostałości w rozmagnesowanym materiale magnetycznym poprzedniego namagnesowania. Można je spotkać w różnych materiałach magnetycznych, w tym w analogowych nośnikach informacji. W przypadku nośników cyfrowych, w tym w dyskach twardych, magnetyzm rezydualny praktycznie nie występuje.(...)
Jednym z najczęściej podnoszonych argumentów za możliwością odzyskania nadpisanych danych jest możliwość niedokładnego nadpisania ścieżki przez głowicę, która z wielu powodów może nie dość dokładnie trafić w ścieżkę, którą ma zapisać. Wśród przyczyn takiego zachowania głowicy najczęściej wskazywane są brak dostatecznej precyzji wykonania elementów mechanicznych dysku, pojawiająca się w trakcie eksploatacji dysku mimośrodowość osi, na której osadzone są talerze, różnice rozszerzalności temperaturowej materiałów, z których są wykonane poszczególne podzespoły dysku. Dowodem na występowanie problemów tego typu są doświadczenia z taśmami magnetofonowymi, gdzie faktycznie nierzadko po zapisaniu nowej ścieżki można usłyszeć krótkie fragmenty poprzedniego nagrania.(...)
Opisana przez Francisa Bittera w 1931 r. metoda obserwacji domen magnetycznych opiera się na wykorzystaniu roztworu koloidowego zawierającego cząsteczki magnetyczne (zwykle tlenki żelaza). Wchodzące w skład roztworu środki powierzchniowo czynne zapobiegają skupianiu się tych cząsteczek. Metoda Bittera jest metodą inwazyjną. Roztwór rozprowadza się na oczyszczonej i wypolerowanej powierzchni, gdzie cząsteczki magnetyczne przyciągane są przez pole magnetyczne pochodzące od granic domen magnetycznych tworzą wzdłuż tych granic ciemne linie. Rozmieszczenie tych linii odpowiada impulsom generowanym przez ściany domenowe w przebiegu elektrycznym odczytywanym przez głowice.(...)
Obecność pola magnetycznego może być obserwowana z wykorzystaniem efektów magnetooptycznych odkrytych przez Michaela Faradaya oraz Johna Kerra. Efekt Faradaya polega na obrocie płaszczyzny polaryzacji światła spolaryzowanego liniowo w czasie przejścia przez ośrodek pod wpływem pola magnetycznego. Kąt obrotu uzależniony jest od wartości indukcji magnetycznej oraz długości odcinka, na jakim oddziałuje ona na światło. Bardzo podobnym zjawiskiem jest efekt Kerra polegający na skręceniu płaszczyzny polaryzacji światła odbitego od namagnesowanej powierzchni. Efekt Kerra jest wykorzystywany m. in. w nośnikach magnetooptycznych oraz może być wykorzystany do obserwacji namagnesowania powierzchni.(...)
Mikroskop sił magnetycznych jest urządzeniem, które rejestruje namagnesowanie badanej powierzchni poprzez modulację częstotliwości z jaką wibruje przemieszczające się nad tą powierzchnią pokryte cienką warstwą ferromagnetyka ostrze. Urządzenie to pozwala na przeskanowanie całej powierzchni talerza magnetycznego włącznie z obszarami pomiędzy ścieżkami i uzyskanie wysokiej rozdzielczości obrazu sił magnetycznych. Jednak obraz uzyskany w ten sposób jest jedynie odzwierciedleniem namagnesowania powierzchni i aby z tego obrazu uzyskać użyteczną informację konieczne jest zmierzenie się z szeregiem problemów. (...)
Spin-stand, to grupa wykorzystywanych głównie przez producentów dysków twardych urządzeń pozwalających na testowanie podzespołów dysków twardych w laboratoriach fabrycznych. Urządzenia te pozwalają na zapis i odczyt talerza magnetycznego przy pomocy głowicy magnetorezystywnej w sposób podobny, jak to się dzieje w dyskach twardych, z tym, że interpretacja odczytywanego przez te urządzenia sygnału magnetycznego w celu uzyskania logicznego obrazu zapisanych na dysku danych napotyka podobne problemy, co w przypadku skanowania powierzchni talerza przy pomocy mikroskopu sił magnetycznych. Z tego powodu w testach fabrycznych nie używa się rzeczywistych danych, ale stosuje się odpowiednio przygotowane wzorce do zapisu ścieżek referencyjnych. (...)
W przypadku technicznie sprawnego dysku twardego istnieje możliwość przechwycenia oraz akwizycji sygnału analogowego z głowic dysku twardego poprzez wpięcie sond oscyloskopu do wyprowadzeń kanału odczytu w złączu bloku głowic magnetycznych. Przechwycony w ten sposób nieprzetworzony przez procesor sygnałowy sygnał analogowy może posłużyć do analizy w poszukiwaniu śladów poprzedniego nagrania. Uzyskanie w ten sposób sygnału jest szybsze i łatwiejsze niż w przypadku urządzeń spin-stand, gdyż następuje bez skutkującej mimośrodowością ingerencji w podsystem mechaniczny dysku, jednak nie pozwala na analizę sygnału leżącego przy krawędzi ścieżki lub poza nią. Sterowana przez oryginalne oprogramowanie wewnętrzne dysku i korzystająca z oryginalnego serwomechanizmu głowica będzie podążała za środkiem ścieżki.(...)
Dysk twardy, oprócz danych użytkownika, zawiera szereg informacji, których istnienia większość użytkowników nie jest świadomych. Przede wszystkim są to informacje zawarte na ujemnych ścieżkach poszczególnych lub wszystkich powierzchni talerzy – w strefie serwisowej. Są to informacje niezbędne dla prawidłowej pracy dysku, w tym informacje unikalne i krytyczne dla dostępu do danych użytkownika, jak np. listy defektów, tablice stref, informacje niezbędne do poprawnej translacji adresów fizycznych w adresy LBA, kopia zawartości pamięci ROM, logi SMART i testów fabrycznych, a także informacje o nieznanym lub nieistotnym znaczeniu. Często w strefie serwisowej znajdują się też ścieżki przeznaczone do przeprowadzania testów głowic. Ponadto na ścieżkach w obszarze adresacji LBA rozmieszczone są serwometki, znaczniki adresowe sektorów, a także kody i sumy kontrolne wykorzystywane przez wewnętrzne mechanizmy korekcji.(...)
Wszystkie produkowane nośniki danych są zgodne z określonymi standardami zapewniającymi ich kompatybilność z innymi urządzeniami oraz z oprogramowaniem.
W szczególności dyski twarde i SSD są zgodne ze standardami ATA lub SCSI. Możliwości modyfikacji oprogramowania wewnętrznego dysku w celu nieautoryzowanego przechwycenia danych są teoretycznie dość znaczne, ale napotykają szereg problemów technicznych i logistycznych.(...)
W wersji czwartej standardu ATA wprowadzona została komenda SET MAX ADDRESS pozwalająca na zmniejszenie ilości dostępnych sektorów LBA w stosunku do maksymalnej wielkości fabrycznej. Tworzy się w ten sposób obszar dysku zwany HPA – Host Protected Area lub rzadziej Hidden Protected Area niedostępny dla systemów operacyjnych i większości programów. Jest to polecenie dość szeroko wykorzystywane w naprawach dysków twardych polegających na ukryciu końcowych zdegradowanych obszarów, ale może też być użyte do ukrycia obszarów zawierających informację. W obszarze HPA mogą zostać umieszczone informacje niezbędne do przywrócenia poprawnej pracy systemu operacyjnego, wykorzystywane w systemach zabezpieczeń przeciwkradzieżowych, ale też obszar ten może posłużyć do ukrycia określonych danych.(...)
Istnieje techniczna możliwość takiego przygotowania oprogramowania wewnętrznego nośnika, aby ten duplikował dane w części nośnika poza przestrzenią adresacji LBA. Z przyczyn ekonomicznych jest to skrajnie mało prawdopodobne na etapie fabrycznym. Wymagałoby to wyprodukowania nośnika o pojemności dwukrotnie większej od nominalnej, co, biorąc pod uwagę, że proceder ten musiałby objąć całe partie produkcyjne, aby taki nośnik miał realne szanse dostać się do właściwego komputera, byłoby skrajnie nieefektywne ekonomicznie. Podobnie, jak w przypadku ingerencji w firmware w celu zakłócenia poprawnej pracy komend ATA o wiele prawdopodobniejszy byłby precyzyjny atak skierowany przeciw konkretnemu podmiotowi.(...)
Niektóre typy nośników mogą przechowywać dane lub ich część poza adresacją LBA. W szczególności dotyczy to nośników wykorzystujących układy Flash-NAND, jak SSD, pendrivy i karty pamięci. Dotyczy to też układów Flash-NAND wykorzystywanych jako bufory dysków SSHD. Ale także w przypadku dysków twardych wykorzystujących technologię SMR występują fizyczne jednostki adresowania przechowujące nieaktualne dane użytkownika, którym nie przypisano adresów LBA. (...)
W trakcie pracy z danymi bardzo często są one buforowane. Buforowanie na ogół podyktowane jest dążeniem do zwiększenia wydajności pracy przy zadanych ograniczeniach ekonomicznych. Zazwyczaj szybsze nośniki danych są wyraźnie droższe od wolniejszych. Stąd jest ekonomicznie uzasadnione przechowywanie dużych zbiorów danych na nośnikach pojemnych i wolnych przy jednoczesnym wykorzystaniu szybkich buforów o ograniczonej pojemności, dostatecznej dla przechowywania informacji potrzebnej do bieżącego przetwarzania. (...)
Defekty nośników danych są powszechnie występującym problemem. Stworzenie nośników całkowicie wolnych od defektów wprawdzie jest teoretycznie możliwe, jednak wobec oczekiwań rynkowych pojemnych i wydajnych urządzeń w niskiej cenie jest nieuzasadnione ekonomicznie. Z drugiej strony istnieją granice akceptowalnego ryzyka utraty informacji w związku z nieprawidłową pracą nośnika. Dlatego producenci implementują rozwiązania eliminujące uszkodzone jednostki alokacji z przestrzeni adresacji LBA, aby nie mogły być użyte do przechowywania danych i nie wpływały negatywnie na działanie urządzenia. Rozwiązania te mogą być wykorzystane do ukrycia poza adresacją LBA sprawnych jednostek alokacji, w których może być ukryta wrażliwa informacja.
(...)
Celem steganografii jest ukrycie istnienia znaczącej informacji przed niepowołanymi osobami. Podstawową różnicą pomiędzy steganografią, a kryptografią jest to, że celem kryptografii nie jest ukrycie faktu istnienia tej informacji, a jedynie utajnienie jej treści. Oczywiście steganografia i kryptografia mogą być stosowane łącznie. Steganografia niesie ze sobą ryzyko ukrycia danych w przypadku nadpisywania selektywnego. (...)
Jedynym urządzeniem dotychczas skonstruowanym specjalnie w celu odzyskania danych z talerza magnetycznego niezależnie od dysku twardego jest Signal Trace firmy Active Front. Jest to urządzenie, które ze względu na swoją konstrukcję można zaliczyć do kategorii urządzeń spin-stand, jednak urządzenia spin-stand projektowane są z myślą o testowaniu podzespołów dysków twardych przez laboratoria fabryczne.(...)
Trudno nie zauważyć możliwości wykorzystania potencjału urządzeń typu spin-stand w informatyce śledczej i odzyskiwaniu danych. W przeszłości przeprowadzono szereg eksperymentów w tym zakresie. Do najbardziej znaczących należą prace Isaaka Mayergoyza i Chuna Tse. Ich zainteresowania obejmowały także możliwość odzyskania przy pomocy urządzenia spin-stand danych nadpisanych.(...)
Do odzyskiwania danych użytkownika z dysku twardego można użyć dowolnego z dostępnych na rynku urządzeń typu spin-stand. Urządzenie takie, podobnie jak i opisany wcześniej Signal Trace, wymaga odpowiedniego dostosowania do pracy z konkretnym modelem dysku twardego i wzorcem serwo, a także konieczne jest odpowiednie programowe przetworzenie i interpretacja uzyskanego sygnału analogowego. Procedurę tę przeprowadził w 2007 r. Chun-Yang Tseng odzyskując przy pomocy urządzenia Guzik 1701-MP dane z wyprodukowanego w 1997 r. dysku o pojemności 2,57 GB.(...)
Przeprowadzone na początku lat '90 XX wieku przez zespół Romla Gomeza z wykorzystaniem mikroskopu sił magnetycznych eksperymenty wykazały możliwość ustalania poprzedniego namagnesowania pojedynczych domen po nadpisaniu informacji. Jednak należy pamiętać, że prawdopodobieństwo powtórzenia w określonym miejscu jednej z dwóch wartości polaryzacji namagnesowania wynosi 50 %. Ponieważ prawdopodobieństwo łącznego wystąpienia zdarzeń niezależnych jest iloczynem prawdopodobieństw wystąpienia każdego z nich, wartość ta wykładniczo spada z każdą kolejną domeną. Podobnie rośnie prawdopodobieństwo skumulowania błędów podczas pracy dysku i spada prawdopodobieństwo odzyskania jakichkolwiek użytecznych danych. Mniej więcej właśnie taki rezultat można uzyskać próbując odzyskiwać nadpisane dane przy pomocy rzutu monetą i interpretując wynik orzeł/reszka jako określony stan logiczny. (...)
Mikroskopy sił atomowych pozwalają na badanie różnego rodzaju oddziaływań, w tym także na obrazowanie potencjałów elektrycznych. Koncepcja wykorzystania mikroskopów sił atomowych do ustalania poziomów naładowania bramek pływających układów typu Flash wywodzi się z procedur inżynierii wstecznej, w których dla ustalenia topologii układów scalonych wykorzystuje się takich środków, jak np. promieniowanie röntgenowskie, rozwarstwianie , a także mikroskopia optyczna i sił atomowych. Wprawdzie badań tego typu przeprowadzono znacznie mniej od mikromagnetycznych badań powierzchni dysków twardych i są one mniej znane, jednak możliwe jest podjęcie prób odzyskiwania danych z uszkodzonych układów typu Flash-NAND nawet w sytuacji, kiedy z układem, jako całością, nie można nawiązań żadnej komunikacji. (...)
Niezależnie od analizy namagnesowania powierzchni talerza dysku twardego przy pomocy mikroskopów sił magnetycznych i urządzeń typu spin-stand, można podjąć próbę szczegółowej analizy sygnału odczytywanego przez głowice magnetyczne. Badania w tym kierunku były prowadzone przez Serhija Kożenewśkiego ze specjalizującego się w odzyskiwaniu danych kijowskiego serwisu komputerowego Epos. Podczas tych badań zauważone zostały różnice kształtu impulsów wywoływanych w przebiegu sygnału przez zmiany namagnesowania.(...)
Skuteczne odzyskanie nienadpisanych danych niezależnie od dysku przy okazji wykazało skalę problemów związanych z próbą odzyskania danych nadpisanych. W szczególności bardzo trudne jest uzyskanie dostatecznie silnego sygnału przy odczycie wzdłuż krawędzi ścieżek, aby nadawał się do zdekodowania i wykorzystania przy odzyskiwaniu danych. Ponadto nawet po odpowiednim wzmocnieniu tego sygnału, będzie to sygnał pochodzący w przeważającej mierze z aktualnego stanu zapisu na ścieżce. Wynika to m. in. z większej szerokości elementu zapisującego głowicy. Dodatkowo sygnał ten będzie silnie zakłócony w wyniku oddziaływania sygnału pochodzącego ze ścieżki sąsiedniej. (...)
Postęp w rozwoju dysków twardych doprowadził do znaczącego wzrostu ich pojemności oraz szybkości pracy przy jednoczesnym zmniejszeniu ich rozmiarów. Wymagało to znacznego zwiększenia gęstości zapisu, rozwinięcia precyzji wykonania podzespołów mechanicznych, zastosowania coraz bardziej efektywnych metod przetwarzania i kodowania sygnału, a także korekcji błędów. Rosnąca gęstość zapisu pozostawia coraz mniejszą możliwość wystąpienia błędów w funkcjonowaniu dysków twardych, które mogłyby skutkować niedokładnością przy nadpisaniu poprzedniej informacji i pozwolić na choćby fragmentaryczne jej odzyskanie.(...)
Two-Dimenssional Magnetic Recording – dwuwymiarowy zapis magnetyczny ma ułatwić zwiększanie rozdzielczości sygnału i odróżnianie go od szumu oraz zredukować wpływ interferencji międzyścieżkowych. Technologia ta przewiduje wykorzystanie przy digitalizacji i dekodowaniu sygnału informacji o sąsiednich domenach magnetycznych w dwóch wymiarach.(...)
HAMR (Heat Assisted Magnetic Recording) i MAMR (Microwave Assisted Magnetic Recording), to technologie, które mają umożliwić zastosowanie materiałów twardszych magnetycznie. Zastosowanie materiałów o większej koercji ma pozwolić na zwiększenie gęstości zapisu poprzez dalsze znaczne zmniejszenie rozmiaru domen magnetycznych. Przeszkodą
w zastosowaniu w dyskach materiałów magnetycznie twardych takich, jak np. stopy żelazowo – platynowe (FePt) jest to, że ich przemagnesowanie wymaga pola magnetycznego o znacznie większym natężeniu niż w przypadku powszechnie obecnie stosowanych stopów kobaltowych.(...)
Przeplotowy zapis magnetyczny (IMR - Interlaced Magnetic Recording), to sposób organizacji danych na dyskach wykorzystujących technologie energetycznie wspomaganego zapisu HAMR i MAMR. Polega on na wykorzystaniu dwóch rodzajów ścieżek: dolnych i górnych. Tzw. górne ścieżki są węższe od dolnych i zapisywane są z wykorzystaniem mniejszej energii częściowo nadpisując dwie sąsiednie ścieżki dolne. Tym samym każda dolna ścieżka jest zwężana przez dwie ścieżki górne nadpisujące jej krawędzie i w konsekwencji efektywna szerokość ścieżki dolnej staje się mniejsza od górnej. Ten sposób zapisu pozwala spodziewać się gęstości zapisu powyżej miliona ścieżek na powierzchni dysku 2,5”(...)
BPM (Bit Patterned Media), to technologia polegająca na odseparowaniu poszczególnych domen magnetycznych przy pomocy dwutlenku krzemu (SiO2). Odseparowanie domen pozwala na ograniczenie wpływu sąsiednich obszarów i zmniejszenie ich rozmiarów. Można w ten sposób uzyskać na powierzchni nośnika jednorodne wyspy magnetyczne o minimalnych rozmiarach. Rozdzielenie sąsiednich domen magnetycznych przy pomocy materiału diamagnetycznego nie tylko zwiększa ich odporność na efekt superparamagnetyzmu, ale też poprawia stosunek sygnału do szumu. (...)
Nośniki bazujące na wykorzystaniu układów pamięci Flash-NAND w ostatnim okresie osiągają coraz lepsze parametry wydajnościowe. Są także coraz tańsze i coraz pojemniejsze, przy czym wzrost ich pojemności wynika w większym stopniu ze wzrostu pojemności samych układów pamięci niż z projektowania nośników wykorzystujących większą liczbę układów. Jednak ten postęp ma swoją cenę w postaci większej złożoności nośników, a zwłaszcza algorytmów korekcji błędów i zarządzania defektami. Rośnie także awaryjność zwłaszcza najtańszych układów pamięci Flash-NAND.(...)
Technologia pamięci rezystywnych opiera się na powiązaniu stanów logicznych z poziomem rezystancji komórek bitowych. Jest to inne podejście, niż w przypadku pamięci Flash, czy DRAM, gdzie stany logiczne powiązane są z poziomem ładunku elektrycznego przechowywanego w komórce pamięci. Elektrochemiczne pamięci rezystywne typu Redox RAM najczęściej oznaczane są jako ReRAM lub RRAM. Pozwalają one na zbudowanie komórek pamięci o wymiarach poniżej 10 nanometrów oraz czasach zapisu i odczytu poniżej 10 nanosekund. Dodatkowo umożliwiają tworzenie trójwymiarowych układów pamięci podobnych do układów 3D-NAND i mają potencjał na wykorzystanie technologii komórek wielostanowych.
(...)
Pamięci magnetorezystywne MRAM (Magnetic Random Access Memory) i STT-MRAM (Spin Transfer Torque Magnetic Random Access Memory) wykorzystują do przechowywania informacji zapis magnetyczny, jednak w odróżnieniu od innych typów nośników magnetycznych, nie posiadają podsystemu mechanicznego, a za adresowanie, odczyt i zapis danych odpowiadają wyłącznie układy elektroniczne. Główną przewagą pamięci magnetorezystywnych ma być szybki zapis (czasy porównywalne do zapisu w pamięciach typu DRAM, znacznie szybsze niż w przypadku pamięci Flash) oraz możliwość adresowania pojedynczych bajtów (w odróżnieniu od pamięci Flash-NAND, gdzie minimalną jednostką adresowania jest strona zawierająca od kilkuset do kilkunastu tysięcy bajtów).(...)
Pamięci ferroelektryczne oznaczane najczęściej jako FerroRAM, FeRAM, FRAM lub F-RAM wykorzystują polaryzację elektryczną materiałów ferooelektrycznych. Pomysł wykorzystania ferroelektryków do budowy nośników danych pojawił się w 1952 r. w Massachusets Institute of Technology. Pierwsze próby stworzenia ferroelektrycznych nośników danych podjęto w Związku Radzieckim w latach '60 i '70 XX w. Podstawowym materiałem wykorzystywanym przez radzieckich inżynierów był tytanian baru, jednak opracowany przez nich układ pamięci 307PB1 nie znalazł szerokiego zastosowania.(...)
Pamięci zmiennofazowe należą do grupy pamięci rezystywnych. Wykorzystują one odwracalne zmiany fazy pomiędzy stanem krystalicznym, a amorficznym chalkogenków – zazwyczaj stopu germanu(Ge), antymonu(Sb) i telluru (Te), jednak cały czas trwają badania nad wykorzystaniem różnych innych materiałów. Chalkogenki z domieszką srebra (Ag) i indu (In) są wykorzystywane w optycznych nośnikach wielokrotnego zapisu od lat '90 ubiegłego wieku. Pierwsze pamięci zmiennofazowe zostały zaprezentowane przez firmę Intel w 2002 r. Na oznaczenie pamięci tego typu najczęściej używa się skrótów PCM, PCRAM lub rzadziej PRAM – od angielskiego określenia Phase Change Random Access Memory. (...)
Grafen może być wykorzystywany nie tylko jako zamiennik krzemu w produkcji pamięci typu Flash, ale też może zostać użyty w zupełnie inny sposób w układach rezystywnych. W takim rozwiązaniu używa się warstw grafenu zwiniętych w nanorurki. Układy pamięci wykorzystujące nanorurki węglowe, podobnie, jak i pamięci Flash mogą być wykonywane w wariancie NOR, jak i NAND. Dzięki temu układy NanoRAM (określane też jako NRAM) mogą w przyszłości zastąpić pamięci Flash zarówno w przechowywaniu oprogramowania układowego urządzeń, jak też jako nośniki danych. (...)
Sekwencje DNA przechowują informacje niezbędne dla funkcjonowania i replikacji wszystkich organizmów od jednokomórkowych bakterii i pantofelków po baobaby, ludzi i wieloryby. Znajdujące się w każdej komórce cząsteczki kwasu dezoksyrybonukleinowego nie tylko kodują informację niezbędną do produkcji różnych białek, ale też zawierają swego rodzaju program determinujący kiedy i w jakich okolicznościach mają być produkowane określone białka. Dzięki temu mogły powstać różnorodne złożone organizmy o wielu wyspecjalizowanych narządach. Program ten zawiera również informację nadmiarową pozwalającą naprawiać większość błędów, jakie mogą wystąpić podczas kopiowania cząsteczek DNA, a także procedury rekombinacji, jakie wykonywane są podczas rozmnażania, kiedy łączą się komórki zawierające DNA pochodzące od dwóch różnych organizmów. Nic więc dziwnego, że sekwencje DNA zwróciły uwagę naukowców pracujących nad nowymi komputerowymi nośnikami informacji. (...)
Dotychczas nikt nie zaprezentował skutecznej metody odzyskania nadpisanych danych. Ze względu na przyjęte założenia eksperymentu i istotne różnice pomiędzy warunkami stworzonymi w laboratorium, a rozwiązaniami technicznymi wykorzystywanymi w dyskach twardych będących rzeczywistymi nośnikami informacji za taką metodę nie może być uważany sposób odzyskania nadpisanych danych ze ścieżki referencyjnej przy pomocy urządzenia spin-stand zaprezentowany przez Isaaka Mayergoyza i Chuna Tse. O ile w przypadku nośników półprzewodnikowych brak możliwości odzyskiwania nadpisanych danych nie budzi kontrowersji, o tyle w przypadku nośników magnetycznych, a zwłaszcza dysków twardych, cały czas są podnoszone wątpliwości w tym zakresie. (...)
(...już prawie gotowe!!!)