Metody niszczenia danych za pomocą specjalnego oprogramowania

Niszczenie danych za pomocą specjalnego oprogramowania

Jest dostępne specjalistyczne oprogramowanie, które wielokrotnie (nawet 35-krotnie, albo i więcej razy) nadpisuje sektory nośnika poprzez losowo wygenerowane ciągi liczbowe, według odpowiednich algorytmów, które mają gwarantować niemożliwość odtworzenia niszczonych danych, np. US DOD 5220.22-M. Gutmann, German Vsitr.

Warto jednak pamiętać, że owo oprogramowanie jest podatne na błędy oraz na ataki wirusów komputerowych, co wymusza konieczność stałej ich modyfikacji i kontroli ich skuteczności. Innym problemem związanym z wykorzystaniem tej metody jest długi czas kasowania - zaledwie trzykrotne nadpisanie danych na dysku twardym o dużej pojemności może trwać nawet dłużej niż 1 dzień. Proces ten trwa także odpowiednio dłużej w przypadku 35-krotnego nadpisywania.

Używając sensorów magnetycznych i mikroskopów elektronowych potrafiących dokonać pomiaru nawet minimalnych zmian w polu magnetycznym można już przy obecnym stanie wiedzy odczytać pierwotny plik nadpisany nową zawartością. Nigdy bowiem nie ma pewności, że głowice dysku nadpisujące dany plik są ustawione idealnie ponad miejscem, w którym on się znajduje, co ilustruje proste zastanowienie się:

Wysokiej rozdzielczości obraz MFM dysku twardego Seagate Barracuda 750Gb, ST3750640AS. 1 μm = 0,000 001 m //Źródło: http://www.dmphotonics.com/

Jeden bajt danych jest zapisywany na powierzchni wielkości około 2-3 nanometrów (0,000 000 002 - 0,000 000 003 metra!). Talerz dysku twardego wiruje z prędkością nawet 15.000 obrotów na minutę. Jaka jest szansa, że za każdym razem głowica nadpisująca dane idealnie trafi na tak wirującym dysku w samo centrum obszaru o wielkości 2-3 nanometrów? Jeżeli trafi choćby tylko częściowo – odpowiedni sprzęt może pozwolić na odtworzenie pierwotnej wartości pola magnetycznego na tym fragmencie powierzchni dysku. Jest to jeden z powodów dla których nawet
 

„Sam Gutmann* przyznaje, że trwałe usunięcie danych wyłącznie za pomocą nadpisywania jest niemożliwe - i to niezależnie od tego, ile razy się tę operację wykona.”

Źródło: Jarosław Chrostowski, „Wiedza i życie”, marzec 2006

*Peter Gutmann – autor jednej z najbezpieczniejszych (jak się uważa) programowych metod usuwania danych.

Możliwość odzyskania danych nawet po wielokrotnym nadpisywaniu wynika również z wypowiedzi mł. insp. Janusza Skosolasa, szefa Laboratorium Kryminalistycznego Policji w Gdańsku, który w wywiadzie dla Gazety Wyborczej w styczniu 2013 r, odpowiadając na pytanie o granicę możliwości odzyskiwania danych w ich laboratorium, mówił: „(…) jeśli dysk nie został fizycznie zniszczony, rozbity na kawałki, to my wyciągniemy wszystko od początku jego istnienia”.

Niektóre przykłady odzyskania danych zniszczonych w analogiczny sposób:

  • 2012 - Odzyskano dane celowo usunięte przez zwolnionego pracownika w akcie zemsty na byłym pracodawcy.
  • 2011 - Odzyskanie danych nadpisanych podczas konsolidacji partycji, ze względu na taką samą konwencję obecnych na nich nazw wirtualnych dysków.
  • 2011 - Odzyskano dla znanej aktorki wszystkie ważne pliki, które przypadkowo usunęła z pamięci USB za pomocą programu do czyszczenia danych.
  • 2010 - Odzyskanie danych ze starych taśm z archiwów, a następnie ponowne odzyskanie ich z laboratorium data recovery po tym, gdy okazało się, że jeden z pracowników niechcący skasował znajdujące się na nim dane, a backup też był pusty.

Więcej przykładów

Zalety i wady czyszczenia danych z poziomu systemu operacyjnego
Zalety Wady
  • dość łatwo dostępne,
  • pozwala ponownie wykorzystywać nośnik,
  • bardzo utrudnia, lub uniemożliwia odzyskanie danych w warunkach domowych,
  • wykonane samemu (zwykle) pozwala zabezpieczyć się przed skopiowaniem danych przez inne osoby,
  • długi czas niszczenia danych,
  • podczas niszczenia brak lub ograniczone możliwości korzystania ze stanowiska pracy,
  • duże zużycie prądu (szczególnie przy nadpisywaniu wielu nośników jednocześnie)
  • konieczność uruchomienia nośnika w celu przeprowadzenia kasowania
  • brak gwarancji, że kasujący dane nie skopiuje nic z nośnika przed lub w trakcie kasowania,
  • podatność na błędy i ataki wirusów komputerowych,
  • brak stuprocentowej gwarancji, że głowica nadpisująca dane znajduje się idealnie nad sektorem, który ma nadpisać,
  • nieskuteczność przy uszkodzonych nośnikach,
  • pozostawia materiał do analizy, a więc nie gwarantuje braku możliwości odzyskania danych w specjalistycznych laboratoriach,