niedziela, 4 marca 2012

Archiwizacja danych

W ferworze codziennej walki w świecie biznesu managerowie skupiają się na generowaniu zysku. Wiele osób nie pamięta o tym, że dobrze zaprojektowany system informatyczny, w tym system bezpieczeństwa i archiwizacji danych, jest gwarantem sprawnej pracy i szansą na sukces rynkowy całego przedsiębiorstwa.

Informatycy dzielą ludzi na tych, którzy nie robią backupów i tych, którzy będą je robić...
Archiwizacja (backup) to tworzenie kopii zapasowych plików w celu ochrony danych. Jest to jeden z podstawowych elementów bezpieczeństwa systemu informatycznego. Niestety jest to też jeden z aspektów, o którym często zapominają zarządzający firmami.
Dlaczego warto archiwizować dane?
Awarie się, niestety, zdarzają. Zarówno na poziomie zwykłego użytkownika, jak i całego systemu informatycznego. W dzisiejszych czasach firma to wiedza, jaką mają w sobie jej pracownicy oraz dane w systemie komputerowym. Czy jesteś w stanie pozwolić sobie na utratę danych? (Konkurencja już zaciera ręce...)
Dobra archiwizacja danych to przede wszystkim bezpieczeństwo firmy i jej know-how. Aktualna kopia zapasowa umożliwia szybki powrót do pracy po wystąpieniu awarii, kradzieży, braku prądu, wypadków losowych.
Ile to kosztuje?
Jak wiadomo profilaktyka jest tańsza niż leczenie. Koszt systemów archiwizacji danych jest wielokrotnie niższy niż koszty związane z ich utratą. Strata danych to ryzyko utraty firmowego know-how, niewykonane zadania i ich konsekwencje, przestoje, pracochłonność pozyskiwania i wytworzenia danych od nowa.
Niezawodność infrastruktury
Bezpośredni wpływ na niezawodność infrastruktury informatycznej mają:
-architektura i konfiguracja systemu informatycznego,
-fabryczna jakość urządzeń,
-wiek urządzeń - liczba lat eksploatacji (gwarancje),
-sposób i intensywność eksploatacji, 
-jakość administracji i konserwacji (Service Level Agreement- czas reakcji i poziom serwisu zagwarantowane w umowie).
Warto pamiętać, że taniej będzie wymienić starszą część na nową zanim się zepsuje niż np. kupować nowy komputer.
Komputer roboczy nie powinien być miejscem przechowywania danych.
Rodzaje backupów
W zależności od wielkości firmy i jej potrzeb dobiera się różne techniki wykonywania kopii bezpieczeństwa:
-Backup pełny: archiwizowane są wszystkie dane na jednym nośniku. Należy pamiętać, że będzie potrzebny długi czas na archiwizację. Na odzyskanie danych z nośnika będzie potrzebne mniej czasu.
-Backup przyrostowy - archiwizacja plików nowych i zmodyfikowanych po ostatniej archiwizacji (pełnej lub przyrostowej). Najszybsza metoda archiwizacji. Najwolniejsza w przypadku odzyskiwania plików. 
-Backup różnicowy - archiwizacja tylko tych danych, które uległy zmianie po ostatniej pełnej archiwizacji. Ilość danych i czas archiwizacji rośnie w skali tygodnia.

Bezpieczny komputer

Każdego dnia komputery tysięcy użytkowników padają ofiarą wirusów i awarii prowadzących do utraty danych. Najczęściej są to komputery domowe, ale nierzadko słyszymy o awariach w komputerach, czy serwerach firmowych. Jednak w obu przypadkach utrata danych nie jest pożądana. Dlatego właśnie musimy zabezpieczać nasze komputery!
Wirusy

Programy zawierające złośliwy kod powodujący często określone szkody na komputerze użytkownika, zwane popularnie wirusami, to problem znany wszystkim. Zabezpieczać się przed nimi możemy na różne sposoby, podstawą są jednak programy antywirusowe. Osiągnęły dziś one taki stopień rozwoju, że w zasadzie po zainstalowaniu pracują bezobsługowo "w tle" i przypominamy sobie o nich dopiero gdy zobaczymy okno z informacją o znalezieniu wirusa. Programy antywirusowe nie obciążają dziś tak bardzo komputera, stąd naprawdę warto poczynić inwestycję zakupu któregoś z szerokiej oferty.
Poza samym "strażnikiem" dobrze też samodzielnie dbać o to by nie stwarzać dodatkowego zagrożenia. Ogólnie rzecz biorąc, chodzi o to by wędrując po internecie uważać na to jakie strony odwiedzamy (niebezpieczne bywają zwłaszcza te z erotyką i pirackim oprogramowaniem) oraz jakie programy ściągamy i uruchamiamy na komputerze. Bezpieczeństwo surfowania w sieci zwiększy na pewno zmiana domyślnej w systemie Windows przeglądarki - Internet Explorera na rozwiązanie alternatywne, np. darmowe przeglądarki Opera czy Firefox. 
Uważajmy też na obce nośniki danych, które chcemy otworzyć - zdarzały się sytuacje, że podrzucano pracownikom firmy popularne PenDrive'y ze spreparowanymi plikami, które okazywały się zawierać wirusy. Dlatego z ostrożnością podchodźmy do takich "przypadkowych podarków".


Hasła

Hasła to temat prosty i przez to często niestety pomijany. Przeciętny użytkownik komputera dąży do tego by mieć jedno możliwie proste hasło do wszystkich swoich kont i zabezpieczonych danych. Jeśli do tego zapisze je gdzieś, osiągnie w ten sposób szczyt ignoranctwa. Oczywiście trudno nam wymyślać zupełnie różne hasła do wszystkich kont, ale naprawdę dobrze jest choć odrobinę je różnicować i stosować w nich cyfry i znaki specjalne. Dzięki temu nawet gdyby zdarzyło się, że ktoś włamie się na jedno konto, reszta pozostanie względnie bezpieczna. 
Zdobycie przez osobę trzecią haseł do naszych kont jest o tyle ważnym problemem, gdyż często pozostaje niewykryte i dlatego też hasła do najważniejszych danych trzeba co pewien czas zmieniać.


Utrata danych

Powyższe problemy często implikują kolejny - utratę danych. Dane mogą zostać skasowane lub uszkodzone przez działania wirusa lub użytkownika, który uzyskał do nich nieautoryzowany dostęp. W efekcie możemy utracić efekty czasem kilkumiesięcznej pracy lub np. bazę teleadresową klientów firmy, co zaowocuje wiadomymi skutkami. Nawet dane, które trzymamy na komputerze domowym - np. kolekcja zdjęć rodzinnych czy pliki z pracą magisterską nie powinny być pomijane, gdyż często dopiero ich utrata uświadamia nam ich wartość.
Poza działaniami prewencyjnymi w postaci antywirusa i świadomego korzystania z sieci warto rozważyć stworzenie choćby prostego systemu tworzenia kopii. To specjalistycznie brzmiące hasło możemy uskutecznić bardzo prosto np. poprzez zakup nagrywarki DVD i regularnie nagrywanie ważnych danych. Tylko tyle i aż tyle, bo gdy już zdarzy się że nasze pliki wyparują, albo nawet sami przypadkiem je usuniemy, nasza kopia pozwoli nam szybko wrócić do stanu sprzed awarii.
W przypadku firm godnymi polecenia będą jednak rozwiązania profesjonalne - w zależności od potrzeb i sytuacji może to być zakup serwera z oprogramowaniem do automatycznego robienia kopii danych, lub nawet wynajęcie specjalistycznej firmy, która kopie będzie dla nas wykonywać i przechowywać poza siedzibą firmy (i wtedy niestraszny nam będzie choćby i pożar). 

Bywa jednak, że o robieniu regularnych kopii nie pomyśleliśmy i stało się najgorsze - straciliśmy dane. Wtedy ostatnią deską ratunku będzie podjęcie próby ich odzysku. Odzyskiwanie danych to jednak temat trudny i naprawdę dobrze jest pozostawić go profesjonalistom. Specjalistyczna firma odzyskująca dane da nam nadzieję na przywrócenie jeśli nie całości, to przynajmniej części. Samodzielne odzyskiwanie jest raczej niezalecane, chyba że możemy się pogodzić z nieodwracalnym usunięciem plików. Wszystko dlatego, że nieumiejętnie przeprowadzona operacja może sytuację pogorszyć i wtedy nawet specjalistyczna firma nie poradzi sobie z realizacją zadania. Wybór, czy chcemy podjąć ryzyko należy na każdego z nas. Najlepiej jest jednak nie doprowadzać do sytuacji gdy w ogóle będziemy musieli dane odzyskiwać - robienie kopii wydaje się być zadaniem żmudnym i bezsensowym, ale w przypadku awarii będziemy sobie bardzo wdzięczni za te działania.

Podsumowując - antywirus, kopia danych i świadomy użytkownik są podstawami bezpiecznego komputera i danych na nim zgromadzonych. Zaś w przypadku niezastosowania się do tych zaleceń w sytuacji awarii pozostaje nam tylko odzyskiwanie danych w specjalistycznej firmie.

Odzyskiwanie danych - jak to robią profesjonaliści

Profesjonalne odzyskiwanie danych, to coś więcej niż tylko prosty program, któremu wydajemy polecenie skanowania dysku w poszukiwaniu utraconych plików. To laboratoria z „komputerowymi doktorami” w białych kitlach walczącymi o każdy bajt utraconych informacji. Dowiedz się, jak z utratą danych radzą sobie specjaliści!
Zaawansowane odzyskiwanie danych to skomplikowana procedura i w zasadzie zaczyna się już u klienta. 
Już przy pierwszym telefonie do specjalistów najprawdopodobniej usłyszysz, by bezzwłocznie wyłączyć komputer i odłączyć dysk twardy (jeśli to on uległ awarii). Potem nośnik trzeba umieścić w bezpiecznym opakowaniu i tak przygotowany zawieźć do specjalistów.

Jeżeli dysk uległ zalaniu płynem, prawdopodobnie najlepszym posunięciem będzie...zalanie go w całości wodą. Woda ta jednak musi być destylowana (do nabycia w aptece), gdyż tylko taka będzie naprawdę czysta. 
Skąd pomysł wrzucania dysku do wody? Otóż w przypadku, gdy został on zalany, podczas wysuszania na talerzach będą osiadać różne elementy, poza tym cały napęd będzie ulegać korozji. Poprzez całkowite zalanie uchronimy się przed tymi efektami i uławimy zadanie firmie, której powierzymy nasz zepsuty napęd.

Co zaś zrobią specjaliści?
Przede wszystkim najpierw spróbują ocenić charakter uszkodzenia - czy jest on fizyczny, czy też uszkodzeniu uległy same pliki (np. w wyniku sformatowania, czy działania wirusa). 
W tym przypadku uszkodzenia samych danych prawdopodobieństwo powodzenia akcji jest dość duże. Najpierw dane zostaną binarnie skopiowane na osobny nośnik i wszelkie późniejsze działania będą prowadzone już tylko na wykonanej kopii. Dzięki temu w przypadku nieprzewidzianej sytuacji nie ma ryzyka pogorszenia istniejącego stanu. 
Do odzysku wykorzystane zostanie specjalistyczne oprogramowanie, a niekiedy też urządzenia skanujące. Czasem wymagana jest także żmudna, ręczna edycja danych.

Jeśli jednak uszkodzenie ma charakter fizyczny, sprawa jest trudniejsza i praktycznie niewykonalna w warunkach domowych. Zależnie od rodzaju uszkodzenia specjaliści mogą dopasować nową elektronikę dysku z podobnego urządzenia, lub - w trudniejszych przypadkach - całkowicie wymontować talerze i odczytać zawarte na nich dane z pomocą zewnętrznych urządzeń. 
Całość takich działań odbywa się w specjalnym labolatorium, w warunkach najwyższej sterylności (ze względu na fakt, że talerze znajdujące się wewnątrz dysków są bardzo wrażliwe na czynniki zewnętrzne). 
Działania te mogą zająć dość dużo czasu, ale dają szansę na powodzenie procesu (w odróżnieniu od podobnych działań podejmowanych w domu).

Oczywiście w przypadku uszkodzeń mechanicznych nie ryzykujemy już ponownego skopiowania odzyskanych danych na uszkodzony wcześniej nośnik - odzyskaną kopię danych wykonuje się najczęściej na płytach CD/DVD i w takiej postaci przekazuje klientowi. 

Należy mieć na uwadze, że zależnie od charakteru uszkodzenia nawet najlepsi specjaliści mogą nie być w stanie odzyskać wszystkich utraconych danych, dlatego tak ważne są działania prewencyjne, czyli regularne wykonywanie kopii zapasowych
Gdyby wszyscy o tym pamiętali, firmy odzyskujące dane szybko zniknęłyby z rynku, lecz nasze lenistwo niestety zazwyczaj jest silniejsze.

Odzyskiwanie danych - samodzielnie i u specjalistów?

Każdemu chyba przytrafiła się przypadkowa utrata danych. Niestety elektronika bywa zawodna i odkąd korzystamy z komputerów w codziennej pracy, co pewien czas zdażają się nieprzewidziane awarie, niekiedy powodując utratę ważnych dla nas danych. W artykule opiszemy jak temu przeciwdziałać i co robić gdy już stanie się najgorsze.


Jak zapobiegać utracie danych?
To proste - wystarczy robić regularnie kopie zapasowe. Oczywiście proste jest to tylko w teorii - w praktyce zarówno czynnik ludzki jak i same maszyny nie pozwalają na łatwą realizację tego zadania.
Po pierwsze musimy być zdyscyplinowani i np. ustalić że backup będziemy robić codziennie pod koniec dnia. Jeśli nie będziemy stosować się do tego regularnie, szybko zapomnimy o zadaniu, oczywiście do momentu gdy za miesiąc nasze dane wyparują. 
Same komputery też potrafią być kapryśne i o ile operację skopiowania wybranych plików można zrobić względnie łatwo, o tyle np. kopia skrzynki pocztowej dla wielu z nas jest zadaniem niewykonalnym (bo po prostu nie wiadomo, gdzie maile fizycznie się znajdują). Najlepiej byłoby więc robić zarówno kopię najważniejszych plików, jak i (rzadziej) kopię całego systemu wraz ze wszystkimi ustawieniami. W ten sposób w przypadku awarii będziemy mogli odtworzyć stanowisko pracy w czasie daleko krótszym niż ponowna instalacja i konfiguracja systemu.


Utrata danych - odzyskujemy?

Pomimo, że o robieniu kopii mówi się dużo, ciągle zdarzają się przypadki utraty ważnych danych. Co wtedy zrobić? 
Jeśli np. usunęliśmy przypadkiem zdjęcia z wakacji, możemy spróbować odzyskać je samodzielnie przy pomocy darmowych lub płatnych programów. Ich efektywność jest różna i mocno zależy od rodzaju awarii - programy takie dobrze radzą sobie z danymi usuniętymi przypadkiem przez użytkownika, zwłaszcza gdy chcemy je odzyskać zaraz po usunięciu (a więc nie nadpisaliśmy ich nowymi danymi).
Jednak w sytuacji, gdy utraciliśmy dane firmowe, lub gdy awaria ma charakter mechaniczny zdecydowanie lepiej będzie zwrócić się do profesjonalistów dla którychodzyskiwanie danych to "chleb powszedni". Nie czarujmy się - mechaniczne uszkodzenia wymagają specjalistycznej wiedzy i narzędzi. Także działanie wirusa, czy nawet przypadkowe usunięcie danych nie są problemami, które w przypadku danych firmowych - powinniśmy próbować rozwiązywać samodzielnie. Nieumiejętne działanie może spowodować sytuację gdy ani my, ani nawet firma zajmująca się odzyskiwaniem danych nie będzie w stanie przywrócić plików

Pamiętaj, że chytry traci dwa razy! Dlatego też najlepiej samodzielne odzyskiwanie danych zostawmy sobie raczej dla plików, które nie są dla nas bardzo ważne i ewentualnie niepowodzenie odzyskiwania nie będzie niosło konsekwencji finansowych. W innym wypadku wyłączamy komputer, zabezpieczamy nośnik i dzwonimy do specjalistów, którzy pomogą w przywróceniu danych.

Utrata i odzyskiwanie danych - jak się chronić, jak reagować

Coraz powszechniejsze są przypadki nieoczekiwanego usunięcia danych w sytuacji awarii czy też celowego działania osób trzecich. Zwykły użytkownik najczęściej nie wie jak poradzić sobie z tym problemem. W artykule opiszemy przyczyny utraty danych, działania prewencyjne i odzyskiwanie danych, jako ostateczny środek w przypadku ich utraty.


Z problemem utraty dostępu do danych borykali się już starożytni, od kiedy wynaleziono pismo. Gliniane tabliczki oraz w późniejszym czasie papirus nie były idealnym materiałem na przechowywanie zapisanych na nich informacji. Podobnie jak i dzisiejsze nośniki cyfrowe były one narażone na wiele destrukcyjnych czynników (takich jak upływ czasu, ogień czy kradzież), mogących je trwale uszkodzić i uniemożliwić odczyt zawartych na nich danych.

W dzisiejszych czasach, w dobie gigantycznego rozwoju masowego przetwarzania informacji cyfrowych szerszym zagadnieniem jest problem ochrony danych; gdzie oprócz sytuacji w której nastąpiła utrata dostępu do informacji występuje inne zagrożenie - a mianowicie przedostanie się danych bez naszej wiedzy lub zgody do osób trzecich - często ma to postać pospolitej kradzieży, wyłudzenia czy włamania. Jednakże tym kontekstem nie będziemy się aktualnie zajmować i skupimy się w skrócie na problemie zabezpieczenia się przed fizycznym lub logicznym aspektem utraty danych (np. awarii nośnika).

Na początku należy stwierdzić, że w teorii nie występują rozwiązania dające nam 100% bezpieczeństwa – każda technologia może ulec awarii pozbawiając nas dostępu do danych. Natomiast w praktyce stosuje się dwa rozwiązania: 

1. układy zmniejszające do możliwego minimum szansę na utratę danych (macierze, zabezpieczenia przeciwprzepięciowe, zasilacze awaryjne, itp.)

2. dywersyfikacja źródeł danych – czyli po prostu systematyczne wykonywanie ich kopii.

W znakomitej większości przypadków, tzn. takich które nie wymagają błyskawicznego dostępu do danych oraz zakładają określony margines czasowy w sensie ich aktualności idealnym rozwiązaniem jest robienie kopii zapasowych. W tego typu sytuacjach kopie zapasowe robimy w odstępach czasowych odpowiadających naszym potrzebom (raz na miesiąc, raz na tydzień czy nawet raz dziennie – jeżeli ktoś codziennie pracuje w sposób efektywny przez kilka godzin). W praktyce jest to idealne rozwiązanie dla tego typu osób lub firm – jednakże musi być przestrzeganych kilka żelaznych zasad:

- systematyczność – jej brak jest najczęstszym „grzechem” i przez to powodem utraty dostępu do 
danych (dla przykładu: księgowy małej lub średniej firmy nie powinien zakończyć pracy zanim nie 
wykona kopii danych z całego dnia lub tygodnia)
- każdorazowa weryfikacja wykonanych kopii – praktyka pokazuje, że samo wykonanie kopii nie 
zawsze jest jednoznaczne z zamierzonym efektem (czasami się zdarza, że ludzie wykonują kopie na 
zniszczonych dyskietkach lub taśmach, po czym okazuje się że krytyczne dane nie są już nagrywane 
na ww. nośniki od np. kilku miesięcy).
- maksymalna dywersyfikacja źródeł kopii pod względem rodzaju nośnika i jego umiejscowienia – 
zrobienie kopii danych w obrębie jednego np. komputera czy nośnika (inny katalog, inna partycja, 
drugi dysk) w praktyce nie powoduje znaczącego zwiększenia poziomu bezpieczeństwa. W wypadku 
awarii np. zasilacza uszkodzeniu mogą ulec wszystkie elementy wewnątrz komputera. Przyjmuje się, 
że idealnym rozwiązaniem jest posiadane trzech źródeł danych nie powiązanych ze sobą w 
jakikolwiek sposób i przechowywanych oddzielnie np. źródłowy dysk twardy, płyta CD/DVD oraz 
np. pamięć wymienna (PenDrive). W takim układzie ryzyko utraty krytycznych danych w praktyce 
spada do zera.

Układy zmniejszające szanse na wystąpienie awarii (np. macierze, układy klastrowe w sieci) stosowane są głównie przez duże firmy gdzie przetwarzane są jednocześnie bardzo duże ilości danych oraz nieakceptowana jest przerwa w dostępie do nich (banki, korporacje, giełdy, duże firmy produkcyjne itp.) W tego typu rozwiązaniach stosuje się „multibackup online” (dane są archiwizowane na w na bieżąco czasie rzeczywistym) i jednocześnie w wielu miejscach. Jednakże takie rozwiązania są często bardzo kosztowne (przeciętnie jest to kilkadziesiąt tyś. PLN – w ekstremalnych przypadkach np. Giełda Papierów Wartościowych posiada system wart nawet do kilkunastu mln PLN) i muszą mieć swoje uzasadnienie ekonomiczne w wypadku wystąpienia potencjalnej awarii.

Jeżeli już jednak się zdarzy, że z jakiejkolwiek przyczyny utracimy dostęp do danych i co gorsza nie posiadamy kopii nie należy załamywać rąk. W większości tego typu przypadków dane można odzyskać pod warunkiem przestrzeganiu kilku żelaznych zasad:

- nie należy wpadać w panikę – powoduje ona często, że zaczynamy wykonywać pewne 
nieprzemyślane kroki, które niestety w większości przypadków znacznie utrudnią lub wręcz 
uniemożliwią dotarcie do utraconych danych.

- należy zrobić rachunek strat i zysków – jeżeli dane są zbyt cenne abyśmy mogli pozwolić sobie 
na ich utratę nie należy podejmować jakichkolwiek (!!!) samodzielnych działań lub zlecać tej 
pracy innym osobom tzw. „złotym rączkom” czy też innym domorosłym informatykom. 
Statystyki pokazują, że działalność takich osób w prawie 70% przypadków doprowadza do 
nieodwracalnego zniszczenia danych. W takich sytuacjach należy się zgłosić do renomowanych 
firm w tym zakresie. Koszty odzyskiwania danych będą oscylować w granicach od kilkuset PLN 
do kilku tyś. PLN.

Jeżeli już z jakiegoś powodu zdecydujemy się na samodzielną próbę dotarcia do utraconych danych (brak funduszy lub dane nie są warte aż takiej kwoty) należy pamiętać o kilku podstawowych zasadach:

- musimy dotrzeć do źródła problemu – tzn. postarać się odpowiedzieć co się stało – tylko wtedy 
możemy postawić trafną diagnozę co należy zrobić aby odzyskać dane,
- należy pamiętać, że jakakolwiek modyfikacja zawartości dysku może doprowadzić do 
zniszczenia danych (prosty przykład: usunięcie danych, założenie nowej partycji lub format 
dysku nie niszczą w sposób nieodwracalny (fizyczny) danych – dane zostają zniszczone dopiero 
w procesie ich ponownego nadpisania),
- eksperymentowanie z wymianą elektroniki dysku jest procesem obarczonym dużym stopniem 
ryzyka – większość producentów nie podaje oznaczeń umożliwiających bezbłędną identyfikację 
dysku jeżeli chodzi o wersję biosu czy też układ podlinkowania biosu lub układu głowic – 
natomiast zastosowanie błędnej elektroniki może doprowadzić w krańcowych przypadkach do 
nieodwracalnego uszkodzenia struktury serwisowej dysku.
- powyższe wskazówki są skuteczne w przypadku utraty dostępu do danych z przyczyn 
logicznych; w sytuacjach gdy występuje uszkodzenie mechaniczne nośnika lub uszkodzenie 
strefy serwisowej w praktyce jesteśmy bezradni – nawet niewinne otwarcie dysku (oprócz 
warunków laboratoryjnych) lub manipulacja w obszarze strefy serwisowej (bez odpowiedniej 
wiedzy i narzędzi) w praktyce powoduje nieodwracalną utratę danych.

Odzyskiwanie danych - temat nie tak straszny jak się może wydawać.

Świat się zmienia a wraz z nim sektor usługowy. Znikają zegarmistrze i ostrzenie noży, pojawia się … odzyskiwanie danych!
Odzyskiwanie danych to dla wielu hasło zupełnie obce i wiele nie mówiące. Jeżeli już się z czymś kojarzy, to z dużymi firmami i oderwanymi od życia informatykami. A nie powinno. 
Żyjemy w coraz bardziej skomputeryzowanym świecie. Prawie każdy dom i praktycznie każda firma korzysta z komputerów. Znikają wielkie szafy pełne akt, zastąpione małymi i zgrabnymi płytami z danymi. Niestety ta nagła zmiana, oprócz niewątpliwych plusów niesie ze sobą ryzyko, a jest nim utrata danych. Najczęściej dochodzi do tego przypadkiem, albo poprzez fizyczne uszkodzenie nośnika (np. uderzenie o podłogę spadającego dysku twardego, burza i w efekcie spięcie w komputerze) albo przez uszkodzenie struktury danych na dysku (np. przez wirusy). I tutaj wkraczają firmy zajmujące się właśnie odzyskiwaniem danych. Specjaliści z tej dziedziny potrafią wręcz czynić cuda, odtwarzając utracone dane z mocno uszkodzonych nośników. Ich usługi sporo jednak kosztują, i trzeba się liczyć z wydatkiem przynajmniej kilkuset złotych. Pocieszający jest tutaj fakt że jeżeli nośnik nie został uszkodzony fizycznie, istnieje całkiem duża szansa na odzyskanie danych przy pomocy jednego z wielu dostępnych w Internecie darmowych programów. Od razu zaznaczyć jednak trzeba że i tutaj przyda się przynajmniej odrobina wiedzy o temacie gdyż nieumiejętne podejście do problemu może go tylko pogorszyć. Tak więc jeżeli padniemy ofiarą awarii nośnika, nie panikujmy. Wiele firm przeprowadzi analizę problemu za darmo, doradzą również najlepsze rozwiązanie. Jeżeli naprawdę nie stać nas na skorzystanie z profesjonalnej pomocy, możemy zabrać się za odzyskiwanie danych samemu, wspomagani specjalistycznymi programami i (miejmy nadzieję) przynajmniej minimum wiedzy o problemie.

Odzyskiwanie danych - fakty i mity

Artykuł poświęcony bezpieczeństwu danych zapisanych na komputerze. Dowiesz się w nim prawdy na temat trwałego usuwania danych z całego dysku twardego oraz trwałego usuwania pojedynczych plików. Jak pokazują badania specjalistów łatwiej jest usunąć na trwałe dane z całego dysku niż pojedynczy plik, dowiedz się dlaczego!



W świecie komputerowym panuje przeświadczenie, że aby usunąć dane tak aby były one nie do odzyskania należy nawet kilkadziesiąt razy nadpisać dany bit dysku twardego. Jednak jak pokazują badania, nie jest to prawda, gdyż wystarczy wszystkie bity na dysku twardym nadpisać tylko jednokrotnie zerami i nie możliwe będzie jużodzyskiwanie danych na takim dysku. Na rynku pojawiają się liczne programy do skutecznego kasowania dysków, które prześcigają się w algorytmach nadpisujących bity i w ilości nadpisań danego bitu. Na wszystkim traci jednak nieświadomy klient, który nie rzadko musi wydać na taki program sporo pieniędzy, po to żeby godzinami czekać aż jego dysk zostanie nadpisany kilkadziesiąt razy.
Badania ekspertów jednoznacznie wskazują że po jednokrotnym nadpisaniu wszystkich  bitów na dysku nie zależnie od modelu, dane są w zasadzie nie do odzyskania. Prawdopodobieństwo odzyskania pojedynczego bitu to 56 procent, także łatwo obliczyć że odzyskanie całego bajtu może się udać tylko w 0,97 procentach wypadków, a co dopiero odzyskiwanie danych z chociażby 1 gigowego dysku twardego.
Inaczej sytuacja wygląda gdy odzyskiwanie danych dotyczy pojedynczych plików a nie całego dysku. Komputery klasy PC, a w zasadzie systemy na nich zainstalowane podczas edycji np. pliku tekstowego, zapisują jego kopię w różnych miejscach twardego dysku, w plikach wymiany, plikach tymczasowych, kopiach zapasowych, a także w plikach cieniach. Dlatego skuteczne usunięcie takiego pliku może okazać się bardzo trudnym zadaniem, ponieważ należy zadbać o to aby usunąć wszystkie jego kopie z dysku. Prawie 100% pewność że plik ten nie zostanie odczytany nawet przez specjalistyczną firmę przeprowadzając odzyskiwanie danych, daje tylko całkowite nadpisanie całego dysku twardego w naszym komputerze.
Jeszcze niestety nie stworzono takiego oprogramowania na komputery, które było by w stanie usunąć pojedynczy plik bezpowrotnie. Stworzenie takiego programu staje się coraz trudniejsze, ponieważ komputery wyposażane są w systemy operacyjne które posiadają narzędzia takie jak dzienniki zmian i kopie stanów, przez co kopie edytowanego pliku tekstowego zapisują się w kilku miejscach na dysku. Tutaj także nie pomogą zaawansowane algorytmy wielokrotnie kasujące dane bity całego pliku, ponieważ jego kopie dalej będą znajdowały się na dysku. Aby stworzyć skuteczny program na komputery, pozwalający skutecznie usuwać pojedyncze pliki potrzebna jest współpraca producentów oprogramowania i systemów operacyjnych, którzy musieli by dostosować swoje produkty do współpracy z takim programem kasującym
W pewnym stopniu łatwiej mają użytkownicy systemu Linux, gdyż ten system operacyjny daje możliwość umieszczenia dziennika zmian na oddzielnej partycji lub dysku twardym.