Dane są wszędzie

Powszechność dostępu do Internetu oraz rozwój szerokopasmowych sieci komputerowych, którego skutkiem stała się możliwość szybkiego transfertu dużych ilości danych pomiędzy oddalonymi geograficznie miejscami, radykalnie zmieniła naszą codzienność. Informacje, których zdobycie jeszcze kilkanaście lat temu wymagało odszukania wiarygodnych źródeł, starania o dostęp, rozmów i fizycznego pojawienia się w miejscu ich przechowywania, są dziś dostępne dla przeciętnego posiadacza nie tylko komputera, ale nawet małego urządzenia, często błędnie nazywanego telefonem, za pomocą kilku ruchów kursora.

Podstawą biznesu wielu firm jest dziś nie tylko – jak w poprzednich dekadach – posiadanie informacji, ale również samo ich przetwarzanie. Równocześnie coraz trudniej ocenić wiarygodność treści znalezionych „w sieci”, nie wiadomo też, gdzie ostatecznie fizycznie znajdują się dane, które w różnych systemach zapisujemy, ani jakie mechanizmy bezpieczeństwa dostawca usługi zastosował. Komunikaty marketingowe przekonują nas o wyższości dostawcy X nad dostawcą Y, lecz dopiero sytuacje awaryjne pokazują, w jaki sposób nasze dane były traktowane.

Wydarzenia z 11 września pokazały, że nawet sytuacje, które oceniamy jako nieprawdopodobne, mogą się wydarzyć. Szacuje się, że w tragicznych zamachach prócz tysięcy istnień ludzkich bezpowrotnie utracono dane zgromadzone w 13 tysiącach serwerów oraz 34 tysiącach stacji końcowych (źródło: www.tricerat.com/blog/266). Wiele z firm których dane zostały utracone w wyniku tych lub innych zdarzeń losowych czy klęsk żywiołowych, miało wdrożone procedury bezpieczeństwa, które zapewniały pozorny spokój ich administratorom i właścicielom – nie rozważającym aż tak tragicznych scenariuszy.

Niestety postęp w technologiach sprzętowych nie dostarcza rozwiązań, które są w 100% niezawodne – każde nowsze rozwiązanie poprawia poziom bezpieczeństwa, jednak nie chroni w zupełności przed awariami czy błędami użytkowników i administratorów. Z pomocą przychodzą rozwiązania stosowane od lat, które jednak ciągle ulegają zmianom i ulepszeniom.

Kopie bezpieczeństwa

Standardowym mechanizmem, który ma zapewnić naszym danym bezpieczeństwo, jest wykonywanie regularnych kopii zapasowych (backupów). Stare przysłowie informatyków mówi, że „tylko twardziele nie robią backupu”, życie pokazuje jednak, że z takimi „twardzielami” lepiej jest się czym prędzej rozstać.

Na rynku znaleźć można dużą liczbę ofert hostingowych czy usług outsourcingu, w których informacja o backupach opisana jest jednym zdaniem i sprowadza się do prostego określenia: jest. Tymczasem zapewnienie bezpieczeństwa systemów to nie tylko udostępnienie przestrzeni dyskowej (często wręcz na tym samym fizycznie urządzeniu co dane źródłowe!) czy przekopiowanie plików z miejsca A do B. Skuteczny system kopii zapasowych to taki, który pozwoli na odtworzenie danych, czy systemów, do konkretnie wskazanego punktu w czasie, wraz z określeniem horyzontu historii – liczby kopii, do których dostępu potrzebujemy.

Zapewnienie wysokiego poziomu bezpieczeństwa wiąże się z potrzebą zainwestowania w odpowiednio zaawansowane i kosztowne rozwiązania. Oczywiście zapewnianie mechanizmów odtwarzania do punktu w czasie (point-in-time recovery) dla danych zgromadzonych w skrzynkach pocztowych dostępnych na darmowych serwerach nie jest konieczne. Inaczej jednak wygląda sytuacja, gdy mowa o bazach danych systemów, które gromadzą dane biznesowe: utrata informacji o zamówieniach od klienta, niemożliwość wystawiania faktur, czy strata statusów stanów magazynowych – dla większości firm oznacza konsekwencje finansowe mogące spowodować nawet zniknięcie przedsiębiorstwa z rynku.

Żądajmy więcej!

Świadomość posiadania kopii bezpieczeństwa nie powinna zaspokajać w pełni oczekiwań. Dopiero próba odtworzenia systemu z wykonanego backupu, najlepiej losowo wybranego, bądź do losowo wskazanego punktu w czasie, da odpowiedź na zasadnicze w tym kontekście pytanie: czy mój system backupów jest skuteczny?

Wykonanie testów odtwarzania powinno dodatkowo dostarczyć jeszcze jednej informacji, bardzo ważnej z punktu widzenia użytkowników końcowych: ile czasu zajmie odtworzenie danych z kopii zapasowych, jeśli zajdzie taka potrzeba? Ważne jest, aby dokonać rzeczywistego pomiaru czasu odtwarzania – nie tylko operacji odczytywania danych z nośnika, na którym backup został wykonany, ale również znalezienia danych, dostarczenia ich do urządzenia, uruchomienia procedury odtwarzania, ustabilizowania środowiska po odtworzeniu. Prostym przykładem bardzo bezpiecznego, ale mało skutecznego rozwiązania, jest przechowywanie nośników z kopiami w sejfie bankowym, do którego dostęp był możliwy tylko w dni robocze w godzinach pracy. Z pozoru błahy problem, może stać się przyczyną  nawet kilkudniowego opóźnienia w odzyskaniu danych.

Najlepsze praktyki IT zebrane m.in. w wytycznych ITIL (których implementacją jest norma ISO-20000) podpowiadają dodatkowo, że sama świadomość procedury odtwarzania to za mało, potrzebne jest jej spisanie. Takie procedury noszą nazwę Planów Ciągłości Działania (ang. Business Continuity Plans) i powinny być – w zależności od wymagań biznesu – opracowane na odpowiednich poziomach: systemów IT, sieci, serwerowni, działów IT, czy też całego przedsiębiorstwa.

Regularne testowanie scenariuszy PCD dla różnych hipotetycznych awarii, pozwala na podniesienie poziomu bezpieczeństwa, zwiększenie świadomości słabych stron, a także pokazuje i możliwości posiadanej  infrastruktury.

Zaawansowane technologie zwiększają możliwości wydajnościowe. Z pomocą techniki deduplikacji, dzięki zmianie kopii wykonywanych na tasiemki (disk-to-tape) na kopie wykonywane na specjalizowane urządzenia dyskowe (tzw. backup disk-to-disk), można uzyskać nawet kilkudziesięcioprocentową redukcję ilości kopiowanych danych. Rozwiązania sprzętowe pozwalają na wykonywanie kopii zarówno systemów centralnych, jak i stacji roboczych, z wykorzystaniem zwykłych łączy internetowych w taki sposób, że po pierwszym backupie ilość regularnie kopiowanych danych wymaganych do pełnego odtworzenia danego środowiska, stanowi pojedyncze procenty ilości danych źródłowych.

Na zapas

Istnieje jeszcze jeden zasygnalizowany wcześniej obszar, który powinien być troską osób odpowiedzialnych za kopie bezpieczeństwa: fizyczna separacja danych od miejsca położenia ich kopii. W świecie IT często jest mowa o awariach, w wyniku których firmy utraciły nie tylko swoje bieżące dane, ale również kopie zapasowe.

Pod presją ciągłego obniżania kosztów, dostawcy oferują rozwiązania, w których zapewnienie kopii bezpieczeństwa całych środowisk pozostawiają odbiorcom jako dodatkowo płatną opcję, a nie jako standard. Być może dla użytkowników końcowych, będących tylko odbiorcami prostych usług, jest to rozwiązanie wystarczające, z pewnością jednak nie zaspokaja, nawet jeśli czasem nieuświadomionych, wymagań biznesu.

Im wyższa świadomość krytyczności posiadanych danych, zależności prowadzonej działalności od dostępu do systemów i danych, tym większa dbałość o zapewnienie odpowiednio bezpiecznych rozwiązań. Coraz częściej posiadanie jednej serwerowni nie zaspokaja wymagań bezpieczeństwa danej firmy. Uruchomienie rozwiązania zapasowego, tzw. ZCPD (Zapasowe Centrum Przetwarzania Danych, ang. Disaster Recovery Center, DRC) w znaczący sposób podnosi bezpieczeństwo.

Pojęcie ZCPD opisuje cały szereg usług.  Najczęściej można spotkać następujące scenariusze:

  • replikacja wybranych systemów IT z Podstawowego Centrum Przetwarzania Danych (PCPD) do ZCPD – np. utrzymywanie bazy danych stand-by (replikacja logów baz danych) – w przypadku awarii, system zapasowy zostaje udostępniony w ZCPD w trybie pracy produkcyjnej,
  • replikacja systemów centralnych IT – zapewnienie nie tylko redundancji na poziomie pojedynczych systemów (jak w scenariuszu 1) ale całego środowiska systemów centralnych, kompletnych systemów na podstawie replikacji danych na poziomie systemów plików czy macierzy dyskowych. W przypadku awarii w podstawowym CPD, decyzją administratorów użytkownicy zaczynają pracę w systemach uruchomionych w ZCPD,
  • utrzymywanie zapasowych elementów infrastruktury IT, jak kontrolery domen, zapewnienie redundancji szkieletu sieci – w przypadku awarii następuje natychmiastowe i automatyczne przejęcie przez ZCPD roli środowisk podstawowych,
  • replikacja kopii bezpieczeństwa – rozwiązanie pozwalajace na automatyczne replikowanie wykonywanych kopii zapasowych  – dane są przesyłane do ZCPD w chwilę po tym gdy kopia zostaje wykonana w PCPD; dzięki takiemu podejściu możliwe jest uruchomienie systemów z ich kopii stających w ZCPD już bez dodatkowego kopiowania danych,
  • rezerwacja przestrzeni i mocy obliczeniowej dla systemów IT – zreplikowane środowisko pozostaje wyłączone i jest uruchamiane tylko w razie potrzeby (awaria bądź testy) – produkcyjne uruchomienie ZCPD wymaga wcześniejszego odtworzenia do niego aktualnych danych z PCPD. Taki scenariusz często uruchamiany jest wraz ze scenariuszem powyżej.

Firmy, dla których dostępność ich usług jest szczególnie krytyczna, rozszerzają definicję infrastruktury zapasowej nawet na utrzymywanie w trybie oczekiwania pomieszczeń biurowych gotowych do przyjęcia pracowników w przypadku awarii w biurowcu, z którego praca wykonywana jest na codzień.

Brawurowo

Stare przysłowie lotników mówi: „Są starzy piloci i brawurowi piloci. Nie ma jednak starych brawurowych pilotów”. Pozostaje zatem przekazać bezpieczeństwo danych tym, którzy nie boją się wyzwań, ale są starymi i zarazem doświadczonymi pilotami.

Tomasz Wawrzonek, Wicedyrektor IT, All for One Poland

W BCC (aktualnie All for One Poland) od kilkunastu lat świadczymy usługi outsourcingu IT, w tym również realizujemy usługi ZCPD. Zebrane doświadczenia pozwalają nam na proponowanie klientom optymalnych dla nich rozwiązań. Jesteśmy partnerem światowych producentów sprzętu i oprogramowania IT takich jak EMC, VMware, IBM, NetApp, HP, SAP, Microsoft, Oracle, Juniper. W kontekście wykonywania kopii bezpieczeństwa sami korzystamy z rozwiązań EMC NetWorker i Avamar oraz replikacji systemów kopii bezpieczeństwa opartych na rozproszonej infrastrukturze EMC DataDomain.
Tomasz Wawrzonek, Wicedyrektor IT, All for One Poland