To oczywiste – jeśli w wyniku przestoju systemu informatycznego firmy jej klient nie otrzymuje dostawy czy też odpowiedzi w oczekiwanym czasie lub choćby uzna usługę za niekompletną, nabiera wątpliwości lub po prostu idzie do konkurencji. Dlatego z punktu widzenia ciągłości działania biznesu kluczowe jest zapewnienie infrastruktury informatycznej przedsiębiorstwa, która będzie odporna na awarie, niezależnie od tego, czy wynikają one z czynników zewnętrznych czy wewnętrznych.
Firmowe działy IT znają i stosują różne recepty zabezpieczenia systemów przed problemami. Ogólna zasada brzmi: im wyższy poziom bezpieczeństwa chcemy osiągnąć, im wyższą dostępność systemów zamierzamy zagwarantować, tym… głębiej trzeba sięgnąć do kieszeni. Czy zatem gdzieś istnieje jakiś złoty środek między jakością i kosztami?
Backup zabezpieczony
Działy informatyki, świadome ryzyka, od lat korzystają z systemów backupu, najczęściej opartego o biblioteki taśmowe LTO. Tasiemki są zmieniane regularnie i zawożone do sejfu w bezpiecznym miejscu, np. w banku. Spisana procedura bezpieczeństwa definiuje okresy, w których odtwarzana jest część backupu i weryfikowana jego poprawność.
Zajmuje to mnóstwo czasu – taśmy trzeba w bezpieczny sposób przywieźć, przygotować środowisko, odtworzyć na bibliotece taśmowej. Koszt organizacyjny całej operacji jest spory, nie wspominając o zaangażowaniu personelu IT. Dobrą stroną rutynowych ćwiczeń jest większa gotowość w przypadku wystąpienia rzeczywistej awarii czy utraty danych – bez nagłego poszukiwania listy backupów, znana trasa do banku pozwala ominąć korki. Ale taśmowy backup nie odtworzy się szybciej.
Jeśli firma zakupiła urządzenia dyskowe, backup wykonuje się szybko, podobnie szybko się odtwarza – koszty jego weryfikacji i czas odtworzenia znacznie spadają. Nadal pozostaje jednak ryzyko związane z jedną lokalizacją, w której znajdują się zarówno dane, jak i zabezpieczająca je kopia zapasowa.
Może kopia kopii?
Choć technicznie nic nie stoi na przeszkodzie, wykonywanie drugiej kopii na taśmę ma dziś umiarkowany sens z punktu widzenia wydajności i kosztów (choćby kwestia weryfikacji backupu). Niewątpliwie jedną z najbardziej wydajnych metod zabezpieczenia backupu dyskowego, jest kopiowanie go na inną macierz w innej lokalizacji. Jeśli szczęśliwie firma posiada inną lokalizację, spiętą szybką siecią LAN, może podjąć próbę rozwiązania problemu za pomocą drugiej macierzy dyskowej o odpowiedniej pojemności. Umieszcza ją wówczas w odległej lokalizacji, konfiguruje mirror i może spać spokojnie. Do czasu aż na replikę trafią błędy z macierzy źródłowej – nawet przypadkowe usunięcie danych na źródle, pociągnie za sobą analogiczną operację na mirrorze.
A jeśli do tego danych jest dużo? Gdy jest kilkadziesiąt serwerów i kilkaset stacji o łącznym rozmiarze danych źródłowych idącym w dziesiątki terabajtów? Jak rozwiązać problem, jeśli łącze do oddziału w innym mieście to 4MBps i intensywnie pracuje na nim wielu użytkowników?
Nie kopiuj, mam już takie pliki!
Z pomocą przychodzi technologia deduplikacji. Specjalny algorytm w trakcie backupu przygląda się poszczególnym blokom danych składających się na pliki i sprawdza, czy przypadkiem w archiwum dyskowym nie ma już identycznych – jeśli takie znajdzie, nie kopiuje ich ponownie. Zapisuje jedynie, że blok danych X to taki sam blok jak Y, więc w razie potrzeby można go użyć. I nigdy się nie myli.
Proste i oszczędzające przestrzeń dyskową rozwiązanie – ale co ważniejsze: kluczowe, jeśli firma chce skorzystać z replikacji backupu do innej lokalizacji przez przeciętne łącze WAN – przesyła wówczas jedynie ułamek pierwotnych danych. Osiągnięty cel: spójna kopia w odległej lokalizacji.
Gdy kopia kopii to za mało…
Odpowiednie dobranie środków to – z jednej strony zabezpieczenie danych „najlepiej jak można”, a z drugiej – utrzymanie „najniżej jak można” kosztów. Ten dobór jest szczególnie istotny, gdy dla zabezpieczenia ciągłości działania biznesu, konieczne jest myślenie o zapasowym centrum przetwarzania danych (CPD).
Do niedawna trudno było ten poziom dobrze dobrać – często firmy płacą za gotowość, tak jak za ubezpieczenie: nie wiadomo kiedy i gdzie wystąpi problem, więc zabezpieczały wszystkie obszary przez cały czas. Chcąc utrzymać zabezpieczenia na wysokim poziomie i mieć pewność działania w przypadku awarii, ponoszą opłaty za pojemność infrastruktury pozwalającą na osiągnięcie wydajności zbliżonej do głównego CPD. W skrajnym przypadku może to oznaczać nawet utrzymywanie całej zapasowej serwerowni. Jeśli ważne jest ograniczenie kosztów, niezbędny bywa kompromis: zapasowa infrastruktura zapewniająca tylko minimum potrzebnej wydajności.
Lepiej i taniej jednocześnie?
Dziś istnieją rozwiązania pozwalające na połączenie niezbędnej wydajności z optymalizacją kosztów. Przykładem mogą tu być środowiska chmurowe, w których zapasowa infrastruktura konsumuje zasoby w miarę potrzeb, poprzez dynamiczny przydział dostępnego potencjału.
Innym, dającym podobny efekt rozwiązaniem jest zapasowe centrum przetwarzania danych „na żądanie”. W razie awarii głównej lokalizacji, przy użyciu zreplikowanego wcześniej backupu, infrastruktura odtwarzana jest w zapasowej lokalizacji, na maszynach wirtualnych uruchamianych w momencie wystąpienia awarii. Możliwe jest tu zarówno odtworzenie pojedynczej maszyny, jak całości infrastruktury łącznie z zależnościami i połączeniami pomiędzy aplikacjami biznesowymi.
W takim modelu, w trybie ciągłym pracuje jedynie system replikacji backupu, zapewniając obecność aktualnych danych w zapasowej lokalizacji. Zapasowe CPD „czuwa”, jest w stanie „uśpionym”, gotowe do uruchomienia w razie awarii.
Doświadczenie BCC (aktualnie All for One Poland) wskazuje na EMC DataDomain – sprzętowe rozwiązanie, które, dzięki wspomnianej wyżej technologii deduplikacji, umożliwia wykonanie kopii zapasowej danych w bardzo krótkim czasie, przy jednoczesnej ich replikacji do bliźniaczego urządzenia w zdalnej lokalizacji. Dokładając do tego procedury backup & recovery dostosowane do typu danych i serwerów, otrzymujemy kompletne rozwiązanie zapewniające ciągłość działania za rozsądne pieniądze.