Wysokie wymagania biznesu, nowe technologie informatyczne, wydajniejsze serwery – wszystko to kojarzy się z rosnącymi nakładami na IT. Czy to możliwe, by infrastruktura informatyczna była coraz wydajniejsza, a jednocześnie jej utrzymanie kosztowało mniej? To pytanie zadajemy Tomaszowi Wawrzonkowi, Menedżerowi IT w BCC.
Co według Ciebie jest obecnie uznawane za priorytet działu IT?
Gotowość do szybkiej reakcji IT na potrzeby biznesowe oraz zapewnienie zgodnie z oczekiwaniami biznesu odpowiedniej dostępności i wydajności systemów informatycznych. Chodzi o to, by aplikacja była dostępna dla docelowej grupy odbiorców niezależnie od tego, czy użytkownik pracuje lokalnie, czy zdalnie, oraz aby komfort pracy zachęcał do korzystania z systemu IT, a funkcjonalność wspomagała realizację celów firmy.
Rozwój biznesu wiąże się z coraz większą liczbą użytkowników rozwiązań IT, a więc i komputerów osobistych, coraz szerszym wykorzystaniem różnorodnych aplikacji i w rezultacie rozleglejszą infrastrukturą do administrowania. Rozrasta się także środowisko systemów centralnych i potrzebny jest dodatkowy sprzęt: serwery bazodanowe, serwery wymiany komunikatów (EDI), serwery z systemami ERP, CRM czy innymi. W wielu firmach normą jest też udostępnianie części firmowych zasobów IT klientom lub kontrahentom.
W efekcie w szybkim tempie uzależniamy się od systemów informatycznych i nowych technologii, a te z kolei muszą spełniać coraz wyższe wymagania dostępności i wydajności oraz bezpieczeństwa, bo to na nas wymuszają potrzeby biznesowe i rynek.
Wyższa dostępność i wydajność oraz bezpieczeństwo, nowe technologie… To wszystko brzmi dość kosztownie.
Z takim myśleniem mamy do czynienia na co dzień i na pierwszy rzut oka wydaje się, że koszty rozwoju i utrzymania infrastruktury IT rosną wraz z wymaganiami, szczególnie w zakresie zapewnienia ciągłości działania. To jednak w sumie, po złożeniu całości budżetów, nie musi być prawda. Oczywiście nie da się uciec od takich kosztów jak: utrzymanie stacji roboczych, serwerów, sieci, pamięci masowych, gdzie mamy do czynienia ze sprzętem i licencjami. Do tego dochodzi infrastruktura serwerowni, łącza oraz utrzymanie odpowiednich kompetencji pracowników.
Sedno sukcesu tkwi w doborze właściwych rozwiązań technologicznych i proceduralnych. W efekcie możemy być coraz lepsi, nie zwiększając kosztów, a zarządzać infrastrukturą możemy na różne sposoby. Wymieńmy dla przykładu dwa przynoszące wymierne efekty.
Po pierwsze outsourcing – od outsourcingu kompetencji, czyli usługi administracji systemami, po hosting infrastruktury. BCC świadczy usługi outsourcingu IT w szerokim zakresie, od szkoleń i zdalnego wsparcia administratorów aplikacji, aż po hosting i administrację systemami pracującymi w naszym centrum przetwarzania danych. Naszą ofertę dostosowujemy do oczekiwań i potrzeb klienta. Z założeń cloud computingu korzystamy, by utrzymać dostępność i wydajność systemów informatycznych na wysokim poziomie, przy zachowaniu wymogów bezpieczeństwa i bez wygórowanych kosztów.
Druga sprawa to cloud computing, z którego założeń korzystamy, by utrzymać dostępność i wydajność systemów informatycznych na wysokim poziomie, przy zachowaniu wymogów bezpieczeństwa i bez ponoszenia wygórowanych kosztów. Warto sięgnąć po technologie wirtualizacyjne, które są podstawą cloud computing, oraz systemy wspomagające automatyczne monitorowanie infrastruktury, rozliczanie kosztów czy inteligentne reagowanie na awarie.
Także na łamach Lepszego Biznesu niejednokrotnie pisaliśmy już o wirtualizacji, bezpieczeństwie infrastruktury IT i o tym, co zrobić, by zwiększyć dostępność systemów informatycznych. Jak to się ma do cloud computingu?
Wiele firm zwirtualizowało swoje systemy, w efekcie poprzez lepsze wykorzystanie infrastruktury obniżyło koszty IT i zaczęło wykorzystywać swoją infrastrukturę w modelu IaaS (Infrastructure as a Service). Jeśli do tego dodamy odpowiedni poziom świadczenia usług z jasno określonymi odpowiedzialnościami, mamy do czynienia z modelem ITaaS, czyli IT as a Service. Podsumowując, jeśli mamy w pełni zwirtualizowane zasoby, określone standardy dostarczania usług oraz odpowiednio zdefiniowany dostęp użytkowników z właściwym przypisaniem kosztów, mamy do czynienia z cloud computingiem, a dokładnie z modelem prywatnej chmury, tzw. private cloud.
Ile można oszczędzić dzięki wirtualizacji?
To oczywiście zależy od systemów, jakie klient chciałby zwirtualizować, i od tego, w jaki sposób wykorzystują one aktualną platformę sprzętową. Koszty zapewnienia odpowiedniej mocy obliczeniowej można zredukować o kilkadziesiąt procent. Zwróćmy uwagę na różnicę w postępie technologicznym w odniesieniu do mocy obliczeniowej – wystarczy porównać aktualne procesory do tych sprzed kilku lat – ich moc jest większa o rzędy wielkości.
Właśnie dlatego wirtualizacja daje tak duży zwrot z inwestycji. W szczególnych przypadkach koszty mogą się zwrócić już w ciągu kilku miesięcy. Na życzenie naszych klientów możemy oszacować TCO dla projektów wirtualizacji.
Warto pamiętać, że wirtualizacja daje również alternatywne rozwiązania w zakresie wybranych funkcjonalności, na przykład tworzenie systemów wysokiej dostępności. Wirtualizacja ma tutaj tę przewagę, że dla systemów, których producent nie przewidział konfiguracji wysokiej dostępności na poziomie aplikacji, możemy ją stworzyć na poziomie wirtualnej infrastruktury IT. Niższe są także koszty administracji serwerami i krótsze czasy reakcji na utratę ciągłości działania systemów.
Co tak naprawdę oznacza pojęcie system wysokiej dostępności?
Wysoka dostępność – najczęściej opisywana angielskim pojęciem High Availability czy też po prostu HA – to zapewnienie nieprzerwanej pracy systemu informatycznego niezależnie od awarii elementów infrastruktury, na których dane rozwiązanie jest uruchomione, czyli brak tak zwanych pojedynczych punktów awarii.
Wraz ze wzrostem krytyczności systemów IT dla firmy rosną wymagania biznesu odnośnie do ciągłości pracy systemów IT. Menedżer odpowiedzialny za dostępność systemów zaczyna się więc zastanawiać, jak radzić sobie z awariami – zapewnić odpowiednie narzędzia podnoszące dostępność systemów informatycznych, czy może zatrudnić dodatkowych administratorów i pracować w trybie 24/7?
Oczywiście z punktu widzenia szefa IT bardziej istotne od usuwania awarii jest zapobieganie im. Tutaj dotykamy wielu aspektów. Dla przykładu ciągle jedną z częstszych przyczyn przestojów systemów IT są problemy z zasilaniem. Jak zatem zapewnić odpowiednie zasilanie – czy wystarczy tylko system awaryjny (UPS), czy niezbędny też jest generator prądu. Inne istotne czynniki to wyważenie proporcji pomiędzy wdrażaniem coraz lepszych rozwiązań technologicznych a wprowadzaniem odpowiednich procedur, jak choćby zarządzanie zmianą, reagowanie w sytuacjach krytycznych czy procedury gwarantujące zachowanie ciągłości działania.
Zapobieganie i usuwanie awarii nie może nam przesłonić jeszcze jednej bardzo istotnej kwestii – bieżącego monitorowania krytycznych parametrów, których niedotrzymanie może być przyczyną awarii. Dzisiaj trzeba unikać problemów, a nie tylko na nie reagować. A zatem musimy wyposażyć się w odpowiedni system monitoringu, który poinformuje nas o potencjalnych problemach lub zaalarmuje, że zbliżamy się do ustalonych wcześniej wartości progowych – nawet tak podstawowych jak np. temperatura w serwerowni.
Same zabezpieczenia, procedury i narzędzia nie sprawią, że uda nam się w ogóle wyeliminować awarie. Istota systemu wysokiej dostępności polega na zbudowaniu takiego środowiska systemów IT, w którym – jak już wcześniej wspomniałem – awaria jednego elementu infrastruktury nie powoduje niedostępności systemu informatycznego.
Wszystkie elementy tej układanki – infrastruktura, wirtualizacja, odpowiednie zabezpieczenia sieciowe oraz narzędzia monitorujące – uzupełniają się i funkcjonują jako część całości.
A w praktyce – co jest niezbędne, by zapewnić wysoką dostępność systemów IT?
Przede wszystkim musimy zlikwidować pojedyncze punkty awarii i zapewnić automatyczne lub ręczne – decyzja należy do nas – przełączanie pomiędzy elementami infrastruktury. W efekcie awaria pojedynczego elementu infrastruktury nie jest widoczna dla użytkownika końcowego lub czas niedostępności systemu jest skrócony do minimum. Redundancja elementów infrastruktury takich jak serwery i połączenia sieciowe oraz zastosowanie technik wirtualizacyjnych pozwala zamodelować automatyczną rekonfigurację w przypadku awarii.
Rozwiązania wysokiej dostępności można budować w oparciu o wiele różnych rozwiązań sprzętowo-programowych, m.in. VMware dla serwerów klasy Intel (Windows, Linux), czy logiczne partycje dla serwerów klasy POWER (UNIX) firmy IBM.
W Centrum Outsourcingowym BCC wykorzystujemy technologię wirtualizacyjną opartą na oprogramowaniu firmy VMware. Dzięki temu dla naszych klientów możemy szybko powoływać nowe systemy czy usługi w infrastrukturze IT.
Jeśli chodzi o systemy monitorujące, na rynku dostępnych jest wiele rozwiązań. Od dużych, udostępnianych przez największe firmy branży IT, przez darmowe, open-source’owe, aż do dedykowanych dla konkretnych aplikacji czy rozwiązań, np. SAP Solution Manager dla systemów SAP.
W zakresie budowania procedur bezpieczeństwa i zapewniania ciągłości działania opieramy się na dobrych praktykach ITIL. W BCC ich przestrzeganie kontroluje dedykowany zespół Bezpieczeństwa Informacji. Zespół zajmuje się również wdrażaniem i audytami tego typu rozwiązań u naszych klientów.
A co z firmami, które korzystają z SAP? Czy budowanie architektury wysokiej dostępności dla tych systemów wiąże się z dodatkowymi wyzwaniami?
Środowiska systemów SAP nie różnią się pod tym względem mocno od innych systemów IT. Zwróćmy tylko uwagę na konieczność zapewnienia odpowiedniej wydajności pamięci masowej, szczególnie w zakresie przestrzeni dyskowej. To jest kluczowy element zapewnienia odpowiedniej wydajności systemów SAP.
Wyzwaniem zawsze są kompetencje i doświadczenie, które muszą posiadać administratorzy, aby środowiskiem wysokiej dostępności dla SAP administrować w sposób dający gwarancję jego poprawnej pracy. A dostępnych technologii i ich konfiguracji jest bardzo wiele. W ramach usług świadczonych przez BCC konfigurowaliśmy kilkadziesiąt instalacji wysokiej dostępności w oparciu o różne technologie, m.in. VMware, Microsoft Cluster, IBM HACMP, HP ServiceGuard. Ich znajomość, a także doświadczenie w różnych wariantach konfiguracji to nasza mocna strona.
Wysoka dostępność infrastruktury IT to:
- brak pojedynczych punktów awarii (SPOF)
- redundancja na poziomie elementów infrastruktury i połączeń sieciowych
- automatyczna rekonfiguracja w przypadku awarii
- minimalizacja czasu przełączenia
- Fundamenty architektury wysokiej dostępności
- właściwa platforma sprzętowo-programowania, m.in. wirtualizacja
- posiadanie i testowanie planów ciągłości działania
- monitoring systemów wykonywany w czasie rzeczywistym
- procedury zarządzania zmianą
- centrum przetwarzania danych z infrastrukturą gwarantującą bezpieczeństwo urządzeń
Rozmawiała: Mirosława Huk, Grupa BCC