Każda informacja stanowi wartość tylko wtedy, kiedy znajduje się w miejscu, w którym w danej chwili jest potrzebna. Miejscem tym, co oczywiste, nie jest samo data center. Może być nim natomiast każda inna lokalizacja, w której właściciel danych oczekuje dostępu do nich. Oznacza to konieczność zapewnienia przez usługodawcę odpowiedzialnego za przechowywanie niezawodnego i bezpiecznego dostępu do danych klienta.

Odpowiedzialność za najwyższy poziom dostępności łączy w centrum danych przekłada się na zapewnienie ciągłości funkcjonowania systemów klientów. Ma to szczególne znaczenie, gdy hostingiem objęte są krytyczne dane i systemy wykorzystywane na co dzień przez dziesiątki lub setki pracowników, mające bezpośredni wpływ na zarządzanie przedsiębiorstwem.

Dostarczenie tak wysokiego poziomu usług możliwe jest tylko przy jednoczesnym zoptymalizowaniu wszystkich czynników mających wpływ na osiągnięcie maksymalnej dostępności sieci.

99,999% dostępności

Pięć minut przerwy rocznie, czyli 99,999% – „pięć dziewiątek” – to poziom uznawany obecnie za najwyższy światowy standard możliwy do osiągnięcia w rzeczywistym środowisku produkcyjnym. Oczywiste jest, że w tak krótkim czasie personel techniczny nie będzie w stanie zareagować na awarię i skutecznie jej usunąć.

Konieczne jest zatem w pierwszej kolejności stosowanie rozwiązań minimalizujących ryzyko wystąpienia awarii, a jeśli już do niej dojdzie – pełna automatyzacja odtwarzania połączeń.

Centrum Przetwarzania Danych BCC

Nasze centrum przetwarzania danych w Złotnikach pod Poznaniem funkcjonuje od 2006 r. Projektując i rozwijając rozwiązania techniczne, mieliśmy na uwadze oczekiwania wymagających klientów w zakresie bezpieczeństwa i wydajności. Obecnie infrastruktura sieciowa podstawowego i zapasowego All for One Data Center obejmuje kilkaset interfejsów na różnych urządzeniach sieciowych. Szkielet sieci tworzą zagregowane łącza, zapewniające przepustowość wymaganą dziś, ale dające duże możliwości ich rozszerzania w przyszłości. Oczywiście wszystkie krytyczne połączenia sieciowe pracują w konfiguracjach z odpowiednim poziomem redundancji, aby zapewnić sprawne przełączenie w przypadku sytuacji awaryjnych. All for One Data center dysponuje kilkoma niezależnymi łączami do Internetu dostarczonymi przez największych operatorów, gwarantującymi redundancję, odpowiedni zapas pasma oraz najkrótsze czasy transmisji. Oprócz infrastruktury jest jeszcze kilkudziesięcioosobowy zespół doświadczonych specjalistów technicznych i serwisowych, a także odpowiednia organizacja i procedury, podlegające ciągłemu udoskonalaniu i niezależnym audytom. Certyfikaty SAP Hosting Partner, ISO 20000 i ISO/IEC 27001 dają klientom gwarancję wysokiego poziomu wdrożenia rozwiązań technologicznych oraz pewność, że są one profesjonalnie administrowane i monitorowane. Wszystko to pozwala nam świadczyć kompleksowe usługi wdrożeń, hostingu oraz administracji rozwiązań sieciowych. Prowadzimy również audyty infrastruktury sieciowej klientów, oceniając jej bezpieczeństwo i wskazując wąskie gardła w bieżącej konfiguracji. Nasza oferta w obszarze sieciowym jest często komplementarną częścią innego projektu. Na przykład klient wraz z wdrożeniem systemu IT w modelu hostingowym w ramach hostingu sieci otrzymuje wszystko, co niezbędne, aby komunikacja z jego systemami pracującymi w All for One Data Center była sprawna i niezawodna. Urządzenia sieciowe pracujące w lokalizacjach oddziałów firmy klienta są na bieżąco monitorowane przez zespół konsultantów serwisowych. W przypadku nieprawidłowości podejmujemy natychmiastowe działania, a dzięki monitoringowi reakcja jest możliwa w maksymalnie krótkim czasie.

Całość rozwiązań składających się na infrastrukturę sieciową data center należy rozpatrywać, począwszy od okablowania strukturalnego. Instalacja miedziana i światłowodowa zaprojektowana i wykonana zgodnie z najnowszymi technologiami przez profesjonalnych monterów i certyfikowana przez producenta infrastruktury pasywnej to gwarancja niezawodności na co najmniej 20-25 lat i podstawa do budowy aktywnej części sieci komputerowej.

Włókna światłowodowe jednomodowe i wielomodowe oraz okablowanie miedziane kategorii 6 umożliwiają realizację transmisji z przepływnością 10 Gb/s, co przy stale rosnącym wolumenie danych pozwala utrzymać odpowiednią wydajność i w razie potrzeby łatwo przeprowadzić rozbudowę sieci.

Podstawową łączność zapewniają switche ethernetowe. Odpowiednia wydajność przełączania ramek, zapewniająca możliwość wysycenia każdego interfejsu w 100% (ang. wirespeed) bez względu na ich długość to konieczny, ale zaledwie podstawowy warunek, jaki musi spełniać switch dla data center.

Dobór konkretnego modelu opiera się na analizie dziesiątek innych czynników, zależnych głównie od konkretnego punktu eksploatacji (switch brzegowy, agregujący, szkieletowy), co determinuje liczbę i przepływność interfejsów (1 Gb/s lub 10 Gb/s), ich rodzaj (elektryczne i/lub optyczne), liczbę wspieranych sieci VLAN/PVLAN oraz instancji protokołu STP, umożliwiającego stosowanie redundancji dla połączeń w warstwie 2 ISO/OSI.

Wreszcie należy wziąć pod uwagę aspekty związane z zapewnieniem odpowiedniej jakości usług (Quality of Service), kształtowaniem ruchu (traffic shaping, rate limiting) oraz funkcjami bezpieczeństwa, zarządzania i raportowania dostępnymi na danym urządzeniu.

Ostateczną decyzję o zastosowaniu konkretnego urządzenia poprzedza dodatkowo weryfikacja kompatybilności z już istniejącą infrastrukturą sieciową w zakresie wszystkich wykorzystywanych protokołów i technologii.

W efekcie zarówno istniejąca, jak i rozbudowywana w miarę potrzeb warstwa przełączająca sieci daje pewność spełnienia wysokich wymogów dotyczących funkcjonalności i wydajności, a przede wszystkim niezawodności.

Ostatnim elementem architektury sieciowej są routery oraz urządzenia odpowiedzialne za szeroko pojęte bezpieczeństwo zasobów data center – kontrolę dostępu, wykrywanie ataków, szyfrowanie transmisji.

Urządzenia te pośredniczą w przekazywaniu ruchu pomiędzy poszczególnymi segmentami sieci, w szczególności są podstawowym elementem łączności z klientami hostującymi swoje systemy w centrum przetwarzania danych, bez względu na technologię realizacji transmisji (kanał cyfrowy, łącze dedykowane, tunel VPN, dostęp z Internetu itp.).

Routery muszą wspierać całą gamę protokołów oraz interfejsów sieciowych, aby zapewnić obsługę dowolnego rodzaju transmisji IP, gdyż to do klienta należy decyzja o rodzaju połączenia, za pomocą którego oczekuje dostępu do danych. Usługodawca musi być przygotowany na wszystkie rozwiązania.

Urządzenia sieciowe muszą być objęte gwarancją (z wymianą urządzenia na sprawne w razie wystąpienia uszkodzenia) oraz wsparciem technicznym producenta przez cały okres ich eksploatacji w środowisku produkcyjnym data center. Pozwala to na w pełni efektywne wykorzystanie infrastruktury i jej bezpieczną eksploatację.

Rozwinięciem wewnętrznej struktury sieci są połączenia do Internetu oraz bezpośrednie kanały transmisyjne do klientów. Od dostawców łączy należy wymagać zagwarantowania odpowiedniego poziomu jakości usług, przez co rozumie się nie tylko krótki czas reakcji na awarię, ale również z góry zdefiniowane i dotrzymywane parametry jakości ruchu, takie jak brak strat czy określone, stałe czasy opóźnień w sieci, monitorowane w trybie ciągłym.

Wysoka jakość połączeń jest istotna zwłaszcza przy pracy interaktywnej na systemach hostowanych w zdalnym centrum przetwarzania danych, gdzie każda akcja użytkownika końcowego powoduje reakcję systemu i zwrotne przesłanie żądanych danych – nierzadko dużej ich ilości.

Wysoka przepustowość łączy i niskie opóźnienia (od kilkunastu do maksymalnie kilkudziesięciu milisekund) gwarantują, że użytkownik zalogowany do hostowanego systemu nie odczuje jakiejkolwiek różnicy w pracy na zdalnym systemie w porównaniu z pracą na systemie lokalnym.

Jak wybierać dostawcę outsourcingu IT

Dostawców usług outsourcingu IT jest sporo, więc ich ofercie należy przyjrzeć się wnikliwie – w końcu wybieramy partnera do długoletniej współpracy. Nie poprzestawajmy na sprawdzaniu na papierze infrastruktury technicznej, wielkości i kompetencji zespołu oraz sposobu działania dostawcy. Wizyty „osobiste” w centrum outsourcingowym dają możliwość naocznej weryfikacji tego, co promuje dostawca. Podczas takiej wizyty można lepiej poznać dostawcę, a także ocenić sposób komunikowania się konsultantów z klientem. Kolejnym elementem, który warto dokładnie sprawdzić, jest proponowana przez dostawcę umowa. Jej zawartość powinna korespondować np. z najlepszymi praktykami dotyczącymi Zarządzania Usługami IT jak np. ITIL. Ponadto posiadanie Systemu Zarządzania Bezpieczeństwem Informacji zgodnego z normą ISO 27001 daje możliwość oceny polityki bezpieczeństwa i poziomu zarządzania informacją oraz ciągłością działania. Dobrą metodą na weryfikację tych wyżej wymienionych elementów jest wykonanie audytu centrum outsourcingowego. Warto się więc dowiedzieć, czy dostawca usług przewiduje możliwość audytu w swoim centrum przetwarzania danych i na jakich zasadach może się on odbyć.

Spokojnie, to tylko awaria

Jednak nawet przy największym zaangażowaniu sił i środków usunięcie awarii przez służby serwisowe (naprawa łącza, wymiana routera) może – z przyczyn obiektywnych – trwać wiele godzin. Jest to czas absolutnie nieakceptowalny, gdyż z punktu widzenia klienta centrum przetwarzania danych oznacza znaczącą przerwę w dostępie do informacji, a tym samym najczęściej przestój w pracy.

Należy zatem zastosować dodatkowe rozwiązania, minimalizujące skutki awarii. Najprostszym, ale i jednym z najbardziej skutecznych jest redundancja, czyli wykorzystanie nadmiarowych elementów infrastruktury teleinformatycznej w połączeniu z mechanizmami automatycznego przełączania ruchu na dostępne alternatywne ścieżki transmisji danych, zarówno dla warstwy 2 (switching), jak i 3 (routing).

Obecne technologie pozwalają na automatyczne omijanie punktów awarii i przeniesienie ruchu na łącze lub urządzenie zapasowe (hotstandby) w czasie od kilkudziesięciu sekund do poniżej jednej sekundy. W praktyce sprawia to, że urządzenia sieciowe wybierają alternatywną trasę, zanim jeszcze administrator otrzymał z systemów monitoringu informację o uszkodzeniu.

Istotne jest przy tym okresowe testowanie ścieżek backupowych (kontrolowane, symulowane „awarie”), aby mieć pewność, że niezależnie od czasu i miejsca wystąpienia problemu sieć zachowa się przewidywalnie i automatycznie odtworzy krytyczne połączenia.

Opisane podstawowe rozwiązania techniczne i organizacyjne, zastosowane w projektowaniu i budowie sieci lokalnej i rozległej, pozwalają na maksymalizację czasu dostępności systemów hostowanych w ramach usług outsourcingowych w zdalnym centrum przetwarzania danych. Stabilna i wydajna sieć jest istotnym elementem najwyższej jakości usług hostingowych, gwarantując niezakłóconą transmisję do użytkowników końcowych.

Należy zatem zastosować dodatkowe rozwiązania, minimalizujące skutki awarii. Najprostszym, ale i jednym z najbardziej skutecznych jest redundancja, czyli wykorzystanie nadmiarowych elementów infrastruktury teleinformatycznej w połączeniu z mechanizmami automatycznego przełączania ruchu na dostępne alternatywne ścieżki transmisji danych, zarówno dla warstwy 2 (switching), jak i 3 (routing).

Obecne technologie pozwalają na automatyczne omijanie punktów awarii i przeniesienie ruchu na łącze lub urządzenie zapasowe (hotstandby) w czasie od kilkudziesięciu sekund do poniżej jednej sekundy. W praktyce sprawia to, że urządzenia sieciowe wybierają alternatywną trasę, zanim jeszcze administrator otrzymał z systemów monitoringu informację o uszkodzeniu.

Istotne jest przy tym okresowe testowanie ścieżek backupowych (kontrolowane, symulowane „awarie”), aby mieć pewność, że niezależnie od czasu i miejsca wystąpienia problemu sieć zachowa się przewidywalnie i automatycznie odtworzy krytyczne połączenia.

 Opisane podstawowe rozwiązania techniczne i organizacyjne, zastosowane w projektowaniu i budowie sieci lokalnej i rozległej, pozwalają na maksymalizację czasu dostępności systemów hostowanych w ramach usług outsourcingowych w zdalnym centrum przetwarzania danych. Stabilna i wydajna sieć jest istotnym elementem najwyższej jakości usług hostingowych, gwarantując niezakłóconą transmisję do użytkowników końcowych.

Należy zatem zastosować dodatkowe rozwiązania, minimalizujące skutki awarii. Najprostszym, ale i jednym z najbardziej skutecznych jest redundancja, czyli wykorzystanie nadmiarowych elementów infrastruktury teleinformatycznej w połączeniu z mechanizmami automatycznego przełączania ruchu na dostępne alternatywne ścieżki transmisji danych, zarówno dla warstwy 2 (switching), jak i 3 (routing).

Obecne technologie pozwalają na automatyczne omijanie punktów awarii i przeniesienie ruchu na łącze lub urządzenie zapasowe (hotstandby) w czasie od kilkudziesięciu sekund do poniżej jednej sekundy. W praktyce sprawia to, że urządzenia sieciowe wybierają alternatywną trasę, zanim jeszcze administrator otrzymał z systemów monitoringu informację o uszkodzeniu.

Istotne jest przy tym okresowe testowanie ścieżek backupowych (kontrolowane, symulowane „awarie”), aby mieć pewność, że niezależnie od czasu i miejsca wystąpienia problemu sieć zachowa się przewidywalnie i automatycznie odtworzy krytyczne połączenia.

 Opisane podstawowe rozwiązania techniczne i organizacyjne, zastosowane w projektowaniu i budowie sieci lokalnej i rozległej, pozwalają na maksymalizację czasu dostępności systemów hostowanych w ramach usług outsourcingowych w zdalnym centrum przetwarzania danych. Stabilna i wydajna sieć jest istotnym elementem najwyższej jakości usług hostingowych, gwarantując niezakłóconą transmisję do użytkowników końcowych.