Racjonalnie o centrach danych

Podczas spotkania CIO Espresso zastanawialiśmy się nad definicją efektywnego centrum danych, optymalnym modelem zarządzania (i właścicielskim) oraz elementami warsztatu IT, które pomagają podnosić efektywność wykorzystania jego zasobów.

Punktem wyjścia do dyskusji z udziałem CIO reprezentujących różne branże i różne doświadczenie pod względem skali wykorzystywanych zasobów centrum danych było przeprowadzone przez IBM i IDC badanie.



Podstawowym celem badania była próba odpowiedzi na pytanie, czy efektywność data center (DC) ma znaczenie dla firmy? I jak można dziś zdefiniować efektywne DC? Wyniki badania omówił Paweł Bondar, Business Development Executive Integrated Technology Services IBM Polska. Wynikiem badania jest 4-stopniowa klasyfikacja DC ze względu na efektywność. Obecnie około 21 % DCs osiąga najwyższy poziom efektywności. Przejawem wprowadzenia takiego podejścia jest:

- Optymalizacja wykorzystana zasobów, niższe TCO;

- Elastyczność - gotowość na zmiany i szybkość ich wdrożenia bez zakłócania działalności firmy;

- Automatyzacja najbardziej pracochłonnych czynności dająca niższe koszty i lepsze parametry SLA;

- Stałe dopasowanie do planów biznesowych firmy i możliwość szybkiej reakcji na to, czego wymaga biznes.

W trakcie dyskusji dało się wyróżnić kilka interesujących wątków. Uczestników spotkania interesowały rekomendacje IBM oraz opinie współdyskutantów dotyczące progu skali, od którego inwestowanie w centrum przetwarzania danych - rozbudowę albo budowę nowej instalacji od podstaw - ma uzasadnienie biznesowe. Jak zauważył Jarosław Serba, CIO w Ruch S.A., takie ogólne rekomendacje stanowią co prawda dopiero punkt wyjścia do szczegółowego, uwzględniającego konkretny przypadek danej firmy studium opłacalności, ale mają bardzo duże znaczenie przy jego przygotowaniu. W opinii Pawła Bondara inicjowanie budowy centrum przetwarzania danych w obecnych uwarunkowaniach rynkowych, przy uwzględnieniu aktualnej ekonomiki zarządzania infrastrukturą, poziomu oferowanych na rynku usług, tendencji rozwoju technologii oraz rynku usług DC - najczęściej pozbawione jest uzasadnienia. Szczególnie dotyczy to średniej i małej wielkości firm, ale także większości dużych, których biznes nie jest skonc entrowany na przetwarzaniu danych.



Paweł Moszumański, CIO w Polfie Warszawa, zwrócił uwagę na zalety podejścia hybrydowego: utrzymanie niewielkiej serwerowni przechowującej i przetwarzającej dane kluczowe z punktu widzenia firmy (w przypadku firm farmaceutycznych są to receptury) i przetwarzanie reszty na infrastrukturze dostarczanej przez zewnętrznego dostawcę. Jak zwracali uwagę inni uczestnicy dyskusji, istniejąca własna infrastruktura może posłużyć w przyszłości do organizacji centrum zapasowego, które nie będzie wymagało kosztownej modernizacji. Paweł Leżański, CTO Grupy Onet, potwierdził rekomendacje zastrzegając jako wyjątek przypadek swojej firmy. Centrum przetwarzania danych zaprojektowane w 2007 r. na potrzeby własne stało się centrum udostępnianym klientom zewnętrznym. Stało się elementem przychodowym spółki. Obecnie zaplanowana jest budowa kolejnego obiektu w takim modelu.



Kamil Kajalidis z Reckit Benckiser pytał o korelacje pomiędzy poziomem efektywności centrum danych według klas zaproponowanych przez IBM a poziomem dojrzałości organizacji IT i poziomem potrzeb biznesu. Jak argumentował, dążenie do maksymalizacji efektywności centrum danych jest szczególnie w warunkach kryzysu działaniem błędnym.

Paweł Leżański z Onetu zwrócił w tym kontekście uwagę także na inny aspekt przetwarzania danych i dojrzewania infrastruktury oraz IT i prostych sposobów podnoszenia efektywności. Jak podkreślił, korzyści z konsolidacji i następującej po niej wirtualizacji sprzętowej można zdecydowanie podwyższyć, jeśli systemy wykorzystujące zwirtualizowane centrum danych "przepisane" zostaną do wersji dedykowanych do takiego środowiska.