Miliard w rozumie

Co europejskie superkomputery mogą dać gospodarce?

foto: ICM

Infrastruktura HPC (High-Performance Computing) stała się jednym z kluczowych obszarów, z którymi Komisja Europejska wiąże nadzieje na zwiększanie konkurencyjności europejskiej gospodarki. Jednak pomimo inwestycji w rozwój europejskich centrów superkomputerowych czołówkę listy Top 500 najszybszych maszyn zajmują od lat Chiny i Stany Zjednoczone. Z pierwszej dziesiątki najnowszego notowania tylko dwa zlokalizowane są w Europie: szwajcarskie CSCS Swiss National Supercomputer Center oraz niemieckie HLRS – Höchstleistungsrechenzentrum Stuttgart. Komisja Europejska mając świadomość, że w wyścigu na moce obliczeniowe od czołówki odstajemy o rząd wielkości, stara się stworzyć strategię koordynacji. Na poziomie europejskim dąży do tego, aby osiągnąć synergię istniejących infrastuktur sieciowych i komputerowych, a w poszczególnych krajach do komplementarności specjalizacji centrów. Przyjrzyjmy się dziś dwóm centrom superkomputerowym z europejskiej czołówki.

Szwajcarska precyzja

Cray XC30 PizDaint (fot. CSCS)

Cray XC30 PizDaint (fot. CSCS)

CSCS Swiss National Supercomputer Center w Lugano to miejsce, gdzie można zobaczyć legendarne maszyny. Blue Brain 4 (IBM Blue Gene/Q) to superkomputer pozyskany dla Blue Brain Project przez Politechnikę Federalną w Lozannie i zainstalowany w CSCS. Blue Brain Project miał za pomocą symulacji działania neuronów umożliwić zrozumienie funkcjonowania mózgu najpierw małych ssaków, a potem ludzi. Ze względu na skalę projekt został rozwinięty i przekształcony w Human Brain Project, a następnie uznany za jeden z flagowych projektów badawczych w Europie. W ciągu 10 lat ma otrzymać ok. 1 mld euro dofinasowania.

Piz-Daint (Cray XC30) to najszybszy europejski superkomputer, którego maksymalna moc obliczeniowa sięga 7 petaflopów (7 bln operacji zmiennoprzecinkowych na sekundę). Obecnie Politechnika Federalna w Zurichu, której częścią jest CSCS, inwestuje w ośrodek kolejne 40 mln franków, co pozwoli co najmniej podwoić moc obliczeniową superkomputera. Trudno przewidzieć, czy poprawi to jego pozycję w międzynarodowym rankingu, ale nie taki jest cel inwestycji. Z pewnością zwiększy możliwości w zakresie symulacji, obliczeń i wizualizacji w nauce. Szwajcaria chce przyciągać do CSCS najlepsze projekty badawcze z Europy i dlatego właśnie daje zespołom badawczym nie tylko możliwość prowadzenia obliczeń na najszybszej maszynie, ale również zapewnia merytoryczne wsparcie ze strony naukowców z różnych dziedzin zatrudnionych w Lugano w tym właśnie celu. Poprzeczka dla badaczy ustawiona jest wysoko – każdy zgłoszony projekt przechodzi trzystopniową ocenę. Pierwszy to ocena techniczna, drugi ocena merytoryczna, a na koniec międzynarodowa rada naukowa przygląda się otrzymanym recenzjom naukowym i wybiera najlepsze projekty. Nabory prowadzone są dwa razy w roku i już teraz połowa realizowanych w CSCS obliczeń pochodzi z projektów spoza Szwajcarii. Naukowcy korzystają ze szwajcarskich superkomputerów bez opłat. W przyszłości Piz-Daint ma również zapewnić wsparcie analityczne dla trwających już największych eksperymentów naukowych, takich jak te, które są prowadzone z wykorzystaniem Wielkiego Zderzacza Hadronów w CERN-ie.

Dane dla gospodarki

Potrzeby prowadzenia obliczeń wykraczają poza obszar nauki; mają dokonać istotnego wzmocnienia unijnej gospodarki.

W ostatnich latach obserwujemy w Szwajcarii poszerzenie zakresu działań realizowanych w ramach społeczności HPC. „Początkowo działania skupiały się na udostępnianiu klastrów i zasobów dyskowych. Jednak z czasem wsparcie merytoryczne dla nauki i naukowców wykorzystujących HPC znacznie zyskało na znaczeniu. Obecnie obejmuje ono również pomoc w wyborze odpowiedniej technologii, portowanie i optymalizację kodów, a także pomoc przy przygotowywaniu projektów wykorzystujących infrastrukturę HPC” – mówi dr Michele De Lorenzi, Associate Director CSCS – Swiss National Supercomputing Centre.

CSCS to nie jedyna instytucja w Szwajcarii, która posiada superkomputery. Mają je również uniwersytety i politechniki (Uniwersytet w Lozannie, Uniwersytet w Genewie, Uniwersytet w Bazylei, Paul Scherrer Institute, Uniwersytet w Zurichu i inne). Szwajcarzy słyną z zamiłowania do stowarzyszeń, co ujmują anegdotycznie: „skoro mamy trzy osoby, to spotkajmy się i załóżmy stowarzyszenie”. Nie zaskakuje fakt, że instytucje naukowe mające superkomputery utworzyły razem z biznesowymi użytkownikami infrastruktury HPC (m.in. Hilti Novartis, Credit Suisse, Mete-oSwiss) organizację stowarzyszającą HPCCH, która spotyka się dwa razy w roku, aby dyskutować o wspólnych potrzebach i kierunkach rozwoju. Jednak współpraca ze środowiskiem biznesowym, na którą kładzie nacisk Komisja Europejska, nie jest łatwa. Firmy stawiają różne wymagania nie tylko w zakresie SLA – są też nieprzywykłe do współdzielenia superkomputera z innymi użytkownika¬mi, oczekują dodatkowych zabezpieczeń. Model współpracy, który doskonale sprawdza się w środowisku naukowym, nie zawsze daje się zaadaptować dla potrzeb biznesowych. Ustalanie warunków umowy z HILTI (globalna korporacja branży budowlanej wywodząca się z Lichtensteinu) ciągnęło się przez wiele miesięcy, zanim rozpoczęła się trwająca już kilka lat współpraca. W przypadku jej przedłużania CSCS rozważa zakup specjalnego superkomputera dla HILTI.

Dlatego m.in. usługi dla środowiska akademickiego są głównym obszarem działalności CSCS. Stabilne finansowanie powoduje, że CSCS nie musi walczyć o projekty europejskie z programu ramowego Horyzont2020, wybiera tylko te najbardziej prestiżowe.

W Finlandii zaczęło się w saunie

Finowie opowiadają, że historia fińskich superkomputerów rozpoczęła się w saunie. Kiedy w 1969 roku Bank Finlandii rozważał, jak wydać 20 mln marek nadwyżki na jakiś cel publiczny, to właśnie w czasie wieczoru w saunie, w trakcie rozmowy z fińskimi profesorami, zapadła decyzja o zakupie pierwszego superkomputera. Univac 1108 rozpoczął działanie dwa lata później, tworząc zalążek dzisiejszego CSC – IT Center for Science. Finlandia stawia na rozwój jednego narodowego centrum superkomputerowego, które ma swoje biura w Espoo, a infrastrukturę obliczeniową w położonym 600 km na północ Kajaani. Tam właśnie zlokalizowany został nowoczesny ośrodek wykorzystujący do chłodzenia wodę z jeziora (podobny pomysł zastosowano zresztą w Szwajcarii).

Pod względem zatrudnienia jest ponad dwukrotnie większe od szwajcarskiego CSCS, bo daje pracę około 200 osobom. Wynika to jednak nie z rozmiaru infrastruktury obliczeniowej, lecz z modelu działania, który obejmuje znacznie szerszy zakres serwisów, w tym m.in. usługi sieciowe dla wszystkich pięciu uniwersytetów w Finlandii. Fińskie centrum jest też operatorem Funet – sieci łączącej instytucje nauko¬we. CSC jest partnerem Ministerstwa Edukacji w realizacji strategii wprowadzenia otwartego dostępu do treści naukowych. To przedsięwzięcie stało się zresztą jednym z głównych filarów polityki Ministerstwa Edukacji. Obejmuje zapewnienie infrastruktury do umieszczania prac naukowych w sieci, stworzenie warunków prawnych oraz szkolenia dla całego środowiska akademickiego.

Cray XC30 SISU (fot. CSC)

Cray XC30 SISU (fot. CSC)

CSC zastąpi Nokię?

Fiński rząd wierzy, że nowoczesna nauka z dobrze dofinasowaną infrastrukturą obliczeniową i badawczą oraz sprawny przepływ wiedzy dzięki otwartej nauce (w tym lepsza widoczność fińskiego dorobku za granicą) pomogą państwu odzyskać dawną dynamikę gospodarczą. Po upadku potęgi Nokii, która przez wiele lat stanowiła jeden z filarów fińskiej gospodarki, i nakładającym się na to kryzysie finansowym Finlandia nadal utrzymuje wysoki poziom wydatków na inwestycje w badania i rozwój. 3% PKB przeznaczanych na ten cel daje Finom miejsce w ścisłej europejskiej czołówce, do 2020 roku wydatki mają zresztą wzrosnąć do 4%.

Centrum Ocean

Centrum OCEAN to najnowocześniejszy w Polsce ośrodek obliczeniowy zbudowany z myślą o prowadzeniu zaawansowanych prac analitycznych, takich jak: symulacje, analityka danych, także Big Data, analizy wizualne. Zespół ICM ma również kompetencje w zakresie Data Management Planning – zarządzaniu dostępnością, jakością i trwałą archiwizacją. Doświadczenie ICM to nie tylko projekty badawcze i infrastrukturalne dla nauki, ale również obliczenia i symulacje wykorzystywane w różnych obszarach. Już teraz z możliwości infrastruktury OCEAN mogą korzystać zarówno zespoły naukowe, jak i administracja państwowa oraz przedsiębiorcy. Do ich dyspozycji pozostaje:

  • system wielkoskalowego przetwarzania Cray XC40 o mocy ponad 1 petaflopa;
  • system analityki dużych danych zawierający ponad 8 tys. rdzeni, o pojemności sięgającej ponad 8 petabajtów, bazujący na technologii Apache SPARK;
  • zasoby przechowywania danych o sumarycznej pojemności 20 petabajtów, w tym storage obiektowy o pojemności 10 petabajtów;
  • laboratorium wizualizacji wielkoskalowej i renderingu wyposażone w ścianę wideo 5 x 3 metry, z serwerami renderującymi obraz w rozdzielczości 8K UHD wraz z infrastrukturą zdalnej wizualizacji w chmurze.

Analiza globalnego ruchu lotniczego

Na zlecenie Organizacji Międzynarodowego Lotnictwa Cywilnego (ang. International Civil Aviation Organization, ICAO) ICM prowadzi obecnie analizę danych dotyczących światowego ruchu lotniczego. Analiza obejmie dane dotyczące 3,5 mld pasażerów przewożonych rocznie we wszystkich połączeniach lotniczych, 40 mln lotów rozkładowych i 6 tys. lotnisk na całym świecie. Jej wyniki zostaną wykorzystane w tworzeniu systemu diagnozy przewozów lotniczych, z którego korzystać będą różni interesariusze rynku lotniczego: linie lotnicze, lotniska, ale również władze i organy nadzoru. System ma służyć m.in. poprawie efektywności połączeń lotniczych na świecie.

Narzędzie do analizy semantycznej danych tekstowych

ICM współpracuje obecnie z firmą Applica, specjalizującą się w semantycznej analizie języka naturalnego. W ramach współpracy ICM odpowiada za przeniesienie narzędzi do semantycznej analizy języka naturalnego do środowiska przetwarzania rozproszonego z wykorzystaniem narzędzi ekosystemu Apache Spark. Dzięki temu narzędzie stworzone przez ekspertów z Applica zostanie dostosowane do przetwarzania ogromnych wolumenów nieustrukturyzowanych danych tekstowych (Big Data). Połączenie doświadczeń naukowców z ICM w obszarze Big Data i ekspertów z firmy Applica związanych z analizą semantyczną języka pozwoli na opracowanie kolejnych, skutecznych rozwiązań analitycznych oraz dopasowanie ich do nowych obszarów zastosowań. Rozwiązania Applica znajdują zastosowanie między innymi w walce z „hejtem” w mediach elektronicznych, zarządzaniu doświadczeniami klientów w organizacjach obsługi klienta, jak również w reklamie online.

System Analiz Orzeczeń Sądowych

System Analiz Orzeczeń Sądowych to serwis umożliwiający przeszukiwanie ponad 200 tys. orzeczeń sądów powszechnych, sądów administracyjnych, orzeczeń Sądu Najwyższego oraz Trybunału Konstytucyjnego (ponad 200 sądów). SAOS jest narzędziem analityki publicznej przydatnym między innymi do zaawansowanej analizy orzecznictwa, a także w procesie legislacyjnym – w ramach przygotowania Oceny Skutków Regulacji. Do analizy treści dokumentów wykorzystano metodę komputerowej analizy języka naturalnego (NLP). Realizacja projektu wymagała opracowania rozwiązań w zakresie automatycznej strukturalizacji oraz anonimizacji dokumentów dostępnych w różnych formatach (PDF, tabele HTML, DOC, XML). SAOS to serwis zrealizowany w ramach Programu Innowacje Społeczne finansowanego przez NCBiR.

Analiza mobilności polskich naukowców

Mobilność naukowców – rozumiana jako swobodny przepływ pracowników naukowych zarówno pomiędzy krajami, jak i instytucjami, sektorami czy dyscyplinami – uznawana jest za jeden z kluczowych czynników wzrostu wartości potencjału naukowego. Mobilność przekłada się na wzrost konkurencyjności nauki na arenie międzynarodowej. Dlatego MNiSW zleciło badanie mobilności polskich naukowców, a projekt ten został zrealizowany wspólnie przez ICM i Ośrodek Przetwarzania Informacji (OPI). Projekt obejmował analizę danych pochodzących z prowadzonej przez OPI Bazy Nauki Polskiej, zawierającej informacje o około 130 000 osób, oraz wyników badania „Kariery zawodowe osób posiadających stopień naukowy doktora” (badanie CDH – Careers of Doctorate Holders), realizowanego wspólnie przez OECD, Eurostat i UNESCO. Wielowymiarowa analiza mobilności polskich naukowców pokazująca przepływ wykwalifikowanych kadr w ramach instytucji nauki opisana została w raporcie „Diagnoza mobilności instytucjonalnej i geograficznej osób ze stopniem doktora w Polsce w roku 2009”. Przedstawiona w nim diagnoza została wykorzystana przez ministerialny zespół doradczy zajmujący się problematyką mobilności.

Analiza przepływu pasażerów w obrębie Terminalu 2

Zlecenie realizowane dla Polskich Partów Lotniczych – analiza przepływu pasażerów na kolejnych etapach obsługi w obrębie terminalu. W ramach projektu opracowany został model, dzięki któremu przeprowadzono symulacje przepływu ruchu pasażerskiego. Analiza obejmowała zarówno wariant obrazujący sytuację przed wejściem Polski do Strefy Schengen, jak i po przystąpieniu do niej, co znacząco zmieniało wymagania, jakie powinien spełniać terminal obsługujący międzynarodowy ruch lotniczy. Efektem prac była weryfikacja założeń przyjętych w trakcie projektowania Terminalu 2 oraz wypracowanie rekomendacji mających na celu zoptymalizowanie obsługi pasażerskiej, w tym między innymi skrócenie czasu potrzebnego na przesiadkę.

Finowie od dawna stawiają na szukanie nowych rozwiązań i szybko adaptują się do zmian. Jednym z elementów strategii, która i dzisiaj ma poprawić konkurencyjność fińskiej nauki i gospodarki, są inwestycje w centrum superkomputerowe CSC. W odróżnieniu od polskich instytucji tego typu będących instytucjami naukowymi CSC jest firmą non profit, której właścicielem jest państwo. Podlega Ministerstwu Edukacji i do niego raportuje. „Naszą podstawową misją jest wspieranie naukowców. Sprzedawanie usług dla klientów biznesowych staje się coraz bardziej ważne, ale to nie jest i nie będzie to nasze główne zadanie. Przychody z projektów biznesowych nigdy nie mogą przekroczyć 10% rocznych przychodów CSC, ponieważ jest to regulowane przez naszego właściciela” – mówi Pekka Uusitalo, Director of Partnerships w CSC IT Center for Science.

Kilka miesięcy temu kierownictwo CSC powołało jednostkę organizacyjną, której rolą jest budowa relacji z biznesem i szukanie możliwości współpracy z firmami chcącymi realizować swoje symulacje za pomocą superkomputerów CSC. CSC wprowadza standardy biznesowe w obsłudze klienta, komunikacji, wdrożyła normę zarządzania bezpieczeństwem informacji ISO/IEC 27001.

CSC – IT Center for Science – świadczy usługi dla różnych sektorów gospodarki, ale również rozwija struktury marketingowe. Zatrudniona niespełna dwa lata temu na stanowisku dyrektora marketingu i komunikacji Minna Lappalainen postanowiła wprowadzić rewolucję w obsłudze klientów, opierając się na swoim wieloletnim doświadczeniu z sektora energetycznego, finansowego i mediów. Wprowadziła CRM, podzieliła obowiązki między product managerów i regularnie realizuje badania satysfakcji klientów, których wyniki trafia¬ją m.in. do raportów rocznych.

Polski model – centra do zadań specjalnych

Na polską infrastrukturę HPC składa się pięć centrów superkomputerowych, mają one jednak szerszy zakres zadań. Muszą zapewnić wsparcie dla większej społeczności naukowej – samych uczelni zrzeszonych w Konferencji Rektorów Akademickich Szkół Polskich jest obecnie około 150. Oczywiście, polscy naukowcy mogą aplikować o tzw. granty obliczeniowe w całej UE, jednak w praktyce mają znacznie większe szanse otrzymać możliwość korzystania z polskich maszyn niż z najszybszych superkomputerów europejskich w Lugano, Stuttgarcie, Jülich czy Barcelonie. W Polsce tylko nieliczne zespoły badawcze muszą korzystać z tak dużych systemów. Poza wsparciem obliczeń dla nauki każde z polskich centrów świadczy szereg dodatkowych usług.

„W ramach działania 2.3 POIG główne centra infrastruktury informatycznej przedstawiły projekty, które zostały zaakceptowane i uzyskały finasowanie na utworzenie centrów kompetencji związanych z funkcjonowaniem infrastruktury informatycznej” – mówi prof. Marek Niezgódka, dyrektor Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego.

Poznański PCSS utworzył Centrum Innowacji specjalizujące się w zagadnieniach sieciowych i rozwiązaniach chmurowych. W krakowskim AGH Cyfronet powstało centrum kompetencji w zakresie serwisów rozproszonych, w szczególności typu GRIDowego. Warszawski ICM UW utworzył centrum kompetencji OCEAN, (Otwarte Centrum Danych i ich Analiz zajmujące się całokształtem problemów związanych z dużymi danymi w nauce, przemyśle i administracji publicznej. W Politechnice Gdańskiej powstało Centrum Doskonałości Naukowej Infrastruktury Wytwarzania Aplikacji (CD NIWA). Ubiegłoroczna inwestycja Wrocławskiego Centrum Sieciowo-Superkomputerowego przy Politechnice Wrocławskiej nie służy określonej specjalizacji, jest to nowy superkomputer do modelowania danych z zakresu astrochemii, medycyny, mechaniki czy fizyki ciała stałego.

Specjalizacje te mają uzupełniać działalność centrów w podstawowym obszarze działania, jakim jest zapewnienie infrastruktury obliczeniowej dla potrzeb nauki.

To oznacza, że centra komputerów dużej mocy zadeklarowały, w jakim obszarze chcą rozwinąć swoją działalność poza usługami opartymi na udostępnianiu infrastruktury HPC, obejmując zakresem działań również tworzenie nowych rozwiązań, prowadzenie prac rozwojowych i wspomaganie innych zainteresowanych podmiotów. „Tego typu koncepcja zapoczątkowała tworzenie systemu układu komplementarnego. Poszczególne centra tak wyznaczają zakresy tych specjalizacji, że wzajemnie się one uzupełniają” – dodaje prof. Marek Niezgódka.

Czy ICM wpłynie na gospodarkę?

Przez pierwszy okres funkcjonowania Komputerów Dużej Mocy (KDM) ich rolą było zapewnianie dostępności infrastruktury obliczeniowej i pewien zakres usług dodatkowych. Ministerstwo Nauki nie oczekiwało jednak, że poszczególne centra będą prowadziły własną działalność badawczą i badawczo-rozwojową. Z czasem jednak stała się ona na tyle istotna, że zapoczątkowała nowy etap rozwoju infrastruktury. Zaczyna się kształtować system, który ma zdolność do kreowania efektu synergii, dając szansę na to, że centra będą współdziałać w różnych programach, wykraczających poza ich dotychczasowy obszar działalności podstawowej. Zmiany wymagają dostosowania modelu finansowania. Centra chcą zarabiać na swoich kompetencjach. „Pojawia się rozbieżność między skalą możliwości centrów a dotychczasowymi sposobami i źródłami ich finansowania. Finansowanie z budżetu nauki nie ma szansy nadążenia za tym rozwojem. Te środki od jakiegoś czasu pozostają na niezmienionym poziomie, wobec wzrostu wielkości zasobów centrów często więcej niż o rząd wielkości, zatem konsekwencja jest oczywista. Istnieje konieczność poszukiwania nowego modelu operacyjnego centrów, który wykracza poza dotychczasowe zadania” – mówi prof. Marek Niezgódka.

Oznacza to, że centra powinny się zaangażować w tworzenie spójnej infrastruktury publicznej i współdziałać w tym zakresie z głównymi instytucjami sektora publicznego. Niezależnie od tego cele programów operacyjnych wyznaczają również to, że powinny rozwijać swoją współpracę z gospodarką i biznesem. Potrzeby prowadzenia obliczeń wykraczają daleko poza obszar nauki. Mają wypełnić więc deklarowaną w dokumentach europejskich wizję istotnego wzmocnienia unijnej gospodarki.

W rosnącej liczbie gałęzi przemysłu modelowanie procesów przy użyciu obliczeń jest kluczowe dla odniesienia sukcesu. Biotechnologia, sektor farmaceutyczny, cały obszar projektowania, problematyka środowiska naturalnego, energetyka, medycyna to obszary zastosowań obliczeń. Sytuacja, jaka się wytworzyła, umożliwia zarazem symbiozę celów naukowych i aplikacji przemysłowych, biznesowych, istotnych z punktu widzenia interesu publicznego.