Hot or... what? Trendy technologiczne 2019 i dalej

Predykcje trendów technologicznych rozpalają wyobraźnię, dyskusję. Chcemy czy nie, kształtują też rzeczywistość. Jesteśmy CTO – widzimy dalej, głębiej. Spójrzmy krytycznie na trendy i zjawiska 2019 roku. Oto subiektywny wybór.

FOTO: Ryan McGuire, Pixabay

Źródłem prognoz są zwykle wielkie firmy badawcze. Jest ich na rynku kilka, swoje odkrycia i prognozy potrafią zgrabnie opakować w marketingowe hasła, nazwy. Stymulować przy ich pomocy dyskusję albo i działania, pompować hype na wybrane tematy albo czynnik FOMO: Fear of Missing Out. Z uwagą ale i pewnym dystansem warto zatem wsłuchiwać się w ten głos.

Ile to razy wielkie „trendownie”, agencje badawcze, myliły się, nietrafnie obstawiając technologie czy dostawców. My - mamy własne źródła informacji, danych. Mamy realny „kontakt z Ziemią”.
Jako reprezentant firmy-globalnej platformy z blisko 3000 specjalistów, przez których głowy przesącza się informacja i doświadczenie z 200-300 projektów rocznie w segmencie enterprise, feedback od poważnych inwestorów na poziomie zarządczym, informacja z własnego działu R&D, pokusiłem się o pewien eksperyment poznawczy. Polegał on na wydobyciu – bez założeń wstępnych i bez wzajemnej konsultacji – własnej wiedzy i przekonań, w odpowiedzi na tytułowe pytanie: Hot or not? W odniesieniu do trendów technologicznych w 2019 i dalej.

Niektóre z zagadnień, które przybliżam, to efekt wymiany poglądów w grupie kilku ekspertów, związanych lub zaprzyjaźnionych z platformą outsourcingu IT, w której odpowiadam za technologię i konsulting. W tej grupie są Lyubomyr Senyuk (CTO w CoreValue), Kacper Ryniec (Software Development Lead w Solidbrain), Roland Guelle (CTO w Sevenval).

Efektem tej burzy mózgów jest diagnoza sytuacji w kluczowych dla przedsiębiorstw obszarach, wyznaczenie trendów istotnych dla segmentu enterprise, zdefiniowanie trendów które na co dzień widzimy, którymi się zajmujemy, które nie powstały wczoraj i nie znikną jutro. Nie szukaliśmy ich - to jest co czym zajmujemy się jako IT Services Competence Platform. Nie eksperymentujemy na żywym organizmie klienta, ale zachęcamy do stosowania najnowszych technologii, dlatego, że

cykle życia technologii są zdecydowanie krótsze.

Dziś nikt nie wierzy, że technologia będzie stabilna w środowisku enterprise przez 10 lat. Ostatnią taką technologią, fundamentem, była Java. Warto poświęcić jej kilka słów. Zmienił się bardzo system releasów, bardzo szybko wchodzą nowe wersje, wykluczanie wsparcia klientów ze starą wersją, aby kupowali wsparcie albo do nowej wersji – to jest dzisiejsza rzeczywistość. Tak więc nawet Java zaczęła się bardzo szybko zmieniać. Dla nas to też oznacza dużo więcej uwagi przy wyborze narzędzia i frameworku, aby rozwiązanie wystarczyło choćby na 3 lata.

Z punktu widzenia CIO czy CTO widzę dwa możliwe podejścia: stałego aktualizowania - aby utrzymać się na topie, i jest to wliczone w koszt działania albo drugie podejście, polegające na tym, że buduje się nowe rozwiązanie a stare, nieaktualizowane, ostatecznie przepisuje. W związku z tym, że praktycznie wszyscy przerzucili się na Open Source - dynamika jest coraz większa.

Wracając do głównego zagadnienia

czy trend - skracania cyklu życia technologii się utrzyma?

Albo pytając z brutalną szczerością: czy wytrzymają tempo i koszt jednego albo drugiego podejścia same firmy?

Odpowiedź brzmi: tak, firmy muszą wytrzymać. Zmieniają się i wytrzymają: każda firma staje się coraz mocniej software’ową i e-comemrceową. We własnym zakresie dobierze sobie strategię adaptacji.

Klienci końcowi chcą mieć dziś swoje wysokiej jakości doświadczenie z kontaktu z produktem, większość usług i produktów musi zmieniać co rok, pół roku . Dlatego, że nikt nie chce mieć ciągle tego samego interfejsu.
Tym samym proste podejście - zbierzemy wymagania biznesowe i zrobimy rozwiązanie w określonej technologii - uległo odwróceniu: pojawia się nowa technologia i CTO oraz architekci zastanawiają się: „do czego nam się to w biznesie przyda?” Owo odwrócenie jest kolejnym metatrendem:

(Do) we have a problem to your solution?

Tym samym satysfakcja w firmie pojawia się wraz ze świadomością: znaleźliśmy w końcu i u nas zastosowanie tego nowego rozwiązania technologicznego. Czy poczucie, że wszystko uległo takiej kompresji czasowej i odwróceniu kolejności mają w firmie na równi CTO, CIO, biznes? Czy wszyscy są na to przygotowani?

Widzimy na co dzień, niezmiennie, sytuacje wywierania nacisku na CTO czy architektów z różnych części biznesu. Chętnych do jego wywierania albo chętnych do partycypowania w decyzjach technologicznych przybywa. Dobrym przykładem „zasłony” ze strony IT są architektury mikroserwisowe - od dwóch lat to w zasadzie domyślna architektura. W tej chwili silniejszy jest trend serverless – także wynikający z przesłanek obsłużenia tej presji (albo po prostu potrzeb). Do tego dochodzą nowe wzorce projektowe promowane przez dostawców technologii jako adekwatne do tych podejść.

Ciekawe jest generalne zjawisko ośmielenia IT. Nie ma czasu na wątpliwości.

Do niedawna była jeszcze duża obawa przed vendor-lock dostawcy rozwiązania cloud, ambicją IT było zapewnienie możliwości przeniesienia się do innego dostawcy albo z powrotem do własnej infrastruktury. Teraz już nikt nie ma złudzeń, że to jest w praktycznym sensie możliwe.
Wiadomo, że jeśli umieści się jakieś rozwiązania u konkretnego dostawcy chmury, to bardzo szybko zapuszczają one u niego korzenie i to na tyle głęboko, że stają się trudne do wyrwania. W chmurze

skończył się wstyd i strach, że CIO i CTO da się uwiązać dostawcy.

Zamiast tego CIO bardzo mocno wchodzą w rodzinę rozwiązań konkretnego dostawcy, danej grupy, dostarczających jak najszerszego spektrum usług. Wiedzą, że już nie wyjdą albo będzie to bardzo trudne.

Trendy chmurowe

Trendy chmurowe

Kiedy jednak położą na szali niezależność i podmiotowość w chmurze oraz silną integrację - efektywniejsze okazuje się to drugie podejście. A próba łudzenia się, że uda się zrobić coś modułowego, co można będzie przenosić, już nie kusi.

Jest pewna nikła nadzieja dla zwolenników tego podejścia: skrócenie cyklu życia technologii w naturalny sposób może stwarzać okazję do uwolnienia się od dostawcy i przeniesienie się do innego otoczenia.

Problem w tym, że

gracze tacy jak AWS i Azure i tak cały czas aktualizują technologię, wymuszają jej aktualizowanie. Oni łatwiej nadążają za tempem albo wręcz forsują tempo zmian klientom. Pretekst generacyjnej zmiany dostawcy to zatem także sytuacja mocno hipotetyczna.

Dostawcy posiadają usługi, od których jest zależna nasza aplikacja. Te usługi się rozwijają, są coraz lepsze, bogatsze – spójrzmy jak funkcjonuje świat tworzony przez Salesforce. Nie da się na tej platformie nie aktualizować. Nie ma już nawet takiego myślenia, że jakieś rozwiązanie uplasujemy na platformie i „zamurujemy”. Wiadomo, że

nadrzędną mantrą staje się Continuous Everything.

Bardzo szybko, w trybie ciągłym i w miarę sprawnie doskonali się aplikacje, co jest zgodne z nowym trybem wymiany technologii.

Nie ma klasycznego podziału na rozwój i utrzymanie. Jest maszyna nieustannie rozbudowującą software, z wielu powodów technologicznych, biznesowych już wymienionych, ale także pod wpływem zmian w regulacjach.

Regulacja potrafi wywołać większy ruch w biznesie i developmencie, niż technologia.

Dość wymienić GDPR, PSD2 - a będą kolejne, w naszym obszarze gospodarczym wprowadzane trybem rozporządzeń.

UE będzie coraz mocniej dążyła do kontrolowania i porządkowania cyfrowej gospodarki. To kolejny, coraz istotniejszy powód do budowania software'u.

Trudno dziś sobie wyobrazić taką możliwość żeby oświadczyć: to, co potrzebne zostało już postawione i czasowo nic się więcej nie buduje. Wręcz przeciwnie. To budowanie jest pobudzane przez coraz większą liczbę czynników. Kiedyś można było postawić a później zostawić “na lata” serwer i aplikację – teraz byłoby to samobójstwo, bo choćby ze względu na pojawiające się podatności biznes firmy stanąłby po miesiącu.

W związku z tempem, dynamiką rośnie rola platform RPA. To naturalna próba efektywniejszego powiązania i wykorzystania stworzonej technologii. RPA pozwala połączyć systemy ze sobą, przyspieszyć procesy ich rozwoju, nie mówiąc już o procesach biznesowych, które realizują. Wszystkie ręce na pokład, można by rzec, bo obok platform odhumanizowanych – robotycznych - trwa zaciąg na developerów z odzysku. Coraz popularniejsze są

platformy low-code, które mają otworzyć development dla nie-developerów.

Można powątpiewać, czy to nie trend czasowy, bo iluż można skusić absolwentów-ofiar nietrafionych decyzji o wyborze studiów typu marketing i zarządzanie, prawo czy socjologia? Ale platformy low-cost mają sens, bo już dzieci w przedszkolach – póki co w lepszych - uczą się podstaw kodowania i algorytmiki. Umiejętność programowania będzie podstawowym narzędziem pracy przyszłości. Na podstawowym poziomie będzie to umiejętność powiedzenia chmurze, czego się od niej chce do zrealizowania zadania w pracy. Język takiego programowania to będzie część warstwy komunikacyjnej poznawanej już od dziecka.

Każdy będzie programistą, chociaż oczywiście ci najlepsi programiści będą zatrudnieni przez dostawców chmury, takich jak Google, Microsoft czy AWS. Oni, jak i dziś, mają za cel rozwijać sama technologię. My jesteśmy Tier2 - to bardzo szerokie kompetencje zderzania możliwości platform/chmur z potrzebami biznesu przedsiębiorstw. Musimy dobierać, dostosowywać ich rozwiązania do potrzeb biznesowych, modeli.

Kolejny poziom to wspomniana na wstępie warstwa urosła na bazie demokratyzacji programowania, demokratyzacji AI, czy demokratyzacji wszelkiej technologii. Każdy będzie w stanie poskładać z usług rozwiązanie, zapytać o dane itp. I pomyśleć, że kilka lat temu analitycy finansowi na kolanach musieli błagać pracowników działu ITo wyciąganie raportów; teraz są platformy typu Tableau czy PowerBI, które pozwalają łatwo je produkować, na pewno będą się szybko doskonalić.

Oni zresztą już tak naprawdę programują, są programistami. Kiedyś

Salesforce reklamował się jako „no-software”; jako środowisko gotowe do użycia. Teraz przestali się krygować,
dlatego że środowisko stało się tak dobrze zrozumiałe i naturalne dla użytkowników, że jasno można mówić, że to raczej platforma do tworzenia własnych aplikacji biznesowych. Trochę w inny sposób, z mniejszą liczbą gotowców. Nikt tego się nie wstydzi. Nie ma już organizacji, organizacja to IT. Dlatego prezes największego banku w Polsce mówi: jesteśmy firmą technologiczną z licencją bankową.

A skoro tak, to wspomnieć należy, że nie tylko Everyone is a coder, ale także – co jest w istocie realnym trendem:

Everything as a Code.

Sieci, infrastrukturę – wszystko się programuje aby potem konfigurować. Nie zgadzam się do końca z tym trendem, bo ci którzy go definiują nie odpowiedzieli jasno na pytanie, jakimi językami, kto i po co będzie programował „wszystko”. Ale jeśli ten szczegół się doprecyzuje, to uważam, że stanie się on faktem, być może nawet stanie się domeną jakiś softwareowych robotów. Jedną z form programowania jest uczenie, jak ma się zachowywać, reagować – to przydaje z kolei mu wymiar sztucznej inteligencji.

Lubię też patrzeć na dawne predykcje.

Jeśli ktoś przewidywał, że dana technologia będzie miała ograniczone zastosowanie – to ludzie i tak po nią sięgali. Próbowali znajdować – nie wiedzieć czemu, pewnie z przekory - zastosowania.
Głos rozsądku był wówczas tłumiony skutecznie, gdy trwa hype wszelkie głosy pragmatyczne, sceptyczne są pomijane. Zamiast tego pojawia się taka wiara, że coś się musi wydarzyć, jeśli wszyscy zaczną stosować daną technologię.

Coś z irracjonalnego ducha przenika nasze czasy.

Dziś mniej mówi się w ekonomii o wskaźnikach, a więcej o temperaturze relacji firmy z klientem.
To ma być właściwa miara. Kiedy np. wybierany jest bank – oferta jest w zasadzie taka sama. Decyduje więc to, czy wygodnie, bezproblemowo będzie się z tej oferty korzystało. Jaka aplikacja mobilna jest dostępna. I w zasadzie dotyczy to każdej branży.

Polem walki konkurencyjnej jest user experience.

To jeden z kluczowych trendów, którego końca nie widać.

Jakie to jest ryzyko – kiedy się do takiej rzeczywistości modelu cyfrowego biznesu przetransformuje, przestraja firma? Duże tempo zmian sprzyja tworzeniu małych, zwinnych rozwiązań. Ale przecież system core’owy w firmie ubezpieczeniowej mały i zwinny siłą rzeczy nie jest. Remedium jest upraszczanie produktów a w związku z tym upraszczanie procesów produktów, obsługi. Zmienia się sposób wyliczania ryzyka, upraszcza się go. I tak nikt tego do końca nie rozumiał, ludzie chętniej kupią jeśli coś zrozumieją, a są w stanie pojąc rzeczy proste. Z kolei prosty produkt nie wymaga skomplikowanej obsługi, może być ona łatwiej zautomatyzowana.

Z wyjątkami – taka będzie większość interakcji z klientem. To jest właściwa metoda radzenia sobie z cyfryzacją.

Kiedy ktoś ma złożony, skomplikowany model biznesowy i nie zamierza z niego rezygnować, to cyfryzacja oznacza dla niego narzut kosztów. Cyfryzacja jest świetna do uproszczonych produktów i procesów, które mogą się łatwo i szybko zmieniać, gdzie doskonale sprawdza się continuous delivery.
I tak ciągle klientowi trzeba na chwilę się wyróżnić: samemu stworzyć coś nowego, coś skopiować od konkurencji od strony obsługi, efektywności.

Te firmy które zrobiły to już w tej chwili - wygrywają. Pytanie ile czasu będą w stanie opierać się temu firmy pozostające przy softwarze realizowanym w starym modelu technologicznym.

Tworzenie nowych rozwiązań poza chmurą jest już bardzo dziwne

– może poza wojskiem czy innymi zamkniętymi branżami. To, co zastanawia CTO to fakt, że nadal tak wiele rzeczy się robi lokalnie.

Opór przed chmurą publiczną przypomina to jak było z samochodami, które poprzedzał człowiek z czerwoną flagą. To opóźni, ale nie zatrzyma trendu.

Może ten opór to głos rozsądku, sygnał, że nie chcemy transformacji do cyfrowych modeli, do chmury, jeśli nie mamy do tego kompetencji. Choćby i kompetencji do dobrego wyboru pomiędzy dostawcami środowiska chmurowego, który to wybór, jak sobie już powiedzieliśmy, determinuje przyszłość w długofalowej perspektywie.

Może to jednak doprowadzić do klasycznej sytuacji w biznesie, kiedy brak decyzji jest gorszy niż zła decyzja. Decyzja oznacza wybranie kierunku i poruszanie się, jej brak – stanie w miejscu.

Z drugiej strony firmy łączą się w silniejsze grupy czy organizacje. To się dzieje w każdym tym sektorze, w których jesteśmy, farma, finansach, technologicznych - i widzimy rosnącą konsolidację, koncentrację, mniejsi gracze są wchłaniani, de facto stają się podwykonawcami wielkich graczy. Za tym idzie

konsolidacja produktów, procesów, ofert - standaryzacja.

Czy ta konsolidacja nie zmieni się w konsolidację do neutralnych platform technologicznych obsługujących całe branże? Żeby infrastruktura i software stały się medium neutralnym, niekonkurencyjnym czynnikiem. Wątpię aby pozwoliły na to regulacje antymonopolowe. Regulator się budzi. Być może będzie sytuacja oligopolu, ale żeby było tak zmonopolizowane – na to instytucje antymonopolowe nie pozwalają. Czyżby?

Dominacja Google’a jest już pod lupą. Ale umacnia się

co można dobrze zilustrować przykładem rynku silników przeglądarek. Totalna dominacja mechanizmu Google’a, Blink w przeglądarce Chrome. Edge Microsoftu - wiadomo, że już się poddał, podda się też Apple. To będzie niespotykana sytuacja, kiedy

jedna firma – w uproszczeniu, bo oczywiście zachowane zostaną pozory niezależnej rady programowej itp. - będzie zajmować się, sterować renderingiem wszystkich stron w HTML-u. To jest dokładne odwrócenie predykcji sprzed lat,
kiedy spodziewano się, że Internet będzie powodował demokratyzację dostępu do informacji. Engine będzie decydował, że jakichś stron nie wyświetlamy z określonych powodów i będzie tym mogła sterować jedna firma. Z jednego źródła. Tutaj trudno nawet regulować – z silnika korzysta wiele firm, do jego tworzenia dopraszani są różni ludzie.

Istnieje inny przykład standaryzacji

- to oczywisty jak powietrze Linux.

Z tym już nikt się nie kłóci, nawet Microsoft, który szereg lat go zwalczał. To samo co stało się z przeglądarką, z systemami mobilnymi, gdzie Android, który przekroczył 90% – mamy kolejny monopol. W chmurze dla segmentu enterprise panuje duopol AWS i Microsoftu przy czym wydaje się, że MSFT lepiej rozumie ten biznes i może wyjść na pozycję dominującą.

Na przestrzeni dwóch lat w danej kategorii

dostępnych było 200 różnych rozwiązań, które będą istniały najwyżej jeszcze niż dwa lata. Nie ma złudzeń. Ale o czym to świadczy? Jak wiele pieniędzy, czasu, energii, jest poświęcane na technologie, które z prawdopodobieństwem 99% znikną.

To pokazuje nasz świat. Zanim się zracjonalizuje – przeżywa stany magiczne, które mijają. Dziś na przykład jest już bardzo silny odwrót od start-upów, w takim rozumieniu, jak jeszcze kilka lat temu. Teraz start-up musi udowodnić, że ma prawdziwych klientów i potrafi zarabiać, że jest realnym źródłem pieniędzy. A jeszcze kilka lat temu wystarczyło wykazać się umiejętnością zrobienia rozwiązania i zaprezentowania go. To się skończyło. Ma być firma, biznes, klienci, przychody i marża. Poniekąd dotyczy to całych gałęzi technologii. Bo nie można nie dostrzec, że

właśnie skończył się miesiąc miodowy dla AI.

Z jednej strony – AI jako grupa technologii musi pokazać, że jest czymś więcej niż dodatkiem podnoszącym atrakcyjność rozwiązania. Musi wykazać realną wartość. Rozwiązanie musi być w stanie wyjaśnić, dlaczego podejmuje tę czy inną decyzję.

Rośnie bariera wejścia do AI – bo wiele branży domaga się wyjaśnienia, skąd taki czy inny wynik analizy: dlaczego system podjął negatywną decyzję kredytową
albo nie chce kogoś wpuścić do mieszkania.

Trendy AI

Trendy AI

Fraud detection, gdzie bardzo dobrze działa AI wykrywając nadużycia, także ma zadyszkę: im jest bardziej doskonały, tym trudniej mu się wytłumaczyć z decyzji. Widziałem wręcz rozwiązania hybrydowe – w sensie procesu – kiedy AI diagnozuje jakieś działanie jako próbę fraudu, a następnie jest wsteczna inżynieria: skąd taka decyzja. A czas upływa i trzeba szybko zdecydować czy klientowi przy bankomacie zablokować kartę, czy nie.

Z drugiej strony jest np. oczekiwanie przemysłu samochodowego, regulatorów, żeby móc przewidzieć, jak się zachowa samochód autonomiczny na drodze. Umyka podstawowa cecha tych technologii: one z natury swej są takie, że nie da się przewidzieć do końca jak ten samochód się zachowa. AI to de facto osobny umysł, można to symulować, testować – ale nie da się na 100% przewidzieć.

Trochę to kłopot dla dostawców chmury, którzy mają już gotowe usługi i produkty AI. Na szczęście dla nich działa mechanizm: nie do końca więc wiadomo, jak to działa i czy będzie pasować do naszego modelu biznesowego, ale skoro jest w chmurze i w promocji – to

grzech nie wziąć AI.

MSFT ma w Azure kilkadziesiąt usług AI. Z naszej platformowej perspektywy patrzymy na problemy, wyzwania klienta i staramy się coś do tych problemów dobrać. Rozwiązanie jest – szukamy problemy. Co można by w procesach usprawnić, ulepszyć wykorzystując półgotowe – bo one jeszcze wymagają doprogramowania – elementy. Dziś dostawcy oferują nawet biblioteki problemów oraz danych, które ich rozwiązania obsługiwały. To ciekawy mechanizm upowszechnienia AI.

Sprzyja mu rozkład kompetencji AI na rynku.

Najwięcej ludzi w zespołach AI-owych, największe armie są w Microsofcie, Google i Amazonie, Facebooku. To nie tylko największe armie, ale i najlepsze,
płaci im się po kilkadziesiąt milionów dolarów. Jest to postrzegane jako zapewnienie kontroli nad rozwojem technologii. To także sygnał do segmentu enterprise:

nie kombinujcie, nie męczcie się, my AI rozwiniemy dla Was.

I tak nie macie szans ominąć naszych frameworków, które zaoszczędzą Wam 4-5 miesięcy kosztownej zabawy.

Dodatkowo operatorzy chmurowi oferują, że każdy w zasadzie będzie mógł się tego AI doświadczyć, użyć. Ponieważ AI to duża bariera sprzętowa, znowu powrócił temat hardware’u mocno specjalizowanego. AI/ML to nie aplikacja webowa.

Chmura jest predestynowana do opieki nad dalszym rozwojem i popularyzacją sztucznej inteligencji. W chmurze są przecież

dane, temat ściśle związany z AI. I regulacjami

których przybywa. GDPR to początek.

Jeśli dane to waluta przyszłości, to bankierami są Google, AWS, Facebook i Microsoft.
Daje to bardzo duże pole do nadużyć, które mają zresztą miejsce. Bankierzy nie zlikwidują wykrytych przez regulatora nieprawidłowości, nie naprawią, bo lepiej zapłacić karę 100 mln niż odciąć się od możliwości zarobienia na tych danych. Taka kara jest jak regularna pozycja budżetowa.Może UE jeszcze bardziej zaostrzy kurs. Prawdziwy ruch zaczął się dopiero po ogłoszeniu wysokości kar. Wiele z tych wymagań było wcześniej, ale udowodnienie przekroczenia było trudne.

Kolejna rzecz – eksponencjalny przyrost danych.

O ile przyrost mocy procesorów zahamował i prawo Moore’a umarło, to jeśli chodzi o dane – trwa Big Bang.
Przyrost jeszcze przyspieszy wraz z pojawieniem się technologii Edge, 5G, które uruchomią potężny zastrzyk Internetu Rzeczy, w którym w zasadzie chodzi o to aby wszystko autonomicznie transmitowało informacje, aby się komunikowało nawzajem. Jeśli już dziś każda ciężarówka generuje gigabajty danych, to kiedy setki milionów ciężarówek podepną się w sieć Internetu Rzeczy, aby odbierać, wysyłać – danych przybędzie w nieporównanie większym stopniu.

Bardzo duży postęp jest w narzędziach do analizy i wizualizacji.

Są już świetne narzędzia do obróbki danych. Słabym elementem pozostają ludzie, ich aparat matematyczny,
statystyczny – bo te narzędzia można też manipulować pod tezę.

Następnym krokiem jest więc

podpięcie do zarządzania danymi automatycznych, opartych na AI rozwiązań

aby je przetworzyć, sterować ich wykorzystaniem. Przykład dają narzędzia z mechanizmami Machine Learning do developmentu oprogramowania, które podpowiadają programiście, co napisać dalej. Najnowsze wersje mają też bazę kodu – wzorców projektowych. Trend automatycznego oprogramowania jest trochę bardziej rozciągnięty w czasie, ale nieuchronny. Mamy nawet taki żart:

programiści sądzą, że to oni będą gasić światło, ale może się okazać, że będzie to robić za nich AI.

Automatyzacja może wykruszyć programistów-specjalistów – to nawet sprawiedliwie, wszyscy eksperci są zagrożeni, dlaczego programiści mieliby nie być? Zagrożeni są i programiści nowego wzoru, bowiem

DevOps jest na zakręcie.

Zacznijmy od tego, że historia potoczyła się paradoksalnie: piękna idea, programiści i utrzymaniowcy razem, w praktyce doprowadziła do tego, że przez DevOps zostali jeszcze bardziej rozdzieleni.

Pojawiły się zespoły DevOpso-we, ludzie devopsowi, konferencje devopsowe – pojawiły się nowe podziały, śmiem twierdzić, że mocniejsze.

Nadal ja i moi koledzy CTO pamiętamy jaka była idea, ale widzimy jak to działa w praktyce. Jest usługa devopsowa: mamy więc ludzi devopsowych, którzy na zlecenie klienta zrealizują jakiś element w tej formule. To jednak osobna kategoria i dystans pomiędzy adminem a programistą się zwiększył. Rozwarstwienie szybko postępuje. Bardzo silna specjalizacja i to ich udziałem jest wspomniane podejście Everything as a Code, Continuous Integration, Continuous Delivery.

Trendy cyberbezpieczeństwo i DevOps

Trendy cyberbezpieczeństwo i DevOps

Nie ma pytania jak albo czy w to wchodzić – stało się to aspektem oczywistym. Ale przywrócić DevOps oryginalne znaczenie będzie trudno, „zwykłemu” programiście trudno nadążyć. Teraz niezbędnym etapem staje się adaptacja roli tłumaczącej DevOps reszcie IT i firmie.

Kluczowy wpływ na ewolucję DevOps ma upowszechnienie rozwiązań chmurowych i rozwój ekosystemów usług dostarczanych przez operatorów chmury. Ta dąży w stronę dostarczania prefabrykatów,
wymaga więc od posługujących się nimi wyższego poziomu abstrakcji. Z tą ewolucją skorelowany był silnie od dwóch-trzech lat trend

No-Ops – postulat radykalnego odcięcia operacji.

To wiąże się także ze wschodzącą koncepcją i podejściem serverless. Swoją drogą, wraz z pojawieniem się modelu serverless stawka została podbita: z No-Ops na No-DevOps: zamiast zespołu DevOps tylko programista do oprogramowania usługi udostępnionej w chmurze i łącze internetowe. DevOps będzie zastąpiony na poziomie deploymentu w chmurze…

Ale wierzymy, że klasyczny DevOps – jak to brzmi – nie zginie, będzie się rozwijał dopóki utrzymywać się będzie technologiczny trend konteneryzacji, który symbiotycznie jest z tym modelem organizacyjnym połączony.

Przy wszystkich nakładach na nowe podejścia, struktury, organizację dużym kontrastem – i to negatywnie – wyróżnia się

cyberbezpieczeństwo – niedoinwestowane, pomijane – mści się.

Zadziwiająca jest niechęć firm do inwestowania w dobre, solidne załatwienie tematu bezpieczeństwa. Dużo rozmawia się o funkcjonalnościach, o szybkościach, dostępności- a mało o bezpieczeństwie. Jako partner technologiczny ostro musimy o to się upominać. Wiemy, że

bezpieczeństwo nie ułatwia user experience, nie przyspiesza pracy, komplikuje życie projektu. Ale wynika to z faktu, że coraz trudniej zapewnić akceptowalny poziom cyberbezpieczeństwa informacji, bezpieczeństwa rozwiązania i ekosystemu w którym funkcjonuje.

Spójrzmy tylko: rok 2018 przyniósł największe kompromitacje w zakresie ochrony danych: potężne wycieki, spektakularne włamania, eskalacja zjawisk i boom przemysłu cyberprzestępczego. Poprzednio najgorszym rokiem był 2017. A czy 2019 przebije 2018? Bardzo możliwe. Nadzieję budzi fakt, że ta sytuacja wywołuje mocne zaniepokojenie i niezadowolenie inwestorów. Oni już zaczęli działać na rzecz odwrócenia tego trendu.

Cyberbezpieczeństwo stało się już nie tylko tematem dla IT ale przedmiotem dyskusji zarządów firm. Trudno aby było inaczej, skoro na rynku błyszczy nowa, przebojowa branża: przemysł usług i produktów cyberprzestępczych. W relację z tym rynkiem weszła część biznesu i na pewno rządy, kupując ich usługi, więc sprawa jest poważna.

Nastąpiła profesjonalizacja, łącznie z SLA na różne rodzaje ataków. Realizują je zdeterminowani, skoncentrowani na celach i wzroście swojego biznesu ludzie – nie mówię tego z przekąsem – a przeciw nim stają ludzie w firmach, skoncentrowani na budowaniu wartości biznesowej. Czy kupcy, inżynierowie, rzemieślnicy obronią się przed Wandalami?

Ratunkiem wydaje się ponownie

ucieczka do chmury

gdzie zespoły infrastruktury, bezpieczeństwa mają dużo wyższe kompetencje niż wszystko to, co zdołają wykrzesać z siebie firmy których core business polega na czym innym. Drużyna księcia pana lepiej sobie radziła z wikingami, kwestie bezpieczeństwa trzeba za przykładem praszczurów scedować więc na kogoś, kto ma skalę i zasoby aby je zapewnić.

Druga metoda – albo dodatkowa metoda – to pilnowanie na poziomie tworzenia aplikacji. Większość podatności wynika z zaniedbania albo wręcz idiotycznych błędów programistów. Zawodzi code review, nawet testy bezpieczeństwa. To zaskakujące, ale

kiedy spojrzeć na top 10 błędów aplikacji, to można odnieść wrażenie dramatycznego spadku samodyscypliny programistów. Zwykle są to błędy, które mogłyby zostać naprawione w ciągu 2-3 godzin a nienaprawione - kosztujące miliony dolarów.

Ale jeszcze ciekawsze zjawisko to

zła synergia automatyzacji produkcji oprogramowania i niechlujstwa programistów.

Błąd wprowadzony w jednym obszarze dzięki automatyzacji propaguje się często na całe obszary, zaraża wiele połaci struktury IT, dokąd dociera genetycznie podatne rozwiązanie. Automatyzacja usypia czujność, wiele rzeczy wydaje się być pod kontrolą, tymczasem nie są realizowane, nikt nie bierze za nie odpowiedzialności.

Żeby oddać sprawiedliwość – swoista pomroczność dotyczy nie tylko wewnętrznego developmentu i nie tylko firm które posiadają inny cel biznesowy niż pisanie kodu.

Dziwna niefrasobliwość dotyczy czołowych dostawców technologii, którzy monopolizują szereg obszarów. Jest teoria, że gros włamań i luk zabezpieczeń w ogóle nie jest ujawnionych opinii publicznej.

Szukajmy pozytywów: dostrzegalny i z ulgą odbierany jest wyraźny trend skrócenia czasu w jakim dostarczane są przez dostawców oprogramowania łatki na ujawnione podatności, błędy krytyczne. To oczywiście nie znaczy jednak, że poziom bezpieczeństwa się podniósł – czasy reagowania są szybsze. Co więcej – łatki są przygotowywane na ujawnione oficjalnie luki zabezpieczeń. Natomiast z pewnością luki trwają dużo dłużej, ekspozycja klientów trwa więcej niż owe kilka dni i w tym czasie z pewnością wiedzą o nich cyberprzestępcy.

Ale to mniejszy problem. O wiele większym jest to, że

często dostawcy całymi miesiącami nie usuwają błędów krytycznych, ujawnionych, nagłośnionych. Tak ma to miejsce w przypadku routerów Cisco, przez 8 miesięcy po wykryciu błędu przez Google nic się nie zdarzyło z tą sprawą. Kompromitacją była też podatność w procesorach Intela, narażająca miliony użytkowników. Żeby było sprawiedliwie: sam Google też ma nienaprawione błędy krytyczne ujawnione powyżej roku.

Zasadniczo działa umowa pomiędzy vendorami, że nawzajem obserwują swoje urządzenia i rozwiązania, a jeśli coś zaobserwują, to obowiązuje 90-dniowy time-out, kiedy po poinformowaniu firmy z luką, ma ona czas na naprawienie luki. Dopiero po tym czasie luka jest ujawniana. Zatem to, o czym się dowiadujemy już z zasady przekracza okres owego time-outu. Oczywiście znowu – ci co mają i chcą wiedzieć, z reguły wiedzą o owej podatności. Nie jest więc bezpiecznie. Dobrze, że przynajmniej skończyła się praktyka natychmiastowego publikowania exploitów przez odkrywców luk.

Zadziwiający jest rynkowy poziom tolerancji dla niechlujstwa.
W sektorze enterprise podejście jest na szczęście wyraźnie staranniejsze. Jest też świadomość, że na to, na co może sobie pozwolić przykładowy Google, może pozwolić sobie właściwie tylko on.

Wszystkie firmy powoli, ale konsekwentnie przepisują wszystkie swoje rozwiązania z języków C, C++, które są oparte na zarządzaniu pamięcią, co pozostaje najważniejszą furtką dla włamań, na systemy w językach nie związanych z zarządzaniem pamięcią. Są języki i nowe technologie odporne na ten rodzaj ataków. Ale wkrótce może zostać jakaś inna, duża, uniwersalna słabość całej nowej generacji języków.

W obszarze bezpieczeństwa – niczym tsunami – widoczne jest już na horyzoncie takie zasadnicze, potężne zagrożenie.

Quantum computing powinien zmaterializować się w ciągu 5-10 lat.

Obecne tempo i wielkość nakładów mocno za tym przemawiają. Komputer kwantowy przyniesie oszałamiający wzrost szybkości i mocy obliczeniowej, w zasadzie nie sposób wymienić wszystkie dziedziny i rozwiązania, które doświadczyć mogą przełomu za sprawą tej zmiany.

Są też jednak hipotezy, że taki komputer rozszyfruje błyskawicznie kryptografię asymetryczną RSA. A to oznacza, że

padną podstawy bezpieczeństwa globalnego e-commerce.

To się wydarzy w dniu uruchomienia komputera kwantowego, a najpóźniej w pierwszym tygodniu jego istnienia. Cały światowy e-commerce stanie otworem, a raczej – stanie. Krach będzie całkowity. Ciekawa sytuacja, w pewnej mierze jak po ataku nuklearnym – w wymiarze ekonomicznym. „Dzień po” będzie dniem kompletnej atomizacji, dezintegracji nowoczesnych gospodarek, rozpadem łańcuchów dostaw.

Inny trend w zakresie bezpieczeństwa to wspomniany już rynek cyberprzestępczości. Szczególnie

usługi DDoS – wchodzą w praktykę, spektrum działań firm. Jeśli są firmy nieetyczne w innych obszarach, dlaczego miałyby zaniechać skutecznych akcji niemoralnych w takim wymiarze? Nie miejmy złudzeń.
Oczywiście do dyspozycji włamywaczy pozostają także socjotechniki, pozostające od początku najważniejszą systemową podatnością w systemach informatycznych – człowiek jest najsłabszym ogniwem.

Wróćmy do klasycznej informatyki przedsiębiorstw, która także się przeobraża.

Jeden z najważniejszych nurtów

ERP doczekał się anty-trendu: noERP.

Tyle jest pod ręką lekkich, łatwo dostępnych, przyjaznych i użytecznych aplikacji pomagających zrozumieć i wyjaśnić świat biznesowy. Ale firmy nie zamierzają rezygnować z ERP całkowicie. Owszem, reformować: stąd

nurt make ERP great again, który propagują dostawcy dysponujący przecież kapitałem: stąd duże nakłady na UX, możliwość konfiguracji, unowocześnienie platform.
ERP jest połączone z innymi systemami, duży nacisk idzie więc na serwisy. Trudno dziś wyrokować na ile ta transformacja ERP będzie udana.

Dostawcy ERP kierują się dziś takimi przesłankami: żeby ich rozwiązanie stało się konkurencyjne; aby było środowiskiem atrakcyjnym dla użytkownika typu digital native; po trzecie wreszcie: rozbudowa nakładek, dodatków. Nie należy ich lekceważyć, bo dostawcy dysponują dużymi budżetami, mają też ciągłość współpracy z przedsiębiorstwami.

Trendy ERP - CRM

Trendy ERP - CRM

Kolejny klasyczny rynek, to

CRM, który rośnie w skali rok do roku nawet o 40%.

Z zasady są to obecnie skalowalne, elastyczne środowiska CRM-owe w chmurach, dominujące są Salesforce i Microsoft, od początku integrowane ze światem social media, projektowane zgodnie z wytycznymi UX. To już całkiem

inne światy, pod względem doświadczenia użytkownika, niż np. system Siebel sprzed dekady. Rozwiązania pełne analityki, z zaimplementowanymi chatbotami, mechanizmami predykcyjnymi, elementami AI. Te elementy stają się zresztą sednem współczesnych CRM-ów,
przyjaznych, zintegrowanych ze światem z których użytkownik chętnie korzysta: w tym wypadku aspekt jakości doświadczenia użytkownika ma nawet zdecydowanie silniejsze znaczenie niż w przypadku nowych ERP.

Od wielkich systemów, zwróćmy się ku

aplikacjom webowym - czy pomoże im totalna dominacja silnika Google Blink?

Blink przejął całkowicie sposób pobierania i renderowania stron i aplikacji webowych. To w zasadzie jest koniec wojny przeglądarek: dziś to zbyt złożone, ze zbyt dużą dynamiką i zbyt drogie przedsięwzięcie aby mogła pojawić się jakaś rynkowa konkurencja z nowym silnikiem. Dość wspomnieć o wyzwaniach dla silnika, jak progressive web app – odpowiedź na zachowania użytkowników ograniczających ilość aplikacji na urządzeniach, rozwiązanie pośrednie pomiędzy stroną a aplikacją, obniżające barierę wejścia, ale ze specyficznymi wymogami. Jest jeszcze nawiasem mówiąc opór po stronie marketingu, bo przecież jak tu żyć bez „apki” – konserwatywny marketing, koniec świata – ale klient jest królem. Dlatego dowolnym kanałem będzie brał link do uruchomienia aplikacji webowej a nie pobierał całość. Tam jest przyszłość, nowy nurt a nie starorzecze, tam będą szły wysiłki UX, programistów.

Wracając do

dominacji Google – dotyczy ona również wyznaczania kierunku optymalizacji standardów, jeśli kluczowe update’y wersji protokołu http, http 2.0 i http 3.0 który w zasadzie właśnie wchodzi, wywodzą się ze środowiska inżynierów Google.
Można też kontynuować refleksje nad takim zdominowaniem Internetu przez tę firmę, rozważać za i przeciw, ale na pewno trzeba o tym pamiętać, że dzisiejszy Internet to nie obiektywny WorldWideWeb.
Trendy FrontEnd i webowe

Trendy FrontEnd i webowe

Cicha śmierć obiektywnego Internetu zbiega się w czasie z innym zgonem; w 2018 upowszechniło się hasło

“śmierć smartfona”.

Rynek się nasycił, a urządzenia wymienia się co 2,5 roku – sprzedaż idzie w dół. Próby zastąpienia go czymś nowym – jak okulary, smartwatche – to przykłady spektakularnych porażek.

Być może „coś nowego” wyłoni się z trendu Android Auto i Apple CarPlay. Mamy skokowy wzrost tych środowisk, który unieważnia dotychczasowe inwestycje przemysłu automoto we własne mapy, nawigacje, ale i szerzej, w środowisko i interfejsy interakcji kierowcą. Teraz przejmują to

Android i iOS, kolejny obszar, który zdominują: już dziś 90% nowych aut ma preinstalowane to środowisko.
Dotyczy to głównych marek i jest to na tyle tanie, że obejmuje wszystkie klasy i modele samochodów. To trend, który może wyłonić nowe usługi i nowe wynalazki w sferze usability, ponieważ gros komunikacji – interakcji z użytkownikiem - musi odbywać się głosowo. Należy spodziewać się dalszego szybkiego poprawiania algorytmów AI do rozpoznawania mowy, do komunikacji głosowej. Pozornie nisza – ale ważna – może zrodzić jakieś nowe sposoby użytkowania, obcowania z technologią.
Trendy mobilne

Trendy mobilne

Nowe życie,

nowe emocje w kontakcie użytkownika z urządzeniami mobilnymi są zaś producentom potrzebne jak powietrze.
Piksele, pamięci, procesory nie angażują już potencjalnych nabywców. Nadzieja w nowych usługach, związanych z AI, dostarczających nowych przeżyć.

AR i VR tak podobne, tak różne

technologie i rozwiązania, jeśli spojrzeć na to, gdzie odnalazły sobie zastosowania i użytkowników.

Trendy w AR/VR

Trendy w AR/VR

Virtual Reality (VR) rozwija się i znajduje ciekawe modele zastosowania w segmencie konsumenckim. Bardzo duża część tego doświadczenia przechodzi przez kontakt z konsolą PlaystationVR Experience czy okulary do gamingowych PC. Zdecydowanie mniej zastosowań znajduje w biznesie – poza może zastosowaniami specjalistycznymi, typu symulatory lotów.

Segment enterprise interesuje raczej Augmented Reality (AR). Trendy wyznacza Microsoft Holo Lens:

AR odnajdujący zastosowanie w branżach przemysłowych, w energetyce, budowlanej, medycznej, meblarskiej – do obcowania z produktem, przestrzenią, do szkoleń, do bieżącego zarządzania infrastrukturą, zdalnej obecności w jakimś miejscu.
To wyjątkowo wdzięczny trend technologiczny do szukania sposobów usprawniania procesów, odnajdywania uzasadnionych oszczędnościami zastosowań. Wdzięczny, bo oferuje dużo większy komfort użytkowania. Barierę wejścia obniża i być może otworzy AR na segment konsumencki trend nodevice AR, zapoczątkowany przez Apple. Oba trendy – zdecydowanie wschodzące, z racji potężnych nakładów czołowych potentatów technologicznych.

***

Nasz wybór być może nie wyczerpuje dyskusji o trendach – ale my koncentrujemy się na tym, co ważne dla segmentu enterprise. Łatwo można wyliczyć hasła i nazwy, którym próbuje przypisać się znaczenie. My uważamy, że lepiej skupić się na tym co dotyczy nas faktycznie. Unikając przy okazji kilku zasygnalizowanych w tekście zjawisk o naturze psychologicznej i socjologicznej, istotnych dla definiowania w powszechnej świadomości tego co ma być ważne a co nie.

Drodzy Czytelnicy, to dość długi artykuł, choć poszczególnym trendom poświęcamy de facto mało miejsca. Ale refleksja i dyskusja nad trendami trwa, cyklicznie aktualizujemy ją na naszym LinkedInie, zapraszam do dyskusji i do dzielenia się obserwacjami - w sieci, na Klubie CIO.

Jacek Chmiel, FOTO: archiwum IT Kontrakt

Jacek Chmiel, FOTO: archiwum IT Kontrakt

Jacek Chmiel – Global Chief of Consulting & Technology

W IT Services Competence Platform, globalnej organizacji oferującej kompetencje, ekspertyzę i rozwiązania softwarowe, odpowiedzialny za rozwój oferty technologicznej i konsultingowej, R&D, jak również integrację technologiczną. Zarządza zespołem CTO z kilku spółek wchodzących w skład Grupy Kapitałowej. Aktywnie wspiera projekty Platformy, koncentrujące się na branżach health & pharma, finance, automotive. Uczestniczy w audytach procesów wytwórczych i rozwiązań softwarowych. Specjalizuje się technologicznym R&D (w tym APIs, cloud, AI, blockchain), jest merytorycznym wsparciem działań sprzedażowych i promocyjnych, z tworzeniem nowych usług dla rynku włącznie. Z sukcesem wspomagał udaną realizację innowacyjnej platformy dla jednego z największych fintechów w Europie.

Absolwent Politechniki Warszawskiej na kierunku Informatyka. Tworzenie oprogramowania jest pasją Jacka od 8. roku życia. Posiada 24-letnie doświadczenie zawodowe, zarówno po stronie biznesu jak i partnera technologicznego, zdobyte m.in. w IT Kontrakt, Altkom Software & Consulting, Astech, Groupe Casino. Pełnił wszystkie role w procesie wytwórczym, kierował złożonymi projektami, z powodzeniem tworzył koncepcje najbardziej skomplikowanych rozwiązań software oraz usług konsultingowych. Zarządzał zespołem ponad 200 specjalistów, definiował ścieżki kariery, kierował systemem rozwoju kompetencji, a także rekrutacją. Był właścicielem procesu SDLC.