Meandry cyfrowej innowacji

Trzydzieści lat po uruchomieniu World Wide Web przez Tima Bernersa-Lee żyjemy w świecie megaportali, w którym dostęp do informacji reguluje kilka globalnych firm o skali niespotykanej dotychczas w historii. Jak do tego doszło? W jaki sposób narzędzie, którego celem miała być szerzenie wolności, przekształciło się w medium kontrolowane przez nielicznych?

Niezwykły sukces rynkowy największych firm z branży technologicznej zdaje się potwierdzać tezę, że agregowanie informacji, innowacyjność oraz usieciowienie to główne siły napędowe nowej gospodarki. Jeśli jednak transformacja cyfrowa ma rzeczywiście twórczo przeobrazić rynki, jej beneficjenci nie mogą się ograniczać do wąskiego grona wybrańców.

Internet narodził się z ducha kontrkultury. Choć jego genealogia sięga dalej niż przełom lat 60. i 70. ubiegłego stulecia, to jednak właśnie wtedy powstało kilka idei kluczowych dla przyszłego rozwoju tego najważniejszego wynalazku współczesności. Jedną z nich był Whole Earth Catalog – pionierska publikacja Stewarta Branda przygotowana z myślą o tym, by uwolnić społeczeństwo z nawyku bezrefleksyjnego konsumpcjonizmu. Brand postanowił zebrać w jednym miejscu informacje o szerokim wachlarzu produktów i usług, chcąc pozwolić ludziom świadomie kształtować własne wybory konsumenckie. W 2005 r. Steve Jobs nazwał Whole Earth Catalog biblią swojego pokolenia i porównał do młodszego o trzy dekady Google’a.

Zobacz również:

Stworzony w latach 90. Internet był kontynuacją marzeń ery kontrkultury. Dawał nadzieję na wyzwolenie informacji z rąk korporacji, większe upodmiotowienie jednostek oraz nowe – wolne i demokratyczne – społeczeństwo. Upadek bloku wschodniego tylko umocnił wiarę w to, że możliwa jest zdecentralizowana, nieograniczona komunikacja i swobodny dostęp do wiedzy w skali całego świata. Dziś wiadomo już, że były to nadzieje zbyt optymistyczne.

Trzydzieści lat po uruchomieniu World Wide Web przez Tima Bernersa-Lee żyjemy w świecie megaportali, w którym dostęp do informacji reguluje kilka globalnych firm o skali niespotykanej dotychczas w historii. Jak do tego doszło? W jaki sposób narzędzie, którego celem miała być szerzenie wolności, przekształciło się w medium kontrolowane przez nielicznych?

Informacja potrzebuje struktury

Genialny wynalazek Bernersa-Lee miał jedną zasadniczą wadę: brak mechanizmu efektywnego porządkowania i wyszukiwania informacji. W rezultacie Internet szybko przekształcił się w labirynt, w którym sprawne poruszanie się było bardzo trudne. Lekarstwem na rozproszone zasoby Sieci były pierwsze wyszukiwarki, jednak z ich nadejściem dał o sobie znać inny problem. Wiele z nich było bowiem częścią portali, a te nie gwarantowały bezstronności w dostępie do informacji. Ich właściciele mogli bowiem ze względów komercyjnych faworyzować jedne treści, zaś inne skazywać na zapomnienie. W takim ekosystemie nie było miejsca na neutralność. Prawdziwy przełom nadszedł dopiero wraz z Google’em.

Twórcom Google’a przyświecała idea uwolnienia treści oraz ich wygodnej organizacji dla każdego użytkownika Internetu. Przywodziło to na myśl dziedzictwo Branda.

Wyszukiwarka stworzona przez Larry’ego Page’a i Sergeya Brina była klarowna i oparta na nowatorskim pomyśle porządkowania oraz oceny zasobów Internetu. Nową jakość uwidaczniała już prosta, niezaśmiecona reklamami strona główna. Naczelne hasło Google’a brzmiało „Don’t be evil”.

W ciągu kilku lat sztandarowy produkt firmy z Mountain View stał się najpopularniejszą wyszukiwarką na świecie, a szereg dodatkowych narzędzi (konto pocztowe, kalendarz, przeglądarka czy darmowa przestrzeń dyskowa) przyciągały rzesze nowych użytkowników zachęconych wygodą kompatybilnych rozwiązań. Ambicje Google’a były śmiałe i współgrały z antyestablishmentową filozofią twórców nowych technologii: stworzyć kompletną bazę ludzkiej wiedzy i demokratycznie ją upowszechnić. W tym celu Google podjął się nie tylko indeksacji wszystkich treści dostępnych online, ale rozpoczął również digitalizację całego światowego księgozbioru. Następnie przyszła kolej na stworzenie Google Maps z funkcją Street View, co wymagało sfotografowania niemal wszystkich uczęszczanych przez ludzi zakątków Ziemi. Aby zrealizować te odważne projekty, Google przyjął zdecydowaną strategię: działać bez pytania o zgodę. Gdyby postąpił inaczej, jego poczynania utknęłyby zapewne na niekończących się negocjacjach prawnych.

Twórcza destrukcja

Historia Google’a ucieleśnia paradygmat biznesowy Doliny Krzemowej, czyli radykalną innowację (disruptive innovation), polegającą na gruntownym przeobrażeniu rynku z wykorzystaniem nowatorskich technologii. Ten model działania kojarzy się dziś z wyzwaniem rzuconym dominującym firmom i jest synonimem młodości, odwagi i przedsiębiorczości. Wydaje się przy tym sednem kapitalizmu oraz jego dogmatu o wolnej konkurencji. Radykalna innowacyjność przypomina wcześniejszą o kilkadziesiąt lat koncepcję twórczej destrukcji austriackiego ekonomisty Josepha Schumpetera. Zainspirowany Marksem, Schumpeter sformułował w latach 50. ubiegłego wieku teorię, zgodnie z którą kapitalizm rozwija się w procesie nieustannej rewolucji w obrębie zastanych porządków rynkowych. Twórcza destrukcja była jego zdaniem siłą napędową kapitalizmu, a jej istotę stanowiła innowacja – bez zniszczenia tego, co teraźniejsze, nie był możliwy wolnorynkowy rozwój.

Największe firmy współczesnej cyfrowej gospodarki to świetne przykłady twórczej destrukcji – rozsadzającej zastane ramy, zmuszającej konkurencję do podjęcia radykalnych działań, zaś konsumentom oferującej coraz to wygodniejsze usługi po coraz niższych cenach.
Rewolucja w branży technologicznej budzi dziś niemal powszechny podziw, stając się wzorem do naśladowania dla ambitnych przedsiębiorców na całym świecie. Z kolei ci, którzy podają w wątpliwość jej efekty, uchodzą za przeciwników wolnego rynku bądź obrońców interesów tradycyjnych branż. Czy jednak twórcza destrukcja w wykonaniu najpotężniejszych firm technologicznych rzeczywiście gwarantuje rozwój gospodarczy i stoi na straży fundamentów kapitalistycznego porządku?

15 milionów lat darmowej pracy

Wskaźnik Herfindahla-Hirschmana (HHI) to stosowane w USA narzędzie do określania poziomów konkurencji oraz koncentracji rynku. Wedle amerykańskiego Departamentu Sprawiedliwości HHI powyżej 2500 świadczy o wysokiej koncentracji w danym sektorze. Jonathan Taplin w opublikowanej w ubiegłym roku książce "Move Fast and Break Things" podaje, że w przypadku wyszukiwarek internetowych HHI wynosi ponad 7400. Czy trzeba dodawać, która firma odpowiada za taki stan rzeczy?

Jonathan Taplin, zrzut z wideo CNBC

Jonathan Taplin, zrzut z wideo CNBC

Inny przykład: suma wartości akcji Amazona, Apple’a, Facebooka i Google’a to 2,3 biliona dolarów (niedawno wartość Apple przekroczyła 1 bln dolarów – red.). Zarazem firmy te zatrudniają w sumie około 418 tys. pracowników. Jak zauważa Scott Galloway, marketingowiec i autor "The Four" – książki analizującej strategie działania cyfrowych gigantów, jest to wielkość odpowiadająca populacji Minneapolis. Wniosek: cztery firmy, w których zatrudnienie znajduje tyle osób, ile liczy sobie średniej wielkości amerykańskie miasto, osiągają wartość rynkową bliską produktowi krajowemu brutto Francji – państwa z 67 milionami obywateli.

Obaj autorzy przywołują jeszcze jeden wymowny fakt: ponad miliard użytkowników Facebooka „pracuje” na rzecz serwisu, dostarczając mu danych, które firma Marka Zuckerberga może następnie wykorzystać, by zarabiać na reklamie.

Wedle rachunku Taplina użytkownicy Facebooka spędzają w serwisie średnio 17 minut dziennie, co daje w sumie 39 757 lat. W skali rocznej zaangażowanie wszystkich tych osób sięga astronomicznej wielkości 15 milionów lat!
Obecnie liczba ta jest zapewne jeszcze większa, ponieważ z Facebooka korzysta już ponad dwa miliardy osób.

Przykłady te stają się jeszcze bardziej znamienne, jeśli weźmiemy pod uwagę, że Google, Facebook oraz Amazon są de facto agregatorami treści i same właściwie niczego nie wytwarzają, organizując jedynie zasoby dostarczane przez kogo innego. W ten sposób odgrywają one rolę tzw. gatekeeperów – panów życia i śmierci dla pozostałych firm działających w branżach informacyjnej, rozrywkowej czy wydawniczej (a także wielu innych, jak choćby e-commerce).

Scott Galloway

Scott Galloway

Kluczowe znaczenie ma tutaj brak inwestycji w tworzenie treści: tradycyjnie producenci wykorzystywali część swoich przychodów, aby tworzyć nowe programy, artykuły, filmy czy muzykę. Obecnie, gdy ich kontrola nad dystrybucją drastycznie zmalała, są zmuszeni – używając określenia Gallowaya – stręczyć swoje treści na platformach, które do nich nie należą. W rezultacie tradycyjne media oraz producenci na rynku muzycznym i filmowym ulegają coraz szybszej degradacji lub w najlepszym wypadku tracą samodzielność.
Okładka amerykańskiego wydania książki Scotta Gallowaya

Okładka amerykańskiego wydania książki Scotta Gallowaya

Koszty zewnętrzne innowacji

Niebezpieczeństwa związane z koncentracją na rynku mediów cyfrowych nie sprowadzają się jednak wyłącznie do spadku przychodów czy ograniczenia konkurencyjności, a więc kwestii czysto biznesowych. Zmiany w przemyśle informacyjnym mają także realne efekty społeczne. Tradycyjne media stały się bowiem zakładnikiem nowego modelu dystrybucji, o którego kształcie decydują właściciele kilku dominujących platform. Z kolei dzięki coraz bardziej precyzyjnym narzędziom analitycznym nieporównanie łatwiej niż kiedyś można dziś określić rynkową wartość treści: popularność i klikalność stały się nadrzędnym kryterium oceny. Nieustanne monitorowanie wyników doprowadziło do fetyszyzacji danych – aby przetrwać na rynku zdominowanym przez kilku dystrybutorów, media przedkładają bowiem chwilowe trendy nad opiniotwórczą rzetelność. Skutkuje to silnym utowarowieniem informacji, co przenosi się na jakość serwowanych odbiorcom treści.

Franklin Foer, dziennikarz amerykańskiego miesięcznika „The Atlantic” i autor książki World Without Mind, wskazuje, że absolutyzacja danych niszczy niezależne dziennikarstwo i prowadzi do niebezpiecznego zjawiska, gdy postacie bądź zjawiska marginalne, lecz wzbudzające kontrowersje, trafiają do głównego nurtu mediów właśnie w wyniku pogoni za uwagą odbiorców. Jak zauważa Foer, niegdysiejszy mechanizm mediów pozwalał na większe zróżnicowanie – redaktorzy obok chwytliwych newsów zamieszczali w czasopismach ambitniejsze teksty, które stanowiły zasadniczą część wydawniczego miksu. W erze Internetu jednak każda treść funkcjonuje osobno – odbiorcy rzadko dostają się do serwisu przez stronę główną, polegając raczej na rekomendacjach wyszukiwarek bądź serwisów społecznościowych.

Frank Foer

Frank Foer

Skutki uzależnienia od wskaźników popularności najlepiej widać na przykładzie fake newsów. W tym przypadku negatywnym efektem jest nie tylko zaśmiecanie Sieci pseudoinformacjami, ale przede wszystkim dewaluacja informacji jako takiej. Scott Galloway podkreśla, że sąsiedztwo fake newsów i sprawdzonych wiadomości prowadzi do kryzysu zaufania wśród odbiorców mediów. Co więcej, wykorzystywane w serwisach społecznościowych algorytmy faworyzują wyraziste bądź wręcz skrajne opinie, prowadząc do marginalizacji postaw umiarkowanych i podsycając polaryzację stanowisk.

Okładka książki "World without Mind" Franka Foera.

Okładka książki "World without Mind" Franka Foera.

Szlachetnemu w swej genezie dążeniu do uwolnienia informacji towarzyszy zatem zaskakująco dużo skutków ubocznych. Zwykle są one jednak traktowane jako nieuchronny rezultat zmian mających w sumie dobroczynny wpływ na społeczeństwo. Sytuacja okazuje się jednak jeszcze bardziej paradoksalna, gdy przypomnimy sobie, iż jedni z największych graczy na cyfrowym rynku, czyli Facebook i Google, odżegnują się od bycia firmami medialnymi, uparcie nazywając się platformami. Takie podejście, jak przekonuje Galloway, wynika z jednej strony z względnie niskiej wyceny spółek z branży medialnej, z drugiej zaś z niechęci do ponoszenia odpowiedzialności za rozpowszechniane treści. W tej sytuacji nasuwa się pytanie o koszty zewnętrzne związane z działalnością tych firm: czy transformacja cyfrowa w takim wydaniu rzeczywiście przynosi społeczeństwu i gospodarce korzyści równoważące ponoszone straty?

Kryzys neoliberalnej narracji

W 2010 r. Tim Wu – amerykański prawnik i działacz na rzecz neutralności Internetu – opublikował "The Master Switch", obszerny esej, w którym dowodził, że rewolucja cyfrowa w branży informacyjnej nie jest zjawiskiem bez precedensu, lecz odbywa się według znanego od dziesięcioleci schematu. Oto nowatorska technologia rozsadza dotychczasowy rynek, uwalniając nowe możliwości, a następnie szybko przekształca się w zmonopolizowaną twierdzę, która zaciekle broni się przed intruzami próbującymi wtargnąć na jej terytorium. Wu nazwał ten proces Cyklem, a jako inspirację wskazywał – wspomnianą wcześniej – Schumpeterowską teorię twórczej destrukcji.

Tim Wu, foto: Wikimedia

Tim Wu, foto: Wikimedia

Zdaniem Wu nie należy demonizować branży Big Tech, przypisując jej jakieś szczególnie szkodliwe intencje, ponieważ przejście od otwartości do monopolu wynika po prostu z logiki działania rynku. Wu podkreśla jednak, że okoliczności, w jakich od dłuższego czasu funkcjonujemy, różnią się zasadniczo od sytuacji we wcześniejszych dekadach.

Od lat 80. XX w. mamy bowiem do czynienia ze znacznym złagodzeniem prawa antymonopolowego w USA i dominacją myślenia spod znaku neoliberalnych apologetów monopoli i antykonkurencyjności. Wu przekonuje, że regulacje państwowe są niezbędne, by rynek mógł poprawnie działać.

Podobnego zdania co on są też inni komentatorzy, którzy za obecny stan rzeczy winią nie tyle rozwój technologii, ile raczej sposób myślenia przejęty od firm z branży Big Tech. Technodeterminizm, czyli przekonanie, że nie ma odwrotu od technologicznego postępu w takim kształcie, z jakim obecnie mamy do czynienia, to nie uniwersalne prawo, ale po prostu dominujący światopogląd, któremu nie tylko można, ale i należy się przeciwstawiać. Jonathan Taplin, nawiązując do zjawiska bańki informacyjnej w mediach społecznościowych, pisze w tym kontekście o bańce intelektualnej (thought bubble) rodem z Silicon Valley, którą zbyt wielu inwestorów i decydentów traktuje jak prawdę objawioną.

Narracja o wyzwoleniu przez technologie niepostrzeżenie przeobraziła się bowiem w historię o nieuniknionym wzroście społecznych nierówności, gdzie monopolizacja rynków jawi się jako naturalna konsekwencja usieciowienia gospodarki.

W gospodarce sieciowej centralizacja to faktycznie najbardziej oczywisty sposób zwiększania wydajności. Rzecz jednak w tym, że wydajność nie może stanowić jedynego kryterium oceny sytuacji rynkowej. Na panującą dziś jednostronność w doborze wskaźników przez rynki finansowe oraz same firmy wskazuje miedzy innymi teoretyk radykalnej innowacji – Clayton Christensen. Jego zdaniem innowacje dążące do koncentracji są dla inwestorów bardziej atrakcyjne od innowacji tworzących nowe rynki, ponieważ w przypadku tych pierwszych zwrot z inwestycji jest względnie szybki, zaś te drugie potrzebują więcej czasu, by przynieść wymierne efekty. O tym, że taki sposób myślenia nie zawsze dominował, świadczy jednak historia amerykańskiego prawa antymonopolowego. U swego zarania miało ono za zadanie gwarantować konkurencyjność i równomierny rozwój – doktrynie wydajności oraz niskich cen podporządkowano je dopiero kilka dekad temu.

Odzyskać myślenie

W 1953 r. pionier nowoczesnej inżynierii komputerowej Douglas Engelbart spotkał się w Massachusetts Institute of Technology z Marvinem Minskym – jednym z pierwszych badaczy sztucznej inteligencji. Doszło między nimi wówczas do znamiennej wymiany zdań. Minsky stwierdził, że zamierza obdarzyć maszyny inteligencją i nauczyć je myśleć, na co Engelbart odparł: „Zamierzasz zrobić to wszystko dla maszyn? A co zrobisz dla ludzi?” Pytanie to, choć postawione przeszło pół wieku temu, do dziś nie straciło na aktualności i świetnie obrazuje współczesne ambiwalencje w myśleniu o gospodarce cyfrowej. Źródeł naszych problemów nie należy bowiem upatrywać w samym postępie, lecz w ideach i wartościach, które go ukierunkowują.

Odejście od zdecentralizowanego ideału sieci, który tkwił u podstaw Internetu i technologii cyfrowych, nie odbyło się samoczynnie, lecz trafiło na podatny polityczny i ekonomiczny grunt. Zaistnienie monopolistycznych gigantów w branży Big Tech umożliwił bowiem przede wszystkim skrajny wolnorynkowy dogmatyzm ostatnich kilku dekad, którego zwolennicy stopniowo przyzwalali na coraz większą koncentrację na rynkach, przy jednoczesnym osłabianiu narzędzi pozwalających na wprowadzanie korekt systemowych tam, gdzie to niezbędne. Jak dowodzą analitycy z Open Markets Institute, firmy technologiczne nie są wcale odosobnione w dążeniu do monopolizacji. Podobny trend można od lat obserwować na amerykańskim rynku w wielu innych sektorach. Tym więc, co przede wszystkim wyróżnia dzisiejszych cyfrowych potentatów, jest przewaga wynikająca z rozwijania najnowszych technologii oraz znakomite wyczucie koniunktury, nie zaś samo dążenie do zdominowania rynku.

Amerykański ekonomista Robert Gordon stwierdził niedawno, że znaczenie przypisywane cyfrowej rewolucji jest przesadzone, zaś jej realny wpływ na wzrost gospodarczy niewielki w porównaniu do przełomów zapoczątkowanych przez najważniejsze wynalazki z przeszłości.
To śmiała teza. Jednak głos Gordona nie rozbrzmiewa w próżni. Krytyczne opinie wobec kierunku, w jakim obecnie zmierza cyfrowa gospodarka, słychać coraz częściej. Także na łamach mediów, które trudno posądzić o wrogość wobec postępu technologicznego. Najlepszym tego przykładem jest ostatni numer „MIT Technology Review”, gdzie bez ogródek mówi się o zagrożeniach wynikających z koncentracji na rynku cyfrowym. Być może więc jesteśmy świadkami kolejnej radykalnej innowacji. Tym razem jednak nie w tej czy innej branży, lecz w samym sposobie myślenia o rewolucji cyfrowej.