Optymistycznie o AI

Produkty AI, które wygrają konkurencję z innymi, będą bardziej spersonalizowane, wręcz: bardziej intymne. Rozmowa z Aleksandrą Przegalińską, wykładowczyni na Akademii Leona Koźmińskiego, która prowadzi badania nad AI na MIT.

CEO:# Upowszechnienie sztucznej inteligencji staramy się opisywać liczbami – kwotami nakładów na AI i jej wdrażanie. Albo przykładami zastosowań, wyliczeniami, ile osób może zastąpić w pracy. Jak szybko pokona mistrza go. Obraz jest trochę chaotyczny, wyspowy. Kiedy, na jakim poziomie te wyspy się łączą, jaki kształt przyjmuje wynurzający się kontynent?

W tej chwili rzeczywiście mamy szybko poszerzający się archipelag licznych wysepek wiedzy i zastosowań AI. Zaczynają one komunikować się między sobą. Postęp, dynamika postępu, rozwoju jest bardzo duża. Ale brakuje wielu podstawowych standardów, przede wszystkim dotyczących współpracy.

Zobacz również:

W jaki sposób wyobraża Pani sobie idealną współpracę nauki z przemysłem, rządami, obywatelami?

Zdecydowanie brakuje ram takiej współpracy. Ich stworzenie jest pilną potrzebą, zważywszy, jak ogromne środki przeznaczane są przez przemysł na badanie i wdrażanie rozwiązań opartych na sztucznej inteligencji. Praca na MIT daje wolność poszukiwań, nie mamy ograniczeń inwestora zakładających szybkie wdrożenie ale mamy oczywiście założone konkretne wdrożeniowe cele projektów.

Mówi się głównie o adaptacji sztucznej inteligencji przez sektor prywatny. Przynajmniej dla równowagi, takie systemy powinien rozwijać sektor publiczny?

W większości krajów prowadzone są rozmaite programy oparte na elektronicznym obiegu dokumentów albo takie, które wykorzystują już uczenie maszynowe, rozpoznawanie twarzy, monitoring różnych zachowań. Uczenie maszynowe w tych koncepcjach wspiera też wnioskowanie. Także w Polsce czynione są pierwsze próby. To dobry kierunek,

sztuczna inteligencja i takie protokoły, jak blockchain mogą być w bardzo ciekawy sposób spożytkowane w obszarze rządowym czy polityki miejskiej.

Jest dyskusja o AI-Goverment, gdzie mówi się, że będą wybory ale nie będzie polityków a program będzie implementowany. Przyjmijmy, że 25 proc. wyborców zagłosuje na prawicę i 20 proc. na lewicę i będą rożne programy a określone polityki będą targetowane do różnych grup obywateli.

Dzisiaj trudno o tym myśleć, ale może nie jest to zła wizja.

Jeżeli chodzi o wsparcie decyzji władzy ustawodawczej to jest to raczej pieśń przyszłości ponieważ brak jest regulacji dotyczących tego obszaru. To byłoby podminowanie fundamentu, na jakim stoi dziś władza ustawodawcza.

Jestem oczywiście w stanie wyobrazić sobie sytuację, kiedy polityk będzie zbędny, a oczekiwania wyborców będzie sprawiedliwie uwzględniał system. Będziemy oddawać głosy w wyborach z wykorzystaniem protokołu blockchaina i określona proporcjonalność wyników zostanie wyrażona w programie, który potem będzie dostosowany do potrzeb określonych grup użytkowników, a wszystko będzie wspierane, zasilane przez Big Data. W efekcie całe rządzenie będzie odbywało się bez udziału ludzi.

Dostrzegam w tym pewną szansę na sprawiedliwość, bo blockchain jest w pełni transparentny i nie ma własnych poglądów. Moim zdaniem blockchain może nawet szybciej znaleźć drogę do zaadaptowania do warunków systemu demokratycznego niż sztuczna inteligencja. Chociaż także wsparcie decyzji władzy ustawodawczej lub sądowniczej poprzez zasilanie algorytmów głębokiego uczenia maszynowego wydaje się sensownym działaniem. Problem w tym, że nie mamy prawnych ram aby to stworzyć.

W codziennym życiu być może łatwiej o te przykłady. Czy Pani poza rolą badacza AI jest także użytkownikiem urządzeń i rozwiązań opartych na AI?

Dziś właściwie trudno znaleźć kogoś, kto nie jest w jakimś stopniu użytkownikiem AI. Wydaje mi się, że

każda osoba, która robi zakupy na Amazonie, ogląda treści na Youtube czy Netfliksie lub korzysta z Google jest już w orbicie AI,
ponieważ wykorzystuje się tam uczenie maszynowe. Wiele osób używa Siri, Alexa, Google Now, jako asystentów w smartfonach i korzysta z systemów rekomendacji zakupowych, które też są wsparte uczeniem maszynowym. Każdy użytkownik serwisów on-line podlega działaniom sztucznej inteligencji. Platformy i serwisy streamingowe, wyszukiwarki, porównywarki, sugerują nam na podstawie naszych wyborów i wielu różnych czynników kolejne wybory.

Uczenia maszynowego jest też dużo w mediach społecznościowych. Celem jest targetowanie reklam ale także propozycje korzystania z serwisu (kogo followować, co polubić, kogo zaprosić itp.).

Bada Pani na MIT rzeczywistość wirtualną, ściślej: projektuje Pani eksperymenty na obiektach, które aspirują aby być ludźmi. O czym Pani próbuje, o czym można na tej podstawie, wnioskować?

Badamy reakcję ludzi na sztuczna inteligencję, gównie na boty. Jakie tworzą się relacje, w jaki sposób można oddziaływać, w jaki sposób można je modelować.

Co podpowiada Pani intuicja badacza-użytkownika: czy pojawią się całkiem nowe kategorie produktów wykorzystujących AI?

Powiedziałbym, że nawet nie chodzi o produkty ale o pewną linię myślenia, czy nawet filozofię.

Chodzi tu przede wszystkim o rozwiązania, które są głęboko personalizujące przekaz – lub produkt, ale już na bardzo intymnym poziomie. Te właśnie będą się cieszyły dużym zainteresowaniem. Powstają – powstaną właśnie dzięki uczeniu maszynowemu, ale także dzięki wielkim zbiorom danych.
Każdy produkt, komputer czy sprzęt domowy czy elektroniczny, dowolny fragment technologii, zaczynając od jakiegoś gadżetu na rękę, czy opaski na głowę, nad którymi pracujemy w Massachusetts Institute of Technology, wszystko co wchodzi w spersonalizowaną relację z klientem będzie pewnie coraz bardziej pożądane.

Dlaczego?

Ludzie chcą być tak traktowani i są siebie samych ciekawi, więc myślę, że doceniają to coś, co jest im oferowane i naprawdę wychodzi naprzeciw ich potrzebom. Oczywiście jest koszt a są nim udostępnione dane i związana z tym utrata prywatności. Widzę po swoich studentach, że dowolna forma personalizacji, która zachodzi w produkcie, który się im oferuje sprawia, że oni traktują go inaczej.

I ludzie się nie obawiają? W czasie spotkania w Klubie CIO opowiadała Pani o eksperymencie ilustrującym różnice między deklarowanym a fizjologicznie przejawianym odbiorze urządzenia z sztuczną inteligencją, które było hmm bardzo inteligentne i domyślne.

Istotnie, zaobserwowaliśmy, że

im inteligentniejszy bot, tym konwersacja z nim wywołuje bardziej ambiwalentne odczucia. Ludzie podziwiają, i wyrażają ten podziw dla sposobu rozmowy, dla przyjemności z tej rozmowy, dla faktu, że ta rozmowa nie dobiega od rozmowy z ciekawym, miłym rozmówcą. Ale w duchu – odczuwają strach.
Na poziomie fizjologicznym przejawia się on charakterystycznymi sygnałami i aktywnościami mózgu. Nasz mózg „krzyczy”: uciekaj.

Zastrzeżenia zgłaszają także wizjonerzy, kluczowi promotorzy technologii. Najgłośniejszy jest być może spór pomiędzy obawami Elona Muska – a optymizmem Marka Zuckerberga w odniesieniu do AI? Czyje argumenty są Pani zdaniem silniejsze?

Elon Musk jest dla mnie postacią zagadkową, bo z jednej strony ostrzega przed sztuczną inteligencją a z drugiej strony sam inwestuje w platformę Open AI, która zajmuje się budowaniem wysoce zaawansowanej sztucznej inteligencji. Jego Tesla też jest naszpikowana sztuczną inteligencją. Elon Musk boi się centralizacji i tego, że sztuczna inteligencja zostanie przez kogoś nieodpowiedzialnego zawłaszczona a więc nie przestanie być projektem demokratycznym i otwartym lecz stanie się narzędziem w czyichś rękach. To uprawomocniona obawa. Jednak jeśli z jednej strony twierdzi, że sztuczna inteligencja jest największym zagrożeniem dla człowieka a jednocześnie sam w nią inwestuje to trudno go zrozumieć. Postawa Zuckerberga jest bardziej optymistyczna i jest mi bliższa. On wierzy, że technologie przynoszą emancypację i pozytywne zmiany na świecie. Uważam, że jest to bardziej konsekwentne.

W jaki sposób zniwelować ryzyko realizację negatywnego scenariusza?

Według mnie decentralizacja projektu, wyposażenie jak największej ilości ludzi w kompetencje uczenia maszynowego, aby rozumieli ten proces. Ponadto potrzebne jest tworzenie otwartych platform, na wzór platformy Elona Muska, duża społeczna kontrola, wytworzenie nowej etyki maszyn i oczywiście regulacje prawne. W Unii Europejskiej trwa dyskusja na temat elektronicznej osoby. To są według mnie sposoby aby utrzymać projekt AI w ryzach.

Uważa Pani, że projekt Neuralink – budowy połączenia między mózgiem a komputerem - da równą szansę człowiekowi i maszynie?

Sam projekt jest naprawdę bardzo ciekawy. Temat neurotechologii jest rzeczywiście mocno nagłośniony. To jest o tyle ciekawe rozwiązanie, że ma na celu utworzenie raczej ludzko-technologicznej hybrydy aniżeli zbudowanie sztucznej inteligencji dla niej samej. Mnie te interfejsy szalenie interesują. Nie wiem czy dadzą równą szansę człowiekowi ale na pewno będą szansą na integrację z maszyną i skorzystanie z tego, w czym maszyna jest lepsza homo sapiens. To może być na przykład zewnętrzny dysk pamięci lub system liczący. Jest to niewątpliwie bardzo ciekawy obszar więc myślę, że warto mu się przyglądać i będzie w nim zapewne tyle przełomów, co w Open AI.

Obawiam się, że zastosowanie AI do rozwiązywania problemów, z którymi się obecnie mocujemy – zawodowo i prywatnie - spowoduje odciążenie naszego mózgu od pracy. A to oznaczać może jego degradację. Kontakt z technologią już powoduje intelektualne, emocjonalne „wypłycanie”, jak to opisał w swojej książce Nicolass Carr.

O, to znany defetysta.

Czy ludzie staną się głupsi? Jak będzie się rozwijał mózg w relacjach z takim partnerem-konkurentem?

Na razie mamy coraz więcej pracy i jest ona z powodzeniem obsługiwana przez technologie i często one ją optymalizują. Pewnych czynności już nie wykonujemy. Czy młodzież dzisiaj umie biegle liczyć, jak kilkadziesiąt lat temu? Może nie jest to teraz potrzebne. Nie muszę znać numerów telefonów znajomych, ponieważ ich zapamiętywanie jest już zbędne.

Nie uważam, że dzisiejsza młodzież jest mniej inteligentna niż poprzednie pokolenia. Posiada inne kompetencje niezbędne we współczesnej epoce.
Oczywiście można sobie wyobrazić, że w przyszłości sztuczna inteligencja całkowicie pozbawi nas pracy albo pochłonie większość zawodów, w związku z czym będziemy zawodowo bezczynni.
Aleksandra Przegalińska

Aleksandra Przegalińska doktoryzowała się w dziedzinie filozofii sztucznej inteligencji w Zakładzie Filozofii Kultury Instytutu Filozofii UW, obecnie jest adiunktem w Center for Research on Organizations and Workplaces w Akademii Leona Koźminskiego, wykłada m.in. w programie "Cyfrowa Transformacja". Prowadzi badania w Massachusetts Institute of Technology w Bostonie.

Absolwentka The New School for Social Research w Nowym Jorku, gdzie uczestniczyła w badaniach dotyczących tożsamości w rzeczywistości wirtualnej, ze szczególnym uwzględnieniem Second Life. Interesuje się rozwojem nowych technologii, zwłaszcza zaś technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii wearebles.

Co wówczas zrobimy z wolnym czasem?

To może być straszne ale może się okazać, że zamiast wykonywać żmudne prace będziemy podróżować, poznawać świat, zajmować się sztuką lub hobby. Nie sądzę więc, że ludzie z powodu różnorodnych zastosowań sztucznej inteligencji staną się głupsi czy mniej inteligentni.

Raczej oznacza to gigantyczne bezrobocie „technologiczne".

Jest to otwarte pytanie. To należałoby dokładnie wymierzyć, jakie segmenty rynku już ta automatyzacja zajęła. Powinno się zbierać dane, na razie nikt nie wie dokładnie, jak przebiega proces automatyzacji w poszczególnych krajach. To oznacza, że nie wiadomo, ile zawodów zostało utraconych a ile nowych powstało. Na podstawie zebranych danych można by było przedstawić bardzo konkretne propozycje regulacyjne.

Przede wszystkim potrzebny jest bardzo dobry system pomiarowy, który pokazałby, które zawody są tracone, w jakich obszarach, gdzie pojawiają się nowe. Na razie jest dużo publicystyki a mało konkretów.

Myślę, że przez jakieś 15-20 lat będziemy jeszcze więcej pracowali. Później może być inna sytuacja. Dziś zanikają profesje lub zawody, ale są prace. Ludzie coraz częściej wykonują różne prace nie posiadając zawodu. Przyszłość nie należy do koncepcji zawodu.

Skąd więc znajdą się środki na utrzymanie społeczeństwa? Jak ocenia Pani pomysły dotyczące uniwersalnego dochodu podstawowego - „płacy za nic, ale po coś”?

W Szwajcarii odbyło się referendum, w którym projekt dochodu podstawowego został odrzucony. Natomiast w Finlandii został przeprowadzony pilotaż w sprawie uniwersalnego dochodu podstawowego. Miał on pokazać, jaki będzie świat bez pracy. Bada się, jak zachowują się ludzie otrzymujący rentę socjalną od maszyn, czy będą szukać pracy albo zajmą się tym, co ich pasjonuje. Jestem ciekawa, co przyniosą pilotaże dotyczące uniwersalnego dochodu podstawowego. Może być to ciekawe.

A może już dziś warto pomyśleć aby obciążyć roboty składkami na ubezpieczenie społeczne, jak chce tego Bill Gates?

Możemy sobie wyobrazić, że dochód wygenerują maszyny i będzie on dystrybuowany w społeczeństwie. Polegałoby to na tym, że jeżeli zysk w zakładach produkcyjnych lub innych branżach jest wytwarzany przez algorytmy to zostaną one opodatkowane i to, co one wypracowują, będzie podzielone między obywateli. Jest to faktycznie „socjal” ale ja nie mam do tego jednoznacznie negatywnego stosunku, jak wielu fanów wolnego rynku. Uważają go za zasiłek od maszyn. Z drugiej strony nie ma żadnej innej konstruktywnej propozycji.

Dziękuję za rozmowę.