Co wiemy o emocjach?

Badanie relacji człowieka z elektroniką użytkową zredefiniuje relacje klienta z marką. Rozmowa z Marcinem Charkiewiczem, kierownikiem Centrum Badań Konsumenckich Orange Polska.

FOTO:

http://www.cubo.cc/creepygirl/

Historia badania relacji człowieka z elektroniką użytkową w Orange Polska zaczęła się od badań ergonomii usług telekomunikacyjnych. Kilkanaście lat temu, jeszcze pod szyldem Telekomunikacji Polskiej, dotyczyło prozaicznych rzeczy. Chodziło o to, aby klient umiał podłączyć samodzielnie otrzymane urządzenie typu modem albo sprawdzić online wysokość faktury. To było wtedy w Polsce innowacyjne podejście; nie było wykształconych ergonomistów, dlatego do nowego działu zatrudniono psychologa z praktyką w badaniach internetu, prawie informatyka i ekonomistę w jednej osobie – Marcina Charkiewicza. Obecnie kieruje on Centrum Badań Konsumenckich Orange, które w ramach całego obszaru zarządzania innowacjami koncentruje się m.in. na skutecznych wzorcach relacji użytkownika z interfejsem cyfrowym.

Skąd na początku czerpano metody i pomysły na tworzenie ergonomicznych rozwiązań technologicznych?

Zobacz również:

Wśród inspiracji można wymienić: wzornictwo, zarządzanie jakością, różne dziedziny pozwalające wydajnie, efektywnie korzystać z urządzenia. Na początku – w moim przypadku to prawie 14 lat temu – problem był jednak inaczej formułowany: jak szybko użytkownik będzie mógł się nauczyć włączać, wyłączać i użytkować urządzenie. Komfort użytkownika w zasadzie miał być narzędziem do zwiększenia jego skuteczności i efektywności.

Potrzebny był przełom.

Radykalna zmiana: technologia miała zostać podporządkowana potrzebom i oczekiwaniom człowieka. Wcześniej, jak to w firmie z 400 inżynierami, było technocentrycznie – wszyscy domyślnie zakładali, że to użytkownik się uczy technologii, i tak ma być. „Operator systemu operuje na systemie”. Tylko, że takie podejście nie ma nic z UX, użyteczności. To człowiek miał się dopasować do techniki, która była taka, jak informatykowi wyszło. To się zmieniło, kiedy pojawił się świadomy konsument, konkurencja z systemami innych firm projektowanymi pod potrzeby użytkownika – klienta. W Telekomunikacji Polskiej zarządzanie doświadczeniem użytkownika zaczęło się na serio gdzieś w 2007 roku. Około trzech lat później powołaliśmy w Grupie pionierski jak na tamte czasy program Misja Klient, którego celem było zwiększenie skłonności naszych klientów do rekomendowania usług firmy.

Potem było już tylko coraz szybciej i coraz ciekawiej.

Tak, świat już się zorientował, że aby zainteresować klienta oprogramowaniem, trzeba naprawdę zrozumieć, dlaczego miałby chcieć właśnie z niego korzystać. Przekonuje się o tym dobitnie wielu twórców aplikacji mobilnych, gdy okazuje się, że czas życia ich produktów w App Store to dwa tygodnie, po czym przechodzą do historii. Trzeba testować interakcję użytkownika, dodajmy: coraz bardziej zaawansowaną, z programem lub urządzeniem, a to wymaga docenienia wagi miękkich elementów komunikacji. Popatrzmy na ludzi – prowadzimy codziennie dziesiątki drobnych i poważnych konwersacji. Są osoby, z którymi podczas takiej rozmowy „chemia”pojawia się niemal natychmiast, ale są i takie, gdzie „jakoś się nie klei”. I to właśnie ta„chemia” w warstwie komunikacyjnej jest dziś największą ambicją twórców oprogramowania. Jeśli chcemy, aby ludzie łatwo wchodzili w interakcje z maszyną, to podobieństwo do działań ludzkich jest niezbędne.

Marcin Charkiewicz, kierownik Centrum Badań Konsumenckich Orange Polska

Marcin Charkiewicz, kierownik Centrum Badań Konsumenckich Orange Polska

Efektywność maszyny jest oceniana za zgodność ze stylem komunikacji odbiorcy, co znacząco podnosi ocenę jakości przekazywanej informacji. Górą jest niższa warstwa funkcjonalna, ale adekwatna warstwa komunikacji.

Robot musi mieć cechy ludzkie.

To by było zbyt proste. Prawie pół wieku temu pionier robotyki Masahiro Mori przewidział istnienie zjawiska, które nazwał „doliną niesamowitości”, (Uncanny Valley). W uproszczeniu, dopóki robot nie próbuje udawać człowieka, nie budzi dyskomfortu, ale jeśli robot zaczyna człowieka przypominać, ale np. jego ruchy wyglądają nie dość doskonale, jak u człowieka, to budzi odrazę, niepokój. Jeśli w jego głosie, mimice jest coś, co nie jest ludzkie, także budzi to odrazę. Okazuje się, że w przypadku części ludzi działa to nie tylko na robota, ale także na „sztuczną osobowość”. Jeżeli jestem np. ekstrawertykem, lubię bezpośrednią komunikację itd., to mogę dobrze przyjąć AI pozującą na człowieka w konwersacji. Jeżeli jednak wolę bardziej oficjalne interakcje albo jestem bardziej introwertyczny, taką niby-ludzką AI mogę oceniać jako mniej kompetentne i zwyczajnie odrzucić cały produkt. Tak nam wprost wychodzi z badań. Jest się wobec tego czym zajmować, aby zbudować najlepszy interfejs pomiędzy sztuczną inteligencją a człowiekiem.

Aby opuścić dolinę niesamowitości...

Trzeba dążyć do perfekcji w szczegółach.

Ilustracja zjawiska "doliny niesamowitości" (Uncanny Valley), przewidzianego przez Masahiro Moriego.

Ilustracja zjawiska "doliny niesamowitości" (Uncanny Valley), przewidzianego przez Masahiro Moriego.

I to jest już dzisiaj najważniejszy front pracy?

Dla osób zajmujących się fulltime pracą nad AI jeden z istotniejszych. Dla jednostki badawczej typu tej, jaką kieruję, jeszcze nie, w każdym razie pod względem konsumpcji czasu. Nie oszukujmy się, naszą codziennością jest wciąż sprawdzanie w praktyce, czy użytkownik umie zainstalować, uruchomić, skonfigurować aplikacje, czy są użyte odpowiednie kategoryzacje, słowa, czy aplikacja się dobrze dostosowuje do użytkownika i ogólnie wszystko, co szumnie ubiera się w hasła typu UX czy usability. Ale pryncypia są te same, czy się stawia e-sklep, czy AI: musi być to projekt oparty na zrozumieniu użytkownika. Dlatego jeśli mówimy o zmianie zakresu naszych interwencji w ciągu tych kilkunastu lat, należy pamiętać, że przede wszystkim zmienił się proces, tj. product managerowie kreujący innowacje przychodzą do badaczy z konceptem, makietą, a nie gotowym produktem, kiedy możliwe są tylko poprawki, obejścia, nakładki. Dawniej ergonomia czy UX były na końcu projektu, dzisiaj na początku. To zmiana nieodwracalna. Nikt już nie będzie robił inaczej.

Przejdźmy do przyszłości. Ukoronowaniem Twojego wystąpienia na Klubie CIO było przedstawienie koncepcji generowania ad hoc osobowości komunikacyjnych. Wyczuwanie nastrojów – podążanie za nastrojami klienta. Może więc przed nami aplikacje uzależniające? Człowiekowi często wychodziły lepiej złe rzeczy...

Zasmucę Cię. Jest gorzej: ludzie uzależniają się sami, z własnej woli. Najłatwiej uzależnić się od platform, które umożliwiają kontakt z innymi ludźmi – gry RPG, media społecznościowe. Ponad połowę czasu w grach sieciowych zajmują czynności niezwiązane z fabułą gry. Gracze czatują ze sobą, budują sobie domek niezwiązany z misją itd. Wykonują pracę, którą wykonywaliby w świecie rzeczywistym. Tęsknisz za wiadomościami od innych na FB, a nie za FB. Za lajkami pod Twoim ostatnim zdjęciem, a nie za platformą. Tam gdzie uwzględnia się innych ludzi, mechanizm przywiązania jest silniejszy. A ponieważ ludzie już i tak się sami uzależniają od poszczególnych platform, to zamiast przyciągać ich do AI działającego jako osobny program, trzeba zaimplementować AI tam, gdzie są użytkownicy. Najlepiej od razu w social media. Już są firmy budujące AI dla Messengera na FB, zresztą Orange też ma na koncie pilota z wykorzystaniem takiego silnika.

Miejscem inteligentnej interakcji technologii z człowiekiem mają być „smart houses”. Już 10 lat temu we France Telecom był taki testowy „inteligentny” dom. Światło, zapachy, muzyka, odgadywanie nastroju… Nie słyszałem, aby się to przyjęło...

Nie przyjęło się dlatego, że język tego dialogu z rzekomo inteligentnym otoczeniem był nieinteligentny. Czym różnił się od tego, że miałbym prosty pulpit z przyciskiem przy napisie „smutny”, „wesoły”, „zmęczony”, „randka”? To już lepiej, żeby ten inteligentny dom za moim pozwoleniem sczytywał dzisiejsze posty z mojego FB i na podstawie analizy semantycznej dostrajał się do mojego nastroju. Albo mierzył z urządzenia wearable puls. Albo z kamery emocje, jakie widać na mojej twarzy. Albo wszystko naraz i wyciągał wnioski. Przy okazji ostatnich wyborów w Stanach Zjednoczonych widzieliśmy, jaką siłę mają algorytmy profilujące użytkownika i dostarczające mu przeznaczoną dla niego treść. Tam dotyczyło to segmentacji, powiedzmy, społecznej – preferencji politycznych i innych, względnie stałych konstruktów. Ale to tylko kwestia algorytmu, żeby wnioskować w czasie niemal rzeczywistym, czyli tak, jak robimy podczas konwersacji ze znajomym. Wiemy, kim jest ogólnie, ale uwzględniamy też jego obecny nastrój i dostosowujemy nasz styl komunikacji. Inna sprawa, czy jeśli jestem w depresji, to powinienem jeszcze bardziej się w niej utwierdzać…? A program teoretycznie mógłby to zrobić. Nie obawiajmy się zatem aplikacji, ale tego, co ludzie mogą z nią robić.

Nie będziemy się jak u Lema posługiwać rozsądkiem, tylko wygodą. Wygoda i uprzedzenia rządzą w świecie technologii.

Siła aplikacji rośnie – ostatnio pokonany przez AI został mistrz go. O ile w szachach zwycięstwo nad człowiekiem nie było zaskoczeniem, zwyciężyła brutalna siła obliczeniowa, o tyle w go potrzeba mieć intuicję – tak mówili zawsze mistrzowie tej gry.

Ba, chwilę później AI wygrało z najlepszymi pokerzystami. Tam nie tylko trzeba mieć intuicję – trzeba blefować, zmieniać w locie styl zagrywki, żeby uniknąć przewidywalności, no i program nie mógł wnioskować z sygnałów niewerbalnych konkurentów. A wygrał. Tak, to daje do myślenia. Dotąd myśleliśmy, że np. intuicja istnieje jako mechanizm pozamatematyczny; okazuje się, że albo można ją zaprogramować dla określonych układów, albo intuicja nie jest tym, czym się nam wydawała. Intuicja jest być może heurystyką, którą także można opisać… A jeśli uda nam się zastąpić to, co do tej heurystyki wystarcza twardymi danymi, to wracamy do brute force i potęgi obliczeniowej dzisiejszych i jutrzejszych maszyn...

Idąc tym tropem, jeśli AI zastępuje i doświadczenie, i intuicję, i szybkość analizy, to może niedługo naszym CEO zostanie robot?

No tak, zawsze nam mówiono, że roboty przejmą pracę standardową, powtarzalną, najlepiej w ogóle manualną. Tymczasem algorytm AI rozwiązuje problemy decyzyjne, jest w stanie je porangować. Najwięcej decyzji jest na poziomie menedżerskim. Im wyżej, tym mają one większy ciężar gatunkowy, strategiczny i tym większą stanowią składową obowiązków. Paradoksalnie, najprościej zastąpić pracę wymagającą wyszukiwania informacji, proste przeszukiwanie danych i pracę najtrudniejszą, polegającą na podejmowaniu trafnych decyzji.

Która jest najlepiej płatna...

Najbezpieczniej jest więc pomiędzy poziomem najniższych oraz najwyższych kwalifikacji i odpowiedzialności – tych stanowisk na razie nie opłaca się zastępować. Opłaca się zastępować arcymistrza, a nie mistrza powiatowego… Mówiąc poważnie, to nie będzie Twój czy mój następny szef, bo jednak trzeba jeszcze umieć parę rzeczy, typu motywowania podwładnych czy networkingowania i myślenia „out of the box”. Chociaż jedna z chińskich gazet już zastąpiła cały zespół dziennikarski programem, który układa teksty wiadomości, więc kto wie? Jak nie ma podwładnych, to i szef nie musi robić nic więcej, niż podejmować tylko decyzje. Patrząc szerzej, sam pomysł wsparcia decyzji jest dobry – algorytmy znajdują zależności tam, gdzie my ich nie szukamy i nie będziemy szukać. Testować je i wykrywać będzie potężna maszyna. Może dla nas, ludzkich pracowników i menedżerów, nadchodzi era prawej półkuli – nie analityczna, ale czująca, kreatywna, emocjonalna, artystyczna. Może pozostałe miejsca pracy się kończą… Pozostaje jeszcze pytanie, czy systemy decyzyjne będą uszczęśliwiać nas w życiu. „Twój związek z Julią statystycznie jest skazany na porażkę. Czy nie rozważałeś umówienia się z Łucją – jej parametry rokują lepiej związkowi”...

Albo „mniej będziesz cierpiał przy rozstaniu”. A czy nie pojawi się ruch ludzi „nie korzystam z cyfrowego doradcy życiowego”?

To właśnie pytanie, czy będę ufał maszynie. Takie zadanie ma przecież każdy terapeuta – pozyskać zaufanie pacjenta, aby ujawnił problemy, o których nie mówi żonie, rodzicom czy księdzu, ba, o tym, że są, nie przyznaje przed sobą samym. A może wystarczy, że tylko wyrzuci emocje z siebie na pozornie gwarantujący anonimowość serwer… który jednak będzie dostępny dla domowej aplikacji AI, posiadającej zaszytą odpowiednią procedurę i uwzględniającej to w swoich podpowiedziach. I teraz wszystko zależy od mojej postawy: chcę, by mi pomagano w ten sposób, czy absolutnie tego nie chcę?

A co jest z wypłyceniem inteligencji – co przepowiadał Nicolas Carr w „The Shallows”? Czy my też się zmieniamy pod wpływem technologii?

Badania nad samą inteligencją na razie tego nie potwierdzają, nawet przeciwnie: średnia rosła przez ostatnie kilkadziesiąt lat. Natomiast pytanie, co z nią robimy. Jeżeli chodzi o nowe kompetencje, to mamy raczej czas nieciągłości – kiedyś dziadek mógł nauczyć wnuka niezbędnych do życia umiejętności; do niedawna wszystkiego mógł nas nauczyć ojciec; dziś starszemu bratu nie za bardzo udaje się przekazać najnowszą wiedzę bratu młodszemu. Niedługo „ja” z wczoraj nie będę mógł porozmawiać ze„sobą” z teraz. Inna sprawa, że coraz mniej ludzi umie wykonywać w pamięci nawet proste operacje rachunkowe. Być może za chwilę nie będzie potrzeby uczyć się języków. Ale za to nieprawdopodobnie rośnie liczba danych, które do nas docierają, a my je selekcjonujemy. W jednej gazecie jest więcej informacji, niż kilka pokoleń wcześniej docierało do ludzi przez całe życie. Ogromna część naszej atencji jest nakierowana na przetwarzanie tej masy danych, ale ponieważ to coraz bardziej niewykonalne, to musimy polegać na algorytmach.

Wróćmy do relacji człowiek – maszyna. Mówiłeś o języku naturalnym, żeby nie wpisywać go do tej relacji bez pragmatycznego scenariusza, bez uzasadnienia.

Naturalny dialog może wyglądać w różny sposób. Ja nie potrzebuję, aby robot rozumiał moje poczucie humoru. Komuś innemu może jednak na tym zależeć. Ba, już są i takie maszynki, które nakierowane są np. na wykrywanie ironii w postach na Facebooku. Za chwilę będą ironicznie odpowiadać. A jeszcze inny klient może bardziej liczyć na swoisty romans z komputerem, który ma głos Scarlett Johannson.

Ale po trzeciej kawie może mi się zachcieć czego innego.

Wracamy więc do tematu z początku: jednoosobowych nisz marketingowych. Chmurowych. Nie o to chodzi, aby to zaprogramować, stworzyć 50 wariantów komunikacji, ale nieskończoną pulę wariantów komunikacji.

Tylko na podstawie jakiej listy parametrów aplikacja ma wiedzieć, który wariant zastosować?

My się tego uczymy w rozmowie, czy mówić naturalnie, bardziej bezpośrednio, czy przeciwnie, starannie konstruować ugrzecznioną wypowiedź… Przy tej samej osobą zależnie od kontekstu potrafimy się zachować odpowiednio inaczej.

Jeżeli chodzi o nowe kompetencje, to mamy raczej czas nieciągłości – kiedyś dziadek mógł nauczyć wnuka niezbędnych do życia umiejętności; do niedawna wszystkiego mógł nas nauczyć ojciec; dziś starszemu bratu nie za bardzo udaje się przekazać najnowszą wiedzę bratu młodszemu. Niedługo „ja” z wczoraj nie będę mógł porozmawiać ze „sobą” z teraz.

I co ma zrobić biedna maszynka? Bo najgorsze jest to, że my nie wiemy, dlaczego zachowaliśmy się tak czy inaczej.

My tę decyzję podjęliśmy podświadomie. Na zbliżonym poziomie komunikacji bezpośredniej potrafimy to „uzgodnić”. Nie potrafimy tego nazwać, dlaczego? Większość ludzi odpowie na zbliżonym poziomie emocjonalnym, potrafi nadawać kierunek relacji, krok wyżej – podnosząc poziom otwartości, albo obniżyć go, sformalizować. Co więcej, jesteśmy w stanie to uzyskać niezależnie od kultury. Przecież w różnych kulturach podobne sygnały oznaczają co innego. Mogą być całkowicie różne interpretacje tego samego gestu czy zachowania.

Na wstępne zapoznanie się może to podświadome poznawanie się wystarczy. Ale przez dwie godziny rozmowy? Potrzebuję słownika sygnałów, żeby zrozumieć, że mój partner w rozmowie jest gotowy, aby przejść na nowy poziom relacji.

I nie są to zagadnienia półserio – taka firma jak moja pisze aplikację, z której mają korzystać miliony. A nie 10 osób, do których możesz dostosować na sztywno wzorzec zachowania. Z eksperymentów wynika, że nie warto narzucać kierunku relacji – można próbować podsuwać manierę mówienia, ale nie ma pewności, że się trafi. Łatwiej jest na razie „nawigować” za człowiekiem.

A jak wobec tego dopasować się do milenialsów, którym do komunikacji wystarcza mało tekstu? Materiału badawczego dramatycznie – w rozumieniu treści do analizy semantycznej – ubywa. Co badaczowi po ich emotikonach?

Może nie mniej treści, a więcej zabawy wieloznacznością? W świecie dominacji lewej półkuli rządziła logika. Ale w niektórych krajach azjatyckich zabawa wieloznacznością językową jest wpisana w kulturę: aby kogoś nie obrazić, nigdy nie mówimy pewnych rzeczy wprost. To powoduje, że obrazki i symbole, krótkie zwroty nienacechowane emocjonalnie stwarzają większe możliwości interpretacyjne i komunikacyjnie.

Przekładamy to na sytuację relacji człowiek – maszyna. Co ma zrobić maszyna, kiedy nie zrozumie reakcji człowieka?

Większość ludzi gaśnie w takiej sytuacji, jak nie ma techniki samomotywacji. Tego maszynie nie zabraknie, ale z kolei może nie mieć ona mechanizmów, aby być w takiej sytuacji skuteczna. Aby być maszyną cierpliwą, ale nie nachalną. Może człowiek po prostu nie chce w tej chwili nic mówić… My, jako ludzie, często cenimy osoby, które, jak to się mówi, umieją milczeć. Ale dla maszyny to może być kłopot, „znacząca cisza” może być mniej znacząca niż dla człowieka.

Użytkownik-introwertyk może polubić maszynę? Czy ona się o tym dowie?

Efektywność maszyny jest oceniana za zgodność ze stylem komunikacji odbiorcy, co znacząco podnosi ocenę jakości przekazywanej informacji. Chodzi o to, aby dać poczucie, że aplikacja jest mi potrzebna. Wyżej ocenię maszynę, która ma odpowiadający mi styl. Ba, dojdzie efekt aureoli – także ocena efektywności komunikacji pójdzie w górę lub w dół, aby uzasadnić moją sympatię bądź jej brak. Informacja była ta sama, styl trafiony lub nie – a ocena spolaryzowana. Znamy przecież to z życia: większość woli zapytać dyletanta, z którym dobrze się rozmawia, niż osobę kompetentną, ale „mruka”, niepasującego do nas stylem komunikacji. Górą jest niższa warstwa funkcjonalna, ale adekwatna warstwa komunikacji.

Straszna jest ta gra pozorów. To nie jest świat z Lema.

Nie będziemy się jak u Lema posługiwać rozsądkiem, tylko wygodą. Wygoda i uprzedzenia rządzą w świecie technologii.

Jednoosobowe nisze to przyszłość?

Technicznie to wyzwanie, ale coraz więcej na to wskazuje, że nie do uniknięcia. Znany jest przypadek sieci Target, która wysłała wyprawkę dla noworodka do 16-letniej dziewczyny. Na podstawie jej zachowań zakupowych algorytm zakwalifikował ją jako ciężarną. Ona nie wiedziała, że jest w ciąży, jej rodzice nie wiedzieli – i nawet obruszeni protestowali – a Target swoje wiedział. Target knows before it shows. Znaleźli rozwiązanie, które pasuje – probabilistyka determinizmu. Może to oznacza nowy standard?