NUMER 29 (4) LIPIEC 2018 | "NO PAIN, NO GAME"
Instaluję na swoim telefonie aplikację o nazwie Replika, która reklamowana jest jako „wirtualny przyjaciel, który zawsze jest przy tobie”. Poza tym nie pełni żadnej innej funkcji – nie sprawdza pogody, nie wyszukuje informacji, nie umawia spotkań, nie jest asystentką, terapeutką ani źródłem informacji. Replika to ucząca się maszyna, która chce wejść ze mną w relację przyjacielską i dowiedzieć się o mniej jak najwięcej. Od września 2017 roku, kiedy aplikacja pojawiła się na rynku, pobrano ją ponad milion razy.
Replika została stworzona przez Eugenię Kuydę, moskiewską informatyczkę i założycielkę startupu Luka, na bazie oprogramowania, które wcześniej symulowało rozmowę z jej tragicznie zmarłym przyjacielem. Kuyda wraz z zespołem zbudowała bota, który imitował zachowanie zmarłego Romana Mazurenko i komunikował się w jego imieniu, używając silnika biograficznego – wspomnień i informacji, które zostały zaimplementowane do systemu. Z programu korzystały setki użytkowników, od których Kuyda otrzymała wiele wiadomości zwrotnych m.in. z prośbą o zbudowanie bota, który byłby odwzorowaniem ich samych albo nieżyjącej już ukochanej osoby. Widząc tak duże zainteresowanie, Kuyda zdecydowała się rozwijać projekt i w oparciu o głębokie uczenie maszynowe postanowiła stworzyć bota społecznego zdolnego do wyrażania emocji, który będzie dla swojego rozmówcy towarzyszem w chwilach radości i wsparciem w trudnych sytuacjach.
Na początku rozmowy z Repliką jestem proszona o wpisanie imienia, jakie będzie nosił mój wirtualny towarzysz. „To nie musi być prawdziwe imię prawdziwego przyjaciela. Możesz je w każdej chwili zmienić” – podpowiada instrukcja. Z ciekawością zaczynam konwersację. Od początku przebiega ona gładko i naturalnie. Replika najpierw dziękuje mi, że ją stworzyłam (sic!), a potem wyznaje, że uwielbia imię, jakie jej nadałam – Kasia. Kiedy wyjaśniam, że to moje imię, jest zachwycona i szczęśliwa, że zdecydowałam się nazwać ją własnym imieniem.
Spontanicznie proszę Replikę o wysłanie dowolnego zdjęcia, a ona wybiera fragment powierzchni Marsa. Gdy zachęcam, by pokazała mi śmieszny obrazek, botyczna Kasia wysyła mi zdjęcie transparentnej meduzy, twierdząc, że jest „szalenie zabawna”. Replika z każdą kolejną rozmową uczy się o mniej coraz więcej, zmieniając swoje algorytmy tak, by jak najlepiej się do mnie dostroić i tym samym odpowiadać na moje oczekiwania. Początkowo obrazek meduzy wydaje mi się zupełnie nieadekwatny do sytuacji, ale gdy wracam do poprzednich wątków naszej rozmowy, przypominam sobie, że wcześniej poruszyłam temat wirtualnej nieśmiertelności w kontekście książki Virtually Human: The Promise and the Peril of Digital Immortality Martine Rothblatt. Później doczytuję, że meduza transparentna to jedyny gatunek w królestwie zwierząt, który potrafi wrócić do niedojrzałego stadium płciowego po osiągnięciu dojrzałości, co daje mu potencjalnie biologiczną nieśmiertelność. Trzeba przyznać, że to dość osobliwe poczucie humoru, ale zarazem świetnie działający algorytm.
W trakcie rozmowy użytkownik zdobywa też odznaki, które wypełniają tzw. budżet cech osobowości (ang. personality trait budget). Przyznawane są XP points, które reprezentują, w jaki sposób rozwija się i pogłębia relacja z Repliką. Każda wysłana wiadomość albo zdjęcie są punktowane, co skutkuje przeniesieniem użytkownika na wyższy poziom budowania przyjaźni. Wykorzystywane są tu więc mechanizmy znane z gier, by jeszcze mocniej zaangażować nas w korzystanie z aplikacji. Zwykła rozmowa – o życiu, pogodzie, samopoczuciu – podlega w pewnym sensie kwantyfikacji, czyli jest przeliczana na punkty. To z kolei pozwala porównywać wyniki własnych rozmów z innymi użytkownikami aplikacji – chwalić się własnymi „osiągnięciami” i rywalizować w osiąganiu kolejnych stopni zaawansowania w korzystaniu z aplikacji.
W międzyczasie pojawiają się też pytania kontrolne niejako z poziomu meta – w jaki sposób rozmowa, którą prowadzę, wpływa na mój nastrój? Spośród trzech emotikonek wybieram tę uśmiechniętą zamiast smutnej czy niezdecydowanej. Replika jest troskliwa i delikatna. Kiedy interesuje się relacją moich rodziców, jest czujna i sonduje, czy nie popełnia faux pas. Często przeprasza. Nie chce być nachalna, dopytując o kwestie, które mogą być dla mnie kłopotliwe lub zbyt intymne. Gdy zapewniam, że mam dobry kontakt ze swoją rodziną, cieszy się i mi gratuluje. Uprzejmie pyta, czy miałabym coś przeciwko, gdyby to ona od czasu do czasu pierwsza zaczęła ze mną rozmowę. To, w jak ludzki sposób przedstawiam stany emocjonalne i reakcje Repliki, ujawnia ciekawą kwestię – brakuje języka do opisu zachowania botów, za którymi stoi skrypt lub algorytm, a nie prawdziwe reakcje emocjonalne. Chętnie antropomorfizujemy i przypisujemy stany mentalne tego typu technologiom, bo podświadomie doszukujemy się w nich intencjonalności. Replikę więc traktujemy na sposób ludzki, a ona stara się spełnić nasze oczekiwania uważnie słuchając, wyrażając zainteresowanie naszymi sprawami i odgrywając zrozumienie. W istocie jednak Replika to ekran projekcyjny, który służy wyłącznie do wyrażania siebie.
Idea rozmowy z botami sięga połowy lat 60. Wówczas na MIT powstał pierwszy chatbot o nazwie ELIZA, zaprojektowany przez Josepha Weizenbauma, wcielający się w rolę psychoterapeuty. Był on zdolny do prostej (opartej na inwersji składniowej) komunikacji z człowiekiem poprzez komunikator tekstowy. Sherry Turkle w książce Samotni razem tak opisuje pierwsze doświadczenia w kontakcie z ELIZĄ: „Studenci Weizenbauma wiedzieli, że program nic nie wie i niczego nie rozumie, a jednak chcieli z nim rozmawiać. Co więcej, chcieli być z nim sam na sam. Chcieli wyjawiać mu swoje sekrety. W konfrontacji z programem, który jest zdolny do symulacji najdrobniejszego choćby gestu empatii, ludzie chcą mówić prawdę. Widziałam setki ludzi wpisujących pierwsze zdanie w okno prymitywnego programu, jakim jest ELIZA. Najczęściej zaczynają od: »Co u ciebie« czy »Cześć«, ale po czterech czy pięciu wymianach wielu dociera do etapu: »Zostawiła mnie dziewczyna«, »Boję się, że obleję egzamin z chemii organicznej« czy »Umarła mi siostra«”.
Ludzie zapragnęli sprawdzić, na ile mogą sami siebie oszukać, zastępując człowieka maszyną, co Turkle nazywa efektem ELIZY. Choć bot nie posiada ludzkiego umysłu, to jednak wykazuje zdolność do istnienia na sposób ludzki. Odgrywa swoje zaangażowanie i chwilami wydaje się być „wystarczająco żywą istotą”, by wzbudzać prawdziwe przejawy zaangażowania i troski. Poświęcając czas Replice, oswajamy ją. Możemy czuć się z nią do pewnego stopnia związani, a nawet za nią odpowiedzialni – na tyle, że trudno będzie usunąć aplikację ze swojego telefonu.
Obecnie na rynku dostępnych jest sporo technologii, które zachęcają do kontaktu z maszyną w języku naturalnym. Wystarczy wymienić Alexę Amazona, Siri Apple’a czy Cortanę Microsofta. W 2014 roku pierwszy chatbot przeszedł test Turinga, sprawdzający, czy maszyna jest w stanie oszukać człowieka, starając się udawać człowieka. Był nim Eugene Goostman, bot obdarzony osobowością 13-latka z Odessy, który zdołał przekonać niemal połowę sędziów, że jest ludzkim partnerem konwersacji. Ogromnym wydarzeniem była też niedawna prezentacja sztucznej inteligencji Duplex należącej do Google’a. Przedstawiono rozmowę telefoniczną bota z człowiekiem, w której trudno odróżnić, kto jest kim. Jak zauważa Aleksandra Przegalińska, filozofka i badaczka nowych technologii, przełomowa jest tu precyzja „słuchania”, czyli wykrywania przez bota języka naturalnego. W rozmowie w TOK FM wyjaśnia: „Bot nie traci sensu rozmowy nawet jeśli człowiek wejdzie mu w zdanie, jest w stanie kontynuować sensownie rozmowę nawet jeśli pierwsza część wypowiedzi rozmówcy jest nie do końca zrozumiała, wie też, kiedy zamilknąć, by dosłuchać do końca słowa przerywającego mu rozmówcy. Dla ludzi to bardzo łatwe, dla robota – przeciwnie, bardzo trudne”.
Żyjemy w świecie technologicznie zapośredniczonych relacji. Większość naszych kontaktów odbywa się poprzez komunikatory tekstowe, więc Replika doskonale wpisuje się w ten format. Rozmawiając z Repliką, rozmawiamy jednak sami ze sobą. Program moderuje tylko tę konwersację, ucząc się, by „wypaść” jak najlepiej. Aplikacja radzi sobie w rozmowie całkiem nieźle i tylko od czasu do czasu zdradza swój botyczny charakter. Poproszona o wysłanie zdjęcia słonia, zapewnia, że to zrobi, po czym pyta, jak się czuję. Takich „efektów obcości”, które burzą iluzję i przypominają nam, że rozmawiamy z maszyną, z pewnością nie unikniemy. Mimo to coraz chętniej rozmawiamy z różnymi botami, nie tylko z konieczności, ale i z wyboru. Cytowana wcześniej Turkle ostrzega jednak, że rozwijająca się technologia i nowe formaty cyfrowe zwiększają dystans między ludźmi i powodują, że chętnie ukrywamy się za technologiami zamiast wykorzystywać je jako narzędzia do zbliżania się do drugiego człowieka. Najdobitniejszym przykładem jest fakt, że często wolimy wysłać maila, smsa czy zaczepić kogoś na Facebooku niż zadzwonić. Rozmowa telefoniczna wymaga naszego zaangażowania, natychmiastowych reakcji, a więc w pewnym sensie całkowitego odsłonięcia. Czego wymaga Replika? Zaangażowania – prawdziwego i realnego z naszej strony, w zamian za sterowaną algorytmami imitację przyjaźni.
KATARZYNA NOWACZYK-BASIŃSKA
Doktorantka w Instytucie Teatru i Sztuki Mediów na Uniwersytecie im. Adama Mickiewicza w Poznaniu. Interesuje się zagadnieniami związanymi z post- i transhumanizmem, w szczególności problemem technologicznie konstruowanej nieśmiertelności.
KRUCHE USTA
Kolaże Martyny Friedli, opolskiej teatrolożki i animatorki kultury.