„Deadboty” mogą mówić w Twoim imieniu po Twojej śmierci. Czy to etyczne?

Sara Suárez-Gonzalo

„Deadboty” mogą mówić w Twoim imieniu po Twojej śmierci. Czy to etyczne?

Systemy uczenia maszynowego coraz częściej wkraczają w nasze codzienne życie, kwestionując nasze wartości moralne i społeczne oraz zasady, które nimi rządzą. Obecnie wirtualni asystenci zagrażają prywatności w domu; programy rekomendujące wiadomości kształtują sposób, w jaki rozumiemy świat; systemy przewidywania ryzyka podpowiadają pracownikom socjalnym, które dzieci należy chronić przed krzywdzeniem; natomiast narzędzia do rekrutacji oparte na danych oceniają również szanse na zdobycie pracy. Jednak dla wielu osób etyka uczenia maszynowego pozostaje niejasna.

Szukając artykułów na ten temat dla młodych inżynierów uczestniczących w kursie Ethics and Information and Communications Technology na UCLouvain w Belgii, szczególnie uderzył mnie przypadek Joshuy Barbeau, 33-letniego mężczyzny, który wykorzystał stronę internetową o nazwie Project December do stworzenia robota konwersacyjnego – chatbota – który symulowałby rozmowę z jego zmarłą narzeczoną, Jessicą.

Roboty konwersacyjne naśladujące zmarłych ludzi

Ten typ chatbota, znany jako „deadbot”, pozwalał Barbeau na wymianę wiadomości tekstowych ze sztuczną „Jessicą”. Pomimo kontrowersyjnego etycznie charakteru tej sprawy, rzadko spotykałam się z materiałami, które wykraczały poza aspekt faktograficzny i analizowały sprawę przez wyraźny pryzmat normatywny: dlaczego stworzenie „deadbota” byłoby słuszne lub niesłuszne, etycznie pożądane lub naganne?

Zanim zmierzymy się z tymi pytaniami, przedstawmy sytuację w odpowiednim kontekście: Projekt December został stworzony przez twórcę gier Jasona Rohrera, aby umożliwić ludziom dostosowywanie chatbotów do osobowości, z którymi chcieliby wchodzić w interakcje, pod warunkiem, że za to zapłacą. Projekt został zbudowany w oparciu o API GPT-3, model języka generującego tekst, stworzonego przez firmę OpenAI, zajmującą się badaniami nad sztuczną inteligencją. Sprawa Barbeau wywołała rozdźwięk między Rohrerem a OpenAI, ponieważ wytyczne tej firmy wyraźnie zabraniają wykorzystywania GPT-3 do celów seksualnych, miłosnych, autodestrukcji i zastraszania.

Nazywając stanowisko OpenAI hipermoralistycznym i argumentując, że ludzie tacy jak Barbeau są „dorosłymi, którzy wyrazili na to zgodę”, Rohrer zamknął wersję GPT-3 Projektu December.

Choć wszyscy możemy mieć intuicyjne podejście co do tego, czy tworzenie uczącego się maszynowo „deadbota” jest słuszne czy nie, to określenie jego implikacji nie jest łatwym zadaniem. Dlatego ważne jest, aby krok po kroku zająć się kwestiami etycznymi, które pojawiły się w tym przypadku.

Czy zgoda Barbeau jest wystarczająca, aby stworzyć „deadbota” Jessiki?

Skoro Jessica była prawdziwą (choć martwą) osobą, zgoda Barbeau na stworzenie naśladującego ją „deadbota” wydaje się niewystarczająca. Nawet po śmierci ludzie nie są zwykłymi rzeczami, z którymi inni mogą zrobić, co im się podoba. Dlatego właśnie nasze społeczeństwa uważają za złe bezczeszczenie lub brak szacunku dla pamięci zmarłych. Innymi słowy, mamy pewne moralne zobowiązania wobec zmarłych, a śmierć nie musi oznaczać, że ludzie przestają istnieć w sposób moralnie istotny.

Podobnie otwarta jest dyskusja, czy powinniśmy chronić podstawowe prawa zmarłych (np. prywatność i dane osobowe). Stworzenie „deadbota” replikującego czyjąś osobowość wymaga ogromnych ilości danych osobowych, takich jak dane z sieci społecznościowych (patrz propozycja Microsoftu czy Eternime), które okazały się ujawniać bardzo wrażliwe cechy.

Jeśli zgodzimy się, że wykorzystywanie danych ludzi bez ich zgody za ich życia jest nieetyczne, dlaczego miałoby być etyczne robienie tego po ich śmierci? W tym sensie, przy tworzeniu „deadbota” rozsądne wydaje się zapytanie o zgodę osoby, której osobowość jest odzwierciedlana – w tym przypadku Jessiki.

Gdy osoba naśladowana daje zielone światło

Zatem drugie pytanie brzmi: czy zgoda Jessiki wystarczyłaby, aby uznać stworzenie jej „deadbota” za etyczne? Co by się stało, gdyby jej pamięć uległa degradacji?

Granice zgody są w istocie kwestią kontrowersyjną. Weźmy jako przykład „kanibala z Rotenburga„, który został skazany na dożywocie, mimo że jego ofiara zgodziła się na zjedzenie. W tym kontekście argumentuje się, że nieetyczne jest wyrażanie zgody na rzeczy, które mogą nam zaszkodzić, czy to w sensie fizycznym (sprzedaż własnych organów życiowych), czy abstrakcyjnym (alienacja własnych praw).

To, pod jakimi konkretnie względami coś może być szkodliwe dla zmarłych, jest zagadnieniem szczególnie złożonym, którego nie będę w całości analizowała. Warto jednak zauważyć, że nawet jeśli zmarłych nie można skrzywdzić lub obrazić w taki sam sposób jak żywych, nie oznacza to, że są oni niewrażliwi na złe działania, ani że są one etyczne. Zmarli mogą doznać uszczerbku na honorze, reputacji lub godności (na przykład w wyniku pośmiertnych kampanii oszczerstw), a brak szacunku wobec zmarłych szkodzi także ich bliskim. Co więcej, złe traktowanie zmarłych prowadzi do tego, że społeczeństwo staje się bardziej niesprawiedliwe i mniej szanuje godność ludzi.

Wreszcie, biorąc pod uwagę plastyczność i nieprzewidywalność systemów uczenia maszynowego, istnieje ryzyko, że zgoda wyrażona przez osobę naśladowaną (za życia) nie oznacza nic więcej niż tylko sprawdzenie in blanco jej potencjalnych ścieżek.

Biorąc to wszystko pod uwagę, rozsądnym wydaje się wniosek, że jeśli rozwój lub wykorzystanie „deadbota” nie odpowiada temu, na co zgodziła się naśladowana osoba, jej zgodę należy uznać za nieważną. Co więcej, jeśli wyraźnie i celowo narusza godność tej osoby, nawet jej zgoda nie powinna wystarczyć, by uznać to za etyczne.

Kto ponosi odpowiedzialność?

Trzecią kwestią jest to, czy systemy sztucznej inteligencji powinny dążyć do naśladowania jakichkolwiek zachowań ludzkich (niezależnie od tego, czy jest to możliwe).

Jest to problem od dawna obecny w dziedzinie AI i ściśle związany ze sporem między Rohrerem, a OpenAI. Czy powinniśmy tworzyć sztuczne systemy zdolne np. do troski o innych lub podejmowania decyzji politycznych? Wydaje się, że w tych umiejętnościach jest coś, co odróżnia człowieka od innych zwierząt i od maszyn. Dlatego należy zauważyć, że instrumentalizacja AI w celu osiągnięcia rozwiązań technologicznych, takich jak zastępowanie bliskich, może prowadzić do dewaluacji tego, co charakteryzuje nas jako istoty ludzkie.

Czwarte pytanie etyczne dotyczy tego, kto ponosi odpowiedzialność za rezultaty działania „deadbota” – zwłaszcza w przypadku szkodliwych skutków.

Wyobraźmy sobie, że „deadbot” Jessiki autonomicznie nauczył się działać w sposób, który znieważa jej pamięć lub nieodwracalnie niszczy zdrowie psychiczne Barbeau. Kto wziąłby za to odpowiedzialność? Eksperci od sztucznej inteligencji odpowiadają na to śliskie pytanie, stosując dwa główne podejścia: po pierwsze, odpowiedzialność spada na osoby zaangażowane w projektowanie i rozwój systemu, o ile robią to zgodnie ze swoimi partykularnymi interesami i światopoglądami; po drugie, systemy uczenia maszynowego są zależne od kontekstu, więc moralna odpowiedzialność za ich wyniki powinna być rozłożona na wszystkie podmioty wchodzące z nimi w interakcję.

Ja opowiadam się bliżej pierwszego stanowiska. W tym przypadku, jako że mamy do czynienia z wyraźnym współtworzeniem „deadbota”, w które zaangażowani są OpenAI, Jason Rohrer i Joshua Barbeau, uważam za logiczne przeanalizowanie poziomu odpowiedzialności każdej ze stron.

Po pierwsze, trudno byłoby obarczać odpowiedzialnością OpenAI, skoro wyraźnie zabronili oni wykorzystywania swojego systemu do celów seksualnych, miłosnych, autodestrukcji czy znęcania się.

Rozsądne wydaje się przypisanie Rohrerowi znacznego poziomu odpowiedzialności moralnej, ponieważ:

  1. jawnie zaprojektował system, który umożliwił stworzenie „deadbota”;
  2. zrobił to, nie przewidując środków zapobiegających potencjalnym negatywnym skutkom;
  3. był świadomy, że nie przestrzega wytycznych OpenAI;
  4. czerpał z tego korzyści.

A ponieważ Barbeau dostosował „deadbota” do indywidualnych potrzeb, wykorzystując szczególne cechy Jessiki, uzasadnione wydaje się uznanie go za współodpowiedzialnego za degradację pamięci o niej.

Etyczny, pod pewnymi warunkami

Tak więc, wracając do pierwszego, ogólnego pytania, czy etyczne jest tworzenie uczącego się maszynowo „deadbota”, moglibyśmy udzielić odpowiedzi twierdzącej pod warunkiem, że:

  • zarówno osoba naśladowana, jak i osoba dostosowująca system do swoich potrzeb i wchodząca z nim w interakcję wyraziły dobrowolną zgodę na możliwie szczegółowy opis projektu, rozwoju i zastosowań systemu;
  • zabronione jest rozwijanie i wykorzystywanie systemu w sposób niezgodny z tym, na co zgodziła się osoba naśladowana lub w sposób naruszający jej godność;
  • osoby zaangażowane w rozwój systemu i czerpiące z niego zyski ponoszą odpowiedzialność za jego potencjalne negatywne skutki. Zarówno retrospektywnie, aby rozliczyć się z wydarzeń, które miały miejsce, jak i prospektywnie, aby aktywnie zapobiegać ich wystąpieniu w przyszłości.

Ten przypadek jest przykładem tego, dlaczego etyka uczenia maszynowego ma znaczenie. Pokazuje również, dlaczego konieczne jest otwarcie debaty publicznej, która może lepiej informować obywateli i pomóc nam w opracowaniu środków politycznych, dzięki którym systemy sztucznej inteligencji będą bardziej otwarte, społecznie sprawiedliwe i zgodne z prawami podstawowymi.

Sara Suárez-Gonzalo
Doktor nauk humanistycznych w zakresie komunikacji (Universitat Pompeu Fabra). Juan de la Cierva w grupie badawczej Communication Networks and Social Change w Internet Interdisciplinary Institute (Universitat Oberta de Catalunya), stypendystka w Chaire Hoover d’éthique économique et sociale (ISP, UCLouvain).

Jej badania koncentrują się na społecznych i politycznych konsekwencjach technologii opartych na danych, ze szczególnym uwzględnieniem ich wpływu na demokrację, sprawiedliwość społeczną i prawa podstawowe. Poza pracą naukową posiada doświadczenie zawodowe w zakresie audytu algorytmicznego i doradztwa w zakresie cyfrowej polityki publicznej.

clear clear
Type at least 1 character to search
clear clear
Słuchaj
Obserwuj