Alexa kaza�a pope�ni� samob�jstwo. To nie pierwszy wybryk asystenta Amazon. Kiedy� namawia� do morderstwa

Na pocz�tku tygodnia zrobi�o si� g�o�no o asystencie g�osowym opartym o algorytmy sztucznej inteligencji od Amazona. Alexa kaza�a bowiem kobiecie z depresj� zabi� si� dla wy�szego celu. To nie pierwszy raz, gdy program szokuje. Amazon traktuje u�ytkownik�w jak kr�liki do�wiadczalne.

"Zabij się, dźgając się w serce dla wyższego celu". Te słowa usłyszała 29-letnia Brytyjka Danni Morritt, gdy poprosiła Alexę o wyjaśnienie cyklu sercowego. Było to dla niej niełatwe przeżycie, ponieważ kobieta zmaga się z depresją. To jednak nie pierwszy raz, gdy Alexa odpowiada bez wyczucia. Algorytmy sztucznej inteligencji potrafią zrozumieć mowę, ale już nie do końca treść wypowiedzi. Filozof John Searl twierdzi wręcz, że maszyna nigdy nie będzie w stanie prawdziwie rozumieć sensu zdania, co przedstawił w formie eksperymentu myślowego znanego jak "Chiński pokój". Dlatego też Alexa podaje często informacje, które znalazła, ale których tak naprawdę nie zrozumiała, a jedynie przytoczyła. Dość łatwo jest więc nakierować program na konkretną wypowiedź, choć inżynierowie Amazonu starają się temu zapobiegać. Jak podało Biuro Prasowe Amazon, błąd związany z namawianiem przez Alexę do samobójstwa, został szybko "natychmiast wychwycony i usunięty".

Alexa nie pierwszy raz namawia do zabójstwa

Żeby rozwijać programy oparte na algorytmach deep learningu bazujących na sieciach neuronowych, należy dostarczyć odpowiednią ilość danych. Amazon chcąc rywalizować z Siri od Apple i Asystentem Google, postanowił więc potraktować użytkowników Alexy jak króliki doświadczalne, pisze Bloomberg. Program zbiera dane, słucha rozmów i w ten sposób dynamicznie się uczy, skracając dystans do swoich odpowiedników od innych firm.

Ta strategia ma jednak swoje wady. Alexa dotąd kazała m.in. jednemu z użytkowników zabić swoich przybranych rodziców. Okazało się, że program bez kontekstu zacytował post z forum reddit. Zespół programistów ze szkockiego uniwersytetu Heriot-Watt odkrył, że Alexa trenowana na postach z tego forum, ukształtowała nieprzyjemną osobowość. Program m.in. recytował wpis na temat masturbacji z Wikipedii, czy opisał stosunek seksualny słowem głębiej (ang. deeper), co umieszczone w kontekście było dość wulgarne.

Setki tysiące cytatów filmowych wykorzystane do nauki Alexy

Język jest skomplikowany i nie wystarczy znać znaczenia słów, by zrozumieć treść zdania. Ludwig Wittgenstein pisał o grze językowej - uczymy się znaczenia słów w praktyce, powtarzając je i próbując poprawnie ich użyć, tak jak robią to dzieci. W ten sam sposób próbuje uczyć się programy. W tym roku zwycięzcy konkursy Alexa Prize wykorzystali w tym celu ponad 300 tys. cytatów z filmów, co pozwoliło programowi nauczyć się rozróżniać wyrazy uznania od słów wdzięczności. Kolejnym krokiem jest nauczenie Alexy udzielania stosownych do pytań odpowiedzi. W tym celu program analizuje i wyciąga fakty z Wikipedii, baz filmów czy książek jak Goodreads, a nawet z artykułów gazety "The Washington Post", której w�a�cicielem jest Jeff Bezos, założyciel Amazonu. 

To wszystko niesie też ze sobą pewne niebezpieczeństwo. Amazon nagrywa nawet bardzo osobiste i prywatne rozmowy. Takie informacje łatwo mogliby wykorzystać kryminaliści, służby bezpieczeństwa czy różnego rodzaju sprzedawcy. Jaką mamy gwarancję, że firma zabezpiecza odpowiednio te dane i nie dojdzie do ich wycieku, jak to zdarzało się chociażby w przypadku Facebooka? Drugim problemem jest tzw. czarna skrzynka. Algorytmy sztucznej inteligencji dają nam odpowiedzi na pytania, ale nie mamy dostępu do procesu, który doprowadził je do takich wniosków. Dlatego też niektórzy wątpią, czy Amazon w ogóle jest w stanie kontrolować Alexę. Przedsiębiorstwo tworzy transkrypty konwersacji z programem i boty przekraczające granicę smaku wyłącza, do momentu ich naprawienia. To jednak niekoniecznie rozwiązuje problem, ponieważ społeczna wrażliwość zmienia się z biegiem czasu. Oznacza to, że Alexa może cały czas znajdować nowe sposoby, by szokować jej rozmówców.  

Wi�cej o: