ChatGPT powsta� na ludzkim cierpieniu? "To by�y tortury". Tajemnica wysz�a na jaw

ChatGPT mo�e by� odpowiedzialny za traumy pracuj�cych przy nim Kenijczyk�w. Zostali oni zatrudnieni do moderacji tre�ci pobieranych przez algorytm, kt�ry nie rozr�nia�, co jest dobre, a co z�e. Byli wi�c nara�eni na bardzo przemocowe sceny, kt�re odcisn�y si� na ich psychice. Ponadto zarabiali za to nie wi�cej ni� 2 dolary za godzin�.

Od początku roku furorę robi ChatGPT od Open AI. Algorytmy sztucznej inteligencji, na której bazuje program, dają możliwości rozmowy z nim jak z człowiekiem. Śledztwo dziennikarzy magazynu "Time" rzuca jednak na tę platformę zupełnie nowe światło.  

Zobacz wideo VR-em można leczyć, ale też wykorzystać do tortur. A wirtualna rzeczywistość wchodzi do mainstreamu

ChatGPT miał problem z przemocą

Swoją popularność ChatGPT zawdzięcza m.in. bardzo dużej bazie danych, które pobrał z internetu i na podstawie których odpowiada użytkownikom systemu. "Time" opisuje jednak, że na samym początku tworzenia Chatbota jego twórcy mieli problem z przemocowymi, seksistowskim i rasistowskimi treściami, które również pozyskał z internetu. Nawet z jego najmroczniejszych zakątków. Algorytm nie odróżniał tego, co jest "dobra a co złe". Potrzebni byli do tego ludzie.  

Z tego powodu OpenAI wynajęło firmę outsourcingową Sama w Kenii do moderacji treści pobranych przez algorytm. Zadaniem jej pracowników było ich ręczne przejrzenie i selekcjonowanie. "Time" opisuje, że musieli czytać m.in. drastyczne opisy nadużyć seksualnych wobec dzieci, gwałtów, morderstw, samobójstw, tortur i kazirodztwa.  

ChatGPT powstał na cierpieniu? 

Anonimowy pracownik firmy, który zajmował się moderacją, przyznał w rozmowie z "Time'em", że praca wykończyła go psychicznie. Opowiada, że wciąż nie może uwolnić się od obrazka aktu zoofilskiego z psem w obecności dziecka. - To były tortury - mówi. Co więcej, według informacji "Time'a" pracownicy mogli skorzystać z jedynie grupowego wsparcia psychicznego, choć Sama utrzymuje, że mogli oni skorzystać także z porad indywidualnych.  

Więcej informacji z Polski przeczytasz na stronie głównej Gazeta.pl

Traumatyczne doświadczenia pracowników firmy Sama doprowadziły do skrócenia przez nią kontraktu z OpenAI i zakończenia go osiem miesięcy przed czasem.  

Pracownicy w Kenii zarabiali grosze

Pracujący przy Chatbocie nie tylko byli narażeni na doświadczenia traumatyczne, ale również mieli nieludzko niską pensję, zwłaszcza w obliczu konsekwencji psychicznych jakie pociągała za sobą. W zależności od doświadczenia i produktywności zarabiali od 1,3 dolara do 2 dolarów za godzinę. 

"Time" opisuje, że swoim śledztwem zdradza "najlepiej strzeżone tajemnice firmy". Mowa nie tylko o tragicznych warunkach pracy, ale również przyznaniu się, że opracowany algorytm nie był doskonały i wymagał ludzkiej moderacji. OpenAI przyznało się bowiem do korzystania z usług Samy.

Wi�cej o: