Od początku roku furorę robi ChatGPT od Open AI. Algorytmy sztucznej inteligencji, na której bazuje program, dają możliwości rozmowy z nim jak z człowiekiem. Śledztwo dziennikarzy magazynu "Time" rzuca jednak na tę platformę zupełnie nowe światło.
Swoją popularność ChatGPT zawdzięcza m.in. bardzo dużej bazie danych, które pobrał z internetu i na podstawie których odpowiada użytkownikom systemu. "Time" opisuje jednak, że na samym początku tworzenia Chatbota jego twórcy mieli problem z przemocowymi, seksistowskim i rasistowskimi treściami, które również pozyskał z internetu. Nawet z jego najmroczniejszych zakątków. Algorytm nie odróżniał tego, co jest "dobra a co złe". Potrzebni byli do tego ludzie.
Z tego powodu OpenAI wynajęło firmę outsourcingową Sama w Kenii do moderacji treści pobranych przez algorytm. Zadaniem jej pracowników było ich ręczne przejrzenie i selekcjonowanie. "Time" opisuje, że musieli czytać m.in. drastyczne opisy nadużyć seksualnych wobec dzieci, gwałtów, morderstw, samobójstw, tortur i kazirodztwa.
Anonimowy pracownik firmy, który zajmował się moderacją, przyznał w rozmowie z "Time'em", że praca wykończyła go psychicznie. Opowiada, że wciąż nie może uwolnić się od obrazka aktu zoofilskiego z psem w obecności dziecka. - To były tortury - mówi. Co więcej, według informacji "Time'a" pracownicy mogli skorzystać z jedynie grupowego wsparcia psychicznego, choć Sama utrzymuje, że mogli oni skorzystać także z porad indywidualnych.
Więcej informacji z Polski przeczytasz na stronie głównej Gazeta.pl
Traumatyczne doświadczenia pracowników firmy Sama doprowadziły do skrócenia przez nią kontraktu z OpenAI i zakończenia go osiem miesięcy przed czasem.
Pracujący przy Chatbocie nie tylko byli narażeni na doświadczenia traumatyczne, ale również mieli nieludzko niską pensję, zwłaszcza w obliczu konsekwencji psychicznych jakie pociągała za sobą. W zależności od doświadczenia i produktywności zarabiali od 1,3 dolara do 2 dolarów za godzinę.
"Time" opisuje, że swoim śledztwem zdradza "najlepiej strzeżone tajemnice firmy". Mowa nie tylko o tragicznych warunkach pracy, ale również przyznaniu się, że opracowany algorytm nie był doskonały i wymagał ludzkiej moderacji. OpenAI przyznało się bowiem do korzystania z usług Samy.