PI-doomerzy "odpi�li wrotki". Strasz� �wiat apokalips� AI. "Spodziewamy si� najgorszego"

Daniel Maikowski
- PI-doomerzy "odpi�li wrotki". Strasz� wizjami rodem z film�w sci-fi. A po drodze umyka nam realne zagro�enie zwi�zane z AI - wyja�nia prof. Aleksandra Przegali�ska filozofka, badaczka rozwoju nowych technologii oraz jedna z prelegentek na konferencji Infoshare '24, kt�ra w dniach 22-23 maja odbywa si� w Gda�sku.

Daniel Maikowski: Hasło "rewolucja AI" stało się w ostatnich miesiącach wyjątkowo popularne. Nie tylko w Google Trends. Jest to rewolucja? 

prof. Aleksandra Przegalińska: Jeśli możemy tu mówić o jakiejś rewolucji, to o rewolucji dostępności.  Warto pamiętać, że prace nad sztuczną inteligencją nie rozpoczęły się kilka ani nawet kilkanaście lat temu. Ta dyscyplina była rozwijana od dekad, a ChatGPT oraz inne duże modele językowe są tylko jednym z owoców wieloletnich badań nad tym zagadnieniem. Dość powiedzieć, że pierwsze algorytmy, które stały się jedną z podstaw działania takich systemów jak ChatGPT, zostały opisane jeszcze w latach 40. ubiegłego wieku. Mowa choćby o Perceptronie.

Warren McCulloch i Walter Pitts opublikowali pracę na temat pierwszej sieci neuronowej w 1943 roku. Wówczas koncepcja Perceptrona wydawała się rzecz jasna niemożliwa do realizacji. Musieliśmy poczekać na dane, a przede wszystkim na większą moc obliczeniową. Nie zmienia to faktu, że to właśnie ta mrówcza praca, dekady badań, które często odbywały się w znacznie mniej sprzyjającej atmosferze niż dziś - bez wielkich grantów i zainteresowania mediów - zaowocowały rewolucją dostępności, z którą mamy dziś do czynienia.

Skąd więc ta nagła eksplozja zainteresowania takimi narzędziami jak wspomniany ChatGPT?

ChatGPT jest narzędziem niezwykle prostym w obsłudze. Nie wymaga od nas żadnej wiedzy z zakresu algorytmiki. Nie wymaga umiejętności kodowania. Przystępność i intuicyjność tego narzędzia są dla nas bardzo atrakcyjne. Podobnie sytuacja miała się zresztą z mediami społecznościowymi. Facebook, Instagram czy X wewnątrz są przecież tak naprawdę wielkimi i skomplikowanymi węzłami algorytmicznymi, ale przyjazny interfejs przyciągnął, a wręcz uzależnił nas od tych narzędzi. ChatGPT jest kompleksowym i dobrze działającym algorytmem, który sensownie odpowiada na nasze pytania, a dodatkowo nie stawia przed nami niemal żadnych barier dostępności. Wystarczy, że umiemy pisać.

Wkrótce nie będziemy potrzebować nawet tej umiejętności, bo zaprezentowany dosłownie kilka dni temu model GPT-4o, nazywany też "omnimodelem", doskonale porozumiewa się z człowiekiem za pomocą głosu. Czy ten nowy model jest jakimś przełomem w rozwoju ChataGPT i firmy OpenAI, która za nim stoi?

Tym przełomem miał być ChatGPT-5. Początkowo OpenAI zapowiadało, że następca "czwórki" zostanie udostępniony w grudniu ubiegłego roku. Tak się jednak nie stało. W ramach nagrody pocieszenia dostaliśmy model pośredni, który w mojej opinii przełomem nie jest. Na pewno nie takim, z jakim mieliśmy do czynienia w momencie przejścia z GPT-3 na GPT-4. Model "o" w ciekawy sposób rozwija jednak niektóre funkcje Chata.

Przede wszystkim potrafi operować językiem mówionym jako główną formą ekspresji. Nie musi już przekładać wszystkiego na tekst. Proces transkrypcji stał się zbędny. Nowy model potrafi dzięki temu w płynny sposób porozumiewać się z człowiekiem - bez lagów i opóźnień. Do tego dochodzi też choćby umiejętność rozpoznawania i wyjaśnienia tego, co widzi na obrazie, jak również umiejętność rozpoznawania i nazywania ludzkich emocji.

OpenAI znów uciekło Google’owi i innym konkurentom na polu AI?

Tacy gracze jak Google, Meta czy Anthropic w ostatnim czasie rzeczywiście zintensyfikowali prace nad swoimi modelami językowymi, ale OpenAI wciąż zdaje się mieć nad nimi znaczącą przewagę. Papierkiem lakmusowym, który pokaże nam, jak bardzo ChatGPT odjechał konkurencji, będzie jednak model GPT-5, na którego premierę wciąż czekamy.

A kiedy się doczekamy?

Trudno powiedzieć. W tym kontekście ciekawe zdają się słowa samego założyciela OpenAI, Sama Altmana, który podczas konferencji w Davos stwierdził, że aby tworzyć jeszcze lepsze modele AI niezbędne będą dodatkowe moce obliczeniowe. Wynikałoby więc z tego, że największą blokadą dla kolejnych iteracji GPT wciąż pozostają przede wszystkim kwestie infrastruktury i zasobów, które będą w stanie takie systemy zasilić.

Czy w przypadku współczesnych modeli mamy już do czynienia z kreacją i tworzeniem? Czy AI potrafi dziś to, co przez wieki było zarezerwowane dla ludzi, a może jest po prostu bardzo dobrym odtwórcą?

Modele, z którymi dzisiaj obcujemy, to modele statystyczne. One zostały świetnie wytrenowane, bazują na gigantycznych zbiorach danych, ale to wciąż statystyka. Nie są to systemy oparte na biologii syntetycznej, a ich adaptacja nie przebiegała tak, jak ma to miejsce w przypadku organizmów żywych. Nie potrafią odczuwać emocji. Czy jednak potrafią tworzyć? To dość trudne pytanie. Bo czym właściwie jest kreacja, a czym odtwórstwo? Czy sam człowiek też nie jest odtwórcą? Czy nie bazujemy na wzorcach przekazywanych nam przez poprzednie pokolenia oraz na wiedzy gromadzonej cywilizacyjnie?

Dlatego też w kontekście takich modeli jak ChatGPT podoba mi się nazwa "generatywna AI". Jest to dosłownie sztuczna inteligencja wytwórcza. Potrafi działać w sposób kreatywny, miksować różne style. Ale nadal nie można porównać tego z procesem kreacji, z którym mamy do czynienia w przypadku człowieka. Nie jest to proces zanurzony w doświadczeniach, inspiracjach i motywacjach. Owszem, taki model możemy nakarmić danymi na temat stanów emocjonalnych i inspiracji, które towarzyszyły danemu artyście, ale z jego perspektywy to nadal będą dane statystyczne.

A co z mityczną ogólną czy też silną sztuczną inteligencją? Czy zbliżamy się w jej kierunku?

Wszystko zależy od tego, jak ją zdefiniujemy. Można wręcz powiedzieć, że w ostatnich latach takie firmy jak OpenAI mocno tę definicję spłaszczyły. One opisują silną AI jako modele, które są w stanie wykonywać ekonomicznie opłacalne zadanie. Mówiąc prościej, chodzi tu o AI, która potrafi wykonywać pracę, za którą bylibyśmy gotowi zapłacić człowiekowi. Jeśli przyjmiemy taką właśnie definicje, to oczywiście te statystyczne modele, o których dziś rozmawiamy, albo już się w nią wpisują, albo stanie się to niebawem w przypadku ich iteracji.

Z całą pewnością nie wpisują się jednak w klasyczne ujęcie ogólnej sztucznej inteligencji jako modeli, które nie tylko dysponują wszechstronną wiedzą i wykonują zadania tak samo dobrze, jak człowiek, ale również potrafią samodzielnie myśleć i imitować nasze procesy poznawcze. Chodzi o systemy, które są w stanie odczuwać emocje choćby na podstawowym poziomie.

A czy gdzieś toczą się dziś w ogóle prace nad silną sztuczną inteligencją właśnie w tym klasycznym ujęciu, czy też modele statystyczne całkowicie zdominowały naukowy dyskurs?

Wydaje się, że obecnie czeka nas dalszy rozwój modeli statystycznych. Będą one w stanie przetwarzać dane jeszcze szybciej. Będą potrafiły udzielić nam jeszcze lepszych i bardziej precyzyjnych odpowiedzi. Będą też potrafiły nas wyręczać w wielu zadaniach. Ale to wciąż systemy, które działają w oparciu o przekazane im instrukcje i które ślepo wykonują polecenia człowieka.

Koncepcja myślącej AI została natomiast zepchnięta na drugi plan. Znalazła się w narożniku. Wynika to po części z tego, że te modele statystyczne, jak ChatGPT, potrafią już bardzo wiele. I dobrze wykonują swoje zadania. Mogę dziś wrzucić do ChataGPT tabelkę Excela, a on w kilka sekund przygotuje analizę tych danych wraz z wszystkimi korelacjami.

Muszę przyznać, że nie brzmi to tak ekscytująco jak samoświadoma AI, którą znamy z filmów science ficiton.

Pytanie, czy potrzebujemy dziś czegoś więcej? Czy chcemy, aby nasze modele AI myślały i odczuwały emocje? Czy chcemy, aby stały się bardziej ludzkie? Bo w ten sposób możemy sobie narobić w przyszłości problemów. Poruszamy się tu przecież po koncepcjach z dziedziny futurologii. Nie mamy wiarygodnych scenariuszy i gotowych odpowiedzi. Nikt tak naprawdę nie wie, dokąd zaprowadzą nas dalsze prace nad rozwojem AI.

Niektórzy twierdzą, że wiedzą dokładnie, dokąd nas zaprowadzą. Do zagłady ludzkości. Ewentualnie, jeśli będziemy mieć więcej szczęścia, to staniemy się niewolnikami wszechpotężnej sztucznej inteligencji.

Nazywam takie osoby PI-doomerami. Chodzi tu o współczynnik PI-doom, czyli prawdopodobieństwa wystąpienia katastrofy. U autorów tego rodzaju apokaliptycznych wizji jest on rzeczywiście bardzo wysoki.

Ale z czego to wynika? Bo nie ukrywam, że w moim przypadku współczynnik PI-doom również zdaje się być dość wysoki.

Wydaje mi się, że poniekąd są to opowieści o nas samych, o naszych lękach i obawach. Spodziewamy się po gatunku ludzkim tego, co najgorsze i trzeba przyznać, że jest to historycznie uzasadnione. Wystarczy spojrzeć na targające Europą i światem wojny, na niewolnictwo, na wszechobecną przemoc, która od zawsze była najprostszym a zarazem najpopularniejszym sposobem rozwiązywania wszelkich konfliktów. Skoro więc AI zostanie stworzona na nasz obraz, to ostatecznie potraktuje nas tak, jak sami siebie traktujemy.

Dlatego też do pewnego stopnia jestem w stanie zrozumieć tak wyrażane obawy. Uważam, że przy dalszych pracach nad AI powinniśmy zachować daleko posuniętą czujność i ostrożność. Problem w tym, że - szczególnie w ostatnich latach - PI-doomerzy zdecydowanie "odpięli wrotki". Straszeni jesteśmy wizjami rodem z najbardziej absurdalnych filmów sciencie-fiction. Wizjami, których przecież nie da się poddać jakiejkolwiek naukowej weryfikacji. Po co więc w ogóle dyskutować na ten temat?

Apokaliptyczne wizje dobrze się sprzedają. Nie tylko w kinie.

Problem w tym, że gdzieś po drodze umykają nam realne wyzwania i zagrożenia związane ze sztuczną inteligencją. Takie, z którymi już dziś mamy do czynienia. Dlaczego tak dużo uwagi poświęcamy rozważaniom na temat tego, w co przerodzi się AI za 50 czy 100 lat, a przy tym ignorujemy takie zjawiska, jak fake newsy, deepfake, dezinformacja oraz brak norm prawnych i etycznych? To są problemy, które wymagają dziś szybkich i skutecznych rozwiązań. Powinniśmy również głośno mówić o zagrożeniu prywatności, ponieważ rozwój modeli AI wiąże się z gromadzeniem i analizą ogromnych ilości danych osobowych, a to może prowadzić do licznych nadużyć.

Czekając na wielką katastrofę, ignorujemy te mniejsze?

Jeszcze raz chcę zaznaczyć, że moja awersja do apokaliptycznych scenariuszy nie wynika z faktu, że nie lubię sobie pospekulować lub z faktu, że jestem ślepa na potencjalne zagrożenia. Widzę tę zagrożenia, ale w zupełnie innych miejscach. Staram się działać w sposób pragmatyczny. Reagować na problemy, które dostrzegam tu i teraz.

Deepfake to dziś największe z tych zagrożeń?

Zdecydowanie tak. Mówimy tu przecież o technologii umożliwiającej tworzenie fałszywych, a przy tym realistycznych treści, które mogą być używane do manipulacji opinią publiczną, podważania zaufania do mediów oraz wywoływania chaosu społecznego.

Czy jest jakaś recepta na deepfake?

Przede wszystkim należy znaleźć sposób na to, aby zmusić wielkie firmy technologiczne do udostępnienia użytkownikom mediów społecznościowych narzędzi, które pozwolą im w łatwy sposób zweryfikować tego rodzaju fałszywe treści. Niestety, big techy działają w tej materii bardzo opieszale. A być może świadomie ignorują ten problem? W końcu fałszywe treści generują najlepsze zasięgi. Wydaje się, że bez bardziej radykalnych rozwiązań prawnych na poziomie Unii Europejskiej, trudno nam będzie skutecznie walczyć z tym groźnym zjawiskiem.

A co z alarmistycznymi prognozami dotyczącymi rynku pracy? Czy sztuczna inteligencja rzeczywiście chce nas wysłać na bezrobocie?

Tu potrzeba nam wszystkim bardziej trzeźwego podejścia, bo część z tych raportów rozjeżdża się niestety w swoich konkluzjach. Sztuczna inteligencja i roboty rzeczywiście zmieniają rynek pracy, ale ich wpływ jest bardziej złożony niż proste zabieranie miejsc pracy. Alarmistyczne prognozy często wynikają z obawy przed nieznanym oraz z dramatycznych scenariuszy przedstawianych w mediach. W rzeczywistości AI i roboty mogą zarówno zastępować pewne zadania, jak i tworzyć nowe możliwości pracy. Technologie AI mogą automatyzować rutynowe i powtarzalne zadania, co może prowadzić do redukcji niektórych stanowisk. Jednak jednocześnie powstają nowe funkcje, wymagające bardziej zaawansowanych umiejętności, związanych z zarządzaniem, analizą danych i współpracą z technologią. Kluczowe jest zatem dostosowanie systemów edukacji i szkoleń zawodowych, aby umożliwić pracownikom zdobywanie nowych kompetencji i przystosowanie się do zmieniających się wymagań rynku pracy.

Aleksandra Przegalińska - filozofka, badaczka rozwoju nowych technologii, zwłaszcza technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych. Stopień doktora nauk humanistycznych w dyscyplinie filozofia uzyskała w 2014 roku w Instytucie Filozofii Uniwersytetu Warszawskiego. Absolwentka The New School for Social Research w Nowym Jorku, gdzie uczestniczyła w badaniach dotyczących tożsamości w rzeczywistości wirtualnej.

Wi�cej o: