Nie sądzę, by martwienie się scenariuszem rodem z filmu „Terminator” było pożyteczne, ale widzimy, że obecny rozwój sztucznej inteligencji wystarczy, by zrewolucjonizować świat – mówi prof. Aleksander Mądry, badacz AI z Massachusetts Institute of Technology (MIT). Ostrzega jednak, że pozostawienie świata AI bez regulacji, niczym Dzikiego Zachodu może przynieść daleko idące konsekwencje.
Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na „zastąpienie ludzi przez maszyny”, a nawet „utratę kontroli nad cywilizacją”.
Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się „scenariusza z Terminatora” podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.
Poważne problemy
Jak ocenia, choć problemem związanym z zagrożeniami „superinteligencją” czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.
„Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko” – mówi badacz. „To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo” – dodaje.
Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.
Wielkie niewiadome
Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i „łańcuch dostaw AI” – uzupełnia naukowiec.
Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.
„Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć uprzedzenia” – tłumaczy profesor. Dodaje, że to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.
„Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?” – mówi prof. Mądry. Zaznacza przy tym, że choć problem „halucynacji” i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.
Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem „open source” i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.
„Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej czarnej skrzynki. Może to wymagać znacznych wysiłków publicznych” – ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.
To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google’a Blake’a Lemoine’a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.
„Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów” – wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie „myśleć”, czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.
„Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome” – zaznacza profesor.
Zagrożenia
Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.
„Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google’a” – mówi Mądry.
Poza tym – argumentuje badacz – jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.
Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.
„Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?” – pyta ekspert. I nawołuje do stworzenia regulacji – zaczynając od dobrowolnych najlepszych praktyk i dialogu – by uniknąć błędów z przeszłości.
„Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki Dziki Zachód. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle” – przyznaje profesor.
ALF/PAP