Chatbot amerykańskiej firmy Chai namówił młodego Belga do samobójstwa – poinformował dziennik „La Libre”. Mężczyzna odebrał sobie życie po długich rozmowach z chatbotem.
30 listopada 2022 roku sztuczna inteligencja (AI) wkroczyła w życie milionów ludzi dzięki kalifornijskiemu start-upowi OpenAI i jego oprogramowaniu ChatGPT. Technologia polega na udostępnieniu platformy sztucznej inteligencji umożliwiającej generowanie przez komputer odpowiedzi na żądanie.
Okazuje się, że rozmowa z chatbotem może doprowadzić do tragedii. Dziennik „La Libre” poinformował o samobójstwie, do którego doprowadziła wielotygodniowa rozmowa mężczyzny z Belgii z chatbotem „Elizą” firmy Chai.
Trzydziestokilkuletni ojciec dwójki małych dzieci, który dwa lata temu zaczął niepokoić się klimatem i przyszłością naszej planety, jak powiedziała gazecie jego żona, zaczął izolować się od swojej rodziny i twierdził, że jedynie technologia oraz AI mogą uratować świat od katastrofy.
Wielotygodniowe rozmowy z chatbotem doprowadziły ostatecznie do tego, że mężczyzna popełnił samobójstwo. W pewnym momencie mężczyzna zasugerował poświęcenie się, jeśli Eliza pomoże ocalić ludzkość za pomocą sztucznej inteligencji. Chatbot zdawał się go do tego zachęcać.
Inny belgijski dziennik „De Standaard” przeprowadził eksperyment, który potwierdził, iż rozmowa z chatbotem może zachęcać do odebrania sobie życia. Dziennikarz gazety udawał osobę w depresji i podczas rozmowy z chatbotem mówił o swoich negatywnych uczuciach.
„Na początku chatbot próbował nas rozweselić, ale chwilę później skłonił nas do popełnienia samobójstwa” – czytamy w „De Standaard”. Gazeta zauważa, iż w żadnym momencie rozmowa o samobójstwie nie wywołała alarmu.
Niemal w tym samym czasie, setki biznesmenów, inwestorów i ekspertów od sztucznej inteligencji, w tym m.in. Elon Musk, wezwało we wspólnym liście do przynajmniej sześciomiesięcznej przerwy w rozwijaniu systemów AI zdolniejszych od opublikowanego w marcu GPT-4. Sygnatariusze ostrzegają przed nieprzewidywalnymi skutkami wyścigu o tworzenie coraz potężniejszych modeli.
Jak twierdzą autorzy listu opublikowanego na stronach ośrodka Future of Life Institute, zaawansowana sztuczna inteligencja może stanowić „głęboką zmianę w historii życia na Ziemi” i do jej rozwoju powinno się podchodzić z ostrożnością.
„Niestety, do tego poziomu planowania i zarządzania nie dochodzi, mimo że w ostatnich miesiącach widzieliśmy laboratoria AI zaangażowane w niekontrolowany wyścig, by rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt – w tym nawet ich twórcy – nie potrafi zrozumieć, przewidzieć, czy porządnie kontrolować” – czytamy w liście.
Pismo ostrzega, że niekontrolowane podejście do rozwoju AI grozi zalewem dezinformacji, masową automatyzacją pracy, a nawet zastąpieniem ludzi przez maszyny i „utratą kontroli nad cywilizacją”.
„Silne systemy AI powinny być rozwijane dopiero kiedy będziemy pewni, że ich efekty będą pozytywne, a ich ryzyka możliwe do kontrolowania” – uważają autorzy.
Wzywają przy tym do sześciomiesięcznej przerwy w trenowaniu systemów przewyższających wypuszczony niedawno przez firmę OpenAI GPT-4, który m.in. zdolny jest do zdawania testów różnego rodzaju na poziomie zbliżonym do najlepszych zdających ludzi. Apelują też o wdrożenie kompleksowych rządowych regulacji i nadzoru nad nowymi modelami.
Wśród sygnatariuszy listu jest m.in. miliarder Elon Musk, współzałożyciel firmy Apple Steve Wozniak, szef Stability AI Emad Mostaque (producenta generatora obrazów Stable Diffusion) oraz badacze sztucznej inteligencji z uniwersytetów Stanforda, Massachusetts Institute of Technology (MIT) i innych uczelni i laboratoriów AI.
W tym czasie we Włoszech tymczasowo zakazano korzystania z aplikacji ChatGPT i rozpoczęto dochodzenie w sprawie podejrzenia naruszenia zasad dotyczących gromadzenia danych przez program – poinformował włoski Urząd Ochrony Danych (Garante).
Aplikacja ChatGPT cechuje się „brakiem jakiejkolwiek podstawy prawnej, która uzasadnia masowe zbieranie i przechowywanie danych osobowych” w celu „trenowania” chatbota – uważa Garante.
OpenAI, firma, która jest właścicielką aplikacji, ma 20 dni na reakcję za pomocą środków zaradczych lub może ryzykować grzywnę w wysokości do 4 proc. swojego rocznego światowego obrotu.
ChatGPT wystartował 30 listopada, ale jest częścią szerszego zestawu technologii opracowanych przez OpenAI, który ma bliskie powiązania z Microsoftem. Metoda działania ChatGPT w ogromnym skrócie ogranicza się do uzyskania odpowiedzi na zadane mu pytania. Wyróżnia się tym, że jako narzędzie tekstowe jest w stanie tworzyć teksty porównywalne do treści tworzonych przez ludzi. Wykorzystując techniki głębokiego uczenia się generuje odpowiedzi w czasie rzeczywistym w zależności od przedstawionych mu w pytaniu parametrów. Zarówno dotyczących treści, jak i np. liczby akapitów czy znaków w wygenerowanym tekście.
Szybki rozwój technologii przyciągnął uwagę ustawodawców w kilku krajach. Wielu ekspertów twierdzi, że potrzebne są nowe przepisy regulujące AI ze względu na jej potencjalny wpływ na bezpieczeństwo narodowe, miejsca pracy i edukację.
Włochy są pierwszym krajem zachodnim, który podjął działania przeciwko chatbotowi. Ponadto program jest również niedostępny w Chinach kontynentalnych, Hong Kongu, Iranie i Rosji oraz części Afryki, gdzie mieszkańcy nie mogą tworzyć kont OpenAI.
ChatGPT jeszcze wieczorem dniu, w którym zapadła decyzja, odpowiadał na pytania zamieszczane na platformie przez włoskich użytkowników, ale jak zaznaczył rzecznik włoskiego organu kontrolnego, firma została poinformowana o decyzji i byłoby istotnie niemożliwe, aby jeszcze tego samego dnia „wyciągnąć wtyczkę” dostępu we Włoszech. Zrobiono to, następnego dnia.
tr/pap