OpenAI kończy 10 lat. Sam Altman: superinteligencja możliwa jeszcze przed 2035 rokiem

Sam Altman o przyszłości OpenAI i rozwoju superinteligencji
Sam Altman, dyrektor generalny OpenAI, przewiduje możliwość pojawienia się superinteligencji w ciągu najbliższej dekady. fot: WIKIMEDIA COMMONS/Steve Jurvetson

Sam Altman, dyrektor generalny OpenAI, przewiduje możliwość pojawienia się superinteligencji w ciągu najbliższej dekady / Źródło: Wikimedia Commons: Steve Jurvetson

Dziesiąta rocznica OpenAI przypada w momencie, gdy rozwój sztucznej inteligencji wyraźnie przekracza granice dotychczasowych prognoz. Dyrektor generalny firmy Sam Altman ocenił, że osiągnięcie superinteligencji — czyli systemów przewyższających ludzi poznawczo we wszystkich kluczowych obszarach — jest w perspektywie najbliższej dekady „niemal pewne”. Według jego prognozy przełom może nastąpić około 2035 roku.

Altman przedstawił te tezy we wpisie „Ten Years”, opublikowanym z okazji dziesięciu lat działalności OpenAI. Tekst nie jest jedynie rocznicowym podsumowaniem, lecz próbą uporządkowania tego, co dziś wiadomo o trajektorii rozwoju AI, a także wskazania granic obecnej wiedzy. W jego ujęciu świat zbliża się do punktu, w którym zdolności maszyn zaczną rosnąć szybciej niż zdolność społeczeństw do ich zrozumienia.

Czym jest superinteligencja i dlaczego budzi tak duże emocje

Superinteligencja, nazywana czasem potocznie nadinteligencją, to pojęcie opisujące hipotetyczny intelekt przewyższający możliwości każdego istniejącego człowieka w niemal wszystkich wymiarach. Obejmuje ono nie tylko szybkość przetwarzania informacji, ale także zdolność do rozwiązywania złożonych problemów, tworzenia nowych idei, planowania długoterminowego oraz rozumienia kontekstu społecznego.

W literaturze naukowej rozróżnia się zazwyczaj dwa poziomy takiego rozwoju. Słaba superinteligencja oznaczałaby systemy działające podobnie do ludzkiego umysłu, lecz znacznie szybciej i na większą skalę. Silna superinteligencja zakłada natomiast jakościową różnicę — taką, jaka oddziela ludzi od innych gatunków. W tym drugim przypadku nie chodzi już o tempo, lecz o zupełnie nowe sposoby rozumowania, których ludzie mogliby nie być w stanie w pełni pojąć.

Te koncepcje są ściśle powiązane z hipotezą osobliwości technologicznej, według której rozwój inteligencji maszynowej może w pewnym momencie wymknąć się prognozom, ponieważ same systemy zaczną projektować swoje kolejne, coraz doskonalsze wersje.

Od AGI do superinteligencji: gdzie jesteśmy dziś

Dzisiejsza debata koncentruje się wokół pojęcia sztucznej inteligencji ogólnej, czyli AGI. Chodzi o systemy zdolne do wykonywania szerokiego zakresu zadań intelektualnych na poziomie porównywalnym z człowiekiem. Postęp w dużych modelach językowych, opartych na architekturze transformera, sprawił, że część badaczy uważa AGI za realny, choć wciąż niejednoznacznie zdefiniowany cel.

Modele takie jak GPT-4 i jego następcy potrafią analizować teksty, pisać kod, rozwiązywać problemy logiczne i adaptować się do nowych zadań. Krytycy zwracają jednak uwagę, że mimo tych zdolności systemy te nie posiadają autonomicznych celów, samoświadomości ani stabilnego rozumienia świata fizycznego. Spór ten pokazuje, że granica między zaawansowaną automatyzacją a pełnoprawną inteligencją pozostaje płynna.

Jednocześnie rozwój AI charakteryzuje się zjawiskiem emergencji. Nowe zdolności często pojawiają się nagle, po przekroczeniu określonego progu skali obliczeń i danych, a nie w sposób liniowy. To właśnie ten brak przewidywalności sprawia, że prognozy dotyczące superinteligencji są obarczone dużą niepewnością.

Przewagi maszyn i ich realne ograniczenia

Systemy sztucznej inteligencji mają kilka fundamentalnych przewag nad ludzkim mózgiem. Procesory wykonują obliczenia z częstotliwościami rzędu gigaherców, podczas gdy neurony biologiczne działają setki razy wolniej. Modele AI można skalować niemal bez ograniczeń, kopiować i wyposażać w ogromne zasoby pamięci, co pozwala im przetwarzać informacje na niespotykaną dotąd skalę.

Te przewagi nie oznaczają jednak braku barier. Dzisiejsze systemy AI są całkowicie zależne od infrastruktury energetycznej, dostępu do danych oraz decyzji projektowych ludzi. Nie posiadają własnych intencji ani motywacji, a ich „rozumienie” świata jest pośrednie i statystyczne. Coraz częściej podkreśla się też problem kruchości modeli, które potrafią zawodzić w sytuacjach odbiegających od danych treningowych.

To właśnie napięcie między rosnącą mocą obliczeniową a strukturalnymi ograniczeniami sprawia, że pytanie o drogę do superinteligencji pozostaje otwarte.

OpenAI jako studium przyspieszenia technologicznego

Historia OpenAI dobrze ilustruje tempo zmian w branży. Organizacja powstała w 2015 roku jako projekt non-profit, którego celem było rozwijanie bezpiecznej sztucznej inteligencji z myślą o dobru ludzkości. Początkowo koncentrowała się na badaniach podstawowych i otwartym publikowaniu wyników.

Z czasem koszty trenowania coraz większych modeli wymusiły zmianę struktury. OpenAI przyjęła model hybrydowy, w którym fundacja non-profit zachowała kontrolę, a działalność komercyjna umożliwiła pozyskanie kapitału. Kluczowym partnerem stał się Microsoft, który zapewnił dostęp do infrastruktury chmurowej i finansowanie.

Premiera ChatGPT w 2022 roku była momentem, który przeniósł OpenAI z niszy badawczej do globalnego centrum uwagi. W krótkim czasie technologia trafiła do setek milionów użytkowników, a firma stała się jednym z głównych punktów odniesienia w debacie o przyszłości AI.

Iteracyjne wdrażanie i społeczne współtworzenie technologii

Jednym z kluczowych elementów strategii OpenAI było tzw. iteracyjne wdrażanie. Zamiast czekać na „idealny” model, firma udostępniała kolejne wersje systemów, obserwując ich użycie w rzeczywistych warunkach. Altman argumentuje, że takie podejście pozwala społeczeństwu i technologii współewoluować.

Strategia ta była krytykowana jako ryzykowna, lecz z czasem stała się standardem w branży. Jednocześnie ujawniła nową dynamikę: użytkownicy nie są już tylko odbiorcami technologii, ale współtwórcami wiedzy o jej możliwościach i ograniczeniach.

Bezpieczeństwo, regulacje i pęknięcia w środowisku AI

Rosnące możliwości systemów AI wywołały falę apeli o regulacje. W 2023 roku Sam Altman, Greg Brockman i Ilya Sutskever zwrócili się do rządu USA z postulatem stworzenia ram nadzorujących rozwój najbardziej zaawansowanych systemów. Ostrzegali, że superinteligencja może pojawić się szybciej, niż zakłada większość instytucji.

W 2024 roku Sutskever opuścił OpenAI i założył organizację Safe Superintelligence, koncentrującą się wyłącznie na badaniach nad bezpieczeństwem przyszłych systemów. Jego decyzja ujawniła głębokie różnice w podejściu do ryzyka i odpowiedzialności, nawet wśród pionierów tej samej technologii.

Równolegle nasila się konkurencja. Elon Musk, współzałożyciel OpenAI, dziś należy do jej najostrzejszych krytyków i rozwija własną firmę xAI. Spory te pokazują, że nie istnieje jedna, wspólna wizja przyszłości sztucznej inteligencji.

Superinteligencja między nauką a wyobraźnią

Motyw bytów przewyższających ludzi intelektualnie pojawia się w mitologiach i religiach od tysięcy lat. Współczesna fantastyka naukowa nadała mu nową formę, eksplorując zarówno utopie, jak i dystopie związane z rozwojem maszyn.

Dziś jednak te narracje coraz częściej wpływają na realne decyzje technologiczne i polityczne. Wyobrażenia o superinteligencji kształtują sposób, w jaki społeczeństwa reagują na rozwój AI, a także to, jakie ryzyka uznają za najważniejsze.

Sam Altman podkreśla, że przyszłość może być paradoksalna. Codzienne życie wielu ludzi może pozostać względnie stabilne, podczas gdy możliwości technologiczne będą rosły w tempie trudnym do ogarnięcia intuicyjnie. Najbliższa dekada zdecyduje o tym, czy superinteligencja stanie się narzędziem wspierającym rozwój cywilizacji, czy źródłem wyzwań, z którymi ludzkość nie miała dotąd do czynienia.

Redakcja

Poprzedni

Wang Yi:  Japonia po wojnie nie dokonała pełnej refleksji nad historią agresji

Następny

UE bada Ursulę von der Leyen. Znikające wiadomości na Signal znów pod lupą