Jak mawiał Karol Marks: „Historia wszystkich dotychczasowych społeczeństw jest historią walk klasowych”. Dziś jest to „walka klas w erze algorytmów”.
Sztuczna inteligencja – dla jednych jest to narzędzie wyzwolenia – wyobraźcie sobie, że maszyny robią za nas nudne i ciężkie prace, zwiększają efektywność produkcji, a zaawansowane technologie stają się dostępne dla wszystkich. Dla drugich to narzędzie opresji, kontroli, inwigilacji, masowej manipulacji.
Cyfrowy świat jest nierozerwalnie związany z rzeczywistością, bo algorytmy, które rządzą naszym życiem online, są tworzone przez te same siły, które kontrolują naszą codzienność – czyli, korporacje i rządy. Walka klasowa w erze algorytmów to swoiste starcie o kontrolę nad informacją i danymi. Algorytmy decydują, co widzimy w mediach społecznościowych, jakie informacje do nas docierają i jak są przedstawiane.
Weźmy na przykład deepfejki. Czyli technologię, która pozwala tworzyć niby realistyczne, ale zarazem dla wprawnego oka nadal fałszywe treści. Najprostszy przykład? Amerykańska kampania wyborcza, gdzie sztuczna inteligencja i deepfejki już mieszają w procesie demokratycznym. Podczas prawyborów Demokratów w New Hampshire mieliśmy doczynienia ze sztucznie wygenerowanym robocallem z prezydentem Bidenem, który nakazał wyborcom nie brać udziału w prawyborach. „Głosowanie w ten wtorek jedynie umożliwia Republikanom ponowne wybranie Donalda Trumpa” – oświadczył fałszywy Biden. „Twój głos ma znaczenie w listopadzie, nie w ten wtorek”.
I co? Połączenie było powiązane z agentem pracującym dla rywala Bidena, przedstawiciela Minnesoty Deana Phillipsa. Który uparcie stwierdził, że stworzył to połączenie nie w celach politycznych, ale w celu podniesienia świadomości zagrożeń związanych ze sztuczną inteligencją w polityce. „To sposób, aby coś zmienić i tak zrobiłem. Może dziś jestem postrzegany jako złoczyńca, ale ostatecznie przyniesie to korzyści dla demokracji” – oświadczył.
Ale te próby manipulacji dzieją się już przecież globalnie. Nawet u nas, przed ubiegłorocznymi wyborami parlamentarnymi, PO opublikowała spot, gdzie przy pomocy AI zestawiono wypowiedzi Morawieckiego z treścią mejla rzekomo ze skrzynki Dworczyka. Manipulacje tego typu są już wszechobecne. A będzie coraz gorzej…
AI jest też używana do analizy i przewidywania naszych zachowań. Kampanie polityczne wykorzystują algorytmy do coraz to bardziej precyzyjnego targetowania reklam. Algorytmy mogą przewidzieć, które dokładnie treści będą najskuteczniej wpływać na konkretne grupy społeczne, co prowadzi do sytuacji, w której nasze decyzje są kształtowane przez “niewidzialną rękę technologii”.
Wpływ AI na rynek pracy jest równie niepokojący – automatyzacja zastępuje ludzką pracę w tempie, które może prowadzić do masowego bezrobocia. Raporty przewidują, że do 2030 roku setki milionów miejsc pracy na całym świecie może zniknąć. Czy jesteśmy gotowi na tak drastyczne zmiany? Systemy socjalne wielu krajów mogą nie być przygotowane na taką “rewolucję”. Wywłaszczenie z pracy przez maszyny prowadzi do rosnących nierówności społecznych. A ci którzy kontrolują technologię zyskują jeszcze więcej, podczas gdy reszta społeczeństwa traci swoje źródła dochodu.
AI wpływa również na strategie polityczne. Algorytmy monitorują nastroje społeczne i natychmiastowo dostosowują kampanie polityczne do zmieniających się emocji wyborców. To daje niesamowitą przewagę tym, którzy mają uprzywilejowany dostęp do tych technologii. Kampanie polityczne prowadzone przez algorytmy sztucznej inteligencji? To już nie kino sajensfikszyn! To już prawie nasza rzeczywistość w 2024 roku!
Przynajmniej Unia Europejska w pewnym stopniu nie pozostaje obojętna na te wyzwania. W marcu 2024 roku PE przyjął przepisy dotyczące sztucznej inteligencji znane jako AI ACT a w maju 2024 roku jednogłośnie zatwierdziła je Rada UE. Prawo to wprowadza kategoryzację systemów AI według ryzyka od niskiego do niedopuszczalnego.
Niestety inne kraje pozostają daleko w tyle. Wielka Brytania? Brytyjczycy zadeklarowali, że na razie nie zamierzają regulować AI „aż tak restrykcyjnie”. Wujek Sam? Różne regulacje na poziomie stanowym i federalnym, brak jednolitego podejścia, co prowadzi do drastycznych luk w zabezpieczeniach.
Ogromnym problemem pozostają przy tym należące do wielkich niespętanych korporacji media społecznościowe jak Facebook czy Twitter, które nie radzą sobie z weryfikacją fałszywych treści. W pogoni za horrendalnymi zyskami ignorują konieczność skutecznego moderowania i blokowania dezinformacji. Deepfejki, fejk newsy i manipulacje mnożą się bez opanowania podważając nasze zaufanie do informacji, ale przede wszystkim do globalnych procesów demokratycznych.
Ale AI to nie tylko zagrożenie… to też szansa. Która jeśli zostanie właściwie wykorzystana to może stać się nawet w pewnym stopniu narzędziem wyzwolenia. Sztuczna inteligencja może przecież pomagać nam lepiej identyfikować nierówności społeczne i nasze potrzeby, co może prowadzić do bardziej sprawiedliwego podziału zasobów i usług – np. może to dotyczyć dostępu do edukacji, opieki zdrowotnej czy rynku pracy.
Wciąż potrzebujemy jednak odpowiednich regulacji i mechanizmów kontrolnych. Potrzebujemy takich regulacji, aby AI służyła ludziom, a nie wąskiej kaście rządzący/korporacji.
Jak powiedział Stephen Hawking: „Sukces w tworzeniu skutecznej AI może być największym wydarzeniem w historii naszej cywilizacji. Albo najgorszym. Po prostu nie wiemy”. Jeśli nie zadbamy o odpowiednie regulacje i mechanizmy kontroli AI może stać się narzędziem kontroli nad nami zamiast narzędziem wyzwolenia.