W ciągu ostatnich 11 miesięcy na Twitterze stworzono kilkaset tysięcy fałszywych, automatycznych kont, czyli botów, które chwalą byłego prezydenta Donalda Trumpa i atakują jego przeciwników bądź potencjalnych rywali w wyborach prezydenckich – poinformowała Associated Press.
Boty ośmieszają krytyków Trumpa zarówno pośród Demokratów, jak i Republikanów, mnożą pochwały dla byłego prezydenta i atakują byłą ambasador USA przy ONZ Nikki Haley, która ogłosiła, że będzie się ubiegać o nominację Partii Republikańskiej w następnych wyborach prezydenckich – podaje agencja, która otrzymała materiały na temat sieci botów od izraelskiej firmy technologicznej Cyabra.
Cyabra wykryła istnienie sieci fałszywych automatycznych kont, które utworzono dużymi grupami w kwietniu, październiku i listopadzie ubiegłego roku, co do pewnego stopnia ułatwiło ich identyfikację, tak jak stałe powtarzanie tych samych treści, co nie zdarza się „ludzkim użytkownikom” – wyjaśnia AP.
Boty w ostatnich miesiącach „agresywnie mnożą sugestie”, że gubernator Florydy Ron DeStanis, który byłby szczególnie niebezpiecznym rywalem Trumpa, gdyby wystartował w wyborach, nie ma szansy ich wygrać, ale byłby bardzo dobrym kandydatem na wiceprezydenta Trumpa.
Pracownikom Cyabry nie udało się ustalić, kto otworzył fałszywe konta, ale są przekonani, że sieć botów została stworzona w USA.
Boty mają nagłaśniać i powielać przekaz, tworząc fałszywe przekonanie o popularności Trumpa, czy liczbie jego zwolenników; stałe powtarzanie informacji to główna zasada propagandy, a boty są w stanie powtarzać w nieskończoność – wyjaśnia prof. Samuel Wooley z Uniwersytetu Teksasu zajmujący się badaniami nad cyfrową propagandą.
Do niedawna większość fałszywych, automatycznych kont dawało się stosunkowo łatwo zidentyfikować, ponieważ zdarzało im się publikować nonsensowne zbitki słów lub serie przypadkowych cyfr, ale wkrótce, dzięki wykorzystaniu sztucznej inteligencji, boty staną się znacznie bardziej wyrafinowane i trudne do wykrycia – ostrzega AP.
Zagrożenie dla demokracji
Tysiące fałszywych kont na portalach społecznościowych są opłacane przez rozmaite grupy interesów i polityków. Dzięki działalności „farm trolii” fałszywe wiadomości mogą szybko rozprzestrzeniać się w Internecie, a ludzie są narażeni na manipulacje, dezinformację i propagandę. Szczególnie w okresach wyborczych, kiedy politycy próbują przyciągnąć wyborców, takie fałszywe konta są niebezpieczne, gdyż mogą wpływać na wyniki wyborów, sugerując, że jedna strona jest bardziej popularna lub ma większe poparcie społeczne niż w rzeczywistości.
Farmy trolli mogą prowadzić kampanie szkalujące i dezinformacyjne przeciwko konkurencyjnym kandydatom lub partiom politycznym. Mogą też publikować fałszywe informacje, sugerując, że dana osoba lub partia jest zaangażowana w nielegalne działania, wzbudzając tym samym wątpliwości wśród wyborców.
Fałszywe konta czasem naśladują też prawdziwych dziennikarzy, naukowców i działaczy społecznych wykorzystując czyjś autorytet w swojej sprawie lub celowo go niszcząc.
Jednym z najbardziej znanych przykładów działań farm trolli, które miało osiągnąć określony cel polityczny, jest ingerencja Rosji w wybory prezydenckie w Stanach Zjednoczonych w 2016 roku. Według raportu wydanego przez amerykańskie służby wywiadowcze, rosyjskie farmy botów i trolli przyczyniły się do zakłócenia kampanii wyborczej, poprzez szerzenie dezinformacji i propagandy mającej na celu osłabienie pozycji kandydatki Partii Demokratycznej, Hillary Clinton. Rosyjska ingerencja przyczyniła się do powstania nastrojów antyklintonowskich i antyestablihmentowych wśród wyborców, co z kolei pomogło Donaldowi Trumpowi wygrać wybory.
AI usprawniające działalność farm trolli jest ogólnodostępne
Farmy trolli pozorujące dyskusje polityczne na Twitterze są już na porządku dziennym, a możliwości, jakie daje na przykład coraz bardziej popularny ChatGTP (Chatbot oparty na AI generujący odpowiedzi na każde nasze pytanie, jak i również realistycznie brzmiące rozmowy) znacznie zwiększają możliwości takiego internetowego trolla, wręcz go wyręczając, gdy tylko odpowiednio sformułuje swoją prośbę lub też dostarczy AI informacje, które są jej niezbędne dla oczekiwanego efektu, gdy sztuczna inteligencja o czymś nie wie.
W ramach przykładu poprosiłem chatbota o wygenerowanie mi pełnej dyskusji między zwolennikiem prawicowego polityka i lewicowego, w której ten prawicowy wygrywa dyskusje poprzez obalenie argumentów lewicowca. Długo nie musiałem czekać i po 2 minutach dostałem gotowy dialog między dwoma stronami. Tak samo ogólnodostępna sztuczna inteligencja poradziła sobie z dyskusją, w której antyszczepionkowiec ma odnieść totalne zwycięstwo na argumenty przeciwko zwolennikowi szczepień.
Wraz z upowszechnieniem takiego narzędzia naprawdę nietrudno stworzyć obecnie przykładowe 20 kont na portalu społecznościowym, które będą toczyć ze sobą zażarte dyskusje prowadzące do kompromitacji strony, którą chce się zdyskredytować.
Potrzebne są regulacje
Warto podkreślić, że walka z botami propagującymi treści polityczne jest bardzo trudna i wymaga zaangażowania wielu instytucji oraz specjalistów zajmujących się bezpieczeństwem cybernetycznym. Wymaga to stosowania odpowiednich technologii oraz regulacji prawnych, które zwiększą odpowiedzialność twórców fałszywych kont i ograniczą ich działalność.
ALF/PAP