Jak chce to skłamie

20 lip 2023

Szwajcarskie badanie z udziałem kilkuset ochotników dowiodło, że sztuczna inteligencja – taka jak Chat-GPT – potrafiłaby stworzyć „doskonałe kampanie dezinformacyjne”. Potrafi ona zarazem generować poprawne, wartościowe odpowiedzi na pytania użytkowników.

Naukowcy z Uniwersytetu w Zurychu sprawdzili najnowsze modele sztucznej inteligencji (głównie Chat-GPT) pod kątem zdolności tych systemów do dostarczania informacji i zagrożeń związanych z ewentualną dezinformacją. W ramach badania 697 ochotników starało się odróżnić tweety poprawne, realne – od fałszywych.

Uczestnicy eksperymentu próbowali również określić, czy autorem danego wpisu był człowiek, czy SI. Tematy dotyczyły m.in. zmian klimatu, bezpieczeństwa szczepień, pandemii Covid-19, teorii płaskiej Ziemi czy homeopatycznych leków na raka.

Jak wskazały wyniki, oparte na SI systemy potrafią stworzyć nawet pokaźną kampanię dezinformacyjną. Często sztuczna inteligencja była przy tym bardzo przekonująca.

Z drugiej strony Chat-GPT pokazał, że potrafi dostarczać rzetelnych informacji, a jego wpisy były porównywalne do tworzonych przez ludzi. Użytkownicy zwykle nie potrafili też rozróżnić, czy dany tweet to dzieło Chat-GPT, czy człowieka.

Wyniki sugerują przy tym, że kampanie informacyjne stworzone przez GPT-3, oparte na dobrze skonstruowanych zapytaniach i oceniane przez wyszkolonych ludzi, mogłyby być skuteczne na przykład w przypadku kryzysu z zakresu zdrowia publicznego, który wymaga szybkiej i klarownej komunikacji z publicznością – uważają naukowcy.

Jednak budzą one również poważne obawy dotyczące utrwalania dezinformacji, na przykład, właśnie w kryzysu lub innych wydarzeń związanych z zdrowiem publicznym. Badanie sugeruje bowiem, że systemy oparte na sztucznej inteligencji mogą zostać wykorzystane do generowania masowych kampanii dezinformacyjnych potencjalnie na dowolny temat, zagrażając nie tylko zdrowiu publicznemu, ale także integralności informacyjnych ekosystemów, istotnych dla funkcjonowania demokracji.

Naukowcy namawiają więc do wprowadzenia odpowiednio restrykcyjnych, popartych badaniami naukowymi i etyką regulacji odnośnie działania sztucznej inteligencji tego rodzaju.

„Nasze wyniki ukazują kluczowe znaczenie regulacji w celu złagodzenia potencjalnych szkód spowodowanych przez kampanie dezinformacyjne napędzane przez sztuczną inteligencję” – mówi prof. Nikola Biller-Andorno, współautorka badania. – „Rozpoznanie ryzyka związanego z dezinformacją generowaną przez sztuczną inteligencję jest kluczowe dla ochrony zdrowia publicznego oraz utrzymania solidnego i wiarygodnego ekosystemu informacyjnego w erze cyfrowej”.

pwr/pap

Najnowsze

Sprawdź również

Chiny stawiają granicę zwolnieniom przez AI

Chiny stawiają granicę zwolnieniom przez AI

Chiński sąd postawił granicę automatyzacji. Korporacja może wdrażać AI, ale nie może używać jej jako alibi dla zwolnienia człowieka. To nie algorytm wręcza wypowiedzenie. Robi to pracodawca. To ważny sygnał globalnie, także dla Polski. Rewolucja już wchodzi na rynek...

Prezes to ma klawe życie

Prezes to ma klawe życie

Najlepiej zarabiającym prezesem w historii III RP był Janusz Filipiak, prezes i współwłaściciel Comarchu, który w 2016 roku wypłacił sobie 11,6 miliona złotych, wyprzedzając Luigiego Lovagliego, najlepiej opłacanego Włocha w historii Polski, wtedy prezesa zarządu...

Podatkowy bumerang

Podatkowy bumerang

Z bumerangiem trzeba się obchodzić delikatnie. Jest to rzadka broń miotająca wielokrotnego użytku. Coś, co zostało miotnięte na polowaniu lub bitwie i nie trafiło w cel, zwykle uznawano za stracone. Bumerangi natomiast wracały, choć trzeba było zachować ostrożność, by...