Jak YouTube zarabia na bezsensownych filmach z AI

AI slop – fotorealistyczne, absurdalne obrazy generowane przez sztuczną inteligencję, przedstawiające bezsensowne sceny tworzone masowo w celu przyciągania uwagi użytkowników internetu

Ponad jedna piąta filmów polecanych nowym użytkownikom YouTube to tzw. „AI slop”, czyli masowo produkowane treści generowane przez sztuczną inteligencję. Są to filmy niskiej jakości, pozbawione sensu, narracji i jakiejkolwiek wartości poznawczej, tworzone wyłącznie po to, by przyciągnąć uwagę widza i wygenerować jak najwięcej odtworzeń. Choć na pierwszy rzut oka mogą wyglądać jak niegroźna internetowa ciekawostka albo uboczny efekt postępu technologicznego, w rzeczywistości mamy do czynienia z pełnoprawnym, coraz lepiej zorganizowanym modelem biznesowym. Modelem, który w skondensowanej formie pokazuje, jak działa współczesny cyfrowy kapitalizm oparty na eksploatacji uwagi użytkowników. Według dostępnych szacunków segment ten generuje już około 117 milionów dolarów rocznych przychodów, co jasno pokazuje, że nie jest to margines internetu, lecz istotna część globalnej gospodarki platformowej.

Skalę zjawiska dobrze obrazuje badanie przeprowadzone przez firmę Kapwing. Przeanalizowano w nim około 15 tys. najpopularniejszych kanałów na YouTube na całym świecie – po 100 z każdego kraju. W tej grupie zidentyfikowano 278 kanałów publikujących wyłącznie treści generowane przez sztuczną inteligencję. Łącznie zgromadziły one ponad 63 mld wyświetleń i 221 mln subskrybentów. To liczby porównywalne z największymi globalnymi mediami, z tą zasadniczą różnicą, że w tym przypadku nie ma redakcji, autorów ani procesu twórczego w tradycyjnym sensie. Produkcja polega na automatycznym generowaniu postaci, animacji, głosów i obrazów, często według jednego schematu powielanego setki lub tysiące razy. Treści są „składane” przez algorytmy niczym na taśmie produkcyjnej. Sens i jakość nie mają tu znaczenia, ponieważ o sukcesie nie decyduje odbiór krytyczny, lecz reakcja systemu rekomendacji.

W osobnym eksperymencie badacze założyli nowe konto użytkownika i sprawdzili, jakie filmy są mu polecane na samym początku korzystania z platformy. Spośród pierwszych 500 rekomendowanych materiałów aż 104, czyli 21 proc., należały do kategorii ai slop. Około jedna trzecia wszystkich poleceń mieściła się w jeszcze szerszym zjawisku określanym mianem „brainrot”. Są to treści skrajnie uproszczone, powtarzalne i często absurdalne, pozbawione kontekstu i znaczenia. Nie opowiadają historii, nie przekazują informacji, nie wymagają zrozumienia. Ich jedynym celem jest utrzymanie wzroku widza na ekranie jak najdłużej. Brainrot działa jak wizualny bodziec – przyciąga uwagę, ale nie pozostawia po sobie żadnej treści. Z punktu widzenia algorytmu jest to forma idealna, ponieważ widz rzadziej przerywa oglądanie i rzadziej opuszcza platformę.

Mechanizm stojący za tym zjawiskiem jest prosty i bezwzględny. YouTube oraz podobne platformy zarabiają przede wszystkim na czasie spędzonym przez użytkowników przed ekranem. Każda dodatkowa minuta to kolejne reklamy, kolejne dane o zachowaniach widzów i kolejne pieniądze. Algorytm rekomendacji nie ocenia filmów pod kątem prawdy, sensu czy wartości społecznej. Analizuje wyłącznie zachowania użytkowników: czy ktoś kliknął materiał, czy obejrzał go do końca, czy nie przerwał po kilku sekundach. Treści typu ai slop wypadają w tych testach znakomicie, ponieważ nie stawiają odbiorcy żadnych wymagań. Nie trzeba znać języka, kontekstu kulturowego ani tematu. Wystarczy patrzeć. W efekcie algorytm „uczy się”, że takie materiały są skuteczne, i zaczyna promować je coraz częściej, stopniowo wypychając na margines treści wymagające skupienia, wiedzy lub refleksji.

Dobrze ilustruje to przykład kanału Bandar Apna Dost z siedzibą w Indiach. Według badania zgromadził on ponad 2,07 mld wyświetleń dzięki absurdalnym filmom opartym na postaciach generowanych przez sztuczną inteligencję. Materiały te są pozbawione fabuły i sensu w klasycznym rozumieniu, a mimo to generują – według szacunków – około 4,25 mln dolarów rocznych przychodów. To dowód na to, że ai slop nie jest przypadkowym efektem ubocznym systemu, lecz logicznym produktem rynku, który reaguje na bodźce algorytmiczne szybciej niż jakiekolwiek regulacje czy deklaracje platform.

Zjawisko to ma charakter globalny. Kanały oparte na treściach generowanych przez AI są masowo oglądane m.in. w Hiszpanii, Egipcie, Stanach Zjednoczonych, Brazylii i Korei Południowej, gdzie liczba wyświetleń takich materiałów liczona jest w miliardach. W praktyce oznacza to, że globalne Południe i cyfrowe peryferia stały się zapleczem produkcyjnym nowej formy dumpingu treści. Niski próg wejścia, dostęp do tanich narzędzi generatywnych i obietnica zarobku w dolarach tworzą warunki przypominające wcześniejsze fale outsourcingu. Różnica polega na tym, że zamiast fabryk i szwalni funkcjonują dziś farmy kanałów, które produkują nie towary, lecz bezsensowną uwagę.

Mechanizm ten dotyczy również Polski. Choć polskie kanały oparte na AI rzadziej osiągają globalne miliardy wyświetleń, polscy użytkownicy są masowymi odbiorcami tego typu treści. Algorytm rekomendacji nie zna granic językowych ani kulturowych – jeśli film zatrzymuje uwagę, trafia do listy polecanych także w Polsce. Skutek jest taki, że coraz trudniej przebić się z treściami edukacyjnymi, publicystycznymi czy dziennikarskimi. Polscy twórcy konkurują nie tylko między sobą, lecz także z tysiącami automatycznie generowanych filmów publikowanych przez całą dobę. Jest to forma dumpingu treściowego, analogiczna do dumpingu płacowego: rzetelna praca i realny wysiłek przegrywają z masową, tanią produkcją.

Jak zauważa dziennikarz Max Read, za tymi filmami stoi półustrukturyzowany i szybko rosnący przemysł. Twórcy, często anonimowi, organizują się w dużych grupach na Telegramie, Discordzie oraz w komunikatorze WhatsApp. Wymieniają się gotowymi schematami filmów, instrukcjami generowania treści i poradami, jak „dogadać się” z algorytmem. Sprzedają również kursy obiecujące szybki sukces i „wiral w 24 godziny”. Nie jest to już kreatywność ani twórczość, lecz inżynieria uwagi, w której treść staje się jedynie narzędziem do manipulowania systemem rekomendacji.

Szkodliwość tego zjawiska ma charakter wielowymiarowy. Po pierwsze, degraduje ono przestrzeń informacyjną, zalewając ją treściami pozbawionymi znaczenia. Po drugie, osłabia pozycję twórców i mediów, które próbują działać rzetelnie, ponieważ nie są w stanie konkurować z automatyczną produkcją. Po trzecie, wpływa na użytkowników, zwłaszcza młodszych, skracając zdolność koncentracji i przyzwyczajając ich do przekazu pozbawionego sensu. Brainrot nie jest niewinną rozrywką, lecz cyfrowym odpowiednikiem fast foodu – łatwym w konsumpcji, ale szkodliwym w dłuższej perspektywie.

Oficjalne stanowisko platform pozostaje niezmienne. Rzecznik YouTube w rozmowie z „The Guardian” przekonuje, że sztuczna inteligencja jest jedynie narzędziem, a wszystkie treści muszą przestrzegać zasad społeczności. Jednocześnie wcześniejsze analizy pokazują, że niemal 10 proc. najszybciej rosnących kanałów na platformie stanowią kanały oparte na ai slop, gromadzące miliony wyświetleń mimo deklarowanych działań przeciwko „treściom nieautentycznym”. Trudno nie odnieść wrażenia, że dopóki bezsensowne filmy generują zaangażowanie i zyski reklamowe, dopóty będą tolerowane, a nawet pośrednio wspierane przez system.

Nie mamy więc do czynienia z chwilową modą ani kryzysem technologii. Jest to logiczny etap rozwoju cyfrowego kapitalizmu, w którym uwaga staje się najcenniejszym surowcem, algorytm – głównym regulatorem rynku, a użytkownik jednocześnie konsumentem i produktem. W takim systemie sens, wiedza i kultura przegrywają z tym, co najtańsze, najbardziej powtarzalne i najłatwiejsze do masowej konsumpcji. Internet, który miał być przestrzenią wymiany myśli i informacji, coraz częściej przypomina wysypisko treści, na którym jedynym kryterium wartości jest to, czy uda się zatrzymać widza przed ekranem choćby o kilka sekund dłużej.

Redakcja

Poprzedni

Europa na peryferiach

Następny

Trump: Rosja chce, by Ukraina odniosła sukces