natemat.pl
Wiktor Knowski
CO TO JEST AI SLOP? ŚCIEK, W KTÓRYM UTONIEMY MY I NASZA KULTURA
AI Slop zalewa internet. Od krewetkowego Jezusa, po polityczną dezinformację – treści generowane przez sztuczną inteligencję zagrażają całej naszej wirtualnej kulturze.
To już prawie dwa lata odkąd świat zaczął używać ChataGPT. W pierwszych miesiącach od publikacji produktu OpenAI, eksperci i inwestorzy przekrzykiwali się w obietnicach i ostrzeżeniach związanych ze sztuczną inteligencją.
Miała przynieść koniec pracy zarobkowej, nierówności społecznych, ale też sztuki, kontaktów międzyludzkich, a w mroczniejszych scenariuszach nawet ludzkości.
No i co?
Żeby nie odpowiadać zbyt pochopnie na to prowokacyjne pytanie, powiem delikatnie: no i wylał ściek. Inaczej slop. Słowo to, z angielskiego, znaczy: pomyje, lurę. A od tego roku również „niskiej jakości media – teksty i obrazy – tworzone przy użyciu generatywnej sztucznej inteligencji.”
Najgłośniejsze przykłady AI slopu to obrazki Jezusa uformowanego z krewetek czy okaleczonych dzieci proszących o lajki na Facebooku z okazji swoich urodzin.
Slop obejmuje jednak znacznie więcej, niż facebookowe posty. Znikomej jakości wygenerowane książki masowo trafiają na Amazona, a stworzona przy użyciu AI muzyka ląduje na Spotify. Kolejne portale publikujące zgłoszenia w postaci opowiadań czy poezji od czytelników wstrzymują swoją działalność. Czy slop to prawdziwa, codzienna twarz rewolucji AI?
AI slop zalewa internet
W ubiegłym roku Sundar Pichai – dyrektor naczelny Google powiedział, że technologia AI jest „ważniejsza od okiełznania ognia, elektryczności czy innych rzeczy, jakich dokonała ludzkość.” Co więc do tej pory nasz gatunek zrobił z tym prometejskim darem? Stworzył krewetkowego Jezusa.
Żeby porozmawiać o slopie, odezwałem się do Dariusza Jemielniaka – wiceprezydent Polskiej Akademii Nauk, zasiadającego m.in. w zarządach CampusAI czy Europejskiego Instytutu Innowacji i Technologii. Jak zauważył w naszej rozmowie – wprowadzenie do użytku publicznego zaawansowanych systemów AI może mieć dwojakie konsekwencje.
„Sztuczna inteligencja umożliwia masowe tworzenie treści w krótkim czasie, co z jednej strony demokratyzuje dostęp do informacji, ale z drugiej prowadzi do przesycenia materiałami o niskiej wartości merytorycznej.”
Generatywna sztuczna inteligencja sprawia, że każdy, niezależnie od wykształcenia czy intencji, może stworzyć materiał przedstawiający dowolną treść. Choć słyszymy, że do tej pory również mogliśmy korzystać np. z pakietu Adobe i Photoshopa, nigdy wcześniej tworzenie takiej jakości treści nie było tak banalne.
O konsekwencjach demokratyzacji procesu twórczego pierwsi zaczęli mówić sami twórcy. Nie tylko w obawie o źródła przychodu, ale także o jakość treści publikowanych w sieci.
„Nadmiar niskiej jakości treści może stanowić poważne wyzwanie dla twórców wysokiej jakości materiałów” – czytam odpowiedź od Dariusza Jemielniaka. „W gąszczu licznych, ale słabych treści, wartościowe prace mogą być trudniejsze do odnalezienia przez odbiorców. To może prowadzić do zmniejszenia widoczności i dochodów twórców, którzy inwestują czas i wysiłek w tworzenie jakościowych materiałów. Jednak patrzmy na pozytywy – koniec końców, jeśli ludzie zaczną doceniać jakość (także z powodu zalewu chłamem), to dobrze”.
Co nam zrobi AI Slop?
Dowodem na to, że zalew niskiej jakości wygenerowanych treści może sprawić, że zaczniemy doceniać autorskie materiały, może okazać się sam termin „slop”.
To przecież jednoznacznie pejoratywne określenie, często tłumaczone jako „spam AI”. Samo to słowo jest reakcją społeczności internetowej na nadmiar treści wygenerowanych przez sztuczną inteligencję. Wywodzi się z forów na 4chanie i Reddicie. A zostało rozpowszechnione w tym roku po części w reakcji na wprowadzenie odpowiedzi AI do wyszukiwarki Google.
Ale to pokazuje również jak slop może zniechęcić nas do technologii AI jako takiej. Kojarzenie sztucznej inteligencji z natrętnymi materiałami na Facebooku może sprawić, że przestaniemy ufać narzędziom AI. Stworzone przy ich użyciu materiały będziemy natychmiast dyskredytować, jako bezwartościowy spam stworzony według zasady „ilość, a nie jakość„, w celu zbierania reakcji pod postem.
Już dzisiaj niechęć wobec materiałów AI jest wywołana słuszną obawą o stan kultury internetowej. Slop może okazać się w końcu zagrożeniem dla podstawowych mechanizmów korzystania z sieci.
Jak? Po pierwsze może drastycznie obniżyć jakość wyników wyszukiwania i ograniczyć nasze zaufanie do treści znajdywanych w internecie. Tym samym całkiem zakwestionuje jego rolę jako źródła informacji. Wyobrażacie to sobie?
Kultura internetowa to jednak nie tylko wyszukiwarki i media społecznościowe, ale również mniejsze portale, na których często rozkwitają nowe trendy, a twórcy i twórczynie stawiają swoje pierwsze kroki.
Podobne strony mogą nie wytrzymać zalewu materiałami AI, czego głośnym przykładem jest niezależny magazyn Clarkesworld, który musiał wstrzymać przyjmowanie zgłoszeń do publikacji po tym jak dziesiątki z nich okazały się wygenerowane przez ChatGPT.
Zwykle zaczyna się od frazy „W roku 2250-cośtam”, a następnie mówi, że ekosystem Ziemi jest zdewastowany i jest tylko trzech naukowców, którzy mogą nas uratować. Następnie opisuje ich bardzo szczegółowo, każdego w osobnym akapicie. A potem — rozwiązali problem! Pomija główny element fabuły i przechodzi do opisu świętowania rodem ze Star Warsów. Neil Clarke założyciel „Clarkesworld”
AI slop trafił również na Spotify. Tam też znajdziemy udokumentowane przypadki nieistniejących artystów z niebieskimi odznakami weryfikacji i setkami tysięcy słuchaczy miesięcznie.
W sieci krąży również wiele poradników, jak zarabiać na platformie przy użyciu treści wygenerowanych przez AI. Podobna sytuacja dotyczy również Amazona, zalewanego w ostatnim czasie książkami stworzonymi przy użyciu sztucznej inteligencji.
Jedną z autorek, które znalazły książki wygenerowane pod swoim nazwiskiem, jest Jane Friedman: „To na mnie, autorce, której reputacja jest zagrożona, ciąży obowiązek usunięcia tych książek z Amazona. Nie jestem nawet pewna czy to możliwe. Nie posiadam praw autorskich do tych śmieci. Nie jestem też właścicielką mojego nazwiska. Na jakiej podstawie mogę więc żądać usunięcia tych książek z Amazona?”
Jak na ironię, ostatnia książka Friedman, która doczekała się tylu plagiatów AI, nosi tytuł „Biznes bycia pisarzem„.
Po co komu slop?
Treści, o których tutaj mówimy, mają wiele cech charakterystycznych. Teksty są napisane dziwnie poprawnym językiem, grafiki są jakoś podejrzanie gładkie, muzyka jednorodna. Jednak moim zdaniem nie wynika to z ograniczeń tworzących je modeli AI, które swoim zaawansowaniem potrafią zaskoczyć nawet mnie (a przecież zawodowo zajmuje się „generowaniem tekstów”).
Sądzę, że estetyka AI slopu jest w dużej mierze efektem umyślnego działania jego twórców. Najlepszym przykładem jest tutaj krewetkowy Jezus, czy też jego kolejne wcielenia (pun intended): krabowy Jezus, Jezus-ziemniak i słynny Jezus-minionek.
Te grafiki nie mają udawać, że zostały stworzone w jakikolwiek inny sposób, niż przy użyciu sztucznej inteligencji.
Ich jedynym zadaniem jest wywołanie reakcji: czy będzie to oburzenie wywołane obrazą uczuć religijnych, komentarz z ironicznym (a może zupełnie poważnym?) „Amen”, czy zwykłe „WTF”.
Niezależnie od rodzaju reakcji, algorytm podchwyci ten post i puści go dalej. Generując kilkanaście postów przy użyciu AI dziennie, platforma pomyśli, że jesteś zaangażowanym twórcą.
W końcu któryś prowokacyjny post się wybije i zostanie viralem. Gdy zbierzesz wystarczająco dużą publiczność możesz zacząć przekierowywać ją na swoją stronę internetową z jeszcze większą ilością slopu. I tym sposobem zaczniesz zarabiać na reklamach.
Po czwarte: nie ufaj
Zapytany o to, jakie największe zagrożenia slopu dostrzega, Dariusz Jemielniak wymienia cztery I wszystkie są o zaufaniu: dezinformacja, obniżenie poziomu dyskursu publicznego i kulturowego, utrudniona komunikacja i erozja zaufania.
W końcu w internecie zdominowanym przez slop przestaniemy ufać jakimkolwiek informacjom. Nie tylko postom, ale nawet danym dotyczącym aktywności użytkowników i użytkowniczek.
Przekonała się o tym Robin Speer, twórczyni WordFreq – bazy danych analizujących częstotliwość wykorzystywania słów w sieci. Speer postanowiła wstrzymać jej działalność w ubiegłym miesiącu, za powód wskazując właśnie nadmiar treści AI.
Nie sądzę, żeby ktokolwiek posiadał wiarygodne informacje na temat tego, jak ludzie korzystają z języka po 2021 roku. Wpis ogłaszający koniec działalności WordFreq
Brak zaufania do informacji w sieci pogłębia również zupełna obojętność przedstawicieli i przedstawicielek sceny politycznej. Jej przykłady widzieliśmy niedawno w reakcji na huragan Helene w USA.
Współzałożycielka grupy Women for Trump, Amy Kremer opublikowała na platformie X grafikę wygenerowaną przez AI, przedstawiającą dziewczynkę trzymającą szczeniaka, płynącą na łodzi ratunkowej. Podpisała ją „To zdjęcie wryło się w mój umysł. Moje serce cierpi.”
W odpowiedzi na zarzuty o rozpowszechnianie nieprawdziwych informacji Kremer napisała: „Nie wiem, skąd pochodzi to zdjęcie i szczerze mówiąc, nie ma to żadnego znaczenia. Wryło mi się w pamięć na zawsze. Są ludzie, którzy przechodzą przez o wiele gorsze rzeczy niż te pokazane na tym zdjęciu. Więc je zostawiam, ponieważ jest symbolem traumy i bólu, przez które wiele osób teraz przechodzi.”