Internet umire pred našim očima: AI „otpad“ je svuda
Masovno smo preplavljivanji interneta "AI muljem" (nekvalitetnim, mašinski generisanim sadržajem), što ozbiljno narušava autentični diskurs i pažnju. Generativna veštačka inteligencija samouvereno netačna, izmišljajući činjenice koje se brzo šire i postaju prihvaćene kao "istina" nakon što ih ponove drugi AI sistemi, otežavajući raspoznavanje laži i stvarnosti. Ovaj problem je pogoršan činjenicom da se AI modeli obučavaju korišćenjem ukradenih radova ljudskih stvaralaca bez adekvatne naknade ili atribucije, čime se ugrožavaju kreativni profesionalci. Izvor naglašava posvećenost stvaranju isključivo ljudskog i rigorozno proverenog sadržaja, sa prosekom od sto sati provere činjenica po videu, odbijajući da kompromituje kvalitet koristeći AI za generisanje materijala.
AI alati su svuda, obećavajući revoluciju u svemu, od pisanja mejlova do naučnih istraživanja. Uzbuđenje je opipljivo, ali ispod površine ove tehnološke euforije raste jedan podmukli problem koji ugrožava samu suštinu interneta kakvog poznajemo. Ne radi se samo o lošim tekstovima ili čudnim slikama; radi se o fenomenu poznatom kao „AI otpad“ (AI Slop) – masovnoj proizvodnji osrednjeg, bezdušnog i često netačnog sadržaja koji preplavljuje digitalni prostor.
1. Polovina interneta su botovi, a AI to čini još gorim
Pre nego što je generativna AI postala dostupna svima, internet je već imao ozbiljan problem sa autentičnošću. Procenjuje se da oko polovinu ukupnog internet saobraćaja čine botovi, a većina njih se koristi u destruktivne svrhe – za pisanje lažnih recenzija, generisanje lažnog saobraćaja ili trovanje diskursa na društvenim mrežama. Veštačka inteligencija je ovaj problem „super-napunila“. Nikada nije bilo lakše proizvesti beskrajnu količinu osrednjeg sadržaja na svim platformama. Od besmislenih objava na LinkedIn-u i niskokvalitetnih video snimaka koji hipnotišu decu, do bezbrojnih, bezdušno prepisanih knjiga na Amazonu, AI muzike i AI generisanih videa na temu nauke, eseja ili kriminala. Nijedan prostor nije siguran.
Povrh svega, ovaj sadržaj se često gradi na temeljima krađe. Kako navodi tim Kurzgesagt-a, svaki komentar na Redditu, originalni video na YouTube-u ili crtež na DeviantArt-u je prodat ili direktno ukraden od strane AI kompanija kako bi trenirale svoje modele, bez ikakve nadoknade ili priznanja autorima. Ovo nije samo tehnički problem zagušenja servera; to je fundamentalni napad na ekonomiju pažnje, gde je autentičnost postala ugrožena vrsta.
Kreativna krađa u razmerama od kojih je nemoguće zaštititi se, već ugrožava rad mnogih kreativaca – kako bi se AI kompanije obogatile.
2. AI ne zna šta je istina – i samouvereno izmišlja činjenice
Kako bi testirao mogućnosti AI alata, tim Kurzgesagt je pokušao da ga iskoristi za kreiranje scenarija o Smeđim patuljcima. Na prvi pogled, rezultati su bili impresivni. Međutim, kada je počela detaljna provera činjenica, otkrili su uznemirujuću istinu. Dok je većina informacija bila solidna, AI je samouvereno izmislio ili ekstrapolirao intrigantne „činjenice“ kako bi temu učinio zanimljivijom – poput brzine oluja na smeđim patuljcima ili prirode njihove unutrašnjosti. Kako navode iz tima, AI se ponašao kao „loš novinar koji izmišlja detalje kako bi priča imala jači uticaj“.
Najveća opasnost leži u tome što AI deluje inteligentno i pouzdano, zbog čega je njegove izmišljotine gotovo nemoguće prepoznati ako niste stručnjak za datu oblast. Ovo otkriće razotkriva fundamentalni paradoks: alat dizajniran za obradu informacija nema koncept istine, što ga čini savršenim, nesvesnim generatorom dezinformacija.
Koliko god elokventno delovali trenutni jezički modeli, tu nema nikoga. Ne odgovara vam nikakva viša inteligencija ili svest. Trenutni AI je veoma složen čekić koji ne razume šta radi niti šta su ekseri.
3. Stvara se začarani krug: Dezinformacije postaju izvori
Problem „samouverenog lažova“ opisan u prethodnoj tački ne ostaje izolovan incident. Njegove posledice su dalekosežne i stvaraju ono što se može nazvati „spiralom smrti informacija“, gde se jedna laž transformiše u izvor za sledeću. Najalarmantnije otkriće iz eksperimenta sa Smeđim patuljcima došlo je nekoliko nedelja kasnije, kada je tim slučajno naišao na popularan YouTube video o istoj temi, sa stotinama hiljada pregleda. Taj video je sadržao potpuno iste izmišljene činjenice koje su oni prethodno identifikovali kao netačne.
Tu počinje „smrt interneta“. Taj popularni video, sa velikim brojem pregleda, sada postaje legitiman izvor informacija za sledeću generaciju AI modela. Na ovaj način, dezinformacija se „pere“ i pretvara u prividnu istinu. Time se digitalni ekosistem pretvara u eho-komoru u kojoj se laži ne samo ponavljaju, već i legitimizuju, postajući sve teže za raskrinkavanje sa svakom novom iteracijom.
Dezinformacija je sada istinita. Ona će se širiti. Kako se upotreba AI nastavlja, može postati nemoguće znati šta je istina, a šta nije.
4. Korupcija znanja: Čak se i nauka kompromituje
Ovaj problem nije ograničen samo na blogove ili YouTube. Već je počeo da se infiltrira i u akademski svet, narušavajući temelje ljudskog znanja. Jedna studija je otkrila nagli i oštar porast upotrebe reči koje AI modeli preferiraju u naučnim radovima, što sugeriše da značajan deo novih istraživanja nastaje uz pomoć veštačke inteligencije, često bez navođenja.
Još šokantniji je podatak da su istraživači počeli da sakrivaju promptove unutar svojih radova – koristeći beli ili sitan tekst – kako bi prevarili AI alate za recenziju da daju pozitivne ocene i previde nedostatke u istraživanju. Ovo nije samo akademska prevara; ovo je početak epistemološke krize digitalnog doba, gde su sami mehanizmi za utvrđivanje istine kompromitovani na fundamentalnom nivou.
5. Ekonomija pažnje: Hoće li kvalitetan sadržaj preživeti?
Na internetu, jedini resurs koji je zaista vredan jeste ljudska pažnja. Postoji realan strah da će jeftin, masovno proizveden AI otpad, koji je „dovoljno dobar“ da privuče klik, apsorbovati većinu te pažnje. Ako se to dogodi, sadržaj koji zahteva veliki trud, duboko istraživanje i ljudsku kreativnost – poput videa kanala Kurzgesagt – mogao bi postati ekonomski neodrživ. Kreatori će biti primorani ili da ugase svoje projekte ili da naprave kompromis i sami počnu da koriste AI kako bi ostali konkurentni.
Tržište ideja se time pretvara u trku ka dnu, gde se ne nagrađuje dubina ili originalnost, već brzina i obim proizvodnje, rizikujući nestanak autentičnog, promišljenog i pouzdanog sadržaja. Tim Kurzgesagt-a ima jasan stav o tome.
Kome verovati u doba algoritama?
Najveća pretnja koju „AI otpad“ predstavlja nije samo loš sadržaj, već nepovratna erozija istine i poverenja na internetu. Kada se dezinformacije jednom puste u digitalni ekosistem, one se umnožavaju, mutiraju i postaju deo temelja na kojem buduće tehnologije uče i grade. Kako bismo se borili protiv ovoga, neophodan je pomak u ponašanju korisnika: svesna podrška proverenim, ljudskim autorima, razvoj kritičkog razmišljanja i digitalne pismenosti, kao i zahtevanje transparentnosti od tehnoloških platformi. Dok algoritmi postaju arbitri istine, a ljudski trud gubi bitku za pažnju, ostaje ključno pitanje: da li smo kao društvo spremni da platimo cenu pogodnosti gubitkom autentičnosti i, na kraju, same istine?
Komentari
Nema komentara. Šta vi mislite o ovome?