Internet je prepun lažnih slika koje je stvorio AI. Kako ih prepoznati?

Foto: Twitter/Reddit

PROŠLE jeseni korisnici Tumblra oduševili su se filmom Gončarov Martina Scorsesea iz 1973. godine, s Robertom De Nirom i Al Pacinom u glavnim ulogama. Hvalili su manje poznati Scorseseov klasik kao najveći mafijaški film ikada snimljen. Bio je ispred svog vremena, nikad nije zaslužio priznanje koje je zaslužio, piše TechCrunch.

Do sada svi znamo da Gončarov nije pravi film, već da je to samo Tumblr meme koji je postao popularan na internetu. Kako generiranje slika umjetnom inteligencijom postaje sve kvalitetnije, internet izgleda pomalo kao Tumblr u trenutku Gončarova. Stvaramo nove kolektivne stvarnosti, samo što ih ovaj put stvaramo objavljivanjem bez puno razmišljanja.

Kada je AI generator slike Midjourney prije dva tjedna otvorio pristup modelu Midjourney 5, njegovi hiperrealistični rezultati brzo su postali viralni. Neke od dobivenih slika ilustrirale su opasnosti ovih lako dostupnih alata, poput niza lažnih fotografija koje prikazuju uhićenje Donalda Trumpa.

Dramatični set slika, između ostalog, prikazuje Trumpa kako se nasilno opire uhićenju, a zatim bježi od odreda policajaca. Slike, koje su se munjevito proširile internetom, napravio je Eliot Higgins, osnivač časopisa za istraživačko novinarstvo Bellingcat. Higginsovi početni tweetovi jasno su dali do znanja da se samo igrao s AI generatorima slika, ali brzo su se proširili bez popratnog konteksta.

Druge viralne AI slike su benignije, poput fotografije pape Franje u bijelom Balenciaginom kaputu. Samo jedan od viralnih tweetova s fotografijom pregledan je više od 26 milijuna puta.

Što je premisa vjerodostojnija, vjerojatnije ćemo sliku registrirati kao pravu

To čak nije bio ni jedini AI mem povezan s Balenciagom koji je postao viralan u prošlom tjednu. Kreator koji se zove demonflyingfox koristi Midjourneyeve slike, govor Eleven Labsa i D-ID animaciju kako bi napravio satrirične videozapise pokretane umjetnom inteligencijom. 

Njegov najrašireniji video je Harry Potter by Balenciaga, reklama u stilu te modne kuće u kojoj AI izvedbe likova iz franšize govore stvari poput: "Ti si Balenciaga, Harry."

Demonflyingfox je za TechCrunch rekao da svoje videe namjerno pokušava učiniti dovoljno čudnima da nitko slučajno ne povjeruje da su stvarni, ali i da namjerno koristi Midjourney 4 umjesto ažuriranog softvera, tako da likovi ne izgledaju toliko realistično da bi mogli nekoga zavarati.

"Ono što radim toliko je očito lažno da se zapravo ne brinem o širenju dezinformacija niti mi je to namjera. Ali znam za snagu alata i da je to sada vrlo lako učiniti", rekao je demonflyingfox.

Što je vjerodostojnija, vjerojatnije je da će ljudi sliku registrirati kao činjenicu. Tako primjerice, piše TechCrunch, ako niste stručnjak za papinsko odijevanje, mogli biste povjerovati da Papa ima bijelu pufer jaknu za zimske izlaske. Naime, to je Papa koji je nekoć radio kao izbacivač noćnog kluba u Argentini pa je moguće, zar ne?.

Čak je i supermodel Chrissy Teigen nasjela na šalu. "Mislila sam da je Papina pufer jakna prava i nisam o tome razmišljala. Nikako neću preživjeti budućnost prema kojoj tehnologija ide”, napisala je na Twitteru.

Nepostojeći potres u Americi 2001.

Slike uhićenja Trumpa također su postale viralne, ali ih je mogao dovoljno brzo provjeriti bilo tko spreman pogledati Twitter u potrazi za dokazima o objavljivanju stvarne vijesti. Taj je proces malo manje očit za povijesne događaje koje je generirala umjetna inteligencija.

Prije samo nekoliko dana korisnik Reddita u/Arctic_Chilean objavio je niz fotografija generiranih umjetnom inteligencijom na subredditu Midjourney, tvrdeći da ilustriraju "veliki potres i tsunami 9.1 2001. koji je pogodio SAD i Kanadu". 

Unutar granica tog subreddita, koji je posvećen eksperimentima s Midjourneyjevim AI alatima, očito je da "veliki potres" nije stvaran događaj. Ali ako je Midjourney samo jedan od mnogih subreddita na vašem feedu, lako je konzumirati slike bez razmišljanja o njima.

"Jesam li ja bio jedini koji se zapitao kako to nisam vidio dok nisam vidio subreddit?" napisao je jedan korisnik Reddita.

Slike su dovoljno bliske stvarnosti da bi mogle biti istinite. Subdukcijska zona Cascadia, koja se spominjala u fotografijama, pravi je rasjed blizu pacifičkog sjeverozapada i mjesto velikog, razornog potresa 1700. godine. Ljudi u regiji zabrinuti su da bi se katastrofa takvih razmjera mogla ponoviti tijekom njihovih života, što je spoznaja koja prožima prizore koje je stvorio AI.

The 2001 Great Cascadia 9.1 Earthquake & Tsunami - Pacific Coast of US/Canada
by u/Arctic_Chilean in midjourney

Svi bismo mogli biti na pragu kolektivne halucinacije

Ponekad AI alati kao što su ChatGPT i Bing AI "haluciniraju" - izraz koji se koristi kada pouzdano odgovaraju na pitanja s lažnim informacijama. Preplavljeni morem sintetičkih slika, svi bismo mogli biti na pragu kolektivne halucinacije.

"Htio sam te napasti jer objavljuješ stare vijesti na ovom subredditu. Ovo izgleda tako stvarno da je suludo", komentirao je jedan korisnik.

Internetske zajednice imaju tendenciju okupiti se oko neke ideje i izgraditi temeljnu spoznaju o njoj. Naravno, upravo se to dogodilo s ovim lažnim povijesnim događajima jer su korisnici Reddita počeli stvarati vlastitu povijest o tome kako je potres 2001. utjecao na globalnu politiku.

"Unatoč veličini i razaranju koje je izazvao veliki potres u Concordiji 2001., čini se da se 10 godina kasnije malo ljudi sjeća tog događaja. To je vjerojatno zbog kombinacije čimbenika, uključujući globalni rat protiv terorizma, rat u Iraku i veliku recesiju", napisao je drugi korisnik u izmišljenom novinskom članku.

Kako široko dostupni AI generatori slika brzo postaju sve sofisticiraniji, njihove kreacije mogle bi nadmašiti našu sposobnost prilagodbe na poplavu uvjerljivih, ali potpuno lažnih slika. Bilo dobro ili loše, sada je moguće stvoriti vlastitog Gončarova, s početka teksta, u trenu, pretvarajući svaku maglovitu fikciju u nešto opipljivo i stavljajući je na internet.

Potreba za zakonskom regulativom

Iako su mnoge od ovih kreacija bezopasne, nije teško zamisliti kako sintetičke slike mogu manipulirati javnom spoznajom o trenutnim ili povijesnim događajima. 

Ispostavilo se da je Balenciaga papa zamisao 31-godišnjaka na halucinogenim gljivama, koji je za BuzzFeed News rekao da nije razmišljao o posljedicama AI slika. "Definitivno će postati ozbiljno ako ne počnu provoditi zakone koji to reguliraju", rekao je.

Doista, zakonodavci u Ujedinjenom Kraljevstvu i nekim američkim državama donijeli su zabrane AI pornografije. No slike poput velikog potresa u Cascadiji i Balenciaginog pape nisu intrinzično štetne i neće se uskoro suočiti s regulatornim ogradama.

Slike generirane umjetnom inteligencijom još uvijek nisu savršene. Ulični znakovi izgledaju kao da su napisani na izmišljenom jeziku i pismu, a ima više ruku s tri prsta nego što biste ih našli u prirodnom svijetu. Obično, ako dovoljno pažljivo pogledate sliku generiranu umjetnom inteligencijom, možete pronaći neku čudnu nepravilnost, skup piksela koji vam govori da nešto nije u redu. Ali sve je teže razlikovati stvarno od izmišljenog i sve je teže zamisliti što slijedi.

Pročitajte više