AI mijenja ratne fotografije i snimke: "Nisu lažne, ali su promijenjene"
RAT NA BLISKOM istoku doveo je do poplave dezinformacija generiranih umjetnom inteligencijom (AI), no osim posve krivotvorenih slika širi se još jedna vrsta sadržaja, autentične snimke "poboljšane" na načine za koje stručnjaci tvrde da suptilno mijenjaju percepciju onoga što se zbiva na terenu, javlja AFP.
Na upečatljivoj fotografiji Kuvajćanin naoružan željeznom palicom se suočava s klečećim američkim pilotom, koji je netom prije padobranom iskočio iz svog zrakoplova. Fotografija visoke rezolucije brzo se proširila internetom te su je objavili čak i neki mediji. Međutim, čini se da pilot ima samo četiri prsta na svakoj ruci.
Djelatnici AFP-a zaduženi za provjeravanje činjenica učitali su fotografiju u alate za detekciju AI-a i utvrdili da sadrži SynthID, nevidljiv vodeni žig koji služi identifikaciji slika načinjenih Googlevom tehnologijom AI-a. No, to nije cijela priča.
Sama situacija jest autentična. Videosnimka koja prikazuje isti događaj se pojavila na društvenim mrežama 2. ožujka, a satelitske snimke su potvrdile njegovu lokaciju. Također, poklapa se s izvješćima da je Kuvajt tog dana greškom oborio tri američka borbena zrakoplova.
AFP je uspio pronaći raniju inačicu fotografije na komunikacijskoj platformi Telegram, koja je odgovarala slici visoke rezolucije, samo što je bila mutna. Alatima za detekciju AI-a je utvrđeno da je ova fotografija bila stvarna. To upućuje na to da je mogla poslužiti kao ishodišna točka za fotografiju izrađenu Googlevim alatima AI-a.
"Fotografija djeluje stvarnije od originala"
"Poboljšanje kvalitete korištenjem AI-a može suptilno izmijeniti teksture, lica, osvjetljenje ili pozadinske detalje te stvoriti fotografiju koja djeluje stvarnije od originala", rekao je Evangelos Kanulas, profesor umjetne inteligencije na sveučilištu u Amsterdamu.
To može "pojačati određeni narativ o nekom događaju pa se, naprimjer, neki prosvjed može činiti nasilnijim, gomila većom, izrazi lica intenzivnijima".
U drugom slučaju, korisnici društvenih mreža su podijelili dramatičnu snimku ogromnog požara blizu iračke zračne luke Irbil nakon što je Iran napao to područje 1. ožujka. Premda je pronađen SynthID, fotografija nije bila potpuna krivotvorina. Izvorna verzija slike prikazuje isti prizor, no s daleko manjim požarom i dimom.
Stručnjaci su upozorili na to da je tanka linija između poboljšavanja i generiranja sadržaja, bilo je da riječ o slučajnom ili namjernom postupanju. "Čak i male izmjene mogu na koncu pričati veoma različitu priču", kazao je James O'Brien, profesor računarstva na kalifornijskom sveučilištu Berkeley, dodajući da bi to "moglo promijeniti percepciju događaja".
Generativna umjetna inteligencija je također i dalje sklona greškama i može "halucinirati" te dodati elemente koji nisu bili u prvotnoj slici, dodao je Kanulas. "Sada ljudi počinju sumnjati i u autentične snimke", zaključio je.