Lažni premijeri, liječnici, videopozivi. Deepfakeovi kradu milijarde
DEEPFAKE prijevare dosegle su industrijske razmjere, a alati za njihovu izradu postali su jeftini i lako dostupni za masovnu primjenu, pokazuje analiza koju su objavili stručnjaci za umjetnu inteligenciju. Lažni videosadržaji, poput onih u kojima se pojavljuju švedski novinari ili ciparski predsjednik, više nisu rijetkost, a prevaranti ih koriste za stvaranje prilagođenih i personaliziranih obmana, piše The Guardian.
Baza podataka o incidentima s umjetnom inteligencijom (AI Incident Database) zabilježila je više od deset nedavnih primjera "lažnog predstavljanja radi zarade". Među njima su deepfake video premijera Zapadne Australije, Roberta Cooka, koji nudi investicijsku shemu, te lažni liječnici koji promoviraju kreme za kožu.
Sve lako dostupno
Ovi slučajevi dio su šireg trenda u kojem prevaranti koriste lako dostupne AI alate za provođenje sve sofisticiranijih prijevara. Prošle je godine financijski službenik jedne singapurske multinacionalne tvrtke isplatio gotovo 500.000 dolara prevarantima nakon što je sudjelovao u, kako je vjerovao, videopozivu s upravom tvrtke.
Procjenjuje se da su britanski potrošači u devet mjeseci do studenog 2025. zbog prijevara izgubili 9.4 milijarde funti. "Mogućnosti su odjednom dosegle razinu na kojoj lažni sadržaj može stvoriti praktički bilo tko", rekao je Simon Mylius, istraživač s MIT-a koji radi na projektu povezanom s bazom podataka.
On navodi da su "prijevare, obmane i ciljana manipulacija" činile najveći udio incidenata prijavljenih bazi u 11 od posljednjih 12 mjeseci. "Sve je postalo toliko dostupno da zapravo više nema nikakvih prepreka za ulazak", dodao je.
S time se slaže i Fred Heiding, istraživač s Harvarda koji proučava prijevare potpomognute umjetnom inteligencijom. "Mijenjaju se razmjeri. Postaje toliko jeftino da se time može služiti gotovo svatko. Modeli postaju zaista dobri - napreduju mnogo brže nego što većina stručnjaka misli", istaknuo je.
Neobičan intervju za posao
Početkom siječnja, Jason Rebholz, izvršni direktor tvrtke za AI sigurnost Evoke, objavio je oglas za posao na LinkedInu. Ubrzo ga je kontaktirala nepoznata osoba iz njegove mreže i preporučila kandidata. U roku od nekoliko dana, Rebholz je razmjenjivao e-mailove s osobom koja je na papiru djelovala kao talentirani inženjer.
"Pogledao sam životopis i pomislio kako je zaista dobar. Iako je bilo nekih sumnjivih znakova, odlučio sam ga pozvati na razgovor", ispričao je. Tada su stvari postale čudne. E-mailovi kandidata završavali su u neželjenoj pošti, a životopis je imao neobičnosti. Ipak, Rebholz je odlučio nastaviti s intervjuom.
Kada je započeo videopoziv, slika kandidata pojavila se tek nakon gotovo minute. "Pozadina je bila očito lažna. Izgledala je jako, jako umjetno. Program se mučio s rubovima oko osobe. Događalo se da mu dio tijela nestaje pa se opet pojavljuje. A lice mu je bilo nekako zamućeno po rubovima", opisao je Rebholz.
Lažno predstavljanje
Nastavio je s razgovorom, ne želeći se dovesti u neugodnu situaciju izravnim propitkivanjem je li kandidat zapravo složena prijevara. Nakon poziva, snimku je poslao kontaktu u tvrtki za otkrivanje deepfake sadržaja, koji je potvrdio da je videoslika kandidata generirana umjetnom inteligencijom.
Rebholz je odbio kandidata, no i dalje ne zna što je bio cilj prevaranta - inženjerska plaća ili poslovne tajne. Iako je bilo izvješća o sjevernokorejskim hakerima koji su se pokušavali zaposliti u Amazonu, Evoke je startup, a ne veliki igrač. "Ako smo mi meta ovoga, onda su meta svi", zaključio je.
Istraživač Fred Heiding upozorava da najgore tek slijedi. Trenutno je tehnologija deepfake kloniranja glasa izvanredna, što prevarantima olakšava da se telefonski predstave kao, primjerice, unuk u nevolji. Deepfake videozapisi, s druge strane, još uvijek imaju prostora za napredak.
To bi moglo imati ekstremne posljedice na zapošljavanje, izbore i društvo u cjelini. "To će postati ogroman problem - potpuni gubitak povjerenja u digitalne institucije i materijale općenito", dodao je Heiding.