Na društvene mreže stižu AI rojevi. Nitko ih neće moći prepoznati

AI ilustracija

DRUŠTVENE mreže uskoro će preplaviti rojevi umjetne inteligencije koji će širiti dezinformacije, maltretirati korisnike i potkopavati demokratske procese, upozoravaju znanstvenici.

Prema komentaru objavljenom 22. siječnja u časopisu Science  takozvani "AI rojevi" postat će novo oružje u informacijskim ratovima.

Teško prepoznatljivi botovi

Za razliku od klasičnih botova, koji su uglavnom primitivni i lako prepoznatljivi, ovi bi sustavi mogli uvjerljivo oponašati ljudsko ponašanje, prilagođavati se zajednicama u koje se ubacuju i stvarati dojam spontanog, autentičnog djelovanja. Drugim riječima, korisnicima bi se moglo činiti da se pred njihovim očima oblikuje mišljenje većine, iako ga u stvarnosti orkestrira umjetna inteligencija.

Zamislite da se stavovi u vašoj omiljenoj online zajednici odjednom počnu naglo učvršćivati oko tema o kojima se još do nedavno raspravljalo. Ljudi su, u pravilu, skloni slijediti ono što doživljavaju kao stav većine. No, problem nastaje ako ta "većina" zapravo ne postoji, nego je vodi nevidljivi roj AI agenata koji djeluje u interesu nekog pojedinca, političke stranke, korporacije ili države.

Mišljenje većine

Kako objašnjava suautor komentara, Jonas Kunst, profesor komunikologije s norveške poslovne škole BI, ljudi su po prirodi konformisti, što znači da su skloni prihvaćati stavove i ponašanja većine jer im to daje osjećaj sigurnosti, pripadnosti i društvene ispravnosti, čak i kada nisu posve uvjereni da je većina u pravu. Iako to nerado priznaju, često vjeruju da stav koji dijeli većina ima neku posebnu vrijednost. Upravo je to, upozorava Kunst, slabost koju bi AI rojevi mogli vrlo učinkovito iskoristiti.

No manipulacija mišljenjem nije jedina opasnost. Isti ti sustavi mogli bi se koristiti i za organizirano uznemiravanje. Ljude koji se ne slažu s određenim načinom razmišljanja, umjesto stvarnih, ljutitih korisnika društvenih mreža mogli bi napadati AI rojevi koji će odrađivati digitalni linč sve dok ih ne ušutkaju ili ne otjeraju s platforme.

Ljudskiji od ljudi

Autori u uvodu pišu da napredak u razvoju AI-ja otvara mogućnost manipuliranja uvjerenjima i ponašanjem na razini cijele populacije.

"Veliki jezični modeli (LLM) i autonomni agenti omogućuju kampanjama utjecaja da dosegnu dosad nezabilježene razmjere i preciznost. Generativni alati mogu povećati količinu propagande bez gubitka vjerodostojnosti i mogu uz niske troškove stvarati neistine koje se doživljavaju "ljudskijima" od onih koje pišu ljudi.

Tehnike namijenjene poboljšanju rezoniranja AI-ja, poput chain-of-thought promptanja, mogu se koristiti za stvaranje uvjerljivijih laži. Zahvaljujući tim sposobnostima, javlja se nova, destabilizirajuća prijetnja: rojevi suradničkih, zlonamjernih AI agenata. Povezivanjem rezoniranja LLM-ova s višeagentskim arhitekturama, ti su sustavi sposobni autonomno se koordinirati, infiltrirati u zajednice i učinkovito stvarati privid konsenzusa. Prilagodljivim oponašanjem ljudske društvene dinamike, oni ugrožavaju demokraciju", upozoravaju autori.

Tvorce AI-ja treba natjerati da slijede pravila

Drugim riječima, problem ne nastaje samo zato što netko zloupotrebljava umjetnu inteligenciju, nego zbog samog načina na koji su ti sustavi napravljeni, zbog načina na koji se zarađuje na njima i zbog načina kako se njima upravlja ili ne upravlja.

Stoga autori komentara ne računaju na to da će se tvrtke ili korisnici sami ponašati odgovorno iz čiste dobre volje. Umjesto kreiranja pukih preporuka koje se mogu ignorirati, zagovaraju poduzimanje konkretnih mjera i postavljanje pravila na više razina koje bi stvarno mogle ograničiti štetu.

Neki su možda već u akciji

Autori komentara ne navode točan vremenski okvir u kojem bi se ovakvi rojevi mogli masovno pojaviti, no upozoravaju da će ih biti iznimno teško otkriti. Zbog toga nije jasno jesu li neki oblici takvih rojeva već sada u upotrebi.

Mnogi korisnici društvenih mreža već ionako primjećuju porast utjecaja botova, a posljednjih godina širi se i tzv. teorija "mrtvog interneta", prema kojoj velik dio online sadržaja više ne stvaraju ljudi, nego automatizirani sustavi.

Više od pola prometa čine botovi

Važno je pritom naglasiti da internet već sada obiluje botovima. Procjene govore da oni čine više od polovice ukupnog internetskog prometa.

Klasični botovi uglavnom izvršavaju jednostavne zadatke, poput ponavljanja iste poruke, i često ih je relativno lako prepoznati. No, čak i takvi botovi mogu nanositi štetu širenjem lažnih informacija i umjetnim napuhavanjem određenih narativa.

Digitalni organizmi

Nova generacija AI rojeva ide znatno dalje. Njima upravljaju veliki jezični modeli, isti oni koji stoje iza popularnih chatbotova. Takvi sustavi mogu učiti, prilagođavati se i stvarati niz uvjerljivih online osoba s vlastitim "identitetom" i memorijom. Autori komentara opisuju ih kao svojevrsne digitalne organizme sposobne za samostalnu koordinaciju i dugoročno iskorištavanje ljudskih psiholoških slabosti.

Poseban problem je to što se ova tehnologija pojavljuje u trenutku kada su digitalni prostori već ionako ozbiljno narušeni. Naime, autori upozoravaju da već sada svjedočimo eroziji racionalne rasprave i sve slabijem osjećaju postojanja zajedničke stvarnosti među građanima. U takvom okruženju AI rojevi ne bi morali stvarati kaos ni iz čega – dovoljno bi bilo da samo dodatno poguraju postojeće obrasce i podjele.

Ovakve masovne manipulacije nisu neka hipotetska distopija. Primjerice, Reddit je prošle godine zaprijetio pravnim sudskim postupkom  znanstvenicima koji su u popularnom forumu r/changemyview koristili AI chatbotove u eksperimentu kojim su pokušali utjecati na mišljenja četiri milijuna korisnika. Prema preliminarnim nalazima istraživača, odgovori njihovih chatbotova bili su tri do šest puta uvjerljiviji od odgovora ljudskih korisnika.

Treba se na vrijeme pripremiti

Zaključak autora nije da je apokalipsa neizbježna, nego da se radi o stvarnom i rastućem riziku koji zahtijeva ozbiljnu raspravu. Ako se društva na vrijeme ne pripreme, upozoravaju, granica između stvarnog javnog mnijenja i umjetno proizvedenog privida mogla bi postati opasno nejasna.

Komentare možete pogledati na ovom linku.

Pročitajte više

 
Komentare možete pogledati na ovom linku.