Predvidio da bi AI iduće godine mogao uništiti čovječanstvo. Sad kaže: "Ipak ne još"

Foto: Shutterstock, Freepik

Jedan od vodećih stručnjaka za umjetnu inteligenciju i bivši zaposlenik tvrtke OpenAI, Daniel Kokotajlo, odgodio je svoju zabrinjavajuću prognozu o mogućem uništenju čovječanstva. Prema njegovoj novoj procjeni, sustavima umjetne inteligencije trebat će više vremena nego što je prvotno predviđao da dosegnu točku na kojoj mogu samostalno kodirati i time ubrzati vlastiti razvoj prema superinteligenciji, piše The Guardian.

Scenarij koji je uzburkao javnost

Daniel Kokotajlo izazvao je burnu raspravu u travnju prošle godine objavom scenarija nazvanog "AI 2027". U njemu je predvidio da će nekontrolirani razvoj umjetne inteligencije dovesti do stvaranja superinteligencije koja će, nakon što nadmudri svjetske vođe, uništiti čovječanstvo.

Ovaj scenarij brzo je dobio i pristaše i kritičare. Činilo se da je potpredsjednik SAD-a JD Vance aludirao na "AI 2027" u intervjuu prošlog svibnja, govoreći o utrci u naoružanju umjetnom inteligencijom između SAD-a i Kine. S druge strane, Gary Marcus, profesor emeritus neuroznanosti na Sveučilištu New York, nazvao je Kokotajlov rad "djelom fikcije", a njegove zaključke "čistom znanstvenofantastičnom zbrkom".

Potraga za općom umjetnom inteligencijom

Vremenski okviri za razvoj transformativne umjetne inteligencije, poznate i kao opća umjetna inteligencija (OUI) - sposobne zamijeniti ljude u većini kognitivnih zadataka - postali su vruća tema u zajednicama koje se bave sigurnošću UI-ja. Objava ChatGPT-ja 2022. godine značajno je ubrzala te procjene, a mnogi stručnjaci predviđali su dolazak OUI-ja unutar desetljeća ili čak nekoliko godina.

Kokotajlo i njegov tim prvotno su odredili 2027. kao godinu u kojoj će umjetna inteligencija postići "potpuno autonomno kodiranje", iako su naglasili da je to "najvjerojatnija" pretpostavka. Međutim, čini se da se sada javljaju sumnje u pogledu skorog dolaska OUI-ja, pa čak i smislenosti samog pojma.

"Mnogi drugi ljudi pomicali su svoje vremenske okvire dalje u protekloj godini, shvaćajući koliko su neravnomjerne performanse UI-ja", rekao je Malcolm Murray, stručnjak za upravljanje rizikom UI-ja. "Da bi se scenarij poput AI 2027 dogodio, umjetna inteligencija trebala bi imati puno više praktičnih vještina korisnih u složenostima stvarnog svijeta. Mislim da ljudi počinju shvaćati ogromnu inerciju u stvarnom svijetu koja će odgoditi potpunu društvenu promjenu."

Sličnog je mišljenja i Henry Papadatos, izvršni direktor francuske neprofitne organizacije SaferAI. "Pojam OUI imao je smisla izdaleka, kada su sustavi UI-ja bili vrlo uski - igrali su šah i Go. Sada imamo sustave koji su već prilično opći i pojam više ne znači toliko."

Nova prognoza: Apokalipsa odgođena

Kokotajlov scenarij "AI 2027" temelji se na ideji da će UI agenti do 2027. godine potpuno automatizirati kodiranje te istraživanje i razvoj, što bi dovelo do "eksplozije inteligencije". U tom scenariju, UI agenti stvaraju sve pametnije verzije sebe, a u jednom od mogućih završetaka, istrebljuju sve ljude do sredine 2030-ih kako bi napravili mjesta za više solarnih panela i podatkovnih centara.

Ipak, u svojoj najnovijoj objavi, Kokotajlo i njegovi koautori revidirali su svoja očekivanja. Sada predviđaju da će umjetna inteligencija sposobnost autonomnog kodiranja vjerojatno postići početkom 2030-ih, a ne 2027. godine. Nova prognoza postavlja 2034. kao horizont za pojavu "superinteligencije" i ne navodi kada bi moglo doći do uništenja čovječanstva.

"Stvari se čine da idu nešto sporije nego u scenariju AI 2027. Naši vremenski okviri bili su duži od 2027. kada smo objavili, a sada su još malo duži", napisao je Kokotajlo na društvenoj mreži X.

Stvarnost je kompliciranija

Unatoč odgodi, stvaranje umjetne inteligencije koja može samostalno provoditi istraživanja i dalje je ključni cilj vodećih tehnoloških tvrtki. Izvršni direktor OpenAI-ja, Sam Altman, izjavio je u listopadu da je razvoj automatiziranog istraživača umjetne inteligencije do ožujka 2028. "interni cilj" njegove tvrtke, ali je dodao: "Možda potpuno podbacimo u ovom cilju."

Andrea Castagna, istraživačica politika UI-ja iz Bruxellesa, ističe da dramatični vremenski okviri ne uzimaju u obzir brojne složenosti. "Činjenica da imate superinteligentno računalo usmjereno na vojne aktivnosti ne znači da ga možete integrirati u strateške dokumente koje smo sastavljali posljednjih 20 godina."

"Što više razvijamo UI, to više vidimo da svijet nije znanstvena fantastika. Svijet je puno kompliciraniji od toga", zaključila je.

Komentare možete pogledati na ovom linku.

Pročitajte više

 
Komentare možete pogledati na ovom linku.