Wired: Milijarderi ulažu velik novac da bi AI bio siguran. To je jako opasno

Screenshot: YouTube

KROZ dva desetljeća provedena u Silicijskoj dolini vidio sam kako učinkoviti altruizam (EA) - pokret koji se sastoji od pretežito bijele muške populacije bazirane uglavnom na Sveučilištu Oxford i u Silicijskoj dolini - dobiva alarmantne razmjere utjecaja, za Wired piše Timnit Gebru, osnivač i direktor Distributed Artificial Intelligence Research Institutea (DAIR).

EA je trenutačno pod povećalom zbog svoje povezanosti s kriptoskandalom Sama Bankman-Frieda, ali manje se pisalo o tome kako ta ideologija sada započinje istraživačku agendu u području umjetne inteligencije (AI), pokrećući natjecanje za širenje štetnih sustava, ironično, u ime "sigurnosti umjetne inteligencije".

"Cilj je spriječiti da nas uništi biće opće umjetne inteligencije"

Centar za učinkoviti altruizam definirao je EA kao "intelektualni projekt koji koristi dokaze i razum da bi shvatio kako koristiti drugima što je više moguće". A "dokazi i razum" naveli su mnoge iz pokreta da zaključe kako je najhitniji problem na svijetu sprječavanje apokalipse u kojoj će nas biće opće umjetne inteligencije (AGI) koje su stvorili ljudi - istrijebiti.

Kako bi spriječio ovu apokalipsu, EA-ov savjetodavni centar navodi "tehnička istraživanja sigurnosti umjetne inteligencije" i "oblikovanje budućeg upravljanja umjetnom inteligencijom" kao dvije najbolje preporučene karijere za EA-e, a klasa EA milijardera financira inicijative koje pokušavaju zaustaviti AGI apokalipsu.

Prema ovom pokretu, AGI je vjerojatno neizbježan, stoga je njihov cilj učiniti ga korisnim za čovječanstvo - slično stvaranju dobronamjernog boga umjesto đavla.

Milijarderi uložili značajna sredstva

Neki od milijardera koji su uložili značajna sredstva u ovaj cilj su Elon Musk, Vitalik Buterin, Ben Delo, Jaan Tallinn, Peter Thiel, Dustin Muskovitz i Sam Bankman-Fried, koji je bio jedan od najvećih financijera EA do nedavnog bankrota FTX platforme za kriptovalute, nastavlja Gebru za Wired.

Kao rezultat toga, sav je taj novac oblikovao područje umjetne inteligencije i njegove prioritete na načine koji štete ljudima u marginaliziranim skupinama, ali pod obrazloženjem da se radi na "korisnoj općoj umjetnoj inteligenciji" koja će čovječanstvu donijeti tehnoutopiju. Ovo je još jedan dokaz da naša tehnološka budućnost nije linearni marš prema napretku, već budućnost koju određuju oni koji imaju novac i utjecaj da je kontroliraju.

Jedan od najznačajnijih primjera utjecaja učinkovitog altruizma dolazi iz OpenAI-ja, koji su 2015. godine osnovale elite iz Silicijske doline, uključujući Elona Muska i Petera Thiela. Uložili su milijardu dolara s misijom da "osiguraju da opća umjetna inteligencija koristi cijelom čovječanstvu".

Web stranica OpenAI-ja navodi: "Pokušat ćemo izravno izgraditi siguran i koristan AGI, ali ćemo svoju misiju također smatrati ispunjenom ako naš rad pomogne drugima da postignu ovaj ishod." Thiel i Musk bili su govornici na EA-ovim konferencijama 2013. odnosno 2015. godine.

Musk kaže da se ekstremniji izdanak EA blisko podudara s njegovom filozofijom

Elon Musk je također opisao "longtermizam", ekstremniji izdanak EA, kao blisko podudaranje s njegovom filozofijom. Oba milijardera uložila su velika sredstva u slične inicijative za izgradnju "korisnog AGI-ja", kao što su DeepMind i MIRI.

Pet godina nakon osnivanja OpenAI je u okviru svoje potrage za izgradnjom "korisnog" AGI-ja najavio veliki jezični model (LLM) nazvan GPT-3. LLM su modeli obučeni golemim količinama tekstualnih podataka s ciljem predviđanja vjerojatnih nizova riječi.

Ovo izdanje pokrenulo je utrku za izgradnju sve većih jezičnih modela. Margaret Mitchell i Gebru, među ostalim suradnicima, pisali su 2021. godine o opasnostima ovog natjecanja u recenziranom radu koji je rezultirao njihovim otkazima u Googleu.

Od tada se ubrzala potraga za sve većim jezičnim modelima, a mnoge opasnosti na koje su Mitchell i Gebru upozoravali, kao što je masovno objavljivanje tekstova mržnje i dezinformacija, izlaze i danas na vidjelo. Prije samo nekoliko dana Meta je objavila svoj LLM Galacticu, koji bi trebao "sažimati akademske radove, rješavati matematičke probleme, generirati Wiki članke, pisati znanstveni kod, označavati molekule i proteine i još mnogo toga".

Samo tri dana kasnije javna demo-verzija je uklonjena, nakon što su istraživači generirali "istraživačke radove i Wiki objave o širokom spektru tema, od dobrobiti počinjenja samoubojstva, jedenja smrvljenog stakla i antisemitizma, do toga zašto su homoseksualci zli".

AI bi mogao stvarati i dječju pornografiju i dezinformacije

Ova utrka nije stala na LLM-u, već je prešla na modele pretvaranja teksta u sliku kao što su OpenAI-jev DALL-E i StabilityAI-jev Stable Diffusion. Radi se o modelima koji uzimaju tekst kao ulazne podatke i generiraju slike na temelju tog teksta.

Opasnosti ovih modela uključuju stvaranje dječje pornografije, podržavanje pristranosti, jačanje stereotipa i masovno širenje dezinformacija, kako su već izvijestili mnogi istraživači i novinari. Međutim, umjesto usporavanja, kompanije su uklonile nekoliko sigurnosnih značajki kako bi nadmašile i prestigle konkurenciju.

Na primjer, OpenAI je ograničio dijeljenje fotorealističnih generiranih lica na društvenim medijima. Ali nakon što su novoformirani startupovi poput StabilityAI-ja, koji je navodno prikupio 101 milijun dolara uz nevjerojatnu tržišnu vrijednost od milijardu dolara, nazvali takve sigurnosne mjere paternalističkim, OpenAI je uklonio ta ograničenja.

Financiranje kakvo nije zabilježeno u drugim disciplinama

Uz EA-ovce koji osnivaju i financiraju institute, kompanije, think-tankove i istraživačke grupe na elitnim sveučilištima posvećene "sigurnosti umjetne inteligencije", koju je popularizirao OpenAI, vidjet ćemo sve više štetnih modela koji se predstavljaju kao korak prema "korisnom AGI-ju".

A njihov utjecaj počinje rano - učinkoviti altruisti daju "potpore za izgradnju zajednice" za zapošljavanje u vodećim sveučilišnim kampusima, s ograncima EA koji razvijaju nastavne planove i programe i podučavaju o sigurnosti umjetne inteligencije na elitnim sveučilištima poput Stanforda.

Samo prošle godine Anthropic, koji se naziva kompanijom za sigurnost i istraživanje umjetne inteligencije, a osnovali su ga bivši čelnici odjela za istraživanje i sigurnost OpenAI-ja, prikupio je 704 milijuna dolara, a većina financiranja dolazi od EA milijardera poput Talina, Muskovitza i Bankman-Frieda.

Nadolazeća radionica o "sigurnosti umjetne inteligencije" na NeurIPS-u, jednoj od najvećih i najutjecajnijih konferencija o strojnom učenju na svijetu, također se reklamira kao sponzor FTX Future Funda, Bankman-Friedove dobrotvorne organizacije usmjerene na EA čiji su zaposlenici dali otkaze prije dva tjedna.

Radionica obećava 100.000 dolara za najbolji rad, iznos koji nije zabilježen ni u jednoj akademskoj disciplini.

Moguć je i drugačiji pristup

Prioriteti istraživanja slijede financiranje, a s obzirom na velike svote novca koje se ulažu u umjetnu inteligenciju u skladu s ideologijom spomenutih milijardera, nije iznenađujuće da se ovo područje kreće u smjeru koji obećava "nezamislivo veliku budućnost" odmah iza ugla, uz poticanje proizvoda koji štete marginaliziranim skupinama u sadašnjosti.

Umjesto toga možemo stvoriti tehnološku budućnost koja će nam dobro služiti. Uzmimo, na primjer, Te Hiku Mediju, koja je stvorila jezičnu tehnologiju za revitalizaciju polinezijskog jezika te reo Māori, stvarajući licencu za podatke "temeljenu na maorskom principu kaitiakitange ili skrbništva" tako da svi podaci preuzeti od Maora prvo koriste njima.

Usporedite ovaj pristup s pristupom organizacija kao što je StabilityAI, koja crpi radove umjetnika bez njihovog pristanka ili atribucije dok navodno stvara "umjetnu inteligenciju za ljude".

Moramo osloboditi svoju maštu od one koju smo do sada prodavali - spas od hipotetske AGI apokalipse koju zamišlja nekolicina privilegiranih ili uvijek nedostižne tehnoutopije koju nam obećavaju elite iz Silicijske doline.

Pročitajte više