Što nikad ne biste trebali dijeliti s ChatGPT-jem (a ni ostalim AI alatima)
CHATGPT, Gemini i Claude samo su neki od AI chatbotova koji su postali dio naše svakodnevice. Koliko su se brzo uvukli u naše živote, pokazuje i nedavno istraživanje Centra za zamišljanje digitalne budućnosti Sveučilišta Elon, prema kojem se čak polovica Amerikanaca danas služi ovim tehnologijama, piše HuffPost.
"Po svim mjerilima, usvajanje i korištenje LLM-ova [velikih jezičnih modela] je zapanjujuće", rekao je u priopćenju Lee Rainie, direktor spomenutog centra. "Posebno me impresionira način na koji se ovi alati upliću u društveni život ljudi", dodaje.
Iako nam ovi alati mogu znatno olakšati život, primjerice kod pisanja e-mailova ili pripreme za liječnički pregled, ključno je biti oprezan s informacijama koje im povjeravamo.
A zašto je oprez nužan, objašnjava nedavna studija Stanfordovog instituta za umjetnu inteligenciju. Istraživači su analizirali politike privatnosti šest vodećih AI chatbot sustava - OpenAI-jev ChatGPT, Googleov Gemini, Anthropicov Claude, Amazonova Nova, Metin MetaAI i Microsoftov Copilot. Otkrili su da svi oni koriste korisničke razgovore za "obuku i poboljšanje svojih modela prema zadanim postavkama" te da "neki zadržavaju te podatke neograničeno dugo".
Stručnjak za kibernetičku sigurnost George Kamide upozorava kako ljudi podcjenjuju koliko toga što podijele s AI chatbotom može biti "pohranjeno, analizirano i potencijalno ponovno korišteno".
"Mnogi LLM-ovi se obučavaju ili fino podešavaju koristeći korisničke unose, što znači da razgovori mogu doprinijeti - izravno ili neizravno - budućem ponašanju modela", pojasnio je Kamide, suvoditelj tehnološkog podcasta Bare Knuckles and Brass Tacks.
"Ako te interakcije sadrže osobne identifikatore, osjetljive podatke ili povjerljive informacije, mogle bi postati dio skupa podataka koji je izvan kontrole korisnika. U konačnici, podaci su najveća vrijednost koju AI tvrtke mogu izvući od nas."
Dakle, koje vrste informacija nikada ne biste trebali dijeliti s AI chatbotom?
Osobni podaci
Osobni identifikacijski podaci (PII) su sve informacije pomoću kojih se pojedinac može identificirati, uključujući puno ime, adresu, broj telefona i identifikacijske brojeve poput OIB-a, broja putovnice ili vozačke dozvole.
Dijeljenje takvih detalja s chatbotom "uvodi rizik da bi ti podaci mogli biti zabilježeni ili obrađeni na načine koji vas izlažu krađi identiteta, phishingu ili aktivnostima posredovanja podacima", objasnio je George Al-Koura, stručnjak za informacijsku sigurnost.
Stoga je najbolje to izbjegavati. Također, imajte na umu da se datoteke koje učitavate, poput životopisa, također mogu koristiti za obuku modela, pa je preporučljivo ukloniti sve osobne podatke prije slanja.
Intimni detalji iz privatnog života
Ljudi se često osjećaju ugodnije povjeravajući se AI chatbotu nego pretražujući Google, jer interakcija s chatbotom stvara privid ljudskog razgovora. "To može stvoriti lažan osjećaj sigurnosti, što dovodi do veće spremnosti za dijeljenje osobnih informacija", rekla je Ashley Casovan, izvršna direktorica Centra za upravljanje umjetnom inteligencijom.
Osjetljivi detalji o vašim mislima, osjećajima ili odnosima koje podijelite nisu zakonski zaštićeni i mogli bi se potencijalno iskoristiti kao dokaz na sudu. "Broj ljudi koji koriste chatbote temeljene na LLM-u kao terapeute, životne trenere, pa čak i kao neku vrstu intimnog 'partnera' već je alarmantan“, upozorio je Kamide.
Medicinski podaci
Anketa iz 2024. godine pokazala je da se jedna od šest odraslih osoba barem jednom mjesečno obraća AI chatbotovima za zdravstvene savjete. Iako to može biti korisno, nosi rizike za privatnost i točnost informacija.
Za razliku od liječnika, većina popularnih chatbotova nije obvezana zakonima o zaštiti zdravstvenih podataka poput HIPAA-e. Izbjegavajte dijeljenje osobnih medicinskih podataka ili zdravstvenih kartona. Ako unosite upite vezane uz zdravlje, pobrinite se da iz njih uklonite sve identifikacijske podatke.
Povjerljive poslovne informacije
Ako koristite AI chatbot za pomoć na poslu, budite iznimno oprezni. Nemojte unositi interne poslovne podatke, podatke o klijentima, izvorni kod ili bilo što zaštićeno ugovorom o povjerljivosti.
"Mnoge AI chat platforme rade na dijeljenoj infrastrukturi, i unatoč snažnim sigurnosnim mjerama, vaš unos i dalje može biti zabilježen za 'poboljšanje modela'", rekao je Al-Koura. "Jedan jedini upit koji sadrži osjetljive podatke mogao bi predstavljati regulatorno ili ugovorno kršenje."
Financijski podaci
Podatke o plaći, bankovnim i investicijskim računima te detalje kreditnih kartica nikada ne biste smjeli dijeliti s AI chatbotom, savjetuje Služba za informacijsku tehnologiju Sveučilišta Kentucky. Za osobne financijske savjete sigurnije je konzultirati se sa stručnjakom kako biste izbjegli rizik od hakiranja ili zlouporabe. Isto vrijedi i za porezne prijave.
"Ako se ti dokumenti izlože, mogu se koristiti za ucjenu, prijevaru ili ciljane napade socijalnog inženjeringa protiv vas ili vaše obitelji", upozorio je financijski novinar Adam Hayes.
AI chatbotovi su nedvojbeno pojednostavili mnoge aspekte naših života, no važno je biti svjestan rizika koji dolaze s dijeljenjem osobnih informacija.
Što ako ste već podijelili previše?
Možda je nemoguće vratiti proliveno mlijeko, ali možete pokušati ublažiti potencijalnu štetu. Prema Kamideu, jednom kada vaši podaci uđu u sustav za obuku chatbota, "zapravo ih ne možete vratiti". Ipak, predlaže brisanje povijesti razgovora "kako bi se zaustavilo iznošenje podataka, ako bi netko kompromitirao vaš račun".
Stručnjaci savjetuju da AI razgovore počnete tretirati kao "polujavne prostore, a ne privatne dnevnike“" Prije nego što pošaljete poruku, Al-Koura preporučuje da se zapitate: "Bi li mi bilo ugodno vidjeti ovo u zajedničkom obiteljskom grupnom chatu ili na Slack kanalu tvrtke?"