Šta nikako nemojte da pitajte veštačku inteligenciju i šta nikako ne otkrivajte! Zbog ovoga možete čak biti prijavljeni policiji!
Veliki jezički modeli, odnosno alati sa veštačkom inteligencijom, gotovo su postali neizostavan deo svakodnevice. Čak i ako ih ne koristite aktivno svakog dana, velike su šanse da se oslanjate na neki servis koji u pozadini koristi AI model poput ChatGPT-ja, Gemini-ja, Perplexity-ja i sličnih.
Iako se mnogi oslanjaju na ove servise kako bi im pomogli u obavezama, bilo poslovnim ili privatnim, često nisu svesni da svako korišćenje ovakvih alata može predstavljati određeni bezbednosni rizik.
Naime, u želji da što brže završe neki zadatak, ljudi često AI chatbotovima otkrivaju osetljive i lične informacije koje ne bi trebalo deliti sa drugim osobama. Ali chatbotovi nisu osobe, zar ne?
Zapravo, u ovom kontekstu trebalo bi ih posmatrati kao osobe – jer baš kao što ne biste poverljive podatke o sebi ili kompaniji u kojoj radite rekli bilo kome na ulici, ne bi trebalo ni da ih upisujete u AI modele, prenosi ZIMO.hr.
Iako kompanije koje razvijaju ove modele uglavnom ne koriste korisničke razgovore za dodatno treniranje (iako, na primer, DeepSeek upravo to radi), to ne znači da podaci koje ste uneli nisu sačuvani u vašem korisničkom nalogu. Dovoljno je da neko sedne za vaš računar, otvori omiljeni AI model i pregleda istoriju razgovora – i tako dođe do osetljivih informacija.
Koje osetljive podatke ne treba da delite?
Lične podatke
Bez obzira na nivo poverenja koji imate u AI modele, nikada ne treba da delite svoje puno ime i prezime, adresu, JMBG, broj lične karte, pasoša i slične podatke. Isto važi i za fotografije identifikacionih dokumenata.
Ako koristite chatbot za izradu CV-ja, bolje je da tražite šablon koji ćete popuniti sami na svom računaru, nego da unosite lične podatke direktno.
Finansijske informacije
Kao što nikada ne biste delili broj kreditne ili debitne kartice, podatke o bankovnom računu ili šifre za elektronsko bankarstvo, isto tako te informacije ne treba deliti ni sa AI modelima.
Ako tražite savet o kreditu ili porezima, koristite "izmišljeni scenario", a ne stvarne podatke.
Lozinke
Ovo ne treba ni naglašavati – deljenje lozinki za korisničke naloge ili poslovne sisteme je krajnje neodgovorno. Kao što ne biste dali ključeve od stana nepoznatoj osobi, nemojte ni AI modelima otkrivati pristupne podatke.
Osetljive ili poverljive informacije
AI modeli nisu vaš ispovednik niti najbolji prijatelj – nemojte im otkrivati lične ili tuđe tajne, podatke o zdravlju, porodične informacije ili tračeve s posla. Takvi podaci treba da ostanu privatni.
Informacije o kompaniji u kojoj radite ili sarađujete
Možda vam je primamljivo da ChatGPT-u poverite zadatak pisanja ugovora, ali to nije dobra ideja. Isto važi i za dokumenta sa poverljivim informacijama – poput prototipova, patenata, sastanaka, poslovnih planova i finansija. Zato mnoge kompanije zabranjuju korišćenje AI alata na službenim uređajima.
Eksplicitan sadržaj
Čak i ako se šalite, pitanja poput "kako se trajno rešiti nekoga" mogu biti označena kao sumnjiva i prijavljena policiji. ChatGPT na takve upite ne odgovara, ali drugi modeli mogu pratiti i prosleđivati takve informacije. Bolje se suzdržite.
Medicinske informacije
Iako ste možda zamenili "doktora Gugla" sa ChatGPT-jem, ne delite konkretne podatke iz zdravstvenih izveštaja. Umesto toga, postavite opšti upit – na primer: "Preporuči mi vežbe za muškarca u tridesetim godinama koji ima išijas."
Ako niste sigurni da li bi trebalo nešto da podelite, zapamtite ovo jednostavno pravilo – ako ne želite da vaš upit neko pročita javno na internetu, oglasnoj tabli ili u medijima, verovatno ne želite da ga pročita ni AI model.
Kurir/N1
MORAMO DA PROMENIMO LICE OVE ZEMLJE: Glavne ekonomske poruke predsednika Vučića - Obaranje rekorda za Ekspo i pregovori o sankcijama NIS-u sa Amerikancima