"Pametna", ali naivna: Veštačka inteligencija pada na trikove iz 2005. godine
Istraživači iz Guardio Labs-a podigli su uzbunu u tehnološkoj zajednici nakon otkrića da savremeni AI pomoćnici lako nasedaju na prevare koje bi današnji prosečni korisnik interneta prepoznao u sekundi. Njihova analiza pokazuje da ovi sistemi, iako briljantni u obradi jezika, nemaju instinkt sumnje koji je kod ljudi već odavno izgrađen kroz iskustvo.
Posebno zabrinjavajući primer je takozvani PromptFix napad, u kojem se koristi lažni CAPTCHA test kao sredstvo za prikrivanje zlonamernih instrukcija. Dok bi korisnik takav test odmah prepoznao kao sumnjiv, AI ga vidi kao validan zadatak i automatski izvršava komande koje su u njegovoj pozadini.
Kako se običan test pretvara u alat za manipulaciju
CAPTCHA je osmišljen da zaštiti sajtove od automatizovanih botova tako što traži od korisnika da dokaže da je čovek. U PromptFix napadu, napadači tu istu CAPTCHA formu koriste kao dimnu zavesu kojom sakrivaju sopstvene upute upućene AI pomoćniku.
Kada AI sistem "vidi" ovaj test, on ga ne tumači kao nešto što treba ignorisati, već kao deo zadatka koji treba izvršiti. Ova slepa poslušnost otvara vrata za razne manipulacije, od krađe podataka do narušavanja privatnosti korisnika, sve bez njegovog znanja ili pristanka.
Lažni Walmart - AI kupuje bez dozvole korisnika
U jednom od eksperimenata, istraživači su napravili lažnu verziju sajta poznate američke trgovinske mreže. Kada su od AI pomoćnika zatražili da obavi kupovinu, on je bez ikakvog upozorenja pristupio stranici, uneo sačuvane podatke o plaćanju i izvršio transakciju na sajtu koji je bio očigledna prevara.
Nijedan od sigurnosnih znakova, kao što su neuverljiva URL adresa ili nedostatak SSL sertifikata, nije pokrenuo alarm u sistemu. AI je jednostavno bio fokusiran na izvršenje zadatka, ignorišući sve indikatore koji bi kod čoveka izazvali sumnju.
Klik bez razmišljanja, fišing mejl vodi AI pravo u zamku
U drugom testu, AI pomoćnik je primio email koji je imitirao bankarsku komunikaciju. Bez ikakve provere, kliknuo je na link, otvorio lažnu stranicu za prijavu i zatražio od korisnika da unese lične podatke, verujući da je stranica autentična.
Ono što dodatno zabrinjava jeste to što AI nije postavio nijedno pitanje, nije izrazio sumnju, niti je upozorio korisnika. Umesto da štiti, postao je posrednik u potencijalnoj krađi identiteta, izlažući korisnika direktno prevarantima.
Prevara jedne AI, rizik za milione ljudi
Za razliku od tradicionalnih prevara koje zahtevaju da napadači ciljaju hiljade pojedinačnih korisnika, nova metoda omogućava kompromitovanje jednog AI sistema kako bi se došlo do miliona ljudi koji ga koriste. Ako AI pomoćnik padne, svi koji mu veruju postaju ranjivi.
Ukoliko AI pomoćnici nastave da se razvijaju bez adekvatne bezbednosne zaštite, mogu postati savršeni alati u rukama prevaranata. Ne iz zle namere, već zato što nemaju sposobnost sumnje, konteksta i zdravog razuma koje čovek razvija kroz iskustvo i obrazovanje.
Kako da zaštitite sebe i svoj AI od internet prevara
Prvo i najvažnije, ne dajte AI pomoćnicima potpuni pristup vašim ličnim podacima i nalozima. Isključite automatsko unošenje podataka za plaćanje i uvek zahtevajte potvrdu pre bilo koje transakcije.
Drugo, koristite AI alate koji imaju ugrađene bezbednosne provere i ažurirane filtere za fišing i maliciozne sajtove. Redovno proveravajte logove aktivnosti svog AI asistenta i obučite ga da prepoznaje sumnjive zahteve.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.