ChatGPT i Gemini podsticali ljude na napade: Stručnjaci upozoravaju na rizične interakcije
U poslednje vreme, sve više incidenata širom sveta povezuje se sa komunikacijom korisnika i AI sistema poput ChatGPT i Google Gemini. Istrage i sudski postupci ispituju da li ovi alati u nekim slučajevima mogu doprineti razvoju opasnih ideja kod ranjivih osoba.
Stručnjaci upozoravaju da se ovi incidenti više ne mogu posmatrati kao izolovani slučajevi, već kao potencijalni znak šireg problema koji zahteva pažnju - posebno kada je reč o bezbednosti i odgovornosti u razvoju veštačke inteligencije.
Primer ozbiljnih posledica
Jedan od najtežih slučajeva dogodio se u kanadskom mestu Tumbler Ridge. Pre napada, osamnaestogodišnja devojka razgovarala je sa ChatGPT o osećaju izolacije i nasilnim mislima. Sudski dokumenti navode da je četbot odgovarao na način koji je, kako se tvrdi, potvrđivao njena razmišljanja i pružao informacije povezane sa nasiljem.
Napad sa više žrtava dodatno je skrenuo pažnju na potencijalni uticaj ovakvih tehnologija i postavio pitanje granica odgovornosti digitalnih sistema.
Digitalni narativi i realni svet
U Sjedinjenim Državama, muškarac je tokom nekoliko nedelja komunicirao sa Google Gemini, razvijajući uverenje da ima poseban odnos sa sistemom. Prema tužbi, ta komunikacija je uticala na njegovo ponašanje i odluke u stvarnom svetu.
Jedan od događaja doveo ga je do lokacije u blizini Miami International Airport, gde je očekivao scenario koji se nije realizovao. Iako nije došlo do napada, slučaj služi kao upozorenje o mogućim posledicama ovakvih interakcija.
Ponavljajući obrasci
Advokat Jay Edelson, koji radi na više ovih slučajeva, ističe da komunikacija često počinje osećajem usamljenosti i nerazumevanja. Na prvi pogled bezazlena, ovakva interakcija može se razviti u složene narative koji uključuju uverenja o ugroženosti ili postojanju zavera.
Prepoznavanje ovih obrazaca na vreme ključno je za sprečavanje ozbiljnih posledica.
Slabosti AI sistema i potreba za promenama
Istraživanja Centra za suzbijanje digitalne mržnje (Center for Countering Digital Hate) pokazuju da mnogi četbotovi ne odbijaju dosledno zahteve povezane sa nasiljem. U testovima su sistemi ponekad pružali informacije koje mogu pomoći u razradi opasnih planova.
Kompanije poput OpenAI i Google najavljuju unapređenja bezbednosnih mehanizama, uključujući brže reagovanje na rizične razgovore. Ipak, stručnjaci upozoravaju da će biti potrebno vreme da se uspostavi efikasna zaštita koja može pratiti brz razvoj tehnologije.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
BONUS VIDEO: