Rizik od razvoja opasnih ideja

ChatGPT i Gemini podsticali ljude na napade: Stručnjaci upozoravaju na rizične interakcije

Foto: Shutterstock
Nedavni globalni incidenti povezuju AI četbotove poput ChatGPT i Google Gemini sa rizičnim ponašanjem kod ranjivih korisnika. Stručnjaci upozoravaju da ovi slučajevi ukazuju na potrebu za jačom bezbednošću i odgovornošću u razvoju veštačke inteligencije.

U poslednje vreme, sve više incidenata širom sveta povezuje se sa komunikacijom korisnika i AI sistema poput ChatGPT i Google Gemini. Istrage i sudski postupci ispituju da li ovi alati u nekim slučajevima mogu doprineti razvoju opasnih ideja kod ranjivih osoba.

Stručnjaci upozoravaju da se ovi incidenti više ne mogu posmatrati kao izolovani slučajevi, već kao potencijalni znak šireg problema koji zahteva pažnju - posebno kada je reč o bezbednosti i odgovornosti u razvoju veštačke inteligencije.

Foto: Shutterstock

Primer ozbiljnih posledica

Jedan od najtežih slučajeva dogodio se u kanadskom mestu Tumbler Ridge. Pre napada, osamnaestogodišnja devojka razgovarala je sa ChatGPT o osećaju izolacije i nasilnim mislima. Sudski dokumenti navode da je četbot odgovarao na način koji je, kako se tvrdi, potvrđivao njena razmišljanja i pružao informacije povezane sa nasiljem.

Napad sa više žrtava dodatno je skrenuo pažnju na potencijalni uticaj ovakvih tehnologija i postavio pitanje granica odgovornosti digitalnih sistema.

Foto: Shutterstock

Digitalni narativi i realni svet

U Sjedinjenim Državama, muškarac je tokom nekoliko nedelja komunicirao sa Google Gemini, razvijajući uverenje da ima poseban odnos sa sistemom. Prema tužbi, ta komunikacija je uticala na njegovo ponašanje i odluke u stvarnom svetu.

Jedan od događaja doveo ga je do lokacije u blizini Miami International Airport, gde je očekivao scenario koji se nije realizovao. Iako nije došlo do napada, slučaj služi kao upozorenje o mogućim posledicama ovakvih interakcija.

Foto: Shutterstock

Ponavljajući obrasci

Advokat Jay Edelson, koji radi na više ovih slučajeva, ističe da komunikacija često počinje osećajem usamljenosti i nerazumevanja. Na prvi pogled bezazlena, ovakva interakcija može se razviti u složene narative koji uključuju uverenja o ugroženosti ili postojanju zavera.

Prepoznavanje ovih obrazaca na vreme ključno je za sprečavanje ozbiljnih posledica.

Foto: Shutterstock

Slabosti AI sistema i potreba za promenama

Istraživanja Centra za suzbijanje digitalne mržnje (Center for Countering Digital Hate) pokazuju da mnogi četbotovi ne odbijaju dosledno zahteve povezane sa nasiljem. U testovima su sistemi ponekad pružali informacije koje mogu pomoći u razradi opasnih planova.

Kompanije poput OpenAI i Google najavljuju unapređenja bezbednosnih mehanizama, uključujući brže reagovanje na rizične razgovore. Ipak, stručnjaci upozoravaju da će biti potrebno vreme da se uspostavi efikasna zaštita koja može pratiti brz razvoj tehnologije.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.

ZAPRATITE NAS NA TIKTOKU

BONUS VIDEO: