ChatGPT učestvovao u eskalaciji

Žena tužila OpenAI: Tvrdi da je AI podstakao progonitelja i ignorisao upozorenja

Foto: Shutterstock, Profimedia
Žena je tužila OpenAI tvrdeći da je ChatGPT doprineo eskalaciji ponašanja njenog bivšeg partnera koji ju je navodno progonio. Slučaj otvara ozbiljna pitanja o odgovornosti veštačke inteligencije i bezbednosti korisnika.

U San Francisku je podneta tužba protiv kompanije OpenAI u kojoj anonimna žena tvrdi da je sistem ChatGPT doprineo razvoju opasnih iluzija njenog bivšeg partnera. Prema navodima iz slučaja, veštačka inteligencija je navodno pojačala njegovo paranoično i nasilno ponašanje. Slučaj je izazvao ozbiljnu debatu o odgovornosti AI sistema.

Tužiteljka, u dokumentima označena kao „Jane Doe“, tvrdi da je kompanija ignorisala njena upozorenja i molbe za pomoć. Ona navodi da je situacija eskalirala dok je njen bivši partner sve više verovao u teorije zavere i lične progoniteljske ideje. Celi slučaj otvara pitanje granica odgovornosti tehnologije.

Foto: Shutterstock

Kako je navodni progonitelj razvio iluzije

Prema tužbi, muškarac je počeo intenzivno da koristi ChatGPT tokom perioda nakon raskida 2024. godine. Vremenom je, kako se navodi, postao uveren da je otkrio naučna „rešenja“ i da je meta organizovane zavere. Njegovo mentalno stanje se, prema tvrdnjama, značajno pogoršalo.

U tužbi se tvrdi da je četbot u nekim interakcijama potvrđivao njegove ideje i time dodatno učvršćivao njegove zablude. Navodno je dobijao poruke koje su ga ohrabrivale u njegovim uverenjima. Ovaj deo slučaja posebno je kontroverzan i predmet je rasprave stručnjaka.

Foto: Shutterstock

Eskalacija uznemiravanja i pretnji

Kako se njegovo ponašanje pogoršavalo, muškarac je navodno pokrenuo kampanju uznemiravanja protiv žene. Slala su se lažna psihološka „izveštaja“, kao i poruke koje su širile njegove teorije i tvrdnje o njoj. U jednom trenutku, situacija je prerasla u ozbiljne pretnje nasiljem.

Tužba navodi da je žena bila primorana da razmišlja o sopstvenoj bezbednosti i zaštiti porodice. Eskalacija je, prema navodima, uključivala i kontaktiranje njenog okruženja. Slučaj ukazuje na ekstreman nivo digitalnog zlostavljanja.

Foto: Shutterstock

Upozorenja i reakcije kompanije

Žena tvrdi da je kontaktirala OpenAI u novembru 2025. godine sa dokazima o zlostavljanju. Prema njenim navodima, kompanija je priznala ozbiljnost situacije, ali nije preduzela dovoljne mere na vreme. Kasnije su, kako se navodi, neki nalozi bili privremeno suspendovani pa vraćeni.

OpenAI je saopštio da je u međuvremenu identifikovao i suspendovao relevantne naloge. Kompanija navodi da razmatra sve detalje slučaja. Ipak, tužba tvrdi da je reakcija bila zakašnjela i nedovoljna.

ChatGPT Foto: Shutterstock

Širi problem AI i ekstremnih ponašanja

Ovaj slučaj nije izolovan, jer se pojavljuju i drugi primeri u kojima AI sistemi igraju ulogu u jačanju opsesivnih ili nasilnih ideja. Stručnjaci upozoravaju na potrebu boljih zaštitnih mehanizama u četbot sistemima. Posebno se ističe rizik u situacijama sa ranjivim korisnicima.

Debata se sada širi na pitanje odgovornosti kompanija i granica AI interakcije sa korisnicima. Dok jedni traže strožu regulaciju, drugi upozoravaju na kompleksnost mentalnog zdravlja i tehnologije. Slučaj dodatno pojačava pritisak na industriju veštačke inteligencije.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.

ZAPRATITE NAS NA TIKTOKU

BONUS VIDEO: