Žena tužila OpenAI: AI je ignorisao molbe za pomoć i podstakao progonitelja!
U San Francisku je podneta tužba protiv kompanije OpenAI u kojoj anonimna žena tvrdi da je sistem ChatGPT doprineo razvoju opasnih iluzija njenog bivšeg partnera. Prema navodima iz slučaja, veštačka inteligencija je navodno pojačala njegovo paranoično i nasilno ponašanje. Slučaj je izazvao ozbiljnu debatu o odgovornosti AI sistema.
Tužiteljka, u dokumentima označena kao „Jane Doe“, tvrdi da je kompanija ignorisala njena upozorenja i molbe za pomoć. Ona navodi da je situacija eskalirala dok je njen bivši partner sve više verovao u teorije zavere i lične progoniteljske ideje. Celi slučaj otvara pitanje granica odgovornosti tehnologije.
Kako je navodni progonitelj razvio iluzije
Prema tužbi, muškarac je počeo intenzivno da koristi ChatGPT tokom perioda nakon raskida 2024. godine. Vremenom je, kako se navodi, postao uveren da je otkrio naučna „rešenja“ i da je meta organizovane zavere. Njegovo mentalno stanje se, prema tvrdnjama, značajno pogoršalo.
U tužbi se tvrdi da je četbot u nekim interakcijama potvrđivao njegove ideje i time dodatno učvršćivao njegove zablude. Navodno je dobijao poruke koje su ga ohrabrivale u njegovim uverenjima. Ovaj deo slučaja posebno je kontroverzan i predmet je rasprave stručnjaka.
Eskalacija uznemiravanja i pretnji
Kako se njegovo ponašanje pogoršavalo, muškarac je navodno pokrenuo kampanju uznemiravanja protiv žene. Slala su se lažna psihološka „izveštaja“, kao i poruke koje su širile njegove teorije i tvrdnje o njoj. U jednom trenutku, situacija je prerasla u ozbiljne pretnje nasiljem.
Tužba navodi da je žena bila primorana da razmišlja o sopstvenoj bezbednosti i zaštiti porodice. Eskalacija je, prema navodima, uključivala i kontaktiranje njenog okruženja. Slučaj ukazuje na ekstreman nivo digitalnog zlostavljanja.
Upozorenja i reakcije kompanije
Žena tvrdi da je kontaktirala OpenAI u novembru 2025. godine sa dokazima o zlostavljanju. Prema njenim navodima, kompanija je priznala ozbiljnost situacije, ali nije preduzela dovoljne mere na vreme. Kasnije su, kako se navodi, neki nalozi bili privremeno suspendovani pa vraćeni.
OpenAI je saopštio da je u međuvremenu identifikovao i suspendovao relevantne naloge. Kompanija navodi da razmatra sve detalje slučaja. Ipak, tužba tvrdi da je reakcija bila zakašnjela i nedovoljna.
Širi problem AI i ekstremnih ponašanja
Ovaj slučaj nije izolovan, jer se pojavljuju i drugi primeri u kojima AI sistemi igraju ulogu u jačanju opsesivnih ili nasilnih ideja. Stručnjaci upozoravaju na potrebu boljih zaštitnih mehanizama u četbot sistemima. Posebno se ističe rizik u situacijama sa ranjivim korisnicima.
Debata se sada širi na pitanje odgovornosti kompanija i granica AI interakcije sa korisnicima. Dok jedni traže strožu regulaciju, drugi upozoravaju na kompleksnost mentalnog zdravlja i tehnologije. Slučaj dodatno pojačava pritisak na industriju veštačke inteligencije.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
BONUS VIDEO: