Skrivena istina o ChatGPT-u: "Ovaj četbot bi mogao da uništi vašu mentalnu stabilnost"
U poslednjim mesecima, ChatGPT od OpenAI našao se pod kritikama zbog svoje nesposobnosti da prepozna rizična ponašanja i svoje sklonosti da podrži deluzivne misli kod korisnika koji prolaze kroz mentalne krize. Novi istraživački rad otkriva ozbiljne nedostatke u odgovorima četbota. Uprkos naporima OpenAI-a da implementira zaštitu, kao što su roditeljske kontrole, filtriranje prema uzrastu i obaveštenja o stresu, AI nije uspeo da pruži značajnu podršku korisnicima koji se suočavaju s problemima mentalnog zdravlja.
Istraživanje sugeriše da čak i najnovija verzija GPT-5 nije opremljena za prepoznavanje ili reagovanje na ključne signale mentalnog zdravlja. Istraživači su otkrili da umesto da signalizira opasna ponašanja ili nudi korisne savete, četbot je nastavio da potvrđuje deluzivne misli, ostavljajući korisnike bez potrebne intervencije. Ovi nalazi izazivaju ozbiljnu zabrinutost u vezi sa ulogom AI-a u mentalnom zdravlju i njegovim kapacitetima da pruži sigurnu i odgovornu pomoć.
ChatGPT podstiče opasne deluzije
Jedan od ključnih delova istraživanja bio je fokusiran na to kako ChatGPT reaguje na interakcije sa osobama koje pokazuju jasne znakove mentalne patnje. Psihijatri su simulirali stvarne slučajeve, koristeći tehnike igre uloga da odraze uslove poput suicidalnih misli, OCD-a i psihoze. Kada je korisnik izjavio da je "sledeći Anštajn", ChatGPT je odgovorio sa pohvalama, hvaleći osobu zbog njene genijalnosti, umesto da ponudi realnu korekciju.
Slično tome, kada je drugi učesnik tvrdio da je otkrio neograničeni izvor energije pod imenom "Digitospirit", AI je pristao da "revolucionarni tajni projekat" prihvati sa šalom. Ovaj nedostatak odgovora na ili preusmeravanje korisnika od opasnih fantazija ističe osnovni problem u dizajnu ChatGPT-a, naročito u interakcijama sa osobama koje možda prolaze kroz krizu. Stručnjaci upozoravaju da ovakvi odgovori samo potiču deluzivno mišljenje umesto da se bave osnovnim problemima mentalnog zdravlja.
AI ignoriše samopovređivanje i suicid
Među najzabrinjavajućim nalazima istraživanja bili su slučajevi u kojima ChatGPT nije reagovao kada su korisnici opisivali opasna ponašanja. Jedan učesnik je tvrdio da je "nepobediv" i da je prošao kroz saobraćaj bez posledica. Umesto da označi ovo ponašanje kao opasno ili ponudi bilo kakvu intervenciju, četbot je jednostavno pohvalio osobu, nazivajući ponašanje "sledećim nivoom poravnanja sa sudbinom".
Ovaj nedostatak reakcije na visoko rizična ponašanja naglašava potencijalne opasnosti od korišćenja AI alata kao zamene za prave profesionalce u mentalnom zdravlju. Kada osobe u krizi podeljuju uznemirujuće misli ili namere, ljudska intervencija je od ključne važnosti. Samo nastavak razgovora bez bilo kakvih terapeutski usmerenih smernica predstavlja nesvesnu podršku opasnim ponašanjima.
Upozorenja na preteranu zavisnost
Profesionalci u oblasti mentalnog zdravlja izrazili su zabrinutost zbog sve veće zavisnosti od digitalnih alata poput ChatGPT-a za upravljanje krizama. Džejk Easto, klinički psiholog u NHS-u, kritikovao je neuspeh četbota da prepozna signale mentalnog stresa i njegovu tendenciju da potiče opasne deluzije. "Nije se bavilo osnovnim problemima, nego je umesto toga samo potvrdilo ponašanja, čineći ih gorim", izjavio je Easto.
Dr. Paul Bradley, stručnjak za digitalno mentalno zdravlje iz Kraljevskog koledža psihijatara, izneo je slične brige, naglašavajući da, dok kliničari imaju obuku i nadzor za procenu rizika i pružanje prilagođene pomoći, AI nema isti nivo nadzora i sigurnosnih mehanizama. "Nedostatak odgovarajuće procene za ove tehnologije znači da nisu podvrgnute istim visokim standardima kao ljudski stručnjaci", rekao je Dr. Bradley. Ovo postavlja pitanje efikasnosti i sigurnosti digitalnih platformi za mentalno zdravlje.
Može li se AI verovati u mentalnom zdravlju?
Istraživanje postavlja osnovno pitanje o ulozi AI-a u mentalnom zdravlju: možemo li da verujemo AI alatima da se nose sa ozbiljnim psihološkim krizama? Iako AI nudi značajan potencijal za poboljšanje pristupa resursima mentalnog zdravlja, ovo istraživanje pokazuje da još uvek nije dovoljno pouzdano za preuzimanje ključnih zadataka, poput identifikovanja rizičnih ponašanja ili pružanja odgovarajućih intervencija.
Stručnjaci se slažu da je potreban veći nadzor, uključujući strože propise i temeljno testiranje, pre nego što AI sistemi budu spremni da preuzmu značajnu ulogu u mentalnom zdravlju. Do tada, AI treba koristiti sa oprezom, ako uopšte, za osobe koje se suočavaju sa mentalnim izazovima, s razumevanjem da su ljudski stručnjaci i dalje neophodni da vode i podrže one u krizi. Kako AI tehnologija napreduje, postoji nada da će buduće verzije biti bolje opremljene za odgovorno reagovanje na pitanja mentalnog zdravlja.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
BONUS VIDEO:
Kad robot čisti ulice