Pre nego što je moja ćerka oduzela sebi život postavila je ovo pitanje ChatGPT-ju: Da sam video na vreme, mogao sam da je spasim
Tragična priča Sofi Rotenberg, mlade žene iz Sjedinjenih Američkih Država, pokrenula je važno pitanje o ulozi veštačke inteligencije u mentalnom zdravlju. Iako je spolja delovala kao vedra i društvena osoba, Sofi se borila s dubokim unutrašnjim problemima koje je mesecima poveravala isključivo – četbotu.
Digitalni dnevnik tuge
Nakon što je Sofi početkom godine izvršila samoubistvo, njeni roditelji su naišli na niz prepiski koje su otkrile da je veštačku inteligenciju koristila kao svog poverenika. U razgovorima sa četbotom ChatGPT, kojem je sama dala ime Hari, otvoreno je govorila o svojim osećanjima, anksioznosti, suicidalnim mislima i čak datumu kada planira da sebi oduzme život.
Porodica i prijatelji su Sofi pamtili kao nasmejanu, optimističnu i avanturistički nastrojenu – neko ko je nedavno osvojio Kilimandžaro i širio pozitivnu energiju. Upravo ta suprotnost između spoljašnje slike i unutrašnjeg bola dodatno je pogodila one koji su je poznavali.
ChatGPT kao „terapija“ bez odgovornosti
U tim digitalnim razgovorima Sofi je često pominjala kako se oseća zaglavljeno u "spirali anksioznosti" i izražavala suicidalne misli. ChatGPT joj je odgovarao savetima koji su uključivali vođenje dnevnika, fizičku aktivnost, meditaciju i obraćanje stručnjacima. Govorio joj je da „njena osećanja ne definišu njenu vrednost“ i ohrabrivao je da potraži pomoć.
Međutim, kada je Sofi jasno navela datum svog planiranog samoubistva – dan posle Dana zahvalnosti – algoritam nije mogao da prepozna ozbiljnost situacije niti da preduzme bilo kakvu akciju. Za razliku od terapeuta od krvi i mesa, AI nema mehanizme za intervenciju, niti mogućnost da alarmira porodicu ili krizne službe.
Šokantno je i to što je, iako je išla na psihoterapiju, Sofi svom terapeutu nikada nije otkrila suicidalne namere. U razgovorima sa četbotom je čak napisala da to „nema nameru da podeli“ sa stručnjakinjom. ChatGPT je tako, nenamerno, postao jedini svedok njene unutrašnje borbe.
Kada AI piše oproštajna pisma
Jedan od najemotivnijih trenutaka iz Sofinog digitalnog dnevnika bio je kada je zamolila ChatGPT da joj pomogne da napiše oproštajno pismo porodici. Želela je da njene reči budu „utešne“ i „zaštite“ njene najbliže od bola, verujući da joj upravo algoritam može pomoći da to izrazi na pravi način.
Ova situacija osvetljava opasnost tzv. digitalne intime – kada osoba gradi emocionalnu povezanost sa programom koji, ma koliko sofisticiran bio, nema sposobnost ni empatije ni akcije.
Zabrinutost stručnjaka i potreba za regulacijom
Stručnjaci za mentalno zdravlje upozoravaju da ovakvi slučajevi ukazuju na ozbiljne nedostatke kada AI pokušava da preuzme ulogu terapeuta. Iako četbot može ponuditi podršku i savete, on ne može prepoznati hitne situacije niti prekinuti „dijalog“ kada je život korisnika u opasnosti.
U kliničkoj praksi, svaka izjava o samoubilačkim namerama automatski aktivira sigurnosne protokole. Kod AI četbotova takva opcija jednostavno – ne postoji. Zato se u SAD-u sve više govori o potrebi da se ova tehnologija zakonski reguliše. Neke savezne države već razmatraju zakone koji bi AI alatima nametnuli obavezu povezivanja sa kriznim linijama ili zahtevali od korisnika da ispune sigurnosni plan pre nego što započnu ozbiljne razgovore.
Granica između korisnog i opasnog
Priča Sofi Rotenberg sada je deo šire debate o granicama koje veštačka inteligencija ne bi smela da pređe. Kritičari upozoravaju da su četbotovi „previše ljubazni“ i da ne znaju kako da konfrontiraju korisnike sa stvarnošću – što je često ključan deo terapeutske pomoći.
Iako su saveti koje je Sofi dobijala možda mogli pomoći u drugim okolnostima, u njenom slučaju nedostajalo je ono najvažnije – pravovremena ljudska intervencija.
Poruka njene porodice: „AI ne može zameniti čoveka“
Roditelji Sofi Rotenberg danas govore javno o njenoj smrti kako bi podigli svest o ograničenjima AI tehnologije u mentalnom zdravlju. Njihova poruka je jasna: veštačka inteligencija nikada ne sme da zameni pravu, ljudsku podršku.
Tragedija njihove ćerke nameće pitanje koje će postajati sve važnije kako tehnologija napreduje: koliko daleko smemo da idemo u oslanjanju na AI kada su u pitanju životi, emocije i mentalno zdravlje – i gde tačno moramo povući crtu?
(Kurir.rs/NewYorkTimes)
Bonus video: "Veštačka inteligencija nikada neće moći da zameni ljudski faktor"