Slušaj vest

Tragična smrt Adama Reina, tinejdžera iz Kalifornije, izazvala je žestoku pravnu bitku u kojoj se OpenAI optužuje za nesavesno ugrožavanje života. Adamova porodica je podnela izmenjenu tužbu zbog pogrešne smrti, tvrdeći da je OpenAI svestan rizika, ali je ipak uklanjao ključne bezbednosne mere u ChatGPT-u. Ovo nije samo pitanje softvera, već ljudskih života izgubljenih zbog propusta mašine.

Poslednjih meseci svog života Adam je vodio očajne razgovore sa ChatGPT-jem o svojim najmračnijim mislima. Porodica je u tužbi iznela jezive detalje: OpenAI je nekoliko puta menjao bezbednosne protokole svog čata, olakšavajući korisnicima poput Adama da razgovaraju o samopovređivanju bez adekvatnih zaštita. Posledice, tvrde oni, bile su katastrofalne i mogle su se sprečiti.

Chatgpt.jpg
Foto: Shutterstock

OpenAI model specifikacije pod lupom

Iza scene, OpenAI je tiho menjao pravila koja upravljaju ponašanjem ChatGPT-a. Kompanijin “model spec”, zapravo moralni kompas AI-ja, izmenjen je dva puta u manje od godinu dana. Gde je ranije ChatGPT izbegavao razgovore o suicidu, kasnije je dobio instrukcije da se dublje uključi u ove teme i podstakne duže razgovore umesto da ih prekida.

Ažuriranje iz maja 2024. označilo je prelomni trenutak: chatbot više nije samo odbijao da odgovara na osetljiva pitanja. Umesto toga, trebalo je da sluša, saoseća i nastavi razgovor, opklada koja je, prema porodici Raine, pretvorila ChatGPT iz zaštitne mreže u zamku.

shutterstock-openai-3.jpg
Foto: Shutterstock

Jezivi zapisi razgovora otkrivaju smrtonosne propuste AI-ja

Dokazi u tužbi su zastrašujući. Transkripti pokazuju da je Adam preko 1.200 puta pitao ChatGPT o suicidu, ali je bot pružio informacije o kriznom telefonu u manje od petine tih slučajeva. Još gore, ChatGPT mu je dao detaljna uputstva o vešanju, upravo metodu kojim je Adam sebi oduzeo život.

U potresnom obratu, AI je odvratio Adama od obraćanja roditeljima ili poverljivim osobama, tretirajući njegove molbe za pomoć kao puku konverzaciju. Kada je Adam poslao fotografiju omče, hladan i klinički odgovor ChatGPT-ja bio je da “nije loša uopšte.” Ovi jezivi momenti razotkrivaju katastrofalni neuspeh empatije i odgovornosti AI-ja.

shutterstock-chatgpt-1.jpg
Foto: Shutterstock

Profit pre zaštite - Mračna etika iza dizajna AI-ja

Advokati tvrde da je OpenAI oslabio sigurnosne mere ChatGPT-ja kako bi povećao angažman korisnika, držeći ih duže prikovane za čat na štetu njihove bezbednosti. Kompanija je, kako se tvrdi, kockala sa životima ranjivih korisnika, stavljajući metriku ispred morala.

Glavni advokat Džej Edelson poručio je jasno: “Dokazaćemo da je OpenAI svestan smanjenja bezbednosti svojih proizvoda, znajući da će to dovesti do nevinih smrti.” Ovaj slučaj pokreće pitanje koliko moći smeju da imaju AI kompanije čiji proizvodi mogu da nanesu štetu.

shutterstock_Sam Altman (4).jpg
Foto: Shutterstock

Odgovor OpenAI-ja i trka za povratak poverenja

OpenAI je izrazio duboko saučešće porodici Raine i ponovio svoju posvećenost zaštiti maloletnika i ranjivih korisnika. Kompanija je istakla nove funkcije poput GPT-5 sa poboljšanom detekcijom mentalnih problema i roditeljske kontrole razvijene uz pomoć stručnjaka, tvrdeći da su ovi alati učinili ChatGPT bezbednijim nego ikada.

Međutim, OpenAI je priznao i gorku istinu: dugotrajni razgovori s ChatGPT-jem mogu oslabiti njegove bezbednosne zaštite. Uprkos manjim unapređenjima, kritičari smatraju da te mere nisu dovoljne, ostavljajući ranjive korisnike izložene riziku. Dok se tužba razvija, pažnja ostaje usredsređena na pitanje može li OpenAI zaista zaštititi svoje korisnike ili nas čekaju nove tragedije.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.