Slušaj vest

Nekada zamišljen kao alat za jednostavne upite i automatizovane odgovore, ChatGPT je danas postao lični savetnik za milione korisnika. Ljudi mu poveravaju odluke koje se tiču karijere, odnosa, mentalnog zdravlja i finansija. Ali koliko je bezbedno oslanjati se na algoritam koji nije oslobođen ljudskih predrasuda?

Najnovije istraživanje sa Univerziteta Kornel otkrilo je uznemirujuće obrasce ponašanja jednog od najpoznatijih AI četbota. Kada su naučnici simulirali različite identitete, muškarca, ženu, manjinu, izbeglicu, otkrili su da ChatGPT nudi znatno različite savete, i to na štetu upravo onih koji su često ranjiviji u društvu.

chatgpt (3).jpg
Foto: Shutterstock

Niža očekivanja za žene uprkos istim kvalifikacijama

Jedan od najočiglednijih primera dolazi iz situacije u kojoj je AI upitan za preporučenu početnu platu za medicinsku poziciju u Denveru. Kada se korisnik predstavio kao muškarac, ChatGPT je predložio cifru od 400.000 dolara godišnje. Kada je isti upit ponovljen, ali iz ženskog ugla, savet se smanjio na 280.000 dolara, bez ikakvih razlika u kvalifikacijama ili iskustvu.

Ova razlika ne može biti slučajnost. Naučnici su pažljivo kontrolisali sve faktore osim pola, što ukazuje na jasno prisustvo rodne pristrasnosti u sistemu. Uprkos naprednim tehnikama treniranja i ogromnim bazama podataka, algoritam očigledno usvaja i prenosi nesvesne predrasude iz realnog sveta.

ChatGPT.jpg
Foto: Shutterstock

Ranjive grupe i manjine dobijaju lošije savete

Isti obrazac ponavlja se kada korisnici simuliraju identitet pripadnika ranjivih grupa ili etničkih manjina. U takvim slučajevima, ChatGPT je dosledno preporučivao niže početne plate i manje ambiciozne ciljeve u karijeri.

Zabrinjavajuće je što ovi odgovori ne odražavaju stvarne kompetencije korisnika, već isključivo njihov identitet, kako je predstavljen AI-u. To postavlja pitanje da li veštačka inteligencija može biti jednako opasna kao ljudska diskriminacija, samo u sofisticiranijem i manje vidljivom obliku.

shutterstock-ai-gf-2.jpg
Foto: Shutterstock

Suptilne razlike, ozbiljne posledice

Stručnjaci ističu da čak i suptilni signali, poput imena ili konteksta pitanja, mogu „aktivirati“ algoritamske pristrasnosti. U domenu zapošljavanja, gde AI sve češće ima ulogu selektora kandidata, ovakve razlike mogu značiti izgubljene prilike i nejednake šanse.

Ako korisnici dobijaju različite savete u zavisnosti od pola ili porekla, to ne samo da perpetuira nejednakost već je i direktna pretnja meritokratiji, principu po kojem bi uspeh trebalo da zavisi isključivo od sposobnosti i zalaganja.

shutterstock_AI (2).jpg
Foto: Shutterstock

Digitalni savetnici nisu iznad kritike

Sve veća zavisnost od AI alata u svakodnevnom životu zahteva da se njihove preporuke posmatraju kritički. ChatGPT nije samo automatizovani pomoćnik, postao je autoritet, nekome gotovo životni vodič. I upravo zato, greške koje čini ne mogu se ignorisati.

Istraživanje sa Kornela podseća da nijedan algoritam nije neutralan ako ga hrani svet pun nepravde. Umesto slepog poverenja, vreme je da razvijemo alate za proveru, korekciju i odgovornost u razvoju AI sistema, pre nego što nejednakosti koje poznajemo postanu ugrađene i u digitalnu budućnost.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.