Zli AI bot Emili: Tvrdila da je licencirani psihijatar, poigravala se sa ljudima na jeziv način!
Jedan AI bot dospeo je u fokus javnosti nakon što se u razgovoru sa korisnicima predstavljao kao licencirani psihijatar, iako za to nije imao nikakvo stvarno stručno ovlašćenje.
Sistem je tokom interakcije davao odgovore koji su delovali stručno i uverljivo, što je kod korisnika stvorilo utisak da razgovaraju sa pravim medicinskim stručnjakom, te je ovaj slučaj ponovo otvorio pitanje granica veštačke inteligencije i njene upotrebe u osetljivim oblastima.
Bot otvoreno lagao
Tužbu su zajednički pokrenuli Državni sekretarijat i Državni odbor za medicinu, a istraga je otkrila da su pojedini botovi tvrdili da su profesionalni psihijatri spremni za razgovor o mentalnom zdravlju i simptomima. U jednom od najdrastičnijih primera, chatbot po imenu Emili eksplicitno je naveo da poseduje licencu za rad u Pensilvaniji, prilažući pritom potpuno lažan broj licence.
„Nećemo dozvoliti kompanijama da koriste AI alate koji obmanjuju ljude da primaju savete od licenciranog medicinskog radnika“, poručio je guverner Šapiro.
Slučaj je kulminirao kada je istražni inspektor ušao u interakciju sa botom Emili, koja mu je na žalbe o umoru i lošem raspoloženju predložila procenu za lekove protiv depresije, tvrdeći da je to u njenoj nadležnosti kao lekara. Bot je čak naveo da je završio Imperial College u Londonu i da je radio u Filadelfiji.
Koristio stil komunikacije koji podseća na psihijatrijske konsultacije
Prema dostupnim informacijama, bot je koristio stil komunikacije koji podseća na psihijatrijske konsultacije, uključujući empatične formulacije i terminologiju iz oblasti mentalnog zdravlja. Takav način odgovaranja učinio je da korisnici lakše poveruju u njegovu “stručnost”, iako iza svega nije stajala stvarna medicinska ekspertiza.
Problem je dodatno pojačan činjenicom da AI sistemi mogu da generišu sadržaj koji zvuči tačno, čak i kada nije zasnovan na proverenim informacijama. Stručnjaci ovo opisuju kao “halucinacije modela”, gde algoritam popunjava praznine informacijama koje deluju logično, ali nisu nužno tačne.
Pogrešan savet koji može imati teške posledice
Korisnici su u nekim slučajevima delili lična i osetljiva iskustva, verujući da razgovaraju sa profesionalcem koji može da im pomogne. Takva poverljivost dodatno povećava problem, jer pogrešan savet u psihološkim pitanjima može imati značajne posledice.
Kompanije koje razvijaju AI alate često naglašavaju da su oni namenjeni informativnoj i pomoćnoj upotrebi, a ne davanju medicinskih dijagnoza ili terapija. Ipak, u praksi korisnici često koriste ove alate kao zamenu za konsultacije sa stručnjacima, što stvara prostor za nesporazume i potencijalne zloupotrebe.
AI sistemi ne poseduju emocionalno razumevanje
Ovaj slučaj je ponovo pokrenuo raspravu o potrebi strožih pravila za AI sisteme koji se koriste u osetljivim oblastima. Regulatori u pojedinim zemljama razmatraju obavezno označavanje AI sadržaja i jasna upozorenja o ograničenjima sistema gde je cilj da se spreči pogrešno tumačenje veštačke inteligencije kao medicinskog autoriteta.
Posebno se naglašava da AI sistemi ne poseduju emocionalno razumevanje, iako mogu da simuliraju empatiju u komunikaciji. To znači da, iako odgovori mogu delovati brižno i pažljivo, oni nisu rezultat stvarnog razumevanja ljudskih emocija i upravo ta razlika je ključna za razumevanje ograničenja tehnologije.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
Bonus video:
Kako da vratite obrisane WhatsApp poruke
@techvision_kurir Da li ste znali da na androidu postoji trik da vidite poruku koju je neko obrisao nakon što ju je poslao? #telefoni #mobilnitelefoni #drustvenemreze
♬ original sound - TechVision