Slušaj vest

OpenAI je priznao ono što su mnogi u svetu veštačke inteligencije već naslućivali: čak i njihov najnapredniji model, GPT-5, i dalje izmišlja činjenice. Ove takozvane „halucinacije” predstavljaju lažne informacije koje zvuče potpuno uverljivo, čak i kada AI odgovara na jednostavna pitanja.

U blog postu objavljenom 5. septembra, kompanija je objasnila zašto ovaj problem i dalje postoji. Iako GPT-5 pokazuje napredak u logici i tačnosti, i dalje ima tendenciju da daje netačne odgovore koji izgledaju kao da su tačni. Problem ne leži u kvaru sistema, već u načinu na koji su modeli obučavani i ocenjivani.

shutterstock-openai-3.jpg
Foto: Shutterstock

Zašto AI radije pogađa nego da kaže „ne znam”

Suština problema sa halucinacijama leži u sistemu nagrađivanja AI modela. Trenutni standardi ocenjivanja fokusiraju se gotovo isključivo na tačnost odgovora. U praksi, to znači da su modeli podstaknuti da pogađaju čak i kada nisu sigurni, umesto da priznaju neizvesnost.

OpenAI to poredi sa testom sa višestrukim izborom. Ako niste sigurni u odgovor, ali pogodite, možda ćete osvojiti poene. Ako ostavite prazno, dobijate nulu. Taj isti princip ugrađen je u proces treniranja AI, što vodi do toga da modeli odgovaraju samouvereno čak i kada nemaju činjeničnu osnovu.

AI modeli
AI, Chat GPT aplikacija Foto: Shutterstock

GPT-5 je napredovao, ali i dalje greši

U poređenju sa prethodnim verzijama, GPT-5 je napravio ozbiljan pomak u smanjenju broja halucinacija. Posebno se bolje snalazi u zadacima koji zahtevaju logičko razmišljanje i rešavanje problema korak po korak.

Ipak, model još uvek nije nepogrešiv. Nastavlja da generiše netačne informacije, naročito kada se suoči sa retkim ili manje poznatim činjenicama. Iako sada u nekim slučajevima može da prizna da ne zna odgovor, takvo ponašanje mu zapravo snižava ocenu u postojećim sistemima evaluacije koji i dalje favorizuju tačnost iznad opreza.

GPT-5 (1).jpg
Foto: Shutterstock

Pravo rešenje je u promeni pravila

OpenAI tvrdi da rešavanje problema halucinacija nije pitanje samo boljeg modela. Veći problem je u načinu na koji se modeli ocenjuju. Trenutni sistemi nagrađuju tačne odgovore i kažnjavaju uzdržanost, čak i kada je uzdržanost pametniji izbor.

Da bi se zaista smanjio broj halucinacija, OpenAI smatra da moramo iz korena promeniti način ocenjivanja performansi AI modela. Nagrađivanje iskrene nesigurnosti i strože kažnjavanje samouverenih, a netačnih odgovora moglo bi podstaći modele da budu pouzdaniji.

mozak 2.jpg
Foto: Shutterstock

Zašto AI halucinira: Uzrok je u načinu obuke

Halucinacije nisu nasumične greške. One su očekivana posledica načina na koji se treniraju veliki jezički modeli. Ovi sistemi uče tako što predviđaju sledeću reč na osnovu obrazaca iz ogromnih količina teksta, a ne tako što proveravaju da li su informacije tačne.

Ova metoda je odlična za gramatiku, stil i opšte znanje. Ali kada su u pitanju retki detalji, poput nečijeg datuma rođenja ili naslova nepoznate disertacije, ne postoje pouzdani obrasci. Kao rezultat toga, model ponekad „popunjava praznine” svojim najboljim nagađanjem, bilo da je tačno ili ne.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.