Slušaj vest

AI alati poput ChatGPT-a postali su sinonim za brzinu i efikasnost. Pišu sastave, prevode, rešavaju zadatke, pa čak i programiraju. Ali u jurnjavi za briljantnošću, izgleda da su izgubili kompas kada je u pitanju istina.

Prema najnovijem izveštaju koji je objavio The New York Times, pozivajući se na interno istraživanje OpenAI-ja, modeli GPT-o3 i o4-mini često „haluciniraju“ - što je stručni izraz za odgovore koji zvuče uverljivo, ali su potpuno pogrešni ili izmišljeni.

shutterstock-chatgpt-1.jpg
Foto: Shutterstock

Zabrinjavajuće brojke: Gotovo 80% netačnih odgovora

Podaci su ozbiljni. GPT-o3 je u testovima o poznatim ličnostima grešio u trećini slučajeva, što je duplo više u poređenju s prethodnim modelom o1. Još gore stoji o4-mini, koji je pogrešio u 48% zadataka.

Situacija je još alarmantnija kada su modeli odgovarali na pitanja opšteg znanja (SimpleKA test). GPT-o3 je tada halucinirao u 51% slučajeva, dok je o4-mini dostigao zapanjujućih 79%. Drugim rečima - skoro osam od deset odgovora bilo je netačno.

shutterstock_OpenAI (3).jpg
Foto: Shutterstock

Više „razmišljanja“, više grešaka?

Paradoks je očigledan - što su modeli napredniji, to češće greše. Dok su starije verzije bile „opreznije“ i držale se poznatih informacija, novi modeli pokušavaju da „rezonuju“, povezuju nepovezano i donose sopstvene zaključke. Rezultat toga često su odgovori koji deluju ubedljivo, ali nemaju uporište u stvarnosti.

Iz OpenAI-ja kažu da ova pojava možda ne ukazuje na grešku, već na to da su novi modeli „kreativniji“ i slobodniji u izražavanju. Ipak, kada AI tvrdi da je Abraham Linkoln imao podkast ili da voda ključa na 27 stepeni - postaje jasno da imamo ozbiljan problem.

shutterstock_serachgpt (1).jpg
Foto: Shutterstock

Od sudova do učionica - opasnost raste

Ono što najviše brine jeste to što se ovi modeli sve više koriste u ozbiljnim i osetljivim okruženjima - školama, bolnicama, sudovima i državnim institucijama.

Već postoje slučajevi u kojima su advokati koristili ChatGPT za pripremu pravnih podnesaka - i završili pred sudom jer su citirali nepostojeće presedane. A koliko takvih grešaka ostaje neprimećeno u svakodnevnom korišćenju širom sveta?

Veštačka inteligencija
ChatGPT Foto: Shutterstock

Korisnost ne opravdava nepouzdanost

Problem je suštinski: što je AI korisniji, to mora da bude precizniji. Ne možete tvrditi da tehnologija štedi vreme, ako korisnik mora da proverava svaki odgovor.

GPT-o3 zaista demonstrira impresivne sposobnosti - naročito u programiranju i rešavanju logičkih problema. Ali sav taj napredak ne znači mnogo ako pritom izmišlja činjenice.

ChatGPT.jpg
Foto: Shutterstock

Verujte, ali proveravajte

Dok AI ne nauči da razlikuje činjenice od fikcije, korisnicima ostaje samo jedno - oprez i zdrava doza sumnje. Jer ponekad, ChatGPT deluje kao onaj lik u društvu koji samouvereno priča - ali kad ga malo bolje poslušate, shvatite da ništa što je rekao zapravo ne stoji.