Slušaj vest

Zamislite da vam AI kaže da imate deo mozga koji zapravo ne postoji. Upravo to se dogodilo kada je Google zdravstveni AI model Med-Gemini „otkrio“ infarkt u nepostojećem delu mozga - „bazilarnim ganglijama“. Lekari su se začudili, a stručnjaci pomalo zabrinuli, jer iako je greška možda nastala iz obične tipografske zabune, posledice takvih „halucinacija“ nisu nimalo smešne.

Zdravstveni radnici sve više sumnjaju u pouzdanost generativnih AI modela, jer, iako deluju kao da znaju sve, ponekad se ponašaju kao da su pročitali previše neproverenih članaka na internetu i sada izmišljaju sopstvene detalje.

shutterstock-2397564509.jpg
Foto: Shutterstock

Basal ili basilar? Zbunjenost u mozgu

Greška je nastala jer je AI verovatno pomešao bazalne ganglije - važne delove mozga za pokrete i navike sa bazilarnom arterijom, velikom krvnom žilom u bazi mozga. Dakle, AI je uspeo da spoji dva različita pojma u jedan izmišljeni „bazilarni ganglij“, koji je kao mitološko stvorenje u svetu anatomije.

Google je ovu grešku objasnio kao tipografsku grešku, što zvuči kao da je AI dobio svoj prvi zadatak iz pravopisa i, nažalost, pao na ispitu. Iako je greška ispravljena u blogu, istraživački rad još uvek sadrži ovu „anatomsku zbrku“.

shutterstock-google-3.jpg
Foto: Shutterstock

Kada greške nisu samo greške

Dok bi ovakve greške u svakodnevnoj upotrebi mogle biti smešne ili barem frustrirajuće, u medicini su mnogo ozbiljnije. Pogrešne informacije mogu dovesti do pogrešnih dijagnoza i tretmana, što može ugroziti ljudske živote.

Lekari upozoravaju da AI ne može i ne sme da glumi stručnjaka koji uvek zna odgovor, pogotovo kad „ne zna“ treba da bude njegov standardni odgovor. Izmišljanje informacija nije opcija kada se radi o zdravlju ljudi.

shutterstock_doktor (2).jpg
Foto: Shutterstock

Veštačka inteligencija u zdravstvu - sa dozom opreza

Iako AI može biti moćan alat za dijagnostiku i analizu, stručnjaci pozivaju na oprez. Pre nego što AI postane „glavni doktor“, mora proći rigorozne provere, a ljudski nadzor mora ostati ključni deo procesa.

Trenutno, iako AI pomaže u mnogim segmentima medicine, ljudi moraju stalno pratiti njegove greške i sprečiti da „halucinacije“ dovedu do neželjenih posledica. To može izgledati kao da stalno gledate preko ramena robota, ali sigurnost pacijenata je prioritet.

veštačka inteligencija
veštačka inteligencija Foto: Shutterstock

Google ne odustaje, ali oprez je neophodan

Google ne odustaje od razvoja AI u zdravstvu i uvodi nove funkcije koje obećavaju da će pomoći lekarima i naučnicima. Međutim, iz medicinske zajednice stižu upozorenja da dok AI ne postane pouzdan, svaki njegov savet treba tretirati kao potencijalnu anegdotu, a ne nepobitan medicinski fakt.

Kako kaže jedan od stručnjaka: „AI mora imati mnogo viši prag greške nego ljudi. Ako nam je cilj da AI bude makar kao čovek, to nije dovoljno.“ Izgleda da je savršenstvo u medicini još daleko od „programskog ažuriranja“.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.