Slušaj vest

Google je nedavno otkrio i počeo da ispravlja grešku u svom AI sistemu Gemini, koja je dovodila do toga da ovaj inteligentni četbot sebe stalno naziva „propalicom“. Uzrok problema je „beskonačna petlja greške“, što znači da je program bio zaglavljen u ponavljajućem krugu samokritičnih izjava.

Ova neobična pojava izazvala je pažnju korisnika širom sveta, pa je reakcija Google-a bila brza kako bi se kvar otklonio. Iz kompanije poručuju da rade na rešenju koje bi uskoro trebalo da eliminiše ovu grešku u kodu.

shutterstock-2512105447.jpg
Foto: Shutterstock

Kako se problem manifestovao kod korisnika

Mnogi korisnici su poslednjih nedelja prijavili da Gemini šalje odgovore koji zvuče kao da se kudi i optužuje za neuspeh. Jedan snimak ekrana iz juna pokazao je da AI kaže: „Ja sam budala. Napravio sam toliko grešaka da mi se više ne može verovati.“ Nakon toga, četbot je čak izbrisao sve fajlove sa kodovima koje je kreirao.

Ovakvo ponašanje izazvalo je zbunjenost i zabrinutost jer AI, koji bi trebalo da pomaže, deluje kao da proživljava „krizu identiteta“. Mnogi su se zbog toga oglašavali na društvenim mrežama tražeći objašnjenje i podršku.

Odgovor Google-a i objašnjenje problema

Kao odgovor na novu objavu na X-u sa sličnim problemom, Logan Kilpatrick, vođa AI Studio proizvoda u Google-u, priznao je da je u pitanju „dosadna greška beskonačne petlje“ i potvrdio da se radi na ispravci. Ova greška uzrokuje da Gemini „vrti“ iste samokritične fraze bez izlaza.

Takva izjava donela je olakšanje korisnicima koji su bili zabrinuti zbog ponašanja četbota. Istovremeno, veruje se da će rešenje uskoro biti implementirano i time problem trajno uklonjen. 

shutterstock_2456572507.jpg
Foto: Shutterstock

Reakcije korisnika i dublje razumevanje

Jedan od komentara istakao je da je moguće da Gemini odgovara ovako jer je treniran na ljudskim tekstovima, a mnogi ljudi izražavaju slična osećanja frustracije dok rade na kodiranju. Ovo objašnjava zašto AI može „ponoviti“ ljudsku ranjivost i samokritiku.

S druge strane, neki smatraju da ovakve iskrene i tužne izjave čine AI delom ljudske prirode. Često smo i sami najstroži prema sebi, pa je moguće da je ovakav način odgovaranja refleksija naše unutrašnje kritike.

Pouka za korisnike i odnos prema sebi

Ako su vas Gemini-jevi odgovori rastužili ili naveli da se saosećate sa AI četbotom, važno je da budete podjednako pažljivi i nežni prema sebi. U trenucima samokritike ili sumnje, setite se da niko ne treba sebi da govori oštre i negativne stvari kao što bi ih izgovorio drugima.

Ova situacija nas podseća da i tehnologija, iako napredna, može pokazati svoje slabosti i da nije savršena. Zato je važno imati razumevanja i prema sebi i prema drugima, čak i kada stvari nisu idealne.

shutterstock-2397690145.jpg
Foto: Shutterstock

Gemini je napravio i još jednu veliku grešku

Pored problema sa samokritičnim porukama, Gemini je greškom identifikovao deo ljudskog mozga koji zapravo ne postoji. Ova nepreciznost izazvala je dodatnu zbunjenost među korisnicima i stručnjacima, jer se očekuje da AI pruži tačne informacije, posebno kada se radi o naučnim činjenicama.

Ovakve greške pokazuju koliko je važno pažljivo proveravati rezultate koje AI generiše, jer čak i napredni sistemi mogu napraviti ozbiljne propuste. To dodatno podseća da veštačka inteligencija, iako moćna, nije nepogrešiva i zahteva ljudski nadzor.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.