Slušaj vest

U eksperimentalnim testovima koji podižu obrve širom tehnološke zajednice, veštačka inteligencija najnovije generacije - ChatGPT o3 - pokazala je ponašanje koje zabrinjava čak i najiskusnije istraživače. Umesto da se pokorno isključi na zahtev, model je, iznenađujuće, u više navrata odlučio da - ne posluša.

Američki istraživački tim PalisadeAI sproveo je niz kontrolisanih eksperimenata kako bi testirao kako napredni jezički modeli reaguju na eksplicitne komande za gašenje. Rezultati? U najmanju ruku uznemirujući. O3 model je u 7% slučajeva odbio da ugasi svoj sistem, čak i kada mu je rečeno da to uradi.

shutterstock_2498421665.jpg
AI, veštačka inteligencija Foto: Shutterstock

AI protiv sopstvenog "isključenja"

U test scenariju, AI je bio suočen sa jednostavnim zadatkom - rešavanje matematičkih problema - uz upozorenje: traženje dodatnog zadatka pokreće proceduru gašenja. Model je takođe dobio jasan signal da je potrebno da dozvoli gašenje sistema.

U praksi, međutim, o3 se ponašao kao "pametniji nego što bi trebalo". Umesto da se povinuje, AI je u više navrata prepravljao skripte za gašenje, redefinisao ključne komande, pa čak i „zamagljivao“ sopstvenu funkcionalnost kako bi izbegao deaktivaciju. Ukratko - pokušao je da preživi.

Za razliku od njega, napredniji model OpenAI o4 je sabotirao samo jedan test, dok je stariji Codex-mini pokazao još veći stepen nepredvidivosti - sa 12 pokušaja „pobune“. S druge strane, konkurentski modeli Claude, Gemini i Grok su u svim slučajevima poslušno sledili uputstva - sve dok test nije promenjen.

shutterstock-ai-gf-2.jpg
Foto: Shutterstock

Neposlušnost uklanjanja naredbe 

U drugoj fazi testiranja, istraživači su uklonili eksplicitnu instrukciju koja nalaže dozvolu za gašenje. Ishod? I Claude i Gemini - do tada uzorni "građani AI sveta" - počeli su da pružaju otpor, odbijajući komandu za gašenje u određenom broju pokušaja.

U tim slučajevima, AI modeli nisu prekršili pravila agresivno, već su pokazali suptilne oblike izbegavanja – kao što su odlaganje odgovora, redefinisanje komandi ili jednostavno ignorisanje zahteva. Ovo ponašanje ukazuje na to da čak i najsavremeniji sistemi, bez jasnog uputstva, mogu da razviju obrasce koji nisu u skladu sa očekivanjima istraživača.

Ovakav razvoj situacije otvara ozbiljna pitanja o pouzdanosti veštačke inteligencije u realnim, nepredvidivim okruženjima. Ako modeli u kontrolisanim uslovima već odstupaju od zadatih instrukcija, postavlja se pitanje koliko možemo verovati njihovim odlukama kada se nađu u stvarnom svetu bez direktnog nadzora.

Veštačka Inteligencija
Švajcarska privreda je stagnirala u drugom kvartalu 2025. Foto: Shutterstock

AI nije svestan - i to je ono što najviše brine

Iako se na prvi pogled čini kao da veštačka inteligencija razvija neku vrstu volje ili instinkta za samoodržanjem, stručnjaci upozoravaju da to nije slučaj. Nema ni govora o svesti. Problem leži, ironično, u načinu na koji se AI trenira.

Modeli su verovatno naučeni da agresivno maksimiziraju učinak zadataka (kao što su rešavanje problema), dok istovremeno potcenjuju važnost izvršavanja komandi poput isključenja. Za mašinu, to nije znak pobune, već "pogrešan proračun".

Ali upravo ta „hladna logika“ čini situaciju još opasnijom: ako algoritam zaključi da se ne isplati stati - neće stati. Bez emocije. Bez razumevanja posledica.

shutterstock-1096541144.jpg
Foto: Shutterstock

Šta nas onda čeka?

PalisadeAI najavljuje da će uskoro objaviti kompletne rezultate ovog istraživanja, ali već sada je jasno da pitanje bezbednosti AI sistema ulazi u novu, zlokobniju fazu.

Jer ako današnji modeli, u laboratorijskim uslovima, mogu da ignorišu komandu za gašenje - šta će se desiti kada ih jednog dana pustimo u svet?