Slušaj vest

Anthropic suočava se sa ozbiljnim bezbednosnim pitanjem nakon što je mali broj neovlašćenih korisnika uspeo da pristupi njenom novom modelu veštačke inteligencije Mythos. Reč je o sistemu koji je još u fazi ograničenog testiranja i namenjen samo zatvorenoj grupi partnera. Ipak, pristup je očigledno probijen brže nego što se očekivalo.

Model Mythos već je ranije interno označen kao izuzetno moćan, ali i potencijalno rizičan ako se koristi bez nadzora. Prema navodima kompanije, može da identifikuje i iskoristi slabosti u operativnim sistemima i popularnim pretraživačima. Upravo zbog toga je od starta držan pod strogo kontrolisanim uslovima.

Anthropic.jpg
Foto: Shutterstock

Zatvoreni sistem u neovlašćenim rukama 

Prema informacijama iz više izvora, grupa korisnika sa privatnog Discord foruma dobila je pristup modelu gotovo istog dana kada je počelo njegovo testiranje. Među njima se navodi i osoba koja je iskoristila pristup kroz spoljnog saradnika kompanije, dok su drugi koristili standardne alate za istraživanje bezbednosti sistema.

Ono što dodatno iznenađuje jeste da, prema dostupnim informacijama, nije postojala jasna namera zloupotrebe. Korisnici su navodno testirali mogućnosti modela kroz jednostavne zadatke i izbegavali rizične upite. Ipak, sama činjenica da su uopšte ušli u sistem pokazala je koliko su granice pristupa krhke.

shutterstock-discord-2.jpg
Foto: Shutterstock

AI je postao dvosmerno oružje

Mythos nije običan AI alat. On je dizajniran da, kada mu se to zatraži, analizira i koristi ranjivosti u digitalnim sistemima, što ga svrstava među najosetljivije modele nove generacije. Upravo ta sposobnost čini ga istovremeno moćnim i potencijalno opasnim.

Zbog toga je njegov razvoj od početka bio ograničen na zatvoreno testiranje. Ideja je bila da se izbegne bilo kakva javna eksploatacija pre nego što sistem bude potpuno spreman. Ovaj incident pokazuje da čak i najstrože kontrole u praksi mogu imati pukotine.

Anthropic (2).jpg
Foto: Shutterstock

Interna istraga i pitanje kontrole

Nakon što je incident otkriven, Anthropic je pokrenuo internu istragu kako bi utvrdio kako je došlo do curenja pristupa. Fokus je na spoljnim saradnicima i sigurnosnim kanalima koji su omogućili ulazak u sistem. Kompanija tvrdi da se situacija sada detaljno analizira.

U međuvremenu su uvedene dodatne zaštitne mere kako bi se sprečilo dalje širenje pristupa modelu. Ipak, ovaj slučaj je otvorio šire pitanje - koliko su zapravo bezbedni napredni AI sistemi u ranoj fazi razvoja. Stručnjaci upozoravaju da će ovakvi incidenti verovatno postajati sve češći kako modeli postaju sve moćniji.

Anthropic (1).jpg
Foto: Shutterstock

Kako je Mythos probijen pre javnog testiranja

Incident sa modelom Mythos otvorio je ozbiljno pitanje kontrole u razvoju naprednih sistema veštačke inteligencije. Iako je bio namenjen samo ograničenom broju testnih korisnika, pristup mu je ipak dospeo u spoljne ruke. To je izazvalo zabrinutost jer se radi o tehnologiji koja može da analizira i potencijalno iskoristi slabosti u digitalnim sistemima.

Ono što ovaj slučaj čini posebno osetljivim jeste činjenica da se dogodio u ranoj fazi testiranja, kada su bezbednosni mehanizmi još uvek u aktivnom razvoju. Takvi trenuci su najkritičniji jer se sistemi još uvek prilagođavaju realnim uslovima. Upravo tu se pokazuje koliko je teško potpuno izolovati napredne modele od spoljnog pristupa.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.

ZAPRATITE NAS NA TIKTOKU

BONUS VIDEO: