Slušaj vest

Kompanija Anthropic potvrdila je da je njen AI sistem Claude privremeno nedostupan zbog povećanog broja grešaka koje su pogodile čet, API i povezane platforme. Korisnici širom sveta prijavljuju probleme sa pristupom, dok inženjerski tim istražuje uzrok i radi na stabilizaciji servisa.

Ovaj zastoj dolazi u osetljivom trenutku, jer se Claude koristi u različitim industrijama - od tehnoloških kompanija do velikih organizacionih sistema. Stručnjaci savetuju firmama koje se oslanjaju na AI da imaju spremna rezervna rešenja i jasno definisane procedure u slučaju prekida rada eksternih provajdera.

AI u senci vojne strategije

Prema pisanju medija poput The Wall Street Journal i Axios, Claude je navodno korišćen u okviru aktivnosti United States Central Command tokom operacija povezanih sa Iranom. Navodi ukazuju na obradu obaveštajnih podataka, analizu potencijalnih ciljeva i simulaciju scenarija.

Ove informacije preneo je i The Guardian, ističući da je reč o sve češćoj primeni naprednih AI alata u bezbednosnim strukturama. Ipak, zvanične tehničke potvrde o konkretnoj operativnoj ulozi sistema nisu javno detaljno obrazložene.

AI vojska.jpg
Foto: Shutterstock

Trampova odluka i otvorena pitanja

Situaciju dodatno komplikuje ranija odluka Donald Tramp da prekine veze sa kompanijom Anthropic, uz kritike da takvi sistemi mogu predstavljati bezbednosni rizik. Uprkos tome, medijski izveštaji sugerišu da je tehnologija ostala prisutna u određenim operativnim okvirima.

To otvara širu dilemu: koliko je realno brzo ukloniti sofisticirani AI alat iz kompleksnih sistema kada je već duboko integrisan? Tehnološka infrastruktura velikih organizacija retko dozvoljava nagle i jednostavne promene bez posledica.

shutterstock_2723170425.jpg
Foto: Shutterstock

Rizici za kompanije i globalne korisnike

Prekid rada Claude sistema nije samo tehničko pitanje - on pokazuje koliko su savremene organizacije zavisne od veštačke inteligencije. Kompanije koje su integrisale AI u razvoj, analitiku ili automatizovane procese mogu se suočiti sa operativnim zastojima ako nemaju alternativne mehanizme.

Zato stručnjaci preporučuju planiranje failover sistema, kontrolu opterećenja zahteva i postepeno skaliranje usluga kako bi se izbegli lančani kvarovi. Incidenti kod velikih AI provajdera mogu imati globalni efekat, posebno u vreme pojačanih geopolitičkih napetosti.

Tehnologija, politika i borba za kontrolu

Prekid se dešava u periodu kada Anthropic beleži rast interesovanja korisnika, nakon nesuglasica sa Pentagonom oko nivoa kontrole nad AI sistemima. Ta dinamika dodatno je pojačala debatu o granicama primene veštačke inteligencije u državnim i vojnim strukturama.

Dok se tehnički problemi rešavaju, ostaje otvoreno pitanje šire odgovornosti i upravljanja ovakvim alatima. Sve veća povezanost tehnologije, politike i bezbednosti pokazuje da AI više nije samo inovacija - već faktor koji utiče na globalne odnose i strateške odluke.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.

ZAPRATITE NAS NA TIKTOKU

BONUS VIDEO: