ChatGPT je problem: Evropska unija ne zna kako da ga zaustavi!
Evropska unija suočava se sa novim izazovom, kako obuzdati ChatGPT, alat zasnovan na veštačkoj inteligenciji koji je brzo postao poznat širom kontinenta. Njegova upotreba je naglo porasla, a samo funkciju pretrage mesečno koristi više od 120 miliona ljudi, prema zvaničnicima Evropske komisije.
Ipak, regulatori još uvek nisu sigurni kako da klasifikuju ChatGPT u okviru Zakona o digitalnim uslugama (DSA), koji je stupio na snagu početkom 2024. godine. Zakon obavezuje platforme da smanjuju rizike za korisnike, ali je donet pre nego što su AI četbotovi ovakvog obima postali svakodnevica. Odluka Komisije se ne očekuje pre sredine 2026.
Test spremnosti Evrope za veštačku inteligenciju
Ova situacija predstavlja ozbiljan test sposobnosti EU da upravlja rizicima velikih jezičkih modela. Ovi AI sistemi sve više postaju deo svakodnevnog života, funkcionišući slično klasičnim pretraživačima, ali sa višim nivoom kompleksnosti i nepredvidivosti.
OpenAI je nedavno objavio da oko 1,2 miliona nedeljnih razgovora sa ChatGPT-jem ukazuje na samoubilačke misli. Iako model u ovim osetljivim situacijama ne reaguje uvek adekvatno, ovaj podatak dodatno naglašava hitnu potrebu za snažnim zaštitnim merama.
Pravni i finansijski ulozi
ChatGPT već podleže Zakonu o veštačkoj inteligenciji, koji kompanijama nalaže procenu rizika i sprovođenje mera ublažavanja ili se suočavaju sa kaznama do 15 miliona evra. Međutim, ogromna baza korisnika sada ga svrstava među veoma velike onlajn platforme i pretraživače po DSA-u, što može dovesti do kazni do šest procenata globalnog godišnjeg prihoda OpenAI-ja.
Ključno pitanje za regulatore je da li primeniti ove propise samo na funkciju pretrage ili na čitavu platformu. Ova klasifikacija direktno utiče na obim procene rizika i nivo izveštavanja Komisiji.
Navigacija kroz preklapanje zakona
DSA i AI Act funkcionišu kroz različite okvire. AI Act klasifikuje AI modele po nivou rizika, neprihvatljiv, visok, ograničen ili minimalan, dok DSA definiše četiri sistemska rizika, uključujući integritet izbora, javno zdravlje i osnovna prava.
Stručnjaci upozoravaju da nepodudaranje ova dva zakona može stvoriti pravne sive zone za kompanije poput OpenAI-ja. Postoji i mogućnost oslanjanja na pravila “safe harbor”, koja ograničavaju odgovornost za sadržaj koji objavljuju korisnici, ali ova zaštita možda neće pokriti sve AI-specifične rizike.
Evropa na prekretnici
Odluka Komisije koja sledi oblikovaće regulatorni pejzaž AI u EU u godinama koje dolaze. Tehnologija napreduje brže od zakona, a Brisel se suočava sa izazovom da pronađe ravnotežu između inovacije i javne bezbednosti.
Ako OpenAI ospori klasifikaciju, što je zakonski moguće, vremenski okvir može se dodatno produžiti. U međuvremenu, neviđeni obim ChatGPT-ja naglašava hitnu potrebu za jasnim pravilima o upravljanju rizicima i odgovornosti AI servisa u Evropi.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.