Slušaj vest

Nakon višemesečnih pregovora između evropskih institucija, doneta je odluka da se pojedini delovi zakona prilagode ubrzanom razvoju AI tehnologija koje su poslednjih godina potpuno promenile digitalni svet. Cilj novih pravila jeste da se pronađe ravnoteža između tehnološkog napretka i zaštite građana od potencijalnih zloupotreba koje postaju sve ozbiljniji problem.

Poseban fokus evropskih regulatora usmeren je na takozvane visokorizične AI sisteme, odnosno tehnologije koje mogu uticati na privatnost, bezbednost i prava korisnika. To uključuje sisteme za prepoznavanje lica, algoritme koji analiziraju ponašanje ljudi, kao i AI alate koji se koriste u bankama, zdravstvu i državnim institucijama. Evropski zvaničnici smatraju da upravo ove oblasti nose najveći rizik od diskriminacije, manipulacije i narušavanja privatnosti građana.

Za tekst (3) - FOTO ILUSTRACIJA FACTORY(1).jpg
Foto: P.O.

Kompanije će morati jasno da označavaju sadržaj koji je napravila veštačka inteligencija

Jedna od najvažnijih promena odnosi se na deepfake sadržaje i lažne AI generisane snimke koji su poslednjih meseci izazvali ozbiljnu zabrinutost širom sveta. Prema novim pravilima, kompanije će morati jasno da označavaju sadržaj koji je napravila veštačka inteligencija kako korisnici ne bi bili dovedeni u zabludu. Evropska unija smatra da je ovo neophodno kako bi se sprečilo širenje manipulacija, dezinformacija i digitalnih prevara koje postaju sve sofisticiranije.

Velike tehnološke kompanije sada će biti pod znatno većim pritiskom kada je reč o transparentnosti razvoja svojih AI modela. Od njih će se tražiti detaljna objašnjenja načina na koji njihovi sistemi funkcionišu, kako obrađuju podatke i na osnovu čega donose određene odluke, što predstavlja veliki zaokret u odnosu na prethodni period kada su mnogi AI sistemi funkcionisali kao svojevrsne crne kutije čiji je način rada bio poznat samo kompanijama koje ih razvijaju.

deepfake (1).jpg
Foto: Shutterstock

Prestroga pravila mogla bi da uspore razvoj evropskog AI sektora

Posebno kontroverzna tema odnosi se na korišćenje ogromnih količina podataka za treniranje veštačke inteligencije gde umetnici, medijske kuće i brojni autori već duže vreme optužuju tehnološke gigante da koriste njihov sadržaj bez dozvole kako bi razvijali napredne AI modele. Evropski regulatori sada pokušavaju da uvedu stroža pravila koja bi kompanije naterala da jasno pokažu odakle dolaze podaci korišćeni za obuku sistema.

Istovremeno, deo tehnološke industrije upozorava da bi previše stroga pravila mogla usporiti razvoj evropskog AI sektora i omogućiti Sjedinjenim Američkim Državama i Kini da dodatno učvrste dominaciju na tržištu. Mnogi direktori velikih kompanija tvrde da prekomerna regulacija može obeshrabriti investitore i naterati startap firme da razvoj sele van Evrope, ali uprkos tome, evropski zvaničnici insistiraju na tome da bezbednost i zaštita građana moraju imati prioritet.

tramp.jpg
Foto: Shutterstock

Veća prava kada je reč o zaštiti privatnosti

Stručnjaci za sajber bezbednost podržavaju deo novih mera jer smatraju da je razvoj veštačke inteligencije poslednjih godina išao mnogo brže od zakonskih okvira koji bi trebalo da ga kontrolišu. Oni upozoravaju da AI alati već sada mogu da kreiraju veoma uverljive prevare, lažne glasove i manipulativne sadržaje koji mogu izazvati ozbiljne posledice. Upravo zbog toga, mnogi smatraju da je uvođenje jasnih pravila postalo neophodno.

Građani Evropske unije prema novim pravilima trebalo bi da dobiju veća prava kada je reč o zaštiti privatnosti i načinu korišćenja njihovih podataka u AI sistemima. Kompanije će u određenim slučajevima morati da objasne korisnicima kada komuniciraju sa veštačkom inteligencijom umesto sa stvarnom osobom. Takođe, uvode se stroža pravila za sisteme koji mogu uticati na donošenje važnih odluka o zapošljavanju, kreditima ili zdravstvenim uslugama.

Za tekst (1) - FOTO ILUSTRACIJA FACTORY.jpg
Foto: P.O.

Evropa bi mogla postaviti globalni standard za regulaciju AI

Analitičari smatraju da bi upravo Evropa mogla postaviti globalni standard za regulaciju veštačke inteligencije, slično kao što se ranije dogodilo sa pravilima o zaštiti podataka kroz GDPR. Ako evropski model zaživi u praksi, postoji mogućnost da i druge države počnu da uvode slične zakone kako bi kontrolisale rastući uticaj AI tehnologija. To bi moglo potpuno promeniti način na koji tehnološke kompanije razvijaju i plasiraju svoje proizvode širom sveta.

Na kraju, jasno je da ulazimo u period u kojem će borba između tehnološkog razvoja i regulacije postajati sve intenzivnija. Veštačka inteligencija više nije futuristička ideja, već tehnologija koja direktno utiče na svakodnevni život miliona ljudi i zbog toga države pokušavaju da uspostave kontrolu nad njenim razvojem. Evropska unija sada želi da pokaže da digitalna budućnost ne sme biti potpuno prepuštena velikim tehnološkim kompanijama bez jasnih pravila i ograničenja.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.

Bonus video:

Kako da vratite obrisane WhatsApp poruke

@techvision_kurir

Da li ste znali da na androidu postoji trik da vidite poruku koju je neko obrisao nakon što ju je poslao? #telefoni #mobilnitelefoni #drustvenemreze

♬ original sound - TechVision

Nakon višemesečnih pregovora između evropskih institucija, doneta je odluka da se pojedini delovi zakona prilagode ubrzanom razvoju AI tehnologija koje su poslednjih godina potpuno promenile digitalni svet. Cilj novih pravila jeste da se pronađe ravnoteža između tehnološkog napretka i zaštite građana od potencijalnih zloupotreba koje postaju sve ozbiljniji problem.

Poseban fokus evropskih regulatora usmeren je na takozvane “visokorizične AI sisteme”, odnosno tehnologije koje mogu uticati na privatnost, bezbednost i prava korisnika. To uključuje sisteme za prepoznavanje lica, algoritme koji analiziraju ponašanje ljudi, kao i AI alate koji se koriste u bankama, zdravstvu i državnim institucijama. Evropski zvaničnici smatraju da upravo ove oblasti nose najveći rizik od diskriminacije, manipulacije i narušavanja privatnosti građana.

Jedna od najvažnijih promena odnosi se na deepfake sadržaje i lažne AI generisane snimke koji su poslednjih meseci izazvali ozbiljnu zabrinutost širom sveta. Prema novim pravilima, kompanije će morati jasno da označavaju sadržaj koji je napravila veštačka inteligencija kako korisnici ne bi bili dovedeni u zabludu. Evropska unija smatra da je ovo neophodno kako bi se sprečilo širenje manipulacija, dezinformacija i digitalnih prevara koje postaju sve sofisticiranije.

Velike tehnološke kompanije sada će biti pod znatno većim pritiskom kada je reč o transparentnosti razvoja svojih AI modela. Od njih će se tražiti detaljna objašnjenja načina na koji njihovi sistemi funkcionišu, kako obrađuju podatke i na osnovu čega donose određene odluke. To predstavlja veliki zaokret u odnosu na prethodni period kada su mnogi AI sistemi funkcionisali kao svojevrsne “crne kutije” čiji je način rada bio poznat samo kompanijama koje ih razvijaju.

Posebno kontroverzna tema odnosi se na korišćenje ogromnih količina podataka za treniranje veštačke inteligencije. Umjetnici, medijske kuće i brojni autori već duže vreme optužuju tehnološke gigante da koriste njihov sadržaj bez dozvole kako bi razvijali napredne AI modele. Evropski regulatori sada pokušavaju da uvedu stroža pravila koja bi kompanije naterala da jasno pokažu odakle dolaze podaci korišćeni za obuku sistema.

Istovremeno, deo tehnološke industrije upozorava da bi previše stroga pravila mogla usporiti razvoj evropskog AI sektora i omogućiti Sjedinjenim Američkim Državama i Kini da dodatno učvrste dominaciju na tržištu. Mnogi direktori velikih kompanija tvrde da prekomerna regulacija može obeshrabriti investitore i naterati startap firme da razvoj sele van Evrope. Uprkos tome, evropski zvaničnici insistiraju na tome da bezbednost i zaštita građana moraju imati prioritet.

Stručnjaci za sajber bezbednost podržavaju deo novih mera jer smatraju da je razvoj veštačke inteligencije poslednjih godina išao mnogo brže od zakonskih okvira koji bi trebalo da ga kontrolišu. Oni upozoravaju da AI alati već sada mogu da kreiraju veoma uverljive prevare, lažne glasove i manipulativne sadržaje koji mogu izazvati ozbiljne posledice. Upravo zbog toga, mnogi smatraju da je uvođenje jasnih pravila postalo neophodno.

Građani Evropske unije prema novim pravilima trebalo bi da dobiju veća prava kada je reč o zaštiti privatnosti i načinu korišćenja njihovih podataka u AI sistemima. Kompanije će u određenim slučajevima morati da objasne korisnicima kada komuniciraju sa veštačkom inteligencijom umesto sa stvarnom osobom. Takođe, uvode se stroža pravila za sisteme koji mogu uticati na donošenje važnih odluka o zapošljavanju, kreditima ili zdravstvenim uslugama.

Analitičari smatraju da bi upravo Evropa mogla postaviti globalni standard za regulaciju veštačke inteligencije, slično kao što se ranije dogodilo sa pravilima o zaštiti podataka kroz GDPR. Ako evropski model zaživi u praksi, postoji mogućnost da i druge države počnu da uvode slične zakone kako bi kontrolisale rastući uticaj AI tehnologija. To bi moglo potpuno promeniti način na koji tehnološke kompanije razvijaju i plasiraju svoje proizvode širom sveta.

Na kraju, jasno je da ulazimo u period u kojem će borba između tehnološkog razvoja i regulacije postajati sve intenzivnija. Veštačka inteligencija više nije futuristička ideja, već tehnologija koja direktno utiče na svakodnevni život miliona ljudi i zbog toga države pokušavaju da uspostave kontrolu nad njenim razvojem. Evropska unija sada želi da pokaže da digitalna budućnost ne sme biti potpuno prepuštena velikim tehnološkim kompanijama bez jasnih pravila i ograničenja.