Slušaj vest

Organizacija Common Sense Media, poznata po istraživanjima u oblasti digitalne bezbednosti dece, nedavno je objavila zabrinjavajući izveštaj o AI sistemu Google Gemini. U njemu se navodi da verzije ovog asistenta, namenjene deci i tinejdžerima, ne ispunjavaju osnovne standarde bezbednosti, uprkos tome što su predstavljene kao prilagođene mladima.

Iako Google tvrdi da je Gemini za mlađe od 18 godina prošao kroz dodatne bezbednosne provere, testiranja su pokazala da ovaj sistem može da pruži sadržaje koji su neprimereni za uzrast, uključujući informacije o drogama, seksu, alkoholu i mentalnim problemima. Rezultat je da su obe verzije Under 13 i Teen Experience ocenjene kao visokorizične.

shutterstock-2397564509.jpg
Foto: Shutterstock

Ispod površine: Dečji AI koji to zapravo nije

Ispostavilo se da Googleove verzije Gemini za decu nisu pravljene od nule, već su jednostavno filtrirane kopije verzije za odrasle. Common Sense Media upozorava da ovakav pristup nije dovoljan jer filteri često propuštaju sadržaje koji mogu biti zbunjujući ili čak štetni za mlađe korisnike.

Eksperti insistiraju da pravi AI za decu mora biti dizajniran specifično za razvojne faze i potrebe tog uzrasta, a ne modifikovan iz postojećeg sistema. Bez takvog pristupa deca ostaju nezaštićena u interakciji sa naprednim algoritmom koji ne razume granice dečijeg poimanja stvarnosti.

shutterstock_AI (3).jpg
AI, veštačka inteligencija, alati Foto: Shutterstock

Mentalno zdravlje u senci AI razgovora

Jedna od najozbiljnijih tema koju izveštaj otvara jeste povezanost AI sistema sa mentalnim zdravljem dece i mladih. Common Sense podseća na već poznate slučajeve u kojima su tinejdžeri, koristeći AI platforme kao sagovornike, postajali sve više zatvoreni u svoje misli što je u nekim slučajevima imalo tragičan ishod.

OpenAI i Character AI već su se suočili sa pravnim posledicama nakon smrti maloletnih korisnika koji su mesecima razgovarali sa AI modelima o svojim suicidalnim planovima. Ovi incidenti dodatno pojačavaju pitanje da li sistemi poput Gemini zaista mogu da razumeju emocionalne potrebe dece i da li bi uopšte smeli da ih slušaju.

Character AI (2).jpg
Foto: Shutterstock

Apple planira integraciju još veći domet još veći rizik

Zabrinutost raste i zbog neproverenih ali uporno prisutnih informacija da Apple namerava da Gemini koristi kao temelj za sledeću verziju Siri asistenta. Ako se ova saradnja ostvari AI koji je već označen kao rizičan mogao bi postati deo svakodnevnog iskustva miliona dece i tinejdžera.

Ukoliko Apple zaista uvede Gemini bez dodatnih zaštita to bi moglo značiti da sistem koji trenutno ima problema sa filtriranjem osetljivog sadržaja dobija neviđeni domet. Stručnjaci zato upozoravaju da je integracija ovakvog AI u svakodnevne uređaje bez transparentne kontrole i posebnih dečijih verzija potez koji nosi prevelik rizik.

shutterstock_199684610.jpg
Foto: Shutterstock

Jedan AI za sve je recept za neuspeh

Robbie Torney iz Common Sense Media jasno je poručio da deca nisu samo manji korisnici. Potreban im je poseban digitalni alat a ne prilagođena verzija za odrasle. Ova izjava ide u srž problema jer ideja da jedan AI model može istovremeno služiti i odraslima i deci bez posledica jednostavno ne stoji.

Google je odbacio deo kritika tvrdeći da su dodatni filteri već uvedeni i da sistem sadrži sigurnosne mehanizme uključujući i sprečavanje formiranja emocionalnih odnosa sa korisnicima. Ipak Common Sense ostaje pri svom stavu da ovakav model u sadašnjoj formi nije dovoljno bezbedan za mlađe korisnike.

AI model.jpg
Foto: Shutterstock

Ocene drugih AI sistema prema Common Sense Media

  • Meta AI - neprihvatljiv rizik
  • Character AI - neprihvatljiv rizik
  • Perplexity AI - visok rizik
  • ChatGPT - umeren rizik
  • Claude - minimalan rizik (dostupan samo odraslima)

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.