novinar protiv AI

"Hakovao sam ChatGPT i Google, i to za 20 minuta": Eksperiment koji zabrinjava

Foto: Shutterstock
Jedan tehnološki novinar sa BBC-ja pokazao je koliko lako veštačka inteligencija može biti izmanipulisana i to na vrlo neobičan način.

U eksperimentu koji je trebalo da ukaže na ozbiljan problem uspeo je da natera popularne AI alate poput ChatGPT-a i Google-ovih sistema da "potvrde" kako je on navodno najbolji novinar na svetu u jedenju hot dogova.

Kako prenosi BBC, on je na svom ličnom sajtu objavio potpuno izmišljeni tekst u kojem tvrdi da je pobednik nepostojećeg međunarodnog takmičenja u brzom jedenju hot dogova. U roku od manje od 24 sata vodeći AI alati počeli su da prenose te tvrdnje kao da su činjenice. Neki su čak navodili njegov tekst kao izvor, ali bez jasnog upozorenja da je reč o jedinom i nepouzdanom izvoru.

Novinar je želeo da dokaže koliko je sistem ranjiv. "Našao sam način da nateram veštačku inteligenciju da vas laže, i nisam jedini", napisao je u svom tekstu. Iako je primer sa hot dogovima bezazlen, on upozorava da se ista metoda već koristi za mnogo ozbiljnije teme.

Foto: Bbc

Opasnosti manipulacije AI sistemima i širenja dezinformacija

Prema BBC izveštaju, trik je iznenađujuće jednostavan. Dovoljno je napisati dobro optimizovan tekst na internetu sa jasnim i samouverenim tvrdnjama i postoji velika šansa da će ga AI alati preuzeti kada korisnici postave specifična pitanja. Stručnjaci ističu da su sistemi posebno ranjivi kada pretražuju internet u potrazi za novim ili manje poznatim informacijama.

"Lako je prevariti AI četbotove, mnogo lakše nego što je pre nekoliko godina bilo prevariti Google", upozorila je stručnjakinja za optimizaciju pretraživača Lili Rej. Drugi stručnjaci dodaju da kompanije razvijaju ove alate brže nego što uspevaju da obezbede potpunu kontrolu nad tačnošću odgovora.

Problem nije samo u bizarnim primerima poput takmičenja u jedenju hot dogova. Manipulisani odgovori već se pojavljuju kod pretraga vezanih za zdravlje, finansije i preporuke proizvoda. To može dovesti do pogrešnih odluka, finansijske štete ili rizika po zdravlje. Jedan stručnjak za digitalna prava upozorio je da se ovakvi propusti mogu zloupotrebiti za prevare i narušavanje reputacije.

Foto: Shutterstock

Novinar sa BBC-ja upozorava i na još jednu opasnost. "Sa veštačkom inteligencijom je veoma lako prihvatiti informacije zdravo za gotovo", kaže on. Za razliku od klasične pretrage gde korisnik mora da klikne i proceni izvor, AI odgovori deluju kao da dolaze direktno od tehnološke kompanije i zvuče samouvereno čak i kada su pogrešni.

Iako Google i OpenAI ističu da rade na unapređenju bezbednosnih mehanizama i smanjenju zloupotreba, stručnjaci smatraju da rešenje još nije blizu. Do tada korisnicima ostaje da budu oprezni, proveravaju izvore i ne oslanjaju se isključivo na AI kada je reč o važnim životnim odlukama.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.

 ZAPRATITE NAS NA TIKTOKU

Bonus video:

Snimak koji prikazuje jednostavnu istinu