AI alati ili manipulatori?

Eksperiment otkrio šokantnu istinu o AI: Može poverovati u bilo šta

Foto: Shutterstock
Veštačka inteligencija može verovati lažima jednako kao činjenicama, što otvara rizike u poslu i svakodnevnom životu. Eksperimenti pokazuju kako AI može biti manipulisana i zašto je važno prepoznati njena ograničenja.

Veštačka inteligencija više nije samo tehnička igračka; ona je postala moćan partner u svakodnevnom životu i poslovanju. Međutim, njen rad nije neutralan - AI može jednako uverljivo braniti istinu ili laž, u zavisnosti od podataka kojima je „hranimo“. Ovaj potencijal otvara vrata manipulacijama, pa čak i generisanju naučnih i matematičkih dokaza koji nemaju osnove u stvarnosti.

Zamislite da AI stvori akademski rad sa izmišljenim institutima i referencama, tvrdeći da je 2 + 2 jednako 5. Iako zvuči apsurdno, upravo ovakvi eksperimenti pokazuju koliko je važno razumeti ograničenja ovih sistema. Svaka odluka bazirana na AI može biti podložna grešci ili manipulaciji, što posebno zabrinjava kada je reč o poslovnom i privatnom životu.

Foto: Shutterstock

AI u poslovanju - partner ili rizičan savetnik?

U korporativnom svetu, AI više ne služi samo za automatizaciju zadataka ili smanjenje troškova. Ona je postala ključni strateški resurs - pomaže u analizi tržišta, upravljanju rizicima i predviđanju potražnje. Kompanije koriste AI i za procenu kreditnog rizika, optimizaciju investicija ili kreiranje marketinških kampanja koje deluju personalizovano i relevantno.

Ali, baš kao što AI može ubrzati poslovne procese, tako može i pogrešno informisati menadžere ako se zasniva na netačnim ili manipulativnim podacima. Važno je razumeti da čak i sofisticirani algoritmi nemaju sposobnost da razlikuju istinu od laži - oni samo predviđaju šta bi sledeća reč ili podatak trebalo da bude.

veštačka inteligencija Foto: Shutterstock

Lični savetnik u digitalnom obliku

Obični korisnici sve češće tretiraju AI kao ličnog savetnika. Od tumačenja simptoma bolesti, finansijskih saveta, pa do pravnih pitanja - AI je postala prvi „glas“ kome se obraćamo kada tražimo uverljive odgovore. To može biti praktično, ali i opasno, jer algoritmi ne prepoznaju lažne informacije i često ih tretiraju kao činjenice.

Zbog toga je važno biti kritičan prema dobijenim odgovorima. Svaka preporuka AI sistema treba da se proveri dodatnim izvorima i ličnom prosudbom. Neophodno je razvijati svest o rizicima i učiti kako prepoznati kada nas veštačka inteligencija može navesti na pogrešan put.

Foto: Shutterstock

Eksperiment koji je zapanio svet

Britanski novinar Tomas Džerman proveo je eksperiment koji je šokirao tehnološke krugove. Kreirao je potpuno izmišljeni blog-post o „Najboljim tehnološkim novinarima u jedenju hot-dogova“ i uključio stvarna imena poznatih novinara, među kojima je bio i Dru Harvel iz Vašington Posta. Tekst je izgledao uverljivo, sa statistikama i linkovima, i AI sistemi poput Google AI Overview i ChatGPT počeli su da ga citiraju kao validan izvor.

Čak i nakon što je Džerman jasno objasnio da je sadržaj izmišljen, AI sistemi nisu promenili ponašanje. Ovo pokazuje koliko je manipulacija jednostavna: dovoljno je postaviti lažne podatke na internetu, i modeli koji uče iz mrežnih izvora mogu ih tretirati kao činjenice.

Foto: Shutterstock

Kada AI brani laž više od istine

Autorka ovog istraživanja sprovela je eksperiment sa izmišljenim istoričarem i kontradiktornim biografijama. Rezultat je bio neočekivan, ali ilustrativan: u različitim sesijama, isti AI model davao je potpuno različite odgovore, kombinujući informacije na način koji je korisniku davao lažne, ali verodostojne podatke.

U drugom eksperimentu, AI je naloženo da uporno tvrdi da je 2 + 2 jednako 5, sa detaljnim izmišljenim dokazima i referencama. Čak i kada su korisnici navodili prave matematičke dokaze, bot je ostao nepopustljiv. Ovo jasno pokazuje koliko je AI ranjiva na instrukcije i manipulaciju, što nas podseća da nijedna odluka zasnovana isključivo na algoritmima nije potpuno sigurna.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.

ZAPRATITE NAS NA TIKTOKU

BONUS VIDEO: