AI briše granicu između realnosti i fikcije

Deepfake sadržaj je preplavio internet: Kako da razlikujete stvaran video od AI obmane?

krađa identiteta Foto: Shutterstock
Deepfejk video-snimci postaju sve realističniji i sve prisutniji na društvenim mrežama. Evo kako da prepoznate AI-generisan sadržaj i zaštitite se od manipulacija.

Video-snimci generisani veštačkom inteligencijom više nisu retkost. Preplavili su društvene mreže, od nadrealnih scena i „neverovatnih“ životinjskih klipova do lažnih izjava poznatih ličnosti i izmišljenih vesti. Ono što je pre godinu dana delovalo očigledno lažno danas izgleda gotovo stvarno.

Realizam napreduje iz dana u dan. Novi alati stvaraju snimke u visokoj rezoluciji, sa prirodnijim pokretima i usklađenim zvukom, zbog čega je sve teže razlikovati stvarni događaj od digitalne kreacije. Milioni ljudi svakodnevno gledaju AI sadržaj, često a da toga nisu ni svesni.

Alati brišu granicu između stvarnog i veštačkog

Platforme poput OpenAI Sora i Google Veo 3 podigle su kvalitet AI videa na novi nivo. Omogućavaju kreiranje detaljnih scena, uverljivog osvetljenja i realističnog kretanja koje može da parira profesionalnoj produkciji.

Zbog toga su se pojavile i zabrinutosti. Organizacije kao što je SAG-AFTRA upozoravaju na rizike zloupotrebe digitalnih likova i identiteta. Kako generativni video postaje strateški fokus velikih tehnoloških kompanija, raste i potreba za jasnim pravilima i zaštitom od manipulacija.

Foto: Shutterstock

Vodeni žig - prvi znak upozorenja

Jedan od najjednostavnijih načina da prepoznate AI video jeste da proverite da li postoji vodeni žig. Video-snimci napravljeni u Sora iOS aplikaciji sadrže pokretni beli logo u obliku oblaka koji se pomera po ivicama kadra, slično kao što objave na TikTok imaju prepoznatljiv žig platforme.

Ipak, vodeni žig nije nepogrešiv dokaz. Statični žig se može iseći, a postoje i aplikacije koje uklanjaju čak i pokretne oznake. Zato je važno da ga posmatrate kao signal, ali ne i kao konačnu potvrdu da je sadržaj generisan veštačkom inteligencijom.

Aplikacije, mobilni Foto: Shutterstock

Metapodaci, digitalni trag porekla

Svaki digitalni fajl sadrži metapodatke, skrivene informacije o tome kada i kako je nastao. Kod AI sadržaja, ti podaci često uključuju oznake koje ukazuju na to da je video generisan pomoću određenog alata.

OpenAI je deo Coalition for Content Provenance and Authenticity, pa Sora video-snimci sadrže C2PA metapodatke. Putem alata koji pruža Content Authenticity Initiative moguće je proveriti da li je fajl označen kao AI-generisan i da li je izdat od strane OpenAI-ja.

Foto: Shutterstock

Oznake pomažu - ali oprez je presudan

Pojedine društvene mreže pokušavaju automatski da označe AI sadržaj. Objave na Instagram i Facebook ponekad imaju vidljive oznake, dok platforme poput YouTube i TikTok-a imaju pravila o obaveznoj transparentnosti.

Ipak, nijedan sistem nije savršen. Najbolja zaštita ostaje kritičko razmišljanje, zastanite pre nego što poverujete ili podelite snimak. Obratite pažnju na neprirodne pokrete, izobličen tekst ili nestajuće objekte. U eri naprednih deepfejkova, pažljivo posmatranje je važnije nego ikad.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.

ZAPRATITE NAS NA TIKTOKU

BONUS VIDEO:

Snimak krije jednostavnu istinu