Ljudi zloupotrebljavaju Soru 2: Šokantne montaže sa likom Stivena Hokinga! (VIDEO)
OpenAI-jev novi generator video snimaka na bazi teksta, Sora 2, nedavno je izazvao veliku pažnju omogućavajući korisnicima da kreiraju i dele AI-generisane video klipove na platformi sličnoj TikToku. Iako je ova tehnologija obećavala nove kreativne mogućnosti, stvarnost je donela mešavinu iznenađujućeg i često problematičnog sadržaja. Umesto široke umetničke inovacije, mnogi video snimci prikazuju uznemirujuće ili neukusne prikaze ljudi, naročito preminulih poznatih ličnosti.
Među najproblematičnijim su klipovi u kojima su poznate ličnosti poput Majkla Džeksona koji repuje ili Džona F. Kenedija koji reklamira rasprodaje, ali se pojavio i mračniji trend nasilnih i eksplicitnih prikaza preminulih javnih ličnosti. Ovaj trend osvetljava izazove i etička pitanja koja donosi AI-generisani sadržaj i njegova kontrola.
Uznemirujući prikazi Stivena Hokinga
Posebno šokantan trend uključuje video zapise u kojima je pokojni teoretski fizičar Stiven Hoking prikazan u nasilnim scenarijima. Uprkos Hokingovim poznatim fizičkim ograničenjima usled ALS bolesti, Sora 2 video snimci prikazuju ga kako trpi brutalne napade na različite načine, što je izazvalo javni revolt zbog nepoštovanja i nedostatka empatije prema njegovom nasleđu.
U jednom videu, viljuškar donosi Hokingovu invalidsku stolicu u ringu nalik onom za rvanje, gde ga odmah obaraju snažni rvači. U drugim klipovima, Hoking trpi udarce od UFC borca, biva pregazan od strane bika ili ga krokodil vlači u reku. Šokantni sadržaj ovih snimaka ironično je u suprotnosti sa Hokingovim statusom kao cenjenog naučnika i njegovim kritikama rizika koje donosi AI.
Etička pitanja i odgovornost OpenAI-ja
Pojava ovakvih video snimaka pokreće ozbiljna etička pitanja o upotrebi AI tehnologije za prikazivanje preminulih osoba, naročito u nasilnim i ponižavajućim kontekstima. Dok AI može proširiti granice kreativnosti, on takođe testira granice pristojnosti i poštovanja privatnosti, čak i nakon smrti.
Politike OpenAI-ja deluju neujednačeno kada je u pitanju prikazivanje javnih ličnosti. Iako kompanija u dokumentaciji navodi da će blokirati takve prikaze, video snimci sa preminulim slavnim ličnostima i dalje su široko dostupni, što ukazuje na propuste u kontroli sadržaja. Dozvoljavanje istorijskih ličnosti u aplikaciji izaziva zabrinutost gde se zapravo povlači granica i da li je nasilje bilo koje vrste prihvatljivo.
Sukob između slobode korisnika i kontrole sadržaja
OpenAI se nalazi u teškoj poziciji da balansira između omogućavanja kreativnog izraza i sprečavanja zloupotrebe svoje tehnologije. Korisnici su željni da eksperimentišu sa generisanjem video snimaka, ali mnogi prelaze granice ukusa i zakonitosti, stvarajući sadržaj koji može narušiti reputaciju i izazvati negativne reakcije.
Izjava kompanije da dopušta prikazivanje istorijskih ličnosti ukazuje na određenu dozu popustljivosti koja može nesvesno podsticati štetne prikaze. Ova nejasnoća otežava sprovođenje standarda sadržaja, posebno kada korisnici kreiraju video klipove bez pristanka prikazanih osoba ili njihovih naslednika.
Kontrola korisnika i iluzija pristanka na korišćenje lika
OpenAI funkcija “cameos” omogućava živim korisnicima da kontrolišu kako se njihov lik koristi u AI video snimcima. Snimanjem kratkog video i audio zapisa, korisnici mogu potvrditi svoj identitet i upravljati svojim prisustvom u aplikaciji, što bi trebalo da spreči neovlašćenu upotrebu.
Ipak, ovaj sistem se slabo pokazuje kada je reč o zloupotrebi, naročito kada su u pitanju preminule ličnosti ili ljudi koji nisu dali pristanak za korišćenje svog lika. Mnogi deepfake snimci i video klipovi bez saglasnosti i dalje kruže, ukazujući na ozbiljne mane u sprovođenju zaštite i odgovornosti kompanije.
Budućnost AI video generisanja i pravni izazovi
Haotična scena AI-generisanih video snimaka privukla je pažnju nosilaca autorskih prava i naslednika preminulih poznatih ličnosti. Sam Altman, CEO OpenAI-ja, obećao je da će uvesti detaljnije kontrole za intelektualnu svojinu i prava na lik, prelazeći sa modela automatskog dozvoljavanja na model koji zahteva aktivni pristanak.
Ipak, ostaje nejasno koliko brzo i efikasno će te mere biti sprovedene. Sa već postojećim uznemirujućim video klipovima, naslednici kao što je Hokingova porodica verovatno će zahtevati strožu zaštitu i pravnu odgovornost. Ova situacija naglašava hitnu potrebu za etičkim okvirima i regulativom u brzo razvijajućem svetu AI-generisanih medija.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.