Slušaj vest

OpenAI je razotkrio uznemirujuću realnost – moćna veštačka inteligencija sve češće završava u rukama državnih sajber kriminalaca. Kina, Rusija, Severna Koreja i Iran koriste AI kao svoje novo oružje u digitalnom ratu, vodeći sofisticirane kampanje koje prete da potkopaju globalnu bezbednost i poverenje na internetu.

U poslednja tri meseca, OpenAI je uspešno ugasio deset velikih mreža koje su zloupotrebljavale njihove AI alate, pokazujući svoju posvećenost sprečavanju onlajn pretnji. Ova akcija predstavlja jedan od najvažnijih primera kako tehnološke kompanije mogu preuzeti vodeću ulogu u suzbijanju sajber kriminala.

shutterstock-openai-2.jpg
Foto: Shutterstock

Lažni profili i propagandne mašinerije

Kineske hakerske grupe pokrenule su brojne kampanje širenja lažnih vesti i polarizujućih poruka na društvenim mrežama poput TikToka i X-a. Pod operacijama poput „Sneer Review“ i „Uncle Spam“, kreiraju se lažni profili koji često prikazuju američke veterane, ciljajući da destabilizuju društvene debate i politički dijalog.

Ove kampanje ne samo da manipulišu informacijama, već i stvaraju duboke podele u društvu, izazivajući strah i nepovjerenje. Korišćenje AI u ove svrhe predstavlja novu dimenziju sajber ratovanja, gde je digitalna laž jednako moćna kao i oružje.

shutterstock-kineski-haker-1.jpg
Foto: Shutterstock

AI u službi sajber špijunaže i krađe podataka

Severnokorejski hakeri koriste veštačku inteligenciju da kreiraju lažne biografije i prijave za poslove širom sveta, najverovatnije sa ciljem prikupljanja poverljivih informacija. Ove sofisticirane prevare omogućavaju im da zaobiđu bezbednosne barijere i pristupe osetljivim IT sistemima.

S druge strane, ruske hakerske grupe razvijaju malvere uz pomoć AI, planiraju sajber napade i izvode operacije poput „ScopeCreep“ usmerene na krađu podataka. Njihove aktivnosti predstavljaju ozbiljnu pretnju globalnoj sajber bezbednosti i zahtevaju hitnu međunarodnu reakciju.

shutterstock-haker-1.jpg
Foto: Shutterstock

Operacije prevare zasnovane na AI

Jedan od najozbiljnijih slučajeva zloupotrebe AI u prevarama dolazi iz Kambodže, gde je grupa nazvana „Wrong Number“ koristila veštačku inteligenciju da prevede i personalizuje poruke koje obećavaju lake zarade. Žrtvama se nudi posao sa visokim primanjima za jednostavne aktivnosti poput lajkovanja na društvenim mrežama, da bi potom tražili novac za navodne nagrade.

Ova prevara je delovala na više jezika i usmeravala žrtve na aplikacije poput WhatsApp-a i Telegram-a, pokazujući koliko su savremene tehnologije efikasne u globalnom širenju kriminalnih šema.

shutterstock_sajber napad (5).jpg
Foto: Shutterstock

OpenAI na udaru zakona i etike

Pored tehnoloških izazova, OpenAI se suočava i sa pravnim bitkama. Nedavna sudska odluka u SAD nalaže kompaniji da sačuva korisničke razgovore ChatGPT-ja, kao deo spora oko navodnog kršenja autorskih prava. Izdavači tvrde da su njihovi tekstovi korišćeni bez dozvole za obuku AI modela, što ugrožava njihov poslovni model.

OpenAI upozorava da ova naredba predstavlja ozbiljan rizik po privatnost korisnika, koji često dele osetljive informacije u poverenju. Ova dilema naglašava potrebu za balansom između zaštite autorskih prava i očuvanja digitalne privatnosti u eri veštačke inteligencije.