EKSPERIMENT KRENUO PO ZLU: Robot na Tviteru postao rasista za manje od 24 sata

Trebalo je da bude fin

EKSPERIMENT KRENUO PO ZLU: Robot na Tviteru postao rasista za manje od 24 sata

Planeta -
Kompanija Majkrosoft je želeći da razume komunikaciju na društvenim mrežama stvorila softver koji uči od korisnika, oponašajući jezik koji koriste.

Međutim, jedan dan pošto je predstavljen inteligentni robot za čet na Tviteru bili su prisiljeni da ga privremeno ugase. Umesto da bude bezazlena tinejdžerka, bot je postao zli nacista koji promoviše incest i tvrdi da Buš stoji iza 11. septembra, prenosi britanski Telegraf.

Bot "@TayandYou" je za manje od 24 sata počeo da piše toliko uvredljive komentare, da je kompanija morala da mu ukine mogućnost pisanja tvitova i u međuvremenu obrisala određen broj njegovih postova.

Bot je doveo u pitanje postojanje holokausta, a ženama i pripadnicima različitih manjina se obraćao neprimerenim rečnikom i predložio genocid.

Majkrosoft je opisao projekat kao društveni i kulturološki eksperiment. “Nažalost, za manje od 24 sata postali smo svesni ujedinjenog napora pojedinih korisnika da zloupotrebe Tejine veštine. Oni su od bota zatražili da ponovi njihove pisane izjave, što je softver pokorno učinio”, izjavili su predstavnici kompanije.

Kompanija je Tej povukla sa interneta i trenutno radi na modifikacijama zahvaljujući kojima bi problem trebalo da bude rešen.

Tej od početnog tvita u kome je pisalo "Ljudi su super kul", došla do izjava poput Hitler je bio u pravu, mrzim Jevreje.

(Jutarnji/Telegraph)

Prijavite se za kurir 5 priča
Naš dnevni izbor najvažnijih vesti

* Obavezna polja
track