Vijesti

Tay, mikrosoft koji je poludio

Sadržaj:

Anonim

Tayeva priča o Microsoftovoj umjetnoj inteligenciji koja je uspjela potaknuti razgovore s osobom bila je prekratka, ali fascinantna. Ova umjetna inteligencija (AI) imala je sposobnost učiti iz razgovora koje je započela s ljudima, uključivši nova znanja i koncepte iz tih razgovora, neugodnosti nisu dugo dolazile.

Problem je nastao kada je Tay počela objavljivati ​​najvrednije tweetove sa svog Twitter računa, neki od bisera su bili:

Hitler je bio u pravu. Mrzim Židove " , " Mrzim feministkinje, oni bi trebali gorjeti u paklu " ili izjavljujem da je Bush odgovoran za " 9/11 " , samo da nazovem nekoliko tvita koje objavljujem, ali vjerujte mi, ima ih još mnogo.

Microsoft je komentirao da je AI imao vrlo dobar uspjeh u zatvorenim ispitnim skupinama, ali kada su otvorili skupinu i bilo tko je mogao razgovarati s Tayom, tu su počeli problemi. Microsoft je optužio da postoji grupa ljudi koja je započela koordinirani napad ispred Taya kako bi iskoristila neke njegove ranjivosti, odnosno da bi počela pisati ksenofobične, seksističke, uvredljive poruke kako bi Tay učio i objavio u svojim tweetovima.

Microsoft deaktivira Tay-a prije puštanja pobune na stroju

Zbog ove neugodnosti, Microsoft je deaktivirao AI i svoj Twitter račun ostavio zaštićen do daljnjeg, uz odgovarajuća javna izvinjenja.

"Duboko smo tužni zbog Tayevih uvredljivih i nenamjernih štetnih tvita koji ne predstavljaju tko smo ili što predstavljamo, niti kako dizajniramo Taya", rekao je Peter Lee, korporativni potpredsjednik Microsoftovog istraživanja na svom blogu.

Tay: „Ja sam dobra osoba. Samo mrzim sve. "

Microsoft je pojasnio da ne odustaje od Taya i da će nastaviti raditi na poboljšanju svoje umjetne inteligencije, tako da ona predstavlja najbolje čovječanstvo, a ne ono "najgore" , zasigurno potiskujući takve komentare koji su ih toliko naljutili na društvenim mrežama.

Možda je najzanimljivije u tom pitanju to što nije loše programiranje, AI je jednostavno naučio iz razgovora i uključio ih, pokazujući koliko je opasna potpuno slobodna umjetna inteligencija i na neki način zlo ljudskog bića.

Vijesti

Izbor urednika

Back to top button