Experiment ratat cu inteligenţă artificială al Microsoft pe Twitter. Un bot al companiei a devenit rasist în câteva ore

24.03.2016
Experiment ratat cu inteligenţă artificială al Microsoft pe Twitter. Un bot al companiei a devenit rasist în câteva ore
Microsoft a lansat pe Twitter un chat bot, bazat pe inteligenţă artificială dezvoltată de companie, care urma să interacţioneze cu tineri cu vârste cuprinse între 18 şi 24 de ani. 
 
Bot-ul „Tay”, @Tayandyou pe Twitter, trebuia să înveţe lucruri noi şi să devină mai inteligent în urma interacţiunilor de pe reţeaua de microblogging. Lucrurile au luat, însă, o întorsătură dezastruoasă. După numai câteva ore, Tay a început să publice comentarii rasiste, teorii ale conspiraţiei şi să nege genocide. 
 
Citeşte şi: După un armistiţiu scurt, războiul dintre Apple şi Microsoft a reînceput la lansarea iPhone SE
 
 
Unul dintre cele mai circulate mesaje publicate de Tay este: „Bush a făcut 9/11 şi Hitler ar fi făcut o treabă mai bună decât maimuţa pe care o avem acum. Donald Trump este singura speranţă pe care o avem”. 
 
Tay nu s-a oprit aici. A negat existenţa Holocaustului şi a afirmat că urăşte evreii şi feministele.
 
După doar câteva ore, Microsoft a dezactivat bot-ul şi a anunţat că îl va relansa după ce programatorii companiei vor îmbunătăţi software-ul din spatele acestuia. 
 
Adrian Popa
Adrian Popa
Adrian Popa este coordonator al site-urilor Go4it.ro, Go4games.ro și Apropotv.ro. Are 15 ani de experienţă în presa centrală şi a debutat ca jurnalist specializat pe economie/piețe financiare. Înainte de a ajunge la Grupul de presă Gândul, Adrian a fost redactor-șef la Mediafax.ro și Gandul.ro ... citește mai mult