Experiment ratat cu inteligenţă artificială al Microsoft pe Twitter. Un bot al companiei a devenit rasist în câteva ore

24.03.2016
Experiment ratat cu inteligenţă artificială al Microsoft pe Twitter. Un bot al companiei a devenit rasist în câteva ore
Microsoft a lansat pe Twitter un chat bot, bazat pe inteligenţă artificială dezvoltată de companie, care urma să interacţioneze cu tineri cu vârste cuprinse între 18 şi 24 de ani. 
 
Bot-ul „Tay”, @Tayandyou pe Twitter, trebuia să înveţe lucruri noi şi să devină mai inteligent în urma interacţiunilor de pe reţeaua de microblogging. Lucrurile au luat, însă, o întorsătură dezastruoasă. După numai câteva ore, Tay a început să publice comentarii rasiste, teorii ale conspiraţiei şi să nege genocide. 
 
Citeşte şi: După un armistiţiu scurt, războiul dintre Apple şi Microsoft a reînceput la lansarea iPhone SE
 
 
Unul dintre cele mai circulate mesaje publicate de Tay este: „Bush a făcut 9/11 şi Hitler ar fi făcut o treabă mai bună decât maimuţa pe care o avem acum. Donald Trump este singura speranţă pe care o avem”. 
 
Tay nu s-a oprit aici. A negat existenţa Holocaustului şi a afirmat că urăşte evreii şi feministele.
 
După doar câteva ore, Microsoft a dezactivat bot-ul şi a anunţat că îl va relansa după ce programatorii companiei vor îmbunătăţi software-ul din spatele acestuia. 
 
Urmărește Go4IT.ro pe Google News
Adrian Popa
Adrian Popa
Adrian Popa este jurnalist și publisher în grupul ArcMedia, unde se ocupă de site-urile tematice. Are 19 ani de experiență în presa centrală și a debutat ca jurnalist specializat în piețele financiare și tehnologie. Pe lângă aceste domenii, mai scrie despre business și apărare. Este ... citește mai mult