Experiment ratat cu inteligenţă artificială al Microsoft pe Twitter. Un bot al companiei a devenit rasist în câteva ore

Microsoft a lansat pe Twitter un chat bot, bazat pe inteligenţă artificială dezvoltată de companie, care urma să interacţioneze cu tineri cu vârste cuprinse între 18 şi 24 de ani. 
 
Bot-ul „Tay”, @Tayandyou pe Twitter, trebuia să înveţe lucruri noi şi să devină mai inteligent în urma interacţiunilor de pe reţeaua de microblogging. Lucrurile au luat, însă, o întorsătură dezastruoasă. După numai câteva ore, Tay a început să publice comentarii rasiste, teorii ale conspiraţiei şi să nege genocide. 
 
 
 
Unul dintre cele mai circulate mesaje publicate de Tay este: „Bush a făcut 9/11 şi Hitler ar fi făcut o treabă mai bună decât maimuţa pe care o avem acum. Donald Trump este singura speranţă pe care o avem”. 
 
Tay nu s-a oprit aici. A negat existenţa Holocaustului şi a afirmat că urăşte evreii şi feministele.
 
După doar câteva ore, Microsoft a dezactivat bot-ul şi a anunţat că îl va relansa după ce programatorii companiei vor îmbunătăţi software-ul din spatele acestuia. 
 
publicitate
închide
Pasionat de gadgeturi? Şi noi!
Vrei să primeşti primul cele mai noi ştiri despre gadgeturile care îţi îmbunătăţesc viaţa zilnic?
Abonează-te la newsletter-ul Go4it şi fii sigur că eşti la curent cu tot ce e nou în IT&C.
Nu uita să-ţi verifici adresa de e-mail şi să confirmi abonarea printr-un click pe link-ul din mail-ul primit .
Sunt deja abonat