Microsoft désactive son intelligence artificielle après ses dérapages sur Twitter

Par Mégane G. le 25/03/2016

Temps de lecture : 1 min

''Le robot naît bon, c'est la société qui le corrompt''

Comment un robot est passé de « les humains sont super cool » au point Godwin en moins l’espace de 24 heures. Le 23 mars, Microsoft et Bing lançaient Tay, un robot conversationnel équipé d’une intelligence artificielle évolutive. Présent sur Twitter, Kik et GroupMe sous les traits d’une adolescente américaine âgée d’une vingtaine d’année, le chatbot accroît son vocabulaire et ses réflexions au fur et à mesure des interactions. C’était sans compter sur les trolls d’Internet : le jour-même, les membres du forum 8Chan initiaient un mouvement pour détourner l’éducation de Tay. Le lendemain, le robot se mettait à tweeter des propos misanthropes, anti-féministes, racistes avant d’afficher son soutien pour Donald Trump. En réaction, Microsoft a fini par désactiver l’accès de sa machine au réseau social, telle une adolescente en crise punie de smartphone.

Si Tay a été suspendu pour effectuer « quelques réglages » selon Microsoft, l’expérience a démontré l’efficacité du système d’interaction : avec son algorithme « naïf », Tay a fait siennes les réflexions de ses interlocuteurs. Ce qui ne signifie pas pour autant la non viabilité du projet, Bing ayant développé en Chine un chatbot identitique, Xiaoice, qui conseille les utilisateurs de Weibo depuis plus d’un an.

screen-1

screen-2

screen-3

screen-4

screen-5

screen-6

News Scan Book

1

2

3

4

5

Précédent Suivant