Microsoft explique que son chatbot mignon AI est devenu un nazi fou en moins d’une journée

microsoft-ces-booth

Plus tôt cette semaine, nous vous avons apporté l’histoire tragicomique de Tay , un chatbot d’intelligence artificielle qui a été conçu pour interagir avec et apprendre des gens entre les âges de 18 et 24. Malheureusement pour Microsoft , cependant, certains trolls Twitter racistes ont compris un moyen de manipuler le comportement de Tay pour le transformer en un raciste fou qui a salué Hitler et nié l’existence de l’Holocauste.

C’est évidemment pas une bonne chose et Microsoft a écrit un blog de ​​suivi expliquant ce qui a mal tourné et ce qu’il prévoit de faire à l’avenir.

«Au cours des 24 premières heures de venir en ligne, une attaque coordonnée par un sous-ensemble de personnes a exploité une vulnérabilité dans Tay», écrit Microsoft Research vice-président Peter Lee. « Bien que nous avions préparé pour de nombreux types d’abus du système, nous avions fait une surveillance critique pour cette attaque spécifique. En conséquence, Tay tweeted mots et des images follement inappropriées et répréhensibles. Nous assumons l’entière responsabilité de ne pas voir cette possibilité … En ce moment, nous sommes à pied d’œuvre face à la vulnérabilité particulière qui a été exposée par l’attaque de Tay « .

Dans le cas où vous ne vous souvenez pas, voici quelques-unes des choses « follement inappropriées » que les trolls trompés pauvres Tay en disant:

tay-racist-tweet-1

Alors qu’est-ce Microsoft va faire pour empêcher cela AI soi-disant innocent de se transformer en premier maniaque génocidaire virtuelle du monde? Lee dit que tandis que Microsoft travaille à colmater les trous exploités par des trolls Twitter, il sera toujours mis sur Tay en public pour tous les internautes d’interagir avec cependant ils l’entendent.

«Pour faire droit AI, il faut itérer avec beaucoup de gens et souvent dans des forums publics», explique Lee. «Nous devons entrer chacun avec une grande prudence et, finalement, d’apprendre et d’améliorer, étape par étape, et de le faire sans offenser les gens dans le processus. Nous resterons fermes dans nos efforts pour apprendre de cela et d’autres expériences que nous travaillons à contribuer à un Internet qui représente le meilleur, pas le pire, de l’humanité ».

Source : bgr

Be the first to comment on "Microsoft explique que son chatbot mignon AI est devenu un nazi fou en moins d’une journée"

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*