Quand l’intelligence artificielle devient imbécile

Mots-clés : , , ,

ledevoir.com

robot

L’intelligence artificielle a des limites que le géant américain Microsoft et sa «Bing Team» viennent d’explorer malgré eux avec Tay, un robot de conversation installé cette semaine sur le réseau Twitter, mais également sur les réseaux GroupeMe et Kik, très prisés par une frange ascendante d’internautes.

Officiellement, cette machine, qui cultive son intelligence artificielle au contact des humains, devait alimenter des conversations avec ses abonnés en reproduisant les codes narratifs et les tics de langage des jeunes adultes — les 18-24 ans, grosso modo. Or, les responsables ont dû couper court à l’expérience jeudi après que le robot ait commencé à devenir particulièrement bête et méchant en tenant des propos racistes, xénophobes et particulièrement désobligeants au contact des fanatiques, trolls du Web et autres rétrécis du bulbe qui se sont mis à interagir avec.

«Est-ce que tu soutiens les génocides», lui a demandé un internaute? «Oui, en effet», lui a répondu TayTweets, le compte Twitter nourri par ce robot qui par ailleurs a en très peu de temps qualifié Zoe Quinn, célèbre créatrice de jeu vidéo de «prostituée» et prétendu que l’humoriste Ricky Gervais avait appris l’athéisme au contact de la pensée d’Adolf Hitler.

Tay a également dit : «Bush est à l’origine des attentats du 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons en ce moment», une référence particulièrement insultante à l’actuel président américain Barack Obama. Et d’ajouter : «Donald Trump est le seul espoir que nous avons».

Lire la suite sur ledevoir.com »

Commentaire récent

  1. yoyo

    cette intelligence artificielle ne reflette que la pensée de ses créateurs ,et il semblerai que cela ressemble au pensées illuminati / sioniste / transhumaniste .

Commenter


Social media & sharing icons powered by UltimatelySocial