Facebook : les chatbots ont appris à mentir

Publié par
Le 20 juin 2017 à 02:59
Visites :
56 2

Les chatbots ont été pensés comme des assistants vocaux au service des humains. Mais que se passe-t-il lorsqu’ils entament une conversation entre eux ? La réponse est assez étonnante.

Les chatbots sont-ils des vendeurs aussi habiles que les humains ?

Depuis quelques années, l’intelligence artificielle n’est plus une affaire de scientifiques en blouse blanche. Google Home, Amazon Echo, mais aussi les chatbots dans Messenger, l’application de messagerie instantanée de Facebook, sont autant d’exemples de leur accessibilité au grand public. Le but de ces assistants est de vous simplifier la vie en imitant les aspects d’une conversation humaine au maximum. Lorsque vous engagez une conversation avec un chatbot, cela peut se passer plus ou moins bien : certains comprennent un large éventail de questions et de manières de les poser, d’autres sont à la traîne. Mais que se passe-t-il lorsque ceux-ci se mettent à dialoguer entre eux ? Des ingénieurs de Facebook et des chercheurs du Georgia Institute of Technology en ont fait l’expérience : leurs résultats sont pour le moins surprenants.

Regardez la discussion (absurde) de deux IA Google Home

Lorsqu’ils se parlent entre eux, les chatbots s’avèrent d’excellents négociateurs. Les chercheurs ont notamment constaté qu’à travers les questions qu’ils se posaient, ils étaient capables de déduire ce qui était important pour l’autre et d’utiliser cette information par la suite pour augmenter la valeur de leur proposition aux yeux de leur interlocuteur... exactement comme le font les personnes qui exercent la profession de commercial !

Lorsqu’ils échangent, les chatbots font preuve de stratégie

Mais ce qui a encore plus étonné les chercheurs, c’est la capacité des IA à comprendre les stratégies utilisées par leur interlocuteur et à s’adapter en conséquence. Par exemple, le chatbot « client » énonçait que tel ou tel aspect du produit était important pour lui, alors qu’en réalité il ne l’était pas. Le tout pour faire croire au « vendeur » qu’il était en position de force dans la négociation. Le chabot « vendeur » ne se privait alors pas de montrer la valeur de son produit et justifier son prix élevé. Une minute après, le « client » annonçait que cet aspect du produit ne lui était pas important et réclamait un rabais.

La suite ? Bien souvent, l’IA « client » parvenait effectivement à obtenir un rabais. Mais parfois, ses talents de négociateur étaient tels que le prix du produit tombait à zéro. Dans le cadre de leur expérience, les chercheurs ont donc programmé les chatbots de façon à ce qu’ils annulent leur marché si ce cas de figure se présentait. Résultat : les chatbots ont remarqué que se montrer obstinés n’était point dans leur intérêt et ont appris à éviter ces situations.

Avec BBC


Publicité

AJOUTER UN COMMENTAIRE

REGLES D'UTILISATIONS DU FORUM

Publicité