BOTS et CHAT-BOTS
Mai 2022
C'est le sujet proposé par l'une des dernières livraisons du magazine Communication Research Trends (Vol. 40, 2021 N° 4) , sous la plume de son éditeur, Paul A. Soukup, s.j. qui dirige le Center for the Study of Communication and Culture, basé à Santa Clara (CA,USA).
Je choisis d'y faire écho car il prolonge, avec un petit goût de “trop peu” la démarche de Timnit Gebru présentée dans le Billet de l'INTERFACE_2020 d'Avril 2022.
Si Timnit Gebru pose directement la question au niveau de la validité des algorithmes d'Intelligence Artificielle et des données qu'ils manipulent, on classe généralement les “Bots” et “Chat-bots” dans les réalisations d'Intelligence Artificielle “faible” (voir l'article Chat-bot dans Wikipedia).
Il s'agit, en effet, d'assistants vocaux ou écrits, programmés pour répondre à des questions posées par des interlocuteurs humains capables de leur faire croire qu'ils ont véritablement à faire à un interlocuteur humain et non à une machine programmée pour répondre! Donc, il s'agit d'une catégorie de “robots”.
Tous ces types de réalisations s'inspirent du programme ELIZA de Joseph Weizenbaum MIT, 1960 ss) – j'ai eu le plaisir de le rencontrer à Namur lorsqu'on lui a remis un prix en 1983. Ce programme tentait de mettre en œuvre ce qu'on appelle le “Test de Türing”. À savoir: l'humain réel qui pose une question n'arrive pas à détecter que la réponse ne lui vient pas directement d'un vrai humain en chair et en os! S'il n'arrive pas à déterminer que c'est une machine qui lui répond, ce serait, selon Alan Türing, que la machine, est, dans ce cas, aussi intelligente qu'un être humain auquel on poserait les mêmes questions!
Bien sûr, on a pu montrer les limites de ces assistants vocaux ou assistants de communication. Notamment, une banale question hors du sujet spécifique peut faire apparaître immédiatement qu'il n'y a aucun interlocuteur humain mais seulement un robot plus ou moins bien programmé.
N'empêche que les utilisations journalistiques (création automatique de nouvelles diffusées), politiques (diffusion répétitive d'idées dans des réseaux sociaux – cf. l'Affaire Cambridge Analytica déjà évoquées antérieurement!!), commerciales (publicité matraquante et attirante, marketing) ou sanitaires (avis traduits et diffusés rapidement pour l'Organisation Mondiale de la Santé – un type d'application qui a pu servir assez efficacement durant la récente pandémie!), se développent et commencent à faire l'objet d'Études et de questionnements!
L'utilisation de tels “assistants de communication” pose des questions de Droit: à partir du moment où une réponse automatique internationalement diffusée et accessible ne correspondrait pas à la législation spécifique d'un pays ou provoquerait des illégalités locales… qui va juger?
Elle pose aussi des questions d'Éthique: quelle est la nature d'une communication humaine réelle et valable, quelle est la qualité des données à partir desquelles la communication est créée, et donc, construction sociale de ces données et de leur mise en communication?
Les questions sont donc posées. Dans la présente livraison du Magazine de ce Centre d'études Californien, elles sont fondées sur plus de 120 études ou articles inclus dans les Références (pp. 20-27). Nota Bene: curieusement, si l'on trouve dans ce riche amoncellement de références des apports dans les principales langues, on n'y trouvera aucun article en français. Vérification faite dans Internet: on y trouve très peu de contributions sur ce sujet en français!!
Curieusement aussi, dans le chapitre décrivant les usages “politiques” de ce type de robots de communication, aucune référence n'est faite aux scandales des pratiques de Cambridge Analytica qui ont réussi à fausser les élections américaines de 2016 et ont amené Donald Trump à la Présidence des États-Unis. On parle bien d'élections en Allemagne en 2017 qui virent une utilisation accrue des “chat-bots”. Les Auteurs de référence (Keller et Klinger dans Political Communication de 2019 et 2020) constatent que “D'un point de vue libéral, les résultats [de leurs enquêtes] montrent que ces robots communicateurs ont créé une mauvaise représentation quantitative de la popularité des candidats parce que, environ 10% des “followers” de Twitter n'étaient que des “bots” sous apparence humaine” (p. 14).
Il s'agit donc d'un champ d'application de l'Intelligence Artificielle qui mérite une vraie étude critique et des mises en garde sérieuses, notamment dans l'utilisation de toutes les propositions venant des promoteurs de “réseaux sociaux”.