Lorsque les médias parlent de l’agent conversationnel ChatGPT, ils lui prêtent souvent des caractéristiques humaines, comme des intentions ou des émotions. Jusqu’à quel point le simple choix des mots peut-il donner cette illusion?
Cet article fait partie de la rubrique du Détecteur de rumeurs, cliquez ici pour les autres textes.
L’essor des agents conversationnels
Abonnez-vous à notre infolettre!
Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!
Les agents conversationnels, ou chatbots, se sont beaucoup développés ces dernières années grâce à l’essor d’une nouvelle branche de l’intelligence artificielle, le traitement du langage naturel. Comme l’expliquait l’an dernier la Harvard Business Review, cette technologie repose entre autres sur l’utilisation des statistiques pour prédire le prochain mot d’une phrase, en se basant sur les mots précédents. Cette approche est la même que celle qui nous suggère des mots lors de la rédaction d’un courriel ou d’un message texte.
Mais si les agents conversationnels tentent de prédire le prochain mot, c’est parce qu’ils ont avant tout pour fonction d’imiter des conversations humaines. C’est ce que soulignent des scientifiques des Pays-Bas qui ont réalisé une revue de la littérature sur le sujet. Et plus ils y parviennent, plus il peut être tentant de prêter à ces logiciels des caractéristiques humaines comme des émotions, des intentions ou des comportements: un phénomène appelé anthropomorphisme.
Selon des chercheurs allemands qui ont exploré ce sujet en 2021, l’anthropomorphisme permet aux utilisateurs de se sentir plus en contrôle face à une nouvelle technologie, puisqu’ils lui prêtent des caractéristiques qu’ils connaissent bien. En fait, des scientifiques qui avaient publié un article sur l’anthropomorphisme et l’IA en 2020 proposaient que la tendance à représenter l’IA avec des traits humains reflétait la compréhension limitée du grand public face à cette technologie.
Les mots pour décrire l’IA dans les médias...
En 2020, deux chercheurs britanniques ont analysé le discours des médias au sujet des logiciels utilisant l’IA dans le réseau de la santé. Ils ont observé que cette tendance à humaniser l’IA s’est accentuée dans les dernières années. Plusieurs médias prêtent des intentions à l’IA ou sous-entendent que cette technologie surpasse l’expertise des professionnels de la santé et pourrait même prendre leur place. Le phénomène serait particulièrement présent dans les médias financiers. Par exemple, un article du Wall Street Journal titrait « Le Docteur IA vous verra maintenant » (The AI doctor will see you now).
En 2021, des chercheurs de l’Afrique du Sud se sont penchés sur la façon de présenter l’IA dans des journaux en ligne du pays. Sur 126 articles analysés, seulement 19 n’utilisaient pas d’expressions anthropomorphiques. Ainsi, dans un article on écrivait que « les machines, tout comme les humains, font preuve de discrimination à l’endroit des minorités ethniques et des personnes pauvres ». Les auteurs de l’étude écrivaient qu’en s’exprimant de cette façon, les journalistes prêtaient à l’IA des intentions morales.
Des chercheurs de Liverpool qui s’intéressent aux dangers des descriptions anthropomorphiques donnaient également, en 2019, l’exemple d’un chatbot qui « aurait appris à produire des tweets racistes ». En fait, écrivaient-ils, il serait plus juste de dire « qu’il n’a pas été développé de façon à filtrer les contenus racistes ».
Selon la directrice de la recherche du Poynter Institute, une école de journalisme de Floride, les journalistes ne devraient pas utiliser des mots comme « apprendre », « argumenter » ou même « écrire » lorsqu’il est question d’IA. En effet, ces termes font normalement référence à des activités typiquement humaines et exagèrent donc les capacités de l’intelligence artificielle: ce qu’on appelle de l’anthropomorphisme. Ils contribuent ainsi à une mauvaise compréhension de cette technologie.
... et les mots pour décrire l’IA chez les informaticiens
Ce texte du Poynter Institute paru en février dernier remarque toutefois que les informaticiens eux-mêmes ont tendance à utiliser ce genre d’expressions pour décrire leurs travaux. D’ailleurs, sur le site d’OpenAI, la firme où a été créé ChatGPT, on peut lire que l’application a certaines limites… que l’on décrit comme « des biais sociaux et des hallucinations ». L’auteure du Poynter Institute suggère aux chercheurs de privilégier des termes comme « exploration de données » ou « optimisation statistique » plutôt qu’« apprentissage automatique » ou « intelligence », qui portent à confusion.
La Raspberry Pi Foundation, une organisation cherchant à outiller les jeunes en lien avec l’informatique, propose aux programmeurs, dans un texte paru le 13 avril, d’éviter des termes comme « l’IA écoute » ou « l’IA comprend ». Elle recommande de leur préférer des expressions comme « l’IA reçoit un signal » ou « l’IA traite l’information ». La fondation suggère également de remplacer des expressions comme « l’IA apprend » ou « l’IA fait » par « les applications d’IA sont développées pour... » ou « les développeurs qui travaillent dans le domaine de l’IA développent des applications qui... » Selon l’organisation, ces précautions évitent d’anthropormophiser l’IA et d’ajouter à l’incompréhension du public quant aux possibilités de cette technologie.
Les mots utilisés par l’IA
Il faut toutefois se rappeler que c’est volontairement, que la conception des agents conversationnels donne l’impression que ceux-ci sont « presque humains ». Des études réalisées au Minnesota, en Australie et aux Pays-Bas, ont montré que les chatbots qui passent pour humains et qui ont un style de communication informel sont plus appréciés des utilisateurs.
En effet, puisqu’un agent conversationnel ne peut utiliser son apparence physique ou son langage non-verbal, les mots qu’il emploie sont sa seule option pour créer l’illusion. Différentes études dont celles nommées plus haut et d’autres réalisées par des chercheurs allemands, néerlandais et de Singapour, ont ainsi répertorié des éléments verbaux permettant d’augmenter facilement l’impression que l’IA est humaine.
- Lui donner un nom humain : « Bonjour, je suis Teddy » plutôt que « bonjour, je suis un agent conversationnel automatisé » ou « bonjour, je suis ChatBotX. »
- Faire référence à lui-même grâce à des pronoms: « Je », « me », « moi », plutôt que « Cet agent conversationnel ».
- Saluer l’utilisateur: « Bonjour » plutôt que « Commencez » ou « Au revoir » plutôt que « Quitter ».
- Utiliser des expressions empathiques: « Je suis désolé », « je vous félicite ».
- Faire référence à des processus cognitifs: « Laissez-moi réfléchir », « je pense que ».
- Utiliser des banalités ou du « small talk » : « Quel temps fait-il à Montréal? »
Certaines applications utilisent même l’humour (« Aimeriez-vous une blague? Pourquoi le lion a-t-il mangé le funambule? Parce qu’il voulait un repas équilibré. »).
Verdict
Le vocabulaire que nous utilisons pour décrire l’IA, de même que le langage employé par les informaticiens eux-mêmes dans leur conception de ces agents conversationnels, peut renforcer l’impression que ceux-ci ont des caractéristiques humaines. Il est en fait relativement facile de créer cette illusion.
Photo: Domenico Fornas / Dreamstime