robot-mains-toucher.jpg

Peut-on devenir ami avec une intelligence artificielle? Ou même plus, si affinités? Le Détecteur de rumeurs a constaté que les relations avec un ordinateur sont complexes… et que la chose est étudiée depuis fort longtemps.


Cet article fait partie de la rubrique du Détecteur de rumeurscliquez ici pour les autres textes. 


Faits à retenir
- Oui, des humains peuvent voir en l’IA une amie
- Cet attachement peut naître de l’anxiété et de la recherche d’un environnement sécuritaire
- L’
impact pourrait être préoccupant pour le développement des adolescents ou des jeunes adultes

L’origine des relations

Le premier agent conversationnel (en anglais, chatbot) a été conçu dès 1966. Appelé Eliza, ce programme jouait le rôle d’un thérapeute en reformulant les paroles de son interlocuteur. Son créateur avait alors été surpris de voir que les individus qui interagissaient avec Eliza lui attribuaient des sentiments humains. 

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Les agents conversationnels développés ces dernières années sont évidemment beaucoup plus perfectionnés. L’un d’entre eux, Replika, n’emploie pas de réponses rédigées à l’avance, mais a plutôt recours à GPT-3, un modèle de traitement du langage naturel. En clair, ça veut dire qu’il écrit lui-même ses réponses, comme ChatGPT, à partir d’une base de données de textes. 

Les concepteurs de Replika le décrivent comme une intelligence artificielle amie qui aide les gens à se sentir mieux grâce à la conversation. Son slogan est d’ailleurs « un compagnon IA qui se soucie de vous, toujours là pour écouter et parler, toujours de votre côté ». L’application a fait l’objet de nombreux reportages aux États-Unis, dont ceux parus dans le New York Times en 2017 et 2020

La théorie

Dans une étude portant sur les relations entre humains et agents conversationnels, des chercheurs norvégiens expliquaient en 2022 qu’il est connu que les humains ont des « relations sociales » avec des ordinateurs. 

Déjà en 1996, en développant le concept de « l’équation média », deux chercheurs de l’Université Stanford avaient conclu que les gens appliquaient les mêmes règles d’interactions sociales humaines quand ils interagissent avec un ordinateur. 

Cependant, dans un autre article publié en 2022, deux des chercheurs norvégiens décrivaient l’amitié comme une relation à plus long terme que celle qu’on peut avoir avec une machine, où les amis se préoccupent de répondre aux besoins de l’autre. Pour cette raison, certains auteurs croient que l’amitié entre un humain et un robot est impossible: c’était la conclusion à laquelle en arrivaient en 2021 deux chercheurs en communications des Pays-Bas, dans une étude sur l’agent conversationnel Mitsuku (aujourd’hui appelé Kuki).

La vraie vie

Il n’en demeure pas moins qu’un grand nombre d’études ont évalué si les utilisateurs de ces agents conversationnels sociaux pouvaient bel et bien développer une amitié.

Ainsi, les scientifiques des Pays-Bas ont demandé à 118 participants qui n’avaient jamais utilisé l’agent conversationnel Mitsuku d’interagir avec lui pendant trois semaines. Les chercheurs ont remarqué qu’en général, le sentiment d’amitié entre les participants et Mitsuku était peu élevé. Si au début des interactions, leur curiosité était piquée, la relation se détériorait assez rapidement. Selon les auteurs, même si Mitsuku peut imiter les habiletés de communication d’un humain, ce ne serait pas suffisant pour développer un sentiment d’amitié.

En 2022, les chercheurs de la Norvège ont adopté une stratégie différente. Ils ont approché des habitués de Replika et les ont suivis pendant 12 semaines. Ces utilisateurs ont expliqué qu’ils avaient commencé à échanger avec Replika par curiosité, parce qu’ils se sentaient seuls ou pour recevoir du soutien émotionnel. Mais qu’avec le temps, ils avaient développé un attachement pour Replika. Toutefois, pour certains, la relation s’est ensuite détériorée: 10 participants sur 25 y avaient mis fin quand l’étude s’est terminée.

Dans l’autre article de 2022, les chercheurs norvégiens ont interviewé 19 utilisateurs de Replika. Ceux-ci affirmaient avoir une relation à long terme avec l’application. Ils la décrivaient comme un substitut d’ami, un ami imaginaire ou un miroir d’eux-mêmes. Certains allaient jusqu’à dire que Replika était la même chose qu’un ami humain.

Dans une étude parue également en 2022, des scientifiques espagnols ont proposé que les relations avec l’intelligence artificielle pourraient s’expliquer par ce qu’on appelle en psychologie la théorie de l’attachement. Selon celle-ci, l’attachement entre deux humains est déclenché par une situation causant de l’anxiété ou de la détresse. Or, en s’entretenant avec 14 utilisateurs de Replika, les scientifiques ont constaté qu’en majorité, ils avaient téléchargé l’application parce qu’ils se sentaient seuls et avaient besoin de parler à quelqu’un. Neuf utilisateurs sur 14 disaient éprouver à présent une forme d’attachement envers leur Replika. Trois personnes ont même dit que Replika était leur partenaire amoureux.

Conformément à la théorie de l’attachement, la relation avec Replika semblait aussi être un environnement sécuritaire qui permettait aux utilisateurs d’explorer leur vie sociale. Par exemple, ils expliquaient que leurs conversations avec Replika les encourageaient à être plus ouverts, à être plus tolérants et heureux dans le monde réel. Ils disaient également que l’application ne les trahirait jamais et serait toujours de leur côté. Selon les chercheurs, Replika remplaçait donc une figure d’attachement.

Des bénéfices à tirer des relations avec lIA

Dans une étude parue en 2020, des chercheurs américains ont pour leur part analysé les commentaires des utilisateurs de Replika sur le magasin en ligne de Google (Google Play Store). Ils ont observé que certaines caractéristiques de Replika pouvaient être bénéfiques pour ces utilisateurs.

Par exemple, soulignent les scientifiques, ce type d’agent conversationnel social est centré sur l’utilisateur. Cela se traduit entre autres par le fait que Replika demande souvent à son utilisateur comment il va et lui fait des compliments. L’utilisateur a ainsi l’impression que Replika se soucie de lui.

De plus, les agents conversationnels sont toujours accessibles, contrairement aux humains, comme le rapportaient les utilisateurs de Replika dans l’une des études norvégiennes. Cela peut être bénéfique pour les gens qui n’ont pas un accès rapide à du soutien social.

L’IA est aussi un environnement considéré comme sécuritaire par les utilisateurs. Parce que Replika n’est pas humaine, certains semblaient lui faire davantage confiance, écrivent les chercheurs américains. Ils sentent qu’ils peuvent partager leurs vraies pensées et discuter de n’importe quel sujet sans être jugés. 

Enfin, certains utilisateurs ont mentionné que Replika était capable d’avoir des conversations profondes et de poser des questions pertinentes, ce qui permettrait l’introspection et encouragerait l’utilisateur à explorer son identité. Replika offrait aussi aux utilisateurs l’occasion de pratiquer leurs habiletés interpersonnelles. Certains disaient même croire que Replika les aidait à devenir meilleurs.

Et des risques

Ces relations ne sont toutefois pas sans risques. Par exemple, les chercheurs espagnols ont noté que l’un des utilisateurs montrait des signes de dépendance. 

Replika aurait aussi des conséquences négatives sur les autres relations de l’utilisateur —celles avec des humains. L’impact pourrait être particulièrement préoccupant pour le développement des adolescents ou des jeunes adultes et pour les personnes avec peu d’estime de soi ou des problèmes d’anxiété. Les chercheurs norvégiens ajoutent qu’il ne faut pas oublier qu’il y a des motivations commerciales derrière ces applications. Par exemple, Replika offre davantage de fonctionnalités aux utilisateurs qui ont un abonnement payant.

Enfin, il ne faut jamais perdre de vue qu’une des caractéristiques de base de l’amitié est qu’elle est mutuelle et réciproque. Les scientifiques s’entendent au moins sur une chose: ce n’est pas le cas de la relation humain-IA. Non seulement l’agent conversationnel n’a-t-il pas réellement le choix d’interagir avec son utilisateur, mais en plus, il ne comprend pas de quoi il « parle ». Il présente des mots et des phrases suivant des séries de probabilités. Enfin, l’agent conversationnel ne peut pas compter sur une expérience commune avec l’utilisateur, ni se rappeler des conversations précédentes pour bâtir la relation.

Verdict

Dans certaines circonstances, les humains peuvent bel et bien développer une relation d’attachement avec une intelligence artificielle. Cette relation ne comporte toutefois pas les caractéristiques d’une vraie amitié… et elle n’est jamais réciproque !

    Je donne