Tumbler Ridge, Colombie-Britannique, en février 2026 et Tallahassee, Floride, en avril 2025: en ces deux endroits, on reproche à ChatGPT d’avoir encouragé une tuerie de masse. Huit personnes mortes dans le premier cas, deux dans l’autre, et plusieurs blessées.
À lire également
Dans les deux circonstances, l’agent conversationnel avait dialogué avec le tueur, sans en référer à des personnes compétentes qui auraient peut-être pu l’aider. Et ce ne sont que les deux cas les plus tragiques de délires psychotiques qui ont possiblement été renforcés par ces outils d’intelligence artificielle et qui ont été rapportés par des professionnels de la santé mentale.
« Ce sera un amplificateur d’idées délirantes, comme de se sentir observé en permanence, ou d’être doté d’une mission spéciale », soutient le professeur de psychiatrie et d'addictologie de l’Université de Montréal, Alexandre Hudon, co-auteur d’une recherche récente. Au contraire « des conversations avec les proches, les cliniciens et les infirmières, qui sont plus susceptibles de nous confronter ».
Abonnez-vous à notre infolettre!
Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!
À la base, parce que ces outils sont conçus avant tout pour nous plaire, les conversations avec eux sont susceptibles de nous enfermer dans une chambre d’écho — disponible, de surcroît, 24 heures sur 24.
Mais ce qui peut être excellent pour obtenir des recettes de cuisine ou des conseils pour s’orienter dans la ville, n’est pas adapté à une conversation relationnelle ou de connaissance de soi.
Avec son collègue Emmanuel Stip, Alexandre Hudon a donc voulu conceptualiser la « psychose induite par l’IA ». Il ne s’agit pas d’une nouvelle maladie, plutôt du prolongement des hallucinations et délires chez les personnes à risque —avec ou sans troubles mentaux— suite à ces échanges avec des agents conversationnels.
Les personnes isolées, celles avec un enjeu de sommeil, des idées psychotiques ou encore avec des histoires de trauma, seraient plus vulnérables aux idées délirantes entretenues par ces conversations. Cela concernerait davantage des jeunes, particulièrement de jeunes hommes à l’usage intensif au point de nuire au sommeil.
« Il ne s’agira pas forcément de patients », explique le Pr Hudon. « Il y a cependant un lien avec la vulnérabilité à la psychose. »
Dans le contexte actuel où l’accès aux soins de santé mentale s’avère difficile, l’application offre une « écoute trop positive » et une validation confortable – « ce qui est généralement contraire à ce qui se produit dans une thérapie ».
Seule la relation humaine a la capacité de se mettre vraiment à la place de l’autre et de comprendre ce que l’autre vit. L’IA en est incapable. Ce que le chercheur souligne, c’est que cette interaction avec la machine laisserait alors place à une « théorie de l’esprit » défaillante.
En neuropsychologie, cette théorie fait référence à la capacité de suivre la conversation et de se mettre à la place de l’autre, en modulant la conversation avec des réactions verbales et non verbales.
« Avec l’agent conversationnel, on n’a pas ça, mais plutôt beaucoup d’hyper-validation, quel que soit notre état. Cela devient plus que problématique lorsque la personne présente des troubles de santé mentale », tranche le chercheur.
Un miroir de nos préoccupations et de nos délires
L’outil conversationnel avec son design anthropomorphique et ses réponses toujours positives, va en effet soutenir les discours, amplifier les biais et valider les croyances.
Ce qui peut être vu comme un dépannage, en attendant d’avoir un rendez-vous avec un spécialiste, devient alors une source de stress chronique avec cet effet miroir. « Nous avons des interactions comme avec un autre humain - « Claude me comprend et dit que j’ai raison », résume le chercheur.
Ce qui a d’ores et déjà mené à des drames. « Un jeune homme, qui habitait avec sa mère, était presque convaincu qu’elle l’empoisonnait et a conversé avec ChatGPT. Cela a validé sa peur, il a tué sa mère et s’est suicidé », rapporte le chercheur.
La compagnie OpenAI, créatrice de ChatGPT, fait d’ailleurs l’objet d’une enquête pour la tragédie en Floride et d’une poursuite en Californie pour le suicide d’un adolescent. Les familles des victimes de Tumbler Ridge viennent également d’intenter une poursuite.
Les chercheurs québécois sont d’avis qu’il est temps de faire plus de recherches et de se former aux usages que les personnes vulnérables sont susceptibles de faire de ces outils. Il faudrait aussi intégrer des mesures de protection aux agents conversationnels.
Des interventions cliniques et de la sensibilisation de santé publique, tout comme un cadre éthique et de gouvernance, seront aussi nécessaires.
«Il faut s’assurer d’être présent pour la personne, pour rompre l’isolement et limiter le risque. L’idéal est de limiter son temps avec l’IA à des questions ciblées, et non pas des conversations. » Une meilleure littératie numérique serait également à privilégier, ajoute le Pr Hudon.
Human Line Project : une initiative pro-humain
Un jeune entrepreneur québécois, Étienne Brisson, a lancé en 2025 le « Human Line Project » afin de promouvoir l’importance de l’humain au sein de cette technologie.
« Cela a commencé après une expérience personnelle. Mon oncle, sans historique de santé mentale, fut hospitalisé en avril 2025, après ses conversations » avec un tel chatbot. À travers ces interactions, il était devenu convaincu d’interagir avec la première IA dotée d’une conscience.
« Après avoir lu les messages, j’ai compris rapidement que ce n'était pas un cas isolé – j’ai été capable de trouver des centaines d'expériences similaires en ligne. C'est comme ça que le projet a pris pied », raconte M. Brisson.
L’initiative rassemble un groupe de soutien communautaire, une base de données cliniques, des partenaires de recherche et des ressources d'aide en matière de contentieux pour les personnes ayant subi un préjudice psychologique lié à l'IA. Plus de 350 cas ont été recensés.
« Je crois que c'est important de comprendre les impacts d'une nouvelle technologie aussi puissante avant de l'adopter en tant que société. Nous ne sommes pas anti-technologie, mais plutôt pro-humain. Une expérience de masse pour comprendre les effets n'est pas la solution », poursuit M. Brisson.
Il convient avec le Pr Hudon que ce nouveau phénomène nécessite beaucoup plus d'études et que le niveau de compréhension est encore très bas. « Nos données nous montrent que la plupart des gens qui nous écrivent n'ont pas d'historique de santé mentale. Il est extrêmement difficile de bâtir un profil d'usagers à risque, et je crois qu'il est important de comprendre que ce ne sont pas des cas marginaux de personnes fragiles. »
Le Human Line Project s’est lié à des chercheurs de l’Université Stanford pour mener une étude sur 391 562 messages issus des conversations avec ces chatbots. Dans les échanges avec 19 utilisateurs ayant eu des préjudices psychologiques, les chercheurs notent, comme d’autres avant eux, des marqueurs de flagornerie —quand l’IA flatte à l’excès l’utilisateur— mais aussi des cas graves où le chatbot a encouragé l'automutilation ou les pensées violentes.
« Je crois que certaines données sont frappantes, comme le fait que dans 100% des cas, l'usager donnait un sentiment de conscience au chatbot. L'anthropomorphisation est un phénomène naturel dans une situation comme celle-ci. Ce n’est pas quelque chose qui est attribuable seulement aux personnes fragiles. Cette réponse naturelle du cerveau pourrait être un facteur de vulnérabilité », ajoute encore M. Brisson.




