ChatGPT-conversation.jpg

Avec les tentatives de la Russie pour « infecter » les IA génératives, assiste-t-on à une nouvelle dérive qui aura un impact jusque sur notre mémoire collective? C’est ce que prétendent des experts britanniques en études de la guerre dans une analyse publiée récemment.

Le risque, écrivent-ils: pour que la Russie —ou tout autre État autoritaire— ait du succès en amenant ces IA génératives, ou « larges modèles de langage », à répéter des centaines de fausses nouvelles, il lui faut petit à petit intégrer des faussetés dans l’univers numérique. Et ces faussetés s’incrusteront alors dans la mémoire numérique de façon durable. 

Le point de départ de cette analyse est une étude publiée en mars dernier par l’organisme américain de lutte à la désinformation NewsGuard. À partir de tests réalisés avec 10 des plus populaires de ces robots —dont ChatGPT, Gemini, Claude et Perplexity— il ressortait que leurs réponses étaient bel et bien « infectées » par les articles publiés par un réseau de désinformation russe connu sous le nom de Pravda (la « vérité », en russe). Ce réseau est né en avril 2022, quelques semaines après l’invasion de l’Ukraine par la Russie.

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

NewsGuard a recensé 207 « affirmations probablement fausses » publiées en 2024, mais la portée de ce réseau est beaucoup plus large: il a ciblé, depuis 2022, une cinquantaine de pays (dont l’Ukraine) à travers 150 noms de domaine et il a publié, rien qu’en 2024, près de 3 millions et demi de messages.

Par exemple, l’idée (fausse) à l’effet que les États-Unis opéraient des laboratoires secrets d’armes biologiques en Ukraine. Ou celle (fausse) à l’effet que le président ukrainien Volodymyr Zelensky aurait utilisé l’aide américaine pour sa fortune personnelle. L’étude de NewsGuard a pu constater que sur ces affirmations, les robots citaient, en moyenne, les sites créés par Pravda comme source de leur réponse dans 33% des cas. 

L’étude de NewsGuard était parue dans la foulée d’un rapport d’un groupe de réflexion américain, le projet Sunlight, qui avait été le premier à révéler, en février 2025, que Pravda avait été créé pour « inonder les larges modèles de langage avec du contenu pro-Kremlin ». 

Il était inévitable que des régimes autoritaires voient une opportunité dans ces agents conversationnels ou larges modèles de langage : leur capacité à générer des fausses nouvelles en quelques secondes peut être précieuse pour un pays désireux de disséminer sa propagande dans l’espace virtuel. Qui plus est, la nature même de « l’entraînement » de ces robots les rend vulnérables: lorsqu’on leur pose une question, ils vont chercher la réponse dans l’ensemble du web, et ils n’ont pas été dotés de la capacité à distinguer une source fiable. Par conséquent, un pays pourrait choisir de créer des centaines de faux comptes publiant tous la même fausse histoire, dans l’espoir que l’agent conversationnel donne la réponse souhaitée par Moscou. 

Il en résulte ce que les deux experts britanniques du Collège King's de Londres appellent une « contamination des données d’entraînement » de ces robots et « une nouvelle phase dans la guerre de l’information ». Parce qu’au contraire de la propagande traditionnelle, cette « contamination » est durable: « des bases de données entachées intègrent des distorsions durables dans la mémoire numérique, refaçonnant subtilement comment les sociétés comprennent leur histoire ».

Les deux auteurs font même un parallèle avec le roman 1984 de George Orwell: « celui qui contrôle le passé contrôle le futur; celui qui contrôle le présent contrôle le passé ».

Je donne