grimoire-lecture-Wiki.jpg

L’arrivée de la pandémie de COVID, il y a quatre ans, avait été un moment-clef pour la multiplication de la désinformation par les réseaux sociaux. Mais le recul du coronavirus en 2023 ne s’est pas accompagné d’un recul de l’épidémie de fausses nouvelles. À cet égard, tous les détecteurs de rumeurs en herbe de la planète ont été confrontés à 5 problèmes qui laissent craindre que 2024 ne sera pas de tout repos.


Cet article fait partie de la rubrique du Détecteur de rumeurscliquez ici pour les autres textes. 


 

À lire également

1- L’émergence de l’intelligence artificielle

D’une part, lorsqu’on demande aux nouveaux « agents conversationnels » comme ChatGPT de pondre des textes, ils peuvent produire des choses qui ont l’air convaincantes mais qui cachent des faussetés —et les informaticiens eux-mêmes ne semblent pas avoir de solutions en vue (voir ce texte). 

D’autre part, il y a l’ampleur inquiétante de ce que ces « intelligences artificielles » commencent d’ores et déjà à produire, lorsqu’elles sont mises entre de mauvaises mains. L’organisme Newsguard révélait plus tôt ce mois-ci avoir recensé plus de 600 sites, tous apparus cette année, qui ne diffusent que de faux articles générés par l’IA.

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Les astuces du Détecteur de rumeurs

Ne pas se laisser impressionner par le caractère « convaincant » d’un texte ou par la vitesse de production du robot. Il faut plus que jamais développer chez le public le réflexe de vérifier la source avant de partager une information. Par exemple, un deepfake —une vidéo qui fait dire à une personnalité ce qu’elle n’a pas dit— ne s’affichera pas sur le site de Radio-Canada ou de l’Agence Science-Presse. Si ça provient plutôt d’un compte TikTok ou Twitter qui porte un nom comme « anonymus235 », ou d’un site qui n’a pas d’onglet « Qui sommes-nous », ou dont les gros titres sur sa page d’accueil sont suspects, on ne partage pas.

Il pourrait également être bon de rappeler à ses amis ou ses proches que ce n’est pas parce qu’un texte est produit par une IA que l’information a été vérifiée

 

2- Le conflit Israël-Hamas

Le déluge de faux messages depuis le 7 octobre dépasse tout ce que les vérificateurs de faits avaient connu, eux qui en avaient pourtant vu d’autres. Ce conflit offre « une sombre étude de cas sur la diminution de la capacité des plus grandes plateformes », à combattre les fausses informations, analysaient des experts dès le 10 octobre.

Toutefois, l’ampleur de cette désinformation dépend des humains, et non de l’IA. Des vidéos attribuées au conflit qui n’ont rien à voir avec le conflit ont abondamment circulé, de même que des photos auxquelles des gens ont donné un faux contexte. Dans certains cas, le biais de confirmation est en jeu: l’usager partage la vidéo ou la photo parce qu’il veut y croire. Mais dans d’autres cas, on a affaire à des réseaux de désinformation bien organisés: des comptes Twitter anonymes créés en série quelques jours plus tôt ou des robots, certains associés à la Russie.  

Les astuces du Détecteur de rumeurs

Vérifier la source, ici aussi: spécifiquement, vérifier qui est derrière le compte qui a partagé la vidéo ou la photo. 

Ou bien chercher une deuxième source via Google : si la nouvelle est vraiment grave, elle sera inévitablement couverte par un vrai média. 

Et être patient : il y a des choses qui peuvent prendre des jours pour être vérifiées (pour plus de détails, voir le texte Israël-Hamas: comment réduire le flot de désinformation).

 

3- La désinformation autour du climat

Au début de 2020, beaucoup « d’influenceurs » qui brandissaient des théories du complot, sont devenus des spécialistes auto-proclamés des complots autour du coronavirus. En février 2022, plusieurs sont devenus des spécialistes auto-proclamés de l’Ukraine. Et en 2023, plusieurs se sont tournés vers les changements climatiques.

Ces désinformateurs se sont ajoutés à un mouvement qui existait déjà: selon une étude parue dans Nature Climate Change en 2022, il y aurait eu sur les réseaux sociaux, de 2014 à 2021, une « polarisation croissante » lorsqu’on observe les interactions autour des périodes des conférences annuelles sur le climat. 

Or, comme la crise climatique est vouée à prendre plus d’ampleur, il est possible que ce soit un filon que les désinformateurs et les fermes à trolls ne laisseront pas tomber (voir le texte Les réseaux sociaux favorisent-ils le discours climatosceptique?).

Les astuces du Détecteur de rumeurs

Vérifier la source et chercher une autre source sont ici encore des réflexes de base. 

Mais face à une information scientifique, on peut aussi se rappeler qu’en plus, en science, une étude a plus de valeur qu’une opinion. Et que toutes les études n’ont pas la même valeur. En conséquence, devant un texte ou une vidéo qui fait des affirmations suspectes en science ou en santé, séparer les faits des opinions devrait être une compétence à développer.

Quant à la désinformation sur le climat, elle se résume généralement à quatre grands axes (voir ce texte).

 

4- Twitter et le rôle des plateformes 

La désinformation et les propos haineux ont pris de l’ampleur sur Twitter (ou X) en 2023. En février, le site de vérification des faits Health Feedback estimait que le taux « d’engagement » des « super-propagateurs » de fausses nouvelles avait augmenté de 42% après l’acquisition de la plateforme par Elon Musk, à l’automne 2022. Au point où, dans un reportage de France Info en août 2023, on faisait état d’un « déferlement de haine » contre des scientifiques, des journalistes et des vulgarisateurs.

On peut blâmer la décision du nouveau propriétaire de mettre à pied les équipes de modération. Mais en même temps, il faut se rappeler que la désinformation est aussi présente sur les autres plateformes. Et la décision de Facebook, cette année, de boycotter les médias au Canada, n’améliore pas les choses. 

Il est possible que Twitter soit pire que les autres (c’est toutefois difficile à prouver, en raison du manque de transparence des plateformes). Mais sa régression pourrait en faire une cible des gouvernements qui voudront commencer à réglementer les pires des dérapages.

L’astuce du Détecteur de rumeurs

Se méfier des algorithmes. Ils sont très forts pour nous livrer ce qui correspond à nos croyances, mais nos croyances ne sont pas un critère de fiabilité. Les études des dernières années sur les raisons pour lesquelles des gens partagent des fausses nouvelles pointent souvent l’usage des réseaux sociaux: plus ceux-ci constituent une importante source d’information pour une personne, plus cette personne semble être à risque de partager des fausses nouvelles.

 

5- La menace pour la démocratie

Très souvent, une désinformation organisée ne vise pas à convaincre d’une fausseté, mais à créer un chaos informationnel qui, petit à petit, mine la confiance dans les institutions.

Un colloque intitulé « Vérité, confiance et espoir » était organisé à ce sujet en mai 2023 à Washington par l’Académie nationale des sciences et la Fondation Nobel. À l’ordre du jour: « Les biais algorithmiques, la manipulation et la désinformation, sont devenus une menace mondiale et existentielle, qui exacerbe des problèmes sociaux existants, dégrade la vie publique, nuit aux initiatives humanitaires et empêche des avancées face à d’autres sérieuses menaces. » (voir ce texte)

Ce sont des propos similaires qu’on pouvait entendre dans un colloque tenu à Montréal le 30 novembre: « la désinformation est un bouton fantastique sur lequel appuyer pour déstabiliser les démocraties » (voir ce texte).

En janvier 2023, un rapport du Conseil des Académies canadiennes sur la désinformation en science alertait lui aussi sur les informations fausses ou trompeuses qui « prolifèrent à un rythme inconnu jusqu’ici » et sur des « tendances sociétales que sont la baisse de la confiance, la polarisation croissante et la délégitimation de nos institutions du savoir » (voir ce texte). 

Et en septembre, une enquête effectuée auprès de 289 experts universitaires en désinformation de 54 pays, concluait que les deux tiers considéraient que « l’incapacité à rendre redevables les compagnies de médias sociaux » allait poser un problème encore plus sérieux qu’aujourd’hui. Près des trois quarts (72%) s’entendaient sur l’importance d’une plus grande transparence des plateformes, c’est-à-dire un accès élargi à leurs données afin de pouvoir évaluer les efforts de modération qui ont du succès —ou non. 

Il y a des pistes de solution. La journaliste des Philippines Maria Ressa, co-lauréate du Nobel de la paix 2021, était arrivée au colloque de Washington avec un manifeste qui en appelait effectivement à davantage de transparence des plateformes. Et le rapport canadien mentionnait l’importance d’investir dans l’éducation à l’information (on cite la Finlande) et dans les organismes de vérification des faits, « devenus un composant essentiel » de l’équation. 

Je donne