clavier-poing.jpg

Quelle est la meilleure forme de reconnaissance qu’une chercheuse qui étudie la propagande puisse recevoir? Peut-être devenir elle-même la cible de la propagande qu’elle a mise en lumière. « Clairement, votre travail a un impact », résume la chercheuse en question, Renée DiResta, dans son dernier livre, Invisible Rulers.


Ce texte fait partie de notre série sur Les coulisses de la désinformation en science


    Devenir la cible d’une meute numérique enragée, c’est ce qui est arrivé à cette chercheuse américaine en 2023, quand deux influenceurs et un élu républicain ont fait d’elle et de ses collègues le coeur du complot imaginaire qui aurait fait perdre à Donald Trump l’élection de 2020. 

    Cascades de messages hostiles répercutés sur les réseaux sociaux par des partisans, harcèlement et intimidation en ligne, jusqu’à des menaces de mort: « bien que vous soyez accusée de choses que vous n’avez pas faites, qu’on vous attribue des mots que vous n’avez jamais prononcés, tenter de remettre les pendules à l’heure semble inutile… Faites la paix avec le constat que vous êtes maintenant dans une réalité alternative », raconte-t-elle.

    Abonnez-vous à notre infolettre!

    Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

    L’expression  « réalité  alternative » a été abondamment employée dans la dernière décennie pour décrire les univers complotistes dans lesquels un parti politique serait capable de contrôler des ouragans ou d’insérer des puces électroniques dans les vaccins. Mais Renée DiResta, aujourd'hui professeure associée à l'Université Georgetown, va plus loin en employant l’expression « réalité sur mesure » (bespoke reality): le flot d’informations qui nous entoure est devenu si chaotique que chacun, s’il n’est pas vigilant, peut se forger « sa » réalité personnalisée avec l’aide des influenceurs qui lui disent ce qu’il veut entendre et qui savent tirer sur les bonnes cordes sensibles. 

    Ces influenceurs, ce sont les « dirigeants invisibles » (invisible rulers) du titre de son livre, paru à l'été 2024. Un terme qui n’est pas nouveau, puisqu’il renvoie au père des relations publiques, Edward Bernays. Dans son ouvrage Propaganda, en 1928, il désignait comme « dirigeants invisibles » toutes sortes de gens qui, à cause de leur influence dans un secteur de la société, jouent un rôle déterminant dans la dissémination des idées —il peut s’agir autant de banquiers que de vedettes du sport ou des designers de mode. Aujourd’hui, ce sont les plus influents des youtubeurs, tiktokeurs et autres vedettes des réseaux sociaux qui ont compris comment utiliser les algorithmes pour attirer l’attention et jongler avec les émotions. Ceux qui ont le pouvoir de « changer les mensonges en réalité » aux yeux de leurs millions d’adeptes.

    Livre : Invisible RulersLe premier contact de DiResta avec ce phénomène avait été en 2014, lors d’une éclosion de rougeole en Californie. Inquiète de la montée des mouvements qui défendaient des idées fausses et répandaient des peurs irraisonnées, elle avait participé à ce qu’elle voyait comme un « contre-mouvement » : aux « antivaccins », il fallait opposer, défendait-elle, des « pro-vaccins ». 

    Sauf qu’elle avait sous-estimé à quel point les « anti » avaient plusieurs longueurs d’avance. D’une part, parce qu’ils avaient un discours propre à aller chercher l’émotion: la colère contre « l’élite » ou la peur des médecins, sont toujours plus efficaces que les explications appuyées sur des faits. D’autre part, parce que les influenceurs antivaccins étaient beaucoup mieux organisés sur les réseaux sociaux: en se partageant mutuellement leurs contenus, indépendamment de leur qualité, ils contribuaient à créer une illusion de popularité —et ainsi, à les rendre plus visibles dans l’algorithme. Pendant ce temps, déplorent la chercheuse, les institutions de santé publique en étaient encore à se demander si elles devraient utiliser les réseaux sociaux.

    « Déjà, nous étions en train d’entrer dans un monde où la vérité était déterminée par la popularité. » Mais plus troublant encore, « les idées extrêmes étaient de plus en plus visibles », tandis que de les critiquer « nécessitait de former des groupes capables de résister au harcèlement et à l’intimidation ». 

    Intimider pour faire taire

    Des universitaires et des journalistes ont écrit depuis les années 2010 sur cette radicalisation des discours et cet émiettement d’un consensus face à ce qui définit un fait (voir nos textes de 2022, de 2016 et de  2012). Même Facebook, a-t-on appris depuis, avait des études internes révélant que la majorité des gens qui joignaient sur sa plateforme des groupes extrémistes comme QAnon, le faisaient en raison de recommandations de son propre algorithme. 

    En 2020, les inquiétudes étaient devenues telles que Facebook, à un mois de l’élection présidentielle, allait désactiver ces recommandations et fermer des groupes QAnon. Mais entretemps, pendant toute l’année 2020, un autre phénomène avait pris de l’ampleur, lui aussi avec l’aide des algorithmes : la délégitimation des élections à venir par Trump et ses partisans. Des groupes entiers s’étaient formés à cette seule fin sur les réseaux, menés par des influenceurs rassemblant des millions de personnes. 

    C’est dans ce contexte que DiResta deviendrait la cible d’une meute numérique. 

    À l’été 2020, avait été créé le Election Integrity Partnership (EIP). Un partenariat entre des chercheurs de l’Observatoire d’Internet de l’Université Stanford, en Californie, dont  faisait alors partie DiResta, et d’autres institutions. L’objectif n’était pas de corriger des faussetés mais de comprendre les mécanismes : en effectuant un suivi des discussions en ligne sur les élections, en identifiant quelles rumeurs devenaient virales, on arriverait peut-être à voir venir les problèmes et ainsi, aider les agences gouvernementales, les partis politiques, et tout groupe préoccupé par l’intégrité des élections.

    Lorsque l’élection de novembre 2020 donne la victoire à Joe Biden, les pro-Trump sont confortés dans leur croyance que l’élection a été truquée et la quantité de rumeurs virales s’intensifie. En novembre et décembre, puis après l’émeute du 6 janvier 2021 à Washington, le EIP poursuit son travail d’analyse et, tout comme les médias de vérification des faits, identifie certains des « super-propagateurs » de fausses nouvelles —qui se trouvent à être en grande majorité, sans surprise, des influenceurs républicains. Parallèlement, les plateformes, en particulier Facebook et Twitter, choisissent de bannir certains des comptes ou des groupes les plus virulents —ceux qui font des menaces de mort contre les travailleurs d’élections, par exemple. Et qui sont, là encore, majoritairement des groupes pro-Trump. 

    Pour les observateurs du domaine, ce n’était pas une révélation. Mais pour les chercheurs, ce fut le commencement de leurs ennuis. Des polémistes et des politiciens les présentent comme des censeurs —prétendant qu’ils auraient fait disparaître de Twitter et de Facebook des « millions de messages ». En achetant Twitter à la fin de 2022, Elon Musk s’emploie à amplifier cette fausse croyance. Et en mars 2023, l’élu républicain Jim Jordan annonce le lancement d’une enquête du Congrès contre l’Université Stanford, l’accusant d’avoir fait partie d’un « régime de censure » pour truquer l’élection de 2020 (Jim Jordan est l’un des élus qui a refusé de voter pour la « certification » de l’élection de Biden le 6 janvier 2021). Stanford et les institutions partenaires se font demander de remettre aux élus tous les courriels échangés entre chercheurs et qui sont liés à ces partenariats depuis aussi loin que 2015.

    Le but d’un tel exercice, écrit DiResta, n’est pas de trouver quelque chose, mais d’intimider. « Ce qui allait se produire était prévisible pour ceux d’entre nous qui étudions la propagande et la désinformation: des documents et des extraits d’entrevues seraient divulgués » à des sites idéologiquement orientés, et les personnes mentionnées « seraient ciblées par des meutes en ligne ».

    Et de telles stratégies d’intimidation fonctionnent, comme on a pu le voir pendant la pandémie. En 2023, une étude du Journal de l’Association médicale américaine concluait que les deux tiers des médecins et des scientifiques rapportaient avoir vécu du harcèlement en ligne —incluant la publication de leurs adresses personnelles— et des menaces de violence. Avant la pandémie, c’était « seulement » 23%. Plusieurs répondants ont dit que ces menaces avaient eu un impact significatif sur leur volonté de s’engager dans le débat. En 2023, le NIH, plus gros organisme subventionnaire de la recherche en santé, annonçait mettre sur pause un programme de subvention pour étudier la communication de la santé, « de peur qu’il ne déclenche des controverses ». 

    Au moment où DiResta terminait son livre, à la fin de 2023, des élus républicains et des influenceurs mettaient déjà de la pression, en vue de l’élection de 2024, sur des chercheurs étudiant la désinformation, en les accusant de « réduire au silence » les voix conservatrices. 

    Des pistes de solution? 

    Le constat peut sembler déprimant, admet-elle dans le dernier chapitre, mais les solutions sont pourtant connues.  

    Tout d’abord, accepter que la société est dans une période de transition, aussi tumultueuse soit-elle. « Retournerons-nous dans un monde moins polarisé, plus harmonieux »? Non, répond la chercheuse.

    S’adapter, ça veut donc dire, par exemple, imposer par des lois une plus grande transparence aux compagnies qui possèdent les réseaux sociaux. Ceux-ci ont généré des profits énormes depuis une quinzaine d'années tout en échappant à pratiquement toute forme de reddition de comptes. Une plus grande transparence sur: 

    • la publicité cachée et les messages politiques payés; dans bien des pays, les influenceurs n’ont aucune obligation de dire à leur public qui les a payés pour passer un message; 
    • l’efficacité des algorithmes, en donnant à des chercheurs un accès aux données; ce serait la seule façon de répondre à des questions comme « est-il vrai que certains groupes sont défavorisés par l’algorithme, voire censurés »; la loi européenne entrée en vigueur en 2022, le Digital Services Act, oblige les compagnies à fournir un tel accès aux chercheurs européens.  

    S’adapter, ça veut aussi dire davantage d’éducation à l’information: apprendre aux citoyens comment fonctionnent les algorithmes, identifier pourquoi et comment nous sommes incités à réagir aux propos outranciers, faire prendre conscience d’à quel point un groupe marginal peut créer « l’illusion de la majorité ». Un des objectifs fondamentaux des initiatives d’éducation à l’information depuis plus d’une décennie, rappelle DiResta, est de « donner aux gens les outils pour reconnaître » la propagande et les procédés employés par les désinformateurs. 

    Et peut-être aussi, apprendre aux citoyens pourquoi il faut réfuter des faussetés et réagir à des attaques, plutôt que de se murer dans le silence en se faisant croire que « ça va passer ». Ça ne passe pas, peut témoigner la chercheuse, qui ajoute que si elles veulent devenir plus réactives, les institutions comme les universités ont besoin d’alliés, sans quoi elles se condamnent à ne communiquer qu’à des audiences restreintes. Devant des réseaux d’antivaccins et de climatosceptiques qui se nourrissent du déficit de confiance du public face aux experts, toute piste de solution doit garder pour objectif qu'il faut reconstruire cette confiance. Parce que sans une confiance dans les faits, la société ne peut que s’émietter dans une multitude de réalités sur mesure. 

     

    Renée DiResta, Invisible Rulers: The People Who Turn Lies into Reality, PublicAffairs, 2024, 448 p.

    Je donne