Avec le recul, il aurait fallu marteler que « les masques aident à protéger contre l'infection » plutôt que « les masques fonctionnent ». Et « les vaccins induisent une réponse immunitaire qui réduit la sévérité des infections » plutôt que « #VaccinesWork ». Ce qui n’est toutefois pas évident, dans un univers où le public est de plus en plus bombardé d’informations.

Résultat, communiquer la science s’est avéré une course à obstacles pendant cette pandémie. Et en plus, dans le contexte des médias sociaux, résume le rédacteur en chef de la revue Science, qui signe un éditorial à ce sujet dans son dernier numéro.

Certes, de tout temps, un des problèmes de la vulgarisation a toujours été que tout le monde souhaiterait avoir des réponses simples (« #VaccinesWork »), alors que la science préfère plutôt les réponses nuancées. Mais le problème est aujourd’hui amplifié par le fait que les algorithmes « découragent activement l’information digne de foi. Les désaccords et les affirmations outrancières génèrent plus d’engagement », c’est-à-dire plus de « j’aime » et de « partages » que les nuances et les zones de gris.

Dans une analyse publiée dans le même numéro de Science, deux chercheurs en sciences de la communication de l’Université du Wisconsin rappellent qu’il y a déjà 9 ans, ils écrivaient que « nous sommes à risque de créer un futur où les dynamiques de la communication en ligne auront un impact sur la perception qu’a le public de la science, qui sera plus fort que les recherches que nous, scientifiques, tentons de communiquer ». Une décennie plus tard, on est rendu là.

Avec certains effets délétères qui ont été observés par d’autres chercheurs et par des reportages ces dernières années: des opinions « hyperpolarisées sur des sujets tels que les vaccins contre la COVID ou les changements climatiques émergent et grandissent dans des chambres d’écho séparées ». Autrement dit, chaque citoyen a la possibilité de s’enfermer dans sa bulle où il peut choisir de n’entendre que ce qui confirme ses opinions. Et ce, même quand il s’agit d’opinions « hyperpolarisées », c’est-à-dire détachées de toute possibilité de dialogue ou de compromis: parce qu’un contenu qui met les gens en colère génère encore plus « d’engagement ».

Dans ce contexte, poursuivent Dominique Brossard et Dietram A. Scheufele, les scientifiques « ont été lents à s’adapter ». En fait, peu s’y sont vraiment adaptés: trop souvent, ils continuent de fonctionner en suivant leur vieux réflexe à l’effet que la communication de la science —ou la vulgarisation— consisterait simplement à transmettre des connaissances à un public ignorant. Les dernières décennies ont fourni de multiples exemples —des climatosceptiques aux antivaccins— comme quoi c’était une stratégie vouée à l’échec.

Même avant les médias sociaux, faire comprendre comment fonctionne la science n’était déjà pas facile. Dans son éditorial, le rédacteur en chef, H. Holden Thorp, souligne qu’une bonne partie du public ne réalise pas à quel point la recherche repose sur des mécanismes d’auto-correction: les résultats d’une première recherche peuvent être démontrés faux par une deuxième recherche. Mais à l’heure des médias sociaux, s’ajoute à cela un nouveau problème: ces recherches aujourd’hui démontrées fausses, y compris celles qui étaient de mauvaise qualité, sont tout autant accessibles que les recherches plus solides, et « fournissent du matériel pour les négationnistes idéologiquement orientés, désireux d’accuser les scientifiques d’avoir retourné leur veste ».

La multiplication des études pré-publiées pendant ces deux années de COVID n’a pas arrangé les choses: elles fournissent un abondant matériel à ces mêmes négationnistes sous la forme de recherches préliminaires, souvent anecdotiques, mais qui seront présentées sur les médias sociaux comme « une preuve ».

La solution réside-t-elle dans des chercheurs qui s’investiraient davantage dans les médias sociaux, comme on l’a souvent réclamé? Pour Brossard et Scheufele, ce n’est pas évident. « Les allers et retours presque en temps réel des médias sociaux » sont en conflit avec les règles d’un discours scientifique visant l'objectivité et du coup, « les scientifiques sont en désavantage, spécialement dans les affrontements ». Qui plus est, les algorithmes, conçus pour susciter avant tout une émotion forte, nuisent aux chances qu’un propos bien vulgarisé rejoigne une audience qui n’est pas gagnée d’avance au sujet.

Pour les auteurs d’un autre article publié dans la même édition de Science, ce sont les projets de loi envisagés en Europe et aux États-Unis pour réglementer les plateformes de médias sociaux, qui pourraient être un facteur de changement. En obligeant par exemple ces compagnies à être plus transparentes: qu’il s’agisse d’une plus grande transparence quant aux impacts de leurs algorithmes —sur les propos haineux, la désinformation, la santé publique, etc.— ou quant aux facteurs grâce auxquels les fausses nouvelles parviennent à se répandre aussi rapidement.

Pour le rédacteur en chef, en attendant, le minimum serait que les scientifiques fassent davantage l’effort de comprendre « l’impact et le fonctionnement des médias sociaux », afin de les utiliser plus efficacement et éviter que leurs propos ne soient récupérés par des trolls.