Le processus par lequel la science se publie et s’autocorrige n’a jamais été parfait, mais la pandémie a révélé des failles dans le système: profusion d’études publiées trop vite et lenteur des éditeurs à afficher des avertissements au-dessus des études mises en doute.
C’est ce qu’a écrit le 3 mars un groupe de quatre chercheurs dont l’épidémiologiste australien Gideon Meyerowitz-Katz, très actif depuis deux ans pour vulgariser sa discipline et la notion d’incertitude qui y est rattachée, ainsi que la microbiologiste américaine Elizabeh Bik, très active depuis deux ans pour traquer des recherches entachées d’irrégularités.
Il ne s’agit pas d’un problème de « régie interne » qui concerne seulement la communauté scientifique, disent-ils: c’est la confiance du public qui est affectée par cette difficulté qu’a la communauté scientifique à s’adapter au nouvel écosystème de l’édition scientifique et de la communication.
Abonnez-vous à notre infolettre!
Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!
L’histoire qui, à leurs yeux, a fait le plus mal est celle de « la débâcle Surgisphere »: le 22 mai 2020, une étude sur la prétendue efficacité de l’hydroxychloroquine paraissait dans The Lancet. Les données provenaient d’une firme de matériel médical, Surgisphere, qui prétendait avoir créé une immense base de données internationale des hôpitaux. Le tout s’est avéré faux. Les critiques de l’article ont été un exemple de ce qui se fait de mieux en science, écrivent Meyerowitz-Katz et ses collègues, « lorsqu’un article à haute visibilité est immédiatement questionné et enquêté ». Mais il a tout de même fallu 10 jours pour que The Lancet publie un avertissement (expression of concern) et deux jours de plus pour que l’article soit retiré —une décision rapide dans l'univers de l’édition scientifique, mais très lente à l’époque des médias sociaux.
« Les histoires, poursuivent-ils, de l’hydroxychloroquine et de l’ivermectine, largement promues sur la base d’études de faible qualité ou même d’études frauduleuses, sont d’autres exemples préoccupants de la façon dont le processus de publication scientifique a failli à exercer un contrôle de qualité. »
De telles choses ont toujours existé: mais elles devenaient jadis l’équivalent d’une note de bas de page dans la petite histoire des sciences. Alors que dans le climat anxiogène qui a été celui de la pandémie, une étude prépubliée, mal conçue ou basée sur des données fausses, pouvait se mériter une attention du public suffisante pour influencer jusqu’à des décisions politiques sur les soins de santé. « Il y a une instantanéité de l’impact des publications scientifiques qui était rarement présente avant la pandémie. »
Une de leurs recommandations: les éditeurs des revues devraient s’astreindre à publier un avertissement (expression of concern) dans les jours suivant l’instant où des préoccupations vérifiables sont exprimées et cet avis ne devrait pas être exprimé dans des termes vagues —comme c’est souvent le cas— mais résumer les critiques en question.
Une autre de leurs recommandations est que ce qu’on appelle, dans le jargon de l’édition scientifique, le processus de révision par les pairs post-publication, devrait se faire d’une façon plus ouverte et transparente, avec des comités formés à cette fin, qui pourraient même être financés par les organismes subventionnaires de la recherche. À l’heure actuelle, cette révision « post-publication » est plus souvent qu’autrement faite bénévolement, sur des forums spécialisés (comme PubPeer), loin des regards du public.
Enfin, il faudrait établir rien de moins qu’une « culture de vérification de l’erreur »: les chercheurs devraient être formés à reconnaître leurs erreurs, « les institutions et les agences subventionnaires devraient allouer du temps pour la vérification des erreurs (error-checking) et les institutions et les revues devraient promouvoir les corrections et les rétractations autant que les nouvelles recherches ».