Revues

Rendre publique la totalité des données d’une recherche. Annoncer à l’avance ce que sont les objectifs de la recherche. Et surtout, cesser d’évaluer l’importance d’une recherche sur la base du « facteur d’impact » de la revue qui l’a publiée.  Ce sont trois des pistes de solution avancées dans la dernière décennie pour combattre un problème gênant : le grand nombre de recherches que d’autres chercheurs n’arrivent pas à reproduire.

On a commencé à entendre parler de « crise de la reproductibilité » en 2011 en psychologie: d’une part, une recherche a démontré combien il était facile pour un chercheur dans cette discipline de trouver des « faux positifs », soit des données qui lui « prouveraient » qu’il a raison; d’autre part, il y a eu un débat acrimonieux autour d’une expérience «classique» de 1996, citée plus de 2000 fois depuis, mais jamais reproduite.

Par le mot « reproductibilité », on fait référence à une réalité fondamentale aux avancées scientifiques depuis des siècles : pour être acceptable, une « découverte » doit pouvoir être reproduite par d’autres chercheurs. Autrement dit, une seule recherche pour une affirmation « révolutionnaire », ça ne suffit pas.

Mais l’idée d’une crise de la reproductibilité a gagné d’autres disciplines que la psychologie. Les études sur la nutrition ont ainsi perdu beaucoup de leur lustre dans la dernière décennie, un trop grand nombre d’entre elles semblant être faites sur mesure pour attirer l’attention du public et des médias, au détriment de leurs qualités scientifiques.

Enfin, bien qu’on se doutait depuis longtemps qu’une bonne partie des recherches biomédicales dites « préliminaires » n’aboutissaient pas à des percées prometteuses lorsqu’on fouillait plus en profondeur, l’ampleur du problème a surpris, raconte une journaliste du New Scientist : en 2011, une étude interne de la compagnie Bayer concluait que les deux tiers des pistes suivies par la compagnie à partir de recherches universitaires, n’aboutissaient pas. En 2012, la compagnie Amgen ajoutait que sur 53 études jugées importantes, seulement 5 avaient pu être reproduites. C’est en partie la raison pour laquelle, dans la dernière décennie, des journalistes scientifiques se sont mis à marteler encore plus souvent qu’avant qu’il faudrait être très prudent avant de parler d’une étude qui ne porte « que » sur des souris. Ou pire encore, avant de monter en épingle ses résultats « encourageants ».

Dernier facteur: les pressions exercées sur les chercheurs par le système des universités et des organismes subventionnaires pour publier le plus souvent possible —le fameux « publier ou périr ». Il y a par exemple longtemps qu’on constate un biais vers les résultats « positifs », parce que les chercheurs dont l’étude a abouti à des résultats négatifs seront moins enclins à prendre du temps pour écrire l’article. Et il y a longtemps qu’on se plaint de la tentation qu’ont certaines revues à monter en épingle certains titres, pour attirer davantage l’attention. Une piste de solution possible: imposer un « pré-enregistrement » des recherches, qui obligerait les chercheurs à décrire leur hypothèse et leurs objectifs, et qui les empêcherait d’en changer en cours de route, pour satisfaire aux critères de certaines revues.

Autre piste de solution possible: cesser d’accorder autant d’importance, dans les évaluations des chercheurs, au « facteur d’impact » des revues —c’est-à-dire qu’une publication dans une revue à haut facteur d’impact donne plus de « points » pour l’avancement de la carrière, augmentant la tentation de publier des recherches aux sujets plus « accrocheurs ».

L’approche du « pré-enregistrement » est notamment moussée par le Réseau reproductibilité, un organisme britannique qui s’est donné pour mission de proposer des réformes à la façon de faire du milieu scientifique. Le Center for Open Science, un organisme américain, propose une « étiquette » pour identifier les recherches qui ont été « pré-enregistrées », et une autre pour celles dont les chercheurs ont accepté de partager la totalité de leurs données. Le National Institutes of Health, le plus gros organisme subventionnaire de la recherche en santé aux États-Unis, imposera l’ an prochain que tous les récipiendaires partagent leurs données.

Dans le reportage récent du New Scientist, la journaliste scientifique Clare Wilson conclut que toutes les personnes concernées par ces réformes semblent s’entendre pour dire qu’il y a eu des progrès pour répondre aux « signaux d’alarme » entendus dans la dernière décennie. « Presque tous ont dit que c’était bien parti —mais qu’il y avait encore beaucoup de chemin à faire ».