La science progresse par publications: sans publication, personne ne peut vérifier les résultats, ni ajouter une brique à l’édifice. Or, la moitié des essais cliniques pourraient ne jamais avoir été publiés, près de trois ans plus tard.

L’équipe qui a effectué cette recension s’est appuyée sur la base de données ClinicalTrials.gov, où tout essai clinique financé par les fonds publics américains doit être inscrit. Ils ont choisi 635 essais cliniques qui avaient pris fin en décembre 2008 ou avant, et parmi eux, ils en ont trouvé 341, soit plus de la moitié, dont les résultats n’avaient toujours pas été publiés, 30 mois après la fin des tests.

Ce n’est pas la première fois qu’une recherche tire cette sonnette d’alarme: mais selon le British Medical Journal, qui publie un dossier spécial sur le sujet, ce serait la première fois depuis des décennies qu’on se penche spécifiquement sur des études financées par les National Institutes of Health (NIH) des États-Unis. Or, cet organisme subventionnaire oblige depuis 2008 les chercheurs qu’il finance à rendre leurs résultats accessibles à tous, dans la base de données publique PudMedCentral, et ce dans les 12 mois suivant leur publication.

Le problème est qu’il n’existe aucune mesure punitive forçant les chercheurs à publier avec célérité.

Pourquoi ne publient-ils pas?

Des raisons triviales peuvent expliquer qu’une recherche ne soit pas publiée. Par exemple, d’autres priorités ont pu, entretemps, prendre le dessus dans le laboratoire. Ou bien, les résultats sont décevants, ce qui donne envie de passer tout de suite à autre chose. Ou encore, l’article a bel et bien été soumis à une revue, mais celle-ci l’a refusé et personne ne s’est donné la peine de le soumettre à une autre revue.

Au final, l’impact d’avoir autant de recherches non publiées est impossible à mesurer globalement, faute de savoir ce qu’il y avait dans ces recherches. Mais c’est là qu’intervient une seconde étude, également publiée dans le British Medical Journal : ses auteurs ont tenté d’évaluer à quel point des méta-analyses —des analyses d’un ensemble de recherches— auraient été différentes si on y avait inclus des données non publiées.

Ces derniers chercheurs ont utilisé l’information que rend publique l’Administration américaine des aliments et drogues (FDA) sur les tests cliniques n’ayant pas encore fait l’objet d’une publication, et tournant autour de médicaments approuvés par la FDA en 2001 et 2002. Ce qui ressort: les conclusions des méta-analyses pourraient bel et bien être différentes, si tout était inclus.

Dans l’ensemble, l’ajout des données cliniques de la FDA a eu pour conséquence que 46% (ou 19 sur 41) des estimations des méta-analyses ont montré une efficacité moindre du médicament, 7% (3 sur 41) n’ont pas montré de changement et 46% (19 sur 41) ont montré une plus grande efficacité.

Quarante et un, ce n’est pas un gros échantillon. Mais c’est un signal d’alarme qui donne du poids au mouvement qui, depuis des années, réclame un accès libre et gratuit (open access) à l’ensemble des données scientifiques.