Une base de données des articles scientifiques qui ont dû être ensuite retirés des archives de leurs revues, révèle que la croissance du phénomène est en bonne partie nourrie par une croissance de la surveillance des revues : elles sont plus vigilantes et sont devenues plus nombreuses à reconnaître le sérieux du problème.

On parle ici d’articles qui ont été retirés parce qu’on y a détecté des erreurs flagrantes, de la fraude ou du plagiat. Dans le jargon du domaine, c’est ce qu’on appelle la « rétractation d’articles ». Elle fait même l’objet d’un blogue depuis huit ans, Retraction Watch, et ses deux auteurs, les journalistes médicaux Ivan Oransky et Adam Marcus ont contribué à créer une base de données, lancée officiellement en octobre, qui contient 18 000 rétractations, remontant aux années 1970.

Un survol réalisé conjointement avec la revue Science révèle que si la croissance des rétractations connues se poursuit — de moins de 100 par année avant l’an 2000, à un millier en 2014 — elle continue de ne représenter que moins de quatre articles sur 10 000. La croissance du nombre de revues qui font de la surveillance est confirmée par deux chiffres : de 44 revues qui avaient rapporté avoir retiré au moins un article en 1997, on était passé à 488 revues en 2016.

Seulement 500 des 30 000 auteurs cités dans la base de données (la grande majorité des études sont signées par plusieurs auteurs) se retrouvent associés au quart des rétractations analysées par Science et Retraction Watch. Et un éditeur, l’Institute of Electrical and Electronics Engineers, basé à New York, avait à lui seul 7000 rétractations, pour des résumés de conférences tenues entre 2000 et 2011.

Par ailleurs, la base de données permet de se faire une idée plus juste des raisons des rétractations : bien qu’un petit nombre de revues annoncent qu’elles ont retiré un article sans dire pourquoi, on apprend des autres articles que près de la moitié des cas impliquent des données manipulées, falsifiées ou plagiées — des comportements qui entrent dans la catégorie « inconduite scientifique » telle que définie aux États-Unis. Et 40 % entrent dans la catégorie de l’erreur factuelle ou d’une expérience qu’il a été impossible de reproduire.