Les psychologues n’ont jamais cru que leur discipline était une science exacte, mais il y a tout de même des limites. À peine 1% de leur littérature scientifique est composée d’expériences qui ont pu être reproduites —dont la moitié, par le même chercheur.

Autrement dit, moins de un demi pour cent des recherches publiées en psychologie ont pu faire l’objet d’une reproduction indépendante, par un second chercheur. Ce qui est gênant, et constitue un des aspects de la crise de crédibilité qui frappe cette discipline, particulièrement depuis deux ans:

  • l’Américain Lawrence Sanna et le Néerlandais Dirk Smeeters, accusés cet été d’avoir trafiqué leurs données statistiques;
  • une analyse, en 2011, des « faux positifs » en psychologie, qui conclut à quel point il est facile pour un chercheur trop subjectif de trouver dans ses données celles qui lui «prouvent» qu’il a raison;
  • un débat acrimonieux autour de la remise en question d’une expérience «classique» de 1996, et citée plus de 2000 fois depuis, mais jamais reproduite;
  • et le psychologue social Daryl Bern, de l’Université Cornell qui, en 2011, publie dans le Journal of Personality and Social Psychology une étude prétendant avoir observé un pouvoir de prédire l’avenir; trois équipes indépendantes tentent de reproduire ses résultats, aucune n’y parvient... mais elles ont du mal à publier, se heurtant à des revues qui ne veulent pas publier de «résultats négatifs».

Dans son édition de novembre, la revue Perspectives on Psychological Science frappe un grand coup, avec 18 articles consacrés à cette crise de confiance —ou «crise de la reproductibilité». «La fréquence à laquelle des erreurs apparaissent dans la littérature psychologique n’est pas connue, écrivent les deux éditeurs, mais plusieurs faits suggèrent qu’elle est désagréablement élevée.»

Comme le soulignent Harold Pashler et Christine Harris, de l’Université de Californie, dans un article qui pose comme question «la crise est-elle exagérée», nul ne nie qu’il soit difficile de reproduire à la perfection une étude sur des comportements —parce que les humains ne sont pas aussi simples que des souris de laboratoire. Mais s’il faut qu’on utilise cet argument comme prétexte pour rejeter une étude X qui n’est pas parvenue à reproduire les résultats d’une étude Y, ou pire, s’il faut que des fraudeurs se servent de cet argument pour passer entre les mailles du filet, c’est «toute la crédibilité de la psychologie actuelle» qui en prend pour son rhume, écrit John Ioannidis, de l’Université Stanford, dans son commentaire. Ioannidis est un biostatisticien qui s’est spécialisé, ces dernières années, dans des études sur la crédibilité... des études.

Deux pistes de solutions parmi d’autres : encourager des recherches «concurrentes» où une équipe mènerait parallèlement la même expérience qu’une autre. Et surtout, rendre toutes les données publiques. Deux pistes qui ne serviraient pas qu’à la psychologie...