Argumenter avec un climatosceptique, un antivaccin ou un créationniste est-il contre-productif? C’est ce qu’ont longtemps affirmé les défenseurs de ce qu’on appelle, en psychologie, l’effet rebond (backfire effect). Le Détecteur de rumeurs rétablit les faits.


Cet article fait partie de la rubrique du Détecteur de rumeurscliquez ici pour les autres textes.


 

L’origine de la rumeur

L’idée selon laquelle il ne sert à rien d’essayer de faire changer d’avis une personne qui croit très fort à quelque chose et que, pire encore, cela peut la braquer dans ses positions, circule sans doute depuis des générations dans les familles qui ont eu un oncle ou une tante particulièrement têtu.

Dans une étude sur la communication politique et les fausses perceptions parue en 2010, deux chercheurs américains avaient résumé cette idée sous le nom d’effet rebond, ou effet boomerang (backfire effect), et ils étaient allés encore plus loin. Leur argument n’était pas seulement que de démontrer à quelqu’un qu’il a tort ne suffit pas à le faire changer d’avis. Leur argument était que d’être contredit de cette façon peut le pousser à se rebiffer et à adopter un contre-discours hostile, qui renforce encore plus ses croyances erronées.

Les chercheurs avaient soumis des articles de nouvelles sciemment manipulés à des citoyens américains. Ces textes contenaient de fausses affirmations faites par des politiciens clairement identifiés à un des partis politiques. Par la suite, les scientifiques avaient fourni aux participants un article qui rectifiait les faits, comme le font les rubriques de vérification de faits telles que le Détecteur de rumeurs.

La correction n’avait pas eu l’effet attendu auprès des participants qui partageaient la ligne idéologique du politicien: ils avaient rarement modifié leurs opinions, même si on venait de leur apprendre qu’elles étaient inexactes; mais pire encore, plusieurs de ces participants s’étaient braqués et retranchés sur leurs positions. « L’effet rebond » était né.

Ces résultats ont été confirmés par ces mêmes auteurs dans les années suivantes, notamment dans une étude portant sur la vaccination. Et ils allaient devenir une partie importante de la réflexion sur la lutte à la désinformation, avec l’élection de Donald Trump en 2016. Aujourd’hui encore, l’effet rebond est invoqué pour expliquer la polarisation des débats.

Les faits

Le problème est que l’idée a plusieurs fois été battue en brèche par des études plus récentes. Il semble plutôt que l’exposition à des messages de vérification des faits amène l’individu moyen à ajuster ses croyances. Sans abandonner tout son édifice idéologique —l’appui à un candidat, par exemple— le citoyen en question s’avère très capable d’admettre que telle ou telle affirmation est fausse.  L’effet rebond, à supposer qu’il existe vraiment, serait donc minime et se manifesterait rarement, ont écrit deux chercheurs américains en 2017: « à travers toutes nos expériences, nous n’avons trouvé aucune correction capable de déclencher un effet rebond, en dépit d’avoir testé précisément le type de sujet polarisé où on s’attendrait à un effet rebond ».

Dans une large étude menée par l’Université d’État de l’Ohio, les chercheurs ont soumis 10 000 participants à des dizaines de sujets confrontant leurs convictions. Résultat : ils n’ont eux non plus observé aucun effet boomerang. Ils soulignent même que, de manière générale, les citoyens tiennent compte des informations factuelles, même lorsque celles-ci remettent en question leurs engagements idéologiques.

D'autres d’études concluent par ailleurs que de prendre la peine de corriger les mauvaises informations détenues par les gens amène ces derniers à être mieux informés, du moins en moyenne. Une des clés pour y parvenir serait de renvoyer l’individu à des sources qu’il considère comme crédibles et de tenir compte de ses croyances préexistantes, afin de ne pas le heurter.

Pas de virage à 180 degrés

Toutefois, le fait d’être mieux informé ou davantage exposé à des croyances plus cohérentes avec la réalité, ne garantit pas un changement radical des opinions. Au contraire : la psychologie et la lutte aux fausses nouvelles ces dernières années ont révélé à quel point les êtres humains possèdent de nombreux biais et préjugés cognitifs qui, comme s’il s’agissait de barrières psychiques, peuvent nuire à l’assimilation de nouvelles informations factuelles, ou même bloquer celles-ci, préservant ainsi les croyances de départ.

Un citoyen peut, par exemple, rechercher de préférence des faits qui confirment ses convictions profondes. De la même façon, il peut attribuer moins d’importance aux faits qui contredisent ses convictions. C’est ce qu’on appelle le biais de confirmation. Il peut aussi inconsciemment adapter son traitement des informations aux objectifs qu’il poursuit, une tendance qu’on désigne comme du raisonnement motivé.

Ça ne le rend pas nécessairement hostile aux informations contraires: c’est plutôt que celles-ci percent ses barrières personnelles plus difficilement. Autrement dit, la persuasion, sans causer un effet rebond, demeure un exercice notoirement difficile.

 

Image: Sandra Schoen / Pixabay