thinkingfastandslow.jpg
Nous sommes prompts à juger, à stéréotyper, à classer les faits dans de petites cases et à ne nous nourrir que des arguments qui confirment nos jugements. Est-ce que ça s’applique à nos jugements sur les OGM, le nucléaire, la fluoration de l’eau, les pipelines? Oui, du moins tant qu’on n’en est pas conscient.

Notre cerveau est « une machine à sauter aux conclusions ». Dans les mots du psychologue Daniel Kahneman, auteur de Thinking Fast and Slow auquel j’ai déjà consacré le billet précédent, nous sommes constamment en train de classer les choses dans notre tête, faire des corrélations, chercher des analogies pour construire des explications et des récits cohérents. C’est de cette façon que notre cerveau «met de l’ordre dans le chaos». Kahneman n’a pas inventé le concept: bien avant la neurologie, la simple observation de nos comportements nous avait déjà appris beaucoup sur cette façon très humaine de réfléchir.

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Mais voici que Kahneman, à mes yeux, entraîne la réflexion jusqu’au coeur des controverses scientifiques d’aujourd’hui, et je dirais même jusqu’au coeur du malaise qu’éprouvent bien des gens face à la science: la confiance démesurée que nous avons tous en nos jugements.

Ni la quantité ni la qualité des preuves n’influencent cette confiance subjective. La confiance qu’ont les individus en leurs croyances dépend largement de la qualité de l’histoire qu’ils pourront façonner autour de ce qu’ils voient, même s’ils en voient peu.

C’est là que son concept du double système qui cohabite dans notre cerveau —la pensée rapide et la pensée lente, Thinking Fast and Slow— intervient. Il ne dit pas que nous sommes incapables de changer d’avis: au contraire, il nous arrive, après réflexion, d’ajuster nos jugements. Mais ce n’est pas facile, parce que ce n’est pas naturel: notre cerveau n’a pas évolué pour ça. Il est plutôt équipé pour fonctionner à grande vitesse (pensée rapide) de manière à prendre des décisions à chaque seconde de notre existence. Alors que pour réfléchir (pensée lente) il faut faire un effort. Or, notre cerveau fonctionne d’abord sur le principe de la loi du moindre effort.

Et la vulgarisation, dans tout ça?

Appliquez ça à la façon dont le grand public perçoit la science, et c’est dévastateur. Parce que là se trouve la source du problème chez tous ces gens qui croient en des choses fausses et que le communicateur, le vulgarisateur ou le journaliste n’arrivent pas à rejoindre, même avec les arguments les plus rigoureux du monde. Toute la vulgarisation, toute la communication scientifique, demeure construite sur le mythe que nous sommes des animaux rationnels: ce troupeau est ignorant, donc transférons-lui des connaissances rationnelles et il comprendra.

Pourtant, on sent bien que ce modèle prend l’eau. Ce n’est pas parce qu’une personne est climatosceptique qu’elle est ignorante: c’est parce que les arguments qu’on lui fournit n’entrent pas dans les petites cases qu’elle s’est construite dans son cerveau. Intuitivement, on le sent : on sent que le fait d’agir comme si le citoyen était une cruche à remplir (mes faits sont meilleurs que les tiens!) n’est pas la solution (Le savoir ne se transmet pas à coups de marteau!).

En cette matière, les scientifiques qui tentent de communiquer au public ne valent guère mieux, même lorsqu’ils sont d’habiles vulgarisateurs. Leur réflexe face à des reportages individuels ou à des médias tout entiers, est souvent de dire «ces faits ont été incorrectement expliqués», et d’en déduire que si eux prennent le contrôle et expliquent la science, le public «comprendra». Immanquablement, ils se fourvoient.

Mais la solution implicite aux propos de Kahneman —et d’autres comme lui— fera grincer des dents, parce qu’elle implique d’accepter l’émotion de nos vis-à-vis comme si elle était valide.

Parce que ce n’est pas tout de dire que nous classons les informations dans de petites cases. Chaque fois qu’une émotion s’en mêle, la petite case s’en retrouve blindée : par exemple, si une personne est férocement anti-OGM, c’est qu’il y a une vive émotion derrière ce choix. Et le vulgarisateur qui n’en tient pas compte, qui n’apporte que des arguments rationnels —lisez ces études!— rate complètement sa cible.

Votre attitude émotionnelle envers des choses telles que la nourriture irradiée, la viande rouge, l’énergie nucléaire, les tatous ou les motocyclettes, drainent vos croyances vers leurs bénéfices ou leurs risques. Si vous détestez l’une ou l’autre de ces choses, vous croyez probablement que les risques sont élevés et que les bénéfices sont négligeables.

Ou encore :

Les gens jugent et décident en consultant leurs émotions. Est-ce que je l’aime? Est-ce que je le déteste? Avec quelle force? [...] Dans plusieurs domaines, les gens se forgent des opinions et font des choix qui sont l’expression directe de leurs sentiments et de leur tendance naturelle à approcher ou à éviter.

D’où l’importance, pour communiquer efficacement, de tenir compte de cette perception, qu’elle soit juste ou non. Et ce, tout en expliquant en quoi un fait scientifique se distingue d’une opinion... Équilibre délicat, n'est-ce pas?

Sur certains sujets, mission impossible: je soupçonne que si une alternative existait pour parler rationnellement aux gens qui rejettent la vaccination, on l’aurait trouvée. En revanche, sur les changements climatiques, en fait, sur toutes les questions environnementales, d'autres ont prouvé que de telles façons alternatives de vulgariser existent : par exemple, cette climatologue américaine, chrétienne évangélique, qui parvient à parler à ses coreligionnaires, sur la base de leurs valeurs idéologiques communes; ou cette campagne d’investissement dans les énergies vertes réussie, chez une clientèle du Kansas pourtant opposée à toute réglementation sur les gaz à effet de serre (et climatosceptique).

Se contenter de dire à quelqu'un que ses craintes ne sont pas fondées, c’est perdu d’avance. Son cerveau rapide refusera d’écouter. À l’inverse, trouvez un bénéfice, quelque chose qui améliorera son niveau de vie, ses conditions de travail, son quartier, l’école de ses enfants, et vous aurez accroché l’attention du cerveau rapide. Peut-être qu’après coup, le cerveau lent fera par lui-même la correction de certaines des petites cases, mais ce n’est pas sûr. Visez le cerveau rapide. Si vous y parvenez, ce sera déjà un grand pas en avant.

Et puis, en terminant, il y a nous-mêmes. Faisons notre propre auto-critique (je n’ai pas arrêté de faire la mienne en lisant ce satané livre!). Ceux qui ont un biais idéologique très fort, s’ils en sont conscients, et s’ils savent comment se construit la science —accumulation d’études, reproduction des résultats, etc.— n’ont aucune excuse pour ne pas prendre conscience de la facilité avec laquelle leur pensée rapide les manipule. Si vous savez comment fonctionne la science et que vous refusez malgré tout de fouiller les arguments qui vont à l’encontre de vos convictions, vous êtes sur un terrain encore plus dangereux que les créationnistes. Parce qu’eux, au moins, ils ont l’excuse de ne pas vouloir apprendre.

Je donne