BigData.jpg

Il existe des solutions pour réduire le flot de désinformation. Mais les chercheurs ont été aux premières loges ces dernières années pour constater que même les solutions les plus simples se heurtent à des obstacles politiques. 

Qu’il s’agisse d’interventions dans l’éducation ou dans l’écosystème médiatique, elles se heurtent à trois obstacles: une reconnaissance que la désinformation est un problème social grave, une acceptation du fait que certaines affirmations peuvent vraiment être étiquetées comme vraies ou fausses, et l’assurance que ces actions ne nuisent pas à la liberté d’expression. Or, « en tant que chercheurs en désinformation, nous avons été témoins que toutes ces pré-conditions étaient attaquées ces dernières années », notamment par des mouvements populistes qui ont intérêt à les attaquer. Autrement dit, des mouvements qui, plutôt que d’accepter un débat sur la base des faits, prétendront qu’il s’agit, par exemple, d’une atteinte à leur liberté d’expression. 

C’est ce qu’écrivent sept chercheurs de trois pays, dont l’historienne des sciences Naomi Oreskes et le professeur en sciences de la cognition Stephan Lewandowsky, dans une lettre publiée le 5 juin par la revue Nature. La lettre s’inscrit elle-même dans un dossier sur la désinformation en ligne que publie la revue britannique. 

Nature - Page couverture - 5 juin 2024

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

S’il subsiste des trous dans les connaissances scientifiques sur la façon dont la désinformation se répand, il n’empêche que des actions peuvent être prises sur la base de ce que nous connaissons, souligne la revue en éditorial. Et une des premières cibles devrait être d’imposer une transparence aux plateformes de réseaux sociaux: des études ici et là, ces dernières années, ont pu mesurer l’impact que l’une ou l’autre des plateformes a eu sur une élection ou sur la perception des changements climatiques, mais ces études étaient chaque fois limitées par le fait que la plupart des plateformes ne donnaient pas accès à leurs bases de données, en plus du fait que leurs algorithmes —qui déterminent ce qui va apparaître sur les écrans— sont jalousement gardés sous clef. La seule exception, Twitter, qui permettait aux chercheurs d’accéder gratuitement à ses données, a rendu cet accès payant après l’arrivée d’Elon Musk. 

Il existe une opacité similaire dans le financement des réseaux sociaux. « Le modèle de financement par la publicité a renforcé » la production de désinformation, par exemple, grâce au système qui permet à des publicités d’être placées automatiquement là où l’algorithme a senti qu’elles trouveraient un public-cible. Or, selon une recherche publiée dans ce numéro de Nature, les compagnies qui se fient à ce système sont dix fois plus susceptibles de voir leurs publicités apparaitre sur des sites de désinformation. 

Combattre cette opacité ne voudrait pas dire qu’on rende le code informatique public. Rien qu'accorder aux chercheurs un accès privilégié serait un pas en faveur d’une plus grande transparence, ne serait-ce que parce qu'ils pourraient peut-être repérer les mécanismes qui facilitent la circulation d’informations fausses. « Les études qui ont déjà été faites, poursuit l’éditorial, montrent qu’il est possible de collaborer éthiquement sur les données tout en respectant la vie privée des usagers. De plus, poser des gestes contre la dissémination de faussetés avérées, ce n’est pas une atteinte à la liberté de parole, si c’est fait de manière transparente. » Mais l’éditorial s’achève par le constat qui sera le plus politiquement controversé: « si les compagnies ne sont pas prêtes à partager leurs données, les élus devraient les y obliger ».

Je donne