La recherche Google pour vérifier de fausses informations peut contribuer à mousser les fausses informations. Bien plus, Google peut renforcer la croyance en une fausse info, voire une théorie du complot.
À lire également
Le phénomène s’appuie sur un concept connu depuis longtemps sous le nom de « vide informationnel » (data void): lorsqu’il existe peu de documentation sur un concept, une idée, une rumeur. Dans une bibliothèque, cela se traduit par une absence de livres ou d’articles sur la question. Mais à l’heure de Google, cela se traduit par un risque élevé que, si on ne prend pas garde aux mots-clefs qu’on utilise, on tombe sur des informations douteuses.
Le problème est que, souvent, ceux qui disent « faire leurs propres recherches » ont une trop grande confiance dans les moteurs de recherche: ils s’imaginent que si Google leur recommande une source, c’est qu’elle est fiable —alors qu’en réalité, dans les cas de vides informationnels, Google se contente de trouver une page dont les mots-clefs correspondent aux mots-clefs de l’usager.
Abonnez-vous à notre infolettre!
Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!
Dans une recherche parue le 20 décembre dans la revue Nature, on donne l’exemple d’une rumeur selon laquelle le gouvernement américain avait « fabriqué » une famine en obligeant les citoyens à se confiner pendant la pandémie de COVID. Lorsqu’on entrait dans Google les termes exacts de cette rumeur (engineered famine), Google renvoyait aux textes qui avaient rapporté cette fausse nouvelle sans la remettre en doute.
Le problème va au-delà des gens qui cherchent simplement à confirmer leur fausse croyance. Quiconque cherche à vérifier l’authenticité d’une info —puisqu’on recommande, dans la lutte à la désinformation, de vérifier une info avant de la partager— risque de tomber dans un tel piège s'il ne prend pas garde à son choix de mots-clefs.
Les auteurs de cette recherche, qui sont chercheurs dans quatre institutions américaines, et dont les expériences se sont étalées de 2019 à 2021, étaient intéressés par des soi-disant « nouvelles » qui viennent juste de se produire et qui n’ont donc pas encore pu faire l’objet d’une vérification par un média —puisque dans de tels cas, les mots-clefs en question conduiraient peut-être vers ces médias. Ils ont demandé à 3000 personnes aux États-Unis d’évaluer la crédibilité de telles informations « récentes »; la moitié de ces personnes pouvaient faire une vérification en ligne, les autres, non. Celles qui avaient fait une telle vérification étaient environ 20% plus susceptibles de qualifier de « vraie » une nouvelle qui était fausse —par exemple, la fausse famine.
Cette recherche, commente la revue Nature en éditorial, révèle qu’il pourrait « ne plus être suffisant, pour les moteurs de recherche, de combattre la désinformation en demandant simplement à des systèmes automatisés » de faire reculer les sources peu fiables dans l’algorithme: parce que cette démarche intervient par définition après que le mal ait été fait, c’est-à-dire après que la fausse information ait été publiée, et pendant une période où seules des sources peu fiables en parlent.
Au moment où l’intelligence artificielle débarque avec la capacité de créer des milliers de fausses nouvelles à la minute, « des solutions pérennes à un problème qui pourrait être existentiel pour les démocraties devront résider dans un partenariat entre des fournisseurs de moteurs de recherche et des sources de connaissances basées sur des données probantes ».