Wikipedia-page.jpg

Wikipédia, « l’encyclopédie libre » est utilisée pour entraîner les agents conversationnels comme ChatGPT, Gemini et d’autres. C’est une raison de plus qui explique que les groupes conservateurs, aux États-Unis, soient en guerre contre Wikipédia.

S’il n’en tenait qu’à Elon Musk, « l’encyclopédie sans biais idéologique » serait désormais la sienne, Grokipédia. À la fin d’octobre, il lançait ce site généré par une IA, appelée Grok —celle avec laquelle peuvent converser les usagers de X, anciennement Twitter. La nouvelle plateforme contient près de 900 000 articles (en date du 13 novembre, contre environ 7 millions en anglais pour Wikipédia), et lors de son lancement, Elon Musk semblait fier de souligner qu’il n’y avait aucun « éditeur humain ». 

En comparaison, Wikipédia fonctionne depuis 24 ans avec quantité de bénévoles : près de 200 000 rien que dans le dernier mois, selon son site, et un total de plus de 11 millions de collaborateurs depuis sa création. C’est même à travers ce très grand nombre qu’elle définit sa mission: elle privilégie la recherche de consensus au sein de la communauté des collaborateurs. 

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Le pari qu’ont fait ses fondateurs est que la contribution d’un grand nombre de collaborateurs permet de créer du contenu de haute qualité, tout en minimisant les intérêts personnels. Et bien qu’Elon Musk ait mentionné vouloir « purger la propagande » qui, selon lui, gouvernerait Wikipédia, beaucoup d’articles de Grokipédia s’avèrent être des quasi-copies

Plusieurs recherches ont été faites depuis deux décennies sur la qualité des contenus publiés par Wikipédia (voir notre Détecteur de rumeurs à ce sujet). Ces recherches tendent en général à conclure que les mécanismes mis en place permettent non seulement de limiter les erreurs, mais même de « combattre les informations problématiques ». Il existe des protocoles pour régler les désaccords. Et les articles qui contiennent de l’opinion sont censé être rapidement corrigés par d’autres contributeurs. Dans tous les cas, les articles doivent citer « des sources faisant autorité sur le sujet ».

Dans une analyse publiée le 11 novembre par le magazine The Atlantic, la chercheuse américaine Renée DiResta, de l’Université Georgetown, souligne que ces attaques de la droite conservatrice contre l’encyclopédie s’inscrivent dans un contexte plus large: « une campagne croissante » pour « refaçonner ce qui est considéré comme une source fiable d’information dans l’âge de l’IA ». 

Résultat, ce ne sont pas seulement les médias ou les universités qui ont été attaqués ou intimidés ces dernières années: les principales plateformes de réseaux sociaux ont vécu ce même type d’attaques de la part de groupes conservateurs. Au point où, de crainte d’être accusées d’avoir un biais idéologique, plusieurs plateformes ont choisi de couper dans la modération humaine des contenus —c’est-à-dire celle qui visait à éviter les propos haineux ou racistes, les faux médicaments, l’usurpation d’identité, etc.

C’est aussi en prétendant que la vérification des faits était « biaisée » que Facebook avait annoncé au début de 2025, immédiatement après l’élection de Donald Trump, qu’elle cessait de financer aux États-Unis les médias de vérification de faits (fact-checking) qui agissaient depuis quelques années à titre de « tierces parties » lorsqu’un contenu douteux était signalé par les usagers.

Au même moment, le magazine Forward avait obtenu un document de la Fondation Heritage —groupe de réflexion conservateur— en appelant à « cibler les éditeurs de Wikipédia ». Depuis, les politiciens s’en mêlent: en août, des élus républicains à Washington annonçaient qu’ils lanceraient une enquête sur un soi-disant « effort de manipulation » qui injecterait des biais dans le contenu de Wikipédia. Tout spécialement dans ce nouveau contexte où celle-ci est utilisée par les compagnies d’IA pour « entraîner » leurs robots. 

Quelle que soit la plateforme ou l’outil, des biais sont inévitables, admettent deux chercheurs en communications qui étaient interrogés par le média allemand DW lors du lancement de Grokipédia. Mais « la transparence et le fait d’admettre ses erreurs » constituent des mécanismes de contrôle qu’on retrouve sur Wikipédia, et non sur Grokipédia. Même X, la plateforme gérée par Musk, reconnaît la valeur de la recherche d’un consensus parmi les utilisateurs: c’est là le principe derrière ses « Notes de la communauté ». Or, selon une analyse parue en octobre, la source la plus souvent citée dans ces Notes est… Wikipédia. 

Mais « Grokipédia abandonne complètement tout cela », déplore Renée DiResta. « C’est une pure production algorithmique sans communauté, sans transparence, sans processus pour la résolution de conflits ». Alors que Musk « attaque Wikipédia pour de supposés biais, il construit quelque chose qui est beaucoup plus opaque et sans possibilité de reddition de compte ».

Je donne