Alors qu’on commence à parler plus sérieusement de réglementer les plateformes de médias sociaux, un mot revient souvent: transparence. Concrètement, pour des chercheurs, que voudrait dire davantage de transparence?

« Les plateformes ont assuré les élus qu’elles prenaient des mesures pour contrer la désinformation », rappellent quatre chercheurs dans un texte d’opinion publié par le magazine Scientific American. Mais dans les faits, « ces efforts sont-ils efficaces? Nous aurions besoin d’avoir accès aux données pour le savoir. » Sans ces données, « nous ne pouvons pas avoir de discussion réelle sur le genre d’intervention qui serait le plus efficace ».

Le problème de ces compagnies, rappellent Renée DiResta, Laura Edelson, Brendan Nyhan et Ethan Zuckerman, c’est en effet qu’en dépit du pouvoir énorme qu'elles ont acquis sur l’information qui circule dans la sphère publique —et qui a potentiellement un impact sur les élections, la santé publique et les discours haineux, entre autres— elles gèrent leurs algorithmes —ces lignes de programmation qui déterminent quel usager voit quoi — de façon opaque. Et bien que la partie la plus visible des discussions dans la dernière année ait porté sur la responsabilité qu’ont —ou que n’ont pas— ces plateformes dans la dissémination de fausses nouvelles, tôt ou tard, il faudra définir des façons par lesquelles les Facebook ou Twitter de ce monde seront obligées d’ouvrir leurs « livres » à des « observateurs externes » nommés par les gouvernements. Et le jour où ça arrivera, ce sont des experts universitaires qui risquent d’être aux premières loges.

Les élus et les fonctionnaires, poursuivent les quatre auteurs, « nous demandent fréquemment de mieux leur expliquer pourquoi nous devons avoir accès aux données, quelles recherches cela nous permettrait de faire et comment ces recherches aideraient le public ». À cette fin, ils ont créé une liste de questions :

  • La recherche suggère que la désinformation provoque plus « d’engagement » que d’autres types de contenus. Pourquoi est-ce le cas? Quels aspects de la désinformation sont les plus associés à de l’engagement et de la viralité?
  • Certaines compagnies, comme Facebook, tentent de combattre la désinformation avec des « étiquettes » identifiant des contenus plus douteux. Quel est l’effet de ces étiquettes?
  • Des études internes chez Twitter montrent que son algorithme amplifie davantage les idéologues de droite que de gauche. Est-ce que les algorithmes d’autres plateformes ont le même effet?
  • La recherche démontre que les techniques de ciblage du public qu’emploient les médias sociaux pour maximiser leurs revenus peuvent être discriminatoires. Certains groupes sont-ils plus à risque que d’autres ?

Des compagnies ont d’ores et déjà été plus ouvertes que d’autres, notent les chercheurs, en désignant Twitter et Reddit. « Mais nous ne pouvons pas dépendre de la bonne volonté de quelques compagnies, dont les politiques peuvent changer en fonction du caprice d’un nouveau propriétaire. »