Facebook-emoticone

Ce ne sont pas juste les impacts néfastes de Facebook sur les élections ou sur les discours haineux que les chercheurs de Facebook étaient capables de mesurer. Ce sont aussi les impacts néfastes sur la pandémie.

À l’interne, des employés de Facebook ont en effet conclu dans la dernière année que cette désinformation dominait des segments précis de leur plateforme, créant des effets de « chambre d’écho » —lorsque des groupes n’entendent plus que ce qui correspond à ce qu’ils disent eux-mêmes— et renforçant l’hésitation face aux vaccins. Toujours à l’interne, des chercheurs de la compagnie avaient pu documenter à quel point des messages émanant, par exemple, de l’Organisation mondiale de la santé (OMS), pouvaient être submergés par des commentaires d’antivaccins.

Mais rien ne filtrait à l’extérieur de la compagnie, en dépit des demandes répétées d’universitaires et de politiciens pour obtenir davantage de données sur la façon dont les fausses nouvelles sur la crise sanitaire se disséminaient.

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Depuis la mi-octobre, se succèdent donc des révélations en cascade sur ce que les dirigeants de Facebook savaient des impacts néfastes de leurs algorithmes sur la politique américaine ou internationale. Ces révélations émanent en bonne partie de dizaines de milliers de pages de documents (les « Facebook papers ») distribués à des médias par une ex-employée de Facebook, Frances Haugen. Il était prévisible que, dans le lot, on trouverait aussi des révélations sur ce que les dirigeants avaient appris des impacts sur la pandémie.

Un reportage publié jeudi par le Washington Post résume en ces mots : « dans l’ensemble, ces documents révèlent à quel point Facebook étudiait la désinformation sur le coronavirus et sur les vaccins à travers sa plateforme, tandis que le virus se répandait dans le monde ». Toutefois, autant dans les messages publics que dans les témoignages de son président devant les élus, la compagnie s’est toujours contentée de mettre l’accent sur les aspects positifs de sa réponse à la pandémie —comme le nombre de comptes fermés ou de messages effacés— et a systématiquement refusé de divulguer ses propres études —ou a carrément nié leur existence. Ce qui, aujourd’hui, fournit du carburant aux politiciens qui voudraient qu’une loi impose une plus grande transparence aux géants du numérique.

Le Wall Street Journal, qui avait été le premier média à obtenir ces documents, en avait aussi parlé le mois dernier.

Les documents en question ne révèlent pas juste que Facebook peut mesurer la vitesse à laquelle une fausse information se répand ou l’ampleur qu’elle peut atteindre. La compagnie est capable d’identifier ceux qu’on a appelé les « super-propagateurs ». Une étude interne suggère qu’il serait théoriquement possible de cibler un nombre relativement petit de désinformateurs pour avoir un impact sur la quantité de désinformation en circulation. Il n’est pas clair si la suggestion a été suivie: lorsqu’en mars dernier, un organisme militant américain, le Center for Countering Digital Hate, avait identifié 12 « super-propagateurs », l’idée de bloquer ces usagers avait été mise en doute par la direction. En août, la compagnie a tout au plus dénoncé les « failles » de l’étude, sans dire que ses propres recherches à l’interne confirmaient qu’un petit pourcentage de gens était responsable d’un fort pourcentage de désinformation.

Il est même possible que les nouvelles icônes ajoutées au « j’aime » et au « partager » amplifient le problème. Dans une étude sur ces désinformateurs les plus actifs, des employés ont noté que les commentaires antivaccins partent avec une longueur d’avance: ils sont renforcés dans l’algorithme par des « j’aime » et des « j’adore », alors que les usagers qui se risquent à émettre un commentaire favorable aux vaccins sont accueillis par les icônes « colère », « triste » ou moqueuses (« ha ha »), lesquelles ont pour conséquence de diminuer la valeur qu’acquiert le commentaire dans l’algorithme.

La possibilité de voir un message de santé publique être carrément détourné par une armée de commentateurs hostiles n’a pas échappé aux organismes de santé: un rapport interne de mars 2021 note que des acteurs comme l’UNICEF et l’OMS « n’utiliseront pas les espaces publicitaires gratuits que nous leur offrons pour promouvoir du contenu pro-vaccin, parce qu’ils ne veulent pas encourager les commentaires antivaccins qui submergent leurs Pages ».

On se rappellera que, en août dernier, on avait appris que Facebook avait négligé de rendre public son rapport sur les nouvelles les plus partagées du premier trimestre 2021, parce que la nouvelle la plus populaire était une fausse nouvelle sur le vaccin. Il avait fallu un reportage du New York Times pour obtenir le document.

Je donne