logoFacebook.jpg

En 2020 et 2021, Facebook a annoncé à trois reprises des efforts pour réduire la quantité de fausses informations circulant sur les vaccins. Ces efforts n’ont pas seulement été un échec, ils ont peut-être empiré la situation. 


Ce texte fait partie de notre série sur Les coulisses de la désinformation en science


    C’est ce qui ressort d’une analyse de plus de 300 pages ou groupes totalisant près de 400 000 messages publiés entre novembre 2020 et février 2022 : les chercheurs écrivent que le retrait d’un certain nombre de groupes opposés aux vaccins, ou de pages, ou de messages, a conduit à une réduction globale du nombre de messages sur le sujet, mais qu’en contrepartie, « l’engagement » moyen sur les messages dans les groupes a augmenté du tiers —c’est-à-dire le nombre de « j’aime », de commentaires ou de partages. 

    Qui plus est, parmi les messages « épargnés », on a assisté à une augmentation de la proportion d’informations fausses ou trompeuses (sur les effets secondaires, les hospitalisations, les enfants, etc.) ou des discussions qui leur étaient consacrées.  

    Abonnez-vous à notre infolettre!

    Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

    Les cinq chercheurs en santé publique et en analyse des données, sous la direction de David Broniatowski, de l’Université George Washington, concluent que le retrait de ces contenus n’a pas changé le niveau global « d’engagement » à l’égard de la mésinformation vaccinale. 

    Publiée le 15 septembre dans la revue Science Advances leur étude a porté sur un échantillon qui contenait autant de pages qualifiées « d’antivaccins » que de « provaccins » et une majorité de groupes « antivaccins ». Dans le jargon de Facebook, seuls les administrateurs peuvent envoyer des messages sur les « pages », alors que n’importe quel membre peut publier sur un « groupe ». 

    On note au passage que ce ne sont que 38% des pages identifiées par les chercheurs comme « antivaccins » (avec l’aide de CrowdTangle, un outil développé par Facebook) qui ont été retirées par Facebook, et seulement 29% des groupes « antivaccins » (31 sur 92). 

    Les chercheurs qui ont analysé la dissémination de fausses nouvelles sur Facebook ou Twitter ne seront pas surpris de ces résultats: c’est « l’architecture » même de Facebook, selon les termes utilisés par Broniatowski et ses collègues, qui est ici en cause. En favorisant avant tout les interactions entre personnes qui partagent les mêmes idées —plutôt que l’information fiable sur la santé— dans le seul but de créer des « communautés », la plateforme se trouve à favoriser les messages qui provoquent une vive réaction, peu importe qu’ils soient vrais ou faux. 

    Qui plus est, les administrateurs des pages se connaissent entre eux et se référencent mutuellement, ce qui facilite la tâche aux usagers qui veulent trouver de l’information correspondant à leurs croyances, même après qu’une de leurs pages préférées ait été retirée de la plateforme. L’architecture de Facebook, concluent les chercheurs, en facilitant la création de communautés, favorise l'accès au contenu antivaccin, minant du coup les efforts pour réduire la mésinformation. 

    Je donne