sommeil-telephone

La capacité de l’algorithme de Facebook à détecter les discours haineux a fait l’objet de deux nouvelles expériences, et l’algorithme a échoué chaque fois.


Ce texte fait partie de notre série sur Les coulisses de la désinformation en science


On désigne ici par « algorithme » l’ensemble du codage informatique —gardé jalousement secret par la compagnie— qui détermine que tel contenu se retrouvera dans le fil d'informations d’une personne, mais pas d’une autre. C’est grâce à l’algorithme qu’un usager de Facebook est censé se retrouver, petit à petit, avec de plus en plus de contenus qui provoquent chez lui des émotions et l’incitent à revenir le plus souvent possible sur la plateforme ou à y rester le plus longtemps possible.

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Or, ce que les critiques prétendent depuis des années, c’est qu’il importe peu que ces contenus soient de fausses nouvelles, voire des messages carrément hostiles ou haineux: l’important serait « l’engagement » qu’ils suscitent —aimer, partager, commenter.

Deux organismes à but non lucratif, Global Witness et Foxglove, ont donc testé l’algorithme de Facebook en créant à deux reprises des fausses publicités contenant des messages qui « déshumanisent » des minorités ethniques de l’Éthiopie et du Myanmar et contiennent des appels au meurtre. Ils ont choisi ces deux pays, parce qu’ils ont tous deux été nommés dans les documents de la lanceuse d’alerte Frances Haugen l’automne dernier: deux pays où Facebook aurait contribué à la propagation des discours haineux contre des minorités.

Les publicités n’ont pas été publiées par les deux organismes (elles avaient été programmées pour une date future), mais elles ont été approuvées par le système de Facebook. Prévenue de la situation, la compagnie a admis que les publicités n’auraient pas dû être approuvées.

« Nous avons choisi les pires cas que nous pouvions imaginer », a déclaré à l'Associated Press Rosie Sharpe, de Global Witness. « Ceux qui devaient être les plus faciles à détecter pour Facebook. Ils n’étaient pas en langage codé… Ils étaient des déclarations explicites disant que ce type de personne n’est pas un humain. »

Dans la foulée des révélations de Frances Haugen, la plateforme a toujours refusé de dire combien de gens elle employait pour faire la modération dans des langues autres que l’anglais, ou dans des pays dont l’anglais n’est pas la première langue.

Je donne