facebook-jaime.jpg
Une étude prétend que Facebook ne filtre pas ce qui apparaît sur notre fil, mais que c’est plutôt nous qui filtrons. Des chercheurs s’insurgent, et prétendent que leurs collègues ont sous-estimé le poids de Facebook.

Parue dans Science , l’étude avait tout ce qu’il faut pour susciter la controverse : selon ses auteurs, elle apporterait la preuve que Facebook ne nous empêche pas de voir des opinions contraires aux nôtres... et elle a été réalisée par trois chercheurs employés par Facebook.

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Ceux-ci ont observé 10,1 millions d’usagers des États-Unis qui se sont identifiés comme étant de gauche ou de droite, entre juillet 2014 et janvier 2015. Leur constat : 29% de tous les fils contiennent des opinions contraires. Chez les usagers qui se sont identifiés comme étant de droite («conservateurs»), seulement 1 lien sur 20 n'apparaît pas, contre 1 sur 13 chez ceux qui se sont identifiés de gauche.

La critique qui a immédiatement surgi pointe l’échantillon. Si 10 millions semble beaucoup, c’est relativement peu à l’échelle de Facebook. Mais plus important encore, seulement 9% des usagers acceptent d’identifier leur option politique: sont-ils représentatifs des Facebookiens ?

L'interprétation que font de ces résultats les auteurs de la recherche a aussi provoqué des grincements de dents:

Nous avons établi de façon concluante qu’en moyenne, dans le contexte de Facebook, les choix individuels comptent davantage que les algorithmes.

Or, non seulement leur échantillon ne leur permet pas d'être aussi affirmatifs, mais en plus, ils ont en quelque sorte changé leurs propres règles du jeu en cours de route, s’insurge Zeynep Tufekci, de l’Université de Caroline du Nord : personne n’a jamais nié que les gens cliquaient sur des liens qui confortent leur propre opinion. La véritable réponse attendue d'une telle étude, c’est quel rôle joue, en surplus, l’algorithme de Facebook.

Sélectionner ses sources de nouvelles est un choix individuel qui existait longtemps avant Internet, un phénomène bien identifié, bien connu et bien étudié. Toutefois, le rôle de l’algorithme de Facebook dans ce processus est un problème nouveau —et important.

Le sociologue Christian Sandvig exprime ce dilemme autrement : «ceci pourrait s’inscrire dans l’histoire comme l’étude «c’est pas de notre faute». »

C’est aussi ce qu’allègue le sociologue et théoricien des médias sociaux Nathan Jurgenson.

Des usagers qui choisissent des nouvelles avec lesquelles ils sont en accord et l’algorithme de Facebook qui fournit à ces usagers ce avec quoi ils sont d’accord: ce n’est pas l’un ou l’autre, c’est une addition.

En bout de ligne, poursuit-il, tout ce travail consistant à séparer le travail de l’algorithme du travail de l’usager, donne une image contraire de ce qu’est vraiment un algorithme.

Les algorithmes sont faits pour capturer, analyser et réajuster des comportements individuels afin d’arriver à certaines fins. Un choix individuel est en partie le résultat de ce qu’un algorithme nous a enseigné, et l’algorithme lui-même est un code dynamique qui réagit aux choix individuels et change en fonction d’eux. Ni l’algorithme ni le choix individuel ne peuvent être compris sans l’autre.

Le bon côté de tout ce débat, réagit l’informaticienne Karrie Karahalios, de l’Université de l’Illinois, c’est son côté pédagogique. «Peu de gens sont conscients que leur expérience Facebook est altérée par des algorithmes, même si ce n’était que le modeste taux qu’ont découvert ces chercheurs.» Dans un monde idéal, résume-t-elle, la responsabilité de Facebook serait de faire comprendre à ses usagers que leurs clics et leurs «j’aime» ont des conséquences.

Je donne