cambridge.jpg (134.12 Ko)

De la sociologie à l’administration en passant par la santé, il se fait de la recherche universitaire légitime à partir des masses de données produites par les usagers de Facebook. De tels travaux deviendront-ils suspects, à présent qu’on sait que le scandale qui entoure Facebook a eu pour origine un travail qui était présenté comme une recherche en psychologie faite par un véritable chercheur employé dans une véritable université ?

Les universités, les chercheurs, les organismes subventionnaires, se dotent depuis longtemps de codes d’éthique destinés à protéger les participants à une recherche — et une des protections qui leur est offerte est que leurs données ne seront pas utilisées ailleurs sans leur autorisation. Or, c’est exactement cette promesse qui a été violée, non pas par Facebook, mais par le chercheur lui-même, Alexandr Kogan, de l’Université Cambridge, qui a transmis ces données sur 50 millions d’usagers à la firme Cambridge Analytica, qui a ensuite travaillé pour les campagnes de Donald Trump et du Brexit (la firme n’a aucun lien avec l’université du même nom). En entrevue cette semaine, Kogan se défend d’avoir agi illégalement et juge qu’il est un « bouc émissaire » dans cette affaire : « des milliers et peut-être des dizaines de milliers d’autres applications » faisaient exactement la même chose, grâce aux politiques laxistes de Facebook.

Reste que le statut de ce chercheur fait aussi partie du problème. Bien qu’employé comme professeur adjoint à l’Université Cambridge, c’est au nom de la compagnie qu’il a créée, Global Science Research, qu’il a effectué cette collecte de données. L’université peut-elle donc se dégager de toute responsabilité ? Plus tôt cette semaine, un porte-parole a confirmé qu’une enquête interne était en cours et que l’institution voulait vérifier auprès de Facebook si des « données, des ressources ou de l’équipement » de l’université avaient été utilisés dans cette histoire. Mais l’idée que le code d’éthique d’un chercheur ne s’applique plus au moment où il travaille à l’extérieur de son université serait en contradiction avec les politiques des universités elles-mêmes, qui encouragent depuis les années 1980 leurs chercheurs à créer des partenariats avec l’industrie, voire à se transformer eux-mêmes en entrepreneurs.

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Le problème, note William Dutton, de l’Université du Michigan, qui a lui-même mené plusieurs recherches sur les comportements des internautes, risque de toucher beaucoup d’autres chercheurs. Parmi les exemples des dernières années, qui auraient été impossibles sans l’accès à ces nouvelles masses de données générées par les usagers : peut-on prédire une épidémie de grippe quelques heures ou quelques jours à l’avance grâce aux recherches Google ? Peut-on reconstituer la façon dont une marche citoyenne s’est organisée grâce aux réseaux numériques ? Ou bien les chemins par lesquels une fausse nouvelle s’est répandue ? Il y avait aussi cette recherche qui, en 2014, avait généré une certaine controverse, et qui prend une nouvelle signification avec les événements de cette semaine : la possibilité de changer l’humeur d’une personne à partir d’un simple changement dans l’algorithme de Facebook. Si elles veulent poursuivre sur cette voie, écrit Dutton, les universités ont un examen de conscience à faire : « je peux attester que les membres des comités ne comprennent généralement pas comment Internet a transformé la façon dont les données sont créées, rassemblées, analysées et partagées ».

En attendant, les géants de l’Internet sont eux aussi devant un dilemme. Alors que ces événements pourraient pousser les gouvernements à imposer des balises légales à ces compagnies, celles-ci pourraient décider tout simplement de cesser de collaborer avec les universités, en attendant de savoir à quoi s’en tenir.

Je donne