« Ces compagnies sont les plus puissants fournisseurs d’informations que le monde ait jamais connu, mais refusent de reconnaître leurs responsabilités pour leur rôle actif dans l’affaiblissement de la qualité de l’information qui atteint le public », résume le journaliste Alexis Madrigal dans une sévère critique publiée le 2 octobre par le magazine The Atlantic. Imaginez, demande-t-il, comment nous aurions réagi si c’était un journal qui avait commis pareille gaffe. Selon les excuses fournies par Google, le message du site complotiste 4Chan a été « pompé » par l’algorithme de Google News parce qu’il était récent et que peu d’autres textes mentionnaient la même (fausse) information sur un (faux) suspect de la tuerie. Chez Facebook, un groupe tout aussi peu crédible a eu droit — brièvement — aux honneurs de l’algorithme pour la seule raison qu’il était passé de 0 à 5000 abonnés dans les heures ayant suivi la tuerie.
« Les machines ont fait la preuve qu’elles ne sont pas taillées » pour gérer de telles situations, conclut Madrigal — et c’est d’autant plus grave qu’en psychologie, la recherche des dernières années a démontré qu’une nouvelle qui obtient pareille visibilité devient très difficile à effacer de l’esprit des gens, même lorsqu’ils apprennent qu’elle était fausse. Deux semaines plus tôt, ce sont des journalistes d’enquête qui avaient embarrassé la direction de Facebook, en démontrant qu’il était facile d’y acheter des publicités ciblant avec précision des abonnés antisémites.