YouTube-Ecran

Alors que les vidéos « deepfake » gagnent en qualité pratiquement de mois en mois, les technologies pour les détecter s’améliorent elles aussi. Mais les vraies menaces ne pourront pas être vaincues par la technologie.

Le mot « deepfake » ou hypertrucage s’est imposé pour désigner une catégorie très pointue de vidéos: celle où on surimpose sur la tête d’une personne en train de parler des propos qu’elle n’a jamais tenus, d’une façon qui, au premier coup d’oeil, semble réaliste. La technologie est encore très imparfaite: un algorithme peut facilement détecter les coupures au montage et les propos saccadés qui en sont deux caractéristiques.  

Mais même lorsque la technologie sera moins rudimentaire, les vrais problèmes ne seront pas là où on pense. Dans un récent rapport sur le sujet, le professeur d’informatique Britt Paris, de l’Université Rutgers, énumère trois menaces qui ne dépendent pas de l’informatique, mais de la politique et de la psychologie —le fameux biais de confirmation.

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Menace no 1: ce n’est pas la technologie qui décide de partager une fausseté

L’auteur donne en exemple la vidéo —fausse— qui, plus tôt cette année, montrait soi-disant l’élue américaine Nancy Pelosi en état d’ébriété. Ce n’était pas un deepfake, mais une vidéo dont la vitesse avait simplement été ralentie. C’était facile à détecter, même à l’oeil nu. Mais ceux qui voulaient y croire y ont cru. Outre cela, des modérateurs payés par Facebook auraient eu la capacité d’en limiter considérablement la diffusion: ça n’a pas été fait.

Menace no 2: les personnes marginalisées sont davantage à risque que les élections

Même la meilleure technologie de détection des faux ne pourra pas aider les gens qui auront le plus besoin d’aide: les groupes visés par la haine, par les attaques racistes et sexistes et par les trolls. Et là encore, ceux qui veulent croire aux fausses informations sur ces groupes les partageront, indépendamment de leur qualité technique. « L’histoire a montré qu’une nouvelle technologie est utilisée contre les groupes marginalisés avant de devenir une menace générale », résume Britt Paris, qui donne en exemple certains des premiers usages de ce qui ne s’appelait pas encore Photoshop, il y a près de 30 ans: placer des têtes de femmes sur des corps d’actrices de films porno. 

Comme quoi l’histoire se répète: justement cette semaine, on apprenait que, selon un recensement de 15 000 vidéos « deepfake » effectué par une firme néerlandaise de cybersécurité, plus de 90% étaient pornographiques.  Et les cinq plus populaires sur les sites spécialisés dans ces vidéos ciblaient systématiquement des femmes. 

Menace no 3: les lois sont toujours en retard

Même si des victimes déposent une plainte, la loi a quelques longueurs de retard sur la technologie. Partager les données privées de quelqu’un est illégal; mais concevoir une vidéo fausse ou trompeuse qui fait dire à quelqu’un quelque chose qu’il n’a pas dit ne l’est pas, tant que ça ne tombe pas dans la diffamation. Le Texas a récemment voté une loi contre les deepfake, et la Californie est sur le point d’avoir aussi la sienne. Ces lois visent notamment à obliger les compagnies à intégrer de meilleurs outils de détection sur leurs plateformes.

Je donne