L’intelligence artificielle (IA) prend de plus en plus de place dans la désinformation. Une recherche pilotée par des chercheurs de Google estime même que les fausses images créées par l’IA seraient déjà devenues aussi courantes que les images manipulées par des humains.
À lire également
Leur travail a consisté en une compilation de 136 000 contenus de vérification des faits produits entre 1995 et novembre 2023, dont la majorité après 2016. Les chercheurs notent une explosion des contenus viraux créés par l’IA à partir du printemps 2023. De plus, le fait que leur compilation s’arrête en novembre 2023, et qu’elle soit limitée aux contenus que les sites de « fact-checking » ont pris le temps de vérifier, pourrait signifier que le problème est encore plus gros.
Avant 2023, les images étaient depuis longtemps un vecteur important de désinformation, rappellent-ils, mais les vidéos sont devenues plus répandues en 2022, avec pour résultat qu’aujourd’hui, il n’est pas impossible que beaucoup d’images générées par l’IA se retrouvent tout simplement insérées dans des vidéos de désinformation, qui se partagent facilement sur les réseaux sociaux.
Abonnez-vous à notre infolettre!
Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!
Leur étude a été déposée le 21 mai sur la plateforme de prépublication ArXiv, ce qui veut dire qu’elle n’a pas encore été révisée par d'autres experts.
L’information pourrait avoir des répercussions sur la fiabilité des recherches effectuées par le moteur de recherche de Google (entre autres, les fausses images de célébrités). C’est d’ailleurs une raison pour laquelle la compagnie se penche sur le phénomène.
L’étude a été repérée par l’ancien directeur du réseau international des médias vérificateurs de faits, Alexios Mantzarlis, à travers son infolettre Faked Up, et il souligne à quel point cette « démocratisation » des outils générateurs de textes ou d’images pose un problème. « La question est de savoir à quelle vitesse nous pouvons nous adapter? Et ensuite, quels seront les mécanismes de protection que nous pourrons mettre en place? »
Pour l’instant, il est encore possible de détecter certaines des erreurs les plus grossières commises par des IA lorsqu’elles produisent des images : comme des mains à six doigts, des visages flous à l’arrière-plan ou des textes incompréhensibles. Mais encore faut-il pour cela regarder attentivement l’image en question, ou prendre le temps de s’interroger sur la fiabilité du compte qui a partagé cette image sur les réseaux sociaux.