SEI_149780351.png

Les fausses images générées par l’intelligence artificielle (IA) avaient à peine commencé à envahir les réseaux que, déjà, des « détecteurs d’IA » apparaissaient sur le marché. Sont-ils efficaces? Pas vraiment, à en juger par une petite série de tests effectuée par le New York Times.

Le pape avec un manteau blanc, Donald Trump en état d’arrestation… Certaines de ces images sont rapidement devenues virales. Et si personne ne s’est laissé tromper par la fausse image « historique » d’un Yéti géant, d’autres ont hésité : Elon Musk qui embrasse un robot au visage féminin, c’est vrai ou pas? (C’est une fausse image)

Dès le début de 2023, on avait constaté que les IA génératrices d’images étaient singulièrement mauvaises devant certains détails: les mains, les inscriptions, l’arrière-plan, etc. Par conséquent, une autre IA ne pourrait-elle pas facilement repérer les « défauts » qui trahissent une création d’IA? Des entrepreneurs ont flairé la bonne affaire, puisque des applications payantes comme Sensity, ou gratuites comme Maybe’s A.I. Art Detector, semblent déjà en train de se multiplier.

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Le test du New York Times a donc porté sur 5 de ces outils, en utilisant plus d’une centaine d’images, vraies et fausses. Résultat : ces outils ne sont pas mauvais, mais ils se trompent souvent. Ils peuvent tout autant qualifier d’authentique une image d’IA… qu’attribuer à une IA une vraie image !

Exemple troublant: une réplique par une IA d’une oeuvre de Jackson Pollock (1912-1956), peintre abstrait réputé pour ses jeux de couleurs, a été qualifiée d’authentique par 4 des 5 outils.

Au final, les astuces de base proposées aux humains, que nous avions énumérées ici, restent beaucoup plus utiles —pas pour discerner le vrai du faux, mais pour être en mesure d'émettre un gros doute: vérifier la source, chercher une deuxième source, faire une recherche d’image inversée... (détails ici)

C’est d’autant plus important, note l’équipe du Times, qu’à mesure que de telles fausses photos deviennent virales, elles sont partagées, coupées, voire modifiées, ce qui diminue les chances qu’un tel outil « détecte » la « signature » de l’IA.

Et selon les experts interrogés, quelles que soient les futures avancées de ces « détecteurs d’IA », les générateurs de fausses images auront toujours quelques longueurs d’avance. Pour le professeur de l’Université de Chicsgo, Chenhao Tan, « à court terme, il est possible que [ces outils] soient capables d’une certaine précision, mais à long terme, quoi que ce soit de spécial qu’un humain pourra faire avec des images, l’IA  sera aussi capable de le re-créer. »

Je donne