
Les prédictions exagérées à propos des capacités de l’intelligence artificielle devraient être examinées avec davantage de rigueur, y compris dans les médias.
À lire également
C’est le commentaire que fait l’auteur britannique Philip Ball, à qui on doit plusieurs livres depuis 20 ans sur les interactions entre science et culture. Il donne en exemple Geoffrey Hinton, pionnier de l’IA chez Google qui, en 2016, avait déclaré que, grâce à l’IA, « les gens devraient maintenant cesser d’apprendre la radiologie ». Heureusement, ironise Ball dans ce texte d’opinion publié par le New Scientist, les étudiants en radiologie n’ont pas abandonné leurs études : parce qu’une décennie plus tard, on a encore besoin d’eux.
Mais on peut s’inquiéter du poids qu’aurait eu cette « prédiction » auprès du grand public —et des futurs étudiants— si Hinton l’avait avancée après être devenu co-lauréat du Nobel de physique, en 2024.
Abonnez-vous à notre infolettre!
Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!
Le vrai danger, rappelle Philip Ball, ce sont les experts qui croient à leurs propres prévisions exagérément enthousiastes. Ça peut être Dennis Hassabis, PDG de Google DeepMind et co-lauréat du Nobel de chimie 2024, qui affirmait en avril dernier qu’avec l’aide de l’IA, « la fin de toutes les maladies » était à l’horizon, « peut-être dans la prochaine décennie ». Parce qu’Hassabis est, tout comme Hinton, un véritable expert en IA, plusieurs de ses interlocuteurs auront manqué le réflexe de le remettre en question. Résultat, déplore Ball, la déclaration d’Hassabis s’est transformée « en une série sans fin de manchettes médiatiques sur une révolution dans le domaine pharmaceutique ».
Or, être un expert en IA ne veut pas dire qu’on est un expert en développement de médicaments. La même chose vaut pour Daniel Kokotajlo, chercheur en IA qui a quitté la compagnie OpenAI et a raconté en mai dernier que « nous avons surpris notre IA en train de mentir, et nous sommes pas mal sûrs qu’elle savait que ce qu’elle disait était faux ». Ce type de comparaison avec un comportement humain, qui revient souvent depuis deux ans, irrite profondément les véritables experts en intelligence humaine qui savent, eux, que celle-ci n’a rien à voir avec les capacités des machines.
Ce « langage anthropomorphique », résume Ball, montre que « Kokotajlo a perdu de vue » ce que ces outils sont vraiment, dans l’état actuel des technologies. « Je recommande que nous commencions à traiter ces déclarations de la même façon que nous traitons [celles de l’IA], en confrontant leur confiance superficielle avec du scepticisme, tant qu’elles n’auront pas été vérifiées avec des faits. »