L’expert québécois en intelligence artificielle Yoshua Bengio est devenu plus tôt cet automne la première personne à dépasser le million de citations dans l’engin de recherche Google Scholar.
À lire également
Bien que la valeur réelle des diverses formes d’index de citations fasse l’objet de débats depuis longtemps, il n’en demeure pas moins que ce seuil du million témoigne de la poussée de croissance extrêmement rapide de l’intelligence artificielle, et plus spécialement de l’apprentissage automatique (machine learning), domaine dont Bengio est un des pionniers. En fait, selon une compilation publiée par la revue Nature en avril dernier, sur les 10 articles scientifiques les plus cités depuis le début du 21e siècle, huit portaient sur l’apprentissage-machine.
Bengio est professeur au département d’informatique de l’Université de Montréal. Il a été récipiendaire depuis 10 ans de nombreux prix, dont le prix Turing en 2018, le plus prestigieux prix dans le domaine informatique, conjointement avec deux autres pionniers de l’IA, Geoffrey Hinton et Yann LeCun.
Abonnez-vous à notre infolettre!
Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!
Aucun des classements de chercheurs ne fait consensus. Web of Science, Scopus et OpenAlex calculent les portées des individus différemment et en arrivent généralement à des totaux inférieurs à ceux de Google Scholar. Une des raisons est que ce dernier ne calcule pas les citations que dans les revues scientifiques révisées par les pairs, mais aussi dans les livres et les études prépubliées.
Interrogé par Nature le 12 novembre sur son « premier million », Bengio a vanté Google Scholar en tant qu’outil, pour avoir « rendu beaucoup plus facile de faire des choses qui auraient autrement nécessité des efforts assidus ». Mais il minimise l’importance d’un décompte des citations comme le sien: y consacrer trop d’attention, dit-il, pourrait conduire un chercheur à « tenter de l’optimiser plutôt que de faire de la bonne science ».
En attendant, il préfère manifester son inquiétude quant aux menaces que fait peser l’IA sur l’humanité. Il préside depuis 2024 un groupe de plus d’une centaine d’experts de 30 pays qui a publié en janvier 2025 un rapport sur « la sécurité des IA avancées ». On y identifie trois zones de risques: mauvais fonctionnements des machines, usages malicieux —comme les deepfake et les cyber-attaques— et risques systémiques —comme la perte de moyens de subsistance.
Sa prise de conscience, lit-on dans un autre reportage que lui consacrait la revue britannique Nature le 12 novembre, serait survenue quelques semaines après l’arrivée sur le marché de ChatGPT. « Bien que j’aie été initialement heureux de voir que l’apprentissage profond avait finalement atteint ce stade, j’ai réalisé qu’en raison de la nature de ces systèmes, nous ne savions pas comment nous assurer qu’ils se comporteront de la façon dont nous le voudrions. »





