Artificial_Intelligence.jpg

Le Sommet britannique sur les risques de l’intelligence artificielle (IA) a accouché d’une première: une « déclaration » signée par 28 pays, qui réaffirme les risques et les opportunités. Mais une question centrale est restée sans réponse: en dépit de la vitesse à laquelle cette technologie évolue, n’a-t-on pas simplement repoussé à plus tard toute forme de prise de décision?

« À cette vitesse, toute législation va avoir du mal à rattraper le développement de l’IA », a résumé le 2 novembre, dans une analyse, le journaliste Matthew Sparkes, spécialisé en technologies pour le magazine britannique New Scientist, un des rares à avoir eu accès au Sommet, mais sans même avoir la possibilité de rencontrer des délégués.

Tenu les 1er et 2 novembre à Bletchley Park, ce AI Safety Summit avait été promu par le premier ministre britannique Rishi Sunak, dans les semaines précédentes, comme ayant pour objectif de prendre position face aux graves risques sociaux que pose l’intelligence artificielle. C’est toutefois le même premier ministre qui, au début de la deuxième journée, a dit aux journalistes qu’il fallait éviter de faire des déclarations « alarmistes ».

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Le fait que la Déclaration de Bletchley ait été signée par la Chine, les États-Unis et l’Union européenne, en plus du Canada, du Japon, de l’Indonésie et d’une vingtaine d’autres pays, est en soi une percée pour ceux qui réclament depuis un an une forme ou l’autre de réglementation de la recherche sur l’IA. Mais le document ne va guère plus loin que de reconnaître l’existence de risques. Et promettre de tenir d’autres sommets pour les étudier.

Le Sommet est une opportunité pour prendre des photos, plutôt que pour générer un débat, jugeait —avant l’événement— le chercheur britannique en IA Mark Lee, de l’Université de Birmingham. « Nous voulons une perspective interdisciplinaire de l’IA avec des gens qui sont spécialisés en droit, en éthique, en technologie, plutôt que des gens très influents représentant des compagnies. »

Une lettre ouverte adressée au premier ministre Sunak et signée le 30 octobre par plus de 100 associations, dont des syndicats, avait reproché au Sommet un manque de représentativité « des communautés et des travailleurs les plus affectés par l’IA ».

Le magazine spécialisé The Next Web est plus cinglant avec son amorce: « Une Déclaration sur l’IA qui constitue une première mondiale, adoptée mercredi, n’aura aucun réel impact et a été immédiatement manipulée par les géants de la technologie, disent les critiques ».

Plus largement, une critique qui était émise avant le Sommet reste à l’ordre du jour: l’insistance sur les menaces existentielles très hypothétiques laisse dans l’ombre les menaces immédiates

La rédaction d’un rapport sur l’état de l’IA a été confiée au chercheur montréalais Yoshua Bengio: en théorie, il pourrait s’agir d’un premier pas vers un « GIEC de l’IA » —le GIEC étant cet organisme chargé de publier à intervalles réguliers un état de la situation dans la recherche sur le climat. Mais comme le souligne Le Monde, « la structure n’est pas très claire » puisque des initiatives similaires existent déjà. 

Quelles que soient les suites —d’autres sommets pourraient avoir lieu en Corée du Sud et en France d’ici un an— il est toutefois possible que les actions les plus significatives viennent d’ailleurs: le 30 octobre, le président des États-Unis, Joe Biden, signait un décret qui oblige les compagnies développant de l’IA à transmettre leurs résultats de tests de sécurité. C’est la première tentative de réglementation de l’IA dans ce pays, et elle arrive dans la foulée de la loi votée par le Parlement européen plus tôt cette année, qui exige que les systèmes comme ChatGPT se conforment à des exigences de transparence. 

Je donne