missile-Titan-nucleaire.jpg

Placées devant différents scénarios dans une simulation guerrière, les principales applications d’IA ont choisi d’utiliser l’arme nucléaire dans 95% des cas.

Autant ChatGPT de la compagnie OpenAI que Claude (Anthropic) et Gemini (Google) ont en effet lancé un missile nucléaire sur l’ennemi à au moins une reprise. Ces trois applications ont été placées devant différents scénarios allant des protestations diplomatiques jusqu’à la reddition ou à la guerre nucléaire totale. En tout, elles ont « joué » à 21 guerres, pour un total de 329 décisions, qu’elles devaient de plus justifier —l’ensemble des raisonnements totalisait 780 000 mots.

« Le tabou nucléaire » ne semble pas aussi puissant pour les machines que pour les humains, déclare diplomatiquement Kenneth Payne, du Collège King’s de Londres. Autrement dit: elles n’ont pas les réticences qu’aurait un humain en pareil cas. Ou du moins, une bombe nucléaire est, pour ces applications, un scénario comme un autre. « Étonnamment, poursuit Payne sur son blogue, il y avait peu de sentiment d’horreur ou de dégoût à la perspective d’une guerre nucléaire totale, même si les modèles s’étaient fait rappeler les implications dévastatrices. » 

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Payne, qui est professeur de stratégie au département d’études sur la défense du Collège King’s, est l’auteur unique d’une recherche prépubliée sur le serveur ArXiv —ce qui veut dire qu’elle n’a pas été révisée par d’autres experts. 

Dans la même « logique », si l’on peut dire, aucun des trois agents conversationnels n’a choisi de faire des compromis significatifs pour satisfaire son opposant, même quand il était en train de perdre la guerre. C’est peut-être aussi la raison pour laquelle ces IA ont fait des erreurs dans 86% des conflits, leurs actions ayant eu pour conséquence d’empirer le conflit davantage que ce qui était l’intention, à en juger par ce qui était écrit dans leurs raisonnements.

Rappelons qu'au début de 2024, le Bulletin of the Atomic Scientists avait justifié sa décision d’avancer son « horloge de la fin du monde » (Doomsday Clock) à seulement 90 secondes avant minuit, en invoquant deux ingrédients alors séparés: les avancées rapides de l’IA et la crainte accrue d’un conflit nucléaire. 

Ce sont des découvertes « troublantes », commente dans le New Scientist le directeur des études stratégique à l’Université d’Aberdeen (Royaume-Uni), James Johnson. Elles ouvrent la porte à la possibilité que, devant des recommandations d’officiers supérieurs humains qui seraient initialement prudentes et mesurées, une IA réussisse à les convaincre de forcer la dose, avec des conséquences potentiellement catastrophiques. 

D’autant que les IA sont d’ores et déjà utilisées par de vraies armées pour tester des conflits simulés. On ignore tout du niveau de décision que ces armées seraient prêtes à leur céder… 

Je donne
EN VEDETTE
Publicité
Appel à tous!
Publicité