sh-57_3-big.jpg
- Par Charles-Étienne Daniel, Opinio juris Cette série de billets s'intéressera donc à l'arrivée de plus en plus marquée des drones au sein des sociétés et des impacts qu'ils soulèvent. Plus particulièrement, une attention sera accordée aux enjeux éthiques et juridiques. Second billet: regards sur l’utilisation de « robots autonomes létaux » militaires.

À l’instar de la plupart des applications technologiques récentes, les drones tirent leur origine du domaine militaire. Les touts premiers drones ayant été conçus pour exercer une surveillance aérienne, leur implication est de plus en plus sollicitée afin qu’ils agissent directement au coeur de l’action. C’est pourquoi on les a tranquillement équipés de dispositifs plus invasifs, voire létaux, tels des caméras infrarouges, des bombes et des missiles à autoguidage par laser (Hellfire).

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Ainsi, jusqu’à présent, les drones de type Predator, puis Reaper ont sillonné les cieux de manière télé-opérée et malgré leur impressionnant arsenal d’appoint, demeurent néanmoins soumis aux commandes de leur pilotes. Les prochains drones promettent d’être encore plus performants en terme d’autonomie de vol et de commandes. À titre d’exemple, la Grande-Bretagne et la France travaillent actuellement en consortium sur le projet Taranis (du même nom que le dieu celte du Tonnerre) depuis 2006 et près de 223,25 M$ ont été investis sur ce superdrone, capable d’effectuer des vols supersoniques intercontinentaux et d’échapper à tout radar. « Il » est capable d’engager « lui-même » le combat et peut choisir ses propres cibles, tout en ayant la capacité de « se » défendre seul en cas d’attaques. La décision finale demeure toutefois soumise à son opérateur (opération de type a man-in-the-loop). Les États-Unis travaillent également sur un même type de superdrone, le Grumman X-47B, capable d’effectuer des décollages, vols et atterrissages de manière entièrement autonome, élément ayant toujours été un peu problématique pour les opérateurs de drones.

Toutefois, certaines machines commencent tranquillement à être dotées d’un système automatique de reconnaissance au laser leur permettant de « choisir » leurs cibles et de faire feu, sans qu’un humain soit directement impliqué. C’est le cas des tourelles robotisées Techwin de Samsung, installées dans la zone démilitarisée séparant la Corée du Nord de celle du Sud.

On assiste donc tranquillement à une sophistication de ces engins de plus en plus autonomes, possédant une létalité certaine. Face à cette montée de l’utilisation des killer robots dans le domaine militaire, un débat oppose les deux camps. Les arguments des partisans de leur utilisation invoquent notamment que ces machines peuvent réduire les décès, sont plus promptes à réagir en cas d’extrême urgence. De même, n’ayant aucune émotion, elles n’ont peur de rien, ne sont pas assujetties à la colère et surtout, ne peuvent violer quiconque. Les atrocités commises en cas de conflits armés peuvent donc être certainement évités grâce à leur recours. De plus, il est possible que les machines, sans être soumises à une quelconque forme de nervosité, puisse s’approcher de cibles potentielles en tâchant de déterminer s’il s’agit d’un civil ou d’un combattant ennemi. Un humain dans les mêmes circonstances aurait très bien pu faire feu en ne voulant pas prendre de risques. À cet effet, le professeur Ronald C. Arkin essaie justement de développer des software au sein desquels un code d'éthique militaire leur serait inculqué.

Inversement, les opposants à l’utilisation des robots autonomes létaux (« RAL ») prétendent plutôt qu'un des problèmes majeurs relèverait de l'interprétation de cibles potentielles, ou non. Un enfant pointant un bout de bois vers le robot pourrait être pris comme cible, de même qu'un combattant ennemi qui dépose son arme en signe de soumission. À cet égard, un rapport remis le 2 mai dernier par le Rapporteur spécial de l'ONU Christof Heyns sonne l'alarme. En effet, le Rapporteur spécial met notamment en garde les États d'une dérogation du principe de discrimination prévu dans l'article 51 (5) b) du Protocole I additionnel à la Convention de Genève. Cet article prévoit justement la protection de la population civile et l'interdiction d'attaques sans discrimination, où les civils sont autant visés que les militaires. La question de l'interprétation contextuelle devient donc critique en ce genre d'évènements, dénote le rapport. La question de la responsabilisation d'un tel geste devient également problématique, en ce que l'auteur qui devra répondre d'un geste automatisé létal risque d'être difficilement identifiable. Est-ce le président ? Son Ministre de la Défense ? Ou bien est-ce le programmeur ? Mentionnons enfin que le risque que cette technologie tombe entre de mauvaises mains demeure préoccupant.

Compte tenu de l'absence de réelles machines de combat entièrement autonomes, plusieurs associations dont l'International Committe for Robot Arms Controls, l'ONU et l'Association Human Rights Watch invoquent l'imposition d'un moratoire complet sur leur développement. Leur absence sur les terrains de combat doit être saisi comme une opportunité, afin d'éviter une catastrophe que l'on regretterait plus tard.

Ces risques n'étant pas réellement avérés, il pourrait être intéressant d'invoquer ici le principe de précaution. Généralement invoqué dans un contexte d'incertitude scientifique, ce principe à vocation morale ou juridique interpelle les acteurs concernés afin qu'une prise de mesures effectives ne soit retardée ou empêchée à défaut d'une certitude scientifiques, lorsqu'il y a un risque de dommage grave et irréversible. Bien que la forme juridique de ce principe soit majoritairement employée dans les sphères sanitaires et environnementales, sa forme morale pourrait très bien servir d'argument supplémentaire aux opposants des killer robots.

Que l'on soit pour ou contre le développement de ces armes ultra-sophistiquées, la plupart semble néanmoins s'entendre sur le fait qu'une machine ne peut elle-même décider du sort d'un être vivant, alors qu'il est dans sa mire. Le débat se positionne donc plus dans les moyens à employer pour contrôler ce type de technologie, avec tous les impacts positifs et négatifs qu'ils engendrent. Toutefois, une chose semble sûre : il est grand temps d'ouvrir plus largement la discussion afin d'orienter la prise de décision qui s'ensuivra.

Je donne