Alors que le Parlement européen a récemment adoptée une résolution visant à les interdire, certains voient les robots tueurs comme la troisième grande révolution dans le domaine de l’armement après la poudre à canon et les armes nucléaires. Pourra-t-on en empêcher l’essor ? 

Des systèmes d’armes autonomes et adaptables

En 2017, une vidéodystopique intitulée « Robots massacreurs », produite dans le cadre de la campagne « Ban lethal autonomous weapons » (en français, « bannissez les armes létales autonomes »), alertait sur les dangers liés au développement des armes autonomes ou « robots tueurs ». Les auteurs imaginaient une conférence se déroulant dans un futur proche, au cours de laquelle un industriel présentait des robots fonctionnant en autonomie complète et programmés de manière à donner la mort tout en éliminant les notions de risque et de hasard. S’ensuit une démonstration très réaliste des dérives potentielles d’une telle invention si elle se retrouvait aux mains de groupes terroristes, mais aussi d’un gouvernement tyrannique ou génocidaire.

Bien que cette vidéo adopte volontairement un ton angoissant et anticipe les dérives d’armes encore inexistantes, elle évoque une problématique devenue centrale pour la société civile et les pouvoirs publics. Le 12 septembre, en session plénière, le Parlement européen a ainsi adopté à une large majorité une résolution non contraignante visant à interdire les robots tueurs, ou « systèmes d’armes létales autonomes ». Les parlementaires se sont mis d’accord sur l’idée que ces systèmes d’armes remettaient en cause la notion normalement admise selon laquelle les humains devraient seuls être habilités à donner la mort. Les robots tueurs échappant en grande partie au contrôle humain, les parlementaires sont donc arrivés à la conclusion qu’une interdiction internationale de ces armements devrait être mise en place.

Afin d’y voir plus clairs, les législateurs ont tenté de préciser le terme de « robots tueurs », incluant par exemple des « missiles capables de sélectionner leurs cibles ou (des) machines d’apprentissage dotées de compétences cognitives permettant de décider qui attaquer, quand et à quel endroit. » En somme, il s’agit d’armes utilisant l’intelligence artificielle pour sélectionner et engager leurs cibles de manière complètement autonome. Dans une vidéo explicative, l’Agence France Presse va jusqu’à avancer que ces machines représentent la troisième grande révolution dans le domaine de l’armement après la poudre à canon et les armes nucléaires.

Ces robots tueurs sont donc à distinguer des systèmes d’armes automatiques, comme l’explique à Numerama Jean-Baptiste Jeangène Vilmer, directeur de l’Institut de recherche stratégique de l’Ecole Militaire et spécialiste de la question : « Il faut en effet distinguer les systèmes automatiques, préprogrammés pour accomplir des tâches spécifiques dans un environnement prédéfini et contrôlé, des systèmes autonomes, qui décident si et quand accomplir cette tâche dans un environnement changeant et imprévisible. Basés sur des règles, les premiers sont déterministes, donc prévisibles. […] Ils font telle action à tel signal, inéluctablement et régulièrement. »

Les robots tueurs sont donc avant tout imprévisibles, et capables de prendre des initiatives. Il est à noter, toutefois, que ces systèmes d’armes, dont LCI donne des exemples récents, en sont encore au stade du développement, et commencent tout juste à être présentés dans les salons d’armement.

Meilleurs que des soldats ?

Si spontanément beaucoup éprouvent des réticences en voyant des industriels se pencher sur la question des robots tueurs, ces derniers peuvent représenter un avantage sur et en dehors du champ de bataille. C’est du moins un argument développé dès 2015 dans Foreign Policy par la chercheuse Rosa Brooks. Elle estime en effet que les robots, parce qu’ils n’ont pas l’émotivité et l’imprévisibilité des humains, seraient bien plus efficaces et se conformeraient bien mieux au droit international sur les théâtres d’opération. Beaucoup d’erreurs d’appréciation pourraient être évitées si les systèmes d’armes létales autonomes prenaient la relève.

Par ailleurs Brooks balaie l’argument selon lequel les humains, parce qu’ils sont des êtres moraux, devraient être les seuls habilités à donner la mort. Elle prend de nombreux exemples tirés de l’histoire et s’appuie sur les chiffres actuels de la criminalité pour montrer qu’il est peu probable qu’un robot ait des comportements aussi sanguinaire et dénués de sens qu’un Homme. Selon Rosa Brooks, la crainte des robots tueurs est donc largement fantasmée, et imputable à la science-fiction qui génèrerait une « technophobie » sans réel fondement via des films comme Terminator.

Terminator.
Crédits : Wikimedia

En plus de fournir une amélioration en terme de sécurité et d’efficacité sur les champs de bataille, les robots tueurs ont d’autres avantages selon leurs défenseurs. Ces derniers mettent en avant les intérêts politiques et économiques de tels outils, comme l’explique Jean-Baptiste Jeangène Vilmer dans un article pour la revue Politique Etrangère.

Le premier avantage, qui est également mis en avant par plusieurs industriels, est politique : l’une des principales réticences des leaders politiques quand ils doivent décider d’une action militaire porte sur le coût humain de cette dernière. Avec des robots tueurs, le risque de provoquer la mort de soldats est annulé. Par ailleurs, en termes stratégiques et tactiques, les robots tueurs peuvent permettre de gagner en efficacité et en vitesse. Ils ne subissent pas la fatigue, ne perdent pas leur concentration, et une fois l’action engagée il n’y a plus de problème pour communiquer les ordres. Enfin, les robots tueurs présentent un avantage certain pour les décideurs : ils coûtent moins chers que des soldats, comme l’indique M. Jeangène Vilmer.

Un enjeu éthique et juridique, un risque sécuritaire

Toutefois de nombreux acteurs institutionnels et issus de la société civile s’inquiètent du développement des systèmes d’armes létales autonomes. Des chercheurs en intelligence artificielle et une ONG, rassemblés notamment au sein d’une campagne nommée Stop Killer Robots menée depuis avril 2013 à l’initiative de Human Rights Watch (HRW), sont particulièrement actifs. HRW estime que les robots tueurs représentent un problème juridique, puisque la question de l’attribution des morts et, éventuellement, des erreurs, n’est pas résolue. Qui serait responsable, aux yeux de la loi, d’un crime de guerre ? Le commandement militaire ? Les décideurs politiques ? L’industriel ayant conçu le système d’arme ?

Une action de la campagne Stop Killer Robots.
Crédits : Stop Killer Robots

En outre, HRW montre dans un rapport publié en août que les systèmes d’armes létales autonomes s’affranchissent d’une des clauses fondamentales du droit international humanitaire, la clause de Martens, qui stipule notamment que lorsqu’aucune disposition particulière n’encadre une action militaire, ce sont les « lois de l’humanité »  et les « exigences de la conscience publique » qui prévalent. Un dilemme moral émerge également non pas vis-à-vis du développement des robots tueurs, mais de leur engagement concret sur le terrain. Les robots sont peut-être plus sûrs ou efficaces, mais, sur un champ de bataille, tout n’est pas programmable et l’éthique du soldat entre en jeu en tant que « cadre fondamental pour l’action », explique le colonel Goya, rédacteur du blog La voie de l’épée.

En termes purement sécuritaires, ces robots tueurs présentent des risques pour l’humanité. Comme avec les armes nucléaires, si rien n’est fait pour endiguer le développement des robots tueurs, une réelle course à l’armement autonome risquerait de se mettre en place, compliquant plus encore l’implémentation d’une future législation. La Chine, les Etats-Unis, la France ou Israël, pour n’en citer que quelques-uns, travaillent déjà au développement de ces systèmes d’armes. Par ailleurs, comme le signale le chercheur Cyrille Dalmont dans une tribune pour Le Figaro, « toute machine, toute Intelligence Artificielle, tout robot est piratable, «hackable» ». En plus de proliférer, ces robots pourraient donc tomber dans de mauvaises mains et éventuellement se retourner contre leurs « créateurs ».

Black Hornet, un véhicule aérien sans pilote (UAV) nano hélicoptère, développé par Prox Dynamics AS.
Crédits : Wikimedia

Une lutte politique

Si l’ONU s’est donc naturellement saisie du dossier, en créant un groupe d’experts gouvernementaux sur la question des systèmes d’armes létales autonomes, aucune mesure contraignante n’a encore été mise en place. Présidé par Amandeep Gill, ce groupement rassemblant les 125 États signataires de la Convention sur les Armes Conventionnelles tente de concilier les points de vue de différents États, experts et ONG, mais pour l’instant sans réel succès, comme il l’explique à The VergeEn effet, plusieurs États s’opposent à l’interdiction de ces armes, à l’image de la Russie, des États-Unis, de l’Australie, d’Israël et de la Corée du Sud, qui ont tous les cinq bloqué la mise en place d’un traité empêchant la prolifération des robots tueurs début septembre. Ces pays ont la particularité d’avoir des entreprises en pointe dans ce domaine, que l’on pense à Boston Dynamics aux États-Unis ou Samsung en Corée du Sud. Comme le rapporte Futura Science, la France et l’Allemagne sont pour leur part à mi-chemin, puisqu’elles proposent de garder un contrôle humain sur ces armes sans pour autant se déclarer favorables à l’instauration d’un traité les interdisant.

Face à ces pays, d’autres ont appelé à une interdiction totale des systèmes d’armes létales autonomes, comme le rapporte Libération. En Europe, seule l’Autriche s’est jointe à ce mouvement, qui compte également parmi ses têtes de file la Chine. Ces pays sont soutenus par des grands noms du monde de la technologie, notamment Elon Musk, qui avait indiqué en 2017 que l’intelligence artificielle présentait un plus gros risque pour le monde que la Corée du Nord, ou les fondateurs de DeepMind, la filiale de Google se consacrant à l’intelligence artificielle. Ceux-ci, dans un appel, insistent sur les enjeux moraux et les risques causés par ces armes. Mais ces partisans de l’abolition sont aujourd’hui déçus par le peu de progrès réalisé par l’ONU pour interdire les robots tueurs, pour les raisons évoquées précédemment.

L’enjeu est donc aujourd’hui de savoir qui des développeurs de systèmes d’armes létales autonomes ou des ONG prônant leur abolition l’emportera. Si les robots tueurs offrent des avantages économiques, stratégiques et politiques indéniables, ils posent aussi des problèmes éthiques, juridiques et sécuritaires conséquents. Les divers groupes de travail et réflexions d’experts semblent aujourd’hui tendre vers une limitation, ou tout au moins un encadrement du potentiel offensif de ces armes, mais aucun texte ne fixe pour l’instant cela dans le marbre.

Spot, le dernier des robots conçus par Boston Dynamics, est particulièrement agile et robuste.
Crédits : Boston Dynamics

Auteur : Côme Allard de Grandmaison