People take part in a demonstration as part of the campaign “Stop Killer Robots” organised by German NGO “Facing Finance” to ban what they call killer robots on March 21, 2019 in front of the Brandenburg Gate in Berlin. – The campaign to “Stop Killer Robots” is a global coalition of 82 international, regional, and NGOs in 35 countries that asks for a ban on lethal fully autonomous weapons. (Photo by Wolfgang Kumm / dpa / AFP) / Germany OUT

Du 25 mars au 29 mars, le Groupe d’experts gouvernementaux (GGE) sur les robots militaires autonomes, autrement appelés les « robots tueurs », s’est réuni pour la troisième année consécutive. Aussi bien les Etats-Unis que la France, la Chine, la Russie, l’Australie et d’autres pays se sont montrés clairement opposés à la mise en place d’un cadre juridiquement contraignant. Contrairement à d’autres acteurs comme le Costa Rica, la Belgique ou l’Autriche, comme le souligne la chaîne radio suisse RTN.

Nous avons interrogé à ce sujet Stephen Goose, responsable des questions liées à l’armement pour l’ONG Human Rights Watch, spécialiste de la question des « killer robots ».

Depuis le lancement mondial de la campagne pour arrêter les robots tueurs, à Londres le 23 avril 2013, les dangers de ces armes (également appelés SALA, Systèmes d’armes létaux autonomes) suscitent une inquiétude croissante. Sont-ils vraiment si dangereux ?

Les armes entièrement autonomes sont considérées comme la troisième révolution dans la guerre, après la poudre à canon et les armes nucléaires. Elles changeraient fondamentalement la nature de la guerre et pas au bénéfice de l’humanité. Le secrétaire général des Nations unies les considère comme l’une des trois menaces les plus importantes pour la planète, avec le réchauffement climatique et les armes nucléaires. Il les a également qualifiées de « moralement répugnantes » et de « politiquement inacceptables », tout en appelant à un nouveau droit international les interdisant de manière préventive. Si la campagne pour arrêter les robots tueurs a eu un tel succès, c’est parce que les gens sentent instinctivement que le développement de ces armes qui peuvent, sans contrôle humain, déterminer ce qu’il faut cibler et ce qu’il faut tuer, franchit une ligne rouge fondamentale morale et éthique.

À ce jour, près de 30 pays ont souscrit à l’appel en faveur d’une interdiction des armes pleinement autonomes. Des dizaines d’autres Etats insistent sur la nécessité de maintenir le contrôle humain sur l’usage de la force. Pensez-vous que la communauté internationale est suffisamment au courant de cette problématique ?

28 Etats ont explicitement appelé à un nouveau traité international interdisant les armes pleinement autonomes. Pratiquement toutes les nations disent qu’il faut un contrôle humain sur les décisions de cibler et de tuer. Plus de 120 pays ont approuvé le lancement de négociations internationales sur un cadre juridiquement contraignant prévoyant des interdictions et des restrictions pour les robots tueurs.

Dans votre communiqué du 2 avril vous écrivez qu’« une minorité d’États retarde leurs efforts pour interdire les robots tueurs». Vous dites qu’« une fois encore, un petit groupe de puissances militaires ont montré un manque d’ambition et l’absence totale d’urgence pour obtenir un résultat significatif dans les pourparlers diplomatiques à propos des robots tueurs »…

Les États-Unis, la Russie, Israël, la Corée du Sud, le Royaume-Uni et certains autres contrecarrent la grande majorité de ceux qui souhaitent entamer des négociations multinationales formelles, préoccupés par les nombreuses menaces posées par la perspective de robots tueurs.

Quelle est la position de la ministre française de la défense Florence Parly ?

La France a déclaré qu’il était prématuré d’avoir une nouvelle loi internationale contraignante sur les systèmes d’armes létales autonomes. Et qu’elle était une fervente défenseuse d’une déclaration politique non contraignante sur le plan juridique, ou de principes directeurs se concentrant sur le besoin d’une forme de contrôle humain. Cette demi-étape n’est pas suffisante, étant donné les progrès rapides de la technologie, et parce qu’elle entraînerait la mise au point par différents Etats de robots tueurs en fonction de leur propre concept de ce que doit être le contrôle humain (par exemple, la programmation avancée et les algorithmes).

[Notons que le ministère de la défense va largement investir dans l’Intelligence artificielle d’ici à 2025, cf plus bas]

Quel est l’état de la recherche sur les SALA ? Quand pensez-vous que ces systèmes seront introduits à grande échelle sur le champ de bataille ?

Des robots tueurs simples pourraient être mis en service dès demain. La question clé est de savoir quand des robots tueurs pourraient être développés dans le respect du droit international et dont les performances seraient conformes aux intentions des commandants militaires. Certains pensent que cela pourrait être une question d’années. D’autres ne pensent qu’ils ne seront jamais mis au point. La plupart des pays, y compris la Corée du Sud, maintiennent que des armes entièrement autonomes (qui peuvent prendre elles-mêmes des décisions de ciblage et de destruction) ne sont pas encore disponibles. Or le robot ROK Sentry a déjà une fonction de neutralisation humaine.

Les drones aériens et terrestres sont très bien connus et documentés. Quel est l’état de la recherche et du développement concernant les drones maritimes? Font-ils beaucoup de progrès ? En 2016, le navire autonome américain Sea Hunter a été bien couvert par les médias. Pensez-vous que des armes maritimes autonomes pourraient être déployées à grande échelle, comme des sous-marins autonomes, et pourraient provoquer des conflits ?

Des armes entièrement autonomes sont en cours de développement pour une utilisation dans l’eau, sous l’eau, sur terre, dans les cieux et dans l’espace. Beaucoup considèrent que les systèmes sous-marins autonomes émergeront en premier, à cause de l’absence de préoccupation concernant les pertes civiles. Mais les développements, quels qu’ils soient, dans les robots tueurs vont certainement déclencher une course aux armements, avec une prolifération rapide à travers le monde.

Pensez-vous qu’un traité interdisant les SALA est possible ? Et quand ? malgré les réticences des grandes puissances, notamment de la Chine, de la Russie et des États-Unis…

Lorsque nous avons lancé la campagne pour arrêter les robots tueurs, beaucoup ont dit que c’était une tâche impossible et que les robots tueurs constituaient un développement inévitable, basé sur les progrès de l’Intelligence artificielle. Nous pensons maintenant qu’une interdiction des robots tueurs est inévitable. Ce n’est qu’une question de temps.

La CCW (Convention sur certaines armes conventionnelles à l’ONU) devra suivre son cours sans effet durable à attendre cependant d’ici à la fin de l’année. C’est dans son cadre qu’ont lieu les réunions d’experts sur les SALA.

Un autre chemin devra être poursuivi, indépendamment des négociations de l’ONU, comme par exemple celui qui a conduit au traité interdisant les armes à sous munitions – à l’initiative de la Norvège et signé par 94 États à Oslo les 3 et 4 décembre 2008 -, ou dans le cadre de l’Assemblée générale de l’ONU comme le traité sur l’interdiction des armes nucléaires voté en juillet 2017.

Nous pensons qu’une interdiction peut être négociée et acceptée dans un délai de deux ans. Si les États-Unis et la Russie ne sont pas au début à la table des négociations, de nouvelles normes internationales et la stigmatisation contre de telles armes les empêcheront d’acquérir ou d’utiliser des robots tueurs.

Propos recueillis par Edouard Pflimlin

NB : 100 millions d’euros par an de 2019 à 2025 seront investis par le ministère de la défense pour l’Intelligence artificielle, sans compter les programmes d’armement irrigués par l’IA (Rafale, Scorpion, espace au combat naval collaboratif, etc.), a déclaré vendredi 5 avril Florence Parly.