Pourquoi la France doit s’opposer aux robots tueurs

Par
mercredi 7 novembre 2018

Miniature

Synthèse du rapport de Human Rights Watch et de Sciences Citoyennes avec la participation de l’Observatoire des armements

Les armes entièrement autonomes ou robots tueurs sont des systèmes qui, une fois activés, peuvent choisir et attaquer une cible sans contrôle humain. Si des systèmes entièrement autonomes n’ont pas encore été développés, compte tenu des avancées de la robotique et de l’intelligence artificielle, ils pourraient apparaître d’ici quelques années.

Depuis 2013, les Nations Unies se penchent sur la question, dans le cadre de la Convention sur certaines armes classiques (CCAC). Après six réunions sur le sujet, 26 Etats se sont prononcés pour une interdic- tion des robots tueurs, et une majorité est prête à négocier un traité. Seule une poignée de pays, dont la Russie et les Etats-Unis, résiste encore.

Autoriser un robot à tuer un humain représente une ligne rouge morale, une menace pour le droit inter- national et les droits humains, et un danger pour la sécurité internationale. La France doit donc soutenir l’adoption d’un traité international d’interdiction préventive des robots tueurs.

 

Les robots tueurs : un risque moral, juridique et pour la sécurité internationale

Déléguer à une machine ou à un algorithme la décision de vie ou de mort d’un humain représente une ligne rouge morale, incompatible avec la clause de Martens qui exige que les technologies émergentes soient jugées sur la base des « lois de l’humanité » et des « exigences de la conscience publique » lorsqu’elles ne sont pas déjà couvertes par les dispositions d’autres traités. Octroyer un choix de vie ou de mort sur un humain à une machine dépourvue de jugement moral et de compassion est contraire au principe d’humanité et aux exigences de la conscience publique.

Les systèmes d’armes autonomes ne peuvent pas respecter les grands principes du droit international humanitaire (DIH) et notamment les principes de proportionnalité, de distinction et de précaution. Le respect de ces principes requiert de comprendre pleinement et de s’adapter à des situations complexes et changeantes, ce qui nécessite la capacité d’analyse d’un cerveau humain, qu’aucune machine ne peut atteindre ni ne pourra atteindre dans un futur prévisible. En outre, l’usage de robots tueurs ne permettrait pas d’établir de responsabilité claire en cas de crime.

Il existe un risque élevé et systématique que ces robots tueurs s’attaquent aux mauvaises personnes : les programmes informatiques sont basés sur des données imparfaites et les robots n’auraient pas la capacité de douter ou de prendre conscience du risque d’erreur.

Les robots tueurs risquent de faciliter le déclenchement de conflits de grande ampleur. Ils exigeraient moins de moyens humains, abaissant considérablement le coût d’entrée en guerre. Les dégâts causés par les robots tueurs pourraient être d’une ampleur démesurée : les machines sont infatigables, elles ont la capacité d’agir à très grande échelle et à grande vitesse, et n’ont pas la faculté d’évaluer la moralité d’un ordre. Faciles à produire une fois que les programmes ont été conçus, les robots tueurs pourraient rapidement proliférer et finir entre les mains de nombreux Etats et groupes non-étatiques, dont certains violent déjà le DIH et les droits humains. Sans compter le risque de piratage par d’autres groupes ou Etats.

Enfin, au-delà des conflits armés, une fois développés, les robots tueurs pourraient être utilisés pour le maintien de l’ordre ou la fermeture des frontières. Là encore, ils se rendraient vraisemblablement coupables de violations des droits humains, sans réelle possibilité d’engager leur responsabilité.

 

Pourquoi il faut un traité pour interdire les robots tueurs

Compte tenu de la menace qu’ils représentent, il faut empêcher le développement des robots tueurs. Une simple déclaration politique ou le droit international humanitaire existant ne seront pas suffisants.

Un traité est le seul moyen de clari er les obligations des Etats. Un traité envoie un signal clair et stigmatise les armes visées, ce qui a un impact même sur les Etats qui ne sont pas signataires, ainsi que sur les industriels et les investisseurs. L’interdiction préventive d’un type d’armes n’est pas une nouveauté : le protocole IV de la CCAC a déjà interdit les lasers aveuglants à titre préventif. Par ailleurs, l’interdiction d’un type de technologie pour des armements (lasers aveuglants, armes chimiques…) n’a jamais entravé la recherche dans le secteur civil ou pour d’autres applications militaires.

Les traités d’interdiction sont ef caces. Les lasers aveuglants n’ont jamais été utilisés sur un champ de bataille. Le Traité d’Ottawa, qui interdit les mines antipersonnel, aura drastiquement diminué le nombre de victimes au cours des vingt dernières années.

Affirmer qu’un traité serait prématuré est une stratégie dilatoire, qui avait déjà été utilisée par les Etats opposés à l’interdiction des mines antipersonnel ou des armes à sous-munitions.

 

Un large mouvement en faveur d’une interdiction préventive des robots tueurs

De Stephen Hawking au cofondateur d’Apple Steve Wozniak, ils sont des milliers de scientifiques et d’experts de l’intelligence artificielle à sonner l’alerte, demander l’interdiction préventive des robots tueurs, et s’engager à ne pas contribuer à leur développement. En juin 2018, Google a adopté des lignes de conduite qui engagent l’entreprise à ne pas concevoir ou développer d’intelligence artificielle destinée à être utilisée dans des armes.

160 leaders religieux, 20 prix Nobel de la paix et des dizaines d’associations de défense des droits humains ont également demandé l’interdiction préventive des robots tueurs. Depuis son lancement en avril 2013, la Campagne contre les robots tueurs s’est développée et compte aujourd’hui 85 groupes dans 48 pays, dont Human Rights Watch, Amnesty International, Handicap International et Sciences Citoyennes.

Plusieurs rapports des Nations Unies recommandent l’adoption d’un texte juridique contraignant sur les systèmes d’armes létales autonomes, et le Secrétaire général des Nations Unis Antonio Guterres s’est engagé à soutenir les efforts des Etats dans ce sens.

Le Parlement européen a également adopté trois résolutions appelant à l’interdiction des robots tueurs et à l’adoption d’un traité. Les parlements islandais et belge ont voté des résolutions similaires, et plusieurs députés d’autres pays commencent à se pencher sur la question et à interpeler leurs gouvernements sur le sujet (Norvège, Finlande, Royaume-Uni, Suisse…)

 

Le trouble jeu de la France

Alors que le Président Emmanuel Macron s’est dit « catégoriquement opposé » au développement des robots tueurs et que la ministre des Armées Florence Parly affirme que « la France ne laisse pas émerger les robots tueurs », la France ne propose que l’adoption d’une déclaration politique au niveau des Nations Unies.

Cette position peu ambitieuse pourrait être expliquée par la tentation qu’auraient le ministère des Armées et des industriels de la défense de se lancer dans la course aux robots tueurs. De nombreux systèmes militaires français comportent déjà des éléments d’autonomie et les programmes de recherche en cours (Neuron, Furious ou Man-Machine Team) visent également à développer des systèmes de plus en plus autonomes.

 

Conclusion et recommandations

Le temps presse pour empêcher le développement des robots tueurs : la France doit dépasser ses contradictions et miser sur le respect des droits fondamentaux plutôt que sur des intérêts militaires de court terme ou la recherche de profit des industriels. Que ce soit pour l’interdiction des mines antiper sonnel ou des armes à sous munitions, la France a déjà su faire ce choix par le passé, et prendre des décisions ambitieuses en matière de désarmement.

Les gouvernements ne doivent pas attendre qu’on leur présente les premières victimes de ces nouvelles armes pour agir.

 

La campagne contre les robots tueurs appelle donc la France à :

  • S’engager à négocier sans délai un traité d’interdiction préventive juridiquement contraignant pour déterminer comment et où fixer les limites de l’autonomie future dans les systèmes d’armes ;
  • Préciser les contrôles humains nécessaires et requis dans le cadre des fonctions essentielles d’identification, de sélection et d’attaque de cibles, ainsi qu’au cours d’attaques individuelles ;
  • Adopter des politiques nationales et des législations pour empêcher le développement, la production, et l’utilisation d’armes entièrement autonomes.

 

Télécharger le rapport

 

La Campagne contre les robots tueurs est une coalition mondiale de 85 organisations dans 48 pays travaillant depuis avril 2013 pour interdire de manière préventive les systèmes d’armes létales autonomes, également connus sous le nom d’armes entièrement autonomes.

Plus d’information : www.stopkillerrobots.org