Tribune dans Libération du 20 novembre
Par Bénédicte Jeannerod, directrice France d’Human Rights Watch , Anne-Sophie Simpere , coordinatrice en France de la Campagne Stop Killer Robots , François Warlop, ingénieur, administrateur de Sciences Citoyennes, membre de la campagne internationale Stop Killer Robots et Tony Fortin, chargé d’études à l’Observatoire des Armements.
Alors que mercredi se tient à Genève la réunion annuelle de la Convention sur certaines armes classiques (CCAC), la France ne peut que négocier un traité pour interdire ces machines.
Nous n’avons pas encore d’images de membres arrachés ou de civils traumatisés, couverts de sang et de poussière. Nous n’avons pas encore de témoignages de familles racontant comment leurs proches ont été tués sans sommation. Les futures victimes des robots tueurs n’ont pas encore été touchées, et c’est une chance. Il est encore possible de les protéger, et la France peut y contribuer de manière décisive en défendant l’ouverture de négociations pour un traité d’interdiction des armes entièrement autonomes. La réunion annuelle de la Convention sur certaines armes classiques (CCAC), qui s’ouvre mercredi à Genève, lui en donne l’occasion.
Les robots tueurs sont des systèmes d’armes qui ont la capacité de choisir et de tirer sur une cible sans contrôle humain suffisant. Des armes «moralement révoltantes», selon le Secrétaire général des Nations unies, Antonio Guterres, qui a appelé à leur interdiction lors du Forum de Paris sur la paix. Des milliers de scientifiques et d’experts refusent d’ores et déjà de participer à leur développement. Ils considèrent, à juste titre, que des algorithmes ne devraient pas se voir confier la décision de vie ou de mort sur un être humain. Accorder ce pouvoir à une machine revient à franchir une ligne rouge morale.
Les scientifiques rappellent aussi qu’aucun programme n’est capable de comprendre pleinement une situation de conflit et de s’y adapter, de distinguer les combattants des non-combattants, de prévoir l’inévitable imprévu sur un champ de bataille. Comment imaginer que des informaticiens basés à Paris puissent correctement programmer une machine pour aller tuer des humains dans un village afghan ou au fin fond du Sahel ?
Les robots tueurs seraient, par essence, incapables de respecter le droit international humanitaire, notamment les principes de distinction, de proportionnalité et de précaution que seules les capacités d’analyse humaines peuvent appliquer dans des situations de combat complexes et changeantes.
Des machines dotées de mitrailleuses
Des études montrent également que les logiciels tendent à exacerber les biais et préjugés des ingénieurs qui les conçoivent. On sait par exemple que les logiciels de reconnaissance faciale font bien plus d’erreurs dans l’identification des personnes ayant une peau foncée, moins représentées dans les ensembles de données utilisées pour concevoir les programmes. Les algorithmes n’ont pas non plus pas la capacité de s’adapter à ce qui sortirait de leur «norme», c’est-à-dire des données qui les constituent. Impossible de prévoir avec certitude la façon dont un robot se comporterait face à une personne handicapée dont les béquilles, par exemple, pourraient être prises pour une arme.
Les véhicules autonomes, développés pour des contextes connus, font déjà face à d’immenses difficultés. Dans le cas des robots tueurs, il s’agit d’autonomiser des machines dotées de mitrailleuses ou d’explosifs. Des appareils incapables de douter une fois qu’une suite de calculs les a amenés à prendre une décision. Certains soutiennent qu’il sera possible, à terme, de les faire progresser. Ils semblent oublier que dans ces phases de test, chaque erreur implique de tuer ou de blesser des humains. Accepter de prendre ce risque pour améliorer des programmes de guerre marquerait un recul de notre humanité, et une perspective terrifiante, immorale et dangereuse.
L’utilisation de robots tueurs pose par ailleurs un problème juridique majeur : qui sera responsable de leurs actes ? Le sujet du droit est l’être humain : on ne peut traduire une machine en justice. Il serait compliqué de mettre en cause le commandement militaire ou le programmeur, dont on ne peut exiger qu’ils prévoient toutes les actions du robot une fois celui-ci activé. En cas de crime, les victimes risqueraient donc d’être privées de tout recours.
Enfin, les armes entièrement autonomes représentent une menace pour la sécurité internationale. Une fois développés, les robots tueurs pourraient proliférer rapidement, et on n’ose imaginer le désastre en cas de piratage informatique ou de détournement.
Beaucoup d’Etats veulent négocier un traité
A plusieurs reprises, par le passé, la communauté internationale a su empêcher l’émergence de nouvelles armes ou interdire celles qui étaient reconnues comme inhumaines et inacceptables : armes chimiques, armes à sous-munitions, lasers aveuglants, armes incendiaires ou encore, mines antipersonnel. Dans chacun de ces cas, il a fallu un traité international. Seuls les traités permettent d’interdire un système d’armes, en établissant des règles contraignantes et claires pour les Etats, les industriels et les investisseurs.
Certes, adopter un traité d’interdiction n’est pas un processus facile. Cela implique d’âpres négociations sur les définitions et les champs d’application concernés et nécessite des mécanismes de contrôle pour en assurer le suivi. Mais c’est possible, et même indispensable et urgent. Car une fois ces armes développées, il deviendra très difficile de contenir leur développement et leur prolifération.
Il y a des raisons d’être optimistes. La campagne contre les robots tueurs, lancée il y a seulement cinq ans par Human Rights Watch et une douzaine d’autres organisations, rassemble maintenant 86 ONG dans 49 pays. Aujourd’hui, une majorité d’Etats veut négocier un traité et vingt-six ont déjà demandé cette interdiction. Seule une poignée d’Etats, très minoritaires, y est opposée.
La France doit se placer du côté de ceux qui se seront battus pour le traité d’interdiction des robots tueurs. Le président Macron s’est déclaré «catégoriquement opposé» à leur développement et la ministre des Armées, Florence Parly, a affirmé que la France ne les laissera pas émerger. Ces déclarations sont importantes mais insuffisantes et la France doit maintenant agir.
«Au service de la paix»
Donner à la CCAC un mandat pour négocier un traité sur les armes autonomes est une première étape essentielle à côté de laquelle le gouvernement français ne doit pas passer, s’il est réellement déterminé, selon les mots du président Macron à «tracer […] la voie d’actions concrètes au service de la paix».
Pour empêcher le développement et la prolifération des robots tueurs, la France n’a pas le choix : elle doit d’urgence passer des paroles aux actes. Elle doit agir sans attendre les images des premières victimes des robots tueurs, et prévenir des désastres qui peuvent encore être évités.
La campagne Stop Killer Robots réunit 85 ONG dans 48 pays et plaide pour un traité d’interdiction préventive des systèmes d’armement entièrement autonomes.