Robots-tueurs, jusqu'où doit aller la recherche ? La question des armes autonomes (intelligence artificielle) | Sciences Citoyennes

Robots-tueurs, jusqu’où doit aller la recherche ? La question des armes autonomes (intelligence artificielle)

Par
lundi 17 août 2015

Miniature

Une lettre ouverte a été publiée le 28 Juillet dernier, lors d’une Conférence Internationale sur l’Intelligence artificielle (IJCAI 2015). Elle est signée par plus d’un millier de personnalités scientifiques, dont l’astrophysicien Stephen Hawking, le cofondateur d’Apple Steve Wozniak ou encore le linguiste Noam Chomsky et réclame l’arrêt de la recherche sur des armes dotées d’intelligence artificielle. Voici ci-dessous une traduction du texte.

« Les armes autonomes peuvent sélectionner et attaquer des cibles, sans intervention humaine. Cela peut inclure, par exemple, la recherche et l’élimination de personnes répondant à certains critères, mais ne correspond pas aux missiles ou drones pour lesquels l’intervention humaine est nécessaire.

Aujourd’hui, les technologies d’intelligence artificielle (IA) ont atteint un tel stade de développement qu’il parait complètement possible que ces armes autonomes soient déployées dans quelques années, et non pas dans quelques décennies. Les enjeux sont colossaux : les armes autonomes ont été décrits comme la troisième révolution dans l’art de la guerre, après la poudre à canons et les armes nucléaires.

De nombreux arguments sont échangés en faveur ou contre ces armes autonomes, Ainsi, par exemple, le remplacement de soldats humains par des machines peut permettre de réduire les victimes, mais cela induit également l’abaissement du seuil avant de partir en guerre. La question clef à ce jour pour l’humanité est la suivante : souhaite-on démarrer une course aux armes dotées d’IA ou empêcher ce développement ?

Si une seule des puissances militaires part dans cette direction, alors la course aux robots tueurs parait inévitable et le point final de cette quête technologique est évident : les armes autonomes seront les Kalashnikovs de demain. Contrairement aux armes nucléaires, celles-ci ne demandent aucune matière première coûteuse ou difficile à obtenir. Ainsi ces armes autonomes seront-elles faciles à produire et à répandre par n’importe quelles puissances militaires. Leur apparition sur le marché noir ou entre les mains de terroristes, de dictateurs désirant contrôler leur population, de seigneurs de guerre souhaitant mener un nettoyage ethnique, etc. ne sera alors qu’une question de temps.

Les armes autonomes sont idéales pour des activités comme des assassinats, la soumission des populations, la déstabilisation d’une nation ou le meurtre sélectif (ethnique) d’une partie de la population. Ainsi, nous pensons qu’une course aux armes dotées d’IA ne serait pas bénéfique pour l’humanité. Il existe bien des moyens par lesquels l’intelligence artificielle peut permettre de rendre le champ de bataille plus sûr pour les humains, en particulier les civils, sans pour autant créer de nouveaux outils destinés à tuer des gens.

De la même manière que la plupart des chimistes et biologistes ne voient aucun intérêt dans le développement d’armes chimiques ou biologiques, la plupart des chercheurs en intelligence artificielle n’ont pas d’intérêt à construire des armes dotées d’IA et ne veulent pas que d’autres ternissent leur champ de recherche en le faisant. La répercussion pourrait potentiellement être un rejet massif de l’intelligence artificiel par le public, ce qui entraverait ses applications positives pour la société.
Ainsi, les chimistes et les biologistes ont largement soutenu les accords internationaux en faveur de l’interdiction des armes chimiques et biologiques, la plupart des physiciens ayant quant à eux soutenu les traités interdisant les armes nucléaires spatiales et les armes laser aveuglantes.

En résumé, nous pensons que l’intelligence artificielle a un grand potentiel pour le bénéfice de l’humanité et que c’est dans ce sens qu’il faut oeuvrer. Démarrer une course aux armes dotées d’IA serait une mauvaise idée et cela doit être empêché par une interdiction de toutes armes autonomes offensives dépourvues de contrôle humain suffisant. »

Voir ici pour la liste des signataires et le texte original : http://futureoflife.org/AI/open_letter_autonomous_weapons