Grand angle

La menace des robots tueurs

cou_03-18_ratnik_01.jpg

L’opinion publique se mobilise de plus en plus contre le développement des armes létales autonomes.

L'intelligence artificielle (IA) connaît de nombreuses applications dans la sécurité et le domaine militaire. Sur le terrain, elle facilite les manoeuvres et permet de sauver des vies en cas d'avaries. Elle accroît la performance des armées, en fournissant des alliés robots aux combattants. Selon certains experts, les armes létales automatiques (SALA) sont en train de créer la troisième révolution de la guerre, après la poudre à canon et l’arme nucléaire. On ne peut manquer de s'inquiéter du jour où seront opérationnelles des armées de robots capables de mener les hostilités de façon complètement autonome.

Vasily Sychev

De nombreuses entreprises, dans le monde entier, mènent d’importantes recherches scientifiques dans le domaine de l’intelligence artificielle (IA). Les résultats obtenus à ce jour sont excellents : l’IA a déjà appris à prédire le risque de développer un diabète au moyen d’une montre « intelligente » ou à distinguer, de par leur apparence, les nævus de certains types de cancers. Ce puissant outil, qui surpasse l’intelligence humaine par l’une de ses caractéristiques les plus importantes – la vitesse – intéresse également les militaires.

Grâce au développement des technologies informatiques, les systèmes de combat du futur deviendront plus autonomes que les systèmes actuels. D’une part, cette autonomisation constituera sans aucun doute une aide précieuse pour les combattants. D’autre part, elle apportera son lot de défis et de risques : course aux armements entre pays, absence de règles et de lois dans les zones de combat et irresponsabilité dans la prise de décisions. Aujourd’hui, de nombreux entrepreneurs, décideurs et scientifiques cherchent à interdire l’emploi de systèmes de combat autonomes, alors que les militaires assurent qu’au combat, la décision finale – tuer ou non – sera prise par un humain.

Nous voulons y croire mais, faut-il le rappeler, l’arme nucléaire – cette arme qui n’aurait jamais dû voir le jour et qui s’était heurtée, dès la phase embryonnaire de sa conception, à de nombreux opposants – a pourtant bel et bien été utilisée.

Un assistant virtuel

Comme dans toutes les autres sphères de l’activité humaine, l’IA peut grandement faciliter et accélérer le travail dans le domaine de la sécurité. Ainsi, des chercheurs de l’université de Grenade, en Espagne, développent actuellement un logiciel capable, à l’aide de réseaux neuronaux, de détecter presque instantanément et avec une très grande précision des armes légères –  pistolets, mitraillettes, mitrailleuses – sur des images vidéo. Les systèmes de sécurité modernes comprennent un grand nombre de caméras de surveillance, dont les opérateurs ne peuvent tout simplement pas visionner chaque image. L’IA est donc très utile pour analyser ces images, détecter la présence d’armes et en informer les agents dans un temps record.

Par ailleurs, le Centre de renseignement géospatial de l’université du Missouri, aux États-Unis, a développé un système d’IA capable de localiser rapidement et avec précision des dispositifs de missiles antiaériens sur des images satellitaires et aériennes. Sa capacité de recherche est jusqu’à 85 fois plus rapide que celle des experts humains. Pour former le réseau neuronal qui sous-tend ce système, on a utilisé des photos représentant différents types de missiles antiaériens. Une fois le système entraîné, on l’a testé sur un jeu de photos : en seulement 42 minutes, il a trouvé 90 % des  dispositifs de défense. Il a fallu à des experts 60 heures de travail pour résoudre le même problème, avec le même résultat.

Il existe également des applications plus complexes de l’IA. Le laboratoire de recherche de l’armée américaine, par exemple, développe un système informatique qui analyse la réaction humaine à une image donnée. Il sera utile aux analystes militaires, contraints de visionner et de systématiser des milliers de photos et des heures d’enregistrements vidéo. Le principe du système est le suivant : l’IA suit de près les yeux et le visage de la personne et met en parallèle ses expressions faciales avec les images que cette personne regarde. Si une image attire l’attention de la personne (cela signifie que l’expression de son visage ou la direction de son regard change), le logiciel la déplace automatiquement dans un dossier thématique. Ainsi, lors des essais, on a montré à un soldat un ensemble d’images divisées en cinq catégories principales : bateaux, pandas, fruits rouges, papillons et lustres. On lui a demandé de ne compter que les images de la catégorie qui l’intéressait. Les images défilaient au rythme d’une par seconde. L’IA en a « conclu » que le combattant était intéressé par la catégorie des bateaux et a copié ces images dans un dossier distinct.


Dessin initialement réalisé en vue d’une publication dans Crisis in Zefra, récit fictionnel de Karl Schroeder, interviewé dans ce même numéro du Courrier.

Sur le théâtre d’opérations

Mais l’IA peut aussi aider les militaires au combat. C’est ainsi qu’en Russie, on achève actuellement l’élaboration du chasseur de cinquième génération Su-57, qui pourra être mis en service d’ici à la fin de l’année. Le logiciel de l’ordinateur de bord de ce chasseur comporte des éléments d’IA. Ainsi, en vol, le chasseur analyse en permanence l’état de l’air, sa température, sa pression et de nombreux autres paramètres. Si le pilote essaye d’effectuer une manœuvre et si le système « estime » que cette action entraînera une chute, la commande du pilote sera ignorée. Lorsqu’un avion décroche en vrille, ce même système indique au pilote comment redresser le chasseur et en reprendre le contrôle.

Pendant ce temps, le Japon développe son propre chasseur de cinquième génération, dont le prototype, le X-2 Shinshin (« Âme » en japonais), a effectué son premier vol en avril 2016. Un vaste réseau de capteurs, qui analyseront l’état de chaque élément de l’avion et détermineront les dommages qu’il aura subis, permettra à celui-ci de « survivre ». Si, lors d’un combat, son aile ou son empennage est endommagé, son système de bord reconfigurera le contrôle de sorte que la maniabilité et la vitesse de l’avion restent pratiquement inchangées. L’ordinateur du chasseur japonais sera capable de prédire l’heure de la panne complète d’un élément endommagé, de sorte que le pilote pourra décider de poursuivre le combat ou de retourner à la base.

À ce titre, l’IA constitue une «  aubaine » – si tant est que l’on puisse utiliser ce terme pour des armes et des systèmes de combat. Un programme complexe capable de résoudre de manière optimale un problème particulier dix fois plus vite qu’un humain pourra non seulement faciliter le travail d’un avion de reconnaissance, d’un opérateur de drones ou d’un commandant de système de défense aérienne, mais aussi sauver des vies. Il pourra venir à la rescousse de personnes en détresse dans un sous-marin (extinction ponctuelle d’incendies dans les compartiments abandonnés par les humains), de pilotes d’avions ou de combattants de chars armés endommagés.

Robots-tueurs

Sa rapidité d’analyse et sa capacité d’apprentissage rendent l’IA attrayante pour les systèmes de combat. Les militaires, bien qu’ils ne l’admettent toujours pas, sont probablement déjà tentés de créer des systèmes de combat capables de fonctionner sur le champ de bataille de manière entièrement autonome, c’est-à-dire étant aptes à identifier une cible, ouvrir le feu sur celle-ci, se déplacer et choisir les trajectoires optimales leur permettant de se mettre à l’abri.

Il y a quelques années, les autorités militaires des États-Unis, de Russie, d’Allemagne, de Chine et de plusieurs autres pays ont annoncé que la création de systèmes de combat entièrement autonomes n’était pas leur objectif. Dans le même temps, les militaires ont noté que de tels systèmes seront vraisemblablement créés.

L’an dernier, le département américain de la Défense a achevé d’élaborer la « Troisième stratégie de compensation » (Third Offset Strategy) et commencé à la mettre en œuvre. Ce document implique, entre autres, le développement actif d’innovations techniques et leur utilisation dans les travaux militaires futurs.

Le 1er septembre 2017, le président russe, Vladimir Poutine, a déclaré, lors d’une conférence publique prononcée dans une école de Yaroslavl : « L’IA représente l’avenir non seulement de la Russie, mais de toute l’humanité. Elle offre des possibilités colossales, accompagnées de menaces difficilement prévisibles aujourd’hui. Ceux qui prendront la tête dans ce domaine dirigeront le monde », a-t-il déclaré, avant d’ajouter qu’il est « fortement indésirable que quelqu’un obtienne un monopole. Donc, si nous sommes les leaders dans ce domaine, nous partagerons ces technologies avec le monde entier ». Peut-on en déduire pour autant que nous ne sommes pas au début d’une nouvelle ère de course aux armements ?

Sur Terre, un nombre croissant de zones sont protégées de manière fiable par des systèmes antiaériens et antimissiles, surveillées par des systèmes satellitaires et sans pilote, et patrouillées par des navires et des avions. Dans l’esprit des militaires, seuls les systèmes de combat dotés d’IA pourront, en cas de guerre, pénétrer ces zones fermées et y opérer avec une certaine liberté.

Il existe déjà aujourd’hui des systèmes de combat capables de détecter et de classer leurs cibles, et de commander le tir de missiles antiaériens, comme par exemple les systèmes de missiles sol-air S-400 en Russie. Le système américain d’information Aegis, qui contrôle l’armement des navires de guerre, fonctionne de la même façon. Le long de la zone démilitarisée, à la frontière avec la République populaire démocratique de Corée, la République de Corée a posté plusieurs robots militaires SGR-A1 chargés de la surveillance. En mode automatique, ils sont capables d’ouvrir le feu sur l’ennemi, sans toutefois tirer sur les gens aux mains levées. Aucun de ces systèmes n’est utilisé par les militaires en mode automatique.

Les derniers progrès accomplis dans le développement de l’IA permettent de créer des systèmes de combat capables de se déplacer. Ainsi, aux États-Unis, on développe actuellement des ailiers sans pilote, qui voleront derrière des chasseurs pilotés par des humains, et viseront, sur ordre, des cibles aériennes ou terrestres. Le système de conduite de tir de la future version du char russe T-14, développé sur la base de la plate-forme universelle à chenilles Armata, sera capable de détecter les cibles de manière autonome et de les bombarder jusqu’à destruction complète. En parallèle, la Russie travaille sur une famille de robots à chenilles qui pourront participer au combat avec des soldats humains.

Pour les armées, tous ces systèmes sont appelés à remplir plusieurs fonctions de base, et en premier lieu celle d’accroître l’efficacité de destruction des cibles ennemies et de préserver la vie de leurs propres soldats. Dans le même temps, il n’existe pas encore de normes internationales ni de documents juridiques qui réglementeraient l’utilisation de systèmes de combat dotés d’IA dans une guerre. Ni les coutumes de la guerre, ni les Conventions de Genève ne décrivent les systèmes dotés d’IA qui peuvent être utilisés au combat et ceux qui ne le peuvent pas. Il n’existe pas non plus de législation internationale qui permettrait de déterminer les coupables de la défaillance d’un système autonome. Si un drone bombarde de manière autonome des civils, qui sera puni ? Son fabricant ? Le commandant de l’escadrille à laquelle il était affecté ? Le ministère de la Défense ? La chaîne de coupables potentiels est trop grande et, comme on le sait, lorsqu’il y a trop de coupables, personne n’est coupable.

En 2015, le Future of Life Institute a publié une lettre ouverte signée par plus de 16 000 personnes, alertant sur les menaces que ces systèmes de combat dotés d’IA font peser sur les civils, sur le risque d’une course aux armements et, au bout du compte, sur le danger d’une issue fatale pour l’humanité. Elle était signée, en particulier, par l’entrepreneur américain et fondateur de SpaceX et Tesla Elon Musk, l’astrophysicien britannique Stephen Hawking (1942-2018) et le philosophe américain Noam Chomsky. En août dernier, Elon Musk et une centaine de développeurs de systèmes de robotique et d’IA ont envoyé à l’ONU une pétition demandant l’interdiction totale du développement et des essais des armes offensives autonomes.

Ces experts estiment que la création d’armées de robots capables de mener de manière autonome des hostilités conduira inévitablement à l’émergence, chez leurs détenteurs, de sentiments de pouvoir absolu et d’impunité. En outre, lorsqu’un homme est en situation de conflit, il prend des décisions dans lesquelles interviennent, notamment, ses attitudes morales, sentiments et émotions. L’observation directe des souffrances d’autrui produit encore un effet dissuasif sur les soldats, même si, chez les militaires professionnels, la compassion et la sensibilité finissent par s’émousser. En cas d’introduction généralisée de systèmes de combat autonomes, dont les détachements ne pourront être conduits que du doigt sur l’écran d’une tablette depuis un autre continent, la guerre se transformera inévitablement en jeu, les victimes civiles et les soldats en chiffres sur l’écran.

Lire plus sur le sujet : 

L'ONU face aux SALA

Vasily Sychev

Expert en armement et journaliste, Vasily Sychev (Fédération de Russie) écrit essentiellement pour les journaux La Gazette russe, Expert, Lenta.ru et Le Courrier de l’industrie militaire. Il dirige également les rubriques « Armement » et « Aviation » dans le journal web de vulgarisation scientifique N+1.