Publicité

De la normativité à la normalisation des robots tueurs

Le Parlement européen a adopté une résolution sur les systèmes d’armes autonomes pour condamner le développement et l’utilisation de systèmes autonomes capables de tuer sans intervention humaine. ©EPA

La normalisation des systèmes d'armes létaux autonomes est un enjeu crucial inquiétant compte tenu de la forte opposition entre les partisans d’un moratoire sur ce type d’armement du futur et les opposants à toute forme d’interdiction à leur endroit.

Par Alain De Neve
Attaché de recherche à l’Institut royal supérieur de Défense

Ce sont plus de 70 pays qui se sont réunis à l’Office des Nations unies à Genève entre le 27 et le 31 août pour débattre du statut des systèmes d’armes létaux autonomes dans le cadre de la Convention sur certaines armes conventionnelles (CCAC). C’est la sixième fois depuis 2014 que de telles réunions ont rassemblé les représentants diplomatiques et les experts de plusieurs pays. Pourtant les avancées – pour peu que l’on s’accorde à reconnaître leur existence – sont rares et se limitent pour l’heure à l’identification des enjeux techniques, politiques, moraux, juridiques ou encore à la circonscription des différents concepts – souvent équivoques – véhiculés lors de ces discussions.

Un concept fuyant

L’une des principales difficultés rencontrées par les représentants des Etats, les négociateurs et délégués provenant des organisations non-gouvernementales (ONG) concernées réside précisément dans l’élaboration d’un cadre "normatif", destiné à s’appliquer à une technologie qui, pour l’heure, est purement et simplement inexistante. Le constat, que nul ne viendrait à nier, selon lequel de nombreux pays sont à l’œuvre pour le développement de systèmes d’armes létaux autonomes (SALA), ne constitue en rien une base solide pour l’élaboration de règles qui viendraient à s’appliquer à ceux-ci le moment venu.

Il sera difficile de déterminer le moment à partir duquel de tels systèmes seront considérés comme existants et déployés.
Alain De Neve

Et ce pour au moins deux raisons: la première est que l’élaboration d’une norme – surtout dans le domaine épineux qu’est celui du contrôle des armements – exige la maîtrise d’un ensemble des données techniques extrêmement précises sur les principes de conception et de mise en œuvre des armements. Or, la transmission d’information par les Etats à propos des percées techniques issues de leurs recherches est parcellaire.

La seconde raison est qu’il sera difficile de déterminer le moment à partir duquel de tels systèmes seront considérés comme existants et déployés. Envisager la définition a priori d’un cadre réglementaire, adapté à des technologies dont on ignore pour l’heure l’horizon d’émergence tant elles dépendent de facteurs fluctuants liés à l’avancement de la recherche et à la compétence des ingénieurs, relève de la pure gesticulation incantatoire. Le concept d’autonomie figure par ailleurs, on le sait, au cœur même des débats portant précisément sur la "réalité" de telles armes.

Or, il n’existe pas de définition univoque de ce que serait la caractéristique essentielle d’un SALA: son autonomie. L’autonomie est souvent approchée en termes de "degrés" et non comme un seuil à partir duquel un système d’armes serait considéré comme récipiendaire d’une capacité décisionnaire indépendante. Les débats qui se sont tenus à Genève à la fin du mois d’août ont d’ailleurs révélé les doutes exprimés par certains représentants sur l’utilité d’un exercice normatif destiné à réguler une réalité technique pour le moins fuyante.

Le concept d’autonomie figure au cœur même des débats portant précisément sur la "réalité" de telles armes.
Alain De Neve

En l’état actuel du développement technique, la perspective d’une arme susceptible de s’affranchir de toute forme de supervision humaine ne présente aucune utilité militaire. Au demeurant, supposer l’avènement futur de systèmes d’armes létaux autonomes dans les arsenaux de certaines nations reviendrait à vider le sens même des efforts normatifs actuellement engagés.

En effet, l’autonomie parfaite d’un SALA impliquerait que nous ayons à faire à une arme non seulement en mesure de s’assigner ou de modifier des objectifs sans validation humaine (perspective d’ores et déjà préoccupante) mais, qui plus est, capable de s’affranchir du cadre de règles qu’un homme ou qu’une instance humaine lui aurait confié. En d’autres termes, si le respect d’un dispositif normatif applicable aux SALA ne dépend pas uniquement de l’homme pour son respect et sa mise en œuvre, quelle serait la plus-value réelle d’un semblable dispositif sur le plan de la pratique stratégique? À moins d’appeler à la table des négociations un représentant… de la communauté des SALA.

Effets pervers

La mobilisation énergique des acteurs investis dans les négociations visant l’adaptation de la CCAC aux systèmes d’armes létaux autonomes pourrait, par ailleurs, générer des effets opposés à l’objectif recherché qui réside, rappelons-le, dans la limitation d’une éventuelle course aux armements entre nations disposant de la base industrielle et technologique requise pour la confection de ce type d’arme.

En l’état actuel du développement technique, la perspective d’une arme susceptible de s’affranchir de toute forme de supervision humaine ne présente aucune utilité militaire.
Alain De Neve

Une analogie intéressante pourrait être faite entre les négociations actuelles sur le CCAC et les positions des différents principaux protagonistes de ce que fut en son temps la Conférence navale de Londres de 1930 (et dont l’objectif était une réduction globale des forces navales des grandes puissances européennes). Plutôt que de parvenir à une diminution des niveaux de forces en présence (notamment en Méditerranée) et à une réduction des risques d’éclatement d’un affrontement (notamment entre la France, d’une part, et l’Allemagne et l’Italie, d’autre part), les pourparlers de la Conférence révélèrent l’intransigeance des positions de chacun des protagonistes et mirent en avant la nécessité pour les différents acteurs de parvenir à atteindre des niveaux de forces dont il serait difficile d’obtenir a posteriori la réduction.

Pas plus que ladite Conférence de Londres n’évita l’éclatement du second conflit mondial, les discussions autour des SALA n’empêcheront la recherche et technologie (pas seulement dans le domaine de la défense) de poursuivre son cours afin de doter des systèmes d’une autonomie croissante en matière décisionnaire et de redéfinition de missions. Ces négociations contribueront même – certes, involontairement – à inciter les acteurs industriels à accélérer les projets dans ce domaine, avant qu’un hypothétique dispositif normatif ne vienne contraindre les activités du secteur. En d’autres termes, l’enjeu pour la science appliquée et l’industrie sera de normaliser la technologie avant que celle-ci ne soit normée.

L’enjeu pour la science appliquée et l’industrie sera de normaliser la technologie avant que celle-ci ne soit normée.
Alain De Neve

Vers un pouvoir égalisateur de l’IA?

Cette perspective se révèle particulièrement inquiétante quand on sait l’opposition qui existe au sein des discussions de la CCAC entre les partisans d’un moratoire sur ce type d’armement du futur, d’une part, et les opposants à toute forme d’interdiction à leur endroit, d’autre part. Les États-Unis, Israël, l’Australie, la Russie et la Corée du Sud ont clairement manifesté leurs réticences à toute limitation ou tout bannissement des SALA.

Les États-Unis figurent parmi les pays les plus déterminés à faire avancer la science fondamentale et la technologie en matière d’IA combinée à des systèmes d’armes. Les principaux axes de recherche visent précisément à accroitre les capacités de perception, de traitement et de raisonnement des machines. Les SALA, et plus spécifiquement la militarisation de l’IA, forment d’ores et déjà le cœur de la course aux armements que se livrent les principales puissances militaires planétaires. Xi Jinping, le président chinois, n’avait-il pas lui-même déclaré qu’il espérait voir son pays devenir la première puissance militaire mondiale grâce à la maîtrise de l’IA?

Les États-Unis figurent parmi les pays les plus déterminés à faire avancer la science fondamentale et la technologie en matière d’IA combinée à des systèmes d’armes.
Alain De Neve

Tandis que les délégations nationales et les représentants des ONG aux Nations unies se félicitent que les discussions dans le cadre de la CCAC aient pu être reconduites, l’agence de recherche avancée du Département américain de la Défense – la Defense Advanced Research Project Agency (DARPA) – annonçait le 7 septembre dernier un investissement nouveau de 2 milliards de dollars en faveur du programme IA Next, un projet visant le développement de machines capables d’apprendre toutes seules lors de situations inédites et de s’adapter aux contingences évolutives.

Dans la même période, de l’autre côté de l’Atlantique, le Parlement européen adoptait le 12 septembre suivant une résolution sur les systèmes d’armes autonomes pour condamner le développement et l’utilisation de systèmes autonomes capables de tuer sans intervention humaine. On ne pouvait trouver meilleure illustration de l’opposition qui, demain, structurera les fragiles équilibres militaires de la planète au risque, peut-être, de verser ceux-ci dans une nouvelle ère d’incertitudes et de chaos d’une toute autre dimension.

Lire également

Publicité
Publicité
Publicité
Publicité

Messages sponsorisés

Messages sponsorisés