chronique

Faut-il interdire ou réglementer les drones tueurs?

Thibault Verbiest

La loi dit très peu de choses sur l’usage des drones militaires et les textes existants n’envisagent que les drones pilotés par l’humain. Quelles seraient donc les règles applicables à l’usage de drones militaires autonomes ou " systèmes d’armes létales autonomes " (SALA) ?

©Jonas Roosens

Par Thibault VERBIEST
Avocat associé DS Avocats

Les drones tueurs sont aujourd’hui une réalité dans la plupart des grandes armées. L’opinion publique en a peur, les voyant comme les précurseurs de robots intelligents et totalement autonomes, prêts à s’affranchir du contrôle humain, à l’image d’un Terminator.

La loi dit très peu de choses sur l’usage des drones militaires et les textes existants n’envisagent que les drones pilotés par l’humain.
.
.

La loi dit très peu de choses sur l’usage des drones militaires et les textes existants n’envisagent que les drones pilotés par l’humain. Quelles seraient donc les règles applicables à l’usage de drones militaires autonomes ou "systèmes d’armes létales autonomes" (SALA)?

Sont visés ici de manière générale tous les robots qui pourraient prendre eux-mêmes la décision de tuer sur le champ de bataille ou à des fins de maintien de l’ordre. Le Rapporteur spécial de l’ONU les définit comme "des systèmes d’arme qui, une fois activé, permettent de sélectionner et de traiter des cibles sans intervention d’un opérateur humain".

Débat moral

Sur un plan moral, l’usage de drones tueurs soulève des critiques virulentes de ses détracteurs. Les reproches les plus courants sont les suivants:

- Un assassinat par un drone tueur serait contraire à la dignité humaine. Cet argument paraît toutefois faible. Dans quel cas tuer est-il conforme à la dignité humaine?

- Les drones tueurs seraient plus facilement rejetés par les populations. Cet argument ferait mouche. Des études ont en effet montré une acceptabilité bien moindre par les populations locales (notamment au Pakistan et en Afghanistan) dans le cas de décès causés par des drones, versus des pertes causées dans des combats "humains".

- Une guerre de drones, c’est un peu comme un jeu vidéo, menant à la déresponsabilisation des belligérants. C’est probablement l’argument le plus fort et qui doit faire réfléchir.

Débat juridique

La guerre n’est pas sans lois. Elle est codifiée, notamment la Convention de Genève et ses protocoles additionnels, ainsi que par le droit humanitaire coutumier.

Parmi les principes du droit de la guerre qui s’appliqueront à l’usage de drones tueurs: les principes de précaution, de distinction et de proportionnalité. En d’autres termes, les civils ne doivent pas être pris pour cibles d’attaques et les dommages doivent être limités dans toute la mesure du possible.

Une tentation dans ce débat est d’attendre de la machine qu’elle soit infaillible. Il est intéressant à cet égard de se référer au célèbre test d’Arkin (du nom du roboticien américain Ronald C. Arkin), une sorte d’adaptation du fameux test de Turing en matière d’intelligence artificielle.

Le comportement de la machine doit être en réalité indifférenciable du comportement humain dans un contexte donné.
.
.

Selon Arkin, l’infaillibilité du robot est un leurre. Le comportement de la machine doit être en réalité indifférenciable du comportement humain dans un contexte donné. Un robot satisfait aux exigences légales et morales, lorsque démonstration a été faite qu’il peut respecter le droit des conflits armés aussi bien ou mieux qu’un humain dans des circonstances similaires.

©REUTERS

Ce test pourrait alors mener à des conclusions étonnantes sur le plan juridique: si la machine s’avère plus fiable que l’homme, alors son usage devrait être obligatoire, au risque d’entraîner la responsabilité du belligérant qui s’est fondé sur l’humain, plus faillible…

Que pourrait-on proposer comme contours d’un régime de responsabilité du fait de l’usage d’une I.A. autonome dans un contexte militaire? Un tel régime devrait s’apparenter à des "garde-fous":

Seuls devraient être ciblés par la machine des « objectifs militaires par nature » au sens du droit de la guerre.
.
.

• Seuls devraient être ciblés par la machine des "objectifs militaires par nature" au sens du droit de la guerre.

• Certains contextes devraient être exclus car trop sujets à interprétation par la machine, et donc à erreur (ex: un milieu urbain)

Le "bénéfice du doute" devrait être programmé par défaut, et non désactivable.

• Devrait également être programmée la possibilité de désactiver à distance la fonction tir (veto power). Cette précaution est conforme à la règle 19 du droit international humanitaire coutumier: "faire tout ce qui est pratiquement possible pour annuler ou suspendre une attaque lorsqu’il apparaît que son objectif n’est pas militaire ou que l’on peut attendre qu’elle cause incidemment des pertes civiles".

Lire également

Echo Connect