L'Europe partagée sur les robots tueurs

Manifestation àLondres de la campagne contre les robots tueurs, initiée par Human Rights Watch. ©AFP

La communauté internationale planche sur le sort à réserver aux armes autonomes. Alors que les experts gouvernementaux se retrouvent la semaine prochaine à Genève, l’Union européenne n’a pas de position commune.

Alors que la robotisation et l’intelligence artificielle sont les coqueluches des foires aux armements, les appels se multiplient pour une interdiction préventive des "robots tueurs". Après les lettres ouvertes lancées en ce sens par des prix Nobel de la paix et certains des plus éminents chercheurs en intelligence artificielle, l’organisation Human Rights Watch (HRW) publiait ce mardi, en tandem avec une équipe de Harvard, un rapport circonstancié dans lequel elle appelle les États à s’accorder pour négocier une interdiction du "développement, de la production et de l’utilisation" de ces systèmes d’armement.

Clause de Martens

Le document, coproduit avec l’International Human Rights Clinic de Harvard ("A Moral and Legal Imperative to Ban Killer Robots"), appuie son plaidoyer sur un argument juridique de droit international: les armes autonomes violeraient la "clause de Martens". Du nom du délégué russe à la conférence de La Haye de 1899 sur les lois et coutumes de la guerre, cette clause établit que, en l’absence de dispositions plus spécifiques prévues dans les traités, les populations et belligérants sont "sous la sauvegarde" des "lois de l’humanité et des exigences de la conscience publique". Les technologies émergentes doivent donc être jugées par ces principes – "humanité" et "conscience publique", argumente le rapport. La définition de ces principes généraux est malaisée, mais c’est sur cette base que les Nations unies avaient interdit préventivement, en 1995, l’utilisation de lasers comme armes destinées à provoquer une cécité définitive.

Pour la responsable des recherches sur les armes d’HRW Bonnie Docherty, "permettre le développement et l’utilisation de robots tueurs saperait les standards moraux et légaux en place". Si le principe selon lequel un humain devrait toujours être derrière la décision de faire ou non usage de la force létale est largement défendu par la communauté internationale, sa conversion en une règle de droit reste une gageure. Et tout le défi des partisans d’une interdiction pure et simple de ce type d’armes est de parvenir à leurs fins avant leur arrivée sur le marché et leur prolifération.

Pour l’heure, les armes capables de tuer indépendamment de toute intervention humaine ne sont pas disponibles, mais la perspective de voir se développer des quadrirotors armés programmés pour chercher et éliminer des personnes qui répondent à des critères prédéfinis n’appartient plus à la science-fiction. Dans son premier rapport sur le sujet paru en novembre dernier, l’Institut international de Stockholm de recherche sur la paix (Sipri) avait identifié au moins 381 systèmes autonomes développés à des fins de défense, dont 175 dans des systèmes d’armes. Et les spécialistes s’accordent pour dire que l’arrivée d’armes entièrement autonomes – cette "troisième révolution de la guerre" après l’invention de la poudre et de l’arme nucléaire – est une question d’années, pas de décennies.

Dans ce contexte, HRW plaide pour que la communauté internationale adopte un protocole interdisant les systèmes d’armes autonomes d’ici la fin 2019. Les experts d’une septantaine de gouvernements se réunissent à Genève la semaine prochaine dans le cadre de la Convention sur les armes conventionnelles des Nations unies (ONUG) pour parler des défis posés par l’émergence des armes pleinement autonomes (ou LAWS pour lethal autonomous weapons systems).

HRW demande aux États de profiter de l’opportunité pour adopter une position nationale claire pour permettre de lancer une négociation en vue de l’interdiction.

Pression parlementaire

À ce jour, seuls vingt-six pays, dont la Chine et le Brésil, se sont clairement positionnés en faveur d’une interdiction (ou de l’interdiction d’utilisation) de telles armes. En Europe, seule l’Autriche a pris position en ce sens. Contacté ce mardi, le SPF Affaires étrangères n’a pas pu nous donner la position précise de la Belgique. L’Allemagne et la France ont de leur côté adopté une position déclarative vague.

"Le Parlement recommande au Conseil (…) de développer et adopter instamment une position commune sur les systèmes d’armes autonomes, de parler d’une seule voix dans les forums pertinents et d’agir en conséquence."

À l’image, logiquement, de celle de l’Union européenne, qui "croit fermement que les humains devraient prendre les décisions qui concernent l’utilisation de force létale" mais ne plaide pas en faveur d’une interdiction formelle. Le 5 juillet, le Parlement européen avait adopté une résolution dans laquelle il appelait le Conseil (des États membres) à "développer et adopter urgemment une position commune" sur ces systèmes. Les services de la Haute représentante Federica Mogherini n’ont pas donné suite à notre demande de mise à jour sur le sujet.

En 2014, vingt prix Nobel de la Paix avaient signé une lettre ouverte réclamant l’interdiction préventive de ces robots tueurs. L’année suivante, des sommités de la recherche en intelligence artificielle et robotique avaient lancé le même appel. Sans résultat pour l’instant.

Lire également

Publicité
Publicité
Publicité
Publicité

Contenu sponsorisé

Partner content