Publicité
Publicité

Lavender, l'IA qui dirige les bombardements israéliens à Gaza

Une frappe israélienne sur la ville de Gaza, le 15 mars dernier. ©EPA

Depuis le début de l'offensive sur Gaza, l'armée israélienne a systématisé l'utilisation de logiciels d'intelligence artificielle pour cibler ses frappes contre le Hamas.

Depuis le début de l'offensive israélienne sur Gaza, environ 62% des maisons de l'enclave palestinienne ont été rasées et 84% des structures de santé ont été détruites ou endommagées, selon un rapport de l'ONU. Des destructions massives, largement imputables aux bombardements intensifs israéliens. Avec, derrière les commandes, des logiciels d'intelligence artificielle encore largement confidentiels.

"Ce n'est pas vraiment du ciblage, c'est une augmentation exponentielle du nombre de cibles."

Alain De Neve
Chercheur au Centre d'études de sécurité et de défense
Publicité

Ce mercredi, le site d’informations israélo-palestinien +972 révélait l'existence de Lavender, un logiciel développé par l'armée israélienne pour automatiser l'identification et l'élimination de potentiels combattants du Hamas. En novembre, un porte-parole militaire avait déjà dévoilé une autre IA, baptisée Habsora (Évangile, en hébreu), utilisée pour cibler les bâtiments qui seraient utilisés par les combattants islamistes.

Ces nouvelles technologies doivent permettre l'élimination précise de cibles à haute valeur stratégique, pour éviter un débordement du conflit. Pourtant, depuis le début de la guerre, 33.037 personnes sont mortes à Gaza, en majorité des femmes et des enfants tués sous les bombes, selon le ministère de la Santé du Hamas. "Ici ce n'est pas vraiment du ciblage, c'est une augmentation exponentielle du nombre de cibles", pointe Alain De Neve, chercheur au Centre d'études de sécurité et de défense. De quoi poser des questions sur l'usage militaire de l'IA.

37.000
Palestiniens
Selon le média +972, plus de 37.000 Palestiniens ont été identifiés par Lavender comme militants du Hamas et mis sur une kill list.

Comment l'armée utilise l'IA pour ses frappes?

Selon Alain De Neve, la logique de profilage israélienne est inspirée de celle menée par les États-Unis depuis les années 2000 dans leurs campagnes en Afghanistan et au Pakistan. La procédure "pattern of life" vise à analyser les habitudes de vie et les déplacements d'individus pour repérer les responsables de haut rang djihadistes et leurs réunions. "Ici, c'est à peu près la même chose, sauf que ce ne sont plus des humains, mais une IA qui analyse."

Cette automatisation s'explique par le nombre considérable de données collectées par les avions, satellites, et surtout drones aériens et terrestres de pointe de l'armée israélienne. Selon des sources citées par +972, le logiciel Lavender utilise ces données pour attribuer un score de 0 à 100 à chaque individu, indiquant la probabilité qu'il soit un militant ennemi. L'armée israélienne nie utiliser une telle IA, tout en précisant: "Les systèmes d'information ne sont que des outils pour les analystes dans le processus d'identification des cibles."

"Aucun analyste humain n'est capable de comprendre exactement ce qui, dans la boite noire de l'IA, va la conduire à déterminer une cible."

Alain De Neve
Chercheur au Centre d'études de sécurité et de défense

Qu'est-ce qui a changé depuis le 7 octobre?

Après l'attaque du 7 octobre, l'armée israélienne aurait décidé d'utiliser Lavender pour cibler tous les combattants du Hamas. Selon +972, plus de 37.000 Palestiniens auraient alors été identifiés comme militants et mis sur une kill list.

Deux semaines plus tard, constatant un degré d'erreur d'environ 10%, l'état-major aurait ordonné d'accélérer au maximum la vérification humaine de cette liste. Un soldat israélien témoigne sous couvert d'anonymat qu'il n'accordait que 20 secondes pour vérifier l'identité de chaque cible. "L'objectif est de raccourcir au maximum la boucle observation-orientation-décision-action dans un tempo opérationnel le plus réduit possible, afin de frapper vite et avec saturation", observe Alain De Neve.

De plus, l'armée israélienne aurait mis en place des systèmes automatiques, dont l'un serait baptisé "Where's Daddy" ("Où est papa?"), afin de frapper les cibles dans leurs domiciles familiaux. "Il est beaucoup plus facile de bombarder la maison d'une famille. Le système est conçu pour les rechercher dans ces situations", rapporte un autre agent israélien, sous couvert d'anonymat.

Le risque de victimes civiles est alors d'autant plus important que pour éliminer des membres subalternes du Hamas, l'armée israélienne privilégie des missiles non guidés, moins chers, mais plus destructeurs. "C'est une vision paroxystique du ciblage: lorsqu'on identifie des individus d'un niveau de responsabilité moindre, on utilise des bombes classiques", explique Alain De Neve.

Selon deux sources évoquées par +972, durant les premières semaines de la guerre, l'armée israélienne aurait autorisé des frappes menaçant jusqu'à 15 ou 20 civils par membre du Hamas ciblé, et jusqu'à cent civils pour un commandant. Celle-ci assure ne pas mener de frappes "lorsque les dommages collatéraux attendus de la frappe sont excessifs par rapport au gain militaire".

"Le droit est toujours en retard par rapport aux faits, notamment pour ce qui touche aux technologies militaires."

Alain De Neve
Chercheur au Centre d'études de sécurité et de défense

Quelles sont les implications éthiques de Lavender?

Pour Alain De Neve, cette enquête rend concrètes de lourdes questions éthiques posées par l'utilisation de l'intelligence artificielle. "Aucun analyste humain n'est capable de comprendre exactement ce qui, dans la boite noire de l'IA, va la conduire à déterminer une cible", explique-t-il. Selon lui, les soldats seraient même plus enclins à appliquer sans autre analyse les ordres donnés par un algorithme: "Il y a toujours un sentiment de malaise au niveau d'un état-major à ne pas suivre les recommandations d'un logiciel d'IA."

Pourtant, il rappelle que cette technologie ne reste qu'un outil au service des militaires, et que la responsabilité reste celle des politiques. "Le gouvernement dit que l'objectif est l'élimination totale du Hamas. On est plutôt en train de créer du ressentiment", estime Alain De Neve, qui évoque une "opération jusqu'au-boutiste".

Que dit le droit international?

"De ce qu'il ressort de l'enquête, ce sont tout à la fois des combattants et des non-combattants qui sont ciblés. Si c'est avéré, on est face à une violation très claire du droit de la guerre et du droit international humanitaire", insiste l'expert en questions militaires.

La question de l'intelligence artificielle vient-elle changer la donne? "Le contexte stratégique fait qu'on est en train de découvrir des problèmes en même temps qu'on doit les traiter, relève Alain De Neve. Le droit est toujours en retard par rapport aux faits, notamment pour ce qui touche aux technologies militaires."

Le problème soulevé par les armes autonomes est au centre de grandes négociations internationales, notamment lors de la Convention sur certaines armes classiques, qui se réunit chaque année à Genève. Lors d'une rencontre en novembre dernier, le président américain Joe Biden et son homologue chinois Xi Jinping ont cependant renoncé à signer une déclaration commune pour renoncer à l'utilisation de l'IA dans l'armement militaire. "Les États-Unis et la Chine ne sont pas très enclins à concevoir des limitations, pour ne pas restreindre les capacités de leur armée à opérer", souligne Alain De Neve.

Dossier | Guerre Israël-Hamas

Toute l'actualité sur la guerre entre le Hamas et Israël au Proche-Orient. Découvrez nos analyses et les dernières infos.

Publicité
Publicité
Publicité
Publicité
Publicité
Publicité