Les enjeux militaires derrière la course à l'intelligence artificielle

©Photo News

Une véritable course internationale est actuellement engagée en matière d'intelligence artificielle. Ce n'est pas un hasard si Google est sur le point de devenir le plus grand client de l'armée américaine.

Dans une interview accordée au journal "Le Monde", Mark Bishop, professeur d’informatique cognitive à l’Institut Goldsmith répondait aux inquiétudes de plusieurs personnalités sur les risques que pourrait faire peser l’émergence d’une intelligence artificielle (IA) qui deviendrait consciente d’elle-même et capable de se répliquer en dehors de tout contrôle humain.

Elon Musk, cofondateur de la société Space-X et l’astrophysicien Stephen Hawking mettaient en garde l’opinion publique et les décideurs sur le danger d’une IA susceptible d’éradiquer l’ensemble de l’humanité. Plus près de nous, et au-delà des débats sur le devenir des rapports homme-machine, les risques que font peser les recherches dans le domaine de l’IA se révèlent d’une nature quelque peu différente, mais dont les implications stratégiques ne sauraient être négligées.

Une véritable course internationale entre laboratoires, centres de recherche et programmes multinationaux est actuellement engagée, qui déterminera demain laquelle des puissances scientifiques et technologiques sera en mesure de développer une intelligence artificielle dont les capacités de calcul et de traitement équivaudraient ou surpasseraient celles du cerveau humain.

L’appétit sans limite de Google

Dans cette course, on soulignera certes les efforts consentis par les pouvoirs publics, à l’instar de ceux des Etats-Unis (au travers du projet "Brain" ou des diverses initiatives financées dans le cadre de l’agence de recherche des projets avancés du département américain de la défense, la Darpa) et de l’Union européenne (avec le Human Brain Project géré par l’École Polytechnique Fédérale de Lausanne).

Mais il y a aussi – et surtout – les investissements considérables de groupes privés, sur le modèle de Google, qui ont l’avantage d’échapper aux querelles politiques, aux guerres intestines d’écoles de pensée et aux dilemmes d’ordre moral sur les conséquences sociales des recherches conduites en leur sein.

L’ambition de Google n’est autre que de mettre au point un réseau neuronal global qui, associé à la somme quasi infinie des données récoltées auprès de l’ensemble des utilisateurs d’Internet à travers la planète, donnerait naissance à la plus gigantesque entreprise de renseignement jamais créée.

La course à l’intelligence artificielle est, sans nul doute, devenue la voie par laquelle nombre de consortiums privés tentent d’investir un domaine applicatif devenu essentiel pour les organisations militaires des pays les plus avancés technologiquement. Dans ce domaine, l’ambition de Google n’est autre que de mettre au point un réseau neuronal global qui, associé à la somme quasi infinie des données récoltées auprès de l’ensemble des utilisateurs d’internet à travers la planète, donnerait naissance à la plus gigantesque entreprise de renseignement jamais créée.

Ce formidable projet laisse entrevoir les applications diverses et variées qui pourraient naître d’une intelligence synthétique constamment alimentée par les mises à jour de ses utilisateurs. Il n’est d’ailleurs un secret pour personne que les liens entre Google et la National Security Agency (NSA) de même que les divers services de renseignement US existent de longue date.

On rappellera, par ailleurs, que les programmes Google Maps et Google Earth ne sont autres que les produits du rachat par Google en 2004 de la société Keyhole Inc., une entreprise développée en 2001 dont une large partie des capitaux provenait de In-Q-Tel, un fond financier mis en place par la Central Intelligence Agency (CIA).

Des pépites de haute technologie, à l’instar de Boston Dynamics (développeur du robot BigDog, photo ci-dessus) sont passées sous le giron de Google. ©Photo News

Il n’est pas un hasard si Google est sur le point de devenir le plus grand client de l’armée américaine. Google a, en effet, ces dernières années, procédé au rachat de nombreuses entreprises spécialisées dans la robotique et dont les projets de développement bénéficient de financements de Darpa. Ce sont ainsi des pépites de haute technologie à l’instar de Boston Dynamics (développeur du robot BigDog) qui sont passées sous le giron de Google. Le rachat, par Google, de l’entreprise Schaft Inc. n’est pas moins anodin. Cette firme, autrefois connue sous le patronyme de JSK Robotics Laboratory, a abrité les travaux d’un roboticien japonais particulièrement réputé, Hirochika Inoue, qui fut l’un des pionniers de la robotique moderne. Schaft Inc. avait été sélectionné pour participer au Darpa Robotics Challenge 2014.

DeepMind Technologies est un autre exemple de l’appétit de Google dans le secteur de l’IA. Cette entreprise est spécialisée dans la fusion des capacités d’apprentissage des machines et des neurosciences. L’un des programmes phares de cette société, désormais rebaptisée Google DeepMind, réside dans le développement d’une IA capable de reproduire la mémoire humaine de court terme aux fins de la mise au point d’un test de Turing de type neuronal.

©MFN

Ce sont encore les derniers recrutements en date de la firme qui lèvent un voile sur sa stratégie. En engageant parmi ses cadres Régina Dugan, qui n’est autre que l’ancienne directrice de la Darpa, Google a envoyé un signal clair à l’attention des milieux militaires et de l’industrie de défense. Plus exactement, la société Google X Lab, fondée par Larry Page, mise sur les technologies robotiques et les recherches dans le domaine de l’IA pour permettre l’émergence d’une main-d’œuvre nouvelle dans l’ensemble des secteurs d’activité de la vie socio-économique… et de la guerre. Google X Lab deviendrait, en quelque sorte, le vecteur d’un nouveau programme "moon-shot" pour l’armée américaine. Une entreprise entièrement destinée à faire progresser la recherche et développement militaire en coopération (ou en concurrence) avec la Darpa dans des secteurs à haut risque technologique.

La réédition de la "New Frontier"?

Les organisations militaires des nations industrialisées les plus à la pointe de la haute technologie ont depuis longtemps envisagé le développement de dispositifs militaires équipés d’une intelligence artificielle. Ce fut surtout le cas des Etats-Unis dont le système militaire a de tout temps cherché à réduire la place de l’homme au sein de ses plates-formes et, surtout, les pertes au combat.

L’intelligence artificielle dont il est ici question ne doit pas être entendue au sens d’une entité matérielle de traitement informatique qui deviendrait consciente de sa propre existence. L’IA, dont il est ici question, repose davantage sur la confection de dispositifs ultra-puissants de traitement, de convergence et de fusion des données destinés à guider la décision humaine vers un nombre restreint d’options stratégiques et de scénarios (avec les risques que cet aboutissement laisse entrevoir sur notre plénitude d’action).

Ce sont également les intelligences embarquées sur lesquelles les planificateurs politico-militaires semblent focalisés. Ceci afin de permettre à des plates-formes autonomes de garantir la conduite d’une mission de reconnaissance et/ou de frappe dans des conditions défavorables ou périlleuses tout en assurant la discrimination la plus nette possible (du moins l’espère-t-on) entre population civile et combattants.

Très récemment, le sous-secrétaire à la Défense des Etats-Unis, Frank Kendall, publiait un mémo dans lequel il appelait au lancement d’une nouvelle étude destinée à identifier les problèmes d’ordre scientifique, technologique et politique qu’il conviendrait de solutionner afin de maximiser le déploiement de systèmes autonomes dans les capacités de combat.

Quel contrôle?

La marche vers la généralisation des intelligences artificielles au sein des dispositifs militaires de combat semble inéluctable. La question de l’émergence d’une machine susceptible d’être consciente d’elle-même relève, pour une large part, d’un débat d’ordres philosophique et ontologique.

La crainte réelle, à moyen terme, se situe sans doute ailleurs, au niveau de l’entité qui deviendra récipiendaire du contrôle ultime des IA qui réguleront des domaines toujours plus divers et variés de la vie sociale: ressources humaines, démographie, économie, finance et affaires militaires. Le secteur privé est en passe de remporter la course qu’il mène avec les pouvoirs publics dans cette quête.

Ce scénario n’est pas un mal en soi. Il peut même être synonyme d’innovation et de rupture. Mais la faiblesse des États, face à cette évolution, posera une fois de plus la question du contrôle démocratique de la technologie.

Par Alain De Neve, attaché de recherche à l'Institut royal supérieur de défense (IRSD) et membre du Réseau multidisciplinaire d'études stratégiques (RMES). Les propos de l’auteur n’engagent pas les institutions.

Lire également

Publicité
Publicité
Publicité

Messages sponsorisés

Messages sponsorisés