Intelligence artificielle, le futur a-t-il besoin de nous?

©Bloomberg

Il y a quelques semaines, plus de 700 noms du monde de la science et de la technologie ont publié une lettre ouverte sur le site du Future of Life Institute. Ils mettent en garde contre les développements incontrôlés de l’intelligence artificielle.

C’est la première fois qu’un si grand nombre de scientifiques s’alarme aussi ouvertement de ce qu’il est désormais coutumier d’appeler la prochaine "explosion d’intelligence". Ils appellent à la mise en place de mécanismes de "sécurité" et de "contrôle" pour en limiter les conséquences négatives pour l’humanité, et invitent à une réflexion approfondie sur les tenants et les aboutissants de futurs développements scientifiques dans le champ cognitif.

Cette lettre ouverte a suscité beaucoup de réactions, voire un certain émoi. Certes, tout le monde avait déjà en mémoire les récentes mises en garde du physicien britannique Stephen Hawking, dont chaque réflexion fait autorité dans le monde intellectuel, et qui avait déclaré que l’intelligence artificielle "pourrait mettre fin à la race humaine". "Lorsque les humains auront développé l’intelligence artificielle, elle deviendra indépendante et se redéfinira elle-même à un rythme de plus en plus rapide. Les humains, qui sont limités par une évolution biologique lente, ne pourront pas faire face et seront supplantés."

"L’intelligence artificielle ne vous déteste pas ni ne vous aime, elle considère simplement que vous êtes faits d’atomes qui peuvent être utilisés pour quelque chose d’autre."
Eliezer Yudowsky
Théoricien en intelligence artificielle

Mais une étape vient clairement d’être franchie, puisque ce sont désormais des personnalités du monde de la Silicon Valley qui s’inquiètent des monstres technologiques qu’elles sont en train de créer.

C’est le cas d’Elon Musk, lui-même signataire de cette lettre. Patron de SpaceX, il est l’entrepreneur qui monte. C’est sa firme qui vient de s’associer avec Google pour installer des satellites dans l’espace et fournir internet sur chaque coin du globe. "L’intelligence artificielle est notre plus grande menace existentielle", pense-t-il.

C’est aussi le cas Bill Gates himself, qui a expliqué qu’il était dans "le camp de ceux qui se préoccupent de l’évolution des super-intelligences. Tout d’abord, les machines exécuteront de nombreuses tâches à notre place et n’auront pas besoin d’être réellement dotées d’une intelligence redoutable. Ce doit donc être un mouvement positif si nous les gérons correctement. Mais plusieurs décennies après, cette même intelligence sera suffisamment puissante pour constituer un problème. (...) Je ne comprends d’ailleurs pas pourquoi certaines personnes ne s’en préoccupent pas."

Quelle place pour le travailleur humain?

Avant eux, Andrew McAfee, créateur du logiciel antivirus éponyme décrivait, dans son ouvrage "Race Against the Machine", écrit en 2011 avec Erik Brynjolfsson, les dégâts de la technologie sur les métiers qualifiés.

Plus surprenant encore, la banque centrale britannique elle-même a pointé du doigt les périls du tout-technologique. La montée des robots pourrait contrarier la croissance économique mondiale, a ainsi affirmé récemment l’économiste en chef de la Bank of England, Andy Haldane. Dans un long discours tenu à l’Université d’East Anglia, Haldane a expliqué que la quatrième révolution industrielle, celle de l’intelligence artificielle, pourrait être celle de trop. "À la différence des trois précédentes, il serait par définition impossible pour le cerveau humain d’imaginer jusqu’où le cerveau machine porterait l’innovation, puis la croissance. Nous entrerions dans un monde d’ignorance béate. L’excitation des optimistes serait totalement douchée."

"Le contrôle sur des grands systèmes de machines sera aux mains d’une élite privée, comme aujourd’hui, mais avec deux différences. Du fait des progrès technologiques, l’élite aura davantage de contrôle sur les masses; et sachant que le travail humain ne sera plus nécessaire, les masses deviendront superflues, elles seront une charge inutile pour le système."
Theodore Kaczynski
Activiste

Des propos qui ont créé un certain désarroi dans une City où la mise en cause du progrès technique perpétuel est rare. Dans un éditorial intitulé "Ruled by robots", le quotidien "The Times" a emboîté le pas d’Andy Haldane: "Le Royaume-Uni doit former ses travailleurs à rester en course devant les machines." Dans le secteur de l’industrie manufacturière, le spectre d’un dépassement définitif de l’homme par la machine est désormais très réel. Son corps représentatif (EEF) a appelé à la fin du mois de février les politiques à prendre le problème à bras-le-corps, estimant que la quatrième révolution industrielle ("Industry 4.0") allait avoir des conséquences importantes avant une décennie.

Le travailleur non qualifié n’est plus seulement en concurrence avec des travailleurs de l’Est, ou avec des exigences de profits. Il est aussi directement menacé par des machines de plus en plus autonomes. Les marchés économiques deviennent la matrice du développement de l’intelligence artificielle, qui deviendrait à son tour l’adjuvant d’un système post-capitaliste, dont la quatrième révolution industrielle serait le support.

©Bloomberg

Le professeur de robotique cognitive Murray Shanahan décrit une société "où les forces de marché conduiraient à maximiser des processus de production de façon illimitée, avec la tentation de développer des choses risquées". Il explique que les sociétés et les gouvernements seront de plus en plus enclins à manipuler les marchés, truquer des élections ou créer de nouvelles formes de technologies militaires autonomes. Ces évolutions sont déjà apparues nettement au cours des cinq dernières années, entre le truquage des taux d’intérêt par les grandes banques et les robots tueurs des Etats-Unis.

Selon Huw Price, spécialiste du "risque existentiel" de l’University of Cambridge, "la pression commerciale est un vecteur majeur de développement des nouvelles technologies, et l’intelligence artificielle n’est pas différente. Sa valeur potentielle est extrêmement élevée, il est donc tout à fait normal de voir les forces de marché soutenir ce développement. Et, comme c’est le cas pour les risques extrêmes de faible probabilité, tels que les impacts d’astéroïdes, ou le changement climatique extrême, les scénarios "post-capitalistes" les plus probables sont ceux où plus personne ne pourra s’engager dans la moindre activité économique", analyse-t-il pour "L’Echo".

Déjà l’heure de l’observation passive et fataliste?

Le théoricien en intelligence artificielle Eliezer Yudowsky décrit un futur où les intelligences artificielles n’auraient pas forcément vocation à écraser l’humain, mais simplement à être guidée par des instincts d’auto-préservation et d’acquisition de ressources. "L’intelligence artificielle ne vous déteste pas ni ne vous aime, elle considère simplement que vous êtes faits d’atomes qui peuvent être utilisés pour quelque chose d’autre", visualise-t-il.

Ces dernières années, un grand nombre d’organismes spécifiquement dédiés au risque technologique ont été créés, ou bien ont orienté l’essentiel de leurs réflexions vers les périls de ce qu’on appellera l’infiniment petit. The Future of Humanity Institute, the Global Catastrophic Risk Institute, Machine Intelligence Research Institute, The Future of Life Institute, The Defence Threat Reduction Agency... Parmi ces organismes, l’université de Cambridge a créé un Centre for the Study of existential risk.

Son propos n’est pas de lire et approfondir les comptes rendus de la Nasa sur les possibilités d’un impact d’un astéroïde sur la Terre, mais bien de se pencher sur ce qu’elle considère comme une "nouvelle source de risque: le pouvoir technologique de l’humanité". Armes nucléaires, intelligence artificielle, biotechnologie, nanotechnologies: il s’agit de décrire une menace pour l’humanité qui n’est pas extérieure, mais endogène. Les plus grands professeurs de Cambridge et des contributeurs extérieurs font partie de ce centre, qui aborde la problématique avec se situant au plus près du processus de décision, sur une double approche rationnelle et éthique.

"Nous ne sommes pas encore au point où nous ne pouvons qu’observer le développement des machines sans pouvoir les contrôler. Mais certains pensent que cela va arriver, et estiment que nous devons nous y préparer", explique Arif Ahmed, organisateur, avec Huw Price, de la conférence "Self-prediction in Decision Theory and Artificial Intelligence", en mai prochain. "Notre démarche est d’essayer de comprendre les appareils/systèmes lorsqu’ils prennent une décision en connaissant leur propre programme, et peut-être aussi ceux des autres appareils/systèmes avec lesquels ils coopèrent ou sont en compétition. Avec toute la variété de défis mathématiques et philosophiques que cela engendre."

La présentation même de la problématique constitue une réponse en soi: l’heure n’est plus réellement à essayer de contrôler les machines ou les systèmes. La question est abordée de façon distanciée, extérieure, quasiment spectatrice, en incluant, dans ce système auto-fabriqué, autogéré, auto-alimenté, les éléments humains (développeurs, ingénieurs, scientifiques) qui sont censés contrôler l’évolution de ces entités mi-mécaniques, mi-vivantes, dont personne ne sait encore comment elles réagiront lorsqu’elles seront en mesure de se poser cette question fatale: "Pourquoi, finalement?"

Lire également

Publicité
Publicité
Publicité

Messages sponsorisés

Messages sponsorisés