chronique

Créer un label énergétique pour l'intelligence artificielle

L'intelligence artificielle (IA) est entrée dans notre vie quotidienne à une vitesse vertigineuse. Mais le consommateur ne peut absolument pas savoir à quel point les systèmes d’IA qu'il utilise chaque jour sont "verts".

L'essor de l'IA s’explique principalement par l’augmentation exponentielle de notre puissance de calcul. L’IA nécessite en effet le traitement d'énormes quantités de données, qui exige des milliards d'opérations. Lorsque nous utilisons l'algorithme de recommandation de notre service de streaming préféré, nous ne réalisons pas l'énorme consommation d'énergie qui se cache derrière. La popularité des applications d'IA a aussi une face cachée.

"La formation d'un modèle d’IA de traitement du langage produit des émissions de CO₂ équivalentes à celles de cinq voitures pendant toute leur durée de vie."

Afin de pouvoir évaluer correctement l'empreinte totale de l'IA, nous devons prendre en compte l'ensemble du cycle de vie. La première phase est celle de l’apprentissage : la formation d'un modèle d’IA exige l’utilisation d’ensembles de données de plus en plus volumineux. La formation d'un modèle d’IA de traitement du langage produit des émissions de CO₂ équivalentes à celles de cinq voitures pendant toute leur durée de vie - y compris la construction.

Après la formation, le modèle d'IA est prêt à être confronté au monde réel : il peut rechercher des modèles dans de nouvelles données. Ce processus, appelé "inférence", consomme encore plus d'énergie. Contrairement à la phase d'apprentissage, l'inférence n'est pas une activité ponctuelle. Par exemple, à chaque fois que vous posez une question à un assistant vocal, un certain nombre de grammes de CO₂ est libéré. À partir d'environ un million d’inférences, l'impact est plus important que celui de la phase d'apprentissage.

Repenser la manière de calculer

Aujourd'hui, la majorité de ces calculs sont effectués sur des processeurs énergivores dans des centres de données. L'énergie n'est pas seulement utilisée pour les calculs, mais aussi pour le refroidissement et la transmission des données. D’où la question suivante : ne pouvons-nous pas exécuter l'inférence directement sur l'appareil qui collecte les données ? L’efficacité énergétique est le problème. Les processeurs des centres de données sur lesquels tournent de lourdes applications d'IA n'ont jamais été conçus pour être économes en énergie. Si nous devions intégrer de tels processeurs dans notre appareil, nous devrions charger la batterie à chaque tour. Afin d'augmenter considérablement l'efficacité énergétique, la recherche scientifique s'est concentrée sur le développement d'une architecture matérielle entièrement nouvelle. Cet été, imec a fait la démonstration d'un accélérateur d'inférence analogique qui réalise 2 900 billions d'opérations par joule, ce qui est environ dix à cent fois plus économe en énergie que les puces numériques actuelles.

"Si vous faites tourner des logiciels inefficaces, le gain énergétique du matériel fond comme neige au soleil."

Cependant, le développement de matériel informatique à faible consommation d'énergie n'est qu'une facette du problème. Si vous faites tourner des logiciels inefficaces, le gain énergétique du matériel fond comme neige au soleil. Il est donc tout aussi important de concevoir des algorithmes qui sont à la fois précis et économes en énergie. Pour ce faire, nous pouvons nous inspirer de notre propre nature. Pour un joueur de tennis, il n'y a qu'un petit pas à franchir pour apprendre à jouer au squash. De la même manière, nous ne devons pas commencer le processus d'apprentissage des algorithmes d'IA à partir de zéro, mais nous pouvons transférer les connaissances que nous avons déjà acquises vers un autre domaine. Après le processus d'apprentissage, nous pouvons encore réduire le nombre de calculs en supprimant tous les paramètres qui ont peu d'influence sur le résultat final. Il reste un algorithme tout aussi précis, mais plus économe en énergie.

En combinant différentes techniques logicielles, nous pouvons récupérer plus de 90 % de l'énergie. Nous pouvons encore améliorer l'efficacité en adaptant les algorithmes à la spécificité du matériel informatique. Le véritable gain réside dans la co-optimisation. Grâce à une approche intégrée qui met en correspondance les innovations en matière de consommation de données, de matériel informatique et de logiciels, nous pouvons mettre au point des systèmes d'IA hyper-efficaces.

Label vert

De telles innovations se retrouvent encore trop peu dans d'autres domaines de la société. Le consommateur ne peut absolument pas savoir à quel point les systèmes d’IA qu'il utilise chaque jour sont "verts". Par le passé, l'Europe a introduit des labels énergétiques pour les machines à laver, les voitures et les habitations, ce qui a encouragé les différents marchés à investir davantage dans l'efficacité énergétique. Il est grand temps de mettre également à l'ordre du jour un label énergétique pour l'intelligence artificielle.

Lire également

Messages sponsorisés

Messages sponsorisés