tribune

Ni entraves ni laisser-faire: le difficile équilibre à trouver face à l'essor de l'IA

Afin de ne pas se laisser distancer, l’Europe doit trouver la balance optimale entre réglementation, innovation et acceptation sociale.

L’essor de l’intelligence artificielle (IA) est souvent comparé à l’arrivée de l’électricité : tous deux impactent notre façon de vivre et de travailler. La puissance de l’IA réside dans la croissance exponentielle des combinaisons d’applications, de produits et de services. De telles opportunités ne viennent toutefois jamais seules. Outre le respect de la vie privée, cette technologie présente de nombreux autres risques, comme celui de la « boîte noire », où nous ne pouvons pas retracer la manière dont des applications d’IA prennent des décisions.

"With great power comes great responsibility". Pour encourager ce sens de responsabilité, la Commission européenne a émis une proposition visant à réglementer l’IA qui met l’accent sur la création d’applications d’IA dignes de confiance pour garantir les droits fondamentaux des citoyens et des entreprises.

La proposition suit une approche fondée sur le risque. Les systèmes d’IA qui tentent de manipuler le comportement humain sont tout simplement interdits en Europe.

Trop de restrictions, trop de charge administrative et trop de complexité peuvent nous conduire à stopper le développement innovant des applications d’IA et à mettre à mal la compétitivité en Europe.

Les voitures à conduite autonome d’Elon Musk, l’utilisation d’IA en salle d’opération ou les caméras de reconnaissance faciale à la frontière sont considérées comme « à haut risque » et sont soumises à des règles strictes en termes de supervision humaine, d’utilisation de données de qualité et d’exigences d’évaluation et de traçabilité.

Les chatbots que l’on voit de plus en plus comme support de première ligne dans les services à la clientèle sont considérés comme des applications à « faible risque » et doivent principalement faire preuve de transparence, par exemple, en informant le citoyen qu’il interagit avec un robot.

Un même algorithme, différentes applications

Nous relevons, cependant, quelques ambiguïtés et défis. L’IA est une technologie en pleine évolution, ce qui rend difficile une catégorisation exhaustive de toutes ses applications possibles. En outre, trop de restrictions, trop de charge administrative et trop de complexité peuvent nous conduire à stopper le développement innovant des applications d’IA et à mettre à mal la compétitivité en Europe.

Une autre éventualité est que seules les grandes entreprises soient en mesure de se conformer aux réglementations en fournissant plus de capacités et d’investissements. Dans un pays de PME et d’entrepreneurs, nous ne pouvons pas nous permettre un tel état de fait.

Le train de l’innovation en matière d’IA avance sans discontinuer et, surtout, sans régulation aux États-Unis et en Chine.

De plus, un même algorithme peut être à la base de différentes applications d’IA ayant des objectifs différents, ce qui fait craindre qu’il soit difficile de réglementer cet algorithme de manière uniforme.

Nous privilégions donc davantage l’idée d’établir des principes pour le développement de l’IA que celle d’imposer un carcan réglementaire. Cela concerne des principes de sensibilisation tels que « ethics by design » et « privacy by design », par lesquels les valeurs socio-éthiques et les préoccupations en matière de respect de la vie privée sont intégrées dans le développement de nouvelles applications d’IA.

La voix de la société

Pour relever tous ces défis, il importe d’impliquer l’ensemble des acteurs de terrain. La politique menée devrait inclure les expériences des entreprises, des institutions publiques et des universitaires, mais également entendre la société civile et la voix du citoyen dans ce débat. Ce n’est qu’ainsi que nous pourrons garantir que les futures applications d’IA seront développées dans un but social pour les citoyens et dans le respect de nos valeurs.

Car le train de l’innovation en matière d’IA avance, entre-temps, sans discontinuer (et, surtout, sans régulation) aux États-Unis et en Chine. Pour combler le fossé, ou du moins ne pas le laisser se creuser, l’Europe et la Belgique doivent trouver l’équilibre optimal entre réglementation, innovation et acceptation sociale pour susciter la confiance dans cette technologie prometteuse, mais non dépourvue de risques.

Bart Peeters, Director, Public Sector & Technology Consulting chez PwC Belgique
Natacha Dewyngaert, Manager, Public Sector & Technology Consulting chez PwC Belgique

Lire également

Messages sponsorisés

Messages sponsorisés