interview

Aurélie Jean: "Les politiques ne se rendent pas compte des enjeux technologiques"

Aurélie Jean ©AFP

Docteure en sciences, Aurélie Jean est une figure montante dans l’univers de la tech. Experte en biomécanique numérique, elle travaille avec la société Altermind. Dans son ouvrage, elle raconte son métier de scientifique numérique tout en proposant une approche pédagogique des nouvelles technologies.

Le numérique suscite autant de craintes que de fantasmes. Notre culture dans ce domaine n’est-elle pas largement insuffisante ?
Il est clair que les gens développent des peurs et des fantasmes à ce sujet. La culture numérique, mais aussi la culture scientifique dans son ensemble, est insuffisante. C’est sans doute le cas aussi en économie ou en histoire. Je suis en faveur d’une culture scientifique pour tous, qui nous permettrait de croire encore à la science et d’enrayer ce phénomène actuel de méfiance à l’égard des scientifiques.

Y a-t-il un risque de créer une génération d’illettrés numériques si nos modèles éducatifs n’évoluent pas ?
Aujourd’hui, les jeunes générations utilisent ces outils numériques avec une certaine aisance. C’est pourquoi on a l’impression qu’elles les maîtrisent. Mais ce n’est pas parce que vous savez utiliser un outil que vous le comprenez. Il y a tout un travail d’éducation à réaliser à ce sujet. Qu’est-ce qu’un enfant regarde à la télé aujourd’hui pour se former à la science ?
Il n’y a pas grand-chose. Même dans les journaux et les magazines, les pages destinées à la science sont souvent en lien avec des scandales.

Contrairement à ce que l’on pourrait croire, la science algorithmique n’est pas neuve…
Le mot apparaît au 9e siècle, mais l’algorithmique est une vieille science qui date de l’époque d’Euclide. Par la modélisation algorithmique, on cherche d’une certaine manière à classifier les phénomènes. Par exemple, Aristote a développé des catégories dans le but de classer les êtres et les choses. À partir de là, des questions que nous nous posons actuellement se sont posées : ne risque-t-on pas de figer les individus, de les mettre dans des bulles ? Est-il possible de tout savoir d’un individu ? Ce qui est neuf, dans le cadre de l’algorithmique numérique, c’est que l’algorithme est créé dans le but d’être codé dans un programme informatique, non pas pour que ce soit un humain qui le résolve, mais bien une machine.

Comment crée-t-on un algorithme ?
Il y a deux grandes classes d’algorithmes : explicite et implicite. Les algorithmes explicites sont ceux qui sont écrits à la main de A à Z : des équations mathématiques, des structures conditionnelles, des hypothèses, etc. Dans ce cas, on va utiliser des données de la réalité pour calibrer l’algorithme. Les algorithmes implicites apprennent des données et créent leurs critères eux-mêmes. En réalité, les algorithmes sont en fait très souvent un mélange des deux.

Très concrètement, qu’est ce que cela signifie de coder ?
Coder consiste à écrire un programme dans un langage informatique. C’est ce qui permet de dire à un ordinateur ce qu’il doit faire, lui fournir des commandes, des opérations à exécuter. Mon travail consiste à développer des modèles mathématiques, ensuite traduits sous forme algorithmique, afin de produire des simulations pour résoudre certains problèmes. Il est possible, par exemple, de modéliser le mouvement d’une vague, d’un courant d’eau ou encore le comportement du cerveau. L’idée est de réaliser des calculs qu’on ne peut pas faire à la main. Par ailleurs, notre manière de penser et de communiquer influence notre façon de coder. Écrire un code n’est donc jamais neutre.

On parle beaucoup aujourd’hui des fameux " biais algorithmiques ". Qu’est-ce que ça signifie précisément ?
Tout être humain a des biais cognitifs. On peut transmettre ces biais à tout ce que l’on conçoit : un texte comme à un algorithme. L’intérêt est de comprendre comment ils se créent, comment ils se propagent et comment on peut les éviter. Certains imaginent que l’on pourrait annuler totalement les biais cognitifs, mais je n’y crois pas. Ce n’est pas en effaçant nos biais que le monde sera meilleur. Au contraire, c’est parce que nous avons conscience de nos biais que nous sommes capables de mieux comprendre l’autre. Les outils sont idéalement conçus pour être sans biais mais il est impossible d’éliminer totalement les biais de l’individu qui le crée.

Vous ne croyez pas à l’IA forte. Pourquoi ?
Aucun scientifique sérieux ne croit à l’IA forte. L’IA forte voudrait dire que la machine a une conscience et des sentiments et qu’elle prendrait le dessus sur l’homme. C’est irréalisable. En revanche, nous allons atteindre une IA forte apparente. L’être humain va avoir l’impression que la machine possède une conscience, éprouve des sentiments, etc. Dans ce cas, cela devient dangereux, car nous allons changer notre comportement face à la machine. C’est nous-mêmes qui allons créer les menaces.

D’un point de vue politique, le monde numérique représente aussi un danger. Quel est votre point de vue à ce sujet ?
Il y a en effet un gros risque pour la démocratie. On peut, par exemple, utiliser les algorithmes pour manipuler les indécis en sachant que la majorité de gens ne sait pas pour qui ils vont voter jusqu’à un mois des élections. Cambridge Analytica en a été la preuve. Il y a donc un danger réel mais ce n’est pas une fatalité. Quelle est la solution ? Il faut responsabiliser les gens, mais en même temps on ne peut pas tout mettre sur leurs épaules. Il faut aussi encourager d’autres initiatives. Sur Twitter, par exemple, on pourrait imaginer voir le contenu de quelqu’un qui pense le contraire de moi afin de me sortir de ma bulle de confort. Les réseaux sociaux comme celui-là doivent revoir entièrement leur modèle économique.

On a parfois l’impression que les Gafa incarnent plus un obstacle qu’un réel facteur d’émancipation pour la société…
J’ai beaucoup de respect pour leurs travaux de recherche et Google en finance de nombreux, par exemple. Mais le grand problème reste la manipulation des opinions. On pourrait imaginer qu’en période électorale, les hommes politiques n’aient pas la possibilité d’utiliser les réseaux sociaux. Pourtant, aucun Gafa ne prendra cette décision. Cette décision ne pourrait venir que d’un État. L’autre problème est que les hommes politiques ne se rendent pas compte des enjeux.
Ils ont pris conscience qu’il y avait un enjeu économique avec les technologies, mais ils ne prennent pas la mesure de l’enjeu technologique lui-même. S’ils le comprenaient, on investirait plus d’argent dans ce domaine. Aux États-Unis, le MIT a levé un milliard ! L’Europe doit se réveiller. Mais ça ne veut pas dire faire comme les autres. Il faut voir comment nous pouvons nous différencier. Concernant le RGPD, on a tout d’abord prétendu que l’Europe se tirait une balle dans le pied. Aujourd’hui, il fait tache d’huile. La Californie vient d’adopter un texte qui va dans ce sens. Notre force, c’est la liberté de l’individu. Nous avons les moyens de mettre en place des principes éthiques forts pour nous défendre.

Justement, l’approche de l’intelligence artificielle est très différente en Chine, beaucoup plus autoritaire, mais aussi plus efficace…
Le modèle chinois n’est peut-être pas éternel, regardez ce qui s’est passé récemment à Hong Kong... Ils collectent en effet un nombre incalculable de données, mais nous n’avons pas besoin d’autant de datas pour faire des choses. L’Europe doit être intelligente. Prenons l’exemple de la recherche au sujet de l’arme autonome. Il faut faire de la recherche, non pour la créer, mais dans le but de la hacker et de l’intercepter. À chaque fois, il devrait être possible de trouver une alternative.

Faut-il fonder une éthique propre au numérique ?
Elle existe déjà mais il faut la formuler. La régulation et les chartes sont des déclencheurs de conscience. Des cours d’éthique devraient être proposés aux étudiants dès le master, en sciences ou en mathématiques. Par ailleurs, le droit doit évoluer. Aujourd’hui, on ne peut pas vendre ses données, car le droit considère qu’il s’agit d’une extension de soi. Or, la loi française ne permet pas de vendre son corps. En changeant la loi, nous pourrions créer de nouveaux modèles économiques.

"De l’autre côté de la Machine. Voyage d’une scientifique au pays des algorithmes", Aurélie Jean, L’Observatoire, 208 p., 18 €.

Les femmes sont-elles suffisamment présentes dans le milieu de la tech ?
Il y a seulement 5% de femmes dans ce milieu avec 10 ans d’expérience. Généralement, elles ne restent pas longtemps, car elles ont du mal à trouver leur place. Pourtant, c’est un milieu où elles peuvent s’émanciper. Nous avons besoin, dans ce domaine particulièrement, d’une pluralité de visions de façon à enrichir les outils et à mieux cibler les besoins. D’autre part, c’est dans le milieu de la tech que les salaires sont les plus compétitifs. Les femmes peuvent donc combiner une indépendance financière et une indépendance intellectuelle.

L’ordinateur quantique sera-t-il la prochaine grande révolution ?
L’ordinateur quantique va révolutionner certaines choses. Sa grande force est de pouvoir, grâce entre autres au principe de superposition, réaliser un nombre gigantesque de calculs en parallèle. Ce qui va avoir un impact énorme sur les codes de protection. On va pouvoir décoder beaucoup plus rapidement, car on pourra tester des millions de combinaisons à la fois. À nouveau, il ne faut pas fantasmer : l’ordinateur quantique ne va pas tout résoudre. En tous les cas, cela va nécessiter la mise en place de systèmes de sécurisation plus sophistiqués.

Lire également

Publicité
Publicité

Messages sponsorisés