chronique

Le mythe de la technologie "éthique"

Journaliste

Google veut engager des philosophes pour rendre ses innovations plus éthiques. Une fausse bonne idée?

Publiée sur son site qui recense toutes les possibilités de carrière chez Google, une offre n’est pas passée inaperçue. Pour ses différentes implantations américaines, Google est à la recherche de philosophes ou à tout le moins de personnes pouvant se targuer d’avoir obtenu un diplôme en philosophie. Mais pour quoi faire? La firme de Mountainview ne s’en cache pas et explique ce qu’elle recherche au bas de l’offre: "Vous êtes un grand penseur et un joueur d'équipe stratégique avec une passion pour faire ce qui est juste. Vous travaillez pour identifier et combattre les cas d'abus et de fraude à la vitesse de Google - de toute urgence. Et vous êtes fier de savoir que chaque jour vous travaillez dur pour promouvoir la confiance en Google."

Les heureux élus auront pour mission de rendre les intelligences artificielles développées par Google plus éthiques. Le message est clair, mais la finalité peut laisser perplexe. Google veut clairement mieux faire et se rend compte du côté peu éthique de certaines de ses innovations. La société civile étant aujourd’hui plus regardante sur le sujet et plus armée pour comprendre la technologie qui fait son quotidien, les géants du web tentent de montrer patte blanche en la matière. Le geste est appréciable, mais peut-on réellement concevoir une intelligence artificielle éthique à la morale infaillible? Non et peu importe, car l'enjeu est ailleurs.

Qui prend la décision finale?

Il y a d’abord une question au niveau des termes utilisés. L’éthique et la morale sont des concepts que l’on peut relier à un être humain, pas à une technologie. Les mots intelligence artificielle et éthique n’ont pas grand-chose à faire ensemble. Une machine éthique ne peut pas exister, c’est son usage qui éthique ou non. Le véritable enjeu se situe au niveau des décisions qu’un humain, un utilisateur, va prendre sur la base du travail d’une intelligence artificielle. C’est cette décision qui sera éthique ou non. Bien sûr, il y a la question des biais qui font qu’une innovation peut être biaisée éthiquement dès sa conception en fonction du profil et des intentions de ses concepteurs. Mais ce qui primera toujours, c’est la décision finale qui sera prise par l’utilisateur. Un médecin qui pose un diagnostic sur la base d’un algorithme ou d’une intelligence artificielle, cela arrivera de plus en plus, mais il reste le maitre de la décision finale grâce à son libre arbitre.

Il est tout de même intéressant de voir une société technologique comme Google vouloir ajouter une couche philosophique et morale à ses outils, mais il ne faudrait pas que cela nous dédouane de notre responsabilité d’utilisateur et d'humain au sens large. Ce n’est pas parce que Google nous dit que tel ou tel outil a été conçu avec des philosophes pour en garantir son éthique que nous devons en oublier notre rôle. Le vrai danger est là. Continuons de cultiver notre libre arbitre qui sera toujours l'un des remparts les plus solides face aux dérives de la technologie, qu’elle soit estampillée "éthique" ou non.

Lire également

Messages sponsorisés

Messages sponsorisés