Quel régime de responsabilité appliquer à l'intelligence artificielle?

©EPA

Le déploiement de l’IA et d'autres technologies numériques émergentes doit s’accompagner de garanties suffisantes pour minimiser le risque de dommages que ces technologies peuvent causer.

Le 16 février 2017, le Parlement européen a adopté une résolution sur les règles de droit civil en matière de robotique, assortie de recommandations à la Commission. Il a notamment demandé à celle-ci de soumettre une proposition d’instrument législatif prévoyant des règles de droit civil sur la responsabilité des robots et de l’intelligence artificielle (IA).

Etienne Wery 

Avocat associé Ulys

En mars 2018, la Commission a mis en place un groupe d’experts en ce sens. Ce groupe vient de publier son rapport.

Le groupe estime que l’IA et les autres technologies numériques émergentes peuvent transformer nos sociétés et nos économies pour le mieux. Toutefois, leur déploiement doit s’accompagner de garanties suffisantes pour minimiser le risque de dommages que ces technologies peuvent causer. Pour le groupe d’experts, dans l’UE, la réglementation sur la sécurité des produits garantit que c’est le cas.

Ces réglementations ne peuvent pas exclure la possibilité de dommages résultant de l’exploitation de ces technologies. Si cela se produit, les victimes demanderont réparation, sur base des régimes de responsabilité de droit privé, éventuellement en combinaison avec une assurance.

Il convient donc d’apporter certains ajustements aux régimes de responsabilité européens et nationaux existants. Le rapport a dégagé dix points d’attention en ce sens :

La destruction des données de la victime devrait être considérée comme un dommage, indemnisable dans des conditions spécifiques.

1. L’exploitant d’une technologie autorisée mais comportant un risque accru de préjudice pour autrui, comme des robots pilotés par des IA dans des lieux publics, devrait être soumis à une responsabilité stricte pour les dommages résultant de son exploitation.

2. Lorsqu’un prestataire de services assurant le cadre technique nécessaire exerce un contrôle plus élevé que le propriétaire ou l’utilisateur d’un produit ou d’un service réel doté d’une IA, il faut en tenir compte pour déterminer qui exploite principalement la technologie.

3. L’utilisateur d’une technologie ne présentant pas de risque accru de préjudice pour autrui devrait néanmoins être tenu de respecter les obligations de sélectionner, d’exploiter, de surveiller et d’entretenir correctement la technologie utilisée et devrait être responsable du non-respect de ces obligations en cas de faute.

4. L’utilisateur d’une technologie dotée d’un certain degré d’autonomie ne devrait pas être moins responsable du préjudice qui en résulte que si ce préjudice avait été causé par un auxiliaire humain.

5. Les fabricants de produits ou de contenu numérique intégrant une technologie numérique émergente devraient être responsables des dommages causés par des défauts de leurs produits, même si le défaut résulte des modifications apportées au produit sous le contrôle du producteur après sa mise sur le marché.

6. Pour les situations exposant des tiers à un risque accru de préjudice, l’assurance responsabilité civile obligatoire pourrait donner aux victimes un meilleur accès à l’indemnisation et protéger les auteurs potentiels de délits contre le risque de responsabilité.

7. Lorsqu’une technologie particulière accroît les difficultés de prouver l’existence d’un élément de responsabilité au-delà de ce que l’on peut raisonnablement attendre, les victimes devraient avoir droit à une facilitation de la preuve.

8. Les technologies numériques émergentes devraient être dotées de fonctions d’enregistrement, lorsque les circonstances le justifient, et l’absence d’enregistrement ou d’accès raisonnable aux données enregistrées devrait entraîner un renversement de la charge de la preuve pour ne pas porter préjudice à la victime.

9. La destruction des données de la victime devrait être considérée comme un dommage, indemnisable dans des conditions spécifiques.

10. Il ne faut pas conférer une personnalité juridique aux dispositifs ou systèmes autonomes, car le préjudice qu’ils peuvent causer peut et doit être imputable à des personnes ou organismes existants.

Les cadres existants en matière de responsabilité vont donc devoir être mis au gout du jour pour y accueillir robots et IA.

Lire également

Publicité
Publicité

Messages sponsorisés