Directive européenne sur la responsabilité civile en matière d'intelligence artificielle

Il s'agit de la directive "relative à l'adaptation des règles de la responsabilité civile non contractuelle à l'intelligence artificielle" (directive sur la responsabilité en matière d'IA ; COM(2022) 496 final). En tant que directive, la directive sur la responsabilité en matière d'IA doit d'abord être transposée dans le droit national de chaque État membre de l'UE par le biais d'actes législatifs nationaux respectifs.

Le contenu réglementaire de la directive sur la responsabilité en matière d'IA est relativement simple. Elle ne s'applique qu'aux demandes d'indemnisation civiles extracontractuelles fondées sur la faute et relatives à des dommages causés par un système d'IA conformément au règlement sur l'IA.

Elle prévoit deux dispositions plutôt procédurales, comme le montrent déjà les termes "demandeur" et "défendeur" utilisés dans la directive :

Divulgation des preuves

En présence d'un système d'IA à haut risque au sens du règlement sur l'IA, les personnes lésées doivent avoir droit à la divulgation des preuves.

Le plaignant doit d'abord prouver de manière suffisante la "plausibilité" de la demande. La directive sur la responsabilité en matière d'IA ne définit pas davantage comment cela doit se faire. Le droit à la divulgation doit permettre au plaignant de faire valoir plus efficacement ses droits à dommages et intérêts devant les tribunaux (ou d'éviter d'emblée une procédure judiciaire). Cette disposition rappelle la "pretrial discovery" connue en droit américain .

Le droit à la divulgation soulève des questions entièrement nouvelles en ce qui concerne l'intérêt, par exemple, des fournisseurs d'IA à garder leurs secrets commerciaux secrets.

Présomption de causalité

Selon le projet de directive sur la responsabilité en matière d'IA, le lien de causalité entre la "faute" (par exemple du fournisseur du système d'IA) et le "résultat défectueux du système d'IA" doit être présumé. Les conditions de cette présomption sont cumulatives :

  1. il y a eu violation du devoir de diligence, qui doit protéger contre le dommage, et

  2. le lien de causalité qui doit être présumé est probable ("appréciation raisonnable") et

  3. il existe un lien de causalité entre le résultat erroné de l'IA et le dommage survenu.

Selon le type de système d'IA concerné (par exemple, IA à haut risque ou IA simple, voir l'article sur le règlement sur l'IA) et à l'encontre de qui la demande d'indemnisation doit être introduite, les exigences sont plus ou moins étendues.

Les termes exacts ne semblent pas encore tout à fait congruents avec la terminologie du droit allemand, de sorte que la mise en œuvre concrète par une loi allemande sera intéressante.


Cet article fait partie de l'aperçu des changements actuels à l'occasion de la stratégie de l'UE en matière de données et du nouveau cadre législatif. Nous attirons votre attention sur le fait que le projet législatif n'est actuellement qu'un projet (bien qu'il soit qualifié de "final"). Il ne s'agit donc pas encore de la législation en vigueur et des modifications peuvent encore intervenir au cours du processus législatif. Toutefois, en raison des "délais de transition" raisonnables, il est d'ores et déjà nécessaire de "regarder" le droit à venir.

Version : 2. nov. 2022