Le règlement européen sur l’intelligence artificielle du 13 juin 2024 (RIA) définit l’IA comme « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ».
La question de savoir comment la victime d’un dommage causé par une IA peut faire valoir son droit à indemnisation n’est pas anodine.
Sur le terrain de la responsabilité pour faute, la première difficulté à laquelle se heurtera la victime sera d’établir l’existence d’une faute et de l’imputer à un auteur en raison, précisément, de l’autonomie des systèmes et de leur autoadaptation. Certes, on pourrait envisager que l’IA soit elle-même responsable mais se poserait la question de sa capacité à régler les dommages-intérêts. L’approche de la proposition de directive du 28 septembre 2022 sur la responsabilité extracontractuelle en matière d’IA est moins radicale mais elle n’en est pas moins innovante. Sur demande de la victime, le juge pourrait ordonner aux acteurs participant au développement et au déploiement des systèmes d’IA de divulguer toutes les informations pertinentes sur le système concerné par le dommage, sous peine de s’exposer à une présomption de faute.
La responsabilité du fait des choses prévue à l’article 1242 du Code civil, qui repose sur une présomption de responsabilité sans faute, pourrait s’appliquer aux systèmes d’IA. Les juges exigent que la « chose » soit « anormale » et qu’elle ait joué un « rôle actif » dans le dommage. Cependant, démontrer l’anormalité d’un IA peut être ardu en raison de la complexité technique des algorithmes, surtout dans les cas où il est difficile de prouver l’origine exacte du défaut. Pour résoudre cette difficulté, une distinction entre la garde de la structure physique et la garde de son comportement (l’algorithme) a été proposée. Cela permettrait de répartir la responsabilité entre le fabricant matériel et le développeur logiciel. Cette solution ne couvre cependant pas les IA sans enveloppe physique, appelant à une adaptation plus poussée du régime.
La directive de 1985 sur les produits défectueux, intégrée au Code civil aux articles 1245 et suivants, est souvent citée comme une réponse potentielle aux dommages causés par des IA. Toutefois, le cadre actuel montre ses limites face aux produits numériques et autonomes. Une nouvelle directive européenne, du 28 septembre 2022 également, étend la définition de « produit » aux logiciels, incluant les IA, et introduit une présomption de défectuosité: la victime peut prouver la probabilité d’un défaut, sans devoir démontrer la source exacte de l’anomalie. Mieux encore, le texte établit une présomption de causalité entre le dommage et la défectuosité du produit. Cependant, la directive continue de prévoir des causes d’exonération pour le producteur, telles que l’impossibilité de détecter le défaut au moment de la mise en circulation, alors qu’une une IA peut développer des comportements imprévus après sa mise en service, complexifiant les recours pour les victimes. Une réflexion sur ces exonérations serait donc nécessaire pour assurer une protection adéquate face aux spécificités des IA autonomes et adaptatives.
En somme, la présomption – de faute, de défectuosité, de causalité — apparait comme l’outil juridique favorisé par le législateur pour s’adapter aux spécificités des IA et faciliter les actions en indemnisation des victimes de dommages, en allégeant considérablement la charge de la preuve qui normalement leur incombe.
Un cadre juridique nouveau se dessine, qu’il appartiendra aux juridictions de préciser au gré des affaires qui leur sont soumises. Qu’il soit permis de souhaiter qu’au-delà de ce système de responsabilité civile « présumée », animé par le souci légitime d’indemnisation des victimes, les juges sauront définir un équilibre préservant aussi les intérêts des entrepreneurs et de l’innovation.