Aproximación a la responsabilidad civil (objetiva y subjetiva) y a la seguridad de la Inteligencia Artificial en la UE

Para adaptar el ordenamiento de la UE a los retos de la Inteligencia Artificial, IA, se han propuesto , por un lado, modificaciones o adaptaciones en el régimen  de la responsabilidad del productor por productos defectuosos (Propuesta de revisión de la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia de responsabilidad por los daños causados por productos defectuosos (“Propuesta RRPD”) . Por otro, la armonización específica con una Propuesta de Directiva del Parlamento y del Consejo relativa a la adaptación de las normas sobre responsabilidad civil extracontractual a las normas sobre inteligencia artificial ( «Propuesta DIA») . Ambas iniciativas forman un paquete, y pese a que están relacionadas, regulan diferentes tipos de responsabilidad.

  • La Propuesta RRPD cubre la responsabilidad objetiva del productor por productos defectuosos, lo que da lugar a una indemnización por determinados tipos de daños.
  • La Propuesta DIA se ocupa de responsabilidad por culpa y su indemnización.
  • Adicionalmente, la Propuesta de Reglamento sobre IA incorpora exigencias de calidad y seguridad en los sistemas

A continuación se ofrece una  primera aproximación introductoria a las normas que se están gestando

ACTUALIZACIÓN DE LA DIRECTIVA DE RESPONSABILIDAD POR PRODUCTOS DEFECTUOSOS

 

Parterre

En la Propuesta RRDP se adaptan las normas de responsabilidad a los productos en la era digital. Se establece que toda la gama de productos defectuosos está cubierta por las normas revisadas, incluyendo el software, sistemas de IA o servicios digitales. Es decir, en caso de que un sistema de IA integrado en un producto (por ejemplo, robots, drones, o sistemas domésticos inteligentes) presente algún defecto, los perjudicados también podrán presentar una reclamación. Las nuevas normas permiten a los particulares reclamar una indemnización por los daños causados por un producto defectuoso, incluidas las lesiones corporales, los daños materiales o la pérdida de datos.

  • Se aplicará a la economía circular, a las empresas que modifiquen sustancialmente los productos, cuando estos causen daños a una persona, a menos que demuestren que el defecto se refiere a una parte no modificada del producto.
  • Exige a los fabricantes comunicar las pruebas que pueda necesitar el demandante para llevar a cabo a los tribunales y reduce la carga de prueba en casos complejos (i.e. casos relacionados con productos farmacéuticos o de IA). También suprime el umbral inferior y el límite máximo, de forma que el perjudicado pueda quedar totalmente indemnizado por los daños sufridos.
  • Los perjudicados podrán pedir la indemnización al representante del fabricante de un tercer país.  Concretamente, y en virtud del Reglamento sobre vigilancia del mercado y de la próxima revisión del Reglamento relativo a la seguridad general de los productos, los fabricantes no europeos designarán un responsable en la UE,  al que se podrá exigir la indemnización. (La Propuesta se comenta aquí)
RESPONSABILIDAD POR CULPA EN LAS OPERACIONES CON IA

 

Sanabria

La Propuesta DIA establece normas que deben incorporarse a los sistemas nacionales de responsabilidad por culpa de los Estados miembros con el fin de distribuir la carga de la prueba entre la persona potencialmente perjudicada que reclama cualquier tipo de daño cubierto por la legislación nacional ( por ejemplo, la vida, la salud, la propiedad y la intimidad) y los fabricantes de IA:

  • La Comisión Europea obliga a los demandados a revelar los elementos de prueba en determinadas circunstancias. En particular, la Comisión reconoce a los demandantes el derecho a solicitar la divulgación de pruebas tanto antes de los litigios como en el curso de los mismos. Y establece que el incumplimiento de una orden de aportar información permitirá, en los términos de la Propuesta DIA, presumir que no se actuó con suficiente diligencia, y da lugar a una inversión de la carga de la prueba. 
  • Se introduce una presunción iuris tantum de causalidad para los supuestos en los que el perjudicado demuestre el incumplimiento de una obligación, cuando sea razonablemente probable que exista un nexo causal con el rendimiento de la IA
  • La Propuesta DIA también prevé normas aplicables a la conservación y divulgación de pruebas en casos relacionados con sistemas de IA de alto riesgo (según se definen en la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre inteligencia artificial, Propuesta de Reglamento IA -RIA_).

 

FUTURO REGLAMENTO DE SEGURIDAD EN LA IA

 

London’s Eye

En cuanto al  RIA , que no se centra en  RC, tiene  por objeto prevenir daños y perjuicios en el sentido de que establece requisitos de seguridad de los sistemas de IA .

  • En el capítulo 1 del título III  RIA se establecen las normas de clasificación y se definen las dos categorías principales de sistemas de IA de alto riesgo: Por un lado los sistemas de IA diseñados para utilizarse como componentes de seguridad de productos sujetos a una evaluación de la conformidad ex ante realizada por terceros; y por otro, los otros sistemas de IA independientes con implicaciones relacionadas principalmente con los derechos fundamentales (relacionados en el anexo III, a modo de lista abierta de ciertos sistemas de IA cuyos riesgos ya se han materializado o es probable que lo hagan próximamente. Este listado podrá ser ampliado y adaptado en los términos que establece el RIA.
  • En el título II se establecen IA prohibidas. Se  distingue entre los usos de la IA que generan  riesgos inaceptables;  riesgos altos, y riesgos bajos o mínimos. La lista de prácticas prohibidas  abarca todos los sistemas de IA cuyo uso se considera inaceptable por ser contrario a los valores de la Unión. Engloban aquellas prácticas que tienen un gran potencial para manipular a las personas mediante técnicas subliminales que trasciendan su consciencia o que aprovechan las vulnerabilidades de grupos vulnerables concretos para alterar de manera sustancial su comportamiento de un modo que es probable que les provoque perjuicios físicos o psicológicos a ellos o a otras personas.  La propuesta prohíbe también que las autoridades públicas realicen calificaciones sociales basadas en IA con fines generales. Y se prohíbe -con alguna excepción- el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público .
  • El título III contiene normas específicas para aquellos sistemas de IA que acarrean un alto riesgo para la salud y la seguridad o los derechos fundamentales de las personas físicas.
  • El título IV se centra en determinados sistemas de IA para tener en cuenta los riesgos específicos de manipulación que conllevan.
  • En el título VIII se definen las obligaciones de seguimiento y presentación de información de los proveedores de sistemas de IA en su seguimiento posterior a la comercialización y en la comunicación e investigación de incidentes y defectos de funcionamiento relacionados con la IA.
  • El título IX crea un marco para la elaboración de códigos de conducta, cuyo objetivo es fomentar que los proveedores de sistemas de IA que no son de alto riesgo cumplan de manera voluntaria los requisitos que son obligatorios para los sistemas de IA de alto riesgo

 

Más. Blog Prof Alberto Tapia. 11.05. 2023

 

Investigación financiada por el proyecto nacional PID2021-127527OB-I00, Proyectos de Generación de Conocimiento 2021, Modalidades: Investigación No Orientada e Investigación Orientada