Aproximaci贸n a la responsabilidad civil (objetiva y subjetiva) y a la seguridad de la Inteligencia Artificial en la UE

Para adaptar el ordenamiento de la UE a los retos de la Inteligencia Artificial, IA, se han propuesto , por un lado, modificaciones o adaptaciones en el r茅gimen聽 de la responsabilidad del productor por productos defectuosos (Propuesta de revisi贸n de la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximaci贸n de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia de responsabilidad por los da帽os causados por productos defectuosos (鈥Propuesta RRPD鈥) . Por otro, la armonizaci贸n espec铆fica con una Propuesta de Directiva del Parlamento y del Consejo relativa a la adaptaci贸n de las normas sobre responsabilidad civil extracontractual a las normas sobre inteligencia artificial ( 芦Propuesta DIA禄) . Ambas iniciativas forman un paquete, y pese a que est谩n relacionadas, regulan diferentes tipos de responsabilidad.

  • La Propuesta RRPD cubre la responsabilidad objetiva del productor por productos defectuosos, lo que da lugar a una indemnizaci贸n por determinados tipos de da帽os.
  • La Propuesta DIA se ocupa de responsabilidad por culpa y su indemnizaci贸n.
  • Adicionalmente, la Propuesta de Reglamento sobre IA incorpora exigencias de calidad y seguridad en los sistemas

A continuaci贸n se ofrece una聽 primera aproximaci贸n introductoria a las normas que se est谩n gestando

ACTUALIZACI脫N DE LA DIRECTIVA DE RESPONSABILIDAD POR PRODUCTOS DEFECTUOSOS

 

Parterre

En la Propuesta RRDP se adaptan las normas de responsabilidad a los productos en la era digital.聽Se establece que toda la gama de productos defectuosos est谩 cubierta por las normas revisadas, incluyendo聽el聽software, sistemas de IA o servicios digitales. Es decir, en caso de que un sistema de IA integrado en un producto (por ejemplo, robots, drones, o sistemas dom茅sticos inteligentes) presente alg煤n defecto, los perjudicados tambi茅n podr谩n presentar una reclamaci贸n. Las nuevas normas permiten a los particulares reclamar una indemnizaci贸n por los da帽os causados por un producto defectuoso, incluidas las lesiones corporales, los da帽os materiales o la p茅rdida de datos.

  • Se aplicar谩 a la econom铆a circular, a las empresas que modifiquen sustancialmente los productos, cuando estos causen da帽os a una persona, a menos que demuestren que el defecto se refiere a una parte no modificada del producto.
  • Exige a los fabricantes comunicar las pruebas que pueda necesitar el demandante para llevar a cabo a los tribunales y reduce la carga de prueba en casos complejos (i.e. casos relacionados con productos farmac茅uticos o de IA). Tambi茅n suprime el umbral inferior y el l铆mite m谩ximo, de forma que el perjudicado pueda quedar totalmente indemnizado por los da帽os sufridos.
  • Los perjudicados podr谩n pedir la indemnizaci贸n al representante del fabricante de un tercer pa铆s.聽 Concretamente, y en virtud del Reglamento sobre vigilancia del mercado y de la pr贸xima revisi贸n del Reglamento relativo a la seguridad general de los productos, los fabricantes no europeos designar谩n un responsable en la UE,聽 al que se podr谩 exigir la indemnizaci贸n. (La Propuesta se comenta aqu铆)
RESPONSABILIDAD POR CULPA EN LAS OPERACIONES CON IA

 

Sanabria

La Propuesta DIA establece normas que deben incorporarse a los sistemas nacionales de responsabilidad por culpa de los Estados miembros con el fin de distribuir la carga de la prueba entre la persona potencialmente perjudicada que reclama cualquier tipo de da帽o cubierto por la legislaci贸n nacional ( por ejemplo, la vida, la salud, la propiedad y la intimidad) y los fabricantes de IA:

  • La Comisi贸n Europea obliga a los demandados a revelar los elementos de prueba en determinadas circunstancias. En particular, la Comisi贸n reconoce a los demandantes el derecho a solicitar la divulgaci贸n de pruebas tanto antes de los litigios como en el curso de los mismos. Y establece que el incumplimiento de una orden de aportar informaci贸n permitir谩, en los t茅rminos de la Propuesta DIA, presumir que no se actu贸 con suficiente diligencia, y da lugar a una inversi贸n de la carga de la prueba.聽
  • Se introduce una presunci贸n iuris tantum de causalidad para los supuestos en los que el perjudicado demuestre el incumplimiento de una obligaci贸n, cuando sea razonablemente probable que exista un nexo causal con el rendimiento de la IA
  • La Propuesta DIA tambi茅n prev茅 normas aplicables a la conservaci贸n y divulgaci贸n de pruebas en casos relacionados con sistemas de IA de alto riesgo (seg煤n se definen en la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre inteligencia artificial, Propuesta de Reglamento IA -RIA_).

 

FUTURO REGLAMENTO DE SEGURIDAD EN LA IA

 

London’s Eye

En cuanto al 聽RIA , que no se centra en聽 RC, tiene聽 por objeto prevenir da帽os y perjuicios en el sentido de que establece requisitos de seguridad de los sistemas de IA .

  • En el cap铆tulo 1 del t铆tulo III聽 RIA se establecen las normas de clasificaci贸n y se definen las dos categor铆as principales de sistemas de IA de alto riesgo: Por un lado los sistemas de IA dise帽ados para utilizarse como componentes de seguridad de productos sujetos a una evaluaci贸n de la conformidad ex ante realizada por terceros; y por otro, los otros sistemas de IA independientes con implicaciones relacionadas principalmente con los derechos fundamentales (relacionados en el anexo III, a modo de lista abierta de ciertos sistemas de IA cuyos riesgos ya se han materializado o es probable que lo hagan pr贸ximamente. Este listado podr谩 ser ampliado y adaptado en los t茅rminos que establece el RIA.
  • En el t铆tulo II se establecen IA prohibidas. Se聽 distingue entre los usos de la IA que generan聽 riesgos inaceptables;聽 riesgos altos, y riesgos bajos o m铆nimos. La lista de pr谩cticas prohibidas聽 abarca todos los sistemas de IA cuyo uso se considera inaceptable por ser contrario a los valores de la Uni贸n. Engloban aquellas pr谩cticas que tienen un gran potencial para manipular a las personas mediante t茅cnicas subliminales que trasciendan su consciencia o que aprovechan las vulnerabilidades de grupos vulnerables concretos para alterar de manera sustancial su comportamiento de un modo que es probable que les provoque perjuicios f铆sicos o psicol贸gicos a ellos o a otras personas.聽 La propuesta proh铆be tambi茅n que las autoridades p煤blicas realicen calificaciones sociales basadas en IA con fines generales. Y se proh铆be -con alguna excepci贸n- el uso de sistemas de identificaci贸n biom茅trica remota 芦en tiempo real禄 en espacios de acceso p煤blico .
  • El聽t铆tulo聽III聽contiene normas espec铆ficas para aquellos sistemas de IA que acarrean un alto riesgo para la salud y la seguridad o los derechos fundamentales de las personas f铆sicas.
  • El聽t铆tulo聽IV聽se centra en determinados sistemas de IA para tener en cuenta los riesgos espec铆ficos de manipulaci贸n que conllevan.
  • En el t铆tulo VIII se definen las obligaciones de seguimiento y presentaci贸n de informaci贸n de los proveedores de sistemas de IA en su seguimiento posterior a la comercializaci贸n y en la comunicaci贸n e investigaci贸n de incidentes y defectos de funcionamiento relacionados con la IA.
  • El聽t铆tulo聽IX聽crea un marco para la elaboraci贸n de c贸digos de conducta, cuyo objetivo es fomentar que los proveedores de sistemas de IA que no son de alto riesgo cumplan de manera voluntaria los requisitos que son obligatorios para los sistemas de IA de alto riesgo

 

M谩s. Blog Prof Alberto Tapia. 11.05. 2023