¿Robot inventor? A propósito del caso DABUS puesto a prueba ante la USPTO, la OEP, la UKIPO y ante otras Oficinas ( y algunos Tribunales de Justicia)

Es relativamente frecuente escuchar,  en conversación ligera, que ya existen invenciones realizadas por máquinas. O que a éstas se deberían ciertas aportaciones reflejadas en reivindicaciones que forman parte de solicitudes de patentes.   Pues bien, en agosto de 2019, un equipo de investigadores presentó solicitudes de patentes en las que designaba como inventor a una Inteligencia Artificial, el DABUS. A través del procedimiento de solicitud internacional del PCT y la designación de diversos países, las solicitudes representan test de interés para avanzar en la posibilidad de reconocer (o no) algún margen de atribución a la IA en el derecho de patentes.

En tanto tenemos conocimiento, únicamente la Oficina de Patentes de Surafrica ha admitido (en 2021) la condición de inventor a esa IA (en Australia, tras un singular veredicto favorable del Tribunal Federal en 2021, el Tribunal Supremo de ese país desestimó la petición).

 

By A. Zorita

By A. Zorita

Antecedentes.

El Dr Steven Thaler presentó dos solicitudes de patente en las que aparecía el nombre de «Device for the Autonomous Bootstrapping of Unified Science» (DABUS) como único inventor, siendo DABUS un sistema de software de inteligencia artificial.

DABUS, en realidad, era resultado y se integraba en un amplio proyecto de investigación en el que participaron renombrados científicos como Ryan Abbott, Robert Jehan, Malte Koellner, Reuven Mouallem, Markus Rieck, Peggy Wu. El desarrollador de DABUS fue el propio Dr  Stephen Thaler (y equipo).

DABUS

DABUS (device and method for the autonomous bootstrapping of unified sentience) es un sistema deinteligencia artificial programado como una serie de redes neuronales artificiales. Estas redes fueron entrenadas con conocimientos generales de diferentes campos, y para poder identificar contenidos novedosos en distintos campos. Se les pidió crear invenciones de manera independiente.

DABUS ante la USPTO y ante los Tribunales de Estados Unidos

La Oficina de Patentes y Marcas de Estados Unidos (USPTO) determinó que dos   solicitudes de patente carecían de un inventor válido, y solicitó la identificación de los inventores. El Sr Thaler instó la anulación de las notificaciones, pero su pretensión fue denegada por parte de la USPTO y la solicitud de patente rechazada.  El Dr Thaler inició procedimientos ante el Tribunal de Distrito de EE.UU. para el Distrito Este de Virginia. Este Tribunal concluyó (en un procedimiento sumario) que las solicitudes carecían de inventor porque, según la ley estadounidense de patentes, un «inventor» debe ser una «persona física», y porque el significado llano de «persona física» en la ley equivale a «ser humano».

Guess who

El Sr Thaler recurrió ante el Circuito Federal. En su sentencia de 2022, Thaler v. Vidal, 43 F.4th,  1207, se inadmitió la posibilidad de que la IA fueran reconocida como inventora en sendas solicitudes de patente. rEl Circuito Federal comenzó su análisis revisando el lenguaje de la Ley de Patentes, que define a un «inventor», en 35 U.S.C. § 100(f), como el «individuo». (O individuos en las invenciones conjuntas). El Tribunal del Circuito Federal sostuvo que, aunque la Ley de Patentes no define «individuo», del lenguaje de sus disposiciones se desprende claramente que alude a una persona física, es decir, un ser humano. Y que, a menos que haya una indicación de que el Congreso que establezca algo distinto, la palabra «individuo» en la Ley de Patentes significa ser humano. Añadió, que exigir que un «inventor» sea un ser humano es coherente con los precedentes jurisprudenciales que sostienen que, ni las corporaciones o personas jurídicas, ni los Estados soberanos pueden ser inventores, porque no son personas físicas.  Por último, dijo también que en el lenguaje común, los diccionarios confirman que la palabra «individuo» utilizada por el legislador corresponde a un «ser humano».

Sin embargo,  el Tribunal del Circuito Federal no cerró totalmente el debate pues, para finalizar su sentencia, recordó que no se le había planteado directamente la cuestión de si las invenciones realizadas por seres humanos con la ayuda de inteligencia artificial pueden ser objeto de protección mediante patente .

  • El Tribunal del Circuito Federal se apoyó en algunos precedentes, como Univ. of Utah v. Max-Planck-Gesellschaft Zur Forderung Der Wissenschaften E.V. and Beech Aircraft Corp. v. EDO Corp., (Univ. of Utah v. Max-Planck-Gesellschaft Zur Forderung Der Wissenschaften E.V., 734 F.3d 1315, 1323 (Fed. Cir. 2013); Beech Aircraft Corp. v. EDO Corp., 990 F.2d 1237, 1248 (Fed. Cir. 1993). En esos asuntos se había afirmado que los inventores deben ser personas físicas, y que no pueden ser ni personas jurídicas de tipo corporativo (corporations) ni Estados soberanos
  • La USPTO se apoyó también en los test y criterios establecidos en  Pannu v. Iolab Corp96 F. Supp. 2d 1359 (S.D. Fla. 2000) en relación con el reconocimiento de la condición de co-inventor. En este caso se afirmó que, para ser reconocida entre los inventores en una solicitud de patente, la persona (física) inventora o co-inventora debe contribuir de alguna manera significativa a la concepción o a la concreción práctica de la invención. A partir de ese principio, se concluyó que en aquellas invenciones en las que participa una IA, los humanos que sean designados como inventores individual o colectivamente deben poder evidenciar una relevante aportación o contribución humana a la invención reivindicada . La contribución del inventor o co-inventor en ningún caso puede ser insignificante en relación con la dimensión de la invención completa. Esa aportación de un humano que aspira a ser reconocido como coinventor o como inventor, no puede consistir, simplemente, en explicar a los  otros inventores  conceptos que ya son bien conocidos o que se encuentran en el estado actual de la técnica” (eso es lo que había hecho quien inicialmente fue reconocido inventor en Pannu v OILAV Corp). Además, el análisis de la aportación de la persona inventora se realiza reivindicación por reivindicación y nunca de modo general.

Pisa di notte

Seguimiento y desarrollos en Estados Unidos

 

DABUS ante la UKIPO

La solicitud de patentes a favor de DABUS también se presentó ante la Oficina de Patentes de Reino Unido, fue rechazada y recurrida ante el Tribunal Supremo de ese país

  • En Inglaterra el rechazo se produjo mediante Decisión de la UKIPO de 4.12.2019. En su respuesta inicial pidió «declaraciones de invención» para que el solicitante, Dr. Thaler, indicase cómo había obtenido la invención otorgándole un plazo de 16 meses, con el apercibimiento de que en caso de no hacerlo, las solicitudes de patente se considerarían retiradas (Rule 10(3) /de las Reglas de Patentes de 2007.El 23 de julio de 2019, el Dr. Thaler presentó sus declaraciones de invención, en las que exponía su postura: las invenciones fueron creadas por su máquina de inteligencia artificial DABUS y el Dr. Thaler había adquirido el derecho a la concesión de las patentes como propietario de la máquina. La solicitud de patente fue rechazada
  • Este informe UKIPO da forma a la visión actual desde esa oficina

Recursos ante los Tribunales de Justicia de Reino Unido

Tras las negativas de la High Court y de la Court of Appeal a reconocer a DABUS como inventor, este asunto fue dirimido finalmente ante la Supreme Court. El Tribunal Supremo del Reino Unido. El recurso fue examinado el 2 de marzo de 2023 por Lord Hodge, Lord Kitchen (ponente), Lord Hamblen, Lord Leggat y Lord Richards.

  • La sentencia señala expresamente que no se ocupa de la cuestión de si los avances técnicos generados por máquinas autónomas impulsadas por IA deberían ser patentables o de si el término «inventor» debería ampliarse para incluir a las máquinas impulsadas por IA.  Por el contrario se apoya en la interpretación de la Ley de Patentes de 1977 y ajustándose a su texto da respuesta a una serie de cuestiones muy interesantesPor una parte, se fija en el alcance y en el significado de  la palabra «inventor»  , por relación a los artículos 7 y 13 de la Ley de Patentes de 1977: un inventor es el creador de la invención, que, según su significado ordinario esuna persona que crea un producto o proceso nuevo. Por lo tanto DABUS no es inventor en el sentido de los arts 7 a 13 de esa LeyPor otro lado, el Tribunal responde a la cuestión de si el Sr Thaler, en tanto que dueño de DABUS podía solicitar patente a su propio nombre. A este respecto,  los Lores recordaron que si bien el solicitante no tiene porque ser inventor si que debe ser una de las personas legitimadas (art 7-2-b y 7-2-c) o el cusahabiente del inventor. Pero, la condición de dueño no justifica el derecho a solicitar la patente, ni de los frutos de su propiedad (rechaza la teoría de la adhesión): que Thaler sea dueño de DABUS no le legitima tampoco para ser él mismo el titular de la patente)

DABUS ante la OEP

  • La OEP se pronunció en Múnichel 27 de enero de 2020., en relación con dos solicitudes de patente, la EP 18 275 163 (contenedor de comida que utiliza diseños fractales para crear hendiduras y bultos) y la EP 18 275 174 ( dispositivo y método para atraer atención óptica mejorada). En las dos solicitudes de patentes se designaba a DABUS como su inventor único, y como solicitante (y potencial titular de las patentes) constar al Dr. Thaler,  dueño de la máquina.
  • Ante la OEP, la respuesta al Caso Dabus  fue que la mera alusión formal del robot como inventor es insuficiente, pues la exigenca de mencionar al autor no es un mero formalismo, sino que es manifestación de un derecho de la personalidad. La OEP indicó así que los nombres otorgados a las personas no solo sirven para identificarlos, sino también para ejercitar unos derechos que pueden corresponder únicamente a seres humanos.l
  • La OEP señaló que el  inventor debe ostentar personalidad, pues solo de esta forma tendrá capacidad legal para ejercer los derechos que la legislación de patentes concede al inventor, como ser designado, ser mencionado o ser notificado de dicha designación. La OEP subraya que el inventor es la persona que contribuye al diseño, desarrollo o implementación de la idea inventiva.

A través del PTO han sido muchas otras las oficinas y tribunales que deniegan la posibilidad de reconocer la condición de inventor a la IA (con la excepción de Suráfrica, hasta el momento)

 

Ver también:

El informe de trasparencia del DSA y otros elementos informativos. Desarrollo regulatorio

La Comisión adoptó un Reglamento de Ejecución para armonizar el formato, el contenido y los períodos de notificación de los informes de transparencia  exigidos por el Digital Services Act o DSA de la Unión Europea. En efecto, el Reglamento de Ejecución (UE) 2024/2835 establece que los prestadores de servicios intermediarios y plataformas en línea deben utilizar formatos estandarizados para cumplir con las obligaciones de transparencia informativa de acuerdo con el DSA. Estos formatos están destinados a garantizar que la infomación proporcionada sea clara, accesible y fácil de comparar, facilitando su comprensión por los usuarios y su verificación por parte de las autoridades competentes.

Catedral y murallas de Astorga

Recuérdese que el DSA  ( Reglamento (UE) 2022/2065) exige diligencia y esfuerzos equilibrados y  proporcionados a determinados intermediarios de Internet para lograr un entorno en línea transparente y seguro en el que éstos compitan lealmente.

 

En concreto, el DSA impone específicas obligaciones de transparencia informativa para:

  • los prestadores de servicios intermediarios,
  • los prestadores de servicios de alojamiento de datos,
  • los prestadores de plataformas en línea,
  • Los prestadores de servicios de motores de búsqueda en línea
  • los prestadores de plataformas en línea (PL) de muy gran tamaño y de motores de búsqueda en línea  (MB) de muy gran tamaño.

Entre estas obligaciones que afectan a las PL y MB (de gran tamaño, ambos) se encuentra el informe de trasparencia.

Fechas armonizadas de presentación del informe de trasparencia

  • De conformidad con el artículo 42, apartado 1, DSA, los prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño deben redactar y presentar informes de trasparencia al menos cada seis meses. El inicio del ciclo de comunicación de información de cada prestador depende de la fecha en la cual el servicio haya sido designado como PL de muy gran tamaño o como MB en línea de muy gran tamaño.  Con el desarrollo reglamentario del que aquí se da cuenta, esos periodos se ordenan, y, se establece que el  primer ciclo de comunicación de información en el que deben utilizarse las plantillas armonizadas (anexo I del Reglamento de Ejecución)  abarcará el período comprendido entre el 1 de julio y el 31 de diciembre de 2025. A partir del 1 de enero de 2026, los periodos de informes seguirán el estándar semestral por meses
  • De conformidad con el artículo 15, apartado 1, DSA, los prestadores de servicios intermediarios, de servicios de alojamiento de datos y de plataformas en línea deben informar anualmente a partir del 17 de febrero de 2024, fecha de plena entrada en vigor del DSA.  A raíz del desarrollo reglamentario aquí explicado, el primer ciclo de comunicación de información armonizado completo abarca las fechas comprendidas entre el 1 de enero de 2026 y el 31 de diciembre de 2026.

Exenciones: Recuérdese, que el artículo 15, apartado 2, del DSA exime de la obligación de comunicación de información establecida en el artículo 15, apartado 1,  a los prestadores de servicios intermediarios que se consideren microempresas o pequeñas empresas en el sentido de la Recomendación 2003/361/CE y que no sean de muy gran tamaño conforme al propio DSA

Formato del informe de trasparencia

El Reglamento de Ejecución se ocupa de establecer Formatos estructurados y accesibles que permitan a los usuarios y a las autoridades navegar fácilmente por la información y verificar el cumplimiento de las normativas de transparencia.

  • Estos formatos deben ser legibles por máquina (automáticamente). Es decir, deben ser procesables por vía informática utilizando XML, JSON o soportes similares cuya lectura automática permite la interoperabilidad (y la automatización de auditorías).
  • La  información de estos informes se estructura en plantillas claras, accesibles mediante interfaces web sencillas para que los usuarios puedan consultarlas. Su presentación debe ser comprensible para los usuarios, evitando jergas complejas.
  • A fin de facilitar el cumplimiento de las obligaciones de transparencia de los prestadores, en particular para garantizar la legibilidad por máquina y la fácil accesibilidad, el formato de publicación se armoniza (así había sido previsto en el artículo 15, apartado 3, y el artículo 24, apartado 6 DSA).

Medidas obligatorias en la presentación de informes

    • Este Reglamento de Ejecución impone el formato de documento abierto CSV (valores separados por comas) para la elaboración de los informes de trasparencia. Las plantillas deben cumplir la norma CSV RFC 4180 y utilizar la codificación UTF-8 (formato de transformación Unicode de 8 bits). A tales efectos, se ofrecen las versiones CSV y XLSX de las plantillas en el anexo del Reglamento, tal y cómo podrán ser utilizadas en línea.
    • Será obligatorio acompañar la información del informe con metadatos estructurados. Los metadatos proporcionan información adicional sobre otros datos, como la fecha de recopilación, el autor, o el contexto en que se genera la información. Ayudan ayudar a las autoridades y al público a evaluar la fiabilidad y precisión de la información proporcionada
    • Aquí pueden descargarse las plantillas

 

Medidas recomendadas para la presentación de los informes: En este Reglamento de ejecución se anima a los prestadores de servicios intermediarios, los prestadores de servicios de alojamiento de datos, los prestadores de plataformas en línea, los prestadores de plataformas en línea de muy gran tamaño y los prestadores de motores de búsqueda en línea de muy gran tamaño a adaptar sus informes de transparencia a las plantillas del anexo I del Reglamento

 

Preparando la Navidad

Preparando la Navidad

Comparabilidad mediante indicadores: El desarrollo reglamentario del DSA al que aquí se alude establece algunas medidas destinadas a facilitar la comparación entre los indicadores utilizados por unos y otros agentes. Por ejemplo, indica que se comunicarán números enteros cuando se trate de los indicadores de recuento (como el número de moderadores por lengua oficial, el número de notificaciones recibidas, el número de notificaciones atendidas y los destinatarios activos mensuales del servicio). Por otro lado, los indicadores que indiquen un porcentaje se comunicarán como números en coma flotante en el intervalo de [0,1]. Además,  los indicadores relativos al tiempo medio se indicarán en horas.

 

Disponibilidad: El informe de trasparencia debe guardarse 5 años para permitir la supervisión y al menos durante ese periodo deben poderse consultar por el público. Ello no obsta a que se puedan modificar. Es decir, pueden publicarse versiones actualizadas de informes de transparencia publicados previamente con el fin de rectificar incoherencias, errores o cambios en la metodología aplicada para calcular las cifras notificadas. Ahora bien, las distintas versiones de un mismo informe de transparencia deben marcarse explícitamente para que sea posible y sencillo reconocer su versión y la fecha de ésta.

Reclamaciones y resolución de conflictos.  El informe de trasparencia debe contener información con referencias a los sistemas internos de gestión de reclamaciones y a los órganos de resolución extrajudicial de litigios a los que se haya adherido o con los que cuente el servicio del que se informa.

Otros datos del informe de trasparencia.  Este importante documento, además de todo lo anterior, incluirá referencias a las sanciones a reincidentes que hayan conducido a suspensión;  así como a la utilización de medios automatizados para la moderación de contenidos e indicadores de exactitud (cualitativo); a los recursos humanos contratados para la moderación de contenidos; y al promedio mensual de usuarios, entre otras

 

 

De nuevo, sobre el DSA

El Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, o DSA establece un marco normativo en la Unión Europea para las plataformas en línea y los servicios intermediarios digitales. Forma parte de las reformas legislativas activadas para modernizar el mercado único digital de la UE, junto con el Reglamento de Mercados Digitales (DMA), que a su vez regula la competencia en plataformas digitales.(ver también, con anterioridad, en este blog sobre DMA y DSA)

 

El DSA introduce nuevas obligaciones para los prestadores de servicios digitales que operan en la UE, incluidos los prestadores de plataformas en línea (normales y de gran tamaño), los mercados en línea (normales y de gran tamaño) y otros servicios de intermediación. El DSA establece medidas para combatir contenidos ilícitos, así como para proteger la privacidad de los usuarios, y para garantizar la transparencia y la rendición de cuentas en el uso de algoritmos y decisiones automatizadas. Sus objetivos principales son estos:

  1. Reforzar la seguridad en los servicios digitales en especial en lo relativo a contenidos, protegiendo a los usuarios frente a contenidos dañinos o ilegales, como discursos de odio, desinformación, o material relacionado con la explotación infantil. Al mismo tiempo, busca garantizar que los servicios en línea sean justos y transparentes para los usuarios.

 

  1. Organizar un sistema escalonado de responsabilidades según el tamaño, el impacto y el riesgo de los servicios digitales, con un enfoque particular en las plataformas grandes que tienen un alcance significativo, como las redes sociales y los motores de búsqueda.

 

  1. Promover la transparencia en las prácticas de moderación de contenido, en los algoritmos utilizados para la personalización de contenidos, y en la publicidad en línea. También establece mecanismos para una mejor rendición de cuentas por parte de las plataformas.

 

  1. Mejorar la protección de los derechos de los usuarios, por ejemplo en cuanto a la protección de sus datos personales y su libertad de expresión, así como para apelar decisiones sobre la moderación de contenidos.

 

Ámbito de aplicación subjetivo

El DSA es aplicable a todos los prestadores de servicios digitales establecidos en la UE, así como a aquellos que operan en la UE aunque no estén establecidos en ella, siempre que ofrezcan una serie de servicios a usuarios :

  • Servicios de intermediación: Son plataformas que proporcionan una infraestructura digital para la interacción entre usuarios y terceros, como los motores de búsqueda o las plataformas de comercio electrónico. Esta categoría es amplia o genérica
  • Plataformas en línea: Servicios digitales que permiten la interacción entre usuarios, como redes sociales, plataformas para compartir contenido o foros en línea. Se trata de un tipo de servicio de intermediación específico
    • El reglamento también introduce el concepto de «plataformas muy grandes» (VLOPs, por sus siglas en inglés), que son plataformas que tienen más de 45 millones de usuarios activos mensuales en la UE. Estas plataformas deben cumplir con obligaciones más estrictas debido a su impacto potencial en el espacio digital.
  • Mercados en línea: Plataformas que permiten a los vendedores ofrecer productos o servicios a los consumidores, como Amazon o eBay. Se trata de un tipo de servicio de intermediación específico
  • Servicios de alojamiento de contenido: Plataformas que permiten el almacenamiento y distribución de contenidos generados por los usuarios, como YouTube o Facebook.

Obligaciones para los Prestadores de Servicios Digitales

Las obligaciones que se imponen son cumulativas y proporcionadas al servicios prestado y al volumen del prestador. Para su cumplimiento los prestadores deben contar con mecanismos de diligencia debida que faciliten la identificación de problemas y la búsqueda de soluciones a través de las obligaciones del DSA

1.Moderación de Contenidos. Deben tener mecanismos efectivos para abordar los contenidos ilícitos o dañinos. Esto incluye **informar a las autoridades** cuando detecten contenidos ilegales, **remover o bloquear** este contenido de manera efectiva y **proveer medios de apelación** para los usuarios que consideren que sus contenidos han sido eliminados de forma incorrecta.

2.Publicidad Transparente. Las plataformas deben ser transparentes en cuanto a las **prácticas de publicidad** y la **recomendación de contenidos**. Las plataformas deben proporcionar a los usuarios información clara sobre los anuncios que ven, incluyendo quién los ha pagado, por qué se les ha mostrado el anuncio y qué criterios se utilizaron. En cuanto al uso de Algoritmos y Decisiones Automatizadas**: Los servicios que utilizan algoritmos para recomendar contenido o personalizar la experiencia del usuario deben **explicar** cómo funcionan estos algoritmos y permitir que los usuarios tengan un control sobre ellos, incluida la opción de desactivarlos.

3.Gestión de Riesgos: Los prestadores de servicios deben evaluar los riesgos asociados con sus actividades y tomar medidas para mitigar estos riesgos. Esto es particularmente relevante para las **plataformas muy grandes** que tienen un impacto significativo en los usuarios y la sociedad.

4. Transparencia y auditoría. La transparencia  es un principio clave en la DSA. Los prestadores de servicios deben:

  • Informar sobre sus políticas de moderación de contenido, incluidas las medidas para abordar desinformación, discursos de odio y otros contenidos nocivos.
  • Presentar informes de transparencia periódicos, detallando el volumen de contenido moderado, los tipos de contenido retirado y las medidas tomadas para prevenir la propagación de contenido ilegal.
  • Las plataformas más grandes deben someterse a auditorías independientes para evaluar el cumplimiento de la DSA, especialmente en lo que respecta al uso de algoritmos y la gestión de riesgos.

Protección de los Derechos de los Usuarios

El DSA establece una serie de derechos para los usuarios, tales como:

  • Derecho a la información: Los usuarios deben ser informados de manera clara sobre las políticas de moderación de contenido, los procedimientos de apelación y el uso de algoritmos.
  • Derecho a la apelación: Los usuarios tienen derecho a apelar decisiones relacionadas con la moderación de contenidos, como la eliminación de sus publicaciones o la suspensión de sus cuentas.
  • Protección de los menores y la privacidad: Las plataformas deben tomar medidas adicionales para proteger a los menores de contenidos nocivos, así como garantizar que los servicios respeten la **privacidad** de los usuarios.

OBLIGACIONES ESPECIALES PARA PLATAFORMAS MUY GRANDES (VLOPS)

Las plataformas muy grandes (VLOPs) que superan los 45 millones de usuarios activos mensuales en la UE deben cumplir con una serie de obligaciones adicionales y más estrictas:

  • Evaluaciones de impacto: Las VLOPs deben realizar evaluaciones de los posibles riesgos sistémicos que sus servicios puedan representar, como la desinformación o el discurso de odio, y adoptar medidas para mitigar estos riesgos.
  • Rendición de cuentas pública: Estas plataformas deben proporcionar informes detallados sobre sus esfuerzos para abordar estos riesgos, incluidas las acciones tomadas para proteger los derechos de los usuarios y garantizar la seguridad en línea.
  • Auditorías externas obligatorias: Las VLOPs deben someterse a auditorías externas que evalúen su cumplimiento con la DSA, en particular en cuanto a la gestión de contenido y la moderación.

 

SUPERVISIÓN Y SANCIONES

  • El cumplimiento del DSA es supervisado por  autoridades nacionales de supervisión de cada Estado miembro de la UE. Además, la Comisión Europea tiene un papel clave en la supervisión de las plataformas más grandes (VLOPs). Estas autoridades tienen la capacidad de imponer sanciones a las plataformas que no cumplan con las obligaciones establecidas en la DSA:
    • Multas de hasta el 6% de la facturación global anual para las plataformas que no cumplan con la normativa.
    • Sanciones adicionales si se detectan infracciones graves o continuadas.

VER: Guía práctica de implementación del DSA (Garrigues)

 

STJUE, elaboración de perfiles crediticios y decisiones apoyadas en actos o hechos automatizados

Galería

La Sentencia del Tribunal de Justicia (Sala Primera) de 7 de diciembre de 2023, OQ contra Land Hessen (asunto C-634/21) resulta de especial interés para la protección de datos en las decisiones apoyadas en la automatización. Esta STJUE responde a una … Sigue leyendo

Actualizando – a propósito de la ciberseguridad en mercados de valores. EEUU

Con motivo de una intervención , estos días, en el I Encuentro INCIBE de Académicos  en materia de Ciberseguridad y Derecho, se retoma y actualiza una antigua entrada de agosto de 2017

Decíamos que en EEUU la Regulation Systems Compliance and Integrity , RSCI un reglamento que había sido aprobado por la Securities and Exchange Commission, SEC, en 2014. El objetivo principal del RSCI es lograr un funcionamiento seguro de los sistemas tecnológicos de los  «participantes clave del mercado». La RSCI fue objeto de atención mediática y constituyó una respuesta a los incidentes y fallos en la seguridad y funcionamiento de sistemas informáticos que habían sido comunicados, o que se habían hecho evidentes. De modo muy particular responde a los que condujeron al llamado flash «crash» de 6 de mayo de 2010. 

La SEC ya -antes de 2015- contaba con una línea de política estratégica de seguridad basada en principios voluntarios (Política de Revisión de la Automatización, ARP) , que incluía inspecciones de vigilancia tecnológica. Además, la Government Accountability Office había recomendado introducir normas obligatorias, así como mayores controles y supervisión de los sistemas informáticos con incidencia en la actividad de los mercados. La RSCI avanza en esa línea:

    • Los sistemas de cumplimiento y de integridad a los que refiere a RSCI consisten en mecanismos informáticos y procedimientos pautados que se utilizan en procesos digitales desarrollados en los centros de negociación y en su entorno. Se despliegan sobre la negociación, la liquidación, el enrutamiento de ordenes, los datos operativos y de supervisión de mercado, entre otros.
    • La RSCI impone que las entidades aprueben políticas y pongan en marcha procedimientos escritos para proteger su capacidad operativa (incluyendo pruebas regulares para identificar fallos y amenazas). Deben garantizar que cuentan con «niveles de capacidad, integridad, resiliencia, disponibilidad y seguridad adecuados para mantener su capacidad operativa, y para interactuar en mercados ordenados”. Se les impone, además, estrictas obligaciones de notificación al supervisor de mercados (SEC), y de difusión de información entre sus propios administradores y altos ejecutivos, y entre  los miembros o partes que se relacionen con la entidad, además de deberes de registro de los incidentes y de las medidas de cumplimento.
    • El vigente Reglamento exige a las entidades sujetas, entre otras cosas: disponer de políticas y procedimientos exhaustivos diseñados razonablemente para garantizar que sus sistemas tengan los niveles de capacidad, integridad, resistencia, disponibilidad y seguridad adecuados para mantener la capacidad operativa y promover el mantenimiento de unos mercados justos y ordenados; adoptar las medidas correctivas apropiadas en respuesta a los problemas de los sistemas; proporcionar notificaciones e informes a la Comisión diseñados para facilitar la supervisión de la tecnología del mercado de valores; difundir información sobre los problemas de los sistemas a las partes afectadas; realizar una revisión anual de las políticas y procedimientos de las entidades sujetas. Estas entidades también tendrán que realizar pruebas coordinadas de continuidad de la actividad y pruebas de recuperación en caso de catástrofe (BC/DR), sobre ambas tendrán que crear, mantener y conservar registros.
    • En relación con los marcos tecnológicos, como no existían referencias tecnológicas totalmente fiables se presume que son seguras las disposiciones que se vayan aprobando para el sector financiero por el gobierno de los Estados Unidos u otra «organización ampliamente reconocida”

Paraninfo Gordón Ordás. Universidad de León

Actualmente el RSCI entrado en un proceso de reforma: En 2023 la SEC propuso modificaciones al RSCI de la Securities Exchange Act de 1934 («Exchange Act»),  cuyo resumen puede consultarse aquí

Las modificaciones propuestas ampliarían la definición de «entidad sujeta» para incluir una gama más amplia de participantes en las infraestructura del mercado de valores de Estados Unidos, y actualizarían ciertas disposiciones del RSCI para tener en cuenta la evolución del panorama tecnológico de los mercados:

      • La ampliación propuesta añadiría las siguientes entidades: los depositarios de datos de permutas financieras basadas en valores («SBSDR», por sus siglas en inglés) registrados; los intermediarios registrados que superen un umbral de activos o de actividad de operaciones; y las agencias de compensación adicionales exentas de registro. Los agentes de bolsa registrados ante la Comisión en virtud de la Sección 15(b) que superen un umbral de activos totales o un umbral de actividad de transacción en acciones NMS, opciones cotizadas en bolsa, valores del Tesoro de EE.UU. o valores de la Agencia; y – Todas las agencias de compensación exentas de registro.
      • Además, las actualizaciones propuestas modificarían las disposiciones del Reglamento en relación con : (i) la clasificación de sistemas y la gestión del ciclo de vida; (ii) la gestión de terceros/proveedores; (iii) la ciberseguridad; (iv) la revisión de la SCI; (v) el papel de las normas industriales actuales; y (vi) el mantenimiento de registros y asuntos relacionados.  Sin olvidar que la Comisión ha solicitado comentarios al público sobre si otras entidades, como los intermediarios que utilizan sistemas electrónicos o automatizados para la negociación de valores de deuda corporativa o valores municipales, deben estar sujetos al Reglamento.
      • Otras obligaciones que se imponen , de aprobarse la propuesta de reforma, obligan a especificar que las políticas y procedimientos requeridos de una entidad sujeta incluyen: o bien un programa de inventario, clasificación y gestión del ciclo de vida de los sistemas SCI y los sistemas SCI indirectos; o bien un programa para gestionar y supervisar a terceros proveedores, incluidos los proveedores de servicios en la nube, que proporcionen o soporten sistemas SCI o SCI indirectos. También, como se indicó antes, que cuenten con Planes de resistencia y recuperación (BC/DR) y que éstos prevean la respuesta para supuestos en los que la indisponibilidad de cualquier proveedor externo sin el cual habría un impacto material en los sistemas SCI críticos; o un programa para evitar el acceso no autorizado a los sistemas SCI y a la información en ellos contenida.

Entradas relacionadas:

 

Ciberseguridad en mercados de valores (III) Guia IOSCO de resiliencia cibernética de infraestructuras mercados. Y, otras guías y propuestas

Ciberseguridad, orientaciones para empresas cotizadas. Antecedentes, a la espera de la reforma normativa en Estados Unidos

Ciberseguridad en mercados de valores (I). Cooperación internacional y flexibilidad

Ciberseguridad en mercados de valores (II). Informe Consejo IOSCO 2016

Investigación financiada por el proyecto nacional PID2021-127527OB-I00, Proyectos de Generación de Conocimiento 2021, Modalidades: Investigación No Orientada e Investigación Orientada

Informe anual sobre el DMA- Marzo 2024

Galería

El artículo 35 del DMA exige a la Comisión que presente un informe anual sobre la aplicación de dicho Reglamento y los progresos realizados en la consecución de sus objetivos. El primer informe de este tipo fue publicado en marzo de … Sigue leyendo

Subasta de datos personales con fines publicitarios: El Tribunal de Justicia aclara las normas sobre subasta en línea instantánea y automatizada de perfiles de usuarios para la compraventa de espacios publicitarios en Internet conforme al Reglamento (UE) 2016/679

Galería

Esta galería contiene 3 fotos.

Las cuestiones fundamentales que trata de despejar el Tribunal de Justicia en esta Sentencia son, fundamentalmente, las siguientes: ¿Conforme al Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de … Sigue leyendo

STJUE. Control de contenidos subidos a plataformas, derechos de autor y libertad de expresión

A propósito de la reciente Sentencia del Tribunal de Justicia de la Unión Europea (Gran Sala) de 26 de abril de 2022, Polonia contra Parlamento y Consejo (C-401/19), que tiene por objeto un recurso de anulación interpuesto, con arreglo al artículo 263 TFUE, el 24 de mayo de 2019,

El texto completo de la Sentencia puede consultarse aquí

La Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019 sobre derechos de autor y derechos afines en el Mercado Único Digital, que modifica las Directivas 96/9/CE y 2001/29/CE estableció un mecanismo específico de responsabilidad con respecto a los proveedores de servicios de intercambio de contenidos en línea («proveedores»).

Concretamente, el artículo 17 de dicha Directiva establece el principio de que los proveedores son directamente responsables cuando los usuarios de sus servicios carguen, ilícitamente, obras y otros materiales protegidos. No obstante, pueden eximirse de esta responsabilidad si realizan determinadas actuaciones. Entre ellas, y conforme a lo dispuesto en el artículo 2 de la Directiva, deben supervisar activamente los contenidos cargados por los usuarios, con el fin de impedir la puesta en línea de materiales protegidos respecto de los que, los titulares de derechos no consienten en la puesta a disposición.

El TJUE, en esta sentencia, se pronunció por primera vez sobre la interpretación de la Directiva 2019/790. Y, desestimó el recurso de anulación que había interpuesto Polonia. El TJUE establece que la obligación impuesta por la Directiva a los proveedores consistente fundamentalmente en realizar una revisión automática previa de los contenidos subidos por los usuarios, está acompañada de las garantías adecuadas para asegurar el respeto del derecho a la libertad de expresión e información de dichos usuarios.

El TJUE añadió que la Directiva asienta un marco de equilibrio entre el derecho a la libre expresión e información y el derecho a la propiedad intelectual.

Barbanzóns

Barbanzóns

EL RECURSO DE NULIDAD. La República de Polonia había interpuesto un recurso solicitando,  la anulación de las letras b) y c) in fine, del artículo 17, apartado 4, de la Directiva 2019/790 y, con carácter subsidiario, la anulación de dicho artículo en su en su totalidad.

Alegaba la demandante que el precepto cuestionado obliga a los prestadores a realizar -mediante herramientas informáticas de filtrado automático- un control preventivo de todos los contenidos que sus usuarios deseen cargar.  Consideraba Polonia que la Directiva no establece salvaguardias que garanticen el respeto del derecho a la libertad de expresión y de información, garantizado en el artículo 11 de la Carta.

Más concretamente, la nación recurrente consideraba que la obligación impuesta a los prestadores de hacer los «mayores esfuerzos» para garantizar dos resultados concretos establecidos en el precepto cuestionado, implicaría la implantación de controles preventivos automáticos de filtrado de contenidos subidos por los usuarios. Estos controles serían, conforme a la interpretación sostenida por Polonia, contrarios a la libertad de expresión. Y, no respetarían la exigencia de proporcionalidad y de necesidad de los límites que puedan imponerse sobre los Derechos reconocidos en la Carta y en otros Instrumentos Internacionales para la tutela de Derechos fundamentales.

Las obligaciones de resultados a las que nos hemos referido, y cuyo incumplimiento generaría responsabilidad de los proveedores son estos:

  • Por una parte, la indisponibilidad de obras y otras prestaciones específicas respecto de las cuales los titulares de derechos les hayan facilitado la información pertinente y necesaria (conforme al artículo 17, apartado 4, letra b), de la Directiva (UE) 2019/790).
  • Por otra parte, evitar que las obras y otras prestaciones notificadas, respecto a las cuales los titulares de derechos han presentado una notificación suficientemente justificada se carguen en el futuro (conforme al artículo 17, apartado 4, letra c), in fine, de la Directiva (UE) 2019/790)

 

ADMISIBILIDAD DEL RECURSO. En relación con la admisibilidad del recurso, el TJUE declaró que las letras b) y c), in fine del artículo 17, apartado 4, de la Directiva 2019/790 no son disociables del resto del artículo 17.

De esta manera, el TJUE interpretó que el artículo 17 de la Directiva 2019/790 establece un nuevo régimen general de los proveedores. Y que las distintas disposiciones de este precepto conforman un conjunto equilibrado de derecho positivo para ordenar los derechos e intereses de los prestadores, de los de los usuarios de sus servicios y los de los titulares de derechos. Por ello, la anulación parcial alteraría el contenido del artículo 17.  En consecuencia, el TJUE declaró inadmisible -exclusivamente- la pretensión de anulación de la letra b) y de la letra c).

 

FONDO DEL ASUNTO. En cuanto al fondo del asunto, el Tribunal de Justicia examinó el único motivo, admitido, del recurso: la alegación de limitación del ejercicio del derecho a la libertad de expresión e información, derivada del régimen de responsabilidad introducido por el artículo 17 de la Directiva 2019/790.

Como punto de partida de su análisis, el TJUE reconoció que el intercambio de información en Internet a través de plataformas de intercambio de contenidos en línea está comprendido en el ámbito de aplicación del artículo 10 del Convenio para la Protección de los Derechos Humanos y de las Libertades Fundamentales (Convenio) y en el artículo 11 de la Carta Europea de Derechos (Carta). Observó además, que para evitar la responsabilidad de los proveedores derivada de situaciones en las que los usuarios suben a las plataformas contenidos ilícitos o sin autorización de los titulares de derechos sobre tales contenidos, los proveedores deben demostrar que cumplen todas las condiciones de exención de responsabilidad, establecidas en el artículo 17, apartado 4, letras a), b) y c), de la Directiva 2019/790.

Las condiciones de exención de responsabilidad de proveedores son: que han hecho todo lo posible para obtener dicha autorización [letra a)];  que han actuado con celeridad para poner fin, en sus plataformas, a las infracciones específicas de los derechos de autor después de que se hayan producido, tras recibir una notificación suficientemente justificada de los titulares de derechos [letra c)]; y que  han hecho todo lo posible, tras recibir dicha notificación o cuando dichos titulares de derechos les hayan proporcionado la información pertinente y necesaria antes de que se produzca una infracción de los derechos de autor “de acuerdo con los altos estándares de diligencia profesional del sector» para evitar que se produzcan o repitan dichas infracciones se produzcan o vuelvan a producirse [letras b) y c)].

El cumplimiento de las exigencias de exoneración exige, de facto, que los proveedores realicen una revisión previa de los contenidos que los usuarios desean subir a sus plataformas. Pero, añade el TJUE de conformidad con el precepto analizado, siempre que hayan recibido de los titulares de los derechos la información o los avisos previstos en las letras b) y c) del artículo 17, apartado 4, de la Directiva 2019/790.

Al realizar las revisiones exoneratorias, ciertamente los proveedores utilizarán herramientas de reconocimiento y filtrado automático. Tales instrumentos podrían ser susceptibles de restringir la difusión de contenidos en línea y, por tanto, constituir una limitación del derecho a la libertad de expresión e información garantizado en el artículo 11 de la Carta. Además, esta limitación sería consecuencia directa del régimen específico de responsabilidad establecido por el legislador europeo. No obstante,  correspondía al TJUE analizar también si la limitación controvertida estaría justificada a la luz del artículo 52, apartado 1, de la de la Carta. Y, en este sentido el TJUE manifiesta con bastante rotundidad:

Lariño. A Coruña

  • Que se trata de una limitación de un Derecho Fundamental que tiene base legal. Ello es así dado que resulta de las obligaciones impuestas a los prestadores de los citados servicios por una disposición de derecho positivo de la UE (las letras b) y c), in fine, del artículo 17, apartado 4, de la Directiva 2019/790). Pero además, que tal limitación respeta la esencia del derecho a la libertad de expresión e información de los usuarios de Internet.
  • En el marco del control de la proporcionalidad, el TJUE considera que esta limitación responde a la necesidad de proteger la propiedad intelectual garantizada en el artículo 17, apartado 2, de la Carta. Y, es necesaria para satisfacer dicha tutela. De este modo, las obligaciones impuestas a los proveedores no restringen de forma desproporcionada el derecho a la libertad de expresión e información de los usuarios.
  • Además considera el TJUE que el legislador de la UE estableció un límite claro y preciso a las medidas que pueden adoptarse en relación con las verificaciones de contenidos. El legislador excluyó, en particular, las medidas que filtran y bloquean los contenidos lícitos a la hora de cargarlos.
  • Por otra parte conforme a esta STJUE, la Directiva 2019/790 exige a los Estados miembros que garanticen que los usuarios estén autorizados a cargar y poner a disposición contenidos generados por ellos mismos con los fines específicos de fines de cita, crítica, reseña, caricatura, parodia o pastiche. Y, que los proveedores informen a sus usuarios de que pueden utilizar obras y otras materias protegidas en virtud de las excepciones o limitaciones a los derechos de autor y derechos afines previstas en la legislación de la UE.(Artículo 17(7) y (9) de la Directiva 2019/790.
  • Los proveedores sólo pueden incurrir en responsabilidad cuando los titulares de derechos afectados les faciliten la información pertinente y necesaria en relación con el contenido en cuestión. Por tanto, el artículo 17 de dicha Directiva no conlleva ninguna obligación de control general: no se puede exigir a los prestadores que impidan la carga y la puesta a disposición del público de contenidos. Para que estos contenidos sean considerados ilegales deberán ser objeto de una evaluación independiente (Artículo 17 (8) de la Directiva 2019/790). En este sentido, la disponibilidad de contenidos no autorizados sólo puede evitarse previa notificación de los titulares de los derechos.
  • Añade el TJUE que la Directiva 2019/790 introduce varias garantías procesales, en particular la posibilidad de que los usuarios presenten una reclamación cuando consideren que el acceso a los contenidos cargados ha sido inhabilitado erróneamente, así como el acceso a mecanismos de reparación extrajudicial y a recursos judiciales eficaces. (Apartados 1º y 2º del artículo 17(9) de la Directiva 2019/790)
  • Finalmente, se subraya en esta STJUE que dicha Directiva exige a la Comisión Europea que organice diálogos con las partes interesadas para debatir las mejores prácticas de cooperación entre los proveedores y los titulares de derechos, y también que publique orientaciones sobre la aplicación de ese régimen (artículo 17(10) de la Directiva 2019/790)

En consecuencia, el Tribunal de Justicia concluyó que la obligación de los proveedores de revisar, antes de su difusión al público, los contenidos que los usuarios desean subir a sus plataformas, resultante del el régimen específico de responsabilidad establecido en el artículo 17, apartado 4, de la Directiva 2019/790, ha sido acompañada por las salvaguardias adecuadas por parte del legislador de la UE con el fin de garantizar el respeto del derecho a la libertad de expresión e información de los usuarios, y un justo equilibrio entre ese derecho, por un lado, y el derecho a la propiedad intelectual, por otro. Corresponde a los Estados miembros, al transponer el artículo 17 de dicha Directiva, velar por una interpretación de esta disposición que permita un justo equilibrio entre los distintos derechos fundamentales protegidos por la Carta. Además, en relación con las medidas de transposición las autoridades y los órganos jurisdiccionales de los Estados miembros no sólo deben interpretar su Derecho nacional de forma coherente con dicho artículo 17, sino también asegurarse de que su interpretación no entre en conflicto con derechos fundamentales o con otros principios generales del Derecho de la UE, como el principio de proporcionalidad.

Sanción de 225 M€ a WhatsApp por violación del Reglamento General de Protección de Datos. Irlanda /UE/SEPD

La Comisión de Protección de Datos de Irlanda (Ireland’s Data Protection Commission) (IDPC) impuso recientemente una sanción de 225 millones de euros a WhatsApp Ireland Ltd (“WhatsApp”)  por  falta de transparencia en  sus prácticas de tratamiento de datos de usuarios, que no cumplirían las exigencias de los artículos 12-14 del Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos, RGPD).

 

Las investigaciones iniciales

Lariño

El IDPC había iniciado formalmente sus investigaciones sobre WhatsApp el 10 de diciembre de 2018, tras recibir quejas respecto a las actividades de tratamiento de datos de WhatsApp, así cómo una solicitud de asistencia mutua de la Autoridad Federal de Protección de Datos de Alemania (Bundesbeauftragter für den Datenschutz und die Informationsfreiheit) a efectos  del cumplimiento del RGPD por parte de WhatsApp. Con todo, formalmente el expediente se abrió «a iniciativa propia» por parte del IDPC. La investigación del supervisor irlandés se centró en averiguar si WhatsApp había cumplido con sus obligaciones de transparencia conforme al RGPD,  particularmente en lo que respecta al  tratamiento de datos personales de los usuarios de la aplicación de mensajería (e incluso de titulares no usuarios ya que WhatsApp permite cargar números de no usuarios, si el usuario actualiza sus contactos); y a su intercambio con otras entidades del Grupo Facebook (recuérdese que Facebook adquirió WhatsApp en 2014). Como  consecuencia de esta investigación del IDPC, este organismo hizo público un borrador de decisión sancionadora que notificó a las Autoridades Supervisoras Competentes (CSAs) de la UE conforme a lo que exige el artículo del 60RGPD.

En su propuesta de sanción, el IDPC había identificado infracciones de los artículos 12-14 del RGPD por parte  WhatsApp, con respecto a los usuarios y a no usuarios, determinando que WhatsApp no les había proporcionado información suficientemente clara, transparente o adecuada sobre sus actividades de tratamiento. Fundamentalmente, el IDPC consideró que WhatsApp no había identificado con suficiente detalle la base jurídica para cada actividad de tratamiento, como lo requiere el Artículo 13 (1) (c) del RGPD. Y,  con respecto a las transferencias de datos personales a jurisdicciones fuera del EEE, determinó que la declaración de WhatsApp de que las transferencias «pueden» basarse en determinaciones de adecuación era insuficiente para cumplir con el Artículo 13 (1) (f) del RGPD. En este último aspecto, según la propuesta de resolución sancionadora WhatsApp debería haber identificado con concreción si existía o no una decisión de adecuación para respaldar la transferencia de categorías específicas de datos, y  determinó que la declaración de WhatsApp de que las transferencias «pueden» basarse en determinaciones de adecuación era insuficiente para cumplir con el artículo 13 (1) (f) del RGPD: WhatsApp debería haber identificado si existía o no una decisión de adecuación para respaldar la transferencia de categorías específicas de datos y no limitarse a una afirmación vaga.

Previamente a la notificación a otras CSAs, en diciembre de 2020, el IDPC había propuesto una multa de (30-50 millones €). Pero, fue objetada por ocho de las CSAs que recibieron la notificación, el asunto alcanzó al Supervisor Europeo de Protección de Datos, y la sanción finalmente impuesta  por el IDPC es de 225 millones €.

La intervención del Supervisor Europeo de Protección de Datos (SEPD)

Debido a la naturaleza transfronteriza de las actividades de tratamiento y trasferencia de datos de WhatsApp, el proyecto de decisión de la IDPC fue revisado por otras autoridades de supervisión relevantes, conforme al mecanismo de cooperación y coherencia del Capítulo VII del RGPD. Y , las objeciones formuladas  se remitieron al  Supervisor Europeo de Protección de Datos («SEPD»), de acuerdo con el procedimiento de resolución de disputas establecido en el artículo 65 (1) (a) del RGPD. Este último organismo ha adoptado una posición más estricta que el IDPC

El SEPD se opuso a la propuesta del IDPC. Frente a la opinión inicial de éste, que consideraba que WhatsApp había cumplido el ordenamiento sobre tratamiento de datos ( Artículo 13 (1) (d) del RGPD), el SEPD recordó, por el contrario, que el operador de mensajería instantánea debería haber identificado el interés específico para cada actividad de tratamiento relevante, para así garantizar que los interesados puedan ejercer los derechos que les asisten en virtud del RGPD. El SEPD también señaló que el efecto acumulativo de los incumplimientos por parte de WhatsApp tenía como consecuencia la violación del principio de transparencia contemplado en el Artículo 5 (1) (a) del RGPD, debido «a la “gravedad , la reiteración y el impacto de las infracciones». Y, en virtud de ello consideró que se había producido un incumplimiento adicional a lo establecido por la IDPC.

Por otra parte y con respecto a la cuantía de la multa inicialmente propuesta por la IDPC, la SEPD determinó que debería haberse tenido en cuenta  la facturación consolidada de Facebook Inc., matriz de WhatsApp. Además, si bien el IDPC había propuesto un compromiso único y conjunto a Facebook y WhatsApp en su proyecto de decisión, el SEPD recordó que según la jurisprudencia del TJUE ( Akzo Nobel and Others v Commission, (C-97/08 P, jsentencia de 10 septiembre 2009), cuando una empresa matriz y su filial conforman una unidad, a efectos de categorizar la infracción (aunque haya sido directamente cometida por la filial), debe tenerse en cuenta el volumen de negocios total de las empresas que componen la unidad, pues es éste el que determina la capacidad financiera de lo que , a estos efectos, se considera una empresa unitaria. El SEPD también consideró que el volumen de negocios consolidado era relevante para el cálculo de la multa en sí, no solo para garantizar que la multa no excediera los límites establecidos en el artículo 83 (4) – (6) del RGPD (lo que si respetaba lo propuesto por el IDPC), sino para que las sanciones sean  efectivas, proporcionadas y tengan efecto disuasorio.

Además, el SEPD aclaró que cuando se hayan cometido múltiples infracciones en el contexto de una misma o varias actividades de tratamiento vinculadas, todas esas infracciones deben tenerse en cuenta en el cálculo de la multa correspondiente a los efectos del artículo 83, apartado 3, del RGPD. Con el límite de que la sanción total no debe exceder la cantidad especificada para la infracción más grave.

Finalmente, el SEPD sostuvo que WhatsApp debe cumplir con sus actividades de tratamiento en un plazo de tres meses, a diferencia del período de tiempo original de seis meses propuesto por el IDPC, dada la importancia primordial del cumplimiento del principio de transparencia consagrado en el  RGPD. WhatsApp también debe actualizar sus avisos de privacidad para usuarios y no usuarios para incluir la información requerida en virtud de los artículos 13 y 14 del RGPD, incluso para aclarar cómo estos pueden  presentar una queja ante una autoridad supervisora con respecto a las actividades de tratamiento de WhatsApp.

La Decisión vinculante del SEPD y la Resolución sancionadora del IDPC

El 28 de julio de 2021, el SEPD adoptó una Decisión vinculante que fue notificada al IDPC. La Decisión del SEPD contenía instrucciones exigiendo al IDPC que procediese a una nueva valoración y que incrementase la sanción. Consecuencia de todo lo anterior, la multa efectivamente impuesta por el IDPC a WhatsApp Ireland Ltd y anunciada el 2 de septiembre de 2021 asciende a 225 millones € .

Junto con la sanción, el supervisor irlandés ha advertido a WhattsApp sobre la importancia de  reformar sus mecanismos de tratamiento de texto.

Aunque en su resolución, la IDPC concede a WhatsApp un plazo de 6 meses para adaptarse al RGPD, WhatsApp ha manifestado su intención de recurrir judicialmente

Software crítico en el sector público. Orden Ejecutiva sobre Ciberseguridad del Presidente Biden y su desarrollo

Según lo solicitado en la Orden Ejecutiva de Ciberseguridad («EO») del 12 de mayo de 2021 publicada por la Administración de Biden ( aquí ), el National Institute for Standards and Technology, NIST ha publicado su definición de «software crítico» dentro del plazo de 45 días que establecía la OE. Esta definición de «software crítico» representa un requisito, conforme a la OE, para dotar de seguridad a la cadena de suministro de software, especialmente en lo relativo a los proveedores de servicios para el ejecutivo Federal de Estados Unidos. Eventualmente, se reflejará en un  futuro Reglamento Federal de Adquisiciones obligatorio para los proveedores de software. Como es sabido, los documentos sobre seguridad del NIST acaban constituyendo una referencia de definiciones y estándares en todo el mundo, y muy especialmente en el ámbito de la ciberseguridad.

Acrobacias 2015

acrobacias2015

La definición de NIST de «software crítico» como se establece en su documento técnico publicado el 25 de junio de 2021 incluye a cualquier software  que influye directamente sobre otro software o sobre componentes de otro software («dependencias directas» y cuenta con al menos uno de estos atributos:

  • está diseñado para ejecutarse con permisos o privilegios o para administrar privilegios;
  • tiene acceso directo o privilegiado a redes o recursos informáticos;
  • está diseñado para controlar el acceso a datos o tecnología operativa;
  • realiza una función fundamental para los servicios «críticos de confianza»; o,
  • opera fuera de los límites de confianza normales, con acceso privilegiado.

El documento técnico especifica además, que  esa definición se aplica a software muy variado, como software independiente, software integral para dispositivos o componentes de hardware específicos, software basado en la nube; y tanto cuando ha sido adquirido por compra como cuando es desarrollado en sistemas de producción y utilizado para fines operativos. Sin embargo,  cuando se trata de software utilizado únicamente para investigación o pruebas , es decir, que no se implementa en sistemas de producción, estaría fuera del alcance de esta definición.

By M.A. Díaz

NIST proporciona también información sobre cuestiones terminológicas de la propia definición. Por ejemplo las «Dependencias directas sobre otro software” significa, para un componente o producto dado, “otros componentes de software (por ejemplo, bibliotecas, paquetes, módulos) que están directamente integrados y son necesarios para el funcionamiento de la instancia de software en cuestión. No incluye las interfaces y servicios de lo que de otra manera serían productos independientes «. En cuanto a «Crítico para la confianza» significa «categorías de software utilizadas para funciones de seguridad como control de red, seguridad de punto final y protección de red».

El documento técnico, destinado principalmente a los contratistas con la administración federal,  también ofrece un cuadro que explica cada categoría de software que considera «crítico para la EO», así como una lista de preguntas frecuentes (FAQ) y respuestas. Las categorías de software enumeradas en la tabla de NIST incluyen los destinados a gestión de identidades, credenciales y acceso (ICAM), los sistemas operativos, hipervisores, entornos de contenedores, los navegadores web, el software de control y protección de red, supervisión y configuración de redes, seguimiento y análisis operativos, copias de seguridad, almacenamiento remiro, entre otros.

 

 

Medidas para mejorar la ciberseguridad en las empresas

A medida que se multiplican los ciberataques a empresas, y que los efectos de tales incidentes son más graves, la reflexión relativa a los ciber-incidentes es más intensa. Van surgiendo sugerencias y recomendaciones expertas relativas prácticas corporativas internas y externas (respecto de proveedores, clientes, y otros con quienes interrelacionan en el curso de su actividad)

NYC_by Jara IPM

  • Desde el punto de vista de las relaciones de las empresas con terceros, se han sugerido ya algunas orientaciones tendentes a minimizar los riesgos derivados del entorno digital. Entre ellas, la revisión de sus prácticas contractuales para adaptar las definiciones y alcance de las exclusiones de responsabilidad pactadas. Estas prácticas son especialmente relevantes en sectores como el  del transporte de viajeros. ;   o en las empresas de transporte y distribución energética, por mencionar algunos de los que recientemente han sufrido grandes pérdidas, o han visto su actividad totalmente paralizada como consecuencia de ciberataques (sirva de ejemplo el ataque a Colonial Pipeline, y  los eventos de 6 de mayo de 2021). También son importantes para la gestión pública de infraestructuras y servicios que, al igual que el sector privado, han sufrido importantes ataques cibernéticos (véase los que afectaron a varias ciudades de Texas en 2019).

 

  • Otro conjunto de prácticas recomendadas para la prevención de riesgos cibernéticos consiste  en la contratación, mantenimiento y actualización de seguros contra ciberriesgos cuyo alcance y coberturas pueden variar sustancialmente. Pueden cubrir gran variedad de riesgos como la seguridad de elementos físicos susceptibles de recibir daños materiales fruto de una intervención ilícita en los sistemas digitales de la empresa; daños derivados de pérdidas de datos (y los relativos a los gastos necesarios para recuperarlos), pasando por la contratación de expertos que van desde la recuperación de datos electrónicos hasta el análisis experto del ataque, y la defensa en el caso (probable) de que se interpongan litigios contra el asegurado después de un ciberataque, o que éste decida interponerlos.  Hoy, las prácticas comerciales prudentes hacen que la contratación de seguros contra ciber-riesgos sea fundamental, hasta el punto de que la ausencia de esta cobertura puede, en si misma dar lugar a acusaciones de falta de diligencia por parte de los administradores.

 

NYC_by Jara IPM. One Trade Center Tower

  • Continuando en esta enumeración, la contratación de expertos externos especializados en la prevención y control de los ciberataques se considera una buena práctica. Los especialistas en ciberseguridad desempeñan un papel importante para minimizar la exposición, para detectar y supervisar los riesgos así como para establecer protocolos de seguridad de la infraestructura de información de una empresa. Como buena práctica, la contratación de estos expertos es también interesante como defensa en caso de litigio derivado de un ciberataque, en el sentido de que la empresa afectada puede aportar, a su favor, que sus protocolos estaban supervisados por expertos.

 

  • No es menos relevante, que la entidad cuente con profesionales cualificados en su seno como el CISO –Chief Information Security Officer- o el CSO, Chief Security Officer , o el CIO Chief information Officer, figuras que se van introduciendo en la práctica, en los estándares de seguridad como NIST o ISO, y van penetrando el ámbito normativo positivo.  En este sentido, recordamos algunas entradas anteriores en este blog,  como la relativa al Responsable de Información (exigido a las administraciones conforme al Esquema Nacional de Seguridad y también a ciertas empresas que contratan con la administración), que debe ser una figura distinta del Responsable de Seguridad y también del Responsable del Servicio en los términos del Real Decreto 3/2010. O el Responsable de Seguridad de la Información en los Operadores de Servicios esenciales, conforme al Real Decreto 41/2021) Como ya anunciábamos, estas figuras de altos ejecutivos se van haciendo habituales en la práctica  y han sido reforzadas mediante su inclusión en estándares de ciberseguridad como los NIST e ISO (familia 2700), y en recomendaciones de los CERN nacionales.

 

 

 

Responsable de seguridad de la Información en el Esquema Nacional de Seguridad Electrónica (para la administración pública y ) para algunas empresas privadas que contratan con la administración

Entrada que debe actualizarse conforme al: Nuevo Esquema Nacional de Seguridad

 

Esquema Nacional de Seguridad en el ámbito de la administración electrónica ( ENS) está regulado en el Real Decreto 3/2010 de 8 de enero

Hamburgo. Ayuntamiento. Epc

El objeto del ENS es “el establecimiento de los principios y requisitos de una política de seguridad en la utilización de medios electrónicos que permita la adecuada protección de la información” y persigue “fundamentar la confianza en que los sistemas de información prestarán sus servicios y custodiarán la información de acuerdo con sus especificaciones funcionales, sin interrupciones o modificaciones fuera de control, y sin que la información pueda llegar al conocimiento de personas no autorizadas”. En principio se aplica  sólo a las administraciones públicas para “asegurar el acceso, integridad, disponibilidad, autenticidad, confidencialidad, trazabilidad y conservación de los datos, informaciones y servicios utilizados en medios electrónicos que gestionen en el ejercicio de sus competencias”. Pero, como veremos,  afecta también a algunas empresas del sector privado.

Es recomendable que las entidades privadas que manejen datos sensibles, de alto riesgo, implanten este ENS ya que el RGPD, exige aplicar  medidas que resultan adecuadas a la tecnología, tipología y volumen de datos tratados, tratamientos realizados, etc. de cada organización mediante análisis de riesgos previo, evaluaciones de impacto, etc. Pero además resulta obligatorio en los casos establecidos en la D.A. 1 de la Ley Orgánica 3/2018 de Protección de datos personales y garantía de derechos digitales, que se reproduce: 1. El Esquema Nacional de Seguridad incluirá las medidas que deban implantarse en caso de tratamiento de datos personales para evitar su pérdida, alteración o acceso no autorizado, adaptando los criterios de determinación del riesgo en el tratamiento de los datos a lo establecido en el artículo 32 del Reglamento (UE) 2016/679. 2. Los responsables enumerados en el artículo 77.1 de esta ley orgánica deberán aplicar a los tratamientos de datos personales las medidas de seguridad que correspondan de las previstas en el Esquema Nacional de Seguridad, así como impulsar un grado de implementación de medidas equivalentes en las empresas o fundaciones vinculadas a los mismos sujetas al Derecho privado. En los casos en los que un tercero preste un servicio en régimen de concesión, encomienda de gestión o contrato, las medidas de seguridad se corresponderán con las de la Administración pública de origen y se ajustarán al Esquema Nacional de Seguridad.

La Ley 11/2007, de 22 de junio, de acceso electrónico de los ciudadanos a los Servicios Públicos fue la primera en establecer el Esquema Nacional de Seguridad. En 2010 se aprobó el Real Decreto 3/2010, de 8 de enero, por el que se regula el Esquema Nacional de Seguridad en el ámbito de la Administración Electrónica.  Posteriormente, la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público, recoge el Esquema Nacional de Seguridad en su artículo 156 apartado 2 en similares términos. En 2015 se publicó la modificación del Esquema Nacional de Seguridad a través del Real Decreto 951/2015, de 23 de octubre, en respuesta a la evolución del entorno regulatorio, en especial de la Unión Europea, de las tecnologías de la información y de la experiencia de la implantación del Esquema.

Entre las obligaciones más destacables que derivan del ENS está la de clasificar los niveles de riesgo de ciberseguridad en tres grandes categorías (bajo, medio, alto) , así como  las correspondientes medidas aplicables a cada uno de esos niveles.

Otra obligación afecta a la gobernanza empresarial, pues conforme al ENS, las entidades afectadas deben nombrar a responsables específicos. Concretamente, conforme al art 10 del RD 3/2010 (ENS),  en los sistemas de información de las entidades sometidas a ese RD, se deben establecer tres figuras de responsabilidad distintas: el responsable de la información, el responsable del servicio y el responsable de la seguridad: El responsable de la información  será competente para determinar los requisitos de la información tratada; el responsable del servicio determinará los requisitos de los servicios prestados; y el responsable de seguridad determinará las decisiones  que deban adoptarse para satisfacer los requisitos de seguridad de la información y de los servicios.

Pero, adicionalmente, conforme al ENS la responsabilidad de la seguridad de los sistemas de información estará diferenciada de la responsabilidad sobre la prestación de los servicios. A todo esto se une que la política de seguridad de la organización, documento estratégico con el  que deben contar las entidades sometidas al ENS,  detallará las atribuciones de cada responsable, los mecanismos de coordinación y lo de resolución de conflictos.

Como adelantábamos, el ENS  también resulta aplicable a la empresa privada en algunos casos.

Para entender mejor el contexto,  recordemos que  la Ley Orgánica, 3/2018 de 5 de diciembre, de Protección de Datos y Garantía de los Derechos Digitales (en adelante, LOPD-GDD) adapta nuestro ordenamiento al Reglamento (UE) 2016/679”, RGPD. Y,  es aplicable tanto a la administración como a la empresa privada

  • El RGPD dispone en su art. 5.2 el “principio de la responsabilidad proactiva”, que, el responsable del tratamiento debe cumplir y ser capaz de demostrar que los datos personales son tratados de acuerdo con los principios de “licitud, lealtad y transparencia”; “limitación de la finalidad”; “minimización de datos”; “exactitud”; “limitación del plazo de conservación” y de “integridad y confidencialidad”. Precisamente el principio de “integridad y confidencialidad” establece que se ha de garantizar una seguridad adecuada de los datos personales, para protegerlos “contra el tratamiento no autorizado o ilícito y contra su pérdida, destrucción o daño accidental
  • El artículo 32 del RGPD, establece que teniendo en cuenta el estado de la técnica, los costes de aplicación, y la naturaleza, el alcance, el contexto y los fines del tratamiento, así como riesgos de probabilidad y gravedad variables para los derechos y libertades de las personas físicas, el responsable y el encargado del tratamiento aplicarán medidas técnicas y organizativas apropiadas para garantizar un nivel de seguridad adecuado al riesgo. Por tanto, las medidas de seguridad para proteger los datos personales no se recogen en una lista taxativa. Con este artículo 32, se introduce una suerte de  autoevaluación por el responsable de las medidas de seguridad que son necesarias para proteger los datos personales, ya sean estos objeto de tratamiento directamente por él o, en su caso, por encargados de tratamiento que tratan datos por cuenta suya

Vista de San Sebastian

La LOPD GDD, art 77, estableció, además, unos sistemas y medidas de protección de datos especiales ara la Administración Pública española. Ello se completa con la DA 1ª LOPD-GDD que establece un marco específico de seguridad en el sector público, a través del ENS, sustituyendo la autoevaluación del art 5.2 por un régimen específico para el sector público: “Medidas de seguridad en el ámbito del sector público:

  1. El Esquema Nacional de Seguridad incluirá las medidas que deban implantarse en caso de tratamiento de datos personales para evitar su pérdida, alteración o acceso no autorizado, adaptando los criterios de determinación del riesgo en el tratamiento de los datos a lo establecido en el artículo 32 del Reglamento (UE) 2016/679.
  2. Los responsables enumerados en el artículo 77.1 de esta ley orgánica deberán aplicar a los tratamientos de datos personales las medidas de seguridad que correspondan de las previstas en el Esquema Nacional de Seguridad, así como impulsar un grado de implementación de medidas equivalentes en las empresas o fundaciones vinculadas a los mismos sujetas al Derecho privado
  3. En los casos en los que un tercero preste un servicio en régimen de concesión, encomienda de gestión o contrato, las medidas de seguridad se corresponderán con las de la Administración pública de origen y se ajustarán al Esquema Nacional de Seguridad

Por lo tanto, en la distintas entidades de la DA 1 , apartado 3 LOPD-GDD, ya sea en calidad de responsable o encargado del tratamiento, han de  categorizar de acuerdo con el Anexo I del ENS (en categoría básica, media o alta) los sistemas de información utilizados para el tratamiento y  de acuerdo con el Anexo II, implementar aquellas medidas de seguridad (organizativas, operacionales y de protección) que sean acordes a la categoría otorgada al sistema. Ello para proteger la integridad, confidencialidad y disponibilidad de los datos personales que traten,

Casamento no Pazo

Cualquier entidad  privada que preste o quiera prestar servicios a una Administración Pública ha de cumplir también con las medidas de seguridad que, en virtud del ENS, sean de aplicación a dicha administración de referencia. Y, en efecto, es habitual que las empresas privadas que se presentan a licitaciones del sector público encuentren reflejados en los pliegos la exigencia inexcusable de que cumplan con el Esquema Nacional de Seguridad y que hayan superado un proceso de certificación por una entidad debidamente acreditada.

¿El papel de responsable de seguridad en estas empresas podrá corresponder, es decir, coincidir con el  RSI o Chief Information Security Officer (CISO) que deriva del RD  43/2021 -dentro del desarrollo del paquete NIS (Network Information and Security) ; al que aludíamos en entradas anteriores? Conforme al art 7 apartado 5 delReal Decreto 43/2021,  así sería, al menos en el caso de las empresas privadas sometidas tanto a NIS como al ENS.