El Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, o DSA establece un marco normativo en la Unión Europea para las plataformas en línea y los servicios intermediarios digitales. Forma parte de las reformas legislativas activadas para modernizar el mercado único digital de la UE, junto con el Reglamento de Mercados Digitales (DMA), que a su vez regula la competencia en plataformas digitales.(ver también, con anterioridad, en este blog sobre DMA y DSA)
El DSA introduce nuevas obligaciones para los prestadores de servicios digitales que operan en la UE, incluidos los prestadores de plataformas en línea (normales y de gran tamaño), los mercados en línea (normales y de gran tamaño) y otros servicios de intermediación. El DSA establece medidas para combatir contenidos ilícitos, así como para proteger la privacidad de los usuarios, y para garantizar la transparencia y la rendición de cuentas en el uso de algoritmos y decisiones automatizadas. Sus objetivos principales son estos:
- Reforzar la seguridad en los servicios digitales en especial en lo relativo a contenidos, protegiendo a los usuarios frente a contenidos dañinos o ilegales, como discursos de odio, desinformación, o material relacionado con la explotación infantil. Al mismo tiempo, busca garantizar que los servicios en línea sean justos y transparentes para los usuarios.
- Organizar un sistema escalonado de responsabilidades según el tamaño, el impacto y el riesgo de los servicios digitales, con un enfoque particular en las plataformas grandes que tienen un alcance significativo, como las redes sociales y los motores de búsqueda.
- Promover la transparencia en las prácticas de moderación de contenido, en los algoritmos utilizados para la personalización de contenidos, y en la publicidad en línea. También establece mecanismos para una mejor rendición de cuentas por parte de las plataformas.
- Mejorar la protección de los derechos de los usuarios, por ejemplo en cuanto a la protección de sus datos personales y su libertad de expresión, así como para apelar decisiones sobre la moderación de contenidos.
Ámbito de aplicación subjetivo
El DSA es aplicable a todos los prestadores de servicios digitales establecidos en la UE, así como a aquellos que operan en la UE aunque no estén establecidos en ella, siempre que ofrezcan una serie de servicios a usuarios :
- Servicios de intermediación: Son plataformas que proporcionan una infraestructura digital para la interacción entre usuarios y terceros, como los motores de búsqueda o las plataformas de comercio electrónico. Esta categoría es amplia o genérica
- Plataformas en línea: Servicios digitales que permiten la interacción entre usuarios, como redes sociales, plataformas para compartir contenido o foros en línea. Se trata de un tipo de servicio de intermediación específico
- El reglamento también introduce el concepto de «plataformas muy grandes» (VLOPs, por sus siglas en inglés), que son plataformas que tienen más de 45 millones de usuarios activos mensuales en la UE. Estas plataformas deben cumplir con obligaciones más estrictas debido a su impacto potencial en el espacio digital.
- Mercados en línea: Plataformas que permiten a los vendedores ofrecer productos o servicios a los consumidores, como Amazon o eBay. Se trata de un tipo de servicio de intermediación específico
- Servicios de alojamiento de contenido: Plataformas que permiten el almacenamiento y distribución de contenidos generados por los usuarios, como YouTube o Facebook.
Obligaciones para los Prestadores de Servicios Digitales
Las obligaciones que se imponen son cumulativas y proporcionadas al servicios prestado y al volumen del prestador. Para su cumplimiento los prestadores deben contar con mecanismos de diligencia debida que faciliten la identificación de problemas y la búsqueda de soluciones a través de las obligaciones del DSA
1.Moderación de Contenidos. Deben tener mecanismos efectivos para abordar los contenidos ilícitos o dañinos. Esto incluye **informar a las autoridades** cuando detecten contenidos ilegales, **remover o bloquear** este contenido de manera efectiva y **proveer medios de apelación** para los usuarios que consideren que sus contenidos han sido eliminados de forma incorrecta.
2.Publicidad Transparente. Las plataformas deben ser transparentes en cuanto a las **prácticas de publicidad** y la **recomendación de contenidos**. Las plataformas deben proporcionar a los usuarios información clara sobre los anuncios que ven, incluyendo quién los ha pagado, por qué se les ha mostrado el anuncio y qué criterios se utilizaron. En cuanto al uso de Algoritmos y Decisiones Automatizadas**: Los servicios que utilizan algoritmos para recomendar contenido o personalizar la experiencia del usuario deben **explicar** cómo funcionan estos algoritmos y permitir que los usuarios tengan un control sobre ellos, incluida la opción de desactivarlos.
3.Gestión de Riesgos: Los prestadores de servicios deben evaluar los riesgos asociados con sus actividades y tomar medidas para mitigar estos riesgos. Esto es particularmente relevante para las **plataformas muy grandes** que tienen un impacto significativo en los usuarios y la sociedad.
4. Transparencia y auditoría. La transparencia es un principio clave en la DSA. Los prestadores de servicios deben:
- Informar sobre sus políticas de moderación de contenido, incluidas las medidas para abordar desinformación, discursos de odio y otros contenidos nocivos.
- Presentar informes de transparencia periódicos, detallando el volumen de contenido moderado, los tipos de contenido retirado y las medidas tomadas para prevenir la propagación de contenido ilegal.
- Las plataformas más grandes deben someterse a auditorías independientes para evaluar el cumplimiento de la DSA, especialmente en lo que respecta al uso de algoritmos y la gestión de riesgos.
Protección de los Derechos de los Usuarios
El DSA establece una serie de derechos para los usuarios, tales como:
- Derecho a la información: Los usuarios deben ser informados de manera clara sobre las políticas de moderación de contenido, los procedimientos de apelación y el uso de algoritmos.
- Derecho a la apelación: Los usuarios tienen derecho a apelar decisiones relacionadas con la moderación de contenidos, como la eliminación de sus publicaciones o la suspensión de sus cuentas.
- Protección de los menores y la privacidad: Las plataformas deben tomar medidas adicionales para proteger a los menores de contenidos nocivos, así como garantizar que los servicios respeten la **privacidad** de los usuarios.
OBLIGACIONES ESPECIALES PARA PLATAFORMAS MUY GRANDES (VLOPS)
Las plataformas muy grandes (VLOPs) que superan los 45 millones de usuarios activos mensuales en la UE deben cumplir con una serie de obligaciones adicionales y más estrictas:
- Evaluaciones de impacto: Las VLOPs deben realizar evaluaciones de los posibles riesgos sistémicos que sus servicios puedan representar, como la desinformación o el discurso de odio, y adoptar medidas para mitigar estos riesgos.
- Rendición de cuentas pública: Estas plataformas deben proporcionar informes detallados sobre sus esfuerzos para abordar estos riesgos, incluidas las acciones tomadas para proteger los derechos de los usuarios y garantizar la seguridad en línea.
- Auditorías externas obligatorias: Las VLOPs deben someterse a auditorías externas que evalúen su cumplimiento con la DSA, en particular en cuanto a la gestión de contenido y la moderación.
SUPERVISIÓN Y SANCIONES
- El cumplimiento del DSA es supervisado por autoridades nacionales de supervisión de cada Estado miembro de la UE. Además, la Comisión Europea tiene un papel clave en la supervisión de las plataformas más grandes (VLOPs). Estas autoridades tienen la capacidad de imponer sanciones a las plataformas que no cumplan con las obligaciones establecidas en la DSA:
- Multas de hasta el 6% de la facturación global anual para las plataformas que no cumplan con la normativa.
- Sanciones adicionales si se detectan infracciones graves o continuadas.
VER: Guía práctica de implementación del DSA (Garrigues)