El Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, o DSA establece un marco normativo en la Uni贸n Europea para las plataformas en l铆nea y los servicios intermediarios digitales. Forma parte de las reformas legislativas activadas para modernizar el mercado 煤nico digital de la UE, junto con el Reglamento de Mercados Digitales (DMA), que a su vez regula la competencia en plataformas digitales.(ver tambi茅n, con anterioridad, en este blog sobre DMA y DSA)
El DSA introduce nuevas obligaciones para los prestadores de servicios digitales que operan en la UE, incluidos los prestadores de plataformas en l铆nea (normales y de gran tama帽o), los mercados en l铆nea (normales y de gran tama帽o) y otros servicios de intermediaci贸n. El DSA establece medidas para combatir contenidos il铆citos, as铆 como para proteger la privacidad de los usuarios, y para garantizar la transparencia y la rendici贸n de cuentas en el uso de algoritmos y decisiones automatizadas. Sus objetivos principales son estos:
- Reforzar la seguridad en los servicios digitales en especial en lo relativo a contenidos, protegiendo a los usuarios frente a contenidos da帽inos o ilegales, como discursos de odio, desinformaci贸n, o material relacionado con la explotaci贸n infantil. Al mismo tiempo, busca garantizar que los servicios en l铆nea sean justos y transparentes para los usuarios.
- Organizar un sistema escalonado de responsabilidades seg煤n el tama帽o, el impacto y el riesgo de los servicios digitales, con un enfoque particular en las plataformas grandes que tienen un alcance significativo, como las redes sociales y los motores de b煤squeda.
- Promover la transparencia en las pr谩cticas de moderaci贸n de contenido, en los algoritmos utilizados para la personalizaci贸n de contenidos, y en la publicidad en l铆nea. Tambi茅n establece mecanismos para una mejor rendici贸n de cuentas por parte de las plataformas.
- Mejorar la protecci贸n de los derechos de los usuarios, por ejemplo en cuanto a la protecci贸n de sus datos personales y su libertad de expresi贸n, as铆 como para apelar decisiones sobre la moderaci贸n de contenidos.
脕mbito de aplicaci贸n subjetivo
El DSA es aplicable a todos los prestadores de servicios digitales establecidos en la UE, as铆 como a aquellos que operan en la UE aunque no est茅n establecidos en ella, siempre que ofrezcan una serie de servicios a usuarios :
- Servicios de intermediaci贸n: Son plataformas que proporcionan una infraestructura digital para la interacci贸n entre usuarios y terceros, como los motores de b煤squeda o las plataformas de comercio electr贸nico. Esta categor铆a es amplia o gen茅rica
- Plataformas en l铆nea: Servicios digitales que permiten la interacci贸n entre usuarios, como redes sociales, plataformas para compartir contenido o foros en l铆nea. Se trata de un tipo de servicio de intermediaci贸n espec铆fico
- El reglamento tambi茅n introduce el concepto de 芦plataformas muy grandes禄 (VLOPs, por sus siglas en ingl茅s), que son plataformas que tienen m谩s de 45 millones de usuarios activos mensuales en la UE. Estas plataformas deben cumplir con obligaciones m谩s estrictas debido a su impacto potencial en el espacio digital.
- Mercados en l铆nea: Plataformas que permiten a los vendedores ofrecer productos o servicios a los consumidores, como Amazon o eBay. Se trata de un tipo de servicio de intermediaci贸n espec铆fico
- Servicios de alojamiento de contenido: Plataformas que permiten el almacenamiento y distribuci贸n de contenidos generados por los usuarios, como YouTube o Facebook.
Obligaciones para los Prestadores de Servicios Digitales
Las obligaciones que se imponen son cumulativas y proporcionadas al servicios prestado y al volumen del prestador. Para su cumplimiento los prestadores deben contar con mecanismos de diligencia debida que faciliten la identificaci贸n de problemas y la b煤squeda de soluciones a trav茅s de las obligaciones del DSA
1.Moderaci贸n de Contenidos. Deben tener mecanismos efectivos para abordar los contenidos il铆citos o da帽inos. Esto incluye **informar a las autoridades** cuando detecten contenidos ilegales, **remover o bloquear** este contenido de manera efectiva y **proveer medios de apelaci贸n** para los usuarios que consideren que sus contenidos han sido eliminados de forma incorrecta.
2.Publicidad Transparente. Las plataformas deben ser transparentes en cuanto a las **pr谩cticas de publicidad** y la **recomendaci贸n de contenidos**. Las plataformas deben proporcionar a los usuarios informaci贸n clara sobre los anuncios que ven, incluyendo qui茅n los ha pagado, por qu茅 se les ha mostrado el anuncio y qu茅 criterios se utilizaron. En cuanto al uso de Algoritmos y Decisiones Automatizadas**: Los servicios que utilizan algoritmos para recomendar contenido o personalizar la experiencia del usuario deben **explicar** c贸mo funcionan estos algoritmos y permitir que los usuarios tengan un control sobre ellos, incluida la opci贸n de desactivarlos.
3.Gesti贸n de Riesgos: Los prestadores de servicios deben evaluar los riesgos asociados con sus actividades y tomar medidas para mitigar estos riesgos. Esto es particularmente relevante para las **plataformas muy grandes** que tienen un impacto significativo en los usuarios y la sociedad.
4. Transparencia y auditor铆a. La transparencia聽 es un principio clave en la DSA. Los prestadores de servicios deben:
- Informar sobre sus pol铆ticas de moderaci贸n de contenido, incluidas las medidas para abordar desinformaci贸n, discursos de odio y otros contenidos nocivos.
- Presentar informes de transparencia peri贸dicos, detallando el volumen de contenido moderado, los tipos de contenido retirado y las medidas tomadas para prevenir la propagaci贸n de contenido ilegal.
- Las plataformas m谩s grandes deben someterse a auditor铆as independientes para evaluar el cumplimiento de la DSA, especialmente en lo que respecta al uso de algoritmos y la gesti贸n de riesgos.
Protecci贸n de los Derechos de los Usuarios
El DSA establece una serie de derechos para los usuarios, tales como:
- Derecho a la informaci贸n: Los usuarios deben ser informados de manera clara sobre las pol铆ticas de moderaci贸n de contenido, los procedimientos de apelaci贸n y el uso de algoritmos.
- Derecho a la apelaci贸n: Los usuarios tienen derecho a apelar decisiones relacionadas con la moderaci贸n de contenidos, como la eliminaci贸n de sus publicaciones o la suspensi贸n de sus cuentas.
- Protecci贸n de los menores y la privacidad: Las plataformas deben tomar medidas adicionales para proteger a los menores de contenidos nocivos, as铆 como garantizar que los servicios respeten la **privacidad** de los usuarios.
OBLIGACIONES ESPECIALES PARA PLATAFORMAS MUY GRANDES (VLOPS)
Las plataformas muy grandes (VLOPs) que superan los 45 millones de usuarios activos mensuales en la UE deben cumplir con una serie de obligaciones adicionales y m谩s estrictas:
- Evaluaciones de impacto: Las VLOPs deben realizar evaluaciones de los posibles riesgos sist茅micos que sus servicios puedan representar, como la desinformaci贸n o el discurso de odio, y adoptar medidas para mitigar estos riesgos.
- Rendici贸n de cuentas p煤blica: Estas plataformas deben proporcionar informes detallados sobre sus esfuerzos para abordar estos riesgos, incluidas las acciones tomadas para proteger los derechos de los usuarios y garantizar la seguridad en l铆nea.
- Auditor铆as externas obligatorias: Las VLOPs deben someterse a auditor铆as externas que eval煤en su cumplimiento con la DSA, en particular en cuanto a la gesti贸n de contenido y la moderaci贸n.
SUPERVISI脫N Y SANCIONES
- El cumplimiento del DSA es supervisado por聽 autoridades nacionales de supervisi贸n de cada Estado miembro de la UE. Adem谩s, la Comisi贸n Europea tiene un papel clave en la supervisi贸n de las plataformas m谩s grandes (VLOPs). Estas autoridades tienen la capacidad de imponer sanciones a las plataformas que no cumplan con las obligaciones establecidas en la DSA:
- Multas de hasta el 6% de la facturaci贸n global anual para las plataformas que no cumplan con la normativa.
- Sanciones adicionales si se detectan infracciones graves o continuadas.
VER: Gu铆a pr谩ctica de implementaci贸n del DSA (Garrigues)