El Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, o DSA establece un marco normativo en la Unión Europea para las plataformas en línea y los servicios intermediarios digitales. Forma parte de las reformas legislativas activadas para modernizar el mercado único digital de la UE, junto con el Reglamento de Mercados Digitales (DMA), que a su vez regula la competencia en plataformas digitales.(ver también, con anterioridad, en este blog sobre DMA y DSA)
El DSA introduce algunas nuevas obligaciones para los prestadores de servicios digitales que operan en la UE. Estos prestadores son plataformas en línea (las que podemos llamar «normales» y también las de gran tamaño sometidas a régimen más exigente); los mercados en línea (normales y de gran tamaño) y otros servicios de intermediación. Establece medidas para combatir contenidos ilícitos, así como para proteger la privacidad de los usuarios y para garantizar la transparencia y la rendición de cuentas en el uso de algoritmos y decisiones automatizadas.
Ámbito de aplicación subjetivo
El DSA es aplicable a todos los prestadores de servicios digitales establecidos en la UE, así como a aquellos que operan en la UE aunque no estén establecidos en ella, siempre que ofrezcan una serie de servicios a usuarios :
- Servicios de intermediación: Son plataformas que proporcionan una infraestructura digital para la interacción entre usuarios y terceros, como los motores de búsqueda o las plataformas de comercio electrónico. Esta categoría es amplia o genérica
- Plataformas en línea: Servicios digitales que permiten la interacción entre usuarios, como redes sociales, plataformas para compartir contenido o foros en línea. Se trata de un tipo de servicio de intermediación específico
- El reglamento también introduce el concepto de «plataformas muy grandes» (VLOPs, por sus siglas en inglés), que son plataformas que tienen más de 45 millones de usuarios activos mensuales en la UE. Estas plataformas deben cumplir con obligaciones más estrictas debido a su impacto potencial en el espacio digital.
- Mercados en línea: Plataformas que permiten a los vendedores ofrecer productos o servicios a los consumidores, como Amazon o eBay. Se trata de un tipo de servicio de intermediación específico
- Servicios de alojamiento de contenido: Plataformas que permiten el almacenamiento y distribución de contenidos generados por los usuarios, como YouTube o Facebook.
Las obligaciones que se imponen son cumulativas y proporcionadas al servicio prestado y al volumen del prestador. Para su cumplimiento, los prestadores deben contar con mecanismos de diligencia debida que faciliten la identificación de problemas y la búsqueda de soluciones a través de las obligaciones del DSA
1.Moderación de Contenidos. Deben disponer de mecanismos efectivos para abordar los contenidos ilícitos o dañinos. Esto incluye **informar a las autoridades** cuando detecten contenidos ilegales, **remover o bloquear** este contenido de manera efectiva y **proveer medios de apelación** para los usuarios que consideren que sus contenidos han sido eliminados de forma incorrecta.
2.Prácticas transparentes en su publicidad y recomendaciones de contenidos.
- Las plataformas deben ser transparentes en cuanto a las **prácticas de publicidad** y la **recomendación de contenidos**. Las plataformas deben proporcionar a los usuarios información clara sobre los anuncios que ven, incluyendo quién los ha pagado, por qué se les ha mostrado el anuncio y qué criterios se utilizaron. En cuanto al uso de Algoritmos y Decisiones Automatizadas.
- Las plataformas deben asegurar que cada anuncio pueda identificarse de manera clara, concisa, inequívoca y en tiempo real como tal, indicando además quién lo financia y cuáles son los parámetros utilizados para determinar su destinatario, así como las opciones disponibles para modificar dichos parámetros.
- Los sistemas de recomendación deben someterse igualmente a obligaciones de transparencia. Las plataformas han de incluir en sus condiciones generales una explicación clara de los parámetros principales que utilizan para priorizar o sugerir contenidos y de las opciones que los usuarios tienen para modificar o influir en esos parámetros
- Por último, el DSA impone obligaciones reforzadas de protección de los menores en línea. Las plataformas deben adoptar medidas adecuadas y proporcionadas para garantizar un elevado nivel de privacidad, seguridad y protección, y no pueden mostrar publicidad basada en perfiles construidos a partir de datos personales cuando conocen que el destinatario del servicio es un menor.
3.Gestión de Riesgos:
- Los prestadores de servicios deben evaluar los riesgos asociados con sus actividades y tomar medidas para mitigar estos riesgos. Esto es particularmente relevante para las **plataformas muy grandes** que tienen un impacto significativo en los usuarios y la sociedad.
- Con el fin de preservar la integridad del sistema, las plataformas deben adoptar medidas de protección frente a usos indebidos. En particular, están obligadas a suspender, por un período razonable y tras una advertencia previa, los servicios a destinatarios que publiquen con frecuencia contenidos manifiestamente ilícitos. Igualmente, deben suspender los mecanismos de notificación y los sistemas internos de reclamación respecto de quienes envíen reiteradamente avisos o reclamaciones manifiestamente infundados.
- El DSA exige también que el diseño y la organización de las interfaces en línea no induzcan a error ni manipulen a los usuarios, ni limiten de modo sustancial su capacidad para adoptar decisiones libres e informadas. Se prohíben, en síntesis, los llamados patrones oscuros.
4. Transparencia y auditoría. La transparencia es un principio clave en la DSA. Los prestadores de servicios deben:
- Informar sobre sus políticas de moderación de contenido, incluidas las medidas para abordar desinformación, discursos de odio y otros contenidos nocivos.
- Presentar informes de transparencia periódicos, detallando el volumen de contenido moderado, los tipos de contenido retirado y las medidas tomadas para prevenir la propagación de contenido ilegal.
- Las plataformas más grandes deben someterse a auditorías independientes para evaluar el cumplimiento de la DSA, especialmente en lo que respecta al uso de algoritmos y la gestión de riesgos.
5. Reclamaciones y litigios
- Las plataformas en línea deben contar con un sistema interno de gestión de reclamaciones que permita a los usuarios impugnar las decisiones adoptadas tras la presentación de una notificación, así como aquellas decisiones basadas en la consideración de que un contenido aportado por el usuario es ilícito o infringe las condiciones de servicio. Este sistema debe ser accesible, transparente y garantizar una revisión efectiva de la decisión inicial, ofreciendo al usuario una vía rápida y razonada para solicitar su reconsideración.
- Además, el Reglamento reconoce a los usuarios el derecho a acudir a mecanismos extrajudiciales de resolución de litigios. Esto significa que pueden elegir libremente cualquier órgano certificado para examinar controversias relacionadas con las decisiones tomadas a raíz de sus reclamaciones internas. Las plataformas deben cooperar con el órgano elegido y respetar el procedimiento que este establezca, proporcionando una alternativa independiente, especializada y menos gravosa que la vía judicial ordinaria.
Protección de los Derechos de los Usuarios
El DSA establece una serie de derechos para los usuarios, tales como:
- Derecho a la información: Los usuarios deben ser informados de manera clara sobre las políticas de moderación de contenido, los procedimientos de apelación y el uso de algoritmos.
- Derecho a la apelación: Los usuarios tienen derecho a apelar decisiones relacionadas con la moderación de contenidos, como la eliminación de sus publicaciones o la suspensión de sus cuentas.
- Protección de los menores y la privacidad: Las plataformas deben tomar medidas adicionales para proteger a los menores de contenidos nocivos, así como garantizar que los servicios respeten la **privacidad** de los usuarios.
OBLIGACIONES ESPECIALES PARA PLATAFORMAS MUY GRANDES (VLOPS)
Las plataformas muy grandes (VLOPs) que superan los 45 millones de usuarios activos mensuales en la UE deben cumplir con una serie de obligaciones adicionales y más estrictas:
- Evaluaciones de impacto: Las VLOPs deben realizar evaluaciones de los posibles riesgos sistémicos que sus servicios puedan representar, como la desinformación o el discurso de odio, y adoptar medidas para mitigar estos riesgos.
- Rendición de cuentas pública: Estas plataformas deben proporcionar informes detallados sobre sus esfuerzos para abordar estos riesgos, incluidas las acciones tomadas para proteger los derechos de los usuarios y garantizar la seguridad en línea.
- Auditorías externas obligatorias: Las VLOPs deben someterse a auditorías externas que evalúen su cumplimiento con la DSA, en particular en cuanto a la gestión de contenido y la moderación.
SUPERVISIÓN Y SANCIONES
- El cumplimiento del DSA es supervisado por autoridades nacionales de supervisión de cada Estado miembro de la UE. Además, la Comisión Europea tiene un papel clave en la supervisión de las plataformas más grandes (VLOPs). Estas autoridades tienen la capacidad de imponer sanciones a las plataformas que no cumplan con las obligaciones establecidas en la DSA:
- Multas de hasta el 6% de la facturación global anual para las plataformas que no cumplan con la normativa.
- Sanciones adicionales si se detectan infracciones graves o continuadas.
VER: Guía práctica de implementación del DSA (Garrigues)







