DIGITAL SERVICES ACT- Reglamento (UE) de Servicios Digitales

El llamado Digital Services Act, DSA, fue publicado en el DOUE el d铆a 27 octubre 2022. Se trata del Reglamento (UE) 2022/2065 del Parlamento europeo y del Consejo de 19聽de聽octubre de聽2022 relativo a un mercado 煤nico de servicios digitales y por el que se modifica la Directiva聽2000/31/CE (Reglamento de Servicios Digitales)

Obrigado

El principal 聽objetivo del DSA es聽 mejorar el control de los contenidos il铆citos en las plataformas y redes sociales. Conforme a su Art 1: 鈥渃ontribuir al correcto funcionamiento del mercado interior de servicios intermediarios estableciendo normas armonizadas para crear un聽entorno en l铆nea seguro, predecible y fiable聽que facilite la innovaci贸n y en el que se protejan efectivamente los derechos fundamentales amparados por la Carta, incluido el principio de protecci贸n de los consumidores鈥.

Se articula en torno a 5 cap铆tulos. Entre ellos destacan por su contenido sustantivo el relativo a la responsabilidad (y a la exenci贸n de responsabilidad) de los intermediarios (cap铆tulo 2), las obligaciones de los intermediarios (cap铆tulo 3) y la supervisi贸n y control por parte de las autoridades nacionales y de la comisi贸n, entre las que se establecer谩n cooperaciones

Valporquero en Le贸n

I Entidades a las que se aplica:

El DSA se aplica a los proveedores de servicios intermediarios con establecimiento o con residencia en la UE, en la medida que ofrezcan servicios en la UE.聽 Es decir, se aplica a entidades que ofrecen servicios de intermediaci贸n a destinatarios o usuarios finales ubicados en la UE (Art 2 DSA), sin perjuicio de la aplicaci贸n de otras normas sectoriales a esos mismos intermediarios, cuando resulte procedente (Art 2-4 DSA)

聽Dentro de los intermediarios que quedan sujetos al DMA distinguimos:

  1. Servicios de intermediaci贸n:聽 Ponen a disposici贸n de los usuarios las infraestructuras de red. Son proveedores de acceso a Internet y entidades de registro de nombres de dominio, entre otros.
  2. Servicios de alojamiento de datos: Almacenan informaci贸n proporcionada por los destinatarios o clientes de su servicio. Incluyen, entre otros, servicios de computaci贸n en nube o de alojamiento web.
  3. Plataformas en l铆nea: Redes sociales, mercados en l铆nea, prestadores de servicios de alojamiento de datos, entre otros.
  4. Motores de b煤squeda
  5. Plataformas en l铆nea de muy gran tama帽o y motores de b煤squeda de muy gran tama帽o. Determinados prestadores ser谩n calificados as铆, y se les impondr谩n obligaciones adicionales (m谩s estrictas). Su designaci贸n por parte de la Comisi贸n se basa en que el umbral de usuarios supere el 10% de la poblaci贸n de la UE (45 millones). Dicho umbral podr谩 ser ajustado por la Comisi贸n. //// La DSA clasifica plataformas o motores de b煤squeda que tienen m谩s de 45 millones de usuarios al mes en la UE como plataformas en l铆nea de muy gran tama帽o (VLOP) o motores de b煤squeda en l铆nea de muy gran tama帽o (VLOSEs).Para ello, estas entidades, las plataformas y los motores de b煤squeda, estaban obligados a publicar datos antes del 17 de febrero de 2023. Y,聽 deber谩n actualizar estas cifras al menos cada 6 meses (DSA: Orientaci贸n sobre el requisito de publicar n煤meros de usuario). Una vez designadas, la entidad tiene cuatro meses para cumplir con las normas聽 de la DSA que abordan los riesgos particulares que representan para los europeos y la sociedad tales grandes servicios en lo que respecta a los contenidos il铆citos, y su impacto en los derechos fundamentales, la seguridad p煤blica y el bienestar.La Comisi贸n revocar谩 su decisi贸n si la plataforma o el motor de b煤squeda ya no alcanzan el umbral de 45 millones de usuarios mensuales durante un a帽o completo.

Quedan fuera del 谩mbito de aplicaci贸n de la DSA los servicios de comunicaciones interpersonales, contemplados en la Directiva (UE) 2018/1972 del Parlamento Europeo y el Consejo (como los servicios de correos electr贸nicos y los servicios de mensajer铆a privada). Sin embargo, es decir incluso en esos casos mencionados, las obligaciones de la DSA se podr铆an exigir a los prestadores de servicios que permitan poner informaci贸n a disposici贸n de un n煤mero potencialmente ilimitado de destinatarios, no determinado por el remitente de la comunicaci贸n.(considerando, 14)

II Obligaciones y responsabilidad de los prestadores intermediarios de servicios digitales

Visi贸n general y relaci贸n con el r茅gimen anterior

Hasta ahora, con la聽Directiva 2000/31/CE, Directiva de Comercio Electr贸nico, la responsabilidad de los prestadores de servicios digitales se asentaba en dos principios fundamentales. El primero, la ausencia de responsabilidad por los contenidos il铆citos que alojaban o transmit铆an siempre que no tuviesen conocimiento efectivo de los mismos. El segundo, la inexistencia de una obligaci贸n general de realizar seguimientos para impedir la publicaci贸n o transmisi贸n de estos contenidos.

El DSA mantiene ambos principios (Art 4-mera trasmisi贸n-; Art 5 -memoria cach茅; Art 6 -alojamiento de datos; Art 8- inexistencia de obligaci贸n general de monitorizaci贸n).En suma, el DSA mantiene en buena medida el r茅gimen de responsabilidad de los prestadores intermediarios, en tanto que conserva el r茅gimen de exclusi贸n de responsabilidad de los prestadores de servicios intermediarios de la聽Directiva 2000/31/CE, del Comercio Electr贸nico (safe harbour). Sigue impidiendo imponer a las plataformas una obligaci贸n general de supervisi贸n de los contenidos subidos por los usuarios, es decir, no impone una obligaci贸n de verificar聽ex ante聽la legalidad de los contenidos subidos por los usuarios. En consecuencia, no impone responsabilidad directa respecto de estos contenidos. Las exenciones de responsabilidad de la DSA se aplican a cualquier tipo de responsabilidad, sea cual sea la materia o naturaleza precisa de las disposiciones legales, por ejemplo, derecho de marcas, patentes, publicidad, imagen, honor…

Por tanto, estos prestadores de estos servicios, cuando act煤en como meros intermediarios, no ser谩n responsables del contenido subido por los usuarios, si en el momento en el que tienen conocimiento efectivo del contenido il铆cito, act煤an de manera diligente para su retirada o inhabilitan el acceso. El prestador puede obtener dicho conocimiento efectivo a trav茅s de 贸rdenes de los organismos competentes, investigaciones realizadas por iniciativa propia o notificaciones de los afectados, en la medida en que sean suficientemente precisas y est茅n bien fundamentadas.

  • Este r茅gimen especial de exenci贸n de responsabilidad no ser谩 aplicable en ning煤n caso a la informaci贸n generada por la propia plataforma, respecto de la cual los prestadores tendr谩n responsabilidad directa.
  • Adem谩s,聽 los intermediarios deben presentar la informaci贸n de manera que no induzca a los consumidores a creer que ha sido facilitada por las propias plataformas y no por sus usuarios (por ejemplo, los mercados en lineadeber谩n aclarar qu茅 servicios son prestados por terceros a trav茅s de sus plataformas).

Aunque,聽 no afecta a la aplicaci贸n de la legislaci贸n europea que regula determinados aspectos sobre la prestaci贸n de servicios de la sociedad de la informaci贸n, que tiene car谩cter de lex specialis聽como, por ejemplo, el art铆culo 17 de la聽Directiva 2019/790, sobre los derechos de autor y derechos afines en el mercado 煤nico digital (DMUD); la聽Directiva (UE) 2018/1808, sobre los prestadores de plataformas de intercambio de v铆deos (DSCA 2018); el聽Reglamento (UE) 2019/1150, sobre el fomento de la equidad y la transparencia para los usuarios profesionales de servicios de intermediaci贸n en l铆nea (Reglamento B2B2C) o el聽Reglamento (UE) 2016/679聽de Protecci贸n de Datos (RGPD). Ciertamente, la interrelaci贸n de la DSA con otras normas del entorno聽online plantea cuestiones complejas

Nuevas obligacionesArija

El DSA introduce novedades importantes, en forma de obligaciones de los intermediarios. El Reglamento identifica las siguientes obligaciones aplicables a todos聽los servicios intermediarios:

  1. Establecer puntos de contacto que permitan la comunicaci贸n directa con los Estados miembros, la Comisi贸n .
  2. Designar un punto de contacto 煤nico para los destinatarios de los servicios que permita una comunicaci贸n r谩pida, directa y eficiente.
  3. Designar a una persona para actuar como representante legal en un Estado miembro, cuando esos prestadores est茅n est谩n establecidos en un tercer pa铆s.
  4. Indicar y actualizar en sus condiciones la informaci贸n relativa a las medidas por las que pueden restringir la prestaci贸n de sus servicios.
  5. Indicar y actualizar en sus condiciones las normas del procedimiento de su sistema interno de tramitaci贸n de reclamaciones.
  6. Diversas obligaciones de transparencia informativa; incluyendo la publicaci贸n de informes sobre su actividad de moderaci贸n de contenidos (al menos, una vez al a帽o) en un formato legible por m谩quina.
  7. Colaborar con las autoridades: Informar a las autoridades policiales de sospechas sobre la posible comisi贸n de un delito por un destinatario.
Obligaciones adicionales aplicables a los prestadores de servicios de alojamiento, incluidas las plataformas en l铆nea.
  • Moderaci贸n聽 de contenidos.
    • Establecimiento de mecanismos (NTDs)聽que permitan notificar la presencia de contenidos y productos presuntamente il铆citos (incluyendo productos falsificados). Salvo que se trate de una notificaci贸n de un delito, las plataformas deber谩n pedir al notificante que revele su identidad.
    • Suspensiones de cuentas. En determinadas condiciones, las plataformas en l铆nea deber谩n suspender temporalmente sus actividades a la persona que muestre comportamientos abusivos. Se consideran comportamientos abusivos la publicaci贸n frecuente de contenidos manifiestamente il铆citos y el env铆o frecuente de avisos o reclamaciones manifiestamente infundados a trav茅s de los mecanismos y sistemas, respectivamente. La informaci贸n debe tener la consideraci贸n de contenido manifiestamente il铆cito cuando sea evidente para una persona lega en la materia, sin un an谩lisis de fondo, que dicho contenido es il铆cito o que los avisos o reclamaciones son infundados.
    • Establecer procesos espec铆ficos para permitir solicitar la retirada de contenidos il铆citos,
    • Establecer un sistema interno de tramitaci贸n de reclamaciones con respecto a las decisiones adoptadas por estas plataformas, con mecanismos para permitir que los usuarios puedan defenderse en caso de que entiendan que sus contenidos han sido retirados sin justificaci贸n infringiendo, por ejemplo, sus libertades de expresi贸n e informaci贸n
    • Transparencia informativa de los prestadores de servicios intermediarios y publicaci贸n de informes sobre cualquier actividad de moderaci贸n de contenidos.
  • Trasparencia en la publicidad que se aloje en los intermediarios (Art 26).
    • Los destinatarios del servicio deben tener informaci贸n sobre los principales par谩metros utilizados para determinar la presentaci贸n de la publicidad. Adem谩s, deber谩n ofrecer explicaciones de la l贸gica utilizada con ese fin. Los prestadores de estos servicios se asegurar谩n de que los destinatarios puedan conocer, por cada anuncio publicitario, de manera clara e inequ铆voca y en tiempo real:
      • a) que la informaci贸n presentada es un anuncio publicitario;
      • b) la persona f铆sica o jur铆dica en cuyo nombre se presenta el anuncio publicitario;
      • c) informaci贸n significativa acerca de los principales par谩metros utilizados para determinar el destinatario al que se presenta el anuncio publicitario.
    • En relaci贸n con la publicidad, los destinatarios deben poder acceder directamente desde la interfaz donde se presente el anuncio a informaci贸n sobre los principales par谩metros utilizados, ofreciendo explicaciones 煤tiles de la l贸gica utilizada con ese fin, tambi茅n cuando se base en la elaboraci贸n de perfiles.
  • Transparencia en las recomendaciones (Art 27)
  • Protecci贸n de menores (Art 28)
  • Obligaciones especiales para las plataformas que permitan a los consumidores concluir contratos a distancia, (y que no sean PYMES) (Arts 29 yss). : Incluyen la trazabilidad de comerciantes; el disponer las interfaces para facilitar que los comerciantes puedan cumplir sus obligaciones (el llamado cumplimiento desde el dise帽o, Art 31 ), as铆聽 como a los consumidores, ejercer sus derechos de informaci贸n (Art 32)
  • Cooperaci贸n con las autoridades de los Estados Miembros tanto en la retirada de contenidos il铆citos como en la identificaci贸n de determinados usuario
Obligaciones de las plataformas y motores en l铆nea de gran tama帽o

En relaci贸n con 茅stos plataformas, una de las cuestiones iniciales a tener en cuenta es la de su identificaci贸n. V茅ase esta entrada del Blog GARRIGUES:聽Las plataformas y buscadores deben publicar su n煤mero de usuarios antes del 17 de febrero: primer paso para saber si son de 鈥渕uy gran tama帽o鈥

  • La DSA impone obligaciones espec铆ficas a las grandes plataformas con el fin de evaluar los riesgos sist茅micos que entra帽a el funcionamiento y uso de su servicio, as铆 como los posibles usos indebidos por parte de los destinatarios (Arts 33 y ss).
  • Los principales riesgos sist茅micos identificados por el DSA son los riesgos asociados al uso indebido de su servicio mediante la difusi贸n de contenidos il铆citos, como la difusi贸n de materiales de abuso sexual de menores o delitos de incitaci贸n al odio, y la realizaci贸n de actividades il铆citas como la venta de productos o servicios prohibidos. Tambi茅n los efectos del servicio para el ejercicio de los derechos protegidos por la Carta de los Derechos Fundamentales, incluida la libertad de expresi贸n e informaci贸n, el derecho a la vida privada, el derecho a la no discriminaci贸n y los derechos del ni帽o. Adem谩s, la manipulaci贸n deliberada con efectos para la salud, el discurso c铆vico, los procesos electorales, la seguridad p煤blica y la protecci贸n de los menores. Por ejemplo, por la creaci贸n de cuentas falsas, el uso de bots y otros comportamientos total o parcialmente automatizados.
  • Adicionalmente, deben asumir la adaptaci贸n de los sistemas de moderaci贸n de contenidos o de recomendaci贸n, sus procesos decisorios, las caracter铆sticas o el funcionamiento de sus servicios, o sus condiciones.
  • Tambi茅n han de detectar, analizar y evaluar con diligencia cualquier riesgo sist茅mico que se derive de su dise帽o, incluidos los sistemas algor铆tmicos, el funcionamiento y el uso que se haga de sus servicios.
  • As铆 mismo, tienen que establecer medidas selectivas dirigidas a limitar la presentaci贸n de anuncios publicitarios. En este sentido el art 39 exige trasparencia especial.
      • Art 99.1 : Los prestadores de plataformas en l铆nea de muy gran tama帽o o de motores de b煤squeda en l铆nea de muy gran tama帽o que presenten anuncios publicitarios en sus interfaces en l铆nea recopilar谩n y har谩n p煤blico, en una secci贸n espec铆fica de su interfaz en l铆nea, a trav茅s de una herramienta de b煤squeda fiable que permita realizar consultas en funci贸n de m煤ltiples criterios, y mediante interfaces de programaci贸n de aplicaciones, un repositorio que contenga la informaci贸n a que se refiere el apartado 2, durante todo el tiempo en el que presenten un anuncio y hasta un a帽o despu茅s de la 煤ltima vez que se presente el anuncio en sus interfaces en l铆nea. Se asegurar谩n de que el repositorio no contenga ning煤n dato personal de los destinatarios del servicio a quienes se haya o se pueda haber presentado el anuncio y har谩n todos los esfuerzos que resulten razonables para garantizar que la informaci贸n sea exacta y completa.
  • Estas grandes plataformas tambi茅n deben reforzar los procesos internos o la supervisi贸n de cualquiera de sus actividades, en particular en lo que respecta a la detecci贸n de riesgos sist茅micos.
  • Tambi茅n deben ocuparse de la puesta en marcha o el ajuste de la cooperaci贸n con los llamados聽 alertadores fiables; as铆 como de la puesta en marcha o el ajuste de la cooperaci贸n con otras plataformas en l铆nea mediante los c贸digos de conducta y los protocolos de crisis. Finalmente, dada la necesidad de garantizar la verificaci贸n por expertos independientes, las plataformas en l铆nea y los motores de b煤squeda de muy gran tama帽o deben rendir cuentas, mediante auditor铆as independientes.

Sin perjuicio de todo ello, el DSA contempla tambi茅n posibles medidas voluntarias a adoptar por los proveedores de servicios, entre las que se encuentra la elaboraci贸n de un c贸digo de conducta relativo a materias concretas: publicidad, accesibilidad y protocolos de crisis.

 

III Otras cuestiones

 

A)聽聽 Doctrina del Buen Samaritano

La DSA reconoce expresamente la aplicaci贸n de la doctrina anglosajona del 鈥淏uen Samaritano鈥 con el fin de no desincentivar las actividades destinadas a detectar, identificar y actuar contra contenidos il铆citos que se puedan llevar a cabo de forma voluntaria. Es decir, las plataformas no perder谩n las ventajas del r茅gimen de exclusi贸n de responsabilidad por actuar proactivamente en la lucha contra contenidos il铆citos.

B)聽聽 Trazabilidad: nuevos requisitos de informaci贸n de los usuarios

Una importante novedad es que las plataformas en l铆nea que permitan formalizar contratos a distancia deber谩n asegurarse de que los vendedores sean localizables. Para ello, deber谩n recabar informaci贸n sobre los comerciantes y hacer esfuerzos razonables para verificar su fiabilidad, por ejemplo, mediante el uso de bases de datos, registros mercantiles y el sistema de intercambio de informaci贸n sobre el IVA.

Esta informaci贸n puede permitir a los titulares de derechos identificar al infractor, responsable directo del il铆cito, y, por tanto, facilita el ejercicio de acciones legales contra el responsable principal de la infracci贸n.

No obstante, las plataformas no estar谩n obligadas a realizar actividades excesivas o costosas de b煤squeda de hechos, ni tampoco a realizar verificaciones sobre el terreno, si bien deber谩n hacer todo lo posible para evaluar la fiabilidad de la informaci贸n.

C)聽聽 Alertadores o informadores fiables

Se crea la figura de los 鈥渁lertadores fiables鈥, que permiten una especie de 鈥fast track鈥澛a sus reclamaciones de infracciones en las plataformas. Dicha condici贸n se otorgar谩 solo a entidades que acrediten conocimientos para luchar contra los contenidos il铆citos, que representan intereses colectivos y que trabajan de manera diligente y objetiva.

Esta condici贸n ser谩 otorgada por el coordinador de servicios digitales del Estado miembro donde el solicitante est茅 establecido y debe ser reconocida por todos los prestadores de plataformas en l铆nea incluidos en el 谩mbito de aplicaci贸n del DSA.

D) Resoluci贸n de conflictos

La DSA contempla la v铆a de resoluci贸n extrajudicial de litigios por organismos certificados que posean la independencia, los medios y los conocimientos necesarios para desarrollar sus actividades con equidad, rapidez y eficacia en t茅rminos de costes. Adem谩s, deben ser complementarias a la posibilidad de recurso judicial. Por otra parte, los consumidores podr谩n retirarse del procedimiento en cualquier momento si no est谩n satisfechos con el funcionamiento o la tramitaci贸n del procedimiento.

Los destinatarios del servicio podr谩n elegir entre el mecanismo interno de reclamaci贸n, la resoluci贸n extrajudicial de litigios y la posibilidad de iniciar, en cualquier momento, un procedimiento judicial.

ACTUALIZACI脫N:

  • Primera designaci贸n de Plataformas y Motores de Gran Tama帽o Plataformas en l铆nea de muy gran tama帽o y motores de b煤squeda de muy gran tama帽o designados con arreglo al art铆culo 33, apartado 4, del Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, de 19 de octubre de 2022, relativo a un mercado 煤nico de servicios digitales y por el que se modifica la Directiva 2000/31/CE (Ley de servicios digitales) (Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo de 19 de octubre de 2022 relativo a un mercado 煤nico de servicios digitales y por el que se modifica la Directiva 2000/31/CE (Reglamento de Servicios Digitales) (DO L 277 de 27.10.2022, p. 1).) 2023/C 249/02

 

Comunicaciones comerciales de las actividades del juego

El 15 de enero de 2020 entr贸 en vigor la modificaci贸n del C贸digo de conducta de las comunicaciones comerciales de las actividades del juego. Esta modificaci贸n hab铆a sido aprobada el mes de noviembre por la 鈥淐omisi贸n Mixta de Seguimiento del C贸digo de Conducta sobre Comunicaciones Comerciales de las Actividades de Juego鈥 a iniciativa del sector

En Vigo

En esta modificaci贸n se redefine el principio de veracidad, que pasa a expresar espec铆ficamente la obligaci贸n de incluir los elementos esenciales de los t茅rminos y condiciones de las promociones publicitadas.聽En segundo lugar, se apuesta por reforzar el juego responsable a帽adiendo nuevas obligaciones como, por ejemplo, la prohibici贸n de realizar anuncios que difundan bonos o promociones durante la propia retransmisi贸n en directo de eventos deportivos.聽En tercer lugar, se refuerza la protecci贸n de los menores, quedando prohibido que la publicidad sobre juego est茅 protagonizada por los menores de 25 a帽os, deportistas en activo o personajes p煤blicos que participen聽 en espacios infantiles

Este C贸digo se aplicar谩 a toda publicidad, promoci贸n, patrocinio y聽 cualquier tipo de comunicaci贸n comercial difundida en Espa帽a y regulada en la Ley 13/2011, de 27 de mayo, de regulaci贸n del juego que haya sido realizada por las empresas firmantes de este C贸digo, que se comprometen a respetar las normas en 茅l recogidas, as铆 como a acatar y cumplir de forma inmediata el contenido de las resoluciones que el Jurado de la Publicidad de AUTOCONTROL pueda emitir en relaci贸n con dicho C贸digo

Gu铆a de Buenas Pr谩cticas de Transparencia, Fraude Publicitario y Seguridad de Marca.

 

Primavera by M.A. D铆az

La Comisi贸n de la Industria Publicitaria (CIP), creada en marzo de 2017, impulsada por la Asociaci贸n Espa帽ola de Anunciantes (aea) e integrada por AUTOCONTROL, y las principales asociaciones del sector, como la Asociaci贸n de Agencias de Medios (AM), la Asociaci贸n Espa帽ola de Agencias de Comunicaci贸n Publicitaria (AEACP), la Asociaci贸n para la Investigaci贸n de Medios de Comunicaci贸n (AIMC), la Asociaci贸n de Marketing M贸vil (MMA), la Federaci贸n de Empresas de Publicidad y Comunicaci贸n (FEDE), el Interactive Advertising Bureau (IAB Spain) y la Oficina de la Justificaci贸n para la Difusi贸n (OJD), ha p煤blicado la Gu铆a de Buenas Pr谩cticas de Transparencia, Fraude Publicitario y Seguridad de Marca (aqu铆). Con ello se trata de conseguir que en el sector de la publicidad, y particularmente en el de la publicidad online, 聽se mejore la credibilidad, la seguridad, la eficacia y la transparencia.

A la vista del crecimiento vertiginoso que viene experimentando la inversi贸n en publicidad digital la CIP ha ido formulando 聽gu铆as que contienen recomendaciones y buenas pr谩cticas para fomentar el desarrollo del sector digital, como la Gu铆a de Est谩ndares y buenas pr谩cticas de Ad Viewability, publicada en julio 2017, posteriormente ampliada 聽mediante anexo publicado en julio de 2018.

Con la nueva gu铆a, se trata de clarificar las 谩reas de transparencia (transparency), fraude publicitario (ad fraud) y seguridad de la marca (brand safety).

El prop贸sito de esta gu铆a es dotar a la industria publicitaria digital de herramientas que permitan a todos los agentes favorecer la actividad publicitaria en entornos cada vez m谩s seguros y transparentes, y detectar y bloquear los posibles fraudes.

Respecto a la transparencia, considerada cada vez m谩s como una aut茅ntica necesidad, abarca el control del fraude publicitario (ad fraud), la seguridad de la marca (brand safety) y la visibilidad (viewability), temas todos ellos que los agentes de la industria han de conocer, ofrecer o tener acceso durante la ejecuci贸n de sus campa帽as. Esta transparencia, como advierte la gu铆a tiene gran inter茅s para todos los actores que act煤an en este sector, incluidos los anunciantes, beneficiando a toda la industria publicitaria.

En cuanto al fraude publicitario (ad fraud) lo define como 鈥渦na generaci贸n intencional de impresiones, clicks, leads y ventas fraudulentas para obtener ganancias financieras鈥. Se recogen en esta gu铆a diversos tipos de malas pr谩cticas para incrementar fraudulamente ingresos. Entre dichas pr谩cticas figuran: Pixel Stuffing; Ad Stacking; Domain Spoofing; AdInjection; Proxy Servers; Click Farms.

Se recogen tambi茅n una serie de buenas pr谩cticas que se estiman adecuadas para combatir el fraude. As铆:

  • Ads.txt.
  • Uso de herramientas de verificaci贸n que est茅n auditadas.
  • Detectar y bloquear las impresiones fraudulentas.
  • Labor humana de an谩lisis de informaci贸n que pueda detectar este tipo de tr谩fico.
  • Ads.cert.
  • En compra program谩tica usar filtros de pre-bid (previo a las pujas) para no pujar por impresiones de fuentes ya identificadas como fraudulentas.
  • Trabajar con blacklist (listado de urls a excluir) y white-list (listado de urls a incluir).

En lo que concierne a la seguridad de la marca (Brand safety) comprende todas aquellas 鈥渃onsideraciones, pr谩cticas y herramientas que garanticen que la publicidad de una marca no aparezca en un contexto que pueda ser inadecuado o contraproducente para la marca鈥.

Se pasa revista a los tipos comunes de riesgo de marca, especificando las categor铆as de riesgo y entornos de riesgo (redes sociales publicidad program谩tica, targetizaci贸n, noticias falsas (Fake News) e influenciadores (influencers).

Se trata de poder gestionar el posible riesgo de que una marca pierda valor o fracase en el mercado.

Se cifran como buenas pr谩cticas para conseguir 聽que la marca permanezca fiel a su mensaje 聽las siguientes:

  • Utilizar white lists 鈥 black lists 鈥 keywords.
  • Segmentos 鈥減re-bid鈥.
  • Educaci贸n.
  • Plataformas y proveedores verificados.

Se recogen igualmente recomendaciones para preservar la reputaci贸n de la marca

 

Sanci贸n de 1.200.000 euros a Facebook por infringir la normativa de protecci贸n de datos.

 

A prop贸sito de lo que Facebook sabe de nosotros鈥β犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅犅

Sanci贸n de 1.200.000 euros a Facebook por infringir la normativa de protecci贸n de datos.

 

El 8 de marzo de 2016 la Directora de la Agencia Espa帽ola de Protecci贸n de Datos (AEPD) ordenaba a la Subdirecci贸n General de Inspecci贸n de Datos que procediese a realizar la correspondiente investigaci贸n, en el marco de un expediente de actuaciones previas, en relaci贸n con las circunstancias puestas de manifiesto en el curso de una inspecci贸n de oficio a la red social FACEBOOK. Dicha Subdirecci贸n procedi贸 a realizar estas actuaciones previas para esclarecer los hechos.

El 7 de marzo de 2017 la Directora de la Agencia acord贸 iniciar de oficio procedimiento sancionador a la entidad FACEBOOK, INC., para analizar y comprobar si el tratamiento de datos que realiza la red social se ajusta a la normativa de protecci贸n de datos o si se producen las siguientes presuntas infracciones de ciertos arts. de la Ley Org谩nica 15/1999, de 13 de diciembre, de Protecci贸n de Datos de Car谩cter Personal (LOPD), en concreto los siguiente

6.1, en relaci贸n con los arts. 5 y 4.1 y 2 de este mismo texto legal; infracci贸n tipificada como grave en el art. 44.3.b) de la LOPD;

7, en relaci贸n con los art铆culos 5 y 4.1 y 2 de la misma Ley, infracci贸n tipificada como muy grave en el art. 44.4.b) de la LOPD y

4.5 en relaci贸n con el art. 16, ambos de la LOPD; infracci贸n tipificada como grave en el art. 44.3.c) de la LOPD.

  • En el marco de la investigaci贸n la Agencia constata que Facebook, mediante la interacci贸n con sus servicios o desde p谩ginas de terceros, recoge datos sobre ideolog铆a, sexo, creencias religiosas, gustos personales o navegaci贸n sin informar de forma clara al usuario sobre la finalidad pretendida y el uso y al que van destinados. En concreto, ha verificado que la red social trata 鈥渄atos especialmente protegidos鈥 con fines de publicidad, entre otros, sin obtener el consentimiento expreso de los usuarios que requiere la normativa de protecci贸n de datos. Incurre as铆 Facebook en una infracci贸n tipificada como muy grave en la LOPD.
  • Mediante la misma investigaci贸n la AEPD comprueba que Facebook no informa a los usuarios de forma minuciosa y clara 鈥揳 trav茅s de la lista correspondiente- sobre los datos personales que va a recoger y c贸mo los va a tratar,聽 limit谩ndose a ofrecer algunos ejemplos.
  • Se acredita que esta red social recoge otros datos derivados de la interacci贸n que llevan a cabo los usuarios en la plataforma y en sitios de terceros sin que estos puedan cerciorarse de cu谩l es la informaci贸n que Facebook recoge sobre ellos y con qu茅 finalidad va a hacer uso de ella.
  • Igualmente, la AEPD verifica que no se informa a los usuarios de que se va a tratar su informaci贸n mediante el uso de cookies -algunas de uso espec铆ficamente publicitario y alguna de uso declarado secreto por la propia compa帽铆a- cuando navegan a trav茅s de p谩ginas ajenas a Facebook y que contienen el bot贸n 鈥楳e gusta鈥. Y ello acontece asimismo tanto respecto a usuarios que, no siendo miembros de Facebook, han visitado alguna vez una de sus p谩ginas, como respecto a usuarios que, estando registrados en Facebook, navegan por p谩ginas de terceros, incluso sin iniciar sesi贸n en Facebook. Lo que hace la plataforma es a帽adir la informaci贸n recogida en tales p谩ginas a la que figura asociada a su cuenta en la red social. La informaci贸n ofrecida por la red social a los usuarios, como declara la AEPD, no respeta la normativa de protecci贸n de datos.
  • Otro de los extremos advertidos por la Agencia ata帽e a la pol铆tica de privacidad de Facebook, donde se contienen expresiones gen茅ricas y poco claras, y que obliga a acceder a multitud de enlaces para conocerla. Facebook alude de forma imprecisa al uso al que se destinan los datos que recoge, de modo que un usuario de Facebook con un conocimiento medio de las nuevas tecnolog铆as no es consciente de la recogida de datos, ni de su almacenamiento y posterior tratamiento, ni de para qu茅 van a ser utilizados. Y, en lo que respecta a los internautas no registrados, desconocen que esta red social recoge sus datos de navegaci贸n.

Teniendo en cuenta que Facebook no recaba de forma adecuada el consentimiento ni de sus usuarios ni de quienes no lo son 鈭抷 cuyos datos tambi茅n trata鈭, la AEPD considera que est谩 cometiendo una infracci贸n tipificada como grave.

  • Al margen de lo anterior, la AEPD constat贸 tambi茅n que Facebook no elimina la informaci贸n recogida a partir de los h谩bitos de navegaci贸n de los usuarios, sino que la retiene y reutiliza posteriormente asociada al mismo usuario. Adem谩s, cuando un usuario de la red social ha eliminado su cuenta y solicita el borrado de la informaci贸n, Facebook capta y trata informaci贸n durante m谩s de 17 meses a trav茅s de una cookie de la cuenta eliminada. Esta situaci贸n, de que los datos personales de los usuarios no se cancelan en su totalidad ni cuando han dejado de ser 煤tiles para la finalidad que motiv贸 la recogida ni cuando el usuario solicita expl铆citamente su eliminaci贸n, conforme a las exigencias de la LOPD, constituye, a juicio de la Agencia, una infracci贸n tipificada como grave.
As铆 las cosas, el 21 de agosto de 2017 la AEPD ha dictado Resoluci贸n 聽en la que declara que Facebook incurre en dos infracciones graves y una muy grave de la LOPD. Por estas infracciones le impone una sanci贸n total de 1.200.000 euros 鈭300.000 por cada una de las primeras y 600.000 por la segunda鈭.

Contra esta Resoluci贸n, que pone fin a la v铆a administrativa, los interesados pueden, potestativamente, interponer: recurso de reposici贸n ante la Directora de la Agencia Espa帽ola de Protecci贸n de Datos en el plazo de un mes a contar desde el d铆a siguiente a la notificaci贸n de esta resoluci贸n, o, directamente recurso contencioso administrativo ante la Sala de lo Contencioso- administrativo de la Audiencia Nacional, en el plazo de dos meses a contar desde el d铆a siguiente a dicha notificaci贸n.

Esta Resoluci贸n representa un hito importante en materia de protecci贸n de datos. La investigaci贸n llevada a cabo por la AEPD y la Resoluci贸n resultante ha de ponerse en relaci贸n con los procedimientos de investigaci贸n iniciados por el Grupo de Contacto constituido por diversas Autoridades de Protecci贸n de Datos de la Uni贸n Europea, entre las que se encuentra la AEPD. Este Grupo trata de coordinar sus actuaciones tras los cambios acometidos por Facebook en enero de 2015 en sus t茅rminos y condiciones de uso. Integran este Grupo de Contacto Autoridades de Protecci贸n de Datos de B茅lgica, Espa帽a, Francia, Hamburgo (Alemania) y Pa铆ses Bajos. Dichas autoridades han iniciado tambi茅n investigaciones nacionales relacionadas, entre otros aspectos, con la calidad de la informaci贸n facilitada a los usuarios, la validez del consentimiento y el tratamiento de datos personales con fines publicitarios. V茅ase, al respecto, la Declaraci贸n com煤n del Grupo de Contacto de las Autoridades de Protecci贸n de Datos de Holanda, Francia, Espa帽a, Hamburgo y B茅lgica (aqu铆). Tres de los miembros publicaron ya sus resultados (Francia, B茅lgica y Holanda). As铆, por ejemplo, en Francia se impuso una sanci贸n de 150.000 euros a Facebook Inc. y Facebook Ireland Limited.

Es cierto que la Resoluci贸n de la AEPD que nos ocupa, ampliamente motivada a lo largo de 93 p谩ginas, recoge una multa millonaria. Pero lo es tambi茅n que todav铆a podr铆a ascender a una cuant铆a mucho mayor a partir del 25 de mayo de 2018, fecha en la que resultar谩 aplicable el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protecci贸n de las personas f铆sicas en lo que respecta al tratamiento de datos personales y a la libre circulaci贸n de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protecci贸n de datos) . 聽Y ello porque con arreglo al art. 83.5 del mismo se le habr铆a podido imponer una multa de hasta 20.000.000 euros o, trat谩ndose de una empresa, de una cuant铆a equivalente al 4 % como m谩ximo del volumen de negocio total anual global del ejercicio financiero anterior, opt谩ndose por la de mayor cuant铆a.

Seg煤n informaciones aparecidas en medios de comunicaci贸n 聽(aqu铆 y aqu铆) Facebook ha emitido un comunicado en el que 鈥渄iscrepa respetuosamente鈥 de la decisi贸n adoptada por la Agencia, mostr谩ndose dispuesta a recurrir la Resoluci贸n.

Competencia desleal. Aspectos pr谩cticos

Os dejo una reciente presentaci贸n realizada para el Curso organizado desde el Centro de Responsabilidad Social Gobierno Corporativo y Protecci贸n del Inversor (CERGI), en el que colaboramos ponentes de la Universidad de Le贸n. SOBRE EL CURSO Y OTRAS ACTIVIDADES DEL CENTRO DE RESPONSABILIDAD SOCIAL, GOBIERNO CORPORATIVO Y PROTECCI脫N DEL INVERSOR (CERGI) DE GALICIA, VER AQU脥

Competencia Desleal_aspectos pr谩cticos_epc

 

Autorregulaci贸n de contenidos televisivos e infancia. Requerimiento CNMC

Llamamos la atenci贸n sobre el requerimiento por parte de la CNMC a lo los pregatinba帽ostadores de servicios de comunicaci贸n audiovisual adheridos al C贸digo de Autorregulaci贸n sobre contenidos televisivos e infancia 聽 (CACTI) de 2004, para que cumplan sus聽 compromisos autoasumidos en relaci贸n con los 鈥淐ontenidos Televisivos e Infancia鈥 en la emisi贸n de informativos. Enlace a la noticia de la CNMC, con m谩s informaci贸n.
Antecedentes:
  • Las autoridades de la UE, y en especial el Parlamento europeo vienen reiterando la necesidad de una autorregulaci贸n en materia de programaci贸n televisiva relacionada con menores, insistiendo en que los C贸digos autoregulatorios impongan incluso sanciones en caso de incumplimiento. En Espa帽a, el Art. 39.4 de la Constituci贸n reconoce una protecci贸n de la infancia, al m谩s alto nivel normativo; desarrollo del cual existe -entre otros, un C贸digo de Conducta de autorregulaci贸n sobre contenidos televisivos e infancia. El CACTI contempla, por ejemplo, principios para mejorar la eficacia聽聽 de la protecci贸n legal de los menores respecto de la programaci贸n televisiva que se emita en dicho horario; diferenciando entre el p煤blico infantil -menor de 13 a帽os- y el juvenil.
  • Las franjas de protecci贸n reforzada se sit煤an entre las 8 y las 9 horas y entre las 17 y las 20 horas en el caso de los d铆as laborables y entre las 9 y las 12 horas los s谩bados, domingos y fiestas de 谩mbito estatal, es decir, en momentos cuando el control parental puede ser menor,
  • El CACTI estipula, entre otros,聽 que sus firmantes evitar谩n la emisi贸n de im谩genes de violencia, tratos vejatorios, o sexo no necesarias para la comprensi贸n de la noticia, as铆 como聽 la emisi贸n de secuencias particularmente crudas o brutales; y que en los casos de relevante valor social o informativo que justifiquen la emisi贸n de las noticias o im谩genes antes referidas, se avisar谩 a los telespectadores de la inadecuaci贸n de las mismas para el p煤blico infantil. Adem谩s, los firmantes del CACTI se comprometieron a limitar la emisi贸n de este tipo de im谩genes en informativos que se puedan emitir en las franjas horarias de protecci贸n reforzada, procurando que la difusi贸n de estas escenas se realice en los informativos emitidos fuera de la franja horaria de protecci贸n general de los menores. Igualmente, en aquellos programas que no son propiamente informativos se han de cumplir con las disposiciones de la Ley y聽 del C贸digo de Autorregulaci贸n respecto a la calificaci贸n por edades y avisar, de la existencia de im谩genes o secuencias especialmente duras que pueden afectar a la protecci贸n de los menores.

Publicidad enga帽osa. Publicidad Comparativa

El TJUE clarifica que publicidad enga帽osa y comparativa son aut贸nomas, derivadas de hechos il铆citos diferentes entre si.

C-52/2013,聽Sentencia del Tribunal de Justicia (Sala octava) de 13 de marzo de 2014.聽Posteshop SpA – Divisione Franchising Kipoint contra Autorit脿 Garante della Concorrenza e del Mercato y Presidenza del Consiglio dei Ministri:聽La Directiva 2006/114/CE del Parlamento Europeo y del Consejo, de 12 de diciembre de 2006, sobre publicidad enga帽osa y publicidad comparativa, debe interpretarse en el sentido de que, en lo relativo a la protecci贸n de los comerciantes, contempla la publicidad enga帽osa y la publicidad comparativa ilegal como dos infracciones aut贸nomas y de que, a efectos de prohibir y sancionar una publicidad enga帽osa, no es necesario que 茅sta constituya igualmente publicidad comparativa ilegal.

Comentario Jesus Gomez Montero. El derecho.com