Novedades en la aplicación de la Ley de Servicios Digitales (DSA) para garantizar la transparencia de las plataformas de internet en la moderación de contenido - Observatorio Español del Racismo y la Xenofobia
26/02/2024
Comisión Europea
Novedades en la aplicación de la Ley de Servicios Digitales (DSA) para garantizar la transparencia de las plataformas de internet en la moderación de contenido
Temática:
Tipología:
- Desde el pasado día 17 de febrero de 2024 la Ley de Servicios Digitales (DSA) es de plena aplicación para todos los prestadores de servicios digitales sujetos al propio reglamento.
- Las plataformas de muy gran tamaño deben publicar sus informes sobre la moderación de los contenidos al menos cada seis meses.
- La Comisión Europea ha desarrollado la Base de Datos de Transparencia de la DSA, que permite a los usuarios consultar información proporcionada por las plataformas sobre la moderación de los contenidos.
Поділитися y соціальних мережах:
Desde el pasado día 17 de febrero de 2024 el Reglamento (UE) 2022/2065, relativo al mercado único de servicios digitales, más conocido como Ley de Servicios Digitales (DSA), es de plena aplicación para todos los prestadores de servicios digitales sujetos al reglamento, incluyendo redes sociales, motores de búsqueda y otras plataformas online; por lo que, desde este momento, deben cumplir con las obligaciones contempladas en el reglamento con el fin de crear un espacio digital más seguro y transparente en el que se protejan los derechos fundamentales de los usuarios y se establezcan unas condiciones de competencia equitativas para fomentar la innovación y el crecimiento en el mercado único europeo.
Desde el propio día 17 de febrero las plataformas tienen la obligación de publicar, al menos una vez al año, informes sobre la moderación de contenido, integrando información sobre sus procedimientos de moderación de contenidos, sobre las medidas aplicadas en sus prácticas de moderación, sobre el número de contenidos retirados y la tasa de error de sus sistemas automatizados, y sobre el número de notificaciones que recibieron de las autoridades pertinentes. Además, deben facilitar el número de notificaciones de usuarios y de los comunicantes fiables.
La DSA contempla una serie de obligaciones adicionales para las plataformas de muy gran tamaño (VLOP) y motores de búsqueda de muy gran tamaño (VLOSE). En estos casos, la periodicidad de los informes de transparencia se reduce a los seis meses y estos deben incluir información específica sobre los equipos de moderación de contenidos. A finales del mes de octubre de 2023, estas plataformas de muy gran tamaño publicaron sus primeros informes de transparencia. Tras esta primera toma de contacto se están desarrollando plantillas para dar uniformidad a los informes y garantizar su comparabilidad, con periodos de notificación armonizados.
En el marco de la promoción de la transparencia como uno de los pilares esenciales de la DSA, la Comisión Europea ha desarrollado la Base de Datos de Transparencia, un portal web que permite a los usuarios visualizar y descargar información proporcionada por las plataformas respecto a la moderación de los contenidos, realizando un seguimiento actualizado y detallado a través del uso de filtros que permiten buscar por fecha, plataforma, tipo de contenido y carácter de la infracción. Del total de decisiones sobre la moderación de contenidos tomadas por las plataformas en el marco de la DSA, la mayoría, con más de cuatro millones de reportes, responden a notificaciones sobre el alcance del servicio de la plataforma, como contenido no apropiado en función de las normas de las plataformas. En segundo lugar, figuran los reportes sobre contenido de discurso ilegal o dañino, incluyendo el discurso de odio; y, en tercer lugar, las notificaciones sobre pornografía y contenido sexual. De todas las decisiones de moderación, el 73% fueron tomadas de manera totalmente automatizada.
En la categoría de discursos ilegales o dañinos se han registrado más de 134.000 notificaciones, aunque el volumen de acciones notificadas y recogidas en la base de datos varía en un alto grado en función de las distintas plataformas. El 92% de los contenidos notificados en esta categoría se basan en texto y no en imágenes u otro contenido audiovisual. La gran mayoría de las acciones de moderación son tomadas desde la propia iniciativa de la plataforma y no en virtud de los mecanismos de notificación contemplados en el artículo 16 (notificación de contenidos ilícitos por parte de los usuarios). Por otra parte, predomina la automatización tanto en la detección de los contenidos como en las decisiones de moderación.
La CNMC, designada como coordinador nacional en España
El Ministerio para la Transformación Digital y de la Función Pública ha designado a la Comisión Nacional de los Mercados y la Competencia (CNMC) como coordinador de la aplicación de la DSA en España. La figura del coordinador nacional actúa como único punto de contacto y cuenta con funciones específicas para supervisar la aplicación y ejecutar el reglamento, siendo también el encargado de otorgar la condición de comunicante fiable a las entidades que lo deseen y cumplan con los requisitos pertinentes.
