La Comisión ha adoptado las primeras decisiones de designación en virtud de la Ley de Servicios Digitales, por las que se designan 17 plataformas en línea de muy gran tamaño y 2 motores de búsqueda de muy gran tamaño, que tienen 45 millones de usuarios activos mensuales como mínimo.
A saber:
Plataformas en línea de muy gran tamaño:
- Alibaba AliExpress
- Amazon Store
- Apple AppStore
- Booking.com
- Google Play
- Google Maps
- Google Shopping
- Snapchat
- TikTok
- Wikipedia
- YouTube
- Zalando
Motores de búsqueda de muy gran tamaño:
- Bing
- Google Search
Las plataformas se han designado sobre la base de los datos de los usuarios, que tenían que publicar a más tardar el 17 de febrero de 2023.
Próximos pasos para las plataformas y los motores de búsqueda designados
Tras su designación, las empresas tendrán que cumplir ahora, en un plazo de cuatro meses, la totalidad de las nuevas obligaciones derivadas de la Ley de Servicios Digitales. Su objetivo es capacitar y proteger a los usuarios en línea, incluidos los menores, exigiendo a los servicios designados que evalúen y mitiguen sus riesgos sistémicos y proporcionen herramientas sólidas de moderación de contenidos, a saber:
Entra en vigor Ley de Servicios Digitales de la UE para las plataformas en línea
|
- Más capacitación de los usuarios:
- Los usuarios recibirán información clara sobre el motivo de que se les recomiende determinada información y tendrán derecho a darse de baja de los sistemas de recomendación que se funden en la elaboración de perfiles.
- Los usuarios podrán denunciar fácilmente contenidos ilícitos y las plataformas tendrán que tramitar sus denuncias con diligencia.
- No podrán aparecer anuncios que se basen en datos sensibles del usuario (por ejemplo, el origen étnico, las opiniones políticas o la orientación sexual).
- Las plataformas deberán etiquetar todos los anuncios e informar sobre quién los pone.
- También deberán proporcionar un resumen fácilmente comprensible y en lenguaje claro de sus condiciones de uso, en todas las lenguas de los Estados miembros en los que operen.
- Sólida protección de los menores:
- Las plataformas tendrán que rediseñar sus sistemas para garantizar un alto nivel de privacidad, protección y seguridad de los menores.
- Ya no estarán permitidas la publicidad personalizada y aquella basada en la elaboración de perfiles que se dirija a los menores.
- Deberán presentarse a la Comisión evaluaciones de riesgos especiales (por ejemplo, los efectos negativos en la salud mental) cuatro meses después de su designación y hacerse públicas a más tardar un año después.
- Las plataformas tendrán que rediseñar sus servicios, incluidas sus interfaces, sistemas de recomendación y condiciones, para mitigar esos riesgos.
- Moderación de contenidos más diligente y menos desinformación:
- Las plataformas y los motores de búsqueda adoptarán medidas para hacer frente a los riesgos vinculados a la difusión de contenidos ilícitos en línea y a los efectos negativos en la libertad de expresión y de información.
- Tendrán condiciones de uso claras y las aplicarán de forma diligente y no arbitraria.
- Deberán disponer de un mecanismo para que los usuarios alerten de contenidos ilícitos y actuarán en consecuencia a la mayor brevedad.
- Habrán de analizar sus riesgos específicos y aplicar medidas de mitigación; por ejemplo, para evitar la propagación de desinformación y el uso no auténtico de su servicio.
- Más transparencia y rendición de cuentas:
- Las plataformas deberán velar por que sus evaluaciones de riesgos y su cumplimiento de todas las obligaciones de la Ley de Servicios Digitales sean objeto de una auditoría externa e independiente.
- Tendrán que dar acceso a los datos públicos a los investigadores. Posteriormente, se establecerá un mecanismo especial para investigadores autorizados.
- Tendrán que publicar repositorios de todos los anuncios utilizados en su interfaz.
- Publicarán informes de transparencia sobre las decisiones de moderación de contenidos y la gestión de riesgos.
A más tardar cuatro meses después de las decisiones de designación, las plataformas designadas tendrán que adaptar sus sistemas, recursos y procesos a efectos del cumplimiento, crear un sistema independiente de cumplimiento y efectuar su primera evaluación de riesgos anual e informar de ello a la Comisión.
En vigor la Ley de Mercados Digitales de la Unión Europea |
Evaluación de riesgos
Las plataformas tendrán que detectar, analizar y mitigar una amplia gama de riesgos sistémicos, desde la manera en que los contenidos ilegales y la desinformación pueden amplificarse a través de sus servicios hasta las repercusiones en la libertad de expresión y la libertad de los medios de comunicación. Análogamente, deberán evaluarse y mitigarse los riesgos concretos relacionados con la violencia de género en línea y con la protección en línea de los menores y su salud mental. Los planes de mitigación de riesgos de las plataformas y los motores de búsqueda designados se someterán a una auditoría independiente y a la supervisión de la Comisión.
Una nueva estructura de supervisión
La Ley de Servicios Digitales se hará cumplir a través de una estructura de supervisión paneuropea. Si bien la Comisión es la autoridad competente para supervisar las plataformas y los motores de búsqueda designados, trabajará en estrecha cooperación con los coordinadores de servicios digitales en el marco de supervisión establecido por la Ley de Servicios Digitales. Los Estados miembros de la UE deberán establecer a más tardar el 17 de febrero de 2024 esas autoridades nacionales, que también se encargarán de la supervisión de las plataformas y los motores de búsqueda más pequeños. Esa misma fecha es también el plazo en el que todas las demás plataformas deberán cumplir sus obligaciones en virtud de la Ley de Servicios Digitales y ofrecer a sus usuarios la protección y las salvaguardias establecidas en dicha Ley.
Para hacerla cumplir, la Comisión también está ampliando su preparación técnica mediante conocimientos multidisciplinares internos y externos, y ha puesto en marcha hace poco un Centro Europeo para la Transparencia Algorítmica (CETA). Este prestará asistencia a la hora de valorar si el funcionamiento de los sistemas algorítmicos se atiene a las obligaciones de gestión de riesgos. La Comisión también está creando un ecosistema digital de ejecución, que reúne los conocimientos especializados de todos los sectores pertinentes.
Más información: Comisión Europea
Deja una respuesta