Los países miembros de la Unión Europea y sus órganos ejecutivo y legislativo terminaron este sábado 23 de abril una nueva legislación que permitirá combatir los discursos de odio o las campañas de desinformación.
Después de largos meses de negociación, un "acuerdo" fue alcanzado entre las instituciones europeas respecto a la Ley de Servicios Digitales ("Digital Services Act", DSA), indicó en Twitter el comisario europeo de Mercado Interior, Thierry Breton.
Esta nueva ley actualiza la directiva de comercio digital aprobada hace 20 años e impondrá a las grandes plataformas como Facebook o Amazon normativas para erradicar los contenidos ilícitos o peligrosos en la red.
LEA MÁS: Amazon, Facebook, Apple y Google, ¿llegó el momento de dividir a las poderosas firmas ‘big tech’?
"Este acuerdo es histórico", se felicitó la presidenta de la Comisión Europea, Ursula von der Leyen.
"La DSA es una primicia mundial en materia de regulación digital", señaló en un comunicado el Consejo Europeo, que representa a los 27 Estados miembros.
El texto "consagra el principio de que lo que es ilegal fuera de la red debe ser igualmente ilegal en la red. Busca proteger el espacio digital de la difusión de contenidos ilícitos y garantizar la protección de los derechos fundamentales de los usuarios", indicó.
Junto a la Ley de Mercados Digitales ("Digital Markets Act", DMA), concluida a finales de marzo para acabar con las prácticas contrarias a la competencia, la DSA forma parte de un plan de envergadura presentado en diciembre de 2020 por la Comisión Europea, el ejecutivo de la UE.
Su objetivo es poner fin a los abusos en redes sociales que terminan saltando a los titulares como sucedió con el asesinato de un profesor de historia en Francia tras una campaña de odio en octubre de 2020 o el asalto de manifestantes al Capitolio de Estados Unidos en enero de 2021, en parte planificado vía Facebook o Twitter.
LEA MÁS: Negocios en el metaverso: cómo el entorno virtual abre un mundo de posibilidades para las marcas
También actuará en las plataformas de venta al menudeo llenas de productos falsificados o defectuosos que pueden resultar a veces peligrosos, como juguetes infantiles que no respetan las normas de seguridad.
El nuevo reglamento estipula la obligación de retirar "rápidamente" todo contenido ilícito cuando la plataforma tiene constancia de ello y obliga a las redes sociales a suspender a los usuarios que violen "frecuentemente" la ley.
También fuerza a las webs de comercio electrónico a controlar la identidad de sus proveedores antes de ofertar sus productos.
Control a las grandes plataformas
En el corazón del proyecto radican las normas impuestas a las "plataformas muy grandes", aquellas que cuenten con "más de 45 millones de usuarios activos" en la UE.
La lista de una veintena de empresas debe cerrarse todavía pero incluirá las llamadas GAFAM (Google, Apple, Facebook, Amazon y Microsoft), Twitter y probablemente TikTok, Zalando o Booking.
Estas firmas deberán evaluar los riesgos vinculados al uso de sus servicios y poner en práctica los medios adecuados para retirar los contenidos problemáticos.
También deberán ser más transparentes sobre sus datos y los algoritmos que usan para recomendar contenido.
Serán auditadas una vez al año por organismos independientes y colocadas bajo vigilancia de la Comisión Europea, que podrá imponer multas de hasta el 6% de sus ventas anuales en caso de infracciones repetidas.
LEA MÁS: Ignacio Acosta, de Futures Intelligence: “El metaverso es la siguiente versión de Internet”
"En el contexto de la agresión rusa en Ucrania y de consecuencias particulares sobre la manipulación de la información en línea, un nuevo artículo ha sido introducido para poner en marcha un mecanismo de reacción en caso de crisis", indicó el Consejo Europeo.
Este mecanismo, activado por la Comisión, permitirá tomar medidas "proporcionados y eficaces" frente a las plataformas muy grandes que contribuyan a expandir informaciones falsas.
Por su parte, el grupo de presión de las grandes empresas digitales CCIA consideró el sábado que “algunos detalles importantes” debían “aclararse”, de modo que “la legislación final permita a todas las empresas, grandes y pequeñas, ajustarse a las normas en la práctica”.
Aquí una radiografía de la nueva legislación:
- Reglas para todas las plataformas en línea
- Obligación de designar un representante legal en uno de los 27 Estados miembros.
- Obligación de actuar “rápidamente” para retirar todo contenido ilícito o impedir su acceso.
- Las plataformas deberán informar “rápidamente” a las autoridades judiciales en caso de sospecha de una “infracción penal grave” que amenace “la vida o la seguridad de las personas”.
- Las plataformas deberán publicar una vez por año un informe en el que detallen sus iniciativas a favor de la moderación de contenidos y cuánto se demoraron en actuar tras haber sido notificados sobre la presencia de contenidos ilegales. Tendrán que informar sobre los litigios con sus usuarios y las decisiones tomadas.
- Todas las plataformas deberán ofrecer un sistema gratuito de reclamaciones.
- Las plataformas deberán suspender a los usuarios que publiquen “a menudo” contenidos ilegales.
- Las plataformas de venta en línea deberán controlar la identidad de los vendedores. Tendrán también realizar controles aleatorios.
- Publicidad: cada usuario debe estar al tanto de los parámetros utilizados para dirigirse a él y quiénes financian los anuncios.
- Queda prohibido el uso de datos “sensibles” del usuario (sexo, afiliación política, afiliación religiosa, etc.) para la publicidad dirigida.
- Se prohíbe la publicidad dirigida a los menores.
- Quedan prohibidas las interfaces engañosas que lleven a los usuarios a determinadas configuraciones de cuenta o servicios de pago.
- Obligaciones para las grandes plataformas
- Se impondrán obligaciones adicionales a las plataformas online “muy grandes”, con más de 45 millones de usuarios activos en la UE, potencialmente una veintena de empresas entre las que se encuentran Google (y su filial YouTube), Meta (Facebook, Instagram), Amazon, Microsoft (y su red social LinkedIn), Apple, Twitter, y posiblemente también TikTok, Zalando y Booking.
- Deberán analizar los riesgos asociados a sus servicios en cuanto a la difusión de contenidos ilegales, a la violación de la intimidad, la libertad de expresión, la salud o la seguridad pública. Y deberán actuar para mitigarlos.
- Las grandes plataformas facilitarán al regulador el acceso a sus datos para que pueda controlar el cumplimiento de la normativa.
- Serán auditados una vez al año por organismos independientes para verificar el cumplimiento de sus obligaciones.
- Deberán contar con un servicio de control interno independiente para comprobar que cumplen el reglamento.
- Tendrán la obligación de luchar contra la pornografía vengativa.
LEA MÁS: ¿Qué es la sección 230 y cómo ha protegido a las grandes firmas de tecnología en Estados Unidos?
- Autoridades de control
- Cada Estado miembro de la UE designará una autoridad competente, con poderes de investigación y sanción, para hacer cumplir el reglamento. Las 27 autoridades cooperarán entre sí.
- El Estado miembro en el que se encuentre el establecimiento principal del proveedor de servicios digitales será competente para hacer cumplir las obligaciones, salvo en el caso de las plataformas muy grandes, que deberán ser supervisadas directamente por la Comisión Europea.
- Posibilidad de que los usuarios presenten reclamaciones -
- Los usuarios tendrán derecho a presentar una reclamación contra un proveedor de servicios digitales ante la autoridad competente.
- Las plataformas de venta en línea que no cumplan con sus obligaciones pueden ser consideradas responsables de los daños sufridos por los compradores de productos no conformes e inseguros.
- Sanciones
- Las multas podrán alcanzar el 6% de la facturación anual.
- Exención para las pequeñas empresas
- Las microempresas y las pequeñas empresas están exentas de las obligaciones del reglamento.