La UE regula la censura sin autorización judicial en situaciones de «crisis»

Por Beatriz Talegón  /  Las Repúblicas

Visto en: Sott.net

Guerra, pandemia o desastres naturales justificarán que los gigantes de internet pueda seleccionar la información

El Reglamento Europeo de Servicios Digitales llega con lo que podría denominarse la censura autorizada.

Será de aplicación directa en los Estados miembro sin necesidad de que deban transponerlo ni incorporarlo en sus ordenamientos jurídicos. Será de aplicación a los 15 meses de su publicación en el DOE (Diario Oficial Europeo).

El artículo 27a describe un protocolo de crisis mediante el cual, la Comisión Europea podrá exigir a los proveedores de servicios de Internet que apliquen medidas «específicas, efectivas y proporcionadas» para «prevenir, eliminar o limitar» cualquier contribución a lo que se consideren «amenazas graves».

La novedad se incorpora señalando a Ucrania y especialmente, en referencia a la manipulación online, según señala Público.

O sea: que la Comisión Europea, presidida por Von der Leyen (a quien nadie ha votado directamente), podrá tomar la decisión de solicitar a los gigantes de las redes, que intervengan, incluso de manera preventiva, a la hora de censurar contenidos que puedan considerarse (por la Comisión Europea) como una amenaza grave.

Aunque se describe como una medida excepcional, lo cierto es que salta sobre los derechos fundamentales, consagrados en todas las constituciones de los Estados miembro de la UE: la libertad de expresión. Y lo que es más importante: la seguridad jurídica de una decisión de semejante dimensión, puesto que el reglamento prevé que esta decisión pueda ser tomada sin previo control por parte de los jueces.

Para que la Comisión Europea pueda hacer uso de esta «excepción», ha de darse una «grave crisis», que consistiría en «circunstancias extraordinarias que den lugar a una amenaza grave para la seguridad o salud pública en la Unión o en partes significativas de ella». Señala a casos de conflictos armados, actos de terrorismo, conflictos emergentes, desastres naturales, pandemias y amenazas transfronterizas graves para la salud pública.

Es una forma de poner en un reglamento lo que, de facto, ya se ha hecho al censurar la retransmisión de medios rusos en la Unión Europea. En aquel momento la decisión fue respaldada mediante decreto europeo por la vía de urgencia. Ahora, de tener que tomarse una decisión similar, se haría basándose en este reglamento.

La norma atribuye a las grandes compañías privadas la decisión de censurar contenidos.

Según recoge Público, el abogado Carlos Sánchez Almeida, experto en Libertad de la Información, y director jurídico de la Plataforma para la Defensa de la misma, «Bruselas va a poder hacer en toda la UE lo que los diferentes Ejecutivos nacionales, como el español, tienen prohibido hacer por ser inconstitucional».

El contenido del comunicado oficial señala los siguientes puntos:

Según la DSA (Ley de Servicios Digitales), las plataformas no solo tendrán que ser más transparentes, sino que también deberán rendir cuentas por su papel en la difusión de contenido ilegal y dañino. Entre otras cosas, la DSA:

  • establece obligaciones especiales para los mercados en línea a fin de combatir la venta en línea de productos y servicios ilegales;
  • introduce medidas para contrarrestar el contenido ilegal en línea y obligaciones para que las plataformas reaccionen rápidamente, respetando los derechos fundamentales;
  • protege mejor a los menores en línea al prohibir que las plataformas utilicen publicidad dirigida basada en el uso de datos personales de menores tal como se define en la legislación de la UE;
  • impone ciertos límites a la presentación de publicidad y al uso de datos personales confidenciales para publicidad dirigida, incluidos el género, la raza y la religión;
  • prohíbe las interfaces engañosas conocidas como «patrones oscuros» y las prácticas destinadas a engañar

Se aplicarán reglas más estrictas para las plataformas en línea y los motores de búsqueda, que deberán:

  • ofrecer a los usuarios un sistema de recomendación de contenidos no basado en perfiles ;
  • analizar los riesgos sistémicos que generan: riesgos relacionados con la difusión de contenidos ilegales, efectos negativos sobre los derechos fundamentales, sobre los procesos electorales y sobre la violencia de género o la salud mental.

Conozca la redacción íntegra del Reglamento pulsando aquí.

Deja una respuesta

Deja un comentario