Chat Control
Licencia para espiar
Chat Control
Licencia
para espiar
Lee el manifiesto,
firma la petición
y únete a la campaña

¿Sois un colectivo o una entidad ciudadana?
¿Qué es Chat Control?
Desde 2020, la Unión Europea (UE) intenta normalizar el escaneo preventivo de comunicaciones privadas para “luchar contra el abuso sexual infantil en línea”. Ese fin legítimo se ha usado como coartada para controles generalizados sobre aplicaciones de mensajería y correo electrónico, incluso con cifrado de extremo a extremo (E2EE), pese a las advertencias de los supervisores europeos de protección de datos (EDPB-EDPS) sobre riesgos y falta de proporcionalidad.
En mayo de 2022 la Comisión presentó el Reglamento CSA (“Chat Control”), que impone órdenes de detección a servicios de comunicación y de alojamientos. Para cumplir en E2EE, la vía práctica es el escaneo previo al cifrado (client-side scanning), que introduce una puerta de vigilancia en el dispositivo. La comunidad técnica (Internet Society) ha documentado riesgos sistémicos donde incluso Apple abandonó en 2022 su plan de escaneo en el lado del cliente.
Tras bloqueos sucesivos, en 2025 la Presidencia danesa del Consejo de la UE reactivó el expediente con la meta de votarlo en el mes de otoño. Diversas fuentes sitúan el 14 de octubre de 2025 como fecha de la votación (pendiente de confirmación oficial).
El alcance ya no se limita a las aplicaciones de mensajería, sino que se permite dirigir el control sobre proveedores de alojamiento donde conforme al DSA (Reglamento 2022/2065), “servicio de alojamiento” abarca ejemplos como servicios en la nube, lo que extendería el escaneo automatizado a todos los contenidos almacenados en la nube.
La incoherencia es evidente, mientras se acelera Chat Control, la Comisión europea retiró en febrero de 2025 su propuesta de Reglamento ePrivacy (la actualización de la confidencialidad en comunicaciones), dejando vigente la Directiva 2002/58/CE. Es decir, se aparca reforzar la privacidad y se impulsa el escaneo preventivo, también en servicios cifrados y en la nube.
¿Pero esto no es ilegal?
Chat Control rompe con la Constitución Española, que protege el secreto de las comunicaciones y exige autorización judicial. Lo que se pretende aparte de la implantación tecnológica es sustituir ese control judicial por un control administrativo y masivo, algo inaceptable en democracias modernas.
También vulnera la Carta de Derechos Fundamentales de la UE, el Reglamento de Protección de Datos y la Directiva de Privacidad en las Comunicaciones, que prohíben la vigilancia indiscriminada.
Viola de forma directa tratados internacionales como el Convenio Europeo de Derechos Humanos y el Pacto Internacional de Derechos Civiles y Políticos.
Paradójicamente, incluso en Estados Unidos la ley actual impide este tipo de control preventivo sin orden judicial, en cambio, el modelo europeo en proyecto de implantación se parece más al chino, donde las plataformas están obligadas a vigilar y censurar las comunicaciones de toda la población.
No elimina el problema
Recordemos que, por lo general, los abusos a menores se producen en ámbitos de confianza del menor, como el familiar. Si los depredadores ya tienen contacto físico con su víctima, basta con no dejar rastro de su abuso en medios digitales para pasar desapercibidos.
Además de no atacar la mayoría de casos, la medida propuesta tiene limitaciones técnicas serias. Debido a la volumetría inabarcable de los datos manejados, se requerirá de una validación automática, que necesariamente pasará por un modelo de Inteligencia Artificial (IA) que no entenderá el contexto, no diferenciará matices, ni podrá explicar o razonar cuál ha sido el motivo real de dar un positivo o un negativo.
Esto representa una hipocresía manifiesta, pues la misma Comisión Europea aún no ha sido capaz de acordar una normativa para el uso de la IA, que permita minimizar sus riesgos, como el gran consumo de energía y agua, o los sesgos de género, étnia y otros. Tampoco se ha dicho nada de abrir un período de apelaciones ciudadanas para desplegar una IA en una aplicación de riesgo inaceptable como esta. Por tanto, quieren tirar adelante chat control sin la necesaria supervisión ni garantías. Todo apunta a que el control será realizado de una manera que solo las grandes empresas puedan realizar, dándoles más poder sobre la población.
Como ejemplo real del mal funcionamiento de usar medios automatizados para la detección, tenemos el caso de un padre que envió fotos de los genitales de su hijo al pediatra para diagnosticarle una infección, y que Google escaneó y clasificó como material de abuso sexual infantil. Ya que la IA no sabe leer el contexto, cabe esperar más falsos positivos de material no dañino. Por ejemplo, tampoco sabrá distinguir entre contenido sexual adulto consentido y contenido infantil, así que puede meter en problemas a parejas que hagan sexting.
También supondrá, como ya pasa en otros sistemas de revisión masiva, que el número de falsos positivos suponga un número inasumible, que posiblemente se limite a base de suavizar la validación. Esto supone una falsa sensación de control.
Daños que esta propuesta puede ocasionar
Si todo el contenido sexual tiende a clasificarse como sospechoso y a ser revisado manualmente, puede afectar especialmente a colectivos vulnerables como los siguientes:
Las trabajadoras sexuales: El modelo nórdico, vigente en varios países europeos, penaliza a los clientes de prostitución, con lo que, si este contenido se ve sujeto a mayor escrutinio por ser sexual, los clientes dejarán de usar comunicaciones digitales para contratar servicios, lo cual restará negocio a quienes se ganen la vida con ellos. Además, mayor vigilancia conducirá a mayor victimización de un colectivo ya muy estigmatizado.
El colectivo LGTBIAQ+: Recordemos que la transposición de directivas depende de cada nación. Por lo tanto, si un estado como Hungría decide criminalizar el contenido divergente de la norma bajo el paraguas del abuso sexual a menores (recordemos el bulo que acusa al colectivo de pedofilia), lo hará, ya que nada en la normativa lo impide.
Pero esta propuesta tendrá consecuencias para toda la población (incluso para los políticos europeos, que han redactado la normativa con exenciones específicas para ellos), ya que hay otro punto necesario para poder tirar adelante Chat Control: romper el cifrado extremo a extremo. Para esto se requiere instalar una puerta trasera en todos y cada uno de los dispositivos y/o servicios, ya que no es posible sólo afectar los dispositivos de determinadas personas: una vez se abre una puerta trasera, la puerta está ahí seas quien seas. Esto comporta pérdida de privacidad y también un riesgo de seguridad.
La pérdida de privacidad: En el contexto actual, con la extrema derecha llegando al poder en múltiples países europeos y el incremento en represión que traen consigo, será difícil que resistan la tentación de ir contra sus adversarios políticos. La lucha feminista, sindical, ecologista, antiracista, pacifista… estará al arbitrio del que manda. Cualquier disidencia o movilización social podrá ser aplastada.
El riesgo de seguridad: Si se implementan medidas de recolección y escaneo de datos sensibles, como los que se comparten en las comunicaciones digitales privadas, hay el riesgo de que esos datos se filtren y puedan usarse ilícitamente. Por mucho que se asegure que este sistema será seguro, el único método infalible de que los datos no se filtren es que no se recojan. Un método para recoger comunicaciones personales en un dispositivo es demasiado tentador para cualquiera con malas intenciones. Hay que pensar que sólo con nombre, apellidos, dirección o documentos de identificación personal los atacantes pueden suplantar nuestra identidad y llevar a cabo todo tipo de actividades ilícitas. Por ejemplo, podrían dar de alta servicios a nuestro nombre, como alquileres, seguros o servicios como el agua o la luz, especialmente si se han filtrado números de cuenta o imágenes de nuestro DNI.
Incluso obviando esto, el control masivo realizado por una IA condicionará el futuro de las comunicaciones, el cual pasará a estar aún más centralizado y monopolizado por grandes transnacionales en las cuales habrá que confiar en que no usen todo este poder en su beneficio, si es que alguien puede creérselo.
Qué proponemos en su lugar
Creemos que la solución al problema del abuso sexual a menores debería ser social, no tecnológica. Para empezar, deberíamos escuchar a los profesionales que lidian con menores y se encuentran este problema.
Sabemos que un lugar donde se detectan abusos a menores es en las escuelas e institutos, quienes notan que las víctimas están en una posición de vulnerabilidad. Por lo tanto, se deben promover medidas que disminuyan la vulnerabilidad de los menores. Por ejemplo, se debe dotar de recursos a los centros educativos para que puedan garantizar una educación sexual actualizada, feminista y con perspectiva interseccional, además de en prevención de violencia de género y autodefensa en todos los niveles educativos. También se deben actualizar y aplicar los protocolos de prevención e intervención para actuar en estos casos.
Otro de los lugares donde se detectan abusos es en los centros de menores tutelados, donde los menores ya de por sí son más vulnerables. Analizando su realidad vemos que los menores que caen en estos abusos ya sufren, antes de ser captados. Por lo tanto, tomando medidas que aumenten el bienestar de la infancia se reducirá este problema. Podríamos empezar por conseguir que las personas que trabajan aquí no trabajen en precario, para poder atender bien todos los casos. También es urgente dejar de criminalizar a los menores extranjeros, que están en posición de especial vulnerabilidad.
Además, habría que ampliar la red de intervención en agresiones sexuales con equipos especializados en menores y en los servicios de violencia de género (recordemos que los menores afectados son principalmente niñas). También se debe actualizar la red de centros de planificación familiar. Estos no se deberían externalizar, siendo asumidos por la administración pública, ya que la problemática que abordan es de interés público.
Es necesario actuar en todas las etapas en las que se puede localizar una agresión, especialmente centros de salud y educativos y juzgados, contando con protocolos de prevención e intervención, peritaje forense especializado en agresiones sexuales a menores. También que se vele por el derecho a no testificar, testificar en otra sala con acompañante, etc., de manera análoga a las denuncias y con asesoramiento psicológico y legal especializado y gratuito.
Queda claro que este tema debe abordarse transversalmente y no con una sola medida inefectiva. Igual que nos concentramos cada vez que hay asesinatos, deberíamos hacerlo cuando se denuncie o se juzgue un delito sexual contra una persona menor en nuestros territorios. Deberíamos hacer recuentos y tener buenos datos para denunciar públicamente las cifras. En definitiva, hacer nuestras las necesidades de los menores: el acompañamiento social es clave para combatir esta lacra social.
Conclusiones
El control de internet está sobre la mesa desde hace muchos años. Tanto las empresas como los estados quieren poder filtrar qué se dice y quién lo dice, para lo que han utilizado diferentes argumentaciones. Hace años ya luchamos contra la censura de los filtros de subida, escudándose en la defensa de los derechos de autor. Recurrentemente se utiliza el odio y los ataques en redes sociales como pretexto para terminar con el anonimato en ellas. También se utilizan la lucha contra la piratería para cerrar preventivamente cientos de webs sin orden judicial. Más reciente es el control que se quiere implantar en el acceso a la pornografía de una firma digital que demuestre la mayoría de edad, lo que popularmente se ha denominado «pajaporte» (y que ya se ha implantado en el Reino Unido, con efectos de censura sobre internet).
Chat Control no es protección, es la legalización de la vigilancia masiva en contra de eliminar nuestros derechos fundamentales y de los principios democráticos más elementales, pero no hablamos de un caso aislado, puesto que esta medida que se quiere implantar va de la mano de proyectos de control social más avanzados. Lo que hoy es voluntario mañana será obligatorio, acercándonos cada vez de una forma más clara al modelo de control social chino y alejándonos de las garantías democráticas y constitucionales que imperan en estos momentos en el viejo continente, que no durarán por mucho tiempo si la sociedad civil no se levanta ante este atropello sin precedentes ante una sociedad europea de 450 millones de habitantes.
Qué podemos hacer
Organizaciones, colectivos y entidades
que respaldan ‘No Chat Control’
Federación Estatal de Trabajadores de las Administraciones Públicas de CGT (FETAP-CGT).
CGT – Confederación General del Trabajo
Coordinadora de Informática de CGT
Hacklab 0day
Colectivo ‘Libertarias’
Área de digitalización y contaminación electromagnética de Ecologistas en Acción
Referencias
Normativa Estado español
Constitución Española (1978)
Art 18.3: Secreto de las comunicaciones, solo intervenible con autorización judicial.
Art 18.4: Limitación del uso de la informática para proteger el honor, la intimidad y los derechos de los ciudadanos.
Ley Orgánica 3/2018, de Protección de Datos Personales y garantía de los derechos digitales (LOPDGDD)
Refuerza el principio de proporcionalidad y prohíbe tratamientos masivos sin base legal clara.
Normativa de la Unión Europea
Carta de Derechos Fundamentales de la UE (2000/2012)
Art. 7: Respeto de la vida privada y de las comunicaciones.
Art. 8: Protección de datos personales.
Reglamento General de Protección de Datos (RGPD, 2016/679)
Principios de licitud, finalidad, minimización y control independiente.
Directiva 2016/680 (protección de datos en el ámbito penal)
Directiva 2002/58/CE (ePrivacy)
Garantiza la confidencialidad de las comunicaciones electrónicas.
Normativa internacional
Convenio Europeo de Derechos Humanos (1950)
Art. 8: Derecho al respeto de la vida privada y de las comunicaciones.
Pacto Internacional de Derechos Civiles y Políticos (ONU, 1966)
Art. 17: Prohibición de injerencias arbitrarias en la vida privada y las comunicaciones.
Convenio 108 del Consejo de Europa (1981), actualizado por el Protocolo 163
Primer tratado internacional vinculante sobre protección de datos.
Recomendación CM/Inf(2018)15 del Consejo de Europa
Sobre roles y responsabilidades en Internet, exige excepcionalidad y garantías estrictas para cualquier control.