Espacios de datos soberanos (I): privacidad, riesgos y soluciones para una Europa más segura

Los espacios de datos son ecosistemas técnicos y de gobernanza donde múltiples actores, desde instituciones públicas hasta empresas y startups, comparten y utilizan datos bajo reglas comunes. Su estructura se apoya en tres pilares esenciales: interoperabilidad, control de acceso y trazabilidad. Así, garantizan un uso transparente y seguro de la información.
Su valor principal radica en que permiten romper los silos de información, fomentar la colaboración entre entidades y ampliar el valor económico de los datos sin incumplir normativas como el GDPR o el Reglamento eIDAS2.
De hecho, los espacios de datos se están convirtiendo en la piedra angular de la estrategia europea de soberanía digital, ya que permiten a los participantes mantener el control sobre su información, decidir cómo se comparte y bajo qué condiciones.
El enfoque europeo busca pasar de un modelo de simple intercambio a otro de gobernanza responsable del dato. Esto significa establecer reglas claras sobre el acceso, uso y reutilización de la información; fomenta la interoperabilidad y elimina barreras técnicas y legales.
De esta forma, Europa avanza hacia una economía del dato colaborativa y soberana, donde la innovación se apoya en la confianza, la transparencia y el respeto por los derechos digitales de los ciudadanos.
Riesgos del uso y tratamiento de datos personales
El aprovechamiento de los datos, especialmente los personales o sensibles, conlleva riesgos técnicos y éticos relevantes, tanto en los procesos de autenticación y control de acceso, como en el entrenamiento de modelos de inteligencia artificial.
Riesgos en el control de acceso
En sectores como la salud, las finanzas o la administración pública, los sistemas de autenticación deben garantizar dos aspectos esenciales:
- Minimización de datos: el intercambio debe limitarse estrictamente a la información necesaria para identificar al usuario. Además, el usuario debe poder comprobar que no se le solicita más información de la necesaria.
- Evitar la correlación y el rastreo: dos servicios diferentes (por ejemplo, una administración pública y un banco) no deberían poder identificar que se trata del mismo usuario al solicitar una verificación similar, como la mayoría de edad.
Riesgos en el entrenamiento de modelos de IA
El entrenamiento de modelos sobre datos personales presenta riesgos adicionales:
- Reidentificación de miembros: posibilidad de averiguar si un dato concreto formó parte del conjunto de entrenamiento. Por ejemplo, deducir si una persona ha sido paciente de un hospital o cliente de un banco.
- Inversión del modelo: ciertos modelos pueden “recordar” representaciones de los datos de entrenamiento, lo que permitiría reconstruir información personal a partir del propio modelo.
- Envenenamiento de datos: pequeñas alteraciones maliciosas en los datos pueden hacer que un modelo aprenda patrones erróneos, con consecuencias graves en aplicaciones críticas como el diagnóstico médico o la seguridad pública.
PETs: tecnologías para compartir sin exponer
Para afrontar estos riesgos surgen las Privacy-Enhancing Technologies (PETs), un conjunto de tecnologías diseñadas para preservar la privacidad durante el uso, el intercambio o el análisis de datos.
Su objetivo principal es permitir operar sobre la información sin revelarla en crudo, o revelando únicamente lo imprescindible, reduciendo así el riesgo de fuga o uso indebido.
En términos generales, las PETs abordan cuatro tipos de privacidad fundamentales:
- Privacidad de entrada: añade una capa de confidencialidad a los datos antes de su procesamiento.
- Privacidad de salida: protege los datos tras el procesamiento, asegurando que los resultados no revelan información sensible.
- Verificación de entrada: garantiza la autenticidad de los datos utilizados, asegurando que no han sido manipulados.
- Verificación de salida: asegura la verificabilidad de las operaciones realizadas sobre los datos, permitiendo demostrar que los cálculos o inferencias son correctos.
Las PETs pueden basarse en mecanismos criptográficos (como el cifrado homomórfico, las Zero-Knowledge Proofs) o en métodos estadísticos (como la privacidad diferencial). Cada tecnología implica un equilibrio distinto entre privacidad, precisión y rendimiento: algunas reducen ligeramente la calidad del análisis a cambio de mayor protección; otras aumentan los tiempos de procesamiento.
Retos técnicos y regulatorios
El principal reto técnico consiste en evolucionar las PETs actuales para equilibrar la privacidad con la usabilidad. Es improbable que una única tecnología cubra todos los casos de uso, pero la combinación de varias técnicas puede ofrecer una protección sólida y adaptable.
Desde el punto de vista legal, el desafío pasa por traducir los requisitos normativos en garantías técnicas verificables: que las protecciones que ofrece una PET respondan directamente a las obligaciones del marco jurídico europeo. Solo así será posible lograr su adopción masiva y un verdadero cumplimiento entre innovación y regulación.
TRUSTED: haciendo real la soberanía del dato en Europa
En este contexto, TRUSTED, iniciativa liderada por Gradiant, busca materializar la soberanía del dato combinando espacios de datos, tecnologías de identidad digital y PETs en una arquitectura coherente y segura.
La alianza integra tres bloques tecnológicos interconectados:
- Espacios de datos, que proporcionan la infraestructura para descubrir entidades, compartir información y establecer canales de intercambio seguros.
- La Cartera Digital Europea (EUDI Wallet), que ofrece un marco de confianza para la identificación verificable de entidades y usuarios, con control sobre la información compartida.
- Aprendizaje federado + PETs, que permite a diferentes organizaciones entrenar modelos colaborativos sin intercambiar datos originales, reduciendo riesgos de exposición y reidentificación.
Con esta combinación, TRUSTED facilita que ciudadanos y organizaciones mantengan el control sobre sus propios datos, garantiza la privacidad y seguridad en los intercambios y refuerza la confianza en los servicios digitales europeos.
Por qué TRUSTED
TRUSTED no solo acelera la innovación segura en sectores como la salud, las finanzas o la administración pública, sino que también reduce la fricción regulatoria, al ofrecer soluciones alineadas con las políticas europeas de privacidad y soberanía digital.
Además, al proporcionar garantías de privacidad verificables, aumenta la participación de organizaciones en los espacios de datos, lo que amplía la cantidad de información disponible para entrenar modelos de IA más precisos.
TRUSTED fortalece la autonomía tecnológica de Europa y demuestra que la privacidad y la innovación no son fuerzas opuestas, sino los pilares sobre los que construir una economía del dato más segura, ética y competitiva.

This project has received funding from the European Union’s Horizon Europe research and innovation programme under grant agreement No. 101168467