Retos y soluciones de la IA convencional en el sector salud
La inteligencia artificial aplicada al sector sanitario fortalecerá los procesos de diagnóstico y mejorará la calidad de la atención médica, con una estimación de mejora de resultados del 30% al 40%. Estos son los resultados del informe de Frost & Sullivan, que además calcula que se reducirán los costes económicos del tratamiento a la mitad. Las aplicaciones de la IA en salud son diversas, desde el diagnóstico temprano de enfermedades hasta la gestión de grandes volúmenes de datos de pacientes para personalizar tratamientos, siempre garantizando la privacidad y protección de estos datos sensibles. Los algoritmos más avanzados, como los utilizados en el análisis de imagen médica (como TACs y resonancias), han demostrado ser tan precisos como los expertos humanos, y aceleran los diagnósticos y reducen los errores.
Sin embargo, a pesar de estos beneficios, los modelos de IA en diagnóstico médico enfrentan desafíos significativos. Entre ellos, los posibles sesgos en los datos y su gran sensibilidad, que hace altamente necesarios mecanismos para su protección. Los sesgos pueden surgir si los datos utilizados para entrenar los algoritmos no representan adecuadamente a todos los grupos demográficos. Esto puede llevar a diagnósticos erróneos. Mientras, el manejo de la información sensible de los pacientes plantea serias preocupaciones sobre su seguridad y cumplimiento de normativas de privacidad.
El reflejo de los sesgos de la sociedad en la IA
Los sistemas de aprendizaje automático se entrenan con grandes volúmenes de datos. Estos datos suelen reflejar patrones y desigualdades existentes en la sociedad. El resultado es que la IA puede replicar estos sesgos y en algunos casos, amplificar estas desigualdades en sus resultados. Al entrenarse en datos sesgados, puede realizar diagnósticos más precisos en grupos más representados en los datos y diagnósticos erróneos o decisiones de tratamiento menos adecuadas para otros grupos. Un claro ejemplo es que hasta la mitad de las mujeres que acuden al médico con síntomas tras un ataque cardiaco pueden recibir un diagnóstico incorrecto, como demostró el estudio de la Universidad de Leeds. El motivo es que los protocolos comunes están más ajustados a síntomas típicos en hombres. Si una IA sugiere tratamientos basándose en patrones de datos sesgados, existe el riesgo de que se tomen decisiones que perpetúen desigualdades en la atención. Cuando los pacientes perciben que los sistemas de IA pueden no ser justos o precisos para todas las personas, especialmente aquellos que pertenecen a minorías o grupos vulnerables, la confianza en la tecnología y en la institución sanitaria puede verse seriamente afectada.
Protección de la privacidad
Dado que los datos médicos son altamente sensibles, están protegidos por regulaciones estrictas para garantizar su privacidad y seguridad, como el RGPD en Europa y la HIPAA en EE. UU. Estas normativas requieren que cualquier recolección, almacenamiento o procesamiento de datos de salud cumpla con estándares rigurosos para evitar filtraciones y accesos no autorizados. La transferencia de estos datos fuera del entorno hospitalario plantea riesgos adicionales. Por eso, las instituciones deben asegurarse de que los proveedores externos mantengan un nivel de protección equivalente al exigido dentro del propio hospital. Aunque no se produzca un acceso directo a la información, el simple hecho de que terceros maliciosos puedan potencialmente acceder a esta información representa un riesgo para la privacidad de los pacientes. Esto hace que la gestión de datos externos en IA sea particularmente compleja, y deba ser abordada con medidas avanzadas de seguridad y cumplimiento.
Aprendizaje Federado: ventajas y limitaciones
El aprendizaje federado (Federated Learning, FL) ofrece una solución para abordar estos problemas mediante un enfoque descentralizado. En lugar de transferir los datos a un servidor central, el federated learning permite que el modelo se entrene localmente en cada institución o dispositivo sin necesidad de extraer los datos de su origen. Este enfoque protege la privacidad de los pacientes, ya que la información sensible nunca sale de las instalaciones de origen. Además, el aprendizaje federado facilita la colaboración entre diferentes hospitales e instituciones de salud. Esto permite la agregación de los resultados de entrenamiento de cada entidad sin comprometer la privacidad. Esta colaboración aumenta la representatividad y precisión de los modelos al integrar información proveniente de diversas poblaciones y contextos clínicos. Así, se reducen los sesgos que podrían derivarse de bases de datos limitadas o de una única fuente. Gracias a esto, el aprendizaje federado permite construir modelos más robustos, inclusivos y aplicables a una mayor diversidad de pacientes.
La respuesta está en los Entornos de Ejecución Confiables (TEEs)
Aunque el federated learning reduce el riesgo de privacidad de los datos, aún enfrenta desafíos en torno a la confidencialidad y la integridad de los cálculos. Estos aspectos dependen en gran medida de la confianza entre las partes involucradas. En este contexto, los Entornos de Ejecución Confiables (TEEs) ofrecen ventajas clave en Federated Learning: proporcionan un entorno seguro para procesar el código y los datos sensibles sin riesgo de exposición y aseguran la privacidad y la integridad de los cálculos. Los TEEs crean zonas protegidas en los dispositivos donde se realiza el aprendizaje. Esto permite a múltiples organizaciones colaborar sin que se filtren datos privados o se comprometa el modelo compartido. Además, pueden emitir un certificado criptográfico que demuestre la integridad y autenticidad de este tipo de datos de índole privada. Gracias a estas protecciones, los TEEs facilitan la adopción de Federated Learning en entornos altamente regulados, al garantizar un manejo seguro y confiable de los datos durante el entrenamiento distribuido.
Una alianza europea para una sanidad eficiente y personalizada
El proyecto FLUTE, financiado por la Comisión Europea, tiene como objetivo desarrollar un algoritmo de Inteligencia Artificial para el diagnóstico de cáncer de próstata clínicamente significativo (csPCa). Esto se hará a través de una plataforma federada y segura que involucra a hospitales de tres países diferentes (España, Bélgica e Italia). Estas instituciones formarán parte de una prueba piloto durante 2025 que permitirá analizar la efectividad de la solución en un entorno multinacional real. El algoritmo busca mejorar la precisión en la detección del cáncer de próstata al identificar su nivel de agresividad y evitar biopsias innecesarias. Este enfoque está orientado a mejorar el bienestar de los pacientes y a reducir significativamente los costes asociados. Desde Gradiant, más de 10 expertos trabajamos en el desarrollo de un modelo de Inteligencia Artificial fusionado. Este sistema integra variables clínicas, imágenes de resonancia magnética (MRI por sus siglas en inglés) y biomarcadores para el diagnóstico, además de gestionar la federación de los modelos. Asimismo, nos ocupamos del desarrollo e integración de los TEEs, que aseguran el hardware de los servidores en los hospitales donde se implantarán los modelos.