Así es la ley de IA de la Unión Europea
Se acaba de aprobar la primera ley de IA de la Unión Europea y del mundo y es que está tomando un peso importante en las vidas de la ciudadanía. Hoy en día escuchamos hablar de la inteligencia artificial por todos lados. Sea en la mesa por navidad, en redes sociales o incluso interactuando con ella sin darnos cuenta cuando desbloqueamos nuestro móvil con la cara. La IA ha llegado para quedarse, y, aunque el concepto está de moda desde hace unos años, lo que muchos desconocen es su origen con los inicios conceptuales en la década de 1950. Desde entonces, ha ido evolucionando hasta que en los 2000 se produjeron grandes avances en el aprendizaje y el aumento en la capacidad de procesamiento de datos que ha hecho posible su gran desarrollo.
¿Qué es “eso” de la inteligencia artificial?
La IA son sistemas informáticos creados para realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje o el razonamiento. A través del entorno, la IA puede razonar y procesar información para tomar decisiones para lograr un objetivo.
Ante el avance de esta tecnología, son cada vez más las aplicaciones y ámbitos en los que está presente, hasta el punto de necesitar una regulación. Podemos encontrar IA en ámbitos tan diversos imposibles de imaginar hace una década: generar contenido escrito de forma autónoma, código en los lenguajes más comunes de programación, creación de guiones y contenido creativo, tutoriales en tiempo real o incluso la generación de composiciones musicales y artísticas, entre otras muchas actividades. La generalización del uso de la IA en todos los ámbitos ha supuesto la necesidad de obligar a estos modelos inteligentes a cumplir medidas que aseguren:
- la transparencia, para corregir prácticas inapropiadas;
- trazabilidad, para rastrear la evolución de los sistemas;
- no discriminación, para evitar perjuicios injustos; y
- la medición del impacto ambiental, para asegurar la sostenibilidad ambiental
Normativa diferente según el nivel de riesgo
Europa presentó en mayo de 2023 la primera propuesta de ley para poder regular los usos y alcance de la IA y que ha terminado en la aprobación de la primera ley de IA del mundo. Este paso fundamental se llevaba debatiendo desde abril de 2021, cuando Bruselas presentó la propuesta original en un momento que la tecnología no había llegado a la necesidad de marcar unos límites. Estará supervisado por varias personas y definido dentro de un marco legal sólido que establece una definición uniforme y neutra que pueda aplicarse a futuros avances de la IA.
El incumplimiento de estas medidas suponen multas para las empresas que eludan sus obligaciones, que pueden alcanzar los 35 millones de euros o el 7% de la facturación anual por cada infracción según el nivel de riesgo.
Con todo, se han establecido los siguientes niveles de riesgo de más bajo a más alto:
Restricciones en la Ley de IA para inteligencia artificial generativa
Existe un apartado, independientemente del nivel de riesgo que supone, relacionado con la IA generativa. Esta tendría que cumplir estos requisitos de transparencia y que podría dar lugar a alguna modificación en el sistema cuando entre en vigor la ley.
Unos de los ejemplos más conocidos de IA generativa, y que ha despuntado este último año es ChatGPT de la empresa OpenAI, que también se vería afectada. Esta novedad obligaría a la compañía a revelar que el contenido ha sido generado por IA, diseñar el modelo para evitar que genere contenidos ilegales o publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.
Otro sistema que puede verse afectado es el nuevo asistente Copilot de Microsoft basado en IA, que ya está desplegado en Windows 11. Sin embargo, la Ley de Mercados Digitales lanzada a finales de 2022 ha frenado su expansión en varios países europeos, previendo que ocurra lo mismo con esta nueva regulación sobre IA.
Sistemas para la detección de deepfakes y amenazas
Aunque esta necesidad de regular e informar sobre la IA sea necesaria, la combinación con aplicaciones que eviten usos fraudulentos puede ser la clave. En Gradiant, junto a Councilbox, trabajamos en la Unidad Mixta de Investigación GICTEL desde hace años en perfeccionar los sistemas antifraude que detectan los intentos de suplantación de identidad. Hasta el momento, los resultados están siendo muy positivos. Es cierto que el deepfake cada vez es más preciso y que se puede utilizar para fines ilícitos, pero también es cierto que ya contamos con herramientas que nos permiten protegernos de estas amenazas. La solución no está en lamentar las consecuencias de un ataque de este tipo, sino en equiparse con la defensa adecuada para evitar que se produzca.
En DAGIA se lleva a cabo la detección de amenazas e incidentes en infraestructuras TIC, adaptando las tecnologías de un SOC para dotar a los usuarios de una gestión simple y automática de la ciberseguridad. Para ello, desde Gradiant aplicamos modelos de IA y Process Mining que permiten analizar los datos y obtener patrones de comportamiento tanto en presencia como en ausencia de anomalías, proporcionando métricas y alertas al usuario que realizará su posterior análisis y respuesta.
Operación co-financiada por la Unión Europea programa operativo Feder Galicia 2021-2027. Unidad Mixta de Investigación para el desarrollo de diversas tecnologías altamente innovadoras en el ámbito de la gestión de identidad y ciberseguridad. FEDER, una manera de hacer Europa.