Ya han pasado varios días desde que una conocida marca de cerveza publicó un anuncio televisivo en el que ‘resucitaba’ a Lola Flores. El video, que mostraba a la conocida cantaora recitando un discurso inédito varias décadas después de su fallecimiento, generó un gran revuelo en las redes sociales. El debate sobre la ética de utilizar la tecnología para poner en la boca de una persona ya fallecida una serie de palabras que nunca pronunció en vida, se volvió multitudinario, acumulando opiniones de todo tipo.
Sin embargo, de esta discusión surgieron algunas preguntas y recelos en torno a la tecnología que desde Gradiant consideramos más interesantes. Muchos usuarios de las redes destacaron los peligros que el deepfake, como se conoce a esta técnica de IA que en este caso fue utilizada para tratar de ‘engañar’ a los espectadores.
De hecho, muchas personas famosas ya han sufrido en sus carnes las consecuencias de un uso malintencionado de esta tecnología. Algunas superestrellas han visto sus caras colgadas en páginas pornográficas, protagonizando vídeos que ellas nunca habían grabado. El resultado se parece tanto a la realidad que en ocasiones, como en el anuncio del que hablamos, el deepfake se vuelve muy difícil de detectar. Tan expandido está su uso en el sector de los vídeos para adultos que esta industria acapara la gran mayoría de casos de suplantación de identidad mediante IA. Sin embargo, ante la amenaza de que esta tecnología se convierta en un arma en los procesos electorales, por ejemplo, a través de la difusión de fake news o campañas de desprestigio, ya hay varios países que se han apresurado a legislar contra los deepfakes, entre ellos EE.UU. o China.
Pero este peligro no afecta solamente a los ‘superfamosos’. Cualquiera puede convertirse en una víctima de esta suplantación de identidad. Un malhechor podría utilizar las técnicas de deepfake para hacerse pasar por otro ciudadano. Con el conocimiento necesario y los recursos adecuados, sería realmente difícil distinguir a simple vista un video fraudulento de uno legal.
Esto fue lo que instauró el miedo entre muchos ciudadanos que hasta el momento solo habían visto esta tecnología en las películas de ciencia ficción. Surgieron entonces dos preguntas, la primera: ¿estamos desprotegidos ante el avance de la tecnología? Y la segunda: ¿puede la tecnología engañar a la tecnología?
Para responder a la primera cuestión es importante recordar el trabajo que centros como Gradiant desarrollan en este sentido. Tan pronto como nos enteramos de la pieza publicitaria en cuestión decidimos poner a prueba nuestra herramienta de detección de fraudes en archivos multimedia. Esta herramienta hace un análisis en tiempo real de cada frame del video y ofrece una respuesta fiable sobre su veracidad, sin necesidad de contar con el vídeo original. La tecnología de Gradiant examina cada fotograma y devuelve un valor que representa la fiabilidad del resultado. De esta forma el usuario conoce la seguridad con la que el sistema toma su decisión.
En el caso del ya famoso vídeo de Lola Flores, el resultado fue claro. Nuestra tecnología detectó el fraude y señaló la manipulación en las imágenes.
Grandes soluciones para grandes amenazas
El de esta conocida marca de cerveza es un caso anecdótico. Está claro que la compañía no buscaba engañar a nadie y mucho menos cometer un delito. Sin embargo, ¿qué pasaría si alguien utilizase las técnicas de deepfake para, por ejemplo, identificarse en una entidad bancaria, en la página web de algún servicio público o simplemente crear noticias falsas?
En este sentido, se hace cada vez más necesario que este tipo de entidades cuenten con herramientas antifraude que detecten los intentos de suplantación de identidad. En Gradiant trabajamos desde hace años en perfeccionar estos sistemas y, hasta el momento, los resultados están siendo muy positivos.
Así, toca ahora responder a la segunda pregunta que muchos plantearon en las redes: ‘¿Puede la tecnología engañar a la tecnología?’. O, dicho de otro modo, ¿puede el deepfake ser lo suficientemente creíble como para engañar a un sistema de detección del fraude?
El resultado lo hemos confirmado en Gradiant. Hemos pasado por nuestro sistema un video que fue producido durante meses por un equipo técnico y creativo de primer nivel, con unos recursos al alcance de muy pocos delincuentes y con un resultado realmente asombroso, y, sin embargo, no ha conseguido engañar a nuestro detector.
Por ahora podemos estar tranquilos. Es cierto que el deepfake cada vez es más preciso y que se puede utilizar para fines ilícitos, pero también es cierto que ya contamos con herramientas que nos permiten protegernos de estas amenazas. La solución no está en lamentar las consecuencias de un ataque de este tipo, sino en equiparse con la defensa adecuada para evitar que se produzca.