La finalidad del proyecto es la investigación y desarrollo de nuevas herramientas de interacción hombre-máquina basadas en el análisis de información multimodal (e.g. reconocimiento facial y gestual) para su uso en dispositivos móviles y electrónica de consumo. Se busca la interacción del usuario con los dispositivos de forma sencilla, intuitiva y personalizada según la plataforma: dispositivos móviles, STB, TV, etc.
Los desarrollos se orientan a las plataformas móviles emergentes como Android e iOS. Además, el uso de estas herramientas en entornos no controlados (e.g. uso del smartphone en exteriores, interacción con la televisión en el salón) presentan un gran reto para los algoritmos basados en visión artificial utilizados. Este tipo de métodos tienen que ser tanto robustos para el funcionamiento en diferentes condiciones, como estar optimizados para su funcionamiento en tiempo real. Estos requisitos guían tanto las características de los datos de entrenamiento cómo las tecnologías utilizadas, de cara a la optimización y rendimiento de estos en entornos reales.