Última modificación: 2018-08-06
Resumen
Las emociones se pueden entender, de manera muy simple, como la forma en que las personas responden a estímulos externos o internos. Este tipo de respuestas pueden ser psicológicas y fisiológicas, y representan un mecanismo evolutivo de protección y comunicación. Para la mayoría de personas, la identificación de las emociones a partir del gesto facial, se realiza de manera casi inconsciente: la interacción se modula dependiendo del estado emocional percibido. Es diferente la interacción con una persona percibida como enfadada, que con una persona percibida como feliz.
El desarrollo de este proyecto se enfoca en la identificación automática de estados emocionales, en tiempo real, a partir de imágenes de rostros. Particularmente, se analizó una de las tres dimensiones en que se puede entender una emoción, llamada valencia. Se utilizaron herramientas de mejoramiento y análisis de imágenes en conjunto con técnicas de aprendizaje automático para obtener, a partir de una base de datos, un modelo de identificación de valencia emocional. Luego, se utilizó el modelo creado para realizar pruebas en tiempo real.
Los resultados son prometedores en cuanto que el esquema de procesamiento y generación del modelo indican la factibilidad de identificar emociones, a partir de gestos faciales en tiempo real. Este proyecto tiene una segunda etapa que está en desarrollo, la cual utiliza esta herramienta para la estimulación cognitiva en participantes con espectro autista, de la Clínica Howard Gardner, en Bogotá.