Investigadores de UAEM lograron simular emociones en personajes virtuales

Investigadores de UAEM lograron simular emociones en personajes virtuales

Investigadores de la Universidad Autónoma del Estado de México (UAEM) lograron simular expresiones faciales humanas en personajes virtuales y utilizarlos con el propósito de crear mejores ambientes dentro de una comunicación virtual.

Investigadores de UAEM lograron simular emociones en personajes virtuales - emociones-en-personajes-virtuales

Hasta el momento, los también llamados agentes virtuales simulan el comportamiento humano a través de scripts o comandos programados, pero esto deriva en una reacción muy “robotizada”, por lo que no es interesante la interacción con el usuario, comentó el ingeniero del Departamento de Ciencia Computacional de la UAEM, Marco Antonio Ramos Corchado.

El objetivo principal de la investigación es generar expresiones y emociones basadas en personas reales y tomar como punto de referencia los 43 músculos que intervienen en la conducta facial dependiendo el ambiente psicológico.

Para lograr esto en los modelos humanos se colocaron unos sensores táctiles que liberan pequeños pulsos eléctricos con el propósito de provocar diferentes gesticulaciones para que una cámara 3D capture los rasgos de personalidad. Después de ello se le brinda cierta cantidad de conocimiento con la finalidad de que actúe de acuerdo a la experiencia adquirida.

Investigadores de UAEM lograron simular emociones en personajes virtuales - expresiones-en.personajes-virtuales

Con los datos recopilados se generaron varios personajes virtuales a los que se incluyeron en un proyecto virtual llamado “juego serio”, que a diferencia de los videojuegos de consolas o computadoras no buscan entretener, sino ejecutar distintas estrategias educativas, científicas o civiles, detalló el ingeniero de la UAEM.

El comportamiento humano está fuertemente influenciado por las emociones, intenciones, actitudes y estados de ánimo que varían dependiendo el contexto social. Una vez que estos factores son captados por la cámara 3D se traducen a datos numéricos y se ingresan al modelo kinésico diseñado por la UAEM, para ordenar y generar la animación de las expresiones y gesticulaciones de los personajes virtuales ante situaciones de felicidad, tristeza, sorpresa, miedo, ira y disgusto.

Con la finalidad de alcanzar mejores resultados, la UAEM trabajó en equipo con el CINVESTAV GDL y la Universidad de Guadalajara (UdeG) donde los estudiantes sirvieron de modelos para obtener las características físicas, psicológicas, el cual requiere de la aplicación de un perfil psicológico y de temperamento. A partir de la medición numérica de las emociones y sensaciones son generadas las diferentes expresiones faciales.

Además, su objetivo es favorecer las actitudes de superación personal, aprovechar la dinámica del contexto para intensificar los procesos de aprendizaje, fomentar los entornos colaborativos y la comunicación para solucionar los problemas y acertijos planteados.

En este caso el “juego serio”, creado por la UAEM, Cinvestav Unidad Guadalajara y la UdeG, tiene la finalidad de predecir el comportamiento de las personas ante diversas situaciones de riesgo como desastres naturales, para este proyecto se simulará un terremoto en la ciudad de Guadalajara, explicó el ingeniero mexiquense.

Agencia ID