Escoltar

Un grup d'investigadors de la UIB desenvolupen un model computacional per generar expressions facials que integra personalitat, emocions i estat d'ànim

Els investigadors de la Unitat de Gràfics i Visió per Ordinador i Intel·ligència Artificial de la UIB han desenvolupat un model computacional per a la generació d'expressions facials de manera que un mateix espai tridimensional pot integrar els trets de personalitat, les emocions i els estats d'ànim, que eren tractats separadament als models existents.

Els resultats de la recerca han estat publicats a la revista Computer Animation and Virtual Worlds. El model desenvolupat empra l'estàndard de codificació de vídeo MPEG-4 per tal de generar les imatges. Per al seu desenvolupament els investigadors s'han basat en les propostes del psicòleg nord-americà Albert Mehrabian, que estableix cinc trets de personalitat: extroversió, neurosi, obertura, diligència i simpatia.

L'efectivitat del model ha estat contrastada mitjançant dos experiments. Les cares generades mitjançant el model varen ser avaluades per un reconeixedor automàtic que n'identificà correctament el 82 per cent. D'altra banda, un grup de setanta-cinc alumnes universitaris reconegueren amb èxit el 86 per cent de les emocions i el 73 per cent dels estats emocionals representats virtualment.

El investigadors consideren que el model podria ser aplicat en entorns educatius, a més de videojocs o a qualsevol tipus de programa interactiu que tingui un vessant emocional important. Actualment el grup treballa en la implementació del model en un entorn interactiu on un personatge virtual pugui mostrar, a través de les expressions facials, la seva personalitat, les seves emocions i el seu estat emocional. En el futur els investigadors preveuen abandonar l'estàndard MPEG-4 i concentrar-se en una xarxa genèrica d'alta qualitat que pugui permetre moviments més complexos en ulls, parpelles i cap, com també sintetitzar la veu.

Referència del treball

Diana Arellano, Javier Varona i Francisco J. Perales. Generation and visualization of emotional states in virtual characters. Comp. Anim. Virtual Worlds 2008; 19: 259–270.

Documents relacionats

Data de publicació: 28/11/2008