Repository logo
 
Loading...
Thumbnail Image

Multimodal Interaction System Supported by Digital Humans

Use this identifier to reference this record.

Abstract(s)

As digital services continue to grow in popularity, there is an increasing need for systems that replicate human interaction while prioritizing user satisfaction and engagement. Early implementations offered interactions that felt unnatural, mainly due to the lack of realistic facial expressions and movement in character animations. Over time, however, significant advancements—particularly from the video game industry—have driven major improvements in this field. Titles such as Senua’s Saga: Hellblade II and Black Myth: Wukong illustrate how these developments have enabled the creation of immersive characters with highly realistic facial animation. The Metaverse has emerged as a key area of interest, offering immersive virtual environments where users interact within a shared digital space. This evolution has increased the demand for personalized Digital Humans—high-fidelity, computer-generated avatars capable of expressing empathy in real time. This study examines how Digital Humans can enhance human–computer interaction by reducing the emotional disconnect commonly associated with automated systems. Such avatars show potential across remote meetings, customer service, online education, and Metaverse platforms, fostering more natural and engaging interactions. Emotionally expressive Digital Humans were created using the MetaHuman framework and Unreal Engine, incorporating multimodal MoCap based on computer vision and RGB camera input. Two user tests were conducted: one focused on facial expressions and another combining facial expressions with full-body movement, involving a total of 40 participants. Empathy levels were assessed using the Toronto Empathy Questionnaire (TEQ), administered before and after interaction. One-Way ANOVA analyses showed no statistically significant differences in elicited empathy between default and custom animations. In the facial-animation test, participants’ average TEQ scores were 47.4 for default animations and 45.0 for custom ones, both within or above the general population average (40–45). In the combined full-body test, mean scores were 47.6 for human body movement and 45.5 for MetaHuman body motion. Although personalization did not significantly outperform default animations, the results highlight the essential role of realistic body movement in shaping emotional perception and interaction quality. The findings confirm that emotionally expressive Digital Humans can be effectively integrated into digital platforms, while showing that facial personalization alone must be complemented by contextual and narrative elements to maximize empathetic impact. This work provides a solid foundation for future research on deploying Digital Humans in real-world interactive systems.
À medida que os serviços digitais continuam a crescer em popularidade, torna-se cada vez mais necessário desenvolver sistemas capazes de replicar interações humanas, dando prioridade à satisfação e ao envolvimento dos utilizadores. Inicialmente, estas interações eram pouco naturais, devido à falta de realismo nas expressões faciais e nos movimentos das animações. No entanto, avanços significativos — sobretudo na indústria dos videojogos — têm impulsionado melhorias notáveis nesta área. Jogos como Senua's Saga: Hellblade II e Black Myth: Wukong demonstram como estas evoluções permitiram criar personagens imersivas com expressões faciais altamente realistas. O Metaverso surge como uma área de interesse central, ao proporcionar ambientes virtuais imersivos onde os utilizadores interagem num mundo digital partilhado. Este crescimento aumentou a procura por Humanos Digitais personalizados — avatares gerados por computador e de elevada fidelidade — capazes de expressar empatia em tempo real. Este estudo investiga de que forma os Humanos Digitais podem melhorar a interação humano-computador, reduzindo a distância emocional frequentemente associada a sistemas automatizados. Estes avatares têm potencial em reuniões remotas, serviços de atendimento ao cliente, educação/formação online e plataformas de Metaverso, promovendo interações mais naturais e envolventes. Foram desenvolvidos Humanos Digitais emocionalmente expressivos utilizando a framework MetaHuman e o Unreal Engine, com captura de movimento multimodal através de visão computacional e uma câmara RGB para criar animações personalizadas. Realizaram-se dois testes com utilizadores: um focado nas expressões faciais e outro que combinou expressões faciais com movimento corporal, envolvendo um total de 40 participantes. Os níveis de empatia foram avaliados com o TEQ, aplicado antes e depois da interação. As análises ANOVA de um fator (One-Way ANOVA) não revelaram diferenças estatisticamente significativas na empatia evocada entre animações padrão e personalizadas. No primeiro teste, centrado na animação facial, os resultados médios do TEQ foram de 47,4 para as animações padrão e 45,0 para as personalizadas, ambos dentro ou acima da média populacional (40–45). No segundo teste, que integrou movimento corporal, os valores médios foram 47,6 para o movimento corporal humano e 45,5 para o movimento corporal digital. Apesar da ausência de diferenças significativas, os resultados confirmam que movimento corporal realista desempenha um papel essencial na perceção emocional e na qualidade da interação. Este trabalho demonstra que Humanos Digitais emocionalmente expressivos podem ser integrados com sucesso em plataformas digitais, destacando que a personalização facial, por si só, deve ser complementada por fatores contextuais e narrativos para maximizar o impacto empático. Estes resultados constituem uma base sólida para investigações futuras sobre a integração de Humanos Digitais em sistemas interativos reais.

Description

Keywords

Digital environment Digital human Emotion Empathy Human-computer interaction MetaHuman

Pedagogical Context

Citation

Research Projects

Organizational Units

Journal Issue