2012
DOI: 10.1007/978-3-642-33197-8_36
|View full text |Cite
|
Sign up to set email alerts
|

Expressive Body Animation Pipeline for Virtual Agent

Abstract: Abstract. In this paper, we present our expressive body-gestures animation synthesis model for our Embodied Conversational Agent(ECA) technology. Our implementation builds upon a full body reach model using a hybrid kinematics solution. We describe the full pipeline of our model that starts from a symbolic description of behaviors, to the construction of a set of keyframes till the generation of the whole animation enhanced with expressive qualities. Our approach offers convincing visual quality results obtain… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
1
1
1

Citation Types

0
5
0
2

Year Published

2012
2012
2021
2021

Publication Types

Select...
5
3
2

Relationship

3
7

Authors

Journals

citations
Cited by 15 publications
(7 citation statements)
references
References 18 publications
0
5
0
2
Order By: Relevance
“…Each behavior corresponds to a particular combination of AUs and BAPs. To avoid uncanny animations (e.g., when the agent’s expression freezes) and to obtain smooth transitions between two behaviors, we designed an interpolation function (based on Huang and Pelachaud, 2012 ) so that the previous behavior fades away while the new one slowly appears, resulting in a blended behavior.…”
Section: Virtual Agentmentioning
confidence: 99%
“…Each behavior corresponds to a particular combination of AUs and BAPs. To avoid uncanny animations (e.g., when the agent’s expression freezes) and to obtain smooth transitions between two behaviors, we designed an interpolation function (based on Huang and Pelachaud, 2012 ) so that the previous behavior fades away while the new one slowly appears, resulting in a blended behavior.…”
Section: Virtual Agentmentioning
confidence: 99%
“…la manière avec laquelle le mouvement a été effectué Dans les travaux existants, les paramètres qui contrôlent l'expressivité du mouvement se limitent généralement à un ensemble de paramètres d'expressivité calculés à partir de données de capture de mouvement pour un type de geste particulier [Roether et al, 2009]. Cependant, ces paramètres sont souvent associés à un nombre limité de types de geste et ne peuvent pas être étendus à l'ensemble des gestes possibles d'un ACA D'autres travaux proposent de contrôler l'expressivité des mouvements de l'ACA (par exemple leur amplitude) à travers des fonctions mathématiques reposant sur quelques lois invariantes du mouvement humain [Huang and Pelachaud 2012] Nous proposons un modèle de comportement émotionnel reposant sur l'analyse d'un corpus de capture de mouvements. Inspiré du système de codage défini dans [Dael et al, 2012], la définition des paramètres que nous avons adoptée pour contrôler le comportement émotionnel corporel d'un ACA repose sur plusieurs niveaux de description, à la fois pour décrire un mouvement corporel et pour décrire les caractéristiques de ce mouvement.…”
Section: Expressions Corporelles Affectivesunclassified
“…In addition, usage of ECAs has been demonstrated to be potential in many fields besides the original interface agents in human computer interaction such as Rea (Cassell et al, 1999), Greta (Niewiadomski et al, 2009;Huang and Pelachaud, 2012), and RealActor (Čerekovič and Pandžič, 2011). For instance, a virtual human presenter is designed for weather forecasting, and slide presentation in the work of (Noma et al, 2000).…”
Section: Related Workmentioning
confidence: 99%