WO2006061308A1 - Procédé d'animation temporelle d'un avatar à partir d'un signal source comprenant des informations d'aiguillage, dispositif, programme d'ordinateur, moyen de stockage et signal source correspondants. - Google Patents

Procédé d'animation temporelle d'un avatar à partir d'un signal source comprenant des informations d'aiguillage, dispositif, programme d'ordinateur, moyen de stockage et signal source correspondants. Download PDF

Info

Publication number
WO2006061308A1
WO2006061308A1 PCT/EP2005/055962 EP2005055962W WO2006061308A1 WO 2006061308 A1 WO2006061308 A1 WO 2006061308A1 EP 2005055962 W EP2005055962 W EP 2005055962W WO 2006061308 A1 WO2006061308 A1 WO 2006061308A1
Authority
WO
WIPO (PCT)
Prior art keywords
animation
avatar
source signal
markers
language
Prior art date
Application number
PCT/EP2005/055962
Other languages
English (en)
Inventor
David Cailliere
Gaspard Breton
Danielle Pele
Original Assignee
France Telecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom filed Critical France Telecom
Publication of WO2006061308A1 publication Critical patent/WO2006061308A1/fr

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Definitions

  • a method of temporally animating an avatar from a source signal comprising routing information, device, computer program, storage means and corresponding source signal.
  • the field of the invention is that of virtual reality, and in particular the animation of avatars in a virtual environment.
  • metalanguage also called later animation language
  • animate an avatar for example of the humanoid type, from a starting posture to an arrival posture, a humanoid corresponding to a three-dimensional representation (2D) or three-dimensional (3D) of a human being in a virtual environment.
  • metalanguage we mean, according to a commonly accepted definition, any type of programming languages for structuring other languages.
  • the invention relates more precisely to a temporal animation technique of avatars, implementing a set of different metalanguages intended to animate an avatar, for example of the humanoid type or virtual character (2D or 3D), regardless of the time base used. .
  • the invention applies particularly, but not exclusively, in virtual reality systems in the context of services, games, discussion forums, or for people using sign language to communicate.
  • the behaviors and movements of an avatar are driven by stimuli such as language (voice) or the sound environment.
  • the conventional functional animation chain of an avatar 10 comprises a source signal 11 representing the stimulus or stimuli.
  • These stimuli are for example sentences, in the form of text or sound, intended to be pronounced by the avatar.
  • AML type animation language Avatar Markup Language
  • the stimulus is an AML script comprising text and / or sound and data of the type FAPs (Facial Animation Parameters) and BAPs (Body Animation Parameters).
  • a processing module 12 receives as input the source signal 11 and outputs a data stream 120 comprising: low level data 121 (generally it is information of the type phonemes and durations) intended for the labial animation ( in the particular case of the AML language, the low-level data are the basic data FAPs and BAPs); and high-level data 122 (also called behavior markers later) stamped temporally, and intended for the animation of other parts of the avatar (eyes, arms, legs ). It is recalled that knowledge of the context in the broad sense is necessary to produce nonverbal behaviors. It is therefore conventional for these nonverbal behaviors to be localized temporally upstream of speech processing and then to be present in the form of markers in the data stream 120 obtained at the output of the processing module 12.
  • marker in English
  • tag in the XML sense (defining in particular a start time, a name of a high behavior predefined level).
  • the processing module 12 is specific to a given language. More particularly, the processing module 12 uses a language adapted to process the low level data included in the source stimulus 11.
  • the processing module 12 comprises an AML processor, a synthesis engine and a generator. FAPs and BAPs to MPEG-4 standards.
  • the low level data 121 and the high level data 122 are then transmitted to an animation module 13 capable of interpreting both the information for lip animation and nonverbal behavior markers.
  • the animation module 13 is an animation module of the MPEG-4 type that can interpret the FAPs in the MPEG-4 format. It is well known from the prior art that a user has the possibility of using high level data to send a meta-data, for example, in order to trigger a sound (for example in the particular case of the SSML language ).
  • the animation module 13 cooperates with a rendering module 14 (2D or 3D) allowing the visualization of the behaviors and movements of the avatar, for example on a screen (not shown).
  • a rendering module 14 (2D or 3D) allowing the visualization of the behaviors and movements of the avatar, for example on a screen (not shown).
  • the non-verbal behavior markers are written in a format specific to the animation language used by the animation module 13.
  • the animation languages make it possible to control the face (smile, shake of head %), the body (hand sign, bending of the legs %) and the voice of the avatar, among these languages, one finds for example, the Avatar Markup Language (AML), the Multimodal Representation Utterance Markup Language (MRUML), or the Emotion Markup Language (EML), which combines the Facial Animation Markup Language (FAML). ), the BAML (Body Animation Markup Language) and the SML (Speech Markup Language).
  • AML Avatar Markup Language
  • MRUML Multimodal Representation Utterance Markup Language
  • EML Emotion Markup Language
  • Storyboard animation languages also called synchronization languages
  • synchronization languages make it possible to synchronize events (faces, bodies, voices ...) with media conventionally used in the context of human interactions.
  • SMIL Synchronization Markup Language
  • SSML Speech Synthesis Markup Language
  • an objective of the invention is to provide a real-time avatar animation technique that is efficient and simple to implement, without having to develop new expensive metalanguages, particularly in terms of memory.
  • Another objective of the invention is to propose such a technique making it possible to operate in parallel one or more existing metalanguages, independently of the time base used.
  • the invention also aims to provide, in a particular embodiment, such an animation technique with realistic and fluid movements of the avatar, which can be applied to humanoids.
  • Another objective of the invention is to propose such a technique that is compatible with existing applications, especially in terms of a collaborative virtual environment. 4. Essential characteristics of the invention
  • Such a method according to the invention advantageously comprises the following steps: receiving a source signal comprising behavior markers and routing information associated with said markers; referral, for directing each of the markers to a selected animation module, among a plurality of animation modules, according to said referral information, each animation module using an animation language, so that said at least two animation modules work in parallel to animate the avatar together.
  • the invention therefore proposes a parallelization of the treatments on several animation modules. This parallelization thus allows the global movement of the avatar, for example a humanoid, to be much more fluid, and therefore more realistic, because the animation chain of the avatar has great flexibility of operation .
  • the present invention covers a first case in which at least two animation modules use different animation languages, so as to combine the advantages of each of these languages.
  • the invention also covers a second case in which at least two animation modules use the same animation language.
  • each of the animation modules uses a separate animation language.
  • the method of the invention further comprises a weighted combination step of animation data generated by at least two animation modules animating the same part of the avatar.
  • the animation data generated by a first animation module may have priority (weighting equal to 1) compared to those generated by a second animation module (weighting equal to 0).
  • a referral information relating to a given marker comprises an animation language identifier, and said referral step consists in transmitting said given marker to each animation module using the language identified by said language identifier.
  • a referral information relating to a given marker comprises an animation module identifier, and said referral step consists of transmitting said marker given to the animation module identified by said animation module identifier.
  • each marker comprises a referral information of said marker.
  • the referral information is a prefix of a command contained in said marker or a reference to a file that contains a detailed description of an action associated with said marker.
  • the invention also relates to a method for generating a source signal, intended to be used in a temporal animation process of an avatar in a virtual environment, comprising a step of insertion into said source signal of behavior markers and referral information associated with said markers.
  • each marker comprises a referral information of said marker.
  • the source signal of the invention includes all the characteristics relating to the markers and the routing information, in particular those which appear above, which allow the implementation of the aforementioned temporal animation method of an avatar in a virtual environment.
  • the invention also relates to a temporal animation device for an avatar in a virtual environment, from a source signal, comprising: means for receiving a source signal comprising behavior markers and referral information associated with said markers;
  • the invention further relates to a computer program product comprising program code instructions for executing the steps of the aforesaid method, when said program is executed on a computer.
  • the invention also relates to a storage medium, possibly completely or partially removable, readable by a computer, storing a set of instructions executable by said computer to implement the above method.
  • the invention also relates to a source signal intended to be used in a temporal animation process of an avatar in a virtual environment, said source signal comprising behavior markers, and furthermore comprising referral information enabling the implementation of a step of switching each of the markers to a selected animation module, among a plurality of animation modules, according to said switching information, each animation module using an animation language, way that said at least two animation modules operate in parallel to animate the avatar together.
  • the invention also relates to a storage medium, possibly completely or partially removable, readable by a computer, storing a source signal. 5. List of figures
  • FIG. 1 already commented on in relation to the prior art, presents the functional functional chain of animation of an avatar;
  • FIG. 2 presents a functional chain for animating an avatar of a particular embodiment of the animation method of the invention;
  • FIG. 3 represents a flowchart of an embodiment particular of the animation method of the invention;
  • FIG. 4 shows the structure of a particular embodiment of a temporal animation device of an avatar according to the invention. 6.
  • the general principle of the invention is based on a data switching technique, between a source signal processing module and animation modules, making it possible to Realistically and fluidly animate an avatar in real time, each animation module can control a particular part of such an avatar.
  • the data routing technique according to the invention can notably coexist different animation languages. Such a technique can notably use in parallel several animation modules implementing identical and / or distinct animation languages.
  • This temporal animation method notably involves a switching module placed between the processing module of a source signal and the animation modules.
  • a processing module 22 receives as input a source signal 21 comprising low level information, non-verbal behavior markers and switching information.
  • This processing module 22 generates as output a data stream 220 comprising: low level data 221 (generally it is information of the phoneme and duration type) intended for lip animation; and non-verbal behavior markers 222 stamped temporally and associated with referral information 223. Such data are intended for the animation of the other parts of the avatar (the eyes, the arms, the legs ...) .
  • low level data 221 generally it is information of the phoneme and duration type
  • non-verbal behavior markers 222 stamped temporally and associated with referral information 223.
  • Such data are intended for the animation of the other parts of the avatar (the eyes, the arms, the legs ...) .
  • the method according to the invention comprises a preliminary step of configuration of the switching module 23.
  • This configuration step defines in the routing module 23 a correspondence table (not shown).
  • Such a table contains information triplets each associating an animation language, an animation module and a referral information (also referred to as a prefix).
  • This configuration step consists, for example, in reading an XML type file, for example in the following form:
  • Prefix is a referral information for markers written in this language. It should be noted that the fields “id” and “prefix” are required to correctly configure the routing module 23, while the "name” field is optional.
  • the routing module 23 is able to locate the routing information associated with each behavior marker 222 and direct each marker to the corresponding animation module.
  • the switching is such that each marker is directed to the animation module using the language whose identifier "id” and possibly the name "name”, are included in the same triplet of information that includes the prefix of this marker.
  • Figure 3 illustrates the successive sequence of these different referral steps.
  • a configuration phase comprises a first step 30, during which the referral module reads an XML type file defining a correspondence table.
  • a reception phase comprises a step 31, during which a source signal is received comprising non-verbal behavior markers and marker-related routing information.
  • step 32 the processing module separates the low level data from the markers, and time stamps each marker.
  • An identification phase comprises a step 33, during which the referral module distinguishes the two types of data included in the incoming data stream, so that in the presence of low level data, a step 34, on the other hand, in the presence of markers, a step 35 is carried out.
  • step 34 the low level data is transmitted to a lip animation engine 24.
  • the following steps relate to a referral phase of the markers to the corresponding animation modules 25 to N.
  • the referral module reads the correspondence table so as to extract, according to the prefix associated with each marker, the prerecorded information relating to the identifier of at least one of the languages of animation and therefore implicitly to the animation module that uses this animation language.
  • step 36 each marker is transmitted to the previously identified animation module (step 35).
  • each animation module acts on a different part of the avatar.
  • each animation module changes the value of one or more parameters, for example angles, contained in a scene graph used by the rendering module 26.
  • all the animation modules (24, 25, N) cooperate with a single rendering module 26 allowing the visualization of the behaviors and movements of the avatar, for example on a screen (not shown)
  • Such a method according to the invention thus makes it possible to animate realistically and fluidly an avatar in real time.
  • the routing module 23 can process a source signal such as an SSML file, for example in the form:
  • the method according to the invention can for example simultaneously use the high level language BAML to animate the body of the character and low level parameters FAPs from the MPEG4 standard for the character's head:
  • the switching module 23 can process a SMIL file, for example in the form: ⁇ smil> ⁇ body> ⁇ seq> ⁇ by>
  • CommandLanguageX or CommandLanguageY specifies either an explicit command or a reference to a file that contains a detailed description in languageX or languageY of the action associated with the high-level data.
  • FIG. 4 finally presents the structure of a temporal animation device of an avatar 42 according to the invention, which comprises a memory 422, and a processing unit 421 equipped with a microprocessor ⁇ P, which is controlled by a program 423.
  • the processing unit 421 receives as input a source signal 41 including low level information, nonverbal behavior markers, and routing information.
  • the microprocessor ⁇ P processes this source signal, according to the instructions of the program 423, to generate results representative of the behavior and movements of the avatar, which are transmitted to a display screen 43.
  • the invention provides a method of temporally animating an avatar from a source signal comprising nonverbal behavior markers (high level markers) and referral information.
  • This method has many advantages, including that of effectively using several metalanguages in parallel, so as to give more life and realism to an avatar, including a humanoid, during its animation.
  • the invention applies in particular to any type of virtual environment, whatever the purpose of the virtual environment: services, games, discussion forums, augmented reality, people using sign language to communicate ...

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

ABRÉGÉ DESCRIPTIF : Selon l'invention, un tel procédé comprend les étapes de réception d'un signal source (31) comprenant des marqueurs de comportement (222) et des informations d'aiguillage (223) associées auxdits marqueurs, et d'aiguillage (35), permettant de diriger chacun des marqueurs (222) vers un module d'animation choisi, parmi une pluralité de modules d'animation (25 à N), en fonction desdites informations d'aiguillage, chaque module d'animation utilisant un langage d'animation, de façon que lesdits au moins deux modules d'animation fonctionnent en parallèle pour animer ensemble l'avatar. L'invention concerne également un procédé de génération du signal source (31) précité, comprenant une étape d'insertion dans ce signal source (31) des marqueurs de comportement (222) et des informations d'aiguillage (223).

Description

Procédé d'animation temporelle d'un avatar à partir d'un signal source comprenant des informations d'aiguillage, dispositif, programme d'ordinateur, moyen de stockage et signal source correspondants.
1. Domaine de l'invention Le domaine de l'invention est celui de la réalité virtuelle, et notamment de l'animation d'avatars dans un environnement virtuel.
De manière générale, on utilise un métalangage (aussi appelé par la suite langage d'animation) pour animer un avatar, par exemple de type humanoïde, d'une posture de départ vers une posture d'arrivée, un humanoïde correspondant à une représentation tridimensionnelle (2D) ou tridimensionnelle (3D) d'un être humain dans un environnement virtuel.
Par métalangage, on entend, selon une définition communément admise, tout type de langages de programmation permettant de structurer d'autres langages. L'invention concerne plus précisément une technique d'animation temporelle d'avatars, mettant en œuvre un ensemble de métalangages différents destiné à animer un avatar, par exemple de type humanoïde ou personnage virtuel (2D ou 3D), indépendamment de la base temporelle utilisée.
L'invention s'applique notamment, mais non exclusivement, dans des systèmes de réalité virtuelle dans le cadre de services, de jeux, de forums de discussion, ou encore pour des personnes utilisant le langage des signes pour communiquer.
2. L'art antérieur
Généralement, les comportements et les mouvements d'un avatar sont pilotés par des stimuli comme le langage (voix) ou l'environnement sonore.
De làçon plus précise et comme illustré sur la figure 1, la chaîne fonctionnelle classique d'animation d'un avatar 10 comprend un signal source 11 représentant le ou les stimuli. Ces stimuli sont par exemple des phrases, sous forme de texte ou bien de son, destinées à être prononcées par l'avatar. Par exemple dans le cas particulier d'un langage d'animation de type AML (Avatar Markup Langage, en anglais), le stimulus est un script AML comprenant du texte et/ou du son et des données de type FAPs (Facial Animation Parameters) et BAPs (Body Animation Parameters).
Un module de traitement 12 reçoit en entrée le signal source 11 et génère en sortie un flux de données 120 comprenant : des données bas niveau 121 (généralement il s'agit d'informations du type phonèmes et durées) destinées à l'animation labiale (dans le cas particulier du langage AML, les données de bas niveaux sont les données de bases FAPs et BAPs) ; et - des données haut niveau 122 (aussi appelées par la suite marqueurs de comportement) estampillées temporellement, et destinées à l'animation des autres parties de l'avatar (les yeux, les bras, les jambes...). On rappelle que la connaissance du contexte au sens large est nécessaire pour produire des comportements non verbaux. Il est donc classique que ces comportements non verbaux soient localisés temporellement en amont du traitement de la parole pour être ensuite présents sous forme de marqueurs dans le flux de données 120 obtenu en sortie du module de traitement 12.
Il convient de préciser que par marqueur on entend une balise (« tag » en anglais) d'un langage quelconque et notamment, mais non exclusivement, une balise au sens XML (définissant notamment un temps de début, un nom d'un comportement haut niveau prédéfini).
Il est classique que le module de traitement 12 soit spécifique à un langage donné. Plus particulièrement le module de traitement 12 utilise un langage adapté pour traiter les données bas niveau comprises dans le stimulus source 11. Dans le cas particulier du langage AML, le module de traitement 12 comprend un processeur AML, un moteur de synthèse et un générateur de FAPs et de BAPs aux normes MPEG-4.
Les données bas niveau 121 et les données haut niveau 122 sont ensuite transmises vers un module d'animation 13 capable d'interpréter à la fois les informations pour l'animation labiale et les marqueurs de comportement non verbaux. Dans le cas particulier du langage AML, le module d'animation 13 est un module d'animation du type MPEG-4 pouvant interpréter les FAPs au format MPEG-4. II est bien connu de l'art antérieur qu'un utilisateur a la possibilité d'utiliser une donnée haut niveau pour envoyer une méta-donnée, par exemple, dans le but de déclencher un son (par exemple dans le cas particulier du langage SSML).
Le module d'animation 13 coopère avec un module de rendu 14 (2D ou 3D) permettant la visualisation des comportements et des mouvements de l'avatar, par exemple sur un écran (non représenté).
Il convient de préciser que les marqueurs de comportement non verbaux sont écrits dans un format spécifique au langage d'animation utilisé par le module d'animation 13. Ainsi depuis quelques années, de nombreux langages d'animation et de synchronisation ont été développés pour animer de manière naturelle un avatar en temps réel. Les langages d'animations permettent de contrôler le visage (sourire, hochement de tête...), le corps (signe de la main, flexion des jambes...) et la voix de l'avatar, parmi ces langages, on trouve par exemple l'AML (Avatar Markup Langage, en anglais), le MRUML (Multimodal Représentation Utterance Markup Langage, en anglais) ou encore l'EML (Emotion Markup Langage, en anglais) regroupant le FAML (Facial Animation Markup Language, en anglais), le BAML (Body Animation Markup Language, en anglais) et le SML (Speech Markup Language, en anglais). Les langages d'animation de type « story board » (aussi appelés langages de synchronisation), quant à eux, permettent de synchroniser des événements (visages, corps, voix...) avec des médias classiquement utilisés dans le cadre d'interactions humaines tels que le son, le texte, etc.... Parmi ces langages, on trouve par exemple le SMIL (Synchronisation Markup Langage, en anglais) qui est un langage formel de synchronisation multimédia ou le SSML (Speech Synthesis Markup Language, en anglais) qui est un langage formel dédié à la synthèse vocale.
Ces langages d'animation ont représenté un progrès important dans le mécanisme de distinction et de synchronisation entre les comportements verbaux et non verbaux d'un avatar. Cependant, ils présentent un certain nombre d'inconvénients.
Tout d'abord, de tels langages ne permettent pas toujours une grande flexibilité dans le comportement de l'avatar ni ne reflètent la dépendance entre différentes informations, par exemple, l'association d'une information d'émotion avec des gestes communicatifs.
Un autre inconvénient majeur de ces langages d'animation, réside dans le fait que la majorité de ces langages ont été développés pour des applications spécifiques : langue des signes (SiGML), reproduction de la cinématique des gestes (MURML), présentation d'information multimodale (MPML), information sémantique (RRL), comportement communicatif (APML, AML et CML), synchronisation verbal et non-verbal (BEAT). Ainsi, un grand nombre de langages d'animation ne prennent en charge qu'une partie de l'avatar soit la tête soit le corps mais pas nécessairement les deux.
Par ailleurs, le développement éparpillé de ces différents langages ne favorise pas forcément leurs compatibilités.
En outre, et en particulier pour les raisons exposées ci-dessus, la multiplication de ces langages ne facilite pas la mise en place d'un consensus et la mise au point d'un langage universel qui serait utilisé par la majorité des acteurs de la réalité virtuelle et du multimédia. Bien qu'il y ait actuellement une volonté de créer des langages d'animation de très large envergure (HumanML et VHML) incluant plusieurs sous-langages pour chaque modalité (parole, visage, geste...), ces nouveaux langages présentent néanmoins les désavantages d'être complexes à mettre en œuvre, et coûteux, notamment en terme de mémoire. 3. Objectifs de l'invention L'invention a notamment pour objectif de pallier ces inconvénients de l'art antérieur. Plus précisément, un objectif de l'invention est de fournir une technique d'animation d'un avatar en temps réel qui soit efficace et simple à mettre en œuvre, sans devoir développer de nouveaux métalangages coûteux, notamment en terme de mémoire.
Un autre objectif de l'invention est de proposer une telle technique permettant d'exploiter en parallèle un ou plusieurs métalangages existants, indépendamment de la base temporelle utilisée.
L'invention a encore pour objectif de fournir, dans un mode de réalisation particulier, une telle technique d'animation présentant des mouvements réalistes et fluides de l'avatar, pouvant s'appliquer aux humanoïdes.
Un autre objectif de l'invention est de proposer une telle technique qui soit compatible avec les applications existantes, notamment en terme d'environnement virtuel collaboratif. 4. Caractéristiques essentielles de l'invention
Ces objectifs, ainsi que d'autres qui apparaîtront par la suite, sont atteints à l'aide d'un procédé d'animation temporelle d'un avatar dans un environnement virtuel. Un tel procédé selon l'invention comprend avantageusement les étapes suivantes : - réception d'un signal source comprenant des marqueurs de comportement et des informations d'aiguillage associées auxdits marqueurs ; aiguillage, permettant de diriger chacun des marqueurs vers un module d'animation choisi, parmi une pluralité de modules d'animation, en fonction desdites informations d'aiguillage, chaque module d'animation utilisant un langage d'animation, de façon que lesdits au moins deux modules d'animation fonctionnent en parallèle pour animer ensemble l'avatar.
Ainsi, on prévoit avantageusement d'utiliser des marqueurs de comportements et des informations d'aiguillages spécifiques aux langages d'animations utilisés par les modules d'animations.
L'invention propose donc une parallèlisation des traitements sur plusieurs modules d'animation. Cette parallèlisation permet ainsi au mouvement global de l'avatar, par exemple un humanoïde, d'être beaucoup plus fluide, et par conséquent plus réaliste, du fait que la chaîne d'animation de l'avatar dispose d'une grande souplesse de fonctionnement.
La présente invention couvre un premier cas dans lequel au moins deux modules d'animation utilisent des langages d'animation distincts, de façon à cumuler les avantages de chacun de ces langages. L'invention couvre également un second cas dans lequel au moins deux modules d'animation utilisent le même langage d'animation.
Selon un aspect avantageux de l'invention, chacun des modules d'animation utilise un langage d'animation distinct.
Ainsi, il est possible d'avoir une configuration optimale dans laquelle on cumule les avantages de chacun des langages d'animation utilisés.
De façon préférentielle, le procédé de l'invention comprend en outre une étape de combinaison pondérée de données d'animation générées par au moins deux modules d'animation animant une même partie de l'avatar.
Dans un cas particulier de pondération, les données d'animation générées par un premier module d'animation peuvent être prioritaires (pondération égale à 1) par rapport à celles générées par un second module d'animation (pondération égale à 0).
Dans un mode de réalisation préférentiel de l'invention, une information d'aiguillage relative à un marqueur donné comprend un identifiant de langage d'animation, et ladite étape d'aiguillage consiste à transmettre ledit marqueur donné à chaque module d'animation utilisant le langage identifié par ledit identifiant de langage.
Dans une variante du mode de réalisation préférentiel de l'invention, une information d'aiguillage relative à un marqueur donné comprend un identifiant de module d'animation, et ladite étape d'aiguillage consiste à transmettre ledit marqueur donné au module d'animation identifié par ledit identifiant de module d'animation.
De façon avantageuse, chaque marqueur comprend une information d'aiguillage dudit marqueur. Préférentiellement, l'information d'aiguillage est un préfixe d'une commande contenue dans ledit marqueur ou d'une référence à un fichier qui contient une description détaillée d'une action associée audit marqueur.
L'invention concerne également un procédé de génération d'un signal source, destiné à être utilisé dans un procédé d'animation temporelle d'un avatar dans un environnement virtuel, comprenant une étape d'insertion dans ledit signal source de marqueurs de comportement et d'informations d'aiguillage associées auxdits marqueurs.
Avantageusement, chaque marqueur comprend une information d'aiguillage dudit marqueur. D'une façon générale, le signal source de l'invention comporte toutes les caractéristiques relatives aux marqueurs et aux informations d'aiguillage, notamment celles qui apparaissent ci-dessus, qui permettent la mise en œuvre du procédé précité d'animation temporelle d'un avatar dans un environnement virtuel.
L'invention concerne également un dispositif d'animation temporelle d'un avatar dans un environnement virtuel, à partir d'un signal source, comprenant : des moyens de réception d'un signal source comprenant des marqueurs de comportement et des informations d'aiguillage associées auxdits marqueurs ;
- une pluralité de modules d'animation utilisant chacun un langage d'animation ; des moyens d'aiguillage, permettant de diriger chacun des marqueurs vers un module d'animation choisi, parmi ladite pluralité de modules d'animation, en fonction desdites informations d'aiguillage, de façon que lesdits au moins deux modules d'animation fonctionnent en parallèle pour animer ensemble l'avatar. L'invention concerne en outre un produit programme d'ordinateur comprenant des instructions de code de programme pour l'exécution des étapes du procédé précité, lorsque ledit programme est exécuté sur un ordinateur.
L'invention concerne aussi un moyen de stockage, éventuellement totalement ou partiellement amovible, lisible par un ordinateur, stockant un jeu d'instructions exécutables par ledit ordinateur pour mettre en œuvre le procédé précité.
L'invention concerne encore un signal source destiné à être utilisé dans un procédé d'animation temporelle d'un avatar dans un environnement virtuel, ledit signal source comprenant des marqueurs de comportement, et comprenant en outre des informations d'aiguillage permettant la mise en œuvre d'une étape d'aiguillage de chacun des marqueurs vers un module d'animation choisi, parmi une pluralité de modules d'animation, en fonction desdites informations d'aiguillage, chaque module d'animation utilisant un langage d'animation, de façon que lesdits au moins deux modules d'animation fonctionnent en parallèle pour animer ensemble l'avatar.
L'invention concerne également un moyen de stockage, éventuellement totalement ou partiellement amovible, lisible par un ordinateur, stockant un signal source. 5. Liste des figures
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation préférentiel, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : - la figure 1, déjà commentée en relation avec l'art antérieur, présente la chaîne fonctionnelle classique d'animation d'un avatar ; la figure 2 présente une chaîne fonctionnelle d'animation d'un avatar d'un mode de réalisation particulier du procédé d'animation de l'invention ; - la figure 3 représente un organigramme d'un mode de réalisation particulier du procédé d'animation de l'invention ; et la figure 4 présente la structure d'un mode de réalisation particulier d'un dispositif d'animation temporelle d'un avatar selon l'invention. 6. Description d'un mode de réalisation de l'invention Le principe général de l'invention repose sur une technique d'aiguillage de données, entre un module de traitement d'un signal source et des modules d'animation, permettant d'animer de manière réaliste et fluide un avatar en temps réel, chaque module d'animation pouvant notamment contrôler une partie spécifique d'un tel avatar. La technique d'aiguillage de données selon l'invention peut notamment faire cohabiter différents langages d'animation. Une telle technique peut notamment utiliser en parallèle plusieurs modules d'animation mettant en œuvre des langages d'animation identiques et/ou distincts.
Ce procédé d'animation temporelle selon l'invention fait notamment intervenir un module d'aiguillage placé entre le module de traitement d'un signal source et les modules d'animation.
Cette approche est notamment illustrée en figure 2. Un module de traitement 22 reçoit en entrée un signal source 21 comprenant des informations bas niveau, des marqueurs de comportement non verbaux et des informations d'aiguillage.
Ce module de traitement 22 génère en sortie un flux de données 220 comprenant : des données bas niveau 221 (généralement il s'agit d'informations du type phonèmes et durées) destinées à l'animation labiale ; et - des marqueurs de comportement non verbaux 222 estampillés temporellement et associés à des informations d'aiguillage 223. De telles données sont destinées à l'animation des autres parties de l'avatar (les yeux, les bras, les jambes...).
Les données bas niveau 221 et les marqueurs de comportement 222 sont ensuite transmis vers un module d'aiguillage 23. De façon avantageuse, le procédé selon l'invention comprend une étape préalable de configuration du module d'aiguillage 23. Cette étape de configuration permet de définir dans le module d'aiguillage 23 une table de correspondance (non représentée). Une telle table contient des triplets d'informations associant chacun un langage d'animation, un module d'animation et une information d'aiguillage (aussi appelée par la suite préfixe). Cette étape de configuration consiste par exemple en la lecture d'un fichier de type XML se présentant par exemple sous la forme suivante :
<AnimationFilterDescription> <AnimationLanguage id="l" name="LanguageX" prefix="MarkerX :">
<AnimationLanguage id="2" name="LanguageY" prefix="MarkerY :">
<AnimationLanguage id="0" name="DefaultLanguage" prefix=""> </AnimationFilterDescription> où, dans chaque triplet d'informations :
« id » est un identifiant d'un langage d'animation ; et « name » est le nom de ce langage d'animation ; et
« prefix » est une information d'aiguillage pour les marqueurs écrits dans ce langage. On notera que les champs « id » et « prefix » sont obligatoires pour configurer correctement le module d'aiguillage 23, tandis que, le champ « name » est optionnel.
Grâce à cette étape préalable de configuration, le module d'aiguillage 23 est en mesure de repérer l'information d'aiguillage associée à chaque marqueur de comportement 222 et de diriger chaque marqueur vers le module d'animation correspondant.
Dans ce mode de réalisation particulier, l'aiguillage est donc tel que chaque marqueur est dirigé vers le module d'animation utilisant le langage dont l'identifiant « id » et éventuellement le nom « name », sont compris dans le même triplet d'informations que celui comprenant le préfixe de ce marqueur. La figure 3 illustre l'enchaînement successif de ces différentes étapes d'aiguillage.
Une phase de configuration comprend une première étape 30, au cours de laquelle le module d'aiguillage lit un fichier de type XML définissant une table de correspondance.
Une phase de réception comprend une étape 31, au cours de laquelle on reçoit un signal source comprenant des marqueurs de comportement non verbaux et des informations d'aiguillage associées aux marqueurs.
Lors de l'étape 32, le module de traitement sépare les données bas niveaux des marqueurs, et estampille temporellement chaque marqueur.
Une phase d'identification comprend une étape 33, au cours de laquelle le module d'aiguillage distingue les deux types de données compris dans le flux de données entrant, de sorte qu'en présence de données bas niveau on passe à une étape 34, en revanche, en présence de marqueurs on passe à une étape 35. Lors de l'étape 34, les données bas niveau sont transmises à un moteur d'animation labiale 24.
Les étapes suivantes sont relatives à une phase d'aiguillage des marqueurs vers les modules d'animation correspondants 25 à N.
Lors de l'étape 35, le module d'aiguillage lit la table de correspondance de façon à extraire, en fonction du préfixe associé à chaque marqueur, les informations préenregistrées relatives à l'identifiant d'au moins l'un des langages d'animation et donc implicitement au module d'animation qui utilise ce langage d'animation.
Enfin lors de l'étape 36, chaque marqueur est transmis vers le module d'animation précédemment identifié (étape 35).
Dans un mode de réalisation préférentiel de l'invention, chaque module d'animation agit sur une partie différente de l'avatar. En outre, chaque module d'animation change la valeur d'un ou plusieurs paramètres, par exemple des angles, contenus dans un graphique de scène utilisé par le module de rendu 26. Dans un mode de réalisation préférentiel de l'invention, tous les modules d'animation (24, 25, N) coopèrent avec un seul module de rendu 26 permettant la visualisation des comportements et des mouvements de l'avatar, par exemple sur un écran (non représenté). Un tel procédé selon l'invention permet ainsi d'animer de manière réaliste et fluide un avatar en temps réel.
Lors de ces étapes d'aiguillage, le module d'aiguillage 23 peut traiter un signal source tel qu'un fichier SSML, par exemple sous la forme :
<speak > Go from <mark name=" MarkerX : CommandLanguageX"/> hère, to
<mark name=" MarkerY : CommandLanguageY "/> there! </speak>
De façon avantageuse, le procédé selon l'invention peut par exemple utiliser simultanément le langage haut niveau BAML pour animer le corps du personnage et les paramètres bas niveau FAPs issus de la norme MPEG4 pour la tête du personnage :
Go from <mark name=" AML : <left-arm-front amount^"medium" duration="500ms'7>
"/> hère, to <mark name=" MPEG4 : FAP2="8" 7> there! Dans une variante du mode de réalisation préférentiel précité, le module d'aiguillage 23 peut traiter un fichier SMIL, par exemple sous la forme : <smil> <body> <seq> <par>
<audio title="Go_fom_here_to_there" src=" Speech.wav" begin="Os"/> <video title=" CommandLanguageXDescription" id="MarkerX : CommandLanguageX" begin="ls"/>
<video title=" CommandLanguageYDescription" id="MarkerY : CommandLanguageY" begin="4s"/> </par> </seq> </body> </smil> Dans les deux modes de réalisation de l'invention précités,
CommandLanguageX ou CommandLanguageY spécifie soit une commande explicite soit une référence à un fichier qui contient une description détaillée en languageX ou languageY de l'action associée à la donnée haut niveau.
À l'instar du langage SSML on peut utiliser simultanément le langage haut niveau BAML et les FAPs comme dans l'exemple suivant: <smil> <body> <seq> <par> <audio title="Go_fom_here_to_there" src=" Speech.wav" begin="0s"/>
<video title- ' Animation AML " id=" AML : <left-arm-front amount="medium" duration="500ms"/> " begin="ls"/>
<video title=" Animation MPEG4 " id=" MPEG4 : FAP2="8" " begin="4s"/> </par>
</seq> </body> </smil>
La figure 4 présente enfin la structure d'un dispositif d'animation temporelle d'un avatar 42 selon l'invention, qui comprend une mémoire 422, et une unité de traitement 421 équipée d'un microprocesseur μP, qui est piloté par un programme d'ordinateur (ou application) 423. L'unité de traitement 421 reçoit en entrée un signal source 41 comprenant des informations bas niveau, des marqueurs de comportement non verbaux et des informations d'aiguillage. Le microprocesseur μP traite ce signal source, selon les instructions du programme 423, pour générer des résultats représentatifs du comportement et des mouvements de l'avatar, qui sont transmis vers un écran d'affichage 43.
En résumé, l'invention propose un procédé d'animation temporelle d'un avatar à partir d'un signal source comprenant des marqueurs de comportement non verbaux (marqueurs de haut niveau) et des informations d'aiguillage. Ce procédé présente de nombreux avantages, dont celui d'utiliser efficacement en parallèle plusieurs métalangages, de façon à donner plus de vie et de réalisme à un avatar, notamment un humanoïde, au cours de son animation. L'invention s'applique notamment à tout type d'environnement virtuel, quelle que soit la finalité de l'environnement virtuel : services, jeux, forums de discussion, réalité augmentée, personnes utilisant le langage des signes pour communiquer...

Claims

REVENDICATIONS
1. Procédé d'animation temporelle d'un avatar dans un environnement virtuel caractérisé en ce qu'il comprend les étapes suivantes :
- réception d'un signal source (31) comprenant des marqueurs de comportement (222) et des informations d'aiguillage (223) associées auxdits marqueurs ;
- aiguillage (35), permettant de diriger chacun des marqueurs (222) vers un module d'animation choisi, parmi une pluralité de modules d'animation (25 à N), en fonction desdites informations d'aiguillage (223), chaque module d'animation utilisant un langage d'animation, de façon que lesdits au moins deux modules d'animation fonctionnent en parallèle pour animer ensemble l'avatar.
2. Procédé selon la revendication 1, caractérisé en ce que chacun des modules d'animation (25 à N) utilise un langage d'animation distinct.
3. Procédé selon l'une quelconque des revendications 1 et 2, caractérisé en ce que ledit procédé comprend en outre une étape de combinaison pondérée de données d'animation générées par au moins deux modules d'animation animant une même partie de l'avatar.
4. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce qu'une information d'aiguillage (223) relative à un marqueur donné comprend un identifiant de langage d'animation, et en ce que ladite étape d'aiguillage consiste à transmettre ledit marqueur donné à chaque module d'animation utilisant le langage identifié par ledit identifiant de langage.
5. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce qu'une information d'aiguillage (223) relative à un marqueur donné comprend un identifiant de module d'animation, et en ce que ladite étape d'aiguillage consiste à transmettre ledit marqueur donné au module d'animation identifié par ledit identifiant de module d'animation.
6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce que chaque marqueur (222) comprend une information d'aiguillage (223) dudit marqueur.
7. Procédé selon la revendication 6, caractérisé en ce que ladite information d'aiguillage (223) est un préfixe d'une commande contenue dans ledit marqueur (222) ou d'une référence à un fichier qui contient une description détaillée d'une action associée audit marqueur.
8. Procédé de génération d'un signal source, destiné à être utilisé dans un procédé d'animation temporelle d'un avatar dans un environnement virtuel, caractérisé en ce qu'il comprend une étape d'insertion dans ledit signal source de marqueurs de comportement et d'informations d'aiguillage associées auxdits marqueurs.
9. Procédé selon la revendication 8, caractérisé en ce que chaque marqueur comprend une information d'aiguillage dudit marqueur.
10. Dispositif d'animation temporelle d'un avatar dans un environnement virtuel (42), à partir d'un signal source (31), caractérisé en ce qu'il comprend : - des moyens de réception d'un signal source (31) comprenant des marqueurs de comportement et des informations d'aiguillage associées auxdits marqueurs ;
- une pluralité de modules d'animation (25 à N) utilisant chacun un langage d'animation ; - des moyens d'aiguillage (23), permettant de diriger chacun des marqueurs (222) vers un module d'animation choisi, parmi ladite pluralité de modules d'animation (25 à N), en fonction desdites informations d'aiguillage (223), de façon que lesdits au moins deux modules d'animation fonctionnent en parallèle pour animer ensemble l'avatar.
11. Produit programme d'ordinateur (423), caractérisé en ce qu'il comprend des instructions de code de programme pour l'exécution des étapes du procédé selon l'une quelconque des revendications 1 à 7, lorsque ledit programme est exécuté sur un ordinateur.
12. Moyen de stockage (422), éventuellement totalement ou partiellement amovible, lisible par un ordinateur, stockant un jeu d'instructions exécutables par ledit ordinateur pour mettre en œuvre le procédé selon l'une quelconque des revendications 1 à 7.
13. Signal source (31) destiné à être utilisé dans un procédé d'animation temporelle d'un avatar dans un environnement virtuel, ledit signal source comprenant des marqueurs de comportement (222), caractérisé en ce qu'il comprend en outre des informations d'aiguillage (223) permettant la mise en œuvre d'une étape d'aiguillage (35) de chacun des marqueurs vers un module d'animation choisi, parmi une pluralité de modules d'animation (25 à N), en fonction desdites informations d'aiguillage, chaque module d'animation utilisant un langage d'animation, de façon que lesdits au moins deux modules d'animation fonctionnent en parallèle pour animer ensemble l'avatar.
14. Moyen de stockage, éventuellement totalement ou partiellement amovible, lisible par un ordinateur, stockant un signal source selon la revendication 13.
PCT/EP2005/055962 2004-12-07 2005-11-14 Procédé d'animation temporelle d'un avatar à partir d'un signal source comprenant des informations d'aiguillage, dispositif, programme d'ordinateur, moyen de stockage et signal source correspondants. WO2006061308A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0413039 2004-12-07
FR0413039 2004-12-07

Publications (1)

Publication Number Publication Date
WO2006061308A1 true WO2006061308A1 (fr) 2006-06-15

Family

ID=34955213

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2005/055962 WO2006061308A1 (fr) 2004-12-07 2005-11-14 Procédé d'animation temporelle d'un avatar à partir d'un signal source comprenant des informations d'aiguillage, dispositif, programme d'ordinateur, moyen de stockage et signal source correspondants.

Country Status (1)

Country Link
WO (1) WO2006061308A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2454681A (en) * 2007-11-14 2009-05-20 Cybersports Ltd Selection of animation for virtual entity based on behaviour of the entity

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6092107A (en) * 1997-04-07 2000-07-18 At&T Corp System and method for interfacing MPEG-coded audiovisual objects permitting adaptive control
EP1126721A1 (fr) * 2000-02-16 2001-08-22 Siemens Corporate Research, Inc. Système et méthode de génération et de reproduction de présentation multimedia annotée
US20020059386A1 (en) * 2000-08-18 2002-05-16 Lg Electronics Inc. Apparatus and method for operating toys through computer communication
US20040128350A1 (en) * 2002-03-25 2004-07-01 Lou Topfl Methods and systems for real-time virtual conferencing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6092107A (en) * 1997-04-07 2000-07-18 At&T Corp System and method for interfacing MPEG-coded audiovisual objects permitting adaptive control
EP1126721A1 (fr) * 2000-02-16 2001-08-22 Siemens Corporate Research, Inc. Système et méthode de génération et de reproduction de présentation multimedia annotée
US20020059386A1 (en) * 2000-08-18 2002-05-16 Lg Electronics Inc. Apparatus and method for operating toys through computer communication
US20040128350A1 (en) * 2002-03-25 2004-07-01 Lou Topfl Methods and systems for real-time virtual conferencing

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KSHIRSAGAR S, ESCHER M, ET. AL.: "Multimodal Animation System Based on the MPEG-4 Standard", PROC. OF CONF. ON MULTIMEDIA MODELLING, October 1999 (1999-10-01), Ottawa, pages 215 - 232, XP002337745, Retrieved from the Internet <URL:http://www.miralab.unige.ch/papers/14.pdf> [retrieved on 20050725] *
KSHIRSAGAR S, GUYE-VUILLEME A, KAMYAB K: "Avatar Markup Language", PROC. OF 8TH EUROGRAPHICS WORKSHOP ON VIRTUAL ENVIRONMENTS, May 2002 (2002-05-01), pages 169-177, XP002337746, Retrieved from the Internet <URL:http://www.miralab.unige.ch/papers/96.pdf> [retrieved on 20050725] *
PEREIRA F, EBRAHIMI T: "The MPEG-4 Book", 1 August 2002, PRENTICE HALL, UPPER SADDLE RIVER, XP002337748 *
T.Y. LI, M.Y. LIAO, C.F. LIAO: "An Extensible Scripting Langage for Interactive Animation in a Speech-Enabled Virtual Environment", PROC. OF IEEE INT. CONF. ON MULTIMEDIA AND EXPO, ICME 2004, 27 June 2004 (2004-06-27), Taipei, XP002365736 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2454681A (en) * 2007-11-14 2009-05-20 Cybersports Ltd Selection of animation for virtual entity based on behaviour of the entity

Similar Documents

Publication Publication Date Title
EP3095113B1 (fr) Interaction avec assistant personnel numérique avec imitations et contenu multimédia riche dans les réponses
EP3053162B1 (fr) Procede de dialogue entre une machine, telle qu&#39;un robot humanoïde, et un interlocuteur humain, produit programme d&#39;ordinateur et robot humanoïde pour la mise en oeuvre d&#39;un tel procede
Buschmann et al. Pattern-Oriented Software Architecture: On Patterns And Pattern Language, Volume 5
EP2336885B1 (fr) Procédé pour afficher dans un navigateur web le rendu produit par une application
FR2989209A1 (fr) Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d&#39;utilisation dudit robot
EP2855105A1 (fr) Systeme et procede pour generer des comportements contextuels d&#39;un robot mobile executes en temps reel
Williams Hands-On Chatbot Development with Alexa Skills and Amazon Lex: Create custom conversational and voice interfaces for your Amazon Echo devices and web platforms
WO2002084597A1 (fr) Procede et systeme d&#39;animation d&#39;un personnage en trois dimensions
FR3055079B1 (fr) Systeme de composition ou de modification de sequences de realite virtuelle, procede de composition et systeme de lecture desdites sequences
Pandzic Life on the Web
WO2006061308A1 (fr) Procédé d&#39;animation temporelle d&#39;un avatar à partir d&#39;un signal source comprenant des informations d&#39;aiguillage, dispositif, programme d&#39;ordinateur, moyen de stockage et signal source correspondants.
Beard et al. MetaFace and VHML: a first implementation of the virtual human markup language
WO2020072483A1 (fr) Plateforme de robot informatique pour rendu, agnostique par un canal multimodal, d&#39;une réponse de canal
Gagneré et al. La simulation du travail théâtral et sa" notation" informatique
Yang et al. MPML-FLASH: A multimodal presentation markup language with character agent control in flash medium
Lee Reflections of Little Red Dot: An Interactive Mixed Reality Archival Experience
Perkins Flash Professional CS5 Bible
Dada A Multimodal Critical Discourse Analysis of Religious Discourse: The Study of Selected Church Programme Handbills
FR2900754A1 (fr) Systeme permettant de generer et d&#39;animer des personnages virtuels destines a assister un utilisateur dans un contexte determine
Ducasse et al. Designing spatial tangible interfaces for visually impaired users: why and how?
Sultana Research on system architecture for device and content independent applications including 3d imaging and virtual reality as content
Jabagchourian ReadForMe: An IPhone Reader App for the Vision Impaired
Scheible et al. Mobile Python
CA3128689A1 (fr) Systeme et procede de rendu d&#39;un avatar anime
WO2007023219A1 (fr) Interaction entre une interface utilisateur et une interface en mode parallele

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05803053

Country of ref document: EP

Kind code of ref document: A1