WO2002058011A1 - Avatar animating method and device for communicating in a non-immersive collaborative virtual environment - Google Patents

Avatar animating method and device for communicating in a non-immersive collaborative virtual environment Download PDF

Info

Publication number
WO2002058011A1
WO2002058011A1 PCT/FR2002/000236 FR0200236W WO02058011A1 WO 2002058011 A1 WO2002058011 A1 WO 2002058011A1 FR 0200236 W FR0200236 W FR 0200236W WO 02058011 A1 WO02058011 A1 WO 02058011A1
Authority
WO
WIPO (PCT)
Prior art keywords
avatar
behavior
animation
intention
intentional
Prior art date
Application number
PCT/FR2002/000236
Other languages
French (fr)
Inventor
Pascal Le Mer
Grégory SAUGIS
Original Assignee
France Telecom (Sa)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom (Sa) filed Critical France Telecom (Sa)
Priority to EP02700348A priority Critical patent/EP1358632A1/en
Publication of WO2002058011A1 publication Critical patent/WO2002058011A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Definitions

  • the invention relates to an avatar animation method for ensuring communication in a collaborative virtual environment. not immersive.
  • the term Virtual Collaborative Environment (ECV) is used to designate a virtual environment that allows several people to collaborate remotely, the equipment used being linked by network (we also speak of a distributed environment).
  • EVC Virtual Collaborative Environment
  • avatars are introduced to ensure the more or less realistic- or similar representation of each person.
  • HMI man-machine interface
  • the invention proposes a new concept of human-machine interface making it possible to interact with the virtual environment and communicate to. through his own avatar (or clone), in an "office" context.
  • The-. “televirtuality” type systems [1] which, for example using a video technique or magnetic capture, make it possible to reproduce the behavior of the user facing his terminal through his avatar (eg facial expressions, communication gestures, etc. ) .. We can capture facial expressions and reproduce them through the avatar. Today, the technique also makes it possible to detect [6] and reproduce the gestures [4,5] (ie arms, body, etc.) as we can see in Figure 1.
  • “Body chat” type systems where each action (interaction with the environment) and each avatar behavior is activated by an avatar command interface [2]. There are many examples of this type of operation in the television world.
  • the idea here is to give behavior to an avatar to signify everyone's activity in the environment. It is then the system which manages its behavior by choosing it from a base of pre-calculated behaviors.
  • the HMI interface allows the user to act in the world, while we can ".
  • these systems do not make it possible to reproduce simultaneously the g.es.tes .. of expressions (that is to say, for example, designate someone with the arm) and the gestures of action and perception (that is to say, manipulating an object of the virtual world or changing point of view) of the user, without using immersive technologies.
  • the object of the invention is to offer a user a method and a device allowing him to communicate by expressing himself in a natural way (that is to say: verbal and non-verbal, so as to preserve the richness co-verbal gestures of the human being) with other people while having the possibility of interaction with the common virtual environment, through an office terminal.
  • the device makes it possible to offer a realistic representation of a user in a common virtual environment, in which he can interact and communicate non-verbally without being constrained by an intrusive system.
  • this device one can for example envisage telecommerce, teleconception, distance learning, teleconference, games, etc. services.
  • the subject of the invention is more particularly a method of animating avatars corresponding to people to ensure communication in a non-immersive virtual environment between these people by means of a terminal provided with a display screen and input devices; the terminal comprising means for controlling animation and displaying images corresponding to .1 '. virtual environment. with. des- ..
  • a.vatars. à., from information received from its peripherals and from a communication network to which it is connected, characterized in that it comprises: the implementation of means for performing functions intentional actions (perception and expression action) of a user and the provision of corresponding information, then a behavior analysis - including a cycle consisting of performing the following operations N times:
  • the subject of the invention is also a device for animating avatars corresponding to people for ensuring communication in ... a virtual environment n.o.n. immersive between people, comprising a terminal provided with a display screen and input devices, the terminal comprising means for displaying the virtual environment and avatars from information received from its devices and of a telecommunications network, characterized in that the terminal comprises: - means for implementing intentional functions of a user of said device and providing corresponding information,
  • FIG. 6 an illustration of a card game part
  • - Figure 7 an illustration of this part in the case where the players are distant and use the method of one invention.
  • the visual feedback module illustrated in FIG. 3 then allows the user to know in which mode the system is, which can • serve as a regulator if there is ambiguity in the state thereof. Indeed, according to the mode of interaction, the .dis-positi-f. (the HMI interface). from, - the user displays visual feedback adapted to the type of interaction and the user's avatar behaves accordingly.
  • FIG. 1 shows the block diagram of the general operation of the proposed system.
  • the system implements:
  • Each terminal T includes:
  • - specialized interaction input devices B (ex: mouse, SpaceMouse TM, etc.) for any collaborative activity (ex: design of an automobile).
  • a software module L for intention detection and animation determination using the data coming from the input peripherals.
  • This device allows: -a representation of the user by an avatar in a common virtual environment.
  • the avatar of a user is sometimes animated from a library of pre-calculated behaviors, placed in the system and sometimes guided according to the gestures of the user.
  • the device adapts according to the user's intentions by giving suitable visual feedback; this so that he is aware of his level of
  • the mode selection is not binary; that is to say that • * the device makes it possible to combine semiotic and ergotic behavior (eg looking at someone while handling an object).
  • Pointing-manipulation and navigation device these devices can be used in, excluding their ergotic and epistemic functions (eg by using a particular button).
  • the user exploits the movements of the head and hands by excluding their unaddressed semiotic function (eg by using an area of influence of the head or hands [7]). Note that in this case there is no need to have an addressing device as illustrated in FIG. 3.
  • Semiotigue non -a d essé - A microphone its use makes it possible to determine the visemes to be reproduced in the animation of the avatar when the user speaks.
  • One or more camera (s) their use makes it possible to capture the position and orientation of the user's body, head and hands in space.
  • peripherals are used here for any action in the environment (eg mouse and SpaceMouse TM for the design of a motor vehicle; phantom TM (registered trademark) for a 3D sculpture activity; etc.)
  • the detection module intention and mode determination is illustrated by the detailed steps in Figure 5. This module works for each minimum unit of intention; namely: hands, body and head. Obviously, the ergotic and epistemic behaviors of the head and the body are limited. • We have not described here all the ways of determining the intention of the user, since the peripherals used are only specified in terms of category (devices for capturing posture, pointing, manipulation and navigation, etc.).
  • the system is in ergot ic-epistemic mode for this hand.
  • the visual feedback module allows the user to regulate the situation by acting on a device.
  • Player --3- responds to player 1;
  • Player 1 points to player 2 while looking at him and tells him "it's your turn to start ";
  • Player 2 places a card and looks at player 3 to indicate that it is up to him to place the next one;
  • Player 3 places a card, making a reflection to everyone, on the card he has just played; 10. Player 4 places a card;
  • Player 3 successively designates player 4 and the game by saying that he "does not have the right to play this card ".
  • Player 4 takes his card and plays again; 13. Player 1 looks at his partner player 3 with an admirent look and tapping on the table to make him understand that he played badly before; then takes a card from the deck, grimacing;
  • the game is on its way
  • Player 2 pauses the last card and looks at his partner player 4, smiling to show him his satisfaction; 16. Player 1 takes the pencil and the sheet and counts the, points;
  • Player 2 collects the cards and then distributes them for a new game.
  • the interactions of the ergotic type are done in the following way: - Use of the pointing device to control the pointer - 3D in a classic way.
  • the instrumented semiotic addressed technique makes it possible to control the gaze of one's own avatar and the gestures of designation of a hand:
  • Unaddressed semiotic gestures are detected: - For the hands when the peripherals are not activated while significant movements are captured by the behavior capture module.
  • the exact posture of the avatar is calculated at this terminal. This with the exception of the direction of gestures and directed looks, since these depend on the position of the avatar from a distance and the layout of the scene. From a distance, the information received on avatars is of two types
  • a state vector that is to say the instantaneous postures that avatars must take at each instant.

Abstract

The invention concerns a method for animating avatars corresponding to people for communication in a non-immersive virtual environment between people. The invention is characterised in that the method consists in: using means to provide intentional functions (action, perception and expression) of a person and to supply corresponding data; then analysing the behaviour of the person; and finally, representing said virtual environment and the avatars, at each cycle.

Description

PROCEDE ET DISPOSITIF D'ANIMATION D'AVATAR POUR ASSURER LA COMMUNICATION DANS UN ENVIRONNEMENT VIRTUEL COLLABORATIF NON- METHOD AND DEVICE FOR ANIMATING AVATAR TO PROVIDE COMMUNICATION IN A NON-COLLABORATIVE VIRTUAL ENVIRONMENT
IMMERSIFIMMERSIVE
L'invention concerne un procédé d'animation d'avatar pour assurer la communication dans un environnement virtuel collaboratif . non immersif. On désigne par Environment Virtual Collaboratif (ECV) un environnement virtuel qui permet à plusieurs personnes de collaborer à distance, le matériel utilisé étant relié par réseau (on parle aussi d'environnement distribué) . Dans de nombreux EVC, des avatars sont introduits pour assurer la représentation plus ou moins réaliste- ou ressemblante de chaque personne. A titre d'exemple, on peut se reporter au projet décrit dans la référence [3] ci-après, pour illustrer ce que l'on entend par ECV.The invention relates to an avatar animation method for ensuring communication in a collaborative virtual environment. not immersive. The term Virtual Collaborative Environment (ECV) is used to designate a virtual environment that allows several people to collaborate remotely, the equipment used being linked by network (we also speak of a distributed environment). In many EVCs, avatars are introduced to ensure the more or less realistic- or similar representation of each person. As an example, we can refer to the project described in reference [3] below, to illustrate what is meant by ECV.
Ces techniques . soulèvent le problème de la conception d'une interface homme machine (IHM) . En effet, chaque utilisateur doit pouvoir interagir avec l'environnement virtuel mais également s'identifier à son « corps virtuel » instancié par un avatar, pour véhiculer les informations non-verbalesThese techniques. raise the problem of designing a man-machine interface (HMI). Indeed, each user must be able to interact with the virtual environment but also identify with his "virtual body" instantiated by an avatar, to convey non-verbal information
(gestes, mimiques) relatives à la communication et . l'action entre les utilisateurs .(gestures, facial expressions) relating to communication and. action between users.
L' invention propose un nouveau concept d'interface homme machine permettant d'interagir avec l'environnement virtuel et communiquer à . travers son propre avatar (ou clone), dans un contexte « bureautique ».The invention proposes a new concept of human-machine interface making it possible to interact with the virtual environment and communicate to. through his own avatar (or clone), in an "office" context.
Dans toute la suite on parle d'avatar. On peut également trouver le terme de clone dans la littérature pour le même concept.In the following we talk about an avatar. The term clone can also be found in the literature for the same concept.
•.Nous , ..entendons:. par contexte « -bureautique », un terminal qui ne contraint pas l'utilisateur à utiliser un système de périphériques intrusif pour s'immerger dans l'environnement virtuel. En d'autres termes, l'utilisateur doit avoir pleine possession de ses différents sens pour agir avec l'environnement réel (e.g. décrocher son téléphone, se déplacer, etc.) . Une caractéristique des contextes bureautiques est qu'ils utilisent . des périphériques adaptés (e.g. souris pour Windows™, périphériques 3D pour la CAO dans le secteur automobile) -'dont on ne suppose pas le type ou l'utilisation.•.We hear:. by context “-bureautique”, a terminal which does not force the user to use an intrusive system of peripherals to immerse themselves in the virtual environment. In other words, the user must have full possession of his different senses to act with the real environment (e.g. pick up his phone, move around, etc.). A characteristic of office contexts is that they use. suitable peripherals (e.g. mice for Windows ™, 3D peripherals for CAD in the automotive sector) -which type or use is not assumed.
État actuel de la techniqueCurrent state of the art
Actuellement on trouve deux grandes catégories de systèmes qui permettent de médiatiser la communication à travers un avatar dans les environnements collaboratifs. Soit c'est l'utilisateur qui est à l'origine du comportement de l'avatar, auquel cas on parlera d'animation intentionnelle des avatars ; Soit le système interprète l'activité collaborative pour animer l'avatar, on parlera alors d'animation interprétée.Currently there are two main categories of systems that mediate communication through an avatar in collaborative environments. Either it is the user who is at the origin of the behavior of the avatar, in which case we will speak of intentional animation of the avatars; Either the system interprets the collaborative activity to animate the avatar, we will then speak of interpreted animation.
* L'animation intentionnelle des avatars* Intentional animation of avatars
- On trouve deux approches pour animer de façon intentionnelle un avatar :- There are two approaches to intentionally animate an avatar:
• Les-. systèmes de type « télévirtualité » [1] qui grâce par exemple à une technique vidéo ou une capture magnétique, permettent de restituer le comportement de l'utilisateur face à son terminal à travers son avatar (e.g. expressions faciales, gestes de communication, etc.).. On peut capturer des expressions faciales et les reproduire à travers l'avatar. La technique permet également aujourd'hui de détecter [6] et reproduire les gestes [4,5] (i.e. bras, corps, etc.) comme on peut le voir figure 1. • Les systèmes de type « body chat » où chaque action (interaction avec l'environnement) et chaque comportement d' avatar est activé par une interface de commande avatar [2] . On trouve de nombreux exemples de ce type de fonctionnement dans le monde télévisuel.• The-. “televirtuality” type systems [1] which, for example using a video technique or magnetic capture, make it possible to reproduce the behavior of the user facing his terminal through his avatar (eg facial expressions, communication gestures, etc. ) .. We can capture facial expressions and reproduce them through the avatar. Today, the technique also makes it possible to detect [6] and reproduce the gestures [4,5] (ie arms, body, etc.) as we can see in Figure 1. • “Body chat” type systems where each action (interaction with the environment) and each avatar behavior is activated by an avatar command interface [2]. There are many examples of this type of operation in the television world.
* L'animation interprétée des avatars* The interpreted animation of the avatars
L' idée est ici de donner un comportement à un avatar pour signifier l'activité de chacun dans l'environnement. C'est alors le système qui gère son comportement en le choisissant dans une base de comportements pré-calculés . L'interface IHM permet à l'utilisateur d'agir dans le monde, alors que l'on peut ". vo r :à. l'écran du terminal le- comportement de l'avatar symboliser ce qu'il fait. On pourra trouver un exemple dans la référence [ 8 ] .The idea here is to give behavior to an avatar to signify everyone's activity in the environment. It is then the system which manages its behavior by choosing it from a base of pre-calculated behaviors. The HMI interface allows the user to act in the world, while we can ". Vo r: à. the terminal screen the behavior of the avatar symbolize what it does. can find an example in reference [8].
On pourra se reporter aux références bibliographiques suivantes :Reference may be made to the following bibliographical references:
1. Équipe de Télévirtualité de l'INA, http : //www. ina . fr/TV/1. INA's Televirtuality Team, http: // www. ina. en / TV /
2. Guye-Vuillème , A., Capin, T., Pandzic, I., Magnenat Thalmann, N.,2. Guye-Vuillème, A., Capin, T., Pandzic, I., Magnenat Thalmann, N.,
Thalmann, D., Nonverbal Communication Interface for . Collaborative Virtual Environnements, Proc. CVE 98 , 1998.Thalmann, D., Nonverbal Communication Interface for. Collaborative Virtual Environments, Proc. CVE 98, 1998.
3. Plenacoste, P., Chabrier, N., Dumas, C, Saugis, G., Chaillou, C.;3. Plenacoste, P., Chabrier, N., Dumas, C, Saugis, G., Chaillou, C .;
Interfaces 3D : Interaction et Evaluation IHM 97. 4. Tolani, D., Badler, N. I., Rea- Time Inverse Kinematics of the Human Arm, Présence, 1996, Vol 5(4), pp. 393-401.3D Interfaces: Interaction and Evaluation HMI 97. 4. Tolani, D., Badler, NI, Rea-Time Inverse Kinematics of the Human Arm, Présence, 1996, Vol 5 (4), pp. 393-401.
5. W. Chin, K., Closed'-form and generalised inverse kinematic solutions for animating the human articulated structure, BSCH (Computer Science) of Curtin University of Technology, 1996-:5. W. Chin, K., Closed'-form and generalized inverse kinematic solutions for animating the human articulated structure, BSCH (Computer Science) of Curtin University of Technology, 1996-:
6. Marcel, S., Bernier, 0., Collobert, D., Approche EM pour la construction de- régions de teinte homogènes : application au suivi du visage et des mains d'une personne, Coresa 2000, octobre 2000. 7. Marcel, S., G., Bernier, 0.,6. Marcel, S., Bernier, 0., Collobert, D., EM approach for the construction of homogeneous regions of color: application to the monitoring of a person's face and hands, Coresa 2000, October 2000. 7. Marcel, S., G., Bernier, 0.,
Viallet, J.E., Collobert, D., Hand Gesture Récognition using Input-Output Hidden Markov Models, In International Conférence on Automatic Face and Gesture Récognition , march 2000, pp 456-461.Viallet, J.E., Collobert, D., Hand Gesture Récognition using Input-Output Hidden Markov Models, In International Conférence on Automatic Face and Gesture Récognition, march 2000, pp 456-461.
8. Benford, N . , Greenhalgh , C.,8. Benford, N. , Greenhalgh, C.,
Bowers, J., Snowdon, D., E., Fahlen, L.,Bowers, J., Snowdon, D., E., Fahlen, L.,
User Embodiment -"in Collaborative VirtualUser Embodiment - " in Collaborative Virtual
Environnements, Proceedings of CHI'95, 1995, pp.224-248.Environments, Proceedings of CHI'95, 1995, pp.224-248.
Inconvénients des techniques antérieuresDisadvantages of prior techniques
Les systèmes existants basés sur les principes présentés précédemment étant soit intentionnels, soit interprétés, ne permettent pas d'exploiter simultanément les gestes sémiotiques, ergotiques et épistémiques de l'utilisateur. Ces différents comportement sont illustrés dans la référence Cadoz, C., le geste canal de communication homme/machine, techniques et sciences informatiques, 1994, vol.13, pp. 31-61.The existing systems based on the principles presented above being either intentional, or interpreted, do not allow simultaneous use of the user's semiotic, ergotic and epistemic gestures. These different behaviors are illustrated in the reference Cadoz, C., the human-machine communication channel gesture, computer science and techniques, 1994, vol.13, pp. 31-61.
En d'autres termes, ces systèmes ne permettent pas de reproduire simultanément les g.es.tes .. d' expressions (c'est-à-dire par- exemple désigner quelqu'un du bras) et les gestes d'action et de perception (c'est-à-dire par exemple manipuler un objet du monde virtuel ou changer de point de vue) de l'utilisateur, sans utiliser des technologies immersives.In other words, these systems do not make it possible to reproduce simultaneously the g.es.tes .. of expressions (that is to say, for example, designate someone with the arm) and the gestures of action and perception (that is to say, manipulating an object of the virtual world or changing point of view) of the user, without using immersive technologies.
Le problème réside dans le fait, que si le système est de type télévirtualité (comme illustré sur la figure 1) et que l'utilisateur exerce un geste ergotique (par exemple il saisit sa souris pour interagir avec le système), alors l'animation de l'avatar n'aura aucune cohérence avec les actions de l'utilisateur. Dans." le cas contraire, si cet avatar est animé tel que cela est décrit à propos de l'animation interprétée, alors l'avatar ne peut pas reproduire le comportement de l'utilisateur. But de l'inventionThe problem lies in the fact, that if the system is of televirtuality type (as illustrated in figure 1) and that the user exerts an ergotic gesture (for example he grasps his mouse to interact with the system), then the animation of the avatar will have no consistency with the actions of the user. In. "Otherwise, if this avatar is animated as described in connection with the interpreted animation, then the avatar cannot reproduce the behavior of the user. Purpose of the invention
Le but de l'invention est d'offrir à un utilisateur un procédé et un dispositif lui permettant de communiquer en s' exprimant de façon naturelle (c'est-à-dire : verbale et non-verbale, de manière à conserver la richesse des gestes co-verbaux de l'être humain) avec d'autres personnes tout en disposant d'une possibilité d'interaction avec l'environnement virtuel commun, à travers un terminal bureautique.The object of the invention is to offer a user a method and a device allowing him to communicate by expressing himself in a natural way (that is to say: verbal and non-verbal, so as to preserve the richness co-verbal gestures of the human being) with other people while having the possibility of interaction with the common virtual environment, through an office terminal.
Le dispositif permet de proposer une représentation réaliste d'un utilisateur dans un environnement virtuel commun, dans lequel il peut interagir et communiquer de façon non- verbale sans être contraint par un système intrusif. A travers ce dispositif, on peut par exemple envisager des services de télécommerce, de téléconception, de téléenseignement, téléconférence, jeux, etc.The device makes it possible to offer a realistic representation of a user in a common virtual environment, in which he can interact and communicate non-verbally without being constrained by an intrusive system. Through this device, one can for example envisage telecommerce, teleconception, distance learning, teleconference, games, etc. services.
En situation de collaboration réelle, on considère que trois comportements sont important au vu de la communication. Il s'agit de l'action sur ' l'environnement, de la perception de celui-ci et de l'émission d'informations à destination d'autrui.In a real collaboration situation, we consider that three behaviors are important in view of communication. This is the action on 'environment, the perception of it and transmitting information to others.
On appelle respectivement ces comportements : ergotiques, épistémiques et sémiotiques. On propose selon l'invention de virtualiser ces comportements. L' invention a plus particulièrement pour objet un procédé d'animation d'avatars correspondant à des personnes pour assurer- la communication dans un environnement virtuel non immersif entre ces personnes au moyen d'un terminal muni d'un écran d'affichage et de périphériques d'entrée ; le terminal comprenant des moyens de commande d'animation et d'affichage d'images correspondant à .1 '..environnement virtuel .avec . des- .. a.vatars., à., partir d'informations reçues de ses périphériques et d'un réseau de communication auquel il est relié, caractérisé en ce qu'il comprend : la mise en œuvre de moyens pour assurer des fonctions intentionnelles (action perception et expression) d'une personne utilisatrice et la fourniture d'informations correspondantes, puis une analyse de comportement- comprenant un cycle consistant à effectuer les opérations suivantes N fois :These behaviors are respectively called: ergotic, epistemic and semiotic. It is proposed according to the invention to virtualize these behaviors. The subject of the invention is more particularly a method of animating avatars corresponding to people to ensure communication in a non-immersive virtual environment between these people by means of a terminal provided with a display screen and input devices; the terminal comprising means for controlling animation and displaying images corresponding to .1 '. virtual environment. with. des- .. a.vatars., à., from information received from its peripherals and from a communication network to which it is connected, characterized in that it comprises: the implementation of means for performing functions intentional actions (perception and expression action) of a user and the provision of corresponding information, then a behavior analysis - including a cycle consisting of performing the following operations N times:
- scrutation de l'arrivée d'informations sur les fonctions intentionnelles,- scrutinizing the arrival of information on intentional functions,
- détection d' intentions à partir des informations reçues,- detection of intentions from the information received,
- détermination du mode d'animation de l'avatar dans l'environnement virtuel correspondant à la personne selon l'intention détectée pour cette personne ; et enfin, représentation de l'environnement. virtuel et des avatars sur l'écran du terminal, à chaque cycle.- determination of the animation mode of the avatar in the virtual environment corresponding to the person according to the intention detected for this person; and finally, representation of the environment. virtual and avatars on the terminal screen, each cycle.
L'invention a également pour objet un dispositif d'animation d'avatars correspondant à des personnes pour assurer la communication dans... un environnement virtuel n.o.n . immersif entre les personnes, comprenant un terminal muni d'un écran d'affichage et de périphériques d'entrée, le terminal comprenant des moyens d'affichage de l'environnement virtuel et d' avatars à partir d' informations reçues de ses périphériques et d'un réseau de télécommunication, caractérisé en ce que le terminal comporte : - des moyens pour mettre en œuvre des fonctions intentionnelles d'un utilisateur dudit dispositif et fournir des informations correspondantes,The subject of the invention is also a device for animating avatars corresponding to people for ensuring communication in ... a virtual environment n.o.n. immersive between people, comprising a terminal provided with a display screen and input devices, the terminal comprising means for displaying the virtual environment and avatars from information received from its devices and of a telecommunications network, characterized in that the terminal comprises: - means for implementing intentional functions of a user of said device and providing corresponding information,
- des moyens pour -détecter les intentions à partir des informations reçues et pour déterminer le mode d'animation,- means for detecting intentions from the information received and for determining the mode of animation,
- des moyens pour animer l'avatar correspondant selon l'intention détectée par les moyens de détection. D' autres particularités et avantages de l'invention apparaîtront clairement dans la description suivante faite à titre d'exemple non limitatif en regard des figures " annexées qui représentent : la figure 1, une image et sa représentation virtuelle avec capture de mouvement et animation ; la figure 2, les étapes du procédé selon l'invention ;- Means for animating the corresponding avatar according to the intention detected by the detection means. Other features and advantages of the invention will become apparent from the following description given by way of nonlimiting example with reference to Figures "appended, which show: Figure 1, an image and the virtual representation with motion capture and animation; Figure 2, the steps of the method according to the invention;
-' - la figuré . 3,- - le synoptique ' du fonctionnement général ; la figure 4 le schéma d'un dispositif selon l'invention ; - - la figure 5, les détails de l'algorithme d'analyse du comportement et d' animation ; la figure 6, une illustration d'une partie de jeu de carte ; - la figure 7, une illustration de cette partie dans le cas où les joueurs sont distants et utilisent le procédé de 1 ' invention .- '- the figurative . 3, - - the overview of the general operation; Figure 4 the diagram of a device according to the invention; - - Figure 5, the details of the behavior analysis and animation algorithm; FIG. 6, an illustration of a card game part; - Figure 7, an illustration of this part in the case where the players are distant and use the method of one invention.
Description détaillée Après une longue analyse des technologies existantes mais insatisfaisantes, les inventeurs ont développé un nouveau systèmeDetailed description After a long analysis of existing but unsatisfactory technologies, the inventors have developed a new system
(procédé et dispositif) mettant en œuvre les fonctions de communication intégrant les comportements qui viennent d'être définis. Selon l'invention, le procédé et le dispositif permettent d'exploiter quatre types de comportements intentionnels : • Les actions ; par utilisation des périphériques d' interactions spécialisés (par exemple un système à retour d'effort) .(method and device) implementing the communication functions integrating the behaviors that have just been defined. According to the invention, the method and the device make it possible to exploit four types of intentional behavior: • Actions; by using specialized interaction devices (for example a force feedback system).
• Les comportements intentionnels non- adressés (par exemple les gestes co-verbaux, expressions faciales, etc.) ; par capture (par exemple la vldé.o) - du - comportement réel - de 1 ' utilisateur .• Intentional unaddressed behaviors (eg co-verbal gestures, facial expressions, etc.); by capture (for example the vldé.o) - of - real behavior - of the user.
• Les comportements intentionnels adressés (regarder quelqu'un, passer la parole, montrer quelque chose, faire un signe de bienvenue, etc.) ; par un organe matériel ou logiciel de désignation (par exemple un écran tactile ou détection logicielle de geste déictique) .• Intentional behaviors addressed (looking at someone, speaking, showing something, making a welcome sign, etc.); by a designation hardware or software body (for example a touch screen or software detection of deictic gesture).
•Les comportements sans rapport avec l'activité collaborative (par exemple décrocher son téléphone) .• Behaviors unrelated to collaborative activity (eg picking up the phone).
Pour passer d'un type de comportement à l'autre, on propose d'utiliser un système d'interprétation d'intention de l'utilisateur. On peut en effet savoir si un comportement est par exemple de type adressé, symbolique ou ergotique en exploitant le canal vidéo [7].To move from one type of behavior to another, we propose to use a system of interpretation of the user's intention. One can indeed know if a behavior is for example of addressed, symbolic or ergotic type by exploiting the video channel [7].
Dans le procédé proposé, illustré par le schéma de la figure 2, l'analyse du comportement de l'utilisateur fonctionne en permanence : ceci correspond à la boucle N de l'algorithme de la figure 2.In the proposed method, illustrated by the diagram in Figure 2, the analysis of user behavior works by permanence: this corresponds to the N loop of the algorithm in Figure 2.
Cette analyse du comportement est interprétée et permet de définir un mode d'interaction. Le module du retour visuel illustré sur la figure 3, permet alors à l'utilisateur de savoir dans quel mode est le système, ce qui peut .• servir de régulateur s'il y a ambiguïté sur l'état de celui-ci. En effet, suivant le mode d'interaction, le .dis-positi-f. (l'interface IHM). de ,- l'utilisateur affiche des retours visuels adaptés au type d'interaction et l'avatar de l'utilisateur a un comportement conséquent. Ces opérations sont illustrées par le schéma de la figure 2 et les étapes I à VI de cette figure.This behavior analysis is interpreted and allows a mode of interaction to be defined. The visual feedback module illustrated in FIG. 3 then allows the user to know in which mode the system is, which can • serve as a regulator if there is ambiguity in the state thereof. Indeed, according to the mode of interaction, the .dis-positi-f. (the HMI interface). from, - the user displays visual feedback adapted to the type of interaction and the user's avatar behaves accordingly. These operations are illustrated by the diagram in FIG. 2 and steps I to VI of this figure.
La figure 3 représente le schéma synoptique du fonctionnement général du système proposé. Le système met en œuvre :Figure 3 shows the block diagram of the general operation of the proposed system. The system implements:
-Un environnement virtuel distribué au moyen de plusieurs terminaux T distants affichant des avatars représentant chaque utilisateur. Chaque -"utilisateur à un point de vue de l'environnement global.-A virtual environment distributed by means of several remote T terminals displaying avatars representing each user. Each - "user from a point of view of the global environment.
Chaque terminal T comporte :Each terminal T includes:
-des moyens de captures A du comportement : c'est-à-dire mouvement de la tête, du corps et des mains, de l'utilisateur derrière son terminal (ex : caméra, radar, etc . ) . -des périphériques d'entrée d'interaction spécialisés B (ex : souris, SpaceMouse™, etc.) pour une activité collaborative quelconque (ex : conception d'une automobile) . -un module logiciel L de détection d'intention et de détermination d'animation utilisant les données provenant des périphériques d'entrée.-capture means A of behavior: that is to say movement of the head, body and hands, of the user behind his terminal (eg camera, radar, etc.). - specialized interaction input devices B (ex: mouse, SpaceMouse ™, etc.) for any collaborative activity (ex: design of an automobile). a software module L for intention detection and animation determination using the data coming from the input peripherals.
Ce dispositif permet : -une représentation de l'utilisateur par un avatar dans un environnement virtuel commun .This device allows: -a representation of the user by an avatar in a common virtual environment.
-L'avatar d'un utilisateur est tantôt animés à partir d'une bibliothèque de comportements pré calculés, placée dans le système et tantôt guidé en fonction des gestes de l'utilisateur.-The avatar of a user is sometimes animated from a library of pre-calculated behaviors, placed in the system and sometimes guided according to the gestures of the user.
-Le dispositif s'adapte en fonction des intentions de l'utilisateur en donnant des retours visuels adaptés ; ceci pour qu'il ait conscience de son niveau de-The device adapts according to the user's intentions by giving suitable visual feedback; this so that he is aware of his level of
« virtualisation »."Virtualization".
-La sélection de mode n'est pas binaire ; c'est à dire que •* le dispositif permet de combiner un comportement sémiotique et ergotique (ex : regarder quelqu'un en manipulant un objet) .-The mode selection is not binary; that is to say that • * the device makes it possible to combine semiotic and ergotic behavior (eg looking at someone while handling an object).
On va décrire ci dessous quelques exemples de périphériques utilisés pour assurer les fonctions intentionnelles. La figure 4 illustre ces exemples de périphériques. On peut se reporter également au schéma de la figure 3 :We will describe below some examples of peripherals used to perform the intentional functions. Figure 4 illustrates these examples of devices. We can also refer to the diagram in Figure 3:
Sémiotigue a dre s s é ; on envisage deux cas possibles :Semiotigue a dre s s é; we consider two possible cases:
(1) L'utilisateur fait des gestes ergotiques pour assurer la fonction semiotique adressée de l'avatar. On peut par exemple utiliser les périphériques suivants : - Un écran tactile : permet - à l'utilisateur de désigner,(1) The user makes ergotic gestures to ensure the addressed semiotic function of the avatar. We can for example use the following peripherals: - A touch screen: allows - the user to designate,
- Périphérique d'adressage : des périphériques spécifiques (souris, SpaceMouse™) permettent d'adresser un comportement,- Addressing device: specific devices (mouse, SpaceMouse ™) are used to address a behavior,
Périphérique de pointage-manipulation et de navigation : on peut exploiter ces périphériques en-, excluant leurs fonctions ergotiques et épistémique (ex : en utilisant un bouton particulier) .Pointing-manipulation and navigation device: these devices can be used in, excluding their ergotic and epistemic functions (eg by using a particular button).
(2) L'utilisateur fait des gestes sémiotiques pour assurer la fonction semiotique adressée .de l'avatar.(2) The user makes semiotic gestures to ensure the addressed semiotic function of the avatar.
C'est-à-dire que l'utilisateur exploite les mouvements de la tête et des mains en excluant leur fonction semiotique non-adressée (ex : en utilisant une zone d'influence de la tête ou des mains [7]). On remarque que dans ce cas il n'y a pas nécessité d'avoir un périphérique d'adressage comme illustré sur la figure 3.That is to say, the user exploits the movements of the head and hands by excluding their unaddressed semiotic function (eg by using an area of influence of the head or hands [7]). Note that in this case there is no need to have an addressing device as illustrated in FIG. 3.
Sémiotigue non -a d essé - Un microphone : son utilisation permet de déterminer les visèmes à reproduire dans l'animation de l'avatar lorsque l'utilisateur parle .Semiotigue non -a d essé - A microphone: its use makes it possible to determine the visemes to be reproduced in the animation of the avatar when the user speaks.
Une ou plusieurs caméra(s) : leur utilisation permet de capter la position et l'orientation du corps, de la tête et des mains de l'utilisateur dans l'espace.One or more camera (s): their use makes it possible to capture the position and orientation of the user's body, head and hands in space.
Er go ti que -Epi s témi queEr go ti que -Epi s testi que
- On utilise ici les périphériques spécifiques pour toute action dans l'environnement (ex : souris et SpaceMouse ™ pour la conception de véhicule automobile ; phantom ™ (marque déposée) pour une activité de sculpture 3D ; etc.) Le module de détection d' intention et de détermination du mode est illustré par les étapes détaillées de la figure 5. Ce module fonctionne pour chaque unité minimale d'intention ; à savoir : les mains, le corps et la tête. Bien évidemment, les comportements ergotiques et épistémiques de la tête et du corps sont limités. • On n'a pas ici décrit toutes les façons de déterminer l'intention de l'utilisateur, étant donné que les périphériques utilisés ne sont précisés qu'en terme de catégorie (périphériques de capture de posture, de pointage, de manipulation et de navigation, etc . ) .- Specific peripherals are used here for any action in the environment (eg mouse and SpaceMouse ™ for the design of a motor vehicle; phantom ™ (registered trademark) for a 3D sculpture activity; etc.) The detection module intention and mode determination is illustrated by the detailed steps in Figure 5. This module works for each minimum unit of intention; namely: hands, body and head. Obviously, the ergotic and epistemic behaviors of the head and the body are limited. • We have not described here all the ways of determining the intention of the user, since the peripherals used are only specified in terms of category (devices for capturing posture, pointing, manipulation and navigation, etc.).
• Néanmoins il -'existe des combinaisons d'utilisation des dispositifs d'interaction qui ne présentent pas d'ambiguïté sur le mode dans /lequel l'-ut lisat eur - souhaite -mettre .. le système .• Nevertheless it -'existe combinations of use of interaction devices that do not have ambiguity about the mode / which ut LisaT eur - -set .. wish the system.
Exemples :Examples:
Si le dispositif de pointage est utilisé , alors le système est en mode ergot ique-épistémique pour cette main.If the pointing device is used, then the system is in ergot ic-epistemic mode for this hand.
Si le dispositif ne détecte pas la présence de l'utilisateur, alors le système est « hors activité ». - Etc.If the device does not detect the presence of the user, then the system is "inactive". - Etc.
Le passage d'un mode à l'autre ce fait de façon explicite . Il n'y a pas d'analyse sémantique de haut niveau de la part de la machine . Si toute 'fois il y avait ambiguïté sur l'intention, le module de retour visuel permet à 1 ' utilisateur de réguler la situation en agissant sur un périphérique .Switching from one mode to another does this explicitly. There is no high level semantic analysis on the part of the machine. If there was any ambiguity on the intention, the visual feedback module allows the user to regulate the situation by acting on a device.
Lors de l'affichage et du rendu, l'utilisation d'un avatar pour la représentation de l'utilisateur permet de réaliser des interpolations entre les différentes postures. Le dispositif peut donc effectuer un passage fluide d'un mode à l'autre dans le rendu. Afin d'illustrer l'intérêt du procédé, on va décrire une activité collaborative réelle et la manière dont elle serait réalisée à distance en utilisa t ce procédé. Dans cette description, on va proposer une réalisation technique du concept, ainsi que des métaphores visuelles adaptées qui ont nécessité .-des choix arbitraires. On considérera que ces choix à but démonstratif ne sont pas limitatifs.When viewing and rendering, using an avatar to represent the user allows perform interpolations between the different postures. The device can therefore make a smooth transition from one mode to another in the rendering. In order to illustrate the interest of the process, we will describe a real collaborative activity and how it would be carried out remotely using this process. In this description, we will propose a technical realization of the concept, as well as adapted visual metaphors which required .-Arbitrary choices. We will consider that these choices for demonstrative purpose are not limiting.
Description d'une activité réelle : « Le jeu de carte »Description of a real activity: "The card game"
Dans une scène réelle schématisée sur la figure 6, quatre personnes jouent aux cartes. Pendant cette activité collaborative, ils vont communiquer de façon verbale et non-verbale, et ils vont manipuler des objets communsIn a real scene shown in Figure 6, four people play cards. During this collaborative activity, they will communicate verbally and non-verbally, and they will manipulate common objects
(cartes, feuille et crayon pour noter les points) . L'exemple du jeu de carte est très pertinent pour démontrer l'intérêt du procédé, parce que dans les situations réelles de jeu, les joueurs utilisent beaucoup la communication non-verbale, notamment lors de l'établissement de coalitions pendant le déroulement du jeu. Et c'est notamment sur ce point que le procédé à un intérêt par rapport aux autres outils de médiatisation classiques. Voici une suite de comportements de joueurs relevés durant une partie de carte :(cards, sheet and pencil to note the points). The example of the card game is very relevant to demonstrate the interest of the process, because in real game situations, the players use non-verbal communication a lot, especially when building coalitions during the game. And it is in particular on this point that the process has an interest compared to the other traditional mediatization tools. Here is a series of player behaviors noted during a card game:
I. Échanges verbaux pour savoir qui va distribuer les cartes ; 2. Le joueur 1 lève la main pour dire qu'il va le faire et s'empare du jeu de carte ;I. Verbal exchanges to find out who will distribute the cards; 2. Player 1 raises his hand to say that he is going to do so and takes over the card game;
3. Le joueur 1 .-regarde le joueur 3, qui connaît bien le jeu, pour lui demander combien de cartes il faut distribuer ;3. Player 1.-Looks at player 3, who knows the game well, to ask him how many cards to distribute;
4..: Le joueur --3- répond au joueur 1 ;4 ..: Player --3- responds to player 1;
5. Le joueur 1 distribue les cartes ;5. Player 1 deals the cards;
6. Le joueur 1 désigne le joueur 2 du doigt en le regardant et lui dit « c'est à toi de commencer... » ;6. Player 1 points to player 2 while looking at him and tells him "it's your turn to start ...";
7. Le joueur 2 pose une carte et regarde le joueur 3 pour lui signifier que c'est à lui de poser la suivante ;7. Player 2 places a card and looks at player 3 to indicate that it is up to him to place the next one;
8. Le joueur 3 hésite ; il fronce les sourcils et regarde son jeu pour montrer qu'il réfléchit ;8. Player 3 hesitates; he frowns and watches his play to show that he is thinking;
9. Le joueur 3 pose une carte en faisant une réflexion à tout le monde, sur la carte qu'il vient de jouer ; 10. Le joueur 4 pose une carte ;9. Player 3 places a card, making a reflection to everyone, on the card he has just played; 10. Player 4 places a card;
II. Le joueur 3 désigne successivement le joueur 4 et le jeu en disant qu'il « n'a pas le droit de jouer cette carte... » ;II. Player 3 successively designates player 4 and the game by saying that he "does not have the right to play this card ...";
12. Le joueur 4 reprend sa carte et rejoue ; 13. Le joueur 1 regarde son partenaire le joueur 3 d'un regard insistant et en tapant sur la table pour lui faire comprendre qu'il a mal joué précédemment ; puis prend une carte dans la pioche en grimaçant ;12. Player 4 takes his card and plays again; 13. Player 1 looks at his partner player 3 with an insistent look and tapping on the table to make him understand that he played badly before; then takes a card from the deck, grimacing;
14. La partie suit son cours [ ... ] ;14. The game is on its way [...];
15. Le joueur 2 pause la dernière carte et regard son partenaire le joueur 4, en souriant pour lui montrer sa satisfaction ; 16. Le joueur 1 prend le crayon et la feuille et compte les, points ;15. Player 2 pauses the last card and looks at his partner player 4, smiling to show him his satisfaction; 16. Player 1 takes the pencil and the sheet and counts the, points;
17. Les autres joueurs se penchent sur la feuille pour voir le total des points ;17. The other players lean over the sheet to see the total points;
18. Les joueurs discutent entre eux de la partie ;18. The players discuss the game with each other;
19. Le joueur 2 ramasse les cartes puis les distribue pour une nouvelle partie.19. Player 2 collects the cards and then distributes them for a new game.
Description de cette même activité à distance en utilisant le procédé de l'invention.Description of this same activity remotely using the method of the invention.
On imagine que les mêmes joueurs doivent maintenant participer à la même partie de cartes à distance, . en utilisant le procédé. Chacun possède la configuration matérielle illustré par la figure 7, et chacun a une vue personnalisée de la scène, c'est-à-dire la table de jeu (avec les cartes, un papier pour noter les points et un crayon) et les autres joueurs représentés par des. avatars. On va décrire dans ce qui suit la manière dont les moyens techniques sont exploités pour analyser les comportements de l'utilisateur et pour animer les avatars à distance. Comportements utilisateur / utilisation de capteurs :We imagine that the same players must now participate in the same game of distance cards,. using the process. Each has the hardware configuration illustrated in Figure 7, and each has a personalized view of the scene, i.e. the game table (with cards, a paper to note the points and a pencil) and the others players represented by. avatars. We will describe in the following how the technical means are used to analyze user behavior and to animate avatars from a distance. User behavior / use of sensors:
Les interactions de type ergotiques (i.e. action sur les objets de l'environnement virtuel) se font de la manière suivante : - Utilisation du périphérique de pointage pour contrôler le pointeur- 3D de façon classique.The interactions of the ergotic type (i.e. action on the objects of the virtual environment) are done in the following way: - Use of the pointing device to control the pointer - 3D in a classic way.
Utilisation du périphérique de manipulation et de navigation (Space Mouse) pour agir sur un objet sélectionné.Use of the manipulation and navigation device (Space Mouse) to act on a selected object.
Il y a plusieurs approches connues pour réaliser les comportements sémiotiques adressés, mais on ne va décrire ici que la méthode que l'on appelle « semiotique instrumentée ». Il y a une autre technique qui est basée sur le mouvement naturel des mains et de la tête.There are several known approaches for achieving addressed semiotic behaviors, but we will only describe here the method that we call "instrumented semiotics". There is another technique which is based on the natural movement of the hands and head.
La technique semiotique adressée instrumentée permet de contrôler le regard de son propre avatar et les gestes de désignation d'une main :The instrumented semiotic addressed technique makes it possible to control the gaze of one's own avatar and the gestures of designation of a hand:
On utilise un périphérique de pointage en cliquant sur un bouton particulier pour « incarner » la main virtuelle de son avatar afin de désigner quelque chose. Deux retours visuels permettent de savoir que l'on réalise alors l'intention de désignation et de la contrôler ; - il s'agit d'une métaphore de sa main virtuelle et d'une sur-brillance de l'objet « désigné » par un rayon.You use a pointing device by clicking on a particular button to "embody" the virtual hand of your avatar in order to designate something. Two visual returns make it possible to know that one then realizes the intention of designation and to control it; - it is a metaphor of his virtual hand and a highlight of the object "designated" by a ray.
On utilise un périphérique de manipulation et de navigation (SpaceMouse™ en cliquant sur un bouton particulier pour contrôler le regard de son avatar. De la même manière que po-ur -.le .geste, de. desi.gnati.on_ deux retours visuels apparaissent. Il s'agit d'une métaphore de ses yeux virtuels et d'une sur- brillance de l'objet « regardé ». On remarque ici que le mode semiotique adressé est détecté par l'appui sur un bouton particulier de chaque périphérique.We use a manipulation and navigation device (SpaceMouse ™ by clicking on a particular button to control the gaze of his avatar. In the same way as po-ur -.le .geste, de. Desi.gnati.on_ two visual returns It is a metaphor of his virtual eyes and a highlight of the object "looked at". We notice here that the semiotic mode addressed is detected by pressing a particular button on each device .
Les gestes sémiotiques non-adressés sont détectés : - Pour les mains dès lors que les périphériques ne sont pas actionnés alors que des mouvements significatifs sont captés par le module de capture de comportement.Unaddressed semiotic gestures are detected: - For the hands when the peripherals are not activated while significant movements are captured by the behavior capture module.
Pour la tête dès lors que des mouvements significatifs sont captés par le module de capture de mouvement.For the head as soon as significant movements are captured by the motion capture module.
Pour le corps dès lors que des mouvements significatifs sont captés par le module de capture de mouvement. - Pour les expressions faciales dès lors que des expressions significatives sont captées par le module de capture d'expressions faciales .For the body as soon as significant movements are captured by the motion capture module. - For facial expressions when significant expressions are captured by the facial expression capture module.
On remarque que l'on peut combiner plusieurs comportements simultanément. Par exemple : une désignation de la main, tout en regardant quelque chose ou quelqu'un et en bougeant la tête et .en exprimant une mimique faciale particulière. Comportement des avatars / mode d' animation . :We note that we can combine several behaviors simultaneously. For example: a hand designation, while looking at something or someone and moving your head and expressing a particular facial expression. Behavior of avatars / animation mode. :
Étant donné que le mode de comportement de chaque utilisateur est géré au niveau du terminal, la posture exacte de l'avatar est calculée au niveau de ce terminal. Ceci à l'exception de la direction des gestes et des regards adressés, puisque ceux-ci dépendent de la position de l'avatar à distance et de la disposition de la scène. À distance, les informations reçues sur les avatars sont de deux typesSince the behavior of each user is managed at the terminal level, the exact posture of the avatar is calculated at this terminal. This with the exception of the direction of gestures and directed looks, since these depend on the position of the avatar from a distance and the layout of the scene. From a distance, the information received on avatars is of two types
- Un vecteur d'état c'est à dire les postures instantanées que doivent prendre les avatars à chaque instant. - Des informations d'adressage sur les objets regardés ou désignés. Plus précisément une information pour les yeux et une autre pour chaque main.- A state vector, that is to say the instantaneous postures that avatars must take at each instant. - Addressing information on the objects viewed or designated. More precisely, information for the eyes and another for each hand.
C'est donc à distance, en fonction de l'arrangement de la scène et la position de l'avatar, que l'on exploite l'information d'adressage pour animer les yeux et les mains de l' avatar .So it's from a distance, depending on the scene arrangement and the position of the avatar, which uses the addressing information to animate the eyes and hands of the avatar.
On va décrire maintenant dans le tableau 1 qui suit, les comportements qu'un utilisateur aura derrière son terminal, s'il veut restituer au, mieux la suite de comportements décrite précédemment à partir d'une situation réelle (notamment sur les comportements non verbaux). We will now describe in table 1 which follows, the behaviors that a user will have behind his terminal, if he wants to restore to the best the sequence of behaviors described above from a real situation (especially on non-verbal behaviors ).
Figure imgf000026_0001
1 désigne périphérique d'action l'intention.de passer regarde et désigne de Ja main , en cliquant sur le dans un .mode/,. , . l'avatar 2 dans le joueur 2 ' , bouton permettant semiô'fique.Vdressee et ,, toutes les
Figure imgf000026_0001
1 designates an action device, the intention to pass looks at and designates the hand by clicking on it in one . fashion/,. ,. Avatar 2 in the player 2 'button to semio' fique.Vdressee ,, and all
3 --- ^ 1 d'activer le contrôle fait^ apparaître la; ^ interfaces ; et3 --- ^ 1 activating the control brings up ^ ; ^ interfaces; and
-•X de son geste adressé. me t aphό rë" *d e 51 ef ma i n -i' dans l'interface 2- • X of his gesture addressed. me t aphό rë "* of 5 1 ef ma in -i 'in interface 2
'. . - virtuelle afir dëV.; - regarde et désigne ' . . - virtual afir dëV .; - look and point
';"';" - !J " - - - donner à -l'utilisateur - l'utilisateur (qui l f*^ , -. le moyenne 'contrôler est le joueur 2). ' ; " ';" - J "- - - give -l'utilisateur - the user (who lf * ^ -. The average 'control is the player 2).
'/ '" son avatar.- Α - ' /'"his avatar.- Α -
1, etc. ~1, etc. ~
Tableau 1 : Comportement de l'avatar par rapport au comportement de l'utilisateur Table 1: Behavior of the avatar in relation to user behavior

Claims

REVENDICATIONS
1. Procédé d'animation d'avatars correspondant à des personnes pour assurer la communication dans un environnement virtuel non immersif entre lesdites personnes au moyen d'un terminal muni d'un écran d'affichage et de périphériques, le' terminal comprenant des moyens de commande d'animation et d'affichage d'images correspondant à l'environnement virtuel av-.ec -."des avatars, 'à . partir d- informations reçues de ses périphériques et d'un réseau de communication auquel il est relié , caractérisé en ce- qu' il comprend : - la mise en œuvre de moyens pour assurer des fonctions intentionnelles (action perception et expression) d'une personne et la fourniture d'informations correspondantes, puis une analyse du comportement de la personne comprenant un cycle consistant à effectuer les opérations suivantes N fois : scrutation de l'arrivée d'informations sur les fonctions intentionnelles,1. Method for animating avatars corresponding to people to ensure communication in a non-immersive virtual environment between said people by means of a terminal provided with a display screen and peripherals, the terminal comprising means for controlling animation and displaying images corresponding to the virtual environment av-.ec -. "avatars, 'from . information received from its peripherals and from a communication network to which it is connected, characterized in that it comprises: - the implementation of means for ensuring intentional functions (action perception and expression) of a person and the supply of corresponding information, then an analysis of the behavior of the person comprising a cycle consisting of performing the following operations N times: scanning for the arrival of information on the intentional functions,
- détection d' intentions à partir des informations reçues, - détermination du mode d' animation de l'avatar dans l'environnement virtuel correspondant à la personne selon l'intention détectée pour cette personne; et enfin, représentation dudit environnement virtuel et des avatars, à chaque cycle.- detection of intentions from the information received, - determination of the mode of animation of the avatar in the virtual environment corresponding to the person according to the intention detected for this person; and finally, representation of said virtual environment and the avatars, at each cycle.
2. Procédé d'animation d'avatars selon la revendication 1, caractérisé en ce que la mise en œuvre de fonctions intentionnelles comprend la capture du comportement de la personne utilisatrice et la capture d'interactions pour une action dans l'environnement.2. A method of animating avatars according to claim 1, characterized in that the implementation of intentional functions comprises capturing the behavior of the user and capturing interactions for an action in the environment.
-3. Procédé d'animation d'avatars selon Ta ' revendication 2, caractérisé en ce que la capture du comportement comprend la capture de comportement semiotique adressé et/ou semiotique non-adressé, ergotique épistémique.-3. Method of animating avatars according to Ta ' claim 2, characterized in that the capture of the behavior comprises the capture of semiotic behavior addressed and / or semiotic unaddressed, epistemic ergotics.
4. Procédé d'animation d'avatars selon - l'une quelconque des revendications précédentes, caractérisé en ce que la détection d'intention comprend par unité d'expression la détermination du type d'intention prédéfini, à savoir :4. A method of animating avatars according to any one of the preceding claims, characterized in that the intention detection comprises, by unit of expression, the determination of the predefined type of intention, namely:
- semiotique non-adressé, - semiotique adressé,- unaddressed semiotics, - addressed semiotics,
- ergotique ou épistémique.- ergotic or epistemic.
5. Procédé d'animation d'avatars selon l'une quelconque des revendications précédentes, caractérisé en ce que le mode d'animation de l'avatar correspondant à la personne correspond à :5. A method of animating avatars according to any one of the preceding claims, characterized in that the mode animation of the avatar corresponding to the person corresponds to:
- une animation isomorphique de l'avatar par rapport au comportement de la personne dans le cas où le type d' intention est semiotique non adressée ,- an isomorphic animation of the avatar in relation to the behavior of the person in the case where the type of intention is semiotic unaddressed,
- une animation adressée de l'avatar (regard, désignation de la .-main) dans le cas où le type d'intention est semiotique adressée. - une génération d'une posture et d'un comportement. symbolisant . l'action... de . -. la personne dans le cas où le type d'intention est ergotique ou épistémique,- an animation directed by the avatar (gaze, designation of the hand) in the case where the type of intention is semiotic addressed. - a generation of posture and behavior. symbolizing. action ... of. -. the person in case the type of intention is ergotic or epistemic,
- Une génération d'une posture et d'un comportement symbolique dans le cas où le type d'intention n'est pas prédéfini.- A generation of a posture and a symbolic behavior in the case where the type of intention is not predefined.
6. Procédé d'animation d'avatars selon l'une quelconque des- revendications précédentes, caractérisé en ce qu' il comprend la mise en œuvre d'un retour visuel sur le terminal de l'utilisateur permettant de réguler le mode d'animation.6. A method of animating avatars according to any one of the preceding claims, characterized in that it comprises the implementation of a visual feedback on the user's terminal making it possible to regulate the mode of animation. .
7. Dispositif d'animation d'avatars correspondant à des personnes pour assurer la communication dans un environnement virtuel non immersif entre les personnes, comprenant un terminal (T) muni d'un écran d'affichage (E) et de périphériques d'entrée, le terminal comprenant des moyens d'affichage (UC) de l'environnement virtuel et d'avatars à partir d'informations reçues de ses périphériques et d'un réseau de télécommunication, caractérisé en ce que le terminal comporte : - des moyens (A, B) pour mettre en œuvre des fonctions intentionnelles d'un utilisateur du dispositif et fournir des informations correspondantes,7. Avatar animation device corresponding to people to ensure communication in a non-immersive virtual environment between people, comprising a terminal (T) provided with a display screen (E) and input devices , the terminal comprising display means (UC) of the virtual environment and avatars from information received from its peripherals and from a telecommunications network, characterized in that the terminal comprises: - means (A, B) for implementing intentional functions of a user of the device and provide corresponding information,
- des moyens (L) pour détecter les intentions à partir des informations reçues et pour- means (L) for detecting intentions from the information received and for
..déterminer le- mode d'.animation,..determine the- animation mode,
- des' moyens (UC) pour animer- l'avatar correspondant selon l'intention détectée par les moyens de détection.- means (UC) for animating the corresponding avatar according to the intention detected by the detection means.
8. Dispositif d'animation d'avatar selon la revendication 7, caractérisé en ce que les moyens pour mettre en œuvre les fonctions intentionnelles comportent des capteurs de comportements (A) et des capteurs pour les actions dans l'environnement (B).8. Avatar animation device according to claim 7, characterized in that the means for implementing the intentional functions include behavior sensors (A) and sensors for actions in the environment (B).
9. Dispositif d'animation d'avatar, selon la revendication 8,-' caractérisé en ce que les moyens pour mettre en oeuvre les fonctions intentionnelles comportent des capteurs de comportements intentionnels adressés et/ou des capteurs de comportements intentionnels non adressés . 9. Avatar animation device according to claim 8, - ' characterized in that the means for implementing the intentional functions comprise sensors of intentional behavior addressed and / or sensors of intentional behavior unaddressed.
10. Dispositif d'animation d'avatar selon les revendications 8 ou 9, caractérisé en ce que les différents capteurs sont des périphériques d'entrée (A, B) du terminal (T) .10. Avatar animation device according to claims 8 or 9, characterized in that the various sensors are input devices (A, B) of the terminal (T).
11. Dispositif d'animation d'avatar selon l'une quelconque des revendications 8 à 10, caractérisé en ce.- que la capture du comportement est réalisée par une ou plusieurs caméras, un ou plusieurs radars, un ou plusieurs microphones.11. Avatar animation device according to any one of claims 8 to 10, characterized in that the behavior is captured by one or more cameras, one or more radars, one or more microphones.
12. Dispositif d'animation d'avatar selon l'une quelconque des revendications 7 à 11, caractérisé en ce que la . détection d'une action de l'environnement est réalisée par des périphériques de pointage, de manipulation/navigation.12. Avatar animation device according to any one of claims 7 to 11, characterized in that the. detection of an environmental action is carried out by pointing, manipulation / navigation devices.
13. Dispositif d'animation d'avatar selon l'une quelconque des revendications 7 à 12, caractérisé en ce que les moyens pour détecter les intentions à partir des informations reçues comportent •' un module logiciel de détection d' intention et de détermination du mode d'animation.13. Avatar animation device according to any one of claims 7 to 12, characterized in that the means for detecting the intentions from the information received comprise • ' a software module for detecting the intention and determining the animation mode.
14. Dispositif d'animation d'avatar selon la revendication 13, caractérisé en ce que le module logiciel est apte à détecter la non- activité ou un comportement de l'utilisateur qui n'est pas en rapport avec l'activité. 14. Avatar animation device according to claim 13, characterized in that the software module is capable of detecting the non user activity or behavior unrelated to the activity.
PCT/FR2002/000236 2001-01-22 2002-01-21 Avatar animating method and device for communicating in a non-immersive collaborative virtual environment WO2002058011A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP02700348A EP1358632A1 (en) 2001-01-22 2002-01-21 Avatar animating method and device for communicating in a non-immersive collaborative virtual environment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR01/00825 2001-01-22
FR0100825A FR2819920B1 (en) 2001-01-22 2001-01-22 METHOD AND DEVICE FOR ANIMATING AVATAR TO PROVIDE COMMUNICATION IN A COLLABORATIVE NON-IMMERSIVE VIRTUAL ENVIRONMENT

Publications (1)

Publication Number Publication Date
WO2002058011A1 true WO2002058011A1 (en) 2002-07-25

Family

ID=8859094

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2002/000236 WO2002058011A1 (en) 2001-01-22 2002-01-21 Avatar animating method and device for communicating in a non-immersive collaborative virtual environment

Country Status (3)

Country Link
EP (1) EP1358632A1 (en)
FR (1) FR2819920B1 (en)
WO (1) WO2002058011A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0696018A2 (en) * 1994-08-03 1996-02-07 Nippon Telegraph And Telephone Corporation Shared virtual space display method and apparatus using said method
EP0753836A2 (en) * 1995-07-12 1997-01-15 Sony Corporation A three-dimensional virtual reality space sharing method and system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0696018A2 (en) * 1994-08-03 1996-02-07 Nippon Telegraph And Telephone Corporation Shared virtual space display method and apparatus using said method
EP0753836A2 (en) * 1995-07-12 1997-01-15 Sony Corporation A three-dimensional virtual reality space sharing method and system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PINA A ET AL: "Computer animation: from avatars to unrestricted autonomous actors (A survey on replication and modelling mechanisms)", COMPUTERS AND GRAPHICS, PERGAMON PRESS LTD. OXFORD, GB, vol. 24, no. 2, April 2000 (2000-04-01), pages 297 - 311, XP004236377, ISSN: 0097-8493 *
PRAKASH E C: "A HUMAN TOUCH FOR INTERNET TRAINING: THE VIRTUAL PROFESSOR", PROCEEDINGS OF IEEE TENCON'99. IEEE REGION 10 CONFERENCE. MULTIMEDIA TECHNOLOGY FOR ASIA-PACIFIC INFORMATION INFRASTRUCTURE. THE SILLA CHEJU, CHEJU ISLAND, KOREA, SEPT. 15 - 17, 1999, IEEE REGION 10 ANNUAL CONFERENCE, NEW YORK, NY: IEEE, US, vol. 2 OF 2, 15 September 1999 (1999-09-15), pages 938 - 941, XP000956534, ISBN: 0-7803-5740-X *
See also references of EP1358632A1 *

Also Published As

Publication number Publication date
EP1358632A1 (en) 2003-11-05
FR2819920A1 (en) 2002-07-26
FR2819920B1 (en) 2003-04-04

Similar Documents

Publication Publication Date Title
CN108885533B (en) Combining virtual reality and augmented reality
Von Hardenberg et al. Bare-hand human-computer interaction
Cassell et al. Fully embodied conversational avatars: Making communicative behaviors autonomous
US8044989B2 (en) Mute function for video applications
CN101874404B (en) Enhanced interface for voice and video communications
CN110134484A (en) Display methods, device, terminal and the storage medium of message icon
Shibly et al. Design and development of hand gesture based virtual mouse
CN107247510A (en) A kind of social contact method based on augmented reality, terminal, server and system
CN108616712B (en) Camera-based interface operation method, device, equipment and storage medium
US20140068526A1 (en) Method and apparatus for user interaction
FR2960986A1 (en) METHOD FOR SELECTING AN OBJECT IN A VIRTUAL ENVIRONMENT
CN108108012A (en) Information interacting method and device
Zobl et al. A real-time system for hand gesture controlled operation of in-car devices
CN111880664A (en) AR interaction method, electronic device and readable storage medium
CN107622300B (en) Cognitive decision method and system of multi-modal virtual robot
Zobl et al. Gesture components for natural interaction with in-car devices
Pandzic et al. Towards natural communication in networked collaborative virtual environments
Ronzhin et al. Multimodal interaction with intelligent meeting room facilities from inside and outside
Albertini et al. Communicating user's focus of attention by image processing as input for a mobile museum guide
WO2002058011A1 (en) Avatar animating method and device for communicating in a non-immersive collaborative virtual environment
Barrientos et al. Cursive: Controlling expressive avatar gesture using pen gesture
CN114979789A (en) Video display method and device and readable storage medium
Hu et al. ThingShare: Ad-Hoc Digital Copies of Physical Objects for Sharing Things in Video Meetings
Leung et al. Creating a multiuser 3-D virtual environment
JP2015075907A (en) Emotion information display control device, method of the same, and program

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SI SK SL TJ TM TN TR TT TZ UA UG US UZ VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
REEP Request for entry into the european phase

Ref document number: 2002700348

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2002700348

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2002700348

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Ref document number: JP