PROCEDE ET DISPOSITIF D'ANIMATION D'AVATAR POUR ASSURER LA COMMUNICATION DANS UN ENVIRONNEMENT VIRTUEL COLLABORATIF NON- METHOD AND DEVICE FOR ANIMATING AVATAR TO PROVIDE COMMUNICATION IN A NON-COLLABORATIVE VIRTUAL ENVIRONMENT
IMMERSIFIMMERSIVE
L'invention concerne un procédé d'animation d'avatar pour assurer la communication dans un environnement virtuel collaboratif . non immersif. On désigne par Environment Virtual Collaboratif (ECV) un environnement virtuel qui permet à plusieurs personnes de collaborer à distance, le matériel utilisé étant relié par réseau (on parle aussi d'environnement distribué) . Dans de nombreux EVC, des avatars sont introduits pour assurer la représentation plus ou moins réaliste- ou ressemblante de chaque personne. A titre d'exemple, on peut se reporter au projet décrit dans la référence [3] ci-après, pour illustrer ce que l'on entend par ECV.The invention relates to an avatar animation method for ensuring communication in a collaborative virtual environment. not immersive. The term Virtual Collaborative Environment (ECV) is used to designate a virtual environment that allows several people to collaborate remotely, the equipment used being linked by network (we also speak of a distributed environment). In many EVCs, avatars are introduced to ensure the more or less realistic- or similar representation of each person. As an example, we can refer to the project described in reference [3] below, to illustrate what is meant by ECV.
Ces techniques .• soulèvent le problème de la conception d'une interface homme machine (IHM) . En effet, chaque utilisateur doit pouvoir interagir avec l'environnement virtuel mais également s'identifier à son « corps virtuel » instancié par un avatar, pour véhiculer les informations non-verbalesThese techniques. • raise the problem of designing a man-machine interface (HMI). Indeed, each user must be able to interact with the virtual environment but also identify with his "virtual body" instantiated by an avatar, to convey non-verbal information
(gestes, mimiques) relatives à la
communication et . l'action entre les utilisateurs .(gestures, facial expressions) relating to communication and. action between users.
L' invention propose un nouveau concept d'interface homme machine permettant d'interagir avec l'environnement virtuel et communiquer à . travers son propre avatar (ou clone), dans un contexte « bureautique ».The invention proposes a new concept of human-machine interface making it possible to interact with the virtual environment and communicate to. through his own avatar (or clone), in an "office" context.
Dans toute la suite on parle d'avatar. On peut également trouver le terme de clone dans la littérature pour le même concept.In the following we talk about an avatar. The term clone can also be found in the literature for the same concept.
•.Nous , ..entendons:. par contexte « -bureautique », un terminal qui ne contraint pas l'utilisateur à utiliser un système de périphériques intrusif pour s'immerger dans l'environnement virtuel. En d'autres termes, l'utilisateur doit avoir pleine possession de ses différents sens pour agir avec l'environnement réel (e.g. décrocher son téléphone, se déplacer, etc.) . Une caractéristique des contextes bureautiques est qu'ils utilisent . des périphériques adaptés (e.g. souris pour Windows™, périphériques 3D pour la CAO dans le secteur automobile) -'dont on ne suppose pas le type ou l'utilisation.•.We hear:. by context “-bureautique”, a terminal which does not force the user to use an intrusive system of peripherals to immerse themselves in the virtual environment. In other words, the user must have full possession of his different senses to act with the real environment (e.g. pick up his phone, move around, etc.). A characteristic of office contexts is that they use. suitable peripherals (e.g. mice for Windows ™, 3D peripherals for CAD in the automotive sector) -which type or use is not assumed.
État actuel de la techniqueCurrent state of the art
Actuellement on trouve deux grandes catégories de systèmes qui permettent de médiatiser la communication à travers un avatar dans les environnements collaboratifs.
Soit c'est l'utilisateur qui est à l'origine du comportement de l'avatar, auquel cas on parlera d'animation intentionnelle des avatars ; Soit le système interprète l'activité collaborative pour animer l'avatar, on parlera alors d'animation interprétée.Currently there are two main categories of systems that mediate communication through an avatar in collaborative environments. Either it is the user who is at the origin of the behavior of the avatar, in which case we will speak of intentional animation of the avatars; Either the system interprets the collaborative activity to animate the avatar, we will then speak of interpreted animation.
* L'animation intentionnelle des avatars* Intentional animation of avatars
- On trouve deux approches pour animer de façon intentionnelle un avatar :- There are two approaches to intentionally animate an avatar:
• Les-. systèmes de type « télévirtualité » [1] qui grâce par exemple à une technique vidéo ou une capture magnétique, permettent de restituer le comportement de l'utilisateur face à son terminal à travers son avatar (e.g. expressions faciales, gestes de communication, etc.).. On peut capturer des expressions faciales et les reproduire à travers l'avatar. La technique permet également aujourd'hui de détecter [6] et reproduire les gestes [4,5] (i.e. bras, corps, etc.) comme on peut le voir figure 1. • Les systèmes de type « body chat » où chaque action (interaction avec l'environnement) et chaque comportement d' avatar est activé par une interface de commande avatar [2] .
On trouve de nombreux exemples de ce type de fonctionnement dans le monde télévisuel.• The-. “televirtuality” type systems [1] which, for example using a video technique or magnetic capture, make it possible to reproduce the behavior of the user facing his terminal through his avatar (eg facial expressions, communication gestures, etc. ) .. We can capture facial expressions and reproduce them through the avatar. Today, the technique also makes it possible to detect [6] and reproduce the gestures [4,5] (ie arms, body, etc.) as we can see in Figure 1. • “Body chat” type systems where each action (interaction with the environment) and each avatar behavior is activated by an avatar command interface [2]. There are many examples of this type of operation in the television world.
* L'animation interprétée des avatars* The interpreted animation of the avatars
L' idée est ici de donner un comportement à un avatar pour signifier l'activité de chacun dans l'environnement. C'est alors le système qui gère son comportement en le choisissant dans une base de comportements pré-calculés . L'interface IHM permet à l'utilisateur d'agir dans le monde, alors que l'on peut ". vo r :à. • l'écran du terminal le- comportement de l'avatar symboliser ce qu'il fait. On pourra trouver un exemple dans la référence [ 8 ] .The idea here is to give behavior to an avatar to signify everyone's activity in the environment. It is then the system which manages its behavior by choosing it from a base of pre-calculated behaviors. The HMI interface allows the user to act in the world, while we can ". Vo r: à. • the terminal screen the behavior of the avatar symbolize what it does. can find an example in reference [8].
On pourra se reporter aux références bibliographiques suivantes :Reference may be made to the following bibliographical references:
1. Équipe de Télévirtualité de l'INA, http : //www. ina . fr/TV/1. INA's Televirtuality Team, http: // www. ina. en / TV /
2. Guye-Vuillème , A., Capin, T., Pandzic, I., Magnenat Thalmann, N.,2. Guye-Vuillème, A., Capin, T., Pandzic, I., Magnenat Thalmann, N.,
Thalmann, D., Nonverbal Communication Interface for . Collaborative Virtual Environnements, Proc. CVE 98 , 1998.Thalmann, D., Nonverbal Communication Interface for. Collaborative Virtual Environments, Proc. CVE 98, 1998.
3. Plenacoste, P., Chabrier, N., Dumas, C, Saugis, G., Chaillou, C.;3. Plenacoste, P., Chabrier, N., Dumas, C, Saugis, G., Chaillou, C .;
Interfaces 3D : Interaction et Evaluation IHM 97.
4. Tolani, D., Badler, N. I., Rea- Time Inverse Kinematics of the Human Arm, Présence, 1996, Vol 5(4), pp. 393-401.3D Interfaces: Interaction and Evaluation HMI 97. 4. Tolani, D., Badler, NI, Rea-Time Inverse Kinematics of the Human Arm, Présence, 1996, Vol 5 (4), pp. 393-401.
5. W. Chin, K., Closed'-form and generalised inverse kinematic solutions for animating the human articulated structure, BSCH (Computer Science) of Curtin University of Technology, 1996-:5. W. Chin, K., Closed'-form and generalized inverse kinematic solutions for animating the human articulated structure, BSCH (Computer Science) of Curtin University of Technology, 1996-:
6. Marcel, S., Bernier, 0., Collobert, D., Approche EM pour la construction de- régions de teinte homogènes : application au suivi du visage et des mains d'une personne, Coresa 2000, octobre 2000. 7. Marcel, S., G., Bernier, 0.,6. Marcel, S., Bernier, 0., Collobert, D., EM approach for the construction of homogeneous regions of color: application to the monitoring of a person's face and hands, Coresa 2000, October 2000. 7. Marcel, S., G., Bernier, 0.,
Viallet, J.E., Collobert, D., Hand Gesture Récognition using Input-Output Hidden Markov Models, In International Conférence on Automatic Face and Gesture Récognition , march 2000, pp 456-461.Viallet, J.E., Collobert, D., Hand Gesture Récognition using Input-Output Hidden Markov Models, In International Conférence on Automatic Face and Gesture Récognition, march 2000, pp 456-461.
8. Benford, N . , Greenhalgh , C.,8. Benford, N. , Greenhalgh, C.,
Bowers, J., Snowdon, D., E., Fahlen, L.,Bowers, J., Snowdon, D., E., Fahlen, L.,
User Embodiment -"in Collaborative VirtualUser Embodiment - " in Collaborative Virtual
Environnements, Proceedings of CHI'95, 1995, pp.224-248.Environments, Proceedings of CHI'95, 1995, pp.224-248.
Inconvénients des techniques antérieuresDisadvantages of prior techniques
Les systèmes existants basés sur les principes présentés précédemment étant soit
intentionnels, soit interprétés, ne permettent pas d'exploiter simultanément les gestes sémiotiques, ergotiques et épistémiques de l'utilisateur. Ces différents comportement sont illustrés dans la référence Cadoz, C., le geste canal de communication homme/machine, techniques et sciences informatiques, 1994, vol.13, pp. 31-61.The existing systems based on the principles presented above being either intentional, or interpreted, do not allow simultaneous use of the user's semiotic, ergotic and epistemic gestures. These different behaviors are illustrated in the reference Cadoz, C., the human-machine communication channel gesture, computer science and techniques, 1994, vol.13, pp. 31-61.
En d'autres termes, ces systèmes ne permettent pas de reproduire simultanément les g.es.tes .. d' expressions (c'est-à-dire par- exemple désigner quelqu'un du bras) et les gestes d'action et de perception (c'est-à-dire par exemple manipuler un objet du monde virtuel ou changer de point de vue) de l'utilisateur, sans utiliser des technologies immersives.In other words, these systems do not make it possible to reproduce simultaneously the g.es.tes .. of expressions (that is to say, for example, designate someone with the arm) and the gestures of action and perception (that is to say, manipulating an object of the virtual world or changing point of view) of the user, without using immersive technologies.
Le problème réside dans le fait, que si le système est de type télévirtualité (comme illustré sur la figure 1) et que l'utilisateur exerce un geste ergotique (par exemple il saisit sa souris pour interagir avec le système), alors l'animation de l'avatar n'aura aucune cohérence avec les actions de l'utilisateur. Dans." le cas contraire, si cet avatar est animé tel que cela est décrit à propos de l'animation interprétée, alors l'avatar ne peut pas reproduire le comportement de l'utilisateur.
But de l'inventionThe problem lies in the fact, that if the system is of televirtuality type (as illustrated in figure 1) and that the user exerts an ergotic gesture (for example he grasps his mouse to interact with the system), then the animation of the avatar will have no consistency with the actions of the user. In. "Otherwise, if this avatar is animated as described in connection with the interpreted animation, then the avatar cannot reproduce the behavior of the user. Purpose of the invention
Le but de l'invention est d'offrir à un utilisateur un procédé et un dispositif lui permettant de communiquer en s' exprimant de façon naturelle (c'est-à-dire : verbale et non-verbale, de manière à conserver la richesse des gestes co-verbaux de l'être humain) avec d'autres personnes tout en disposant d'une possibilité d'interaction avec l'environnement virtuel commun, à travers un terminal bureautique.The object of the invention is to offer a user a method and a device allowing him to communicate by expressing himself in a natural way (that is to say: verbal and non-verbal, so as to preserve the richness co-verbal gestures of the human being) with other people while having the possibility of interaction with the common virtual environment, through an office terminal.
Le dispositif permet de proposer une représentation réaliste d'un utilisateur dans un environnement virtuel commun, dans lequel il peut interagir et communiquer de façon non- verbale sans être contraint par un système intrusif. A travers ce dispositif, on peut par exemple envisager des services de télécommerce, de téléconception, de téléenseignement, téléconférence, jeux, etc.The device makes it possible to offer a realistic representation of a user in a common virtual environment, in which he can interact and communicate non-verbally without being constrained by an intrusive system. Through this device, one can for example envisage telecommerce, teleconception, distance learning, teleconference, games, etc. services.
En situation de collaboration réelle, on considère que trois comportements sont important au vu de la communication. Il s'agit de l'action sur ' l'environnement, de la perception de celui-ci et de l'émission d'informations à destination d'autrui.In a real collaboration situation, we consider that three behaviors are important in view of communication. This is the action on 'environment, the perception of it and transmitting information to others.
On appelle respectivement ces comportements : ergotiques, épistémiques et sémiotiques. On propose selon l'invention de virtualiser ces comportements.
L' invention a plus particulièrement pour objet un procédé d'animation d'avatars correspondant à des personnes pour assurer- la communication dans un environnement virtuel non immersif entre ces personnes au moyen d'un terminal muni d'un écran d'affichage et de périphériques d'entrée ; le terminal comprenant des moyens de commande d'animation et d'affichage d'images correspondant à .1 '..environnement virtuel .avec . des- .. a.vatars., à., partir d'informations reçues de ses périphériques et d'un réseau de communication auquel il est relié, caractérisé en ce qu'il comprend : la mise en œuvre de moyens pour assurer des fonctions intentionnelles (action perception et expression) d'une personne utilisatrice et la fourniture d'informations correspondantes, puis une analyse de comportement- comprenant un cycle consistant à effectuer les opérations suivantes N fois :These behaviors are respectively called: ergotic, epistemic and semiotic. It is proposed according to the invention to virtualize these behaviors. The subject of the invention is more particularly a method of animating avatars corresponding to people to ensure communication in a non-immersive virtual environment between these people by means of a terminal provided with a display screen and input devices; the terminal comprising means for controlling animation and displaying images corresponding to .1 '. virtual environment. with. des- .. a.vatars., à., from information received from its peripherals and from a communication network to which it is connected, characterized in that it comprises: the implementation of means for performing functions intentional actions (perception and expression action) of a user and the provision of corresponding information, then a behavior analysis - including a cycle consisting of performing the following operations N times:
- scrutation de l'arrivée d'informations sur les fonctions intentionnelles,- scrutinizing the arrival of information on intentional functions,
- détection d' intentions à partir des informations reçues,- detection of intentions from the information received,
- détermination du mode d'animation de l'avatar dans l'environnement virtuel
correspondant à la personne selon l'intention détectée pour cette personne ; et enfin, représentation de l'environnement. virtuel et des avatars sur l'écran du terminal, à chaque cycle.- determination of the animation mode of the avatar in the virtual environment corresponding to the person according to the intention detected for this person; and finally, representation of the environment. virtual and avatars on the terminal screen, each cycle.
L'invention a également pour objet un dispositif d'animation d'avatars correspondant à des personnes pour assurer la communication dans... un environnement virtuel n.o.n . immersif entre les personnes, comprenant un terminal muni d'un écran d'affichage et de périphériques d'entrée, le terminal comprenant des moyens d'affichage de l'environnement virtuel et d' avatars à partir d' informations reçues de ses périphériques et d'un réseau de télécommunication, caractérisé en ce que le terminal comporte : - des moyens pour mettre en œuvre des fonctions intentionnelles d'un utilisateur dudit dispositif et fournir des informations correspondantes,The subject of the invention is also a device for animating avatars corresponding to people for ensuring communication in ... a virtual environment n.o.n. immersive between people, comprising a terminal provided with a display screen and input devices, the terminal comprising means for displaying the virtual environment and avatars from information received from its devices and of a telecommunications network, characterized in that the terminal comprises: - means for implementing intentional functions of a user of said device and providing corresponding information,
- des moyens pour -détecter les intentions à partir des informations reçues et pour déterminer le mode d'animation,- means for detecting intentions from the information received and for determining the mode of animation,
- des moyens pour animer l'avatar correspondant selon l'intention détectée par les moyens de détection.
D' autres particularités et avantages de l'invention apparaîtront clairement dans la description suivante faite à titre d'exemple non limitatif en regard des figures " annexées qui représentent : la figure 1, une image et sa représentation virtuelle avec capture de mouvement et animation ; la figure 2, les étapes du procédé selon l'invention ;- Means for animating the corresponding avatar according to the intention detected by the detection means. Other features and advantages of the invention will become apparent from the following description given by way of nonlimiting example with reference to Figures "appended, which show: Figure 1, an image and the virtual representation with motion capture and animation; Figure 2, the steps of the method according to the invention;
-' - la figuré •. 3,- - le synoptique ' du fonctionnement général ; la figure 4 le schéma d'un dispositif selon l'invention ; - - la figure 5, les détails de l'algorithme d'analyse du comportement et d' animation ; la figure 6, une illustration d'une partie de jeu de carte ; - la figure 7, une illustration de cette partie dans le cas où les joueurs sont distants et utilisent le procédé de 1 ' invention .- '- the figurative • . 3, - - the overview of the general operation; Figure 4 the diagram of a device according to the invention; - - Figure 5, the details of the behavior analysis and animation algorithm; FIG. 6, an illustration of a card game part; - Figure 7, an illustration of this part in the case where the players are distant and use the method of one invention.
Description détaillée Après une longue analyse des technologies existantes mais insatisfaisantes, les inventeurs ont développé un nouveau systèmeDetailed description After a long analysis of existing but unsatisfactory technologies, the inventors have developed a new system
(procédé et dispositif) mettant en œuvre les fonctions de communication intégrant les
comportements qui viennent d'être définis. Selon l'invention, le procédé et le dispositif permettent d'exploiter quatre types de comportements intentionnels : • Les actions ; par utilisation des périphériques d' interactions spécialisés (par exemple un système à retour d'effort) .(method and device) implementing the communication functions integrating the behaviors that have just been defined. According to the invention, the method and the device make it possible to exploit four types of intentional behavior: • Actions; by using specialized interaction devices (for example a force feedback system).
• Les comportements intentionnels non- adressés (par exemple les gestes co-verbaux, expressions faciales, etc.) ; par capture (par exemple la • vldé.o) - du - comportement réel - de 1 ' utilisateur .• Intentional unaddressed behaviors (eg co-verbal gestures, facial expressions, etc.); by capture (for example the • vldé.o) - of - real behavior - of the user.
• Les comportements intentionnels adressés (regarder quelqu'un, passer la parole, montrer quelque chose, faire un signe de bienvenue, etc.) ; par un organe matériel ou logiciel de désignation (par exemple un écran tactile ou détection logicielle de geste déictique) .• Intentional behaviors addressed (looking at someone, speaking, showing something, making a welcome sign, etc.); by a designation hardware or software body (for example a touch screen or software detection of deictic gesture).
•Les comportements sans rapport avec l'activité collaborative (par exemple décrocher son téléphone) .• Behaviors unrelated to collaborative activity (eg picking up the phone).
Pour passer d'un type de comportement à l'autre, on propose d'utiliser un système d'interprétation d'intention de l'utilisateur. On peut en effet savoir si un comportement est par exemple de type adressé, symbolique ou ergotique en exploitant le canal vidéo [7].To move from one type of behavior to another, we propose to use a system of interpretation of the user's intention. One can indeed know if a behavior is for example of addressed, symbolic or ergotic type by exploiting the video channel [7].
Dans le procédé proposé, illustré par le schéma de la figure 2, l'analyse du comportement de l'utilisateur fonctionne en
permanence : ceci correspond à la boucle N de l'algorithme de la figure 2.In the proposed method, illustrated by the diagram in Figure 2, the analysis of user behavior works by permanence: this corresponds to the N loop of the algorithm in Figure 2.
Cette analyse du comportement est interprétée et permet de définir un mode d'interaction. Le module du retour visuel illustré sur la figure 3, permet alors à l'utilisateur de savoir dans quel mode est le système, ce qui peut .• servir de régulateur s'il y a ambiguïté sur l'état de celui-ci. En effet, suivant le mode d'interaction, le .dis-positi-f. (l'interface IHM). de ,- l'utilisateur affiche des retours visuels adaptés au type d'interaction et l'avatar de l'utilisateur a un comportement conséquent. Ces opérations sont illustrées par le schéma de la figure 2 et les étapes I à VI de cette figure.This behavior analysis is interpreted and allows a mode of interaction to be defined. The visual feedback module illustrated in FIG. 3 then allows the user to know in which mode the system is, which can • serve as a regulator if there is ambiguity in the state thereof. Indeed, according to the mode of interaction, the .dis-positi-f. (the HMI interface). from, - the user displays visual feedback adapted to the type of interaction and the user's avatar behaves accordingly. These operations are illustrated by the diagram in FIG. 2 and steps I to VI of this figure.
La figure 3 représente le schéma synoptique du fonctionnement général du système proposé. Le système met en œuvre :Figure 3 shows the block diagram of the general operation of the proposed system. The system implements:
-Un environnement virtuel distribué au moyen de plusieurs terminaux T distants affichant des avatars représentant chaque utilisateur. Chaque -"utilisateur à un point de vue de l'environnement global.-A virtual environment distributed by means of several remote T terminals displaying avatars representing each user. Each - "user from a point of view of the global environment.
Chaque terminal T comporte :Each terminal T includes:
-des moyens de captures A du comportement : c'est-à-dire mouvement de la tête, du corps et des mains, de l'utilisateur derrière son terminal (ex : caméra, radar, etc . ) .
-des périphériques d'entrée d'interaction spécialisés B (ex : souris, SpaceMouse™, etc.) pour une activité collaborative quelconque (ex : conception d'une automobile) . -un module logiciel L de détection d'intention et de détermination d'animation utilisant les données provenant des périphériques d'entrée.-capture means A of behavior: that is to say movement of the head, body and hands, of the user behind his terminal (eg camera, radar, etc.). - specialized interaction input devices B (ex: mouse, SpaceMouse ™, etc.) for any collaborative activity (ex: design of an automobile). a software module L for intention detection and animation determination using the data coming from the input peripherals.
Ce dispositif permet : -une représentation de l'utilisateur par un avatar dans un environnement virtuel commun .This device allows: -a representation of the user by an avatar in a common virtual environment.
-L'avatar d'un utilisateur est tantôt animés à partir d'une bibliothèque de comportements pré calculés, placée dans le système et tantôt guidé en fonction des gestes de l'utilisateur.-The avatar of a user is sometimes animated from a library of pre-calculated behaviors, placed in the system and sometimes guided according to the gestures of the user.
-Le dispositif s'adapte en fonction des intentions de l'utilisateur en donnant des retours visuels adaptés ; ceci pour qu'il ait conscience de son niveau de-The device adapts according to the user's intentions by giving suitable visual feedback; this so that he is aware of his level of
« virtualisation »."Virtualization".
-La sélection de mode n'est pas binaire ; c'est à dire que •* le dispositif permet de combiner un comportement sémiotique et ergotique (ex : regarder quelqu'un en manipulant un objet) .-The mode selection is not binary; that is to say that • * the device makes it possible to combine semiotic and ergotic behavior (eg looking at someone while handling an object).
On va décrire ci dessous quelques exemples de périphériques utilisés pour assurer les fonctions intentionnelles. La figure 4
illustre ces exemples de périphériques. On peut se reporter également au schéma de la figure 3 :We will describe below some examples of peripherals used to perform the intentional functions. Figure 4 illustrates these examples of devices. We can also refer to the diagram in Figure 3:
Sémiotigue a dre s s é ; on envisage deux cas possibles :Semiotigue a dre s s é; we consider two possible cases:
(1) L'utilisateur fait des gestes ergotiques pour assurer la fonction semiotique adressée de l'avatar. On peut par exemple utiliser les périphériques suivants : - Un écran tactile : permet - à l'utilisateur de désigner,(1) The user makes ergotic gestures to ensure the addressed semiotic function of the avatar. We can for example use the following peripherals: - A touch screen: allows - the user to designate,
- Périphérique d'adressage : des périphériques spécifiques (souris, SpaceMouse™) permettent d'adresser un comportement,- Addressing device: specific devices (mouse, SpaceMouse ™) are used to address a behavior,
Périphérique de pointage-manipulation et de navigation : on peut exploiter ces périphériques en-, excluant leurs fonctions ergotiques et épistémique (ex : en utilisant un bouton particulier) .Pointing-manipulation and navigation device: these devices can be used in, excluding their ergotic and epistemic functions (eg by using a particular button).
(2) L'utilisateur fait des gestes sémiotiques pour assurer la fonction semiotique adressée .de l'avatar.(2) The user makes semiotic gestures to ensure the addressed semiotic function of the avatar.
C'est-à-dire que l'utilisateur exploite les mouvements de la tête et des mains en excluant leur fonction semiotique non-adressée (ex : en utilisant une zone d'influence de la tête ou des mains [7]).
On remarque que dans ce cas il n'y a pas nécessité d'avoir un périphérique d'adressage comme illustré sur la figure 3.That is to say, the user exploits the movements of the head and hands by excluding their unaddressed semiotic function (eg by using an area of influence of the head or hands [7]). Note that in this case there is no need to have an addressing device as illustrated in FIG. 3.
Sémiotigue non -a d essé - Un microphone : son utilisation permet de déterminer les visèmes à reproduire dans l'animation de l'avatar lorsque l'utilisateur parle .Semiotigue non -a d essé - A microphone: its use makes it possible to determine the visemes to be reproduced in the animation of the avatar when the user speaks.
Une ou plusieurs caméra(s) : leur utilisation permet de capter la position et l'orientation du corps, de la tête et des mains de l'utilisateur dans l'espace.One or more camera (s): their use makes it possible to capture the position and orientation of the user's body, head and hands in space.
Er go ti que -Epi s témi queEr go ti que -Epi s testi que
- On utilise ici les périphériques spécifiques pour toute action dans l'environnement (ex : souris et SpaceMouse ™ pour la conception de véhicule automobile ; phantom ™ (marque déposée) pour une activité de sculpture 3D ; etc.) Le module de détection d' intention et de détermination du mode est illustré par les étapes détaillées de la figure 5. Ce module fonctionne pour chaque unité minimale d'intention ; à savoir : les mains, le corps et la tête. Bien évidemment, les comportements ergotiques et épistémiques de la tête et du corps sont limités.
• On n'a pas ici décrit toutes les façons de déterminer l'intention de l'utilisateur, étant donné que les périphériques utilisés ne sont précisés qu'en terme de catégorie (périphériques de capture de posture, de pointage, de manipulation et de navigation, etc . ) .- Specific peripherals are used here for any action in the environment (eg mouse and SpaceMouse ™ for the design of a motor vehicle; phantom ™ (registered trademark) for a 3D sculpture activity; etc.) The detection module intention and mode determination is illustrated by the detailed steps in Figure 5. This module works for each minimum unit of intention; namely: hands, body and head. Obviously, the ergotic and epistemic behaviors of the head and the body are limited. • We have not described here all the ways of determining the intention of the user, since the peripherals used are only specified in terms of category (devices for capturing posture, pointing, manipulation and navigation, etc.).
• Néanmoins il -'existe des combinaisons d'utilisation des dispositifs d'interaction qui ne présentent pas d'ambiguïté sur le mode dans /lequel l'-ut lisat eur -• souhaite -mettre .. le système .• Nevertheless it -'existe combinations of use of interaction devices that do not have ambiguity about the mode / which ut LisaT eur - • -set .. wish the system.
Exemples :Examples:
Si le dispositif de pointage est utilisé , alors le système est en mode ergot ique-épistémique pour cette main.If the pointing device is used, then the system is in ergot ic-epistemic mode for this hand.
Si le dispositif ne détecte pas la présence de l'utilisateur, alors le système est « hors activité ». - Etc.If the device does not detect the presence of the user, then the system is "inactive". - Etc.
Le passage d'un mode à l'autre ce fait de façon explicite . Il n'y a pas d'analyse sémantique de haut niveau de la part de la machine . Si toute 'fois il y avait ambiguïté sur l'intention, le module de retour visuel permet à 1 ' utilisateur de réguler la situation en agissant sur un périphérique .Switching from one mode to another does this explicitly. There is no high level semantic analysis on the part of the machine. If there was any ambiguity on the intention, the visual feedback module allows the user to regulate the situation by acting on a device.
Lors de l'affichage et du rendu, l'utilisation d'un avatar pour la représentation de l'utilisateur permet de
réaliser des interpolations entre les différentes postures. Le dispositif peut donc effectuer un passage fluide d'un mode à l'autre dans le rendu. Afin d'illustrer l'intérêt du procédé, on va décrire une activité collaborative réelle et la manière dont elle serait réalisée à distance en utilisa t ce procédé. Dans cette description, on va proposer une réalisation technique du concept, ainsi que des métaphores visuelles adaptées qui ont nécessité •.-des choix arbitraires. On considérera que ces choix à but démonstratif ne sont pas limitatifs.When viewing and rendering, using an avatar to represent the user allows perform interpolations between the different postures. The device can therefore make a smooth transition from one mode to another in the rendering. In order to illustrate the interest of the process, we will describe a real collaborative activity and how it would be carried out remotely using this process. In this description, we will propose a technical realization of the concept, as well as adapted visual metaphors which required • .-Arbitrary choices. We will consider that these choices for demonstrative purpose are not limiting.
Description d'une activité réelle : « Le jeu de carte »Description of a real activity: "The card game"
Dans une scène réelle schématisée sur la figure 6, quatre personnes jouent aux cartes. Pendant cette activité collaborative, ils vont communiquer de façon verbale et non-verbale, et ils vont manipuler des objets communsIn a real scene shown in Figure 6, four people play cards. During this collaborative activity, they will communicate verbally and non-verbally, and they will manipulate common objects
(cartes, feuille et crayon pour noter les points) . L'exemple du jeu de carte est très pertinent pour démontrer l'intérêt du procédé, parce que dans les situations réelles de jeu, les joueurs utilisent beaucoup la communication non-verbale, notamment lors de l'établissement de coalitions pendant le déroulement du jeu. Et c'est notamment sur ce point que le procédé à un intérêt par rapport aux autres outils de médiatisation classiques.
Voici une suite de comportements de joueurs relevés durant une partie de carte :(cards, sheet and pencil to note the points). The example of the card game is very relevant to demonstrate the interest of the process, because in real game situations, the players use non-verbal communication a lot, especially when building coalitions during the game. And it is in particular on this point that the process has an interest compared to the other traditional mediatization tools. Here is a series of player behaviors noted during a card game:
I. Échanges verbaux pour savoir qui va distribuer les cartes ; 2. Le joueur 1 lève la main pour dire qu'il va le faire et s'empare du jeu de carte ;I. Verbal exchanges to find out who will distribute the cards; 2. Player 1 raises his hand to say that he is going to do so and takes over the card game;
3. Le joueur 1 .-regarde le joueur 3, qui connaît bien le jeu, pour lui demander combien de cartes il faut distribuer ;3. Player 1.-Looks at player 3, who knows the game well, to ask him how many cards to distribute;
4..: Le joueur --3- répond au joueur 1 ;4 ..: Player --3- responds to player 1;
5. Le joueur 1 distribue les cartes ;5. Player 1 deals the cards;
6. Le joueur 1 désigne le joueur 2 du doigt en le regardant et lui dit « c'est à toi de commencer... » ;6. Player 1 points to player 2 while looking at him and tells him "it's your turn to start ...";
7. Le joueur 2 pose une carte et regarde le joueur 3 pour lui signifier que c'est à lui de poser la suivante ;7. Player 2 places a card and looks at player 3 to indicate that it is up to him to place the next one;
8. Le joueur 3 hésite ; il fronce les sourcils et regarde son jeu pour montrer qu'il réfléchit ;8. Player 3 hesitates; he frowns and watches his play to show that he is thinking;
9. Le joueur 3 pose une carte en faisant une réflexion à tout le monde, sur la carte qu'il vient de jouer ; 10. Le joueur 4 pose une carte ;9. Player 3 places a card, making a reflection to everyone, on the card he has just played; 10. Player 4 places a card;
II. Le joueur 3 désigne successivement le joueur 4 et le jeu en disant qu'il « n'a pas le droit de jouer cette carte... » ;II. Player 3 successively designates player 4 and the game by saying that he "does not have the right to play this card ...";
12. Le joueur 4 reprend sa carte et rejoue ;
13. Le joueur 1 regarde son partenaire le joueur 3 d'un regard insistant et en tapant sur la table pour lui faire comprendre qu'il a mal joué précédemment ; puis prend une carte dans la pioche en grimaçant ;12. Player 4 takes his card and plays again; 13. Player 1 looks at his partner player 3 with an insistent look and tapping on the table to make him understand that he played badly before; then takes a card from the deck, grimacing;
14. La partie suit son cours [ ... ] ;14. The game is on its way [...];
15. Le joueur 2 pause la dernière carte et regard son partenaire le joueur 4, en souriant pour lui montrer sa satisfaction ; 16. Le joueur 1 prend le crayon et la feuille et compte les, points ;15. Player 2 pauses the last card and looks at his partner player 4, smiling to show him his satisfaction; 16. Player 1 takes the pencil and the sheet and counts the, points;
17. Les autres joueurs se penchent sur la feuille pour voir le total des points ;17. The other players lean over the sheet to see the total points;
18. Les joueurs discutent entre eux de la partie ;18. The players discuss the game with each other;
19. Le joueur 2 ramasse les cartes puis les distribue pour une nouvelle partie.19. Player 2 collects the cards and then distributes them for a new game.
Description de cette même activité à distance en utilisant le procédé de l'invention.Description of this same activity remotely using the method of the invention.
On imagine que les mêmes joueurs doivent maintenant participer à la même partie de cartes à distance, . en utilisant le procédé. Chacun possède la configuration matérielle illustré par la figure 7, et chacun a une vue personnalisée de la scène, c'est-à-dire la table de jeu (avec les cartes, un papier pour noter les points et un crayon) et les autres joueurs représentés par des. avatars.
On va décrire dans ce qui suit la manière dont les moyens techniques sont exploités pour analyser les comportements de l'utilisateur et pour animer les avatars à distance. Comportements utilisateur / utilisation de capteurs :We imagine that the same players must now participate in the same game of distance cards,. using the process. Each has the hardware configuration illustrated in Figure 7, and each has a personalized view of the scene, i.e. the game table (with cards, a paper to note the points and a pencil) and the others players represented by. avatars. We will describe in the following how the technical means are used to analyze user behavior and to animate avatars from a distance. User behavior / use of sensors:
Les interactions de type ergotiques (i.e. action sur les objets de l'environnement virtuel) se font de la manière suivante : - Utilisation du périphérique de pointage pour contrôler le pointeur- 3D de façon classique.The interactions of the ergotic type (i.e. action on the objects of the virtual environment) are done in the following way: - Use of the pointing device to control the pointer - 3D in a classic way.
Utilisation du périphérique de manipulation et de navigation (Space Mouse) pour agir sur un objet sélectionné.Use of the manipulation and navigation device (Space Mouse) to act on a selected object.
Il y a plusieurs approches connues pour réaliser les comportements sémiotiques adressés, mais on ne va décrire ici que la méthode que l'on appelle « semiotique instrumentée ». Il y a une autre technique qui est basée sur le mouvement naturel des mains et de la tête.There are several known approaches for achieving addressed semiotic behaviors, but we will only describe here the method that we call "instrumented semiotics". There is another technique which is based on the natural movement of the hands and head.
La technique semiotique adressée instrumentée permet de contrôler le regard de son propre avatar et les gestes de désignation d'une main :The instrumented semiotic addressed technique makes it possible to control the gaze of one's own avatar and the gestures of designation of a hand:
On utilise un périphérique de pointage en cliquant sur un bouton particulier pour « incarner » la main virtuelle de son avatar
afin de désigner quelque chose. Deux retours visuels permettent de savoir que l'on réalise alors l'intention de désignation et de la contrôler ; - il s'agit d'une métaphore de sa main virtuelle et d'une sur-brillance de l'objet « désigné » par un rayon.You use a pointing device by clicking on a particular button to "embody" the virtual hand of your avatar in order to designate something. Two visual returns make it possible to know that one then realizes the intention of designation and to control it; - it is a metaphor of his virtual hand and a highlight of the object "designated" by a ray.
On utilise un périphérique de manipulation et de navigation (SpaceMouse™ en cliquant sur un bouton particulier pour contrôler le regard de son avatar. De la même manière que po-ur -.le .geste, de. desi.gnati.on_ deux retours visuels apparaissent. Il s'agit d'une métaphore de ses yeux virtuels et d'une sur- brillance de l'objet « regardé ». On remarque ici que le mode semiotique adressé est détecté par l'appui sur un bouton particulier de chaque périphérique.We use a manipulation and navigation device (SpaceMouse ™ by clicking on a particular button to control the gaze of his avatar. In the same way as po-ur -.le .geste, de. Desi.gnati.on_ two visual returns It is a metaphor of his virtual eyes and a highlight of the object "looked at". We notice here that the semiotic mode addressed is detected by pressing a particular button on each device .
Les gestes sémiotiques non-adressés sont détectés : - Pour les mains dès lors que les périphériques ne sont pas actionnés alors que des mouvements significatifs sont captés par le module de capture de comportement.Unaddressed semiotic gestures are detected: - For the hands when the peripherals are not activated while significant movements are captured by the behavior capture module.
Pour la tête dès lors que des mouvements significatifs sont captés par le module de capture de mouvement.For the head as soon as significant movements are captured by the motion capture module.
Pour le corps dès lors que des mouvements significatifs sont captés par le module de capture de mouvement. - Pour les expressions faciales dès lors que des expressions significatives sont
captées par le module de capture d'expressions faciales .For the body as soon as significant movements are captured by the motion capture module. - For facial expressions when significant expressions are captured by the facial expression capture module.
On remarque que l'on peut combiner plusieurs comportements simultanément. Par exemple : une désignation de la main, tout en regardant quelque chose ou quelqu'un et en bougeant la tête et .en exprimant une mimique faciale particulière. Comportement des avatars / mode d' animation . :We note that we can combine several behaviors simultaneously. For example: a hand designation, while looking at something or someone and moving your head and expressing a particular facial expression. Behavior of avatars / animation mode. :
Étant donné que le mode de comportement de chaque utilisateur est géré au niveau du terminal, la posture exacte de l'avatar est calculée au niveau de ce terminal. Ceci à l'exception de la direction des gestes et des regards adressés, puisque ceux-ci dépendent de la position de l'avatar à distance et de la disposition de la scène. À distance, les informations reçues sur les avatars sont de deux typesSince the behavior of each user is managed at the terminal level, the exact posture of the avatar is calculated at this terminal. This with the exception of the direction of gestures and directed looks, since these depend on the position of the avatar from a distance and the layout of the scene. From a distance, the information received on avatars is of two types
- Un vecteur d'état c'est à dire les postures instantanées que doivent prendre les avatars à chaque instant. - Des informations d'adressage sur les objets regardés ou désignés. Plus précisément une information pour les yeux et une autre pour chaque main.- A state vector, that is to say the instantaneous postures that avatars must take at each instant. - Addressing information on the objects viewed or designated. More precisely, information for the eyes and another for each hand.
C'est donc à distance, en fonction de l'arrangement de la scène et la position de
l'avatar, que l'on exploite l'information d'adressage pour animer les yeux et les mains de l' avatar .So it's from a distance, depending on the scene arrangement and the position of the avatar, which uses the addressing information to animate the eyes and hands of the avatar.
On va décrire maintenant dans le tableau 1 qui suit, les comportements qu'un utilisateur aura derrière son terminal, s'il veut restituer au, mieux la suite de comportements décrite précédemment à partir d'une situation réelle (notamment sur les comportements non verbaux).
We will now describe in table 1 which follows, the behaviors that a user will have behind his terminal, if he wants to restore to the best the sequence of behaviors described above from a real situation (especially on non-verbal behaviors ).
1 désigne périphérique d'action l'intention.de passer regarde et désigne de Ja main , en cliquant sur le dans un .mode/,. , . l'avatar 2 dans le joueur 2 ' , bouton permettant semiô'fique.Vdressee et ,, toutes les 1 designates an action device, the intention to pass looks at and designates the hand by clicking on it in one . fashion/,. ,. Avatar 2 in the player 2 'button to semio' fique.Vdressee ,, and all
3 --- ^ 1 d'activer le contrôle fait^ apparaître la; ^ interfaces ; et3 --- ^ 1 activating the control brings up ^ ; ^ interfaces; and
-•X de son geste adressé. me t aphό rë" *d e 51 ef ma i n -i' dans l'interface 2- • X of his gesture addressed. me t aphό rë "* of 5 1 ef ma in -i 'in interface 2
'. . - virtuelle afir dëV.; - regarde et désigne ' . . - virtual afir dëV .; - look and point
';"';" - !J " - - - donner à -l'utilisateur - l'utilisateur (qui l f*^ , -. le moyenne 'contrôler est le joueur 2). ' ; " ';" - J "- - - give -l'utilisateur - the user (who lf * ^ -. The average 'control is the player 2).
'/ '" son avatar.- Α - ' /'"his avatar.- Α -
1, etc. ~1, etc. ~
Tableau 1 : Comportement de l'avatar par rapport au comportement de l'utilisateur
Table 1: Behavior of the avatar in relation to user behavior