WO2005091114A1 - Method and device for animating a virtual entity corresponding to a user in a virtual environment - Google Patents

Method and device for animating a virtual entity corresponding to a user in a virtual environment Download PDF

Info

Publication number
WO2005091114A1
WO2005091114A1 PCT/FR2005/000353 FR2005000353W WO2005091114A1 WO 2005091114 A1 WO2005091114 A1 WO 2005091114A1 FR 2005000353 W FR2005000353 W FR 2005000353W WO 2005091114 A1 WO2005091114 A1 WO 2005091114A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
virtual
physiological
response
virtual entity
Prior art date
Application number
PCT/FR2005/000353
Other languages
French (fr)
Inventor
Arnaud Bouguet
Laurence Perron
Joël TAPIE
Original Assignee
France Telecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom filed Critical France Telecom
Publication of WO2005091114A1 publication Critical patent/WO2005091114A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The inventive method for animating a virtual entity corresponding to a user in a virtual environment displayed to the user by means of a virtual communications terminal consists in measuring (S12, S14) at least one predefined physiological characteristic of a user and in generating data called physiological data for each measured physiological characteristic, in comparing (S16) each generated physiological data with predetermined reference data relative to a corresponding physiological characteristic, in determining (S18) a response to a virtual entity appropriate to the result of said comparison and in animating (S20) the virtual entity in a virtual environment according to the appropriate response.

Description

PROCEDE ET DISPOSITIF D'ANIMATION D'UNE ENTITE VIRTUELLE CORRESPONDANT A UN UTILISATEUR DANS UN ENVIRONNEMENT VIRTUEL METHOD AND DEVICE FOR ANIMATING A VIRTUAL ENTITY CORRESPONDING TO A USER IN A VIRTUAL ENVIRONMENT
DESCRIPTIONDESCRIPTION
La présente invention concerne un procédé d'animation d'une entité virtuelle correspondant à un utilisateur dans un environnement virtuel présenté à l'utilisateur au moyen d'un terminal de communication virtuelle. De manière générale on définit un environnement virtuel comme étant une représentation numérique d'un environnement en 3D, imitant le monde réel, dans lequel on peut évoluer de façon interactive. Par ailleurs, on désigne par Environnement Virtuel Collaboratif (EVC), un environnement virtuel permettant à plusieurs personnes de collaborer à distance au moyen d'un terminal informatique relié à un réseau de télécommunications. Le document de brevet FR2819920 décrit un procédé et un dispositif d'animation d'avatar pour assurer la communication dans un environnement virtuel collaboratif (EVC) non immersif. Le procédé d'animation d'avatar décrit dans ce document, comprend la mise en œuvre de moyens pour assurer des fonctions intentionnelles (action perception et expression) d'une personne et la fourniture d'informations correspondantes ; puis une analyse cyclique du comportement de la personne ; et enfin, la représentation de l'environnement virtuel et des avatars, à chaque cycle d'animation. Les systèmes existants d'animation d'avatar dans un environnement virtuel, tel celui décrit dans le document FR2819920 précité, ne prennent en compte que l'aspect intentionnel de l'utilisateur. La réponse de l'avatar est en effet le résultat d'une initiative consciente de l'utilisateur. Il s'agit en général de réponses à des comportements intentionnels de l'utilisateur, le plus souvent à visée communicative, tels des expressions faciales, des gestes, des manipulations de périphériques d'entrée/sortie. D'autre part, dans la plupart des systèmes connus à ce jour, les avatars utilisés pour représenter les utilisateurs, sont généralement de type anthropomorphique, ce qui rend ces systèmes essentiellement adaptés à des applications à visée communicative et collaborative. La présente invention vise, au contraire, à fournir un système d'animation d'une entité virtuelle correspondant à un utilisateur, dans lequel l'entité virtuelle peut être constituée par n'importe quel moyen technique apte à fournir une réponse dans l'environnement virtuel considéré, cette réponse étant représentative d'un comportement intentionnel ou non de l'utilisateur. Les domaines d'application de l'invention englobent le domaine desThe present invention relates to a method for animating a virtual entity corresponding to a user in a virtual environment presented to the user by means of a virtual communication terminal. In general, a virtual environment is defined as being a digital representation of a 3D environment, imitating the real world, in which we can evolve interactively. Furthermore, the Virtual Collaborative Environment (EVC) means a virtual environment allowing several people to collaborate remotely by means of a computer terminal connected to a telecommunications network. The patent document FR2819920 describes a method and a device for animating an avatar to ensure communication in a non-immersive collaborative virtual environment (EVC). The avatar animation process described in this document includes the implementation of means for ensuring intentional functions (action perception and expression) of a person and the supply of corresponding information; then a cyclical analysis of the person's behavior; and finally, the representation of the virtual environment and the avatars, at each animation cycle. Existing avatar animation systems in a virtual environment, such as that described in the aforementioned document FR2819920, only take into account the intentional aspect of the user. The avatar's response is in fact the result of a conscious initiative on the part of the user. These are generally responses to intentional behaviors of the user, most often for communicative purposes, such as facial expressions, gestures, manipulation of input / output devices. On the other hand, in most of the systems known to date, the avatars used to represent the users are generally of the type anthropomorphic, which makes these systems essentially suitable for applications with communicative and collaborative aims. The present invention aims, on the contrary, to provide a system for animating a virtual entity corresponding to a user, in which the virtual entity can be constituted by any technical means capable of providing a response in the environment virtual considered, this response being representative of an intentional behavior or not of the user. The fields of application of the invention include the field of
Environnements Virtuels Collaboratifs (EVC) au sein desquels des individus sont représentés par des avatars, notamment de type anthropomorphique, mais aussi tous les domaines utilisant un environnement virtuel, tels que la bulleCollaborative Virtual Environments (EVC) in which individuals are represented by avatars, in particular of the anthropomorphic type, but also all the domains using a virtual environment, such as the bubble
Internet (Chat 3D), le médical, le domaine du jeu ou la formation. Ainsi, selon un premier aspect, la présente invention a pour objet un procédé d'animation d'une entité virtuelle correspondant à un utilisateur dans un environnement virtuel présenté à l'utilisateur au moyen d'un terminal de communication virtuelle. Conformément à l'invention, ce procédé est remarquable en ce qu'il comporte les étapes suivantes : - mesure d'au moins une caractéristique physiologique prédéfinie de l'utilisateur et génération d'une donnée, dite donnée physiologique, pour chaque caractéristique physiologique mesurée ; - comparaison de chaque donnée physiologique générée à une donnée de référence prédéterminée relative à la caractéristique physiologique correspondante ; - détermination d'une réponse de l'entité virtuelle, appropriée au résultat de l'étape de comparaison précédente ; - animation de l'entité virtuelle dans l'environnement virtuel en fonction de la réponse appropriée. Une caractéristique physiologique d'un individu, telle la fréquence cardiaque ou la température corporelle, est à l'évidence une caractéristique non intentionnelle de celui-ci. Par conséquent, obtenir une réponse d'une entité virtuelle en fonction d'une ou plusieurs caractéristiques physiologiques de l'utilisateur, permet de prendre en charge la visée non communicative des individus entre eux, et par conséquent permet des applications très diverses, autres que les environnements virtuels collaboratifs. Selon une caractéristique particulière de l'invention, ce procédé comprend en outre une étape d'obtention d'au moins une donnée comportementale relative au comportement de l'utilisateur, la réponse de l'entité virtuelle étant déterminée également en fonction de la donnée comportementale obtenue. On peut ainsi combiner des caractéristiques physiologiques (non intentionnelles) et des éléments relatifs au comportement (intentionnel ou non), de l'utilisateur, pour déterminer la réponse de l'entité virtuelle qui le représente dans l'environnement virtuel. De cette façon, la représentativité de l'entité virtuelle par rapport à l'utilisateur est considérablement enrichie. En particulier, dans le cadre d'un environnement virtuel collaboratif, l'interprétation, par d'autres utilisateurs de l'environnement virtuel, des éléments de réponse de l'entité virtuelle résultant des stimuli comportementaux d'un utilisateur considéré, est facilitée par les éléments de réponse de l'entité virtuelle résultant des stimuli physiologiques de cet utilisateur. Selon une autre caractéristique de l'invention, une réponse de l'entité virtuelle est déterminée en outre en fonction de réponses précédemment déterminées pour l'entité virtuelle et/ou en fonction du contexte de l'environnement virtuel et/ou de l'environnement physique de l'utilisateur. De cette façon, on augmente la précision dans le choix de la réponse de l'entité virtuelle en fonction des stimuli (comportement, mesures physiologiques) reçus de l'utilisateur. Selon un mode particulier de réalisation de l'invention, une entité virtuelle représentant un utilisateur est constituée d'une combinaison de signaux de différente nature, tels que des signaux sonores, olfactifs, haptiques, associés ou non à des éléments graphiques affichés sur un écran d'affichage. Ainsi l'invention ne se limite pas à des environnements virtuels dans lesquels les utilisateurs sont représentés par des avatars, notamment de type anthropomorphique, mais peut s'appliquer au contraire à des domaines très variés tels que les jeux ou la simulation (par ex., simulation de pilotage). Selon un second aspect, la présente invention concerne un dispositif d'animation d'une entité virtuelle correspondant à un utilisateur dans un environnement virtuel présenté à l'utilisateur au moyen d'un terminal de communication virtuelle. Conformément à l'invention, ce dispositif d'animation est remarquable en ce qu'il comporte : - des moyens d'obtention d'informations relatives à l'état physiologique de l'utilisateur, ces moyens d'obtention étant aptes à mesurer au moins une caractéristique physiologique prédéfinie de l'utilisateur et générer une donnée, dite donnée physiologique, pour chaque caractéristique physiologique mesurée ; - des moyens de traitement des données physiologiques, destinés à comparer chaque donnée physiologique générée, à une donnée de référence prédéterminée relative à la caractéristique physiologique correspondante, et déterminer une réponse de l'entité virtuelle appropriée au résultat de la comparaison ; - des moyens d'animation de l'entité virtuelle, destinés à commander l'animation de l'entité virtuelle dans l'environnement virtuel en fonction de la réponse déterminée par les moyens de traitement. Les avantages liés à ce dispositif d'animation sont identiques à ceux du procédé de l'invention, tels que brièvement exposés supra. D'autres particularités et avantages de l'invention apparaîtront encore dans la description ci-après de modes préférés de réalisation, décrits à l'appui des dessins annexés, sur lesquels : - la figure 1 représente un environnement virtuel collaboratif (EVC) dans lequel on peut mettre en œuvre la présente invention ; - la figure 2 est une représentation schématique d'un dispositif d'animation d'entité virtuelle selon un mode de réalisation de l'invention ; - la figure 3 est un organigramme illustrant un procédé d'animation d'entité virtuelle selon un mode de réalisation de l'invention. La figure 1 représente schématiquement un environnement virtuel collaboratif (EVC) dans lequel on peut mettre en œuvre la présente invention. Il s'agit d'un environnement EVC distribué sur un réseau de télécommunications R, par exemple un réseau de type Internet. Comme représenté à la figure 1 , plusieurs (trois) utilisateurs peuvent interagir dans une téléconférence virtuelle au moyen d'une unité d'interface homme/machine respective U1 , U2, U3 encore désignée par terminal utilisateur. Par conséquent, chaque terminal utilisateur comprend tout l'équipement nécessaire pour permettre à l'utilisateur correspondant d'être représenté par une entité virtuelle dans l'environnement virtuel collaboratif et d'interagir avec cet environnement virtuel. Selon un exemple particulier d'environnement virtuel collaboratif (EVC), l'espace virtuel présenté à chaque utilisateur reproduit la métaphore de la table de réunion où les utilisateurs sont représentés par des avatars de type anthropomorphique qui reproduisent leurs actions et leur communication verbale et non verbale. Ainsi, comme représenté pour le terminal U1 , un terminal utilisateur comprend un ensemble 20 de périphériques informatiques associé à un système informatique 30 tel qu'un ordinateur personnel. Chaque terminal utilisateur U1-U3 est connecté à un dispositif client 10 qui fournit une interface entre l'utilisateur et un serveur principal S, sur le réseau R, qui commande le fonctionnement de l'environnement virtuel présenté à chaque utilisateur. Le serveur S comporte notamment des moyens mémoire (non représentés) qui conservent des données permanentes définissant l'espace de réunion virtuelle. La commande de l'espace de réunion est exécutée par une interaction entre les dispositifs clients 10 des terminaux utilisateurs U1-U3 et le serveur S. Dans certains modes de réalisation, la plupart des fonctions de commande d'affichage de l'environnement virtuel peuvent être mises en œuvre dans le serveur S, mais dans des systèmes EVC où les dispositifs d'affichage des terminaux utilisateurs sont dissemblables, il pourra être plus approprié de répartir davantage de fonctions de commande de l'affichage dans les dispositifs clients 10. En pratique, chaque dispositif client 10 est constitué d'un ou plusieurs modules logiciels incorporés dans l'ordinateur 30 ou bien interconnectés entre l'ordinateur 30 et le réseau R. Bien entendu, la présente invention s'applique également aux architectures d'environnement virtuel dans lesquelles toutes les fonctions et informations relatives à l'environnement virtuel résident dans les postes utilisateurs, sans faire appel à un poste serveur sur le réseau considéré. En liaison avec la figure 2, on va à présent décrire de manière détaillée un dispositif d'animation d'entité virtuelle selon un mode de réalisation préféré de l'invention. La figure 2 représente plus précisément le terminal utilisateur U1 associé à son dispositif client 10 respectif, représenté à la figure 1. L'ensemble 20 de périphériques informatiques associé au terminal U1 comprend notamment des périphériques d'entrée d'interaction spécialisés 205, 207, 209 permettant de mettre en œuvre une activité collaborative quelconque : - au moins un périphérique 205 de pointage, par ex., une souris ; - des périphériques 207 de manipulation et de navigation, par ex., un appareil SpaceMouse™ qui permet la manipulation intuitive d'objets suivant six degrés de liberté ; - des périphériques 209 de communication, tel qu'un microphone. Conformément à l'invention, l'ensemble 20 de périphériques comporte des moyens 203 de capture d'informations relatives à l'état physiologique de l'utilisateur. L'état physiologique de l'utilisateur peut être évalué au travers de la mesure d'une ou plusieurs caractéristiques physiologiques prédéfinies de l'utilisateur. Selon un exemple de réalisation, une caractéristique physiologique mesurée de l'utilisateur est sa fréquence cardiaque. Selon un autre exemple, une caractéristique physiologique mesurée est la température corporelle de l'utilisateur. Bien sûr, on peut aussi considérer simultanément plusieurs caractéristiques physiologiques de l'utilisateur. Selon la caractéristique physiologique considérée, les moyens de capture incluent des capteurs et équipements nécessaires pour mesurer périodiquement, c'est-à-dire à intervalles réguliers, la caractéristique physiologique correspondante. On notera cependant que, selon d'autres modes de réalisation, la prise de mesure peut être déclenchée de manière non périodique, par exemple, par des événements particuliers survenant dans l'environnement virtuel. Ainsi, pour mesurer la fréquence cardiaque de l'utilisateur, on peut utiliser un équipement de type non intrusif, appelé "oxymètre de pouls". Pour mesurer la température corporelle de l'utilisateur, on peut utiliser un thermomètre dynamique d'oreille (non intrusif). Selon un autre exemple, on peut utiliser un polygraphe pour mesurer l'activité électrochimique des glandes sudoripares (dite "réponse électrodermale" ou "réponse galvanique"). Dans le mode de réalisation choisi et représenté, l'ensemble 20 de périphériques informatiques comprend également des moyens 201 de capture d'informations comportementales, par exemple des dispositifs de capture des mouvements de la tête, du corps et des mains de l'utilisateur derrière son terminal. Ces moyens peuvent comprendre par exemple, une ou plusieurs caméras, un radar, etc. Comme représenté à la figure 2, le dispositif client 10 associé au terminal utilisateur U1 comporte un module 110 de traitement de données comportementales, un module 120 de traitement de données physiologiques, un module 14O de détermination de réponses de l'entité virtuelle associée à l'utilisateur du terminal U1 , un module 150 d'animation de l'entité virtuelle, et enfin un module 130 d'aide à l'interprétation des données comportementales et physiologiques. Le module 110 de traitement de données comportementales traite les données reçues du ou des dispositifs de capture d'informations comportementales. A cet effet, le module 110 comprend un sous-module 111 dit de "calibrage d'informations de comportement", un sous-module 113 de mise en forme des données comportementales et un sous-module 115 d'interprétation du comportement en fonction des données comportementales obtenues. Le sous-module 111 de calibrage des informations de comportement a pour fonction d'initialiser les moyens de capture 201 , par exemple régler les paramètres de fonctionnement de ces moyens, mais aussi de calibrer les informations obtenues, c'est-à-dire les étalonner en fonction de caractéristiques propres à l'utilisateur. Le sous-module 113 de mise en forme des données comportementales a pour tâche de mettre en forme les données brutes fournies par les moyens 201 de capture, de manière à les mettre dans un format exploitable par le sous- module d'interprétation 115. Le module 115 d'interprétation du comportement de l'utilisateur interagit avec les moyens 201 de capture d'informations comportementales pour interpréter les informations fournies par ces derniers et mises en forme par le module 113 le cas échéant. Le module 115 fournit alors le résultat de cette interprétation au module 140 de détermination d'une réponse de l'entité virtuelle appropriée, en particulier, au comportement de l'utilisateur. Le document FR2819920 cité plus haut, donne un exemple de moyens de capture et d'interprétation du comportement d'un utilisateur. De manière similaire, le module 120 de traitement de données physiologiques comprend, aux fins de traitement des informations physiologiques obtenues à partir des moyens de capture 203, un sous-module 121 de calibrage des informations physiologiques, un sous-module 123 de mise en forme des données physiologiques et un sous-module 125 d'interprétation des données physiologiques. Le sous-module 121 de calibrage des informations physiologiques a pour fonction de "calibrer" chaque moyen de capture 201 d'informations physiologiques, c'est-à-dire, d'une part d'initialiser ces moyens de capture, en réglant par exemple leurs paramètres de fonctionnement, mais aussi, d'autre part, de calibrer les informations obtenues, c'est-à-dire les étalonner en fonction de caractéristiques propres à l'utilisateur. En particulier, le sous-module 121 de calibrage a pour fonction de calculer au préalable au moins une donnée de référence propre à l'utilisateur concernant chaque caractéristique physiologique mesurée. Ainsi, selon un exemple de réalisation, si l'on mesure la température corporelle de l'utilisateur, la donnée de référence correspondante peut représenter une valeur moyenne de la température corporelle de l'utilisateur mesurée à divers intervalles de temps. De même, concernant la fréquence cardiaque de l'utilisateur, la donnée de référence correspondante peut représenter une valeur moyenne de la fréquence cardiaque mesurée à divers intervalles de temps. Le sous-module 123 de mise en forme des données physiologiques a pour tâche de mettre en forme, si nécessaire, les données de mesure fournies par les moyens de capture 201. En effet, ces données de mesure sont le plus souvent des signaux électriques qu'il faut ensuite mettre en forme de manière à obtenir l'information utile. Le sous-module 125 d'interprétation des données physiologiques a notamment pour fonction de comparer chaque donnée physiologique fournie par le module de capture 203 via le module 123 de mise en forme, à la donnée de référence correspondante et de délivrer une nouvelle donnée, résultat de cette comparaison, au module 140 de détermination de réponse de l'entité virtuelle. Le module 140 détermine alors une réponse de l'entité virtuelle adaptée au résultat de la comparaison précitée, en prenant en compte, si elles existent, les informations de comportement fournies par le sous-module 115 d'interprétation du comportement de l'utilisateur. Lorsque la réponse appropriée de l'entité virtuelle est déterminée, le module 140 fournit les instructions d'animation correspondant à cette réponse, au module 150 d'animation de l'entité virtuelle. Ce dernier, est alors chargé de mettre en œuvre, en collaboration avec le serveur S sur le réseau, la réponse prédéterminée de l'entité virtuelle associée à l'utilisateur de terminal U1 , dans l'environnement virtuel représenté dans tous les terminaux utilisateurs (U1-U3). Toujours à la figure 2, le module 130 d'aide à l'interprétation des données comportementales et physiologiques a pour fonction d'assister le module 140 de détermination de réponse de l'entité virtuelle, en fournissant des informations complémentaires relatives aux réponses précédemment déterminées (historique), au contexte de la scène virtuelle active, et à l'environnement physique de l'utilisateur. A cet effet, le module 130 se compose de trois sous-modules : un sous- module 131 d'historique des réponses, un sous-module 133 de contexte, un sous-module 135 d'environnement utilisateur. Le sous-module 131 d'historique des réponses conserve, d'une part, des informations de nature variée, obtenues au cours du temps, en provenance des modules 110 et 120 de traitement des données comportementales et physiologiques, et d'autre part, des informations relatives aux réponses de l'entité virtuelle précédemment déterminées par le module 140 de détermination de réponse. Le sous-module 133 de contexte stocke des informations relatives à la scène virtuelle en cours d'animation dans l'environnement virtuel présenté aux différents utilisateurs. Les informations stockées dans le sous-module 133 proviennent notamment du module d'animation 150 et du serveur S gérant la réunion virtuelle. Ces informations peuvent comprendre par exemple des informations relatives aux objets présents dans la scène virtuelle - entités animées (clones, avatars), documents ou autres supports d'informations - ainsi que des informations concernant la position relative de ces objets et leurs déplacements, dans l'environnement virtuel. Enfin, le sous-module 135 d'environnement utilisateur conserve des informations relatives à l'environnement physique de l'utilisateur du terminal : par exemple, la température du lieu où se trouve l'utilisateur, la luminosité, le nombre de personnes présentes dans ce lieu avec l'utilisateur considéré. Ces informations d'environnement sont typiquement obtenues par des capteurs appropriés (température, luminosité, etc.) et des moyens de capture vidéo/son. Toutes ces informations annexes (historique, contexte, environnement) sont utilisées par le module 140 pour affiner la détermination de la réponse appropriée de l'entité virtuelle. En liaison avec la figure 3, on va à présent décrire le procédé d'animation d'entité virtuelle mis en œuvre par le dispositif d'animation décrit ci- dessus en référence à la figure 2. Comme illustré à la figure 3, dans le mode de réalisation choisi et représenté, un procédé selon l'invention d'animation d'une entité virtuelle, comporte une étape préalable S10 de détermination d'une donnée de référence pour chacune des caractéristiques physiologiques de l'utilisateur devant être mesurée par les moyens 203 de capture d'informations. L'étape suivante S12 est une étape de détermination de l'instant, t, auquel on doit mesure la ou les caractéristiques physiologiques prédéfinies de l'utilisateur. L'expression "t = nT' symbolise le fait que l'on mesure, dans cet exemple, chaque caractéristique physiologique de façon périodique, T représentant cette période, et n, un entier naturel quelconque. Ainsi, lorsque qu'une période de temps T s'est écoulée depuis la dernière mesure (S12, oui), on passe à l'étape S14 de mesure proprement dite de chaque caractéristique physiologique. Comme exposé plus haut dans la, description, chaque caractéristique est alors mesurée par le moyen de capture 203 correspondant, chaque information de mesure obtenue est ensuite mise en forme si nécessaire par le module 123 de mise en forme, la donnée dite "physiologique" alors obtenue est finalement introduite dans le module 125 d'interprétation de données physiologiques, pour y être exploitée. En particulier, comme représenté à l'étape S16, dans le module 125 précité, chaque donnée physiologique est comparée à la donnée de référence correspondante. Selon un mode de réalisation, cette étape de comparaison comporte une première opération de calcul d'un écart entre la donnée physiologique et la donnée de référence. Cette première opération est ensuite suivie d'une opération de détermination d'un "niveau d'écart" en fonction de l'écart calculé lors de la première étape. Ce niveau d'écart est déterminé à l'aide de règles prédéfinies de catégorisation. Deux exemples d'utilisation de telles règles de catégorisation appliquées aux caractéristiques : température corporelle et fréquence cardiaque de l'utilisateur, sont exposés plus loin dans la description. De retour à la figure 3, à l'étape S18 qui suit, une réponse appropriée de l'entité virtuelle est déterminée en fonction du résultat de l'étape S16 de comparaison. En particulier, dans le mode de réalisation ci-dessus, une réponse prédéfinie est sélectionnée notamment en fonction du niveau d'écart déterminé à l'étape de comparaison (S 16). Comme mentionné précédemment en liaison avec la figure 2, selon le mode de réalisation présenté, la détermination (S18) d'une réponse appropriée de l'entité virtuelle peut prendre aussi en considération des informations, D130, relatives aux réponses précédemment déterminées (historique) pour l'entité virtuelle, des informations relatives au contexte de l'environnement virtuel ou des informations relatives à l'environnement physique de l'utilisateur, ces informations étant fournies par le module 130. En outre, dans ce mode de réalisation, des données comportementales D110 obtenues au préalable peuvent être prises en compte lors de la détermination de la réponse appropriée de l'entité virtuelle. Ces données comportementales sont alors fournies par le sous-module 115 du module 110 de traitement de données comportementales, comme exposé plus haut en liaison avec la figure 2. Enfin, à l'étape S20, l'animation proprement dite de l'entité virtuelle est mise en œuvre par le module d'animation 150, en fonction de la réponse déterminée par le module 140 de détermination de réponse. On notera ici que dans le mode de réalisation présenté, le procédé selon l'invention est mis en œuvre dans un environnement virtuel collaboratif (EVC) dans lequel les utilisateurs sont typiquement représentés par des entités virtuelles de type anthropomorphique. Cependant, la présente invention s'applique aussi à des environnements virtuels dans lesquels chaque entité virtuelle comprend un ensemble d'éléments graphiques associés à l'environnement virtuel. Dans ce type d'environnement, les différentes réponses de l'entité virtuelle, déterminées en fonction des données physiologiques et/ou comportementales obtenues pour l'utilisateur, sont alors matérialisées dans l'environnement virtuel par des changements d'apparence d'au moins un élément graphique de l'ensemble graphique composant l'entité virtuelle considérée. On peut aussi appliquer l'invention à des environnements virtuels dans lesquels chaque entité virtuelle est constituée d'une combinaison de signaux de différente nature, tels que des signaux sonores, olfactifs, haptiques, associés ou non à des éléments graphiques affichés sur un écran d'affichage. Exemples de réalisation 1 ) Dans un premier exemple de réalisation ci-après, il s'agit d'animer un avatar de type anthropomorphique en fonction de la fréquence cardiaque d'un utilisateur considéré, dans un environnement virtuel collaboratif. Dans cet exemple, le signal physiologique mesuré est constitué par le pouls de l'utilisateur et l'on utilise, pour capturer ce signal, un oxymetre de pouls (appareil non intrusif). En sortie du capteur (oxymetre de pouls), on obtient, lors de chaque mesure, une donnée physiologique constituée par une valeur de fréquence des pulsations cardiaques de l'utilisateur (fréquence cardiaque). Au cours de l'étape préalable de calibrage (S10) effectuée par le moduleInternet (3D Chat), medical, gaming or training. Thus, according to a first aspect, the subject of the present invention is a method for animating a virtual entity corresponding to a user in a virtual environment presented to the user by means of a virtual communication terminal. According to the invention, this method is remarkable in that it comprises the following steps: - measurement of at least one predefined physiological characteristic of the user and generation of a datum, called physiological datum, for each physiological characteristic measured ; - comparison of each physiological datum generated with a predetermined reference datum relating to the corresponding physiological characteristic; - determination of a response from the virtual entity, appropriate to the result of the previous comparison step; - animation of the virtual entity in the virtual environment according to the appropriate response. A physiological characteristic of an individual, such as heart rate or body temperature, is obviously an unintentional characteristic of this individual. Consequently, obtaining a response from a virtual entity as a function of one or more physiological characteristics of the user, makes it possible to support the non-communicative aim of the individuals, and therefore allows very diverse applications, other than collaborative virtual environments. According to a particular characteristic of the invention, this method further comprises a step of obtaining at least one behavioral datum relating to the behavior of the user, the response of the virtual entity also being determined as a function of the behavioral datum obtained. It is thus possible to combine physiological characteristics (unintentional) and elements relating to the behavior (intentional or not) of the user, to determine the response of the virtual entity which represents him in the virtual environment. In this way, the representativeness of the virtual entity in relation to the user is considerably enhanced. In particular, in the context of a collaborative virtual environment, the interpretation, by other users of the virtual environment, of the response elements of the virtual entity resulting from the behavioral stimuli of a user considered, is facilitated by the response elements of the virtual entity resulting from the physiological stimuli of this user. According to another characteristic of the invention, a response from the virtual entity is further determined as a function of responses previously determined for the virtual entity and / or according to the context of the virtual environment and / or the environment user physics. In this way, the precision in the choice of the response of the virtual entity is increased as a function of the stimuli (behavior, physiological measurements) received from the user. According to a particular embodiment of the invention, a virtual entity representing a user is made up of a combination of signals of different nature, such as sound, olfactory, haptic signals, associated or not with graphic elements displayed on a screen display. Thus, the invention is not limited to virtual environments in which users are represented by avatars, in particular of the anthropomorphic type, but can on the contrary be applied to very varied fields such as games or simulation (e.g. , piloting simulation). According to a second aspect, the present invention relates to a device for animating a virtual entity corresponding to a user in a virtual environment presented to the user by means of a virtual communication terminal. According to the invention, this animation device is remarkable in that it comprises: - means for obtaining information relating to the physiological state of the user, these means of obtaining being able to measure the minus a predefined physiological characteristic of the user and generate data, called physiological data, for each physiological characteristic measured; - Physiological data processing means, intended to compare each physiological data generated, with a predetermined reference data item relating to the corresponding physiological characteristic, and determine a response from the appropriate virtual entity to the result of the comparison; means of animation of the virtual entity, intended to control the animation of the virtual entity in the virtual environment as a function of the response determined by the processing means. The advantages linked to this animation device are identical to those of the method of the invention, as briefly explained above. Other features and advantages of the invention will appear in the following description of preferred embodiments, described in support of the appended drawings, in which: - Figure 1 represents a collaborative virtual environment (EVC) in which the present invention can be implemented; - Figure 2 is a schematic representation of a virtual entity animation device according to an embodiment of the invention; - Figure 3 is a flowchart illustrating a virtual entity animation method according to an embodiment of the invention. FIG. 1 schematically represents a collaborative virtual environment (EVC) in which the present invention can be implemented. he it is an EVC environment distributed over a telecommunications network R, for example an Internet type network. As shown in FIG. 1, several (three) users can interact in a virtual teleconference by means of a respective human / machine interface unit U1, U2, U3 also designated by user terminal. Consequently, each user terminal includes all the equipment necessary to allow the corresponding user to be represented by a virtual entity in the collaborative virtual environment and to interact with this virtual environment. According to a particular example of a collaborative virtual environment (VCA), the virtual space presented to each user reproduces the metaphor of the meeting table where the users are represented by anthropomorphic type avatars which reproduce their actions and their verbal communication and not verbal. Thus, as shown for the terminal U1, a user terminal comprises a set 20 of computer peripherals associated with a computer system 30 such as a personal computer. Each user terminal U1-U3 is connected to a client device 10 which provides an interface between the user and a main server S, on the network R, which controls the operation of the virtual environment presented to each user. The server S includes in particular memory means (not shown) which store permanent data defining the virtual meeting space. The control of the meeting space is carried out by an interaction between the client devices 10 of the user terminals U1-U3 and the server S. In certain embodiments, most of the control functions for displaying the virtual environment can be implemented in the server S, but in EVC systems where the display devices of the user terminals are dissimilar, it may be more appropriate to distribute more display control functions in the client devices 10. In practice, each client device 10 consists of one or more software modules incorporated in the computer 30 or else interconnected between the computer 30 and the network R. Of course, the present invention also applies to environment architectures in which all the functions and information relating to the virtual environment reside in the user workstations, without calling on a server workstation on the network in question. In connection with FIG. 2, a description will now be given in detail of a virtual entity animation device according to a preferred embodiment of the invention. FIG. 2 represents more precisely the user terminal U1 associated with its respective client device 10, represented in FIG. 1. The set 20 of computer peripherals associated with the terminal U1 notably comprises specialized interaction input peripherals 205, 207, 209 allowing any collaborative activity to be implemented: - at least one pointing device 205, for example, a mouse; - manipulation and navigation peripherals 207, for example, a SpaceMouse ™ device which allows the intuitive manipulation of objects according to six degrees of freedom; - Communication devices 209, such as a microphone. According to the invention, the set 20 of peripherals comprises means 203 for capturing information relating to the physiological state of the user. The physiological state of the user can be evaluated by measuring one or more predefined physiological characteristics of the user. According to an exemplary embodiment, a physiological characteristic measured by the user is his heart rate. According to another example, a physiological characteristic measured is the body temperature of the user. Of course, we can also consider several physiological characteristics of the user simultaneously. Depending on the physiological characteristic considered, the capture means include sensors and equipment necessary to measure periodically, that is to say at regular intervals, the characteristic corresponding physiological. Note however that, according to other embodiments, the measurement can be triggered non-periodically, for example, by particular events occurring in the virtual environment. Thus, to measure the user's heart rate, non-intrusive type equipment, called a "pulse oximeter", can be used. To measure the user's body temperature, a dynamic ear thermometer (non-intrusive) can be used. In another example, a polygraph can be used to measure the electrochemical activity of the sweat glands (called "electrodermal response" or "galvanic response"). In the embodiment chosen and shown, the set 20 of computer peripherals also includes means 201 for capturing behavioral information, for example devices for capturing the movements of the user's head, body and hands behind his terminal. These means can include, for example, one or more cameras, a radar, etc. As shown in FIG. 2, the client device 10 associated with the user terminal U1 comprises a module 110 for processing behavioral data, a module 120 for processing physiological data, a module 140 for determining responses of the virtual entity associated with the user of the terminal U1, a module 150 for animation of the virtual entity, and finally a module 130 for assistance in the interpretation of behavioral and physiological data. The behavioral data processing module 110 processes the data received from the behavioral information capture device (s). To this end, the module 110 comprises a sub-module 111 called “behavior information calibration”, a sub-module 113 for shaping behavioral data and a sub-module 115 for interpreting behavior as a function of behavioral data obtained. The behavior information calibration sub-module 111 has the function of initializing the capture means 201, for example adjusting the operating parameters of these means, but also of calibrating the information obtained, that is to say the calibrate according to characteristics specific to the user. The behavioral data formatting sub-module 113 has the task of formatting the raw data provided by the capture means 201, so as to put them in a format usable by the interpretation sub-module 115. The module 115 for interpreting the behavior of the user interacts with the means 201 for capturing behavioral information in order to interpret the information provided by the latter and formatted by the module 113 if necessary. The module 115 then supplies the result of this interpretation to the module 140 for determining a response from the appropriate virtual entity, in particular, to the behavior of the user. The document FR2819920 cited above gives an example of means of capturing and interpreting the behavior of a user. Similarly, the physiological data processing module 120 comprises, for the purpose of processing physiological information obtained from the capture means 203, a physiological information calibration sub-module 121, a shaping sub-module 123 physiological data and a sub-module 125 for interpreting physiological data. The function of the physiological information calibration sub-module 121 is to "calibrate" each physiological information capture means 201, that is to say on the one hand to initialize these capture means, by adjusting by example their operating parameters, but also, on the other hand, to calibrate the information obtained, that is to say to calibrate it according to characteristics specific to the user. In particular, the calibration sub-module 121 has the function of calculating beforehand at least one reference data item specific to the user concerning each physiological characteristic measured. So according to a exemplary embodiment, if the body temperature of the user is measured, the corresponding reference datum may represent an average value of the body temperature of the user measured at various time intervals. Similarly, with regard to the user's heart rate, the corresponding reference data can represent an average value of the heart rate measured at various time intervals. The physiological data shaping sub-module 123 has the task of shaping, if necessary, the measurement data supplied by the capture means 201. In fact, these measurement data are most often electrical signals that 'Then you have to format it to get the useful information. The sub-module 125 for interpreting physiological data has in particular the function of comparing each physiological data supplied by the capture module 203 via the shaping module 123, to the corresponding reference data and to deliver a new data, result of this comparison, to the module 140 for determining the response of the virtual entity. The module 140 then determines a response from the virtual entity adapted to the result of the aforementioned comparison, taking into account, if they exist, the behavior information provided by the sub-module 115 for interpreting the behavior of the user. When the appropriate response of the virtual entity is determined, the module 140 provides the animation instructions corresponding to this response to the animation module 150 of the virtual entity. The latter is then responsible for implementing, in collaboration with the server S on the network, the predetermined response of the virtual entity associated with the terminal user U1, in the virtual environment represented in all the user terminals ( U1-U3). Still in FIG. 2, the module 130 for assistance in the interpretation of behavioral and physiological data has the function of assisting the module 140 for determining the response of the virtual entity, by providing additional information relating to the responses previously determined (historical), the context of the active virtual scene, and the user's physical environment. To this end, the module 130 consists of three sub-modules: a response history sub-module 131, a context sub-module 133, a user environment sub-module 135. The response history sub-module 131 stores, on the one hand, information of varied nature, obtained over time, from modules 110 and 120 for processing behavioral and physiological data, and, on the other hand, information relating to the responses of the virtual entity previously determined by the response determination module 140. The context sub-module 133 stores information relating to the virtual scene being animated in the virtual environment presented to the different users. The information stored in the sub-module 133 comes in particular from the animation module 150 and from the server S managing the virtual meeting. This information can include, for example, information relating to objects present in the virtual scene - animated entities (clones, avatars), documents or other information carriers - as well as information concerning the relative position of these objects and their movements, in the virtual environment. Finally, the user environment sub-module 135 stores information relating to the physical environment of the user of the terminal: for example, the temperature of the place where the user is located, the brightness, the number of people present in this place with the user in question. This environmental information is typically obtained by appropriate sensors (temperature, brightness, etc.) and video / sound capture means. All this additional information (history, context, environment) is used by the module 140 to refine the determination of the appropriate response from the virtual entity. In connection with FIG. 3, a description will now be given of the virtual entity animation method implemented by the animation device described above with reference to FIG. 2. As illustrated in FIG. 3, in the embodiment chosen and shown, a method according to the invention for animating a virtual entity, comprises a prior step S10 of determining a reference datum for each of the physiological characteristics of the user to be measured by the information capture means 203. The next step S12 is a step of determining the instant, t, at which the predefined physiological characteristic or characteristics of the user must be measured. The expression "t = nT 'symbolizes the fact that, in this example, each physiological characteristic is measured periodically, T representing this period, and n, any natural integer. Thus, when only a period of time T has elapsed since the last measurement (S12, yes), we go to step S14 of actual measurement of each physiological characteristic. As explained above in the description, each characteristic is then measured by the capture means. 203 corresponding, each measurement information obtained is then shaped if necessary by the shaping module 123, the so-called "physiological" data then obtained is finally introduced into the module 125 for interpreting physiological data, in order to be used there In particular, as shown in step S16, in the aforementioned module 125, each physiological datum is compared with the corresponding reference datum. n, this comparison step comprises a first operation for calculating a difference between the physiological datum and the reference datum. This first operation is then followed by an operation for determining a "deviation level" as a function of the deviation calculated during the first step. This level of deviation is determined using predefined categorization rules. Two examples of the use of such categorization rules applied to the characteristics: body temperature and heart rate of the user, are explained later in the description. Returning to FIG. 3, in step S18 which follows, an appropriate response from the virtual entity is determined as a function of the result of step S16 of comparison. In particular, in the above embodiment, a predefined response is selected in particular according to the level of deviation determined in the comparison step (S 16). As mentioned previously in connection with FIG. 2, according to the embodiment presented, the determination (S18) of an appropriate response from the virtual entity can also take into account information, D130, relating to the previously determined responses (history) for the virtual entity, information relating to the context of the virtual environment or information relating to the physical environment of the user, this information being provided by the module 130. In addition, in this embodiment, data D110 behavioral data obtained beforehand can be taken into account when determining the appropriate response from the virtual entity. This behavioral data is then provided by the sub-module 115 of the behavioral data processing module 110, as explained above in connection with FIG. 2. Finally, in step S20, the actual animation of the virtual entity is implemented by the animation module 150, as a function of the response determined by the response determination module 140. It will be noted here that in the embodiment presented, the method according to the invention is implemented in a collaborative virtual environment (EVC) in which the users are typically represented by virtual entities of anthropomorphic type. However, the present invention also applies to virtual environments in which each virtual entity comprises a set of graphic elements associated with the virtual environment. In this type of environment, the different responses of the virtual entity, determined as a function of the physiological and / or behavioral data obtained for the user, are then materialized in the virtual environment by changes in appearance of at least a graphic element of the graphic assembly composing the virtual entity considered. The invention can also be applied to virtual environments in which each virtual entity is made up of a combination of signals of different nature, such as sound, olfactory, haptic signals, associated or not with graphic elements displayed on a screen. display. Examples of embodiments 1) In a first exemplary embodiment below, it is a question of animating an avatar of anthropomorphic type as a function of the heart rate of a user considered, in a collaborative virtual environment. In this example, the physiological signal measured is constituted by the user's pulse and a pulse oximeter (non-intrusive device) is used to capture this signal. At the output of the sensor (pulse oximeter), there is obtained, during each measurement, a physiological data item consisting of a value of the user's heartbeat frequency (heart rate). During the preliminary calibration step (S10) performed by the module
121 de calibrage, une valeur moyenne de la fréquence cardiaque de l'utilisateur mesurée à divers intervalles de temps, est déterminée, constituant ainsi la donnée de référence correspondante. Dans cet exemple, il n'y a pas de nécessité de mettre en forme les données physiologiques obtenues (module 123). Ensuite, dans le module d'interprétation 125, chaque valeur mesurée de la fréquence cardiaque (désignée par "V1 m") est comparée (S16) à la fréquence cardiaque moyenne (désignée par "V1ref" ), et un écart (désigné par "Ecartl") est alors calculé. On détermine ensuite un "niveau d'écart" (désigné par "Niv1_i", i entier relatif) en utilisant les règles de catégorisation suivantes, définies dans le module d'interprétation (125) :121 calibration, an average value of the user's heart rate measured at various time intervals is determined, thus constituting the corresponding reference data. In this example, there is no need to format the physiological data obtained (module 123). Then, in the interpretation module 125, each measured value of the heart rate (designated by "V1 m") is compared (S16) with the average heart rate (designated by "V1ref"), and a difference (designated by " Ecartl ") is then calculated. We then determine a "level of deviation" (designated by "Niv1_i", i relative integer) using the following categorization rules, defined in the interpretation module (125):
Niv1_-1 Ecartl = - 20% (V1 m = 0,8 * V1 ref) Niv1_0 Ecartl = 0 (V1 m = V1 ref) Niv1_1 Ecartl = + 30% (V1 m = 1 ,3 * V1 ref) Niv1 2 Ecartl = + 60% (V1 m = 1 ,6 * V1 ref) (" * " désigne l'opérateur de multiplication) Ainsi, si la fréquence cardiaque de référence est 70 pulsations/minute, les niveaux d'écarts ci-dessus couvrent l'intervalle de fréquences cardiaques : [56,112]. Le niveau d'écart est alors déterminé en fonction des règles de catégorisation ci-dessus, par exemple en prenant le niveau d'écart Niv1_i le plus proche de l'écart Ecartl effectivement calculé. Ensuite, dans cet exemple, on détermine (module 140, étape S18) la réponse de l'avatar (désignée par "Réponsel (i)") appropriée au niveau d'écart déterminé précédemment. A cet effet, on utilise les règles d'interprétation suivantes, qui peuvent être pondérées le cas échéant en fonction du contexte de la scène virtuelle, de l'historique des réponses ou de l'environnement physique de l'utilisateur :Niv1_-1 Deviationl = - 20% (V1 m = 0.8 * V1 ref) Niv1_0 Deviationl = 0 (V1 m = V1 ref) Niv1_1 Deviationl = + 30% (V1 m = 1, 3 * V1 ref) Niv1 2 Deviation = + 60% (V1 m = 1.6 * V1 ref) ("*" indicates the multiplication operator) Thus, if the reference heart rate is 70 beats / minute, the above deviation levels cover the heart rate range: [56,112]. The level of deviation is then determined according to the above categorization rules, for example by taking the level of deviation Niv1_i closest to the deviation Ecartl actually calculated. Then, in this example, the response of the avatar (designated by "Reply (i)") appropriate to the level of deviation previously determined is determined (module 140, step S18). For this purpose, the following interpretation rules are used, which can be weighted if necessary according to the context of the virtual scene, the response history or the physical environment of the user:
Si Niv1_-1 Alors Réponse1(-1) Si Niv1_0 AJors Réponse 1 (0) Si Niv1_1 Alors Réponsel (1 ) S| Niv1_2 Alors Réponsel (2) Les réponses "Réponsel (i)", mémorisées dans le module 140, sont définies dans le tableau ci-après.If Niv1_-1 Then Answer1 (-1) If Niv1_0 AJors Answer 1 (0) If Niv1_1 Then Answer (1) S | Niv1_2 Then Réponsel (2) The responses "Réponsel (i)", stored in module 140, are defined in the table below.
Figure imgf000015_0001
Tableau 1 Ainsi, selon le tableau ci-dessus, si la réponse déterminée est "Réponsel (2)", c'est-à-dire si la fréquence cardiaque mesurée de l'utilisateur est supérieure d'au moins 60% (Niv1_2) à la fréquence moyenne de référence, un son imitant le bruit d'un cœur qui bat est émis en relation avec l'avatar de l'utilisateur considéré, le visage de l'avatar est affiché teinté en rouge, et un symbole graphique représentant un cœur qui bat apparaît simultanément sur l'avatar, à l'écran de chaque terminal utilisateur.
Figure imgf000015_0001
Table 1 Thus, according to the table above, if the response determined is "Reply (2)", that is to say if the user's measured heart rate is at least 60% higher (Lv1_2) at the average reference frequency, a sound imitating the sound of a beating heart is emitted in relation to the avatar of the user considered, the avatar's face is displayed tinted in red, and a graphic symbol representing a beating heart appears simultaneously on the avatar, on the screen of each user terminal.
2) Dans un second exemple de réalisation ci-après, il s'agit d'animer un avatar de type anthropomorphique correspondant à une personne, en fonction de deux caractéristiques physiologiques combinées de la personne. Dans cet exemple, l'environnement virtuel se situe dans le cadre d'applications médicales, par exemple la surveillance médicale à distance. Les caractéristiques physiologiques exploitées simultanément sont ici la fréquence cardiaque, mesurée comme exposé dans l'exemple 1 supra, et la température corporelle de la personne considérée. Dans cet exemple, la température corporelle de la personne est mesurée au moyen d'un thermomètre électronique dynamique d'oreille (appareil non intrusif). Le thermomètre électronique délivre alors de manière périodique des valeurs mesurées de température corporelle de la personne. De même que pour la fréquence cardiaque (cf. exemple 1 ), au cours de l'étape préalable de calibrage (S10) effectuée par le module 121 de calibrage, une valeur moyenne de la température corporelle de la personne, est déterminée, constituant ainsi la seconde donnée de référence (désignée par2) In a second example of embodiment below, it is a question of animating an avatar of anthropomorphic type corresponding to a person, according to two combined physiological characteristics of the person. In this example, the virtual environment is within the framework of medical applications, for example remote medical monitoring. The physiological characteristics exploited simultaneously are here the heart rate, measured as described in Example 1 above, and the body temperature of the person considered. In this example, the person's body temperature is measured using a dynamic electronic ear thermometer (non-intrusive device). The electronic thermometer then periodically delivers measured values of the person's body temperature. As for the heart rate (cf. example 1), during the preliminary calibration step (S10) carried out by the calibration module 121, an average value of the person's body temperature is determined, thus constituting the second reference data (designated by
"V2ref"). Dans cet exemple encore, il n'y a pas de nécessité de mettre en forme, par le module 123, les données physiologiques obtenues (valeurs de fréquence cardiaque et de température corporelle). Dans le module d'interprétation 125, chaque valeur mesurée de température (désignée par "V2m") est alors comparée (S16) à la température moyenne ("V2ref" ), et un écart (désigné par "Ecart2") est alors calculé. On détermine ensuite un "niveau d'écart" (désigné par "Niv2_i", i entier relatif) en utilisant les règles de catégorisation définies dans le module d'interprétation (125), exposées ci-après. . Niv2_-1 : Ecart2 = - 2, 7% (\ 2m = 0,973 * V2ref) . Niv2_0 : Ecart2 = 0 (V2m = V2ref) . Niv2_1 : Ecart2 = + 4,0% (V2m = 1 ,04 * V2ref) . Niv2_2 : Ecart2 = + 8,1 % (V2m = 1 ,081 * V2ref) (" * " désigne l'opérateur de multiplication) Ainsi, si la température de référence est 37 degrés Celsius, les niveaux d'écarts ci-dessus couvrent l'intervalle d e température : [36,40]. En ce qui concerne les valeurs de fréquence cardiaques obtenues, leur traitement est identique à celui exposé dans l'exemple 1 supra. Ensuite, dans cet exemple, on détermine (module 140, étape S18) la réponse de l'avatar (désignée par "Réponse2(i)") appropriée aux niveaux d'écart déterminés au préalable ("Ecartl " et "Ecart2"), en utilisant les règles d'interprétation ci-dessous, qui peuvent être pondérées le cas échéant en fonction du contexte virtuel, de l'historique des réponses ou de l'environnement physique de la personne."V2ref"). In this example again, there is no need to format, by the module 123, the physiological data obtained (heart rate and body temperature values). In the interpretation module 125, each measured temperature value (designated by "V2m") is then compared (S16) with the average temperature ("V2ref"), and a difference (designated by "Deviation2") is then calculated. One then determines a "level of deviation" (designated by "Niv2_i", i relative integer) using the categorization rules defined in the interpretation module (125), set out below. . Niv2_-1: Deviation2 = - 2.7% (\ 2m = 0.973 * V2ref). Niv2_0: Deviation2 = 0 (V2m = V2ref). Niv2_1: Deviation2 = + 4.0% (V2m = 1.04 * V2ref). Niv2_2: Deviation2 = + 8.1% (V2m = 1.081 * V2ref) ("*" denotes the multiplication operator) So, if the reference temperature is 37 degrees Celsius, the deviation levels above cover the temperature range: [36.40]. As regards the heart rate values obtained, their treatment is identical to that set out in Example 1 above. Then, in this example, the response of the avatar (designated by "Response2 (i)") appropriate to the levels of deviation determined beforehand ("Ecartl" and "Ecart2") is determined (module 140, step S18), using the rules of interpretation below, which can be weighted if necessary according to the virtual context, the history of responses or the physical environment of the person.
S] (Niv1_-1 Et Niv2_-1) Ajors Réponse2(-1 ) Sj (Niv1_0 Et Niv2 )) Alors Réponse2(0) SJ (Niv1_2 Et Niv2_1 ) Alors Réponse2(1 ) Si [(Niv1_1 Ou Niv1_2) Et Niv2_2] Alors Réponse2(2)S] (Niv1_-1 And Niv2_-1) Ajors Answer2 (-1) Sj (Niv1_0 And Niv2)) Then Answer2 (0) SJ (Niv1_2 And Niv2_1) Then Answer2 (1) If [(Niv1_1 Or Niv1_2) And Niv2_2] Then Answer2 (2)
Les réponses "Réponse2(i)", mémorisées dans le module 140, sont définies dans le tableau ci-après.The responses "Response2 (i)", stored in the module 140, are defined in the table below.
Figure imgf000017_0001
Tabl eau 2 Ainsi, selon le tableau ci-dessus, si la réponse déterminée est "Réponse2(2)", c'est-à-dire, si la fréquence cardiaque mesurée de la personne considérée est supérieure d'au moins 30% à la fréquence moyenne de référence et si la température corporelle de la personne est de plus de 8% supérieure à la température de référence, un son imitant le bruit d'un cœur qui bat sera émis, à un volume sonore relativement élevé, en relation avec l'avatar de la personne considérée ; d'autre part, le visage de l'avatar sera affiché teinté en rouge et des symboles graphiques représentant respectivement un cœur qui bat et un thermomètre, apparaîtront simultanément sur l'avatar.
Figure imgf000017_0001
Water table 2 Thus, according to the table above, if the response determined is "Response2 (2)", that is to say, if the measured heart rate of the person considered is at least 30% higher than the average frequency and if the person's body temperature is more than 8% higher than the reference temperature, a sound imitating the sound of a beating heart will be emitted, at a relatively high volume, in relation to the avatar of the person concerned; on the other hand, the avatar's face will be displayed tinted in red and graphic symbols representing respectively a beating heart and a thermometer, will appear simultaneously on the avatar.
Les deux exemples exposés ci-dessus concernent des environnements virtuels dans lesquels des individus sont représentés par des avatars de type anthropomorphique. Cependant, l'invention s'applique également à des entités virtuelles non anthropomorphiques. Ainsi, en reprenant l'exemple 2 ci-dessus, on peut représenter l'état physiologique d'un individu par des modifications de l'aspect d'un décor graphique, par exemple un ciel, comme défini dans le tableau ci-après.The two examples exposed above concern virtual environments in which individuals are represented by anthropomorphic type avatars. However, the invention also applies to non-anthropomorphic virtual entities. Thus, using example 2 above, one can represent the physiological state of an individual by modifications to the appearance of a graphic decoration, for example a sky, as defined in the table below.
Figure imgf000018_0001
Tableau 3
Figure imgf000018_0001
Table 3
Par ailleurs, la présente invention s'applique à tout type d'environnement virtuel, reposant ou non sur une architecture client-serveur, et cela quelle que soit la finalité de l'environnent virtuel : travail collaboratif, conférence virtuelle, surveillance médicale à distance, etc. Furthermore, the present invention applies to any type of virtual environment, whether or not based on a client-server architecture, and this whatever the purpose of the virtual environment: collaborative work, virtual conference, remote medical surveillance , etc.

Claims

REVENDICATIONS
1. Procédé d'animation d'une entité virtuelle correspondant à un utilisateur dans un environnement virtuel présenté audit utilisateur au moyen d'un terminal de communication virtuelle, caractérisé en ce qu'il comporte les étapes suivantes : - mesure (S12, S14) d'au moins une caractéristique physiologique prédéfinie de l'utilisateur et génération d'une donnée, dite donnée physiologique, pour chaque caractéristique physiologique mesurée ; - comparaison (S16) de chaque donnée physiologique générée à une donnée de référence prédéterminée relative à la caractéristique physiologique correspondante ; - détermination (S18) d'une réponse de l'entité virtuelle, appropriée au résultat de l'étape de comparaison précédente ; - animation (S20) de l'entité virtuelle dans l'environnement virtuel en fonction de la réponse appropriée.1. Method for animating a virtual entity corresponding to a user in a virtual environment presented to said user by means of a virtual communication terminal, characterized in that it comprises the following steps: - measurement (S12, S14) at least one predefined physiological characteristic of the user and generation of data, called physiological data, for each physiological characteristic measured; - comparison (S16) of each physiological datum generated with a predetermined reference datum relating to the corresponding physiological characteristic; - determination (S18) of a response from the virtual entity, appropriate to the result of the preceding comparison step; - animation (S20) of the virtual entity in the virtual environment according to the appropriate response.
2. Procédé selon la revendication 1 , caractérisé en ce qu'il comporte en outre une étape d'obtention d'au moins une donnée comportementale (D110) relative au comportement de l'utilisateur, et en ce que la réponse de l'entité virtuelle est déterminée (S18) également en fonction de ladite au moins une donnée comportementale (D110) obtenue.2. Method according to claim 1, characterized in that it further comprises a step of obtaining at least one behavioral datum (D110) relating to the behavior of the user, and in that the response of the entity virtual is determined (S18) also as a function of said at least one behavioral datum (D110) obtained.
3. Procédé selon la revendication 1 ou 2, caractérisé en ce qu'il comporte une étape préalable de détermination (S10) d'une donnée de référence, propre à l'utilisateur, concernant chaque caractéristique physiologique prédéfinie.3. Method according to claim 1 or 2, characterized in that it comprises a prior step of determining (S10) a reference datum, specific to the user, relating to each predefined physiological characteristic.
4. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce qu'une réponse appropriée de l'entité virtuelle est en outre déterminée en fonction de réponses précédemment déterminées pour ladite entité virtuelle et/ou en fonction du contexte de l'environnement virtuel et/ou en fonction de l'environnement physique de l'utilisateur.4. Method according to any one of claims 1 to 3, characterized in that an appropriate response from the virtual entity is further determined as a function of responses previously determined for said entity virtual and / or according to the context of the virtual environment and / or according to the physical environment of the user.
5. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape de comparaison (S16) d'une donnée physiologique à la donnée de référence correspondante, comporte les sous-étapes suivantes : - calcul d'un écart entre la donnée physiologique et la donnée de référence ; - utilisation de règles prédéfinies de catégorisation pour déterminer un niveau d'écart en fonction de l'écart calculé ; et en ce que l'étape de détermination (S 18) d'une réponse de l'entité virtuelle comprend la sous-étape de : - sélection d'une réponse prédéfinie, au moins en fonction dudit niveau d'écart déterminé.5. Method according to any one of the preceding claims, characterized in that the step of comparing (S16) a physiological datum with the corresponding reference datum, comprises the following substeps: - calculation of a difference between physiological data and reference data; - use of predefined categorization rules to determine a level of difference according to the calculated difference; and in that the step of determining (S 18) a response from the virtual entity comprises the substep of: - selection of a predefined response, at least as a function of said determined level of deviation.
6. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que ladite au moins une caractéristique physiologique prédéfinie de l'utilisateur inclut la température corporelle de l'utilisateur, et en ce que ladite donnée de référence est une valeur moyenne de la température corporelle de l'utilisateur mesurée à divers intervalles de temps.6. Method according to any one of the preceding claims, characterized in that said at least one predefined physiological characteristic of the user includes the body temperature of the user, and in that said reference datum is an average value of the user's body temperature measured at various time intervals.
7. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que ladite au moins une caractéristique physiologique prédéfinie de l'utilisateur inclut la fréquence cardiaque de l'utilisateur, et ladite donnée de référence est une valeur moyenne de la fréquence cardiaque mesurée à divers intervalles de temps.7. Method according to any one of the preceding claims, characterized in that said at least one predefined physiological characteristic of the user includes the user's heart rate, and said reference data is an average value of the measured heart rate at various time intervals.
8. Procédé selon l'une quelconque des revendications 5 à 7, caractérisé en ce qu'au moins deux caractéristiques physiologiques différentes de l'utilisateur sont exploitées simultanément, par exemple la fréquence cardiaque et la température corporelle, et en ce qu'une réponse prédéfinie de l'entité virtuelle est sélectionnée en fonction des niveaux d'écart correspondant respectivement à chacune desdites caractéristiques physiologiques, chacun des niveaux d'écart étant déterminé en utilisant respectivement des règles prédéfinies de catégorisation correspondantes.8. Method according to any one of claims 5 to 7, characterized in that at least two different physiological characteristics of the user are used simultaneously, for example the frequency heart temperature and body temperature, and in that a predefined response of the virtual entity is selected as a function of the deviation levels corresponding respectively to each of said physiological characteristics, each of the deviation levels being determined using predefined rules respectively corresponding categorization.
9. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il est mis en œuvre dans un environnement virtuel collaboratif (EVC) au cours d'une session de communication au travers d'un réseau de télécommunication (R), entre une pluralité d'utilisateurs connectés au réseau par l'intermédiaire de terminaux respectifs (U1 , U2, U3).9. Method according to any one of the preceding claims, characterized in that it is implemented in a collaborative virtual environment (EVC) during a communication session through a telecommunication network (R), between a plurality of users connected to the network via respective terminals (U1, U2, U3).
10. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que ladite entité virtuelle est une représentation anthropomorphique de l'utilisateur.10. Method according to any one of the preceding claims, characterized in that said virtual entity is an anthropomorphic representation of the user.
11. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que ladite entité virtuelle comprend un ensemble d'éléments graphiques associés à l'environnement virtuel, et en ce que les différentes réponses de l'entité virtuelle, déterminées en fonction des données physiologiques et/ou comportementales obtenues pour l'utilisateur, sont matérialisées dans l'environnement virtuel par des changements d'apparence d'au moins un élément graphique dudit ensemble.11. Method according to any one of the preceding claims, characterized in that said virtual entity comprises a set of graphic elements associated with the virtual environment, and in that the different responses of the virtual entity, determined as a function of physiological and / or behavioral data obtained for the user, are materialized in the virtual environment by changes in appearance of at least one graphic element of said set.
12. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que ladite entité virtuelle est constituée d'une combinaison de signaux de différente nature, tels que des signaux sonores, olfactifs, haptiques, associés ou non à des éléments graphiques affichés sur un écran d'affichage. 12. Method according to any one of the preceding claims, characterized in that said virtual entity consists of a combination of signals of different nature, such as sound, olfactory, haptic signals, associated or not with graphic elements displayed on a display screen.
13. Dispositif d'animation d'une entité virtuelle correspondant à un utilisateur dans un environnement virtuel présenté à l'utilisateur au moyen d'un terminal de communication virtuelle, ledit dispositif d'animation étant caractérisé en ce qu'il comporte : - des moyens (203, 121 , 123) d'obtention d'informations relatives à l'état physiologique de l'utilisateur, lesdits moyens d'obtention étant aptes à mesurer au moins une caractéristique physiologique prédéfinie de l'utilisateur et générer une donnée, dite donnée physiologique, pour chaque caractéristique physiologique mesurée ; - des moyens (125, 140) de traitement des données physiologiques, destinés à comparer chaque donnée physiologique générée, à une donnée de référence prédéterminée relative à la caractéristique physiologique correspondante, et déterminer une réponse de l'entité virtuelle appropriée au résultat de la comparaison ; - des moyens (150) d'animation de l'entité virtuelle, destinés à commander l'animation de l'entité virtuelle dans l'environnement virtuel en fonction de la réponse déterminée par lesdits moyens (140) de traitement.13. Animation device of a virtual entity corresponding to a user in a virtual environment presented to the user by means of a virtual communication terminal, said animation device being characterized in that it comprises: means (203, 121, 123) for obtaining information relating to the physiological state of the user, said means for obtaining being able to measure at least one predefined physiological characteristic of the user and generate data, called physiological data, for each physiological characteristic measured; - Means (125, 140) for processing physiological data, intended to compare each physiological data generated, with a predetermined reference data item relating to the corresponding physiological characteristic, and determine a response from the appropriate virtual entity to the result of the comparison ; - means (150) of animation of the virtual entity, intended to control the animation of the virtual entity in the virtual environment as a function of the response determined by said processing means (140).
14. Dispositif selon la revendication 13, caractérisé en ce qu'il comporte en outre des moyens (201 , 111 , 113, 115) pour obtenir au moins une donnée comportementale relative au comportement de l'utilisateur, ladite donnée comportementale étant destinée à être utilisée ensuite par lesdits moyens de traitement (140), conjointement avec l'au moins une donnée physiologique, afin de déterminer une réponse appropriée de l'entité virtuelle.14. Device according to claim 13, characterized in that it further comprises means (201, 111, 113, 115) for obtaining at least one behavioral datum relating to the behavior of the user, said behavioral datum being intended to be then used by said processing means (140), together with the at least one physiological datum, to determine an appropriate response from the virtual entity.
15. Dispositif selon la revendication 13 ou 14, caractérisé en ce qu'il comporte en outre des moyens (121 ) pour calculer au préalable une donnée de référence, propre à l'utilisateur, pour chaque caractéristique physiologique prédéfinie. 15. Device according to claim 13 or 14, characterized in that it further comprises means (121) for calculating beforehand a reference datum, specific to the user, for each predefined physiological characteristic.
16. Dispositif selon l'une quelconque des revendications 13 à 15, caractérisé en ce que lesdits moyens de traitement déterminent une réponse de l'entité virtuelle en prenant en compte en outre des réponses précédemment déterminées pour ladite entité virtuelle et/ou le contexte de l'environnement virtuel et/ou l'environnement physique de l'utilisateur.16. Device according to any one of claims 13 to 15, characterized in that said processing means determine a response from the virtual entity by taking into account in addition responses previously determined for said virtual entity and / or the context of the virtual environment and / or the physical environment of the user.
17. Dispositif selon l'une quelconque des revendications 13 à 16, caractérisé en ce qu'il comporte des moyens adaptés à la mise en œuvre d'un procédé selon l'une quelconque des revendications 5 à 12. 17. Device according to any one of claims 13 to 16, characterized in that it comprises means adapted to the implementation of a method according to any one of claims 5 to 12.
PCT/FR2005/000353 2004-02-19 2005-02-16 Method and device for animating a virtual entity corresponding to a user in a virtual environment WO2005091114A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR04/50306 2004-02-19
FR0450306 2004-02-19

Publications (1)

Publication Number Publication Date
WO2005091114A1 true WO2005091114A1 (en) 2005-09-29

Family

ID=34944418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2005/000353 WO2005091114A1 (en) 2004-02-19 2005-02-16 Method and device for animating a virtual entity corresponding to a user in a virtual environment

Country Status (1)

Country Link
WO (1) WO2005091114A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112106127A (en) * 2018-04-27 2020-12-18 克里赛利克斯有限公司 Medical platform

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5974262A (en) * 1997-08-15 1999-10-26 Fuller Research Corporation System for generating output based on involuntary and voluntary user input without providing output information to induce user to alter involuntary input
WO2001075653A2 (en) * 2000-04-02 2001-10-11 Tangis Corporation Improving contextual responses based on automated learning techniques
WO2001086403A2 (en) * 2000-05-08 2001-11-15 Xie, Min Human interface method and apparatus
EP1183997A2 (en) * 2000-09-02 2002-03-06 Samsung Electronics Co., Ltd. Apparatus and method for perceiving physical and emotional states of a person

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5974262A (en) * 1997-08-15 1999-10-26 Fuller Research Corporation System for generating output based on involuntary and voluntary user input without providing output information to induce user to alter involuntary input
WO2001075653A2 (en) * 2000-04-02 2001-10-11 Tangis Corporation Improving contextual responses based on automated learning techniques
WO2001086403A2 (en) * 2000-05-08 2001-11-15 Xie, Min Human interface method and apparatus
EP1183997A2 (en) * 2000-09-02 2002-03-06 Samsung Electronics Co., Ltd. Apparatus and method for perceiving physical and emotional states of a person

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112106127A (en) * 2018-04-27 2020-12-18 克里赛利克斯有限公司 Medical platform

Similar Documents

Publication Publication Date Title
CN112215927B (en) Face video synthesis method, device, equipment and medium
US6169555B1 (en) System and methods for communicating through computer animated images
CA2364874A1 (en) Procedure for determining one degree of a body typology characteristic
CN111260545A (en) Method and device for generating image
JP2010517427A (en) System and method for providing personalized video services
WO2020089717A1 (en) Recommendation based on dominant emotion using user-specific baseline emotion and emotion analysis
EP3815042A1 (en) Image display with selective depiction of motion
CN111445561B (en) Virtual object processing method, device, equipment and storage medium
WO2020075622A1 (en) Information processing device, information processing method, and information processing program
WO2012001006A1 (en) Method for displaying a virtual world in which the avatar of a user of virtual reality service lives
JP2021516834A (en) Generation of newborn simulation images
CN117274491A (en) Training method, device, equipment and medium for three-dimensional reconstruction model
CN117036583A (en) Video generation method, device, storage medium and computer equipment
US20030110026A1 (en) Systems and methods for communicating through computer animated images
WO2005091114A1 (en) Method and device for animating a virtual entity corresponding to a user in a virtual environment
Hollier et al. Towards a multi-modal perceptual model
WO2012000826A1 (en) Method and device for teleconferencing
EP2987319A1 (en) Method for generating an output video stream from a wide-field video stream
Kim et al. Perceptually motivated automatic dance motion generation for music
FR3081572A1 (en) METHOD AND SYSTEM FOR AUTHENTICATING A USER CARRIER OF AN IMMERSION DEVICE
FR3088458A1 (en) METHOD FOR CONTEXTUALLY RECOGNIZING AND DESCRIBING AN OBJECT OF INTEREST FOR A VISUALLY DEFICIENT USER, DEVICE IMPLEMENTING SAID METHOD
EP3803544A1 (en) Device and method for measuring a characteristic of an interaction between a user and an interaction device
Fadzli et al. A systematic literature review: Real-time 3D reconstruction method for telepresence system
CN116012564B (en) Equipment and method for intelligent fusion of three-dimensional model and live-action photo
JP4580812B2 (en) Video generation method, stand-alone video playback device, and network distribution video playback system

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase