FR3106687A1 - Procédé de génération d’un contenu virtuel pour une plateforme interactive, et dispositif correspondant. - Google Patents

Procédé de génération d’un contenu virtuel pour une plateforme interactive, et dispositif correspondant. Download PDF

Info

Publication number
FR3106687A1
FR3106687A1 FR2000704A FR2000704A FR3106687A1 FR 3106687 A1 FR3106687 A1 FR 3106687A1 FR 2000704 A FR2000704 A FR 2000704A FR 2000704 A FR2000704 A FR 2000704A FR 3106687 A1 FR3106687 A1 FR 3106687A1
Authority
FR
France
Prior art keywords
platform
configurations
configuration
elements
virtual content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR2000704A
Other languages
English (en)
Inventor
Tiffany LUONG
Nicolas Martin
Anatole LÉCUYER
Ferran ARGELAGUET
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institut National de Recherche en Informatique et en Automatique INRIA
Fondation B Com
Original Assignee
Institut National de Recherche en Informatique et en Automatique INRIA
Fondation B Com
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut National de Recherche en Informatique et en Automatique INRIA, Fondation B Com filed Critical Institut National de Recherche en Informatique et en Automatique INRIA
Priority to FR2000704A priority Critical patent/FR3106687A1/fr
Priority to PCT/EP2021/051223 priority patent/WO2021148482A1/fr
Publication of FR3106687A1 publication Critical patent/FR3106687A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/47Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/307Simulation of view from aircraft by helmet-mounted projector or display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks

Abstract

La présente invention concerne un procédé de génération d’un contenu virtuel par rapport à un environnement réel, pour une plateforme interactive. Le procédé comprend les étapes suivantes - détection d’un évènement prédéterminé, - suite à la détection dudit évènement prédéterminé, sélection, au vu d’une première configuration de la plateforme, d’une nouvelle configuration parmi un ensemble de configurations agencées au cours d’une étape préalable, et - génération du contenu virtuel conformément à la nouvelle configuration, ladite étape préalable comprenant les étapes suivantes - association des différentes configurations de la plateforme à une combinaison d’éléments, au moins un élément étant décliné en au moins deux variantes, et - agencement des configurations associées aux combinaisons d’éléments, les unes par rapport aux autres, de façon qu’entre deux configurations adjacentes, un seul élément de la combinaison change de variante. Figure pour l’abrégé : Fig. 3

Description

Procédé de génération d’un contenu virtuel pour une plateforme interactive, et dispositif correspondant.
Domaine technique de l'invention
La présente invention concerne le domaine technique de la réalité virtuelle, augmentée ou mixte via une plateforme interactive.
Elle concerne en particulier la génération d’un contenu virtuel par rapport à un environnement réel, pour une plateforme interactive.
Etat de la technique
L’article «Dynamicscenario adaptation balancing control, coherence and emergence», de Camille Barot, Dominique Lenne, Domitile Lourdeaux, Fev. 2013, décrit l’élaboration d’un scenario pour une plateforme de réalité virtuelle choisie. Le scénario permet de faire varier ce contenu virtuel mis en œuvre par la plateforme. Un scénario selon cet article, est basé sur différentes actions que l’utilisateur doit réaliser l’une après l’autre. En fonction de la réaction de l’utilisateur, une nouvelle action à réaliser est sélectionnée d’après le scénario mis en place. Les actions proposées s’enchainent donc une à une, de façon dynamique et cohérente. Toutefois, la solution proposée dans cet article est totalement dépendante de l’action de l’utilisateur quant à l’exécution du scénario, les actions devant rester simples pour que le scénario puisse être exécuté.
Présentation de l'invention
Dans ce contexte, la présente invention propose un procédé de génération d’un contenu virtuel par rapport à un environnement réel, pour une plateforme interactive. Le procédé comprend les étapes suivantes
- détection d’un évènement prédéterminé,
- suite à la détection dudit évènement prédéterminé, sélection, au vu d’une première configuration de la plateforme, d’une nouvelle configuration parmi un ensemble de configurations agencées au cours d’une étape préalable, et
- génération du contenu virtuel conformément à la nouvelle configuration,
ladite étape préalable comprenant les étapes suivantes
- association des différentes configurations de la plateforme à une combinaison d’éléments, au moins un élément étant décliné en au moins deux variantes, et
- agencement des configurations associées aux combinaisons d’éléments, les unes par rapport aux autres, de façon qu’entre deux configurations adjacentes, un seul élément de la combinaison change de variante.
L’invention, de par l’agencement proposé, offre la possibilité de définir une machine à états permettant des enchainements en temps réel, des configurations de la plateforme. Le fait que chaque combinaison soit constituée d’éléments simples fait que le processus est peu complexe à mettre en œuvre. Par ailleurs, pouvoir combiner les éléments entre eux comme proposé par l’invention, permet de soumettre l’utilisateur à un contenu virtuel immersif qui est représentatif d’une interaction entre plusieurs éléments selon un scénario choisi.
D’autres caractéristiques non limitatives et avantageuses du procédé/dispositif conforme à l’invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes.
Dans un mode de mise en œuvre, un élément peut comprendre des données multimédia pour ladite plateforme.
Dans un autre mode de mise en œuvre, au moins un élément peut être décliné selon deux états, à savoir activé ou non pour un utilisateur interagissant avec ladite plateforme.
Dans un autre mode de mise en œuvre, au moins un élément peut être décliné selon au moins deux niveaux de difficulté au regard de la réaction demandée à l’utilisateur via la plateforme interactive.
Dans un autre mode de mise en œuvre, le procédé peut comprendre en outre une sélection de la première configuration parmi l’ensemble des configurations agencées au cours de l’étape préalable.
Dans un autre mode de mise en œuvre, le procédé peut comprendre en outre une mesure d’une ou plusieurs valeurs d’au moins un paramètre représentatif d’un état de l’utilisateur, et dans lequel la sélection d’une configuration est fonction d’au moins une valeur mesurée.
Dans un autre mode de mise en œuvre, l’association des configurations peut comprendre les étapes suivantes
- obtention d’au moins deux éléments,
- obtention d’au moins deux variantes pour les éléments obtenus,
- association d’une configuration de la plateforme à une combinaison des éléments obtenus, chaque élément étant considéré dans l’une des variantes obtenues.
Dans un autre mode de mise en œuvre, la sélection d’une nouvelle configuration peut comprendre la sélection d’une configuration prédéterminée parmi l’ensemble des configurations agencées.
Dans un autre mode de mise en œuvre, la sélection d’une nouvelle configuration peut comprendre une détermination d’une variante souhaitée pour au moins un élément et une sélection d’une configuration associée à la variante déterminée pour ledit élément.
Dans un autre mode de mise en œuvre, la sélection d’une nouvelle configuration peut comprendre la sélection d’une configuration adjacente à la première configuration dans l’ensemble des configurations agencées.
Dans un autre mode de mise en œuvre, la sélection d’une nouvelle configuration peut comprendre la sélection d’une configuration dans l’ensemble des configurations agencées selon un enchaînement prédéterminé depuis la première configuration.
L’invention concerne encore un dispositif de génération d’un contenu virtuel par rapport à un environnement réel, pour une plateforme interactive. Le dispositif comprend
- un module conçu pour détecter un évènement prédéterminé,
- un module conçu pour sélectionner, si ledit évènement prédéterminé est détecté, et au vu d’une première configuration de la plateforme, une nouvelle configuration parmi un ensemble de configurations préalablement agencées, et
- un module conçu pour générer le contenu virtuel conformément à la nouvelle configuration, le dispositif comprenant en outre
- un module conçu pour associer différentes configurations de la plateforme à une combinaison d’éléments, au moins un élément étant décliné en au moins deux variantes, et
- un module conçu pour agencer les configurations associées aux combinaisons d’éléments, les unes par rapport aux autres, de façon qu’entre deux configurations adjacentes, un seul élément de la combinaison change de variante.
Bien entendu, les différentes caractéristiques, variantes et formes de réalisation de l'invention peuvent être associées les unes avec les autres selon diverses combinaisons dans la mesure où elles ne sont pas incompatibles ou exclusives les unes des autres.
Description détaillée de l'invention
De plus, diverses autres caractéristiques de l'invention ressortent de la description annexée effectuée en référence aux dessins qui illustrent des formes, non limitatives, de réalisation de l'invention et où:
illustre un exemple d’utilisation de l’invention;
illustre un exemple de contenu virtuel généré à l’aide d’un procédé selon l’invention;
présente les étapes principales d’un premier mode de mise en œuvre d’un procédé selon l’invention;
illustre plus en détail une étape du premier mode de mise en œuvre;
est une vue schématisée d’un agencement des configurations d’une plateforme interactive mis en œuvre par le procédé selon l’invention;
est une représentation schématisée d’un cas d’usage de l’invention;
présente les étapes principales d’un deuxième mode de mise en œuvre d’un procédé selon l’invention; et
illustre un exemple d’implémentation pour un dispositif de génération d’un contenu virtuel selon l’invention.
Il est à noter que, sur ces figures, les éléments structurels et/ou fonctionnels communs aux différentes variantes peuvent présenter les mêmes références.
Lafigure 1illustre un exemple de plateforme interactive PLT pour laquelle l’invention peut, selon différents modes de mise en œuvre, générer un contenu virtuel. La plateforme de la figure 1 prend ici la forme d’un cockpit COP d’un simulateur du vol d’un avion, devant lequel est assis un utilisateur US, par exemple un pilote d’avion dans le cadre d’une formation. Celui-ci porte un casque de réalité virtuelle, augmentée ou mixte VRHS comprenant un ou deux écrans configurés pour afficher un contenu vidéo en trois dimensions. Dans cet exemple le casque VRHS comporte un appareil de diffusion de son spatialisé AHS. Le casque de réalité virtuelle VRHS peut être un casque «VIVE pro», proposé par la société HTC ou encore un casque Playstation VR proposé par la société Sony. En variante, l’affichage du contenu vidéo peut être réalisé via un téléphone en utilisant un dispositif tel que le Gear VR proposé par Samsung ou encore le Google Cardboard de la société Google.
La plateforme interactive PLT comprend également une première manette JS solidaire du cockpit COP et orientable par l’utilisateur US, ici à l’aide de sa main droite. Une deuxième manette de contrôle MCT est manipulée par l’utilisateur via sa main gauche. Par exemple, cette deuxième manette peut être une manette «Vive controller» de la société HTC. Les deux manettes JS et MCT sont couplées avec le casque de réalité virtuelle VRHS de façon que leurs mouvements soient détectés.
Une plateforme est caractérisée par une configuration, ici parmi une pluralité de configurations possibles. Chaque configuration est associée à un contenu virtuel qui lui est propre, ce contenu virtuel étant basé sur des éléments tels que décrits ci-après en référence à la figure 3. Autrement dit, pour deux configurations différentes, la plateforme interactive ne diffuse pas le même contenu virtuel immersif. Des exemples de configuration sont décrits ci-après.
Lafigure 2est une représentation virtuelle en trois dimensions dans laquelle est plongé l’utilisateur US. Cette représentation se superpose au cockpit COP de la figure 1, en termes de position et de taille afin de faciliter l’immersion de l’utilisateur US dans l’environnement virtuel. La première manette orientable JS est représentée par une version virtuelle de la manette VRJS, manipulée par une main droite MD virtuelle de l’utilisateur. L’orientation donnée par l’utilisateur sur la manette orientable JS sera reproduite sur la manette virtuelle VRJS. Celle-ci permet ici d’agir sur l’orientation de l’avion simulé, afin de le faire suivre une trajectoire. Cette dernière est symbolisée par une ligne (non représentée à des fins de clarté de la figure) traversant des cercles CR1, CR2, CR3 visibles à travers la représentation du pare-brise du cockpit COP.
La main gauche MG du pilote est également virtuellement représentée. Son mouvement est basé sur celui de la deuxième manette de contrôle MCT. Elle permet d’activer ou de désactiver des fonctions regroupées au sein de différentes interfaces INT1, INT2 et INT3. Ces fonctions peuvent être par exemple organisées par type tel que les fonctions qui permettent le pilotage de l’avion, la communication via un canal radio ou encore la gestion des ressources en énergie.
Les deux figures précédentes sont proposées à titre d’illustration afin de faciliter la compréhension de l’invention. Elles ne sont nullement limitatives quant à la plateforme interactive utilisée ou à l’application visée. On peut imaginer par exemple une plateforme interactive simulant une chaîne de montage dans le but de former un technicien ou encore une plateforme de jeux interactifs.
On se réfère à présent à lafigure 3qui illustre les principales étapes d’un premier mode de mise en œuvre d’un procédé de génération d’un contenu virtuel selon l’invention. Ce contenu virtuel est généré à partir de combinaisons d’éléments prédéfinis, au moins l’un des éléments pouvant être décliné selon plusieurs variantes.
Par exemple, un élément peut comprendre des données multimédia, telles que des données audio ou des objets 3D. Les variantes de ces éléments peuvent alors correspondre à l’activation ou non des données pour l’utilisateur. Ainsi deux variantes pour les données audio peuvent correspondre à la diffusion ou non du contenu audio à l’utilisateur. De même, deux variantes pour les objets 3D peuvent correspondre à l’affichage ou non de ces objets pour l’utilisateur. Ou encore, plusieurs variantes de ces objets 3D peuvent correspondre à différentes versions de ces mêmes objets, de façon que la réaction ou la tâche demandée à l’utilisateur de la plateforme soit plus ou moins difficile selon la version de l’objet qui est lui est présentée.
Selon un autre exemple, un élément peut correspondre à des consignes pour un retour haptique à l’utilisateur, via l’une des manettes de contrôle de la plateforme interactive. Les variantes de ces consignes peuvent correspondre à différentes amplitudes du retour de force, de façon que l’effort à fournir par l’utilisateur de la plateforme soit plus ou moins important, selon la variante qui est choisie. En variante, le retour haptique peut être effectué via le siège de l’utilisateur ou son le casque si ces derniers sont configurés pour cela, ou encore des actionneurs disposés sur les mains ou les avant-bras de l’utilisateur.
Selon un autre exemple, un élément prédéfini peut représenter une collection de n (n≥2) sous-éléments couplés entre eux et donc solidaires dans leurs variations, un sous-élément pouvant correspondre par exemple à des objets 3D, des données audio ou encore une consigne de retour haptique. Une variante de cet élément correspond alors la collection des n variantes des sous-éléments considérés.
Les éléments proposés ici ainsi que les variantes déclinées ne sont que des exemples. L’homme de l’art saura proposer d’autres éléments et leurs variantes en fonction de l’application visée.
Dans l’exemple décrit ici, les tâches à accomplir par l’utilisateur interagissant avec la plateforme peuvent être classés selon différentes catégories. Selon la configuration de la plateforme, les tâches peuvent être plus ou moins difficiles à réaliser pour l’utilisateur. La difficulté de la tâche implique une certaine combinaison des variantes des éléments.
Sont proposées ici trois catégories de tâches: les tâches de pilotage, les tâches liées à la communication ou encore les tâches liées à la gestion des ressources comme le carburant.
La tâche de pilotage peut consister à orienter virtuellement l’avion, à l’aide de la manette orientable JS, afin de viser une trajectoire matérialisée ici par des cercles comme illustré sur la figure 2. Trois niveaux de difficulté peuvent être proposés pour cette tâche de pilotage: facile, medium, difficile. Ils sont basés sur la vitesse de l’avion et le nombre de cercles visibles pour matérialiser la trajectoire. Plus le niveau est difficile, plus la vitesse de l’avion est élevée et plus le nombre de cercles visibles est réduit. De ce fait, chaque niveau de difficulté va correspondre à la diffusion d’une version différente d’un contenu immersif pour symboliser les différentes vitesses et matérialisations de la trajectoire. Alternativement chaque niveau de difficulté peut correspondre à la collection de deux sous-éléments que sont un contenu immersif pour symboliser les différentes vitesses et matérialisations de la trajectoire et un retour haptique via la manette de contrôle. Une première variante de cette collection correspond à un contenu immersif simulant une vitesse lente associée à une consigne de faible amplitude pour la manette. Une deuxième variante de cette collection correspond à un contenu immersif simulant une vitesse modérée associée à une consigne d’amplitude modéré. Une troisième variante de cette collection correspond à un contenu immersif simulant une vitesse élevée associée à une consigne de forte amplitude
La tâche de communication peut comprendre la réception de message audio via le casque audio AHS et l’interaction avec une interface simulant une radio sur le tableau de bord virtuel, par exemple pour sélectionner une certaine fréquence de communication. L’ajustement de la fréquence peut être réalisé à l’aide de la manette de contrôle MCT mentionnée ci-avant. Deux niveaux de difficulté sont ici proposés: la gestion de la radio ainsi que la diffusion des messages audio via le casque audio sont activés (niveau «difficile») ou non (niveau «facile»).
La tâche de gestion des ressources peut comporter la gestion du niveau du carburant répartis entre différents réservoirs afin d’éviter une panne sèche. L’utilisateur doit pour réaliser cette tâche, transférer virtuellement le carburant d’un réservoir secondaire vers un réservoir principal, via une interface sur le tableau de bord. L’utilisation de la manette de contrôle MCT permet d’activer le transfert du carburant en sélectionnant la ou les pompes adéquates. Il est possible de décliner deux niveaux de difficulté, à savoir la gestion des ressources via l’interface est demandée (niveau «difficile») ou non (niveau «facile») à l’utilisateur.
Le mode de mise en œuvre de la figure 3 comprend une étape préalable E0 qui prend en entrée des tâches TA définies pour l’application considérée, ici les trois tâches précitées. En variante, les tâches TA peuvent ne pas être fournies mais identifiées au cours de cette étape préalable, comme expliqué en référence à la figure suivante.
L’étape préalable E0 peut également recevoir en entrée une liste de contraintes CNT liées à l’enchaînement des différentes tâches TA. Des exemples de contraintes sont décrits dans la suite de la description.
Enfin l’étape préalable E0 considère en entrée l’ensemble des configurations possibles de la plateforme interactive considérée. Cet ensemble forme un environnement virtuel non structuré ENS ne permettant pas un enchaînement des configurations de la plateforme en temps réel. Par exemple, cet environnement non structurée peut être développé avec Unity 3D et mis en œuvre à l’aide d’un ordinateur portable équipé d’un processeur (CPU) Intel® Core™ i7-6820HK (2.7GHz), d’une carte graphique Nvidia Ge Force GTX 1070 et d’une mémoire de type RAM de 16Go. Un autre exemple d’environnement de développement pouvant être utilisé est Unreal Engine. L’étape préalable E0 permet de structurer cet environnement virtuel.
Lafigure 4décrit un mode de mise en œuvre de cette étape préalable E0.
Dans une première alternative (non représentée), une sous-étape peut fournir l’expression d’une ou plusieurs tâches TA que l’utilisateur doit effectuer, déclinées selon les différents niveaux de difficultés.
Dans une deuxième alternative, illustrée sur la figure 4, la sous-étape E01 peut fournir l’expression d’une ou plusieurs tâches TA que l’utilisateur doit effectuer, et les niveaux de difficulté de la ou des tâches TA sont calculés au cours d’une sous-étape E02 par un programme d’ordinateur mis en œuvre par un processeur. Par exemple, si l’on considère la tâche de pilotage, un processeur peut calculer les vitesses associées à chaque niveau de difficulté entre deux bornes prédéterminées, ainsi que le nombre de cercles visibles entre une valeur minimale et maximale.
Les tâches selon leurs différents niveaux de difficulté sont associées aux combinaisons d’éléments adéquates au cours d’une sous-étape E03.
Un exemple d’une première tâche est {pilotage niveau facile, communication non activée, gestion des ressources non activée}. Dans ce cas, la configuration (dénommée ci-après configuration 1) de la plateforme associée comprend:
- la diffusion de la version d’un contenu immersif correspondant à un pilotage facile (vitesse lente et nombreux cercles de trajectoires) via le casque de réalité virtuelle, mixte ou augmentée,
- la désactivation de la diffusion des messages audio pour ne pas avoir à gérer la communication,
- et la désactivation de l’interface virtuelle sur le tableau de bord du cockpit permettant de gérer les ressources (elle apparaît comme étant éteinte) pour ne pas avoir à les gérer.
Les trois variantes d’éléments combinés correspondant à cette configuration 1 sont alors:
- la version du contenu immersif correspondant au pilotage facile,
- les messages audio désactivés, et
- la représentation virtuelle en 3D du cockpit ayant l’interface virtuelle de gestion des ressources éteinte.
Un autre exemple d’une deuxième combinaison est {pilotage niveau difficile, communication non activée, gestion des ressources activée}. Dans ce cas, la configuration de la plateforme (dénommée ci-après configuration 2) associée comprend:
- la diffusion du contenu immersif correspondant à un pilotage difficile (vitesse rapide et peu de cercles de trajectoires) via le casque de réalité augmentée,
- la désactivation de la diffusion des messages audio, et
- l’activation de l’interface virtuelle sur le tableau de bord du cockpit permettant de gérer les ressources (elle apparaît comme étant allumée) et l’activation de la manette de contrôle.
Les variantes d’éléments combinés associées à la configuration 2 sont alors:
- la version du contenu immersif correspondant au pilotage difficile,
- les messages audio désactivés, et
- la représentation virtuelle en 3D du cockpit ayant l’interface virtuelle de gestion des ressources allumée.
Dans un mode de mise en œuvre, les combinaisons d’éléments formées peuvent être associées à des contraintes CNT. Ces dernières peuvent comprendre des mesures de paramètres choisis, ces mesures ayant été réalisées dans une étape préliminaire non représentée ici. Dans ce cas, les valeurs des mesures constituent des références. Ainsi, selon ce mode de mise en œuvre, outre la combinaison des éléments, chaque configuration de la plateforme peut être associée à une valeur de référence mesurée. Ces références qui sont alors mémorisées, peuvent porter sur un ou plusieurs paramètres différents, par exemple la valeur du rythme cardiaque d’un utilisateur en réaction à la configuration en question ou encore une mesure traduisant le mouvement de ses pupilles. Ces références peuvent offrir un point d’articulation supplémentaire pour un scénario d’enchaînement comme expliqué plus en détail ci-après en référence à la figure 3.
Puis au cours d’une sous-étape E04, les configurations associées aux combinaisons d’éléments sont agencées de façon à obtenir un environnement structuré ES, exploitable par la plateforme interactive. Un exemple de cet agencement est représenté sur la figure suivante.
Lafigure 5illustre un exemple d’agencement des différentes configurations sous forme d’une machine à états (ou automate fini) permettant à la plateforme interactive de basculer d’une configuration à une autre, en temps réel.
Dans le format choisi ici, chaque configuration est représentée sous forme de trois chiffres inscrits dans un nœud de la machine à états, chaque chiffre correspondant à une tâche selon un niveau de difficulté, et donc à un élément (pouvant représenter une collection de sous-éléments couplés tels que définis ci-avant) dans la variante appropriée. Le premier chiffre représente la tâche de pilotage, le deuxième chiffre, la tâche de communication et le troisième chiffre la tâche de gestion des ressources. Le premier chiffre peut prendre trois valeurs {0, 1, 2}, la tâche pouvant se décliner en trois niveaux de difficultés. Les deuxième et troisième chiffre peut prendre deux valeurs {0, 1}, la tâche pouvant se décliner en deux niveaux de difficultés selon qu’elle soit activée ou non. Ainsi la configuration 1 mentionnée ci-avant est représentée par les trois chiffres {0, 0, 0} et la configuration 2 par les trois chiffres {2, 0, 1}. Comme illustré sur la figure 5, entre deux configurations adjacentes, un seul élément de la combinaison associée change de variante, impliquant un changement du niveau de difficulté global de la tâche. Dans cet exemple, le changement est limité à la variante immédiatement inférieure ou supérieure, c’est-à-dire à un incrément ou un décrément d’une unité des chiffres représentant le niveau de difficulté de la tâche selon la représentation adoptée ici. L’homme du métier saura adapter l’incrément de la variante de l’élément, selon l’usage visé. Cet agencement selon l’invention offre la possibilité de définir des enchainements en temps réel des configurations de la plateforme. La décomposition de chaque combinaison à l’aide d’éléments simples fait que le processus est peu complexe à mettre en œuvre.
Par ailleurs, pouvoir combiner les éléments entre eux selon le schéma proposé, permet de soumettre l’utilisateur, grâce au contenu virtuel généré, à une interaction d’éléments selon un scénario préétabli. Comme détaillé ci-après, il est alors possible de mesurer à l’aide de capteurs, l’impact de ce phénomène d’interaction sur l’état cognitif de l’utilisateur, ou encore de concevoir des jeux interactifs plus riches grâce à des scénarios complexes et maitrisés.
Enfin, la déclinaison des éléments sous forme de variantes et de les agencer selon l’invention, permet de contrôler finement leur évolution qui peut être graduelle ou alors soudaine si les nœuds enchaînés ne sont pas adjacents.
Le format choisi pour la machine à états est un exemple parmi d’autres et ne doit pas constituer une quelconque limitation de l’invention.
On se réfère à nouveau à lafigure 3. A l’issue de l’étape E0, l’environnement structuré ES est fourni en entrée d’une étape E1 en vue d’une sélection d’une configuration initiale pour la plateforme. La sélection est effectuée parmi l’ensemble des configurations agencées de cet environnement structuré ES, comme illustré sur la figure 5. La sélection de la configuration initiale peut être prédéterminée à partir d’un scénario SCE d’enchaînement des configurations. Par exemple, la configuration initiale peut correspondre à la combinaison de tâches {0, 0, 0} où chaque tâche est initialisée à son niveau de difficulté le plus bas. Alternativement ou en complément, des contraintes et/ou des paramètres préalablement mesurés CNT peuvent être considérés. Par exemple les paramètres mesurés peuvent être représentatifs de l’état mental initial de l’utilisateur. Ces mesures physiologiques peuvent comprendre:
- l’encéphalogramme (EEG) de l’utilisateur,
- l’imagerie spectroscopique proche infrarouge fonctionnelle (fNIR),
- la mesure de la taille, la position et les mouvements de sa pupille,
- l’électro-oculographie (EOG) de l’utilisateur,
- l’activité musculaire de l’utilisateur via électromyographie (EMG),
- la mesure de son activité cardiaque via un electrocardiogramme (ECG) et/ou un photoplethysmogramme (PPG), ou encore
- la mesure de son activité électrodermale (EDA).
L’homme du métier saura choisir les capteurs adaptés pour effectuer ces différentes mesures. De même, des mesures dites comportementales telles que le temps de réaction, la quantité et l’amplitude des mouvements et des mesures de performances dans la réalisation des tâches pourront être mesurées afin de déterminer l’état initial de l’utilisateur et choisir une configuration initiale adéquate. Ainsi à titre d’exemple, si la mesure de l’activité cardiaque révèle une fréquence cardiaque élevée, la configuration initiale sélectionnée comprendra des niveaux de difficulté faible pour démarrer le processus. Par ailleurs une contrainte pouvant influencer la sélection de la configuration de la première configuration pourrait être un seuil de vitesse de façon à simuler un décollage au début du processus. Le contenu virtuel adapté à cette configuration initiale est alors généré.
Dans ce mode de mise en œuvre, il est considéré que la plateforme interactive conserve chaque configuration pendant une durée Δt (par exemple 90 secondes), cette durée pouvant être définie par le scénario SCE. Lorsque l’on détecte que le temps Δt est écoulé, une nouvelle configuration de la plateforme est sélectionnée lors d’une étape E2. De façon itérative, la sélection d’une nouvelle configuration est réalisée à chaque expiration de la durée Δt, à partir de l’environnement structuré ES, tant que l’enchaînement des configurations prévu par le scenario SCE n’est pas achevé. Un exemple d’enchaînement de configurations du scénario SCE pourrait être, après la configuration initiale {0, 0, 0}: {1, 0, 0} – {1, 1, 0} – {1, 1, 1} – {2, 1, 1}. Dans cet exemple, la difficulté de la tâche de pilotage (premier chiffre) augmente progressivement tandis que les tâches de communication puis de gestion des ressources sont successivement activées. Un autre exemple d’enchaînement de configurations du scénario SCE pourrait être, après la configuration initiale {0, 0, 0}: {0, 1, 0} – {0, 1, 1} – {0, 0, 1} – {1, 0, 1} - {2, 0, 1} - {2, 1, 1}. Cet enchaînement permet à l’utilisateur d’avoir accès à une vision d’ensemble des différentes tâches et de leurs différentes variantes, avec au commencement une difficulté de pilotage minimale.
Dans le mode de mise en œuvre où chaque configuration est associée à une valeur de référence d’un paramètre, un exemple de scénario SCE pourrait comprendre une évolution graduelle de la difficulté avec comme contrainte supplémentaire, que la combinaison correspondante soit associée à une valeur de fréquence cardiaque de référence, fcref, inférieure ou égale à 120bpm. Ainsi entre deux configurations possibles, le scénario imposerait la configuration dont la combinaison est associée à la valeur de référence satisfaisant cette contrainte supplémentaire. Dans ce cas, un exemple d’enchaînement pourrait alors être après la configuration initiale {0, 0, 0}: {1, 0, 0 – fcref=110bpm} – {0, 1, 1 - fcref=110bpm } – {1, 1, 1 - fcref=120bpm } – {2, 1, 1 - fcref=100bpm}.
Pour chaque nouvelle configuration sélectionnée, un contenu virtuel adapté est généré, à partir des variantes des éléments associées à chacune des configurations.
Lorsque la plateforme interactive est passée par l’ensemble des configurations prévues par le scénario SCE, le processus s’achève, étape E3.
Parallèlement à la sélection des différentes configurations de la plateforme, le procédé peut comprendre dans un mode de mise en œuvre, une étape E200 au cours de laquelle différentes mesures physiologiques sont effectuées sur l’utilisateur. Les mesures peuvent être choisies parmi la liste proposée ci-dessus, cette liste n’étant pas limitative. Les performances de l’utilisateur tout au long du processus peuvent également être mesurées à l’aide des indicateurs renvoyés par la plateforme interactive. Ces indicateurs peuvent être par exemple le temps de réaction de l’utilisateur pour accomplir une tâche ou encore l’écartement de la trajectoire suivie par rapport à la trajectoire demandée. Enfin, les indicateurs de performance peuvent être complétés par une auto-évaluation de l’utilisateur qu’il peut saisir à travers l’interface virtuelle de la plateforme interactive.
Selon un exemple d’utilisation de l’invention, il est possible de suivre l’évolution de l’état cognitif de l’utilisateur tout au long du processus, pour chaque configuration de la plateforme. Ce suivi peut comprendre l’évaluation du niveau de la charge mentale de l’utilisateur pour l’ensemble des configurations ou, pour certaines configurations seulement, puis être inféré pour les autres configurations à partir des valeurs obtenues pour lesdites certaines configurations.
Comme illustré sur lafigure 6, une valeur (entre parenthèses) représentant le niveau de charge mentale de l’utilisateur est obtenue ici pour chacune des configurations, par exemple à l’aide d’une évaluation subjective reportée par l’utilisateur. La valeur peut évoluer entre 1 (niveau de charge mentale minimal) et 5 (niveau de charge mentale maximal).
On se réfère à présent à lafigure 7qui représente un autre mode de mise en œuvre de l’invention. Les étapes E0 et E1 sont similaires à celles décrites en référence à la figure 3. Cet autre mode de réalisation inclut une nouvelle étape E11 pour la mesure de différents paramètres physiologiques et/ou indicateurs de performances. L’acquisition de ces mesures MES est déclenchée par la détection d’un évènement prédéterminé, ici l’écoulement de la durée Δt. En variante, l’évènement déclencheur pourrait être le déclenchement d’un bouton, ou la réalisation d’une action par exemple. Les valeurs mesurées MES sont alors comparées à une valeur de référence REF lors d’une étape E12. En fonction du résultat de la comparaison, une nouvelle configuration est sélectionnée. Par exemple si la valeur de l’indicateur témoignant de la précision du suivi de la trajectoire est inférieure à la valeur de référence REF, la nouvelle configuration sera choisie de façon que le niveau de difficulté de la tâche de pilotage soit diminué par rapport à la configuration en cours. Le niveau de difficulté obtenu est alors transmis à l’étape E2 de façon que la nouvelle configuration soit déterminée, tel que décrit en référence à la figure 3. Outre le résultat de la comparaison, la sélection de la nouvelle configuration peut également être contrainte par un scénario SCE et/ou des contraintes CNT.
L’acquisition des mesures E11 est réitérée à chaque expiration de la durée Δt, pour calculer les niveaux de difficulté des tâches associées à la nouvelle configuration, tant que le processus n’est pas achevé.
Parallèlement à la sélection des différentes configurations de la plateforme, le procédé selon cet autre mode de réalisation, peut comprendre l’étape E200 au cours de laquelle l’état mental de l’utilisateur est évalué. Les mesures MES acquises lors de l’étape E11 peuvent être utilisées pour la réalisation de cette étape E200.
Lorsque la plateforme interactive est passée par l’ensemble des configurations prévues par le scénario SCE, le processus s’achève, étape E3.
Lafigure 8qui illustre une manière particulière, parmi plusieurs possibles, de réaliser un dispositif DIS configuré pour implémenter un mode de mise en œuvre du procédé selon l’invention. Le dispositif DIS comprend une mémoire vive (par exemple une mémoire RAM), une unité de traitement µP équipée par exemple d'un processeur, et pilotée par un programme d'ordinateur stocké dans une mémoire morte (par exemple une mémoire ROM ou un disque dur). A l'initialisation, les instructions de code du programme d'ordinateur sont par exemple chargées dans la mémoire vive RAM avant d'être exécutées par le processeur µP. Autrement dit, le programme d’ordinateur exécuté par le processeur, peut comporter des instructions pour la mise en œuvre d’un mode de mise en œuvre d’un procédé de génération d’un contenu virtuel, tel que décrit ci-avant.
La figure 8 illustre seulement une manière particulière, parmi plusieurs possibles, de réaliser le dispositif DIS afin qu’il effectue certaines étapes du procédé selon l’invention. En effet, ces étapes peuvent être réalisées indifféremment sur une machine de calcul reprogrammable (un ordinateur PC, un processeur DSP ou un microcontrôleur) exécutant un programme comprenant une séquence d’instructions, ou sur une machine de calcul dédiée (par exemple un ensemble de portes logiques comme un FPGA ou un ASIC, ou tout autre module matériel).
Dans le cas où le dispositif est réalisé avec une machine de calcul reprogrammable, le programme correspondant (c'est-à-dire la séquence d’instructions) pourra être stocké dans un médium de stockage amovible ou non, ce médium de stockage étant lisible partiellement ou totalement par un ordinateur ou un processeur. Autrement dit, un programme d’ordinateur comprenant des instructions de code de programme pour l’exécution des étapes d’un mode de mise en œuvre d’un procédé de génération d’un contenu virtuel tel que décrit ci-avant, peut être enregistré sur un support d’enregistrement lisible par un ordinateur.
Il va de soi que les modes de mise en œuvre et de réalisation qui ont été décrits ci-dessus ont été donnés à titre purement indicatif et nullement limitatif, et que de nombreuses modifications peuvent être facilement apportées par l’homme de l’art sans pour autant sortir du cadre de l’invention.

Claims (12)

  1. Procédé de génération d’un contenu virtuel par rapport à un environnement réel, pour une plateforme interactive, le procédé comprenant les étapes suivantes
    - détection d’un évènement prédéterminé,
    - suite à la détection dudit évènement prédéterminé, sélection, au vu d’une première configuration de la plateforme, d’une nouvelle configuration parmi un ensemble de configurations agencées au cours d’une étape préalable, et
    - génération du contenu virtuel conformément à la nouvelle configuration,
    ladite étape préalable comprenant les étapes suivantes
    - association des différentes configurations de la plateforme à une combinaison d’éléments, au moins un élément étant décliné en au moins deux variantes, et
    - agencement des configurations associées aux combinaisons d’éléments, les unes par rapport aux autres, de façon qu’entre deux configurations adjacentes, un seul élément de la combinaison change de variante.
  2. Procédé selon la revendication 1, dans lequel un élément comprend des données multimédia pour ladite plateforme.
  3. Procédé selon l’une des revendications 1 ou 2, dans lequel au moins un élément est décliné selon deux états, à savoir activé ou non pour un utilisateur interagissant avec ladite plateforme.
  4. Procédé selon l’une des revendications 1 ou 2, dans lequel au moins un élément est décliné selon au moins deux niveaux de difficulté au regard de la réaction demandée à l’utilisateur via la plateforme interactive.
  5. Procédé selon la revendication 1, comprenant en outre une sélection de la première configuration parmi l’ensemble des configurations agencées au cours de l’étape préalable.
  6. Procédé selon l’une des revendications 1 ou 4, comprenant en outre une mesure d’une ou plusieurs valeurs d’au moins un paramètre représentatif d’un état de l’utilisateur, et dans lequel la sélection d’une configuration est fonction d’au moins une valeur mesurée.
  7. Procédé selon la revendication 1 dans lequel l’association des configurations comprend les étapes suivantes
    - obtention d’au moins deux éléments,
    - obtention d’au moins deux variantes pour les éléments obtenus,
    - association d’une configuration de la plateforme à une combinaison des éléments obtenus, chaque élément étant considéré dans l’une des variantes obtenues.
  8. Procédé selon la revendication 1, dans lequel la sélection d’une nouvelle configuration comprend la sélection d’une configuration prédéterminée parmi l’ensemble des configurations agencées.
  9. Procédé selon la revendication 1, dans lequel la sélection d’une nouvelle configuration comprend une détermination d’une variante souhaitée pour au moins un élément et une sélection d’une configuration associée à la variante déterminée pour ledit élément.
  10. Procédé selon la revendication 1, dans lequel la sélection d’une nouvelle configuration comprend la sélection d’une configuration adjacente à la première configuration dans l’ensemble des configurations agencées.
  11. Procédé selon la revendication 1, dans lequel la sélection d’une nouvelle configuration comprend la sélection d’une configuration dans l’ensemble des configurations agencées selon un enchaînement prédéterminé depuis la première configuration.
  12. Dispositif de génération d’un contenu virtuel par rapport à un environnement réel, pour une plateforme interactive, le dispositif comprenant
    • un module conçu pour détecter un évènement prédéterminé,
    • un module conçu pour sélectionner, si ledit évènement prédéterminé est détecté, et au vu d’une première configuration de la plateforme, une nouvelle configuration parmi un ensemble de configurations préalablement agencées, et
    • un module conçu pour générer le contenu virtuel conformément à la nouvelle configuration, le dispositif comprenant en outre
    • un module conçu pour associer différentes configurations de la plateforme à une combinaison d’éléments, au moins un élément étant décliné en au moins deux variantes, et
    • un module conçu pour agencer les configurations associées aux combinaisons d’éléments, les unes par rapport aux autres, de façon qu’entre deux configurations adjacentes, un seul élément de la combinaison change de variante.
FR2000704A 2020-01-24 2020-01-24 Procédé de génération d’un contenu virtuel pour une plateforme interactive, et dispositif correspondant. Withdrawn FR3106687A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2000704A FR3106687A1 (fr) 2020-01-24 2020-01-24 Procédé de génération d’un contenu virtuel pour une plateforme interactive, et dispositif correspondant.
PCT/EP2021/051223 WO2021148482A1 (fr) 2020-01-24 2021-01-20 Procédé de génération d'un contenu virtuel pour une plateforme interactive, et dispositif correspondant

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2000704A FR3106687A1 (fr) 2020-01-24 2020-01-24 Procédé de génération d’un contenu virtuel pour une plateforme interactive, et dispositif correspondant.
FR2000704 2020-01-24

Publications (1)

Publication Number Publication Date
FR3106687A1 true FR3106687A1 (fr) 2021-07-30

Family

ID=70228243

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2000704A Withdrawn FR3106687A1 (fr) 2020-01-24 2020-01-24 Procédé de génération d’un contenu virtuel pour une plateforme interactive, et dispositif correspondant.

Country Status (2)

Country Link
FR (1) FR3106687A1 (fr)
WO (1) WO2021148482A1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2624238A1 (fr) * 2012-02-02 2013-08-07 Eurocopter España, S.A. Maquette virtuelle avec aide portable haptique
US20170095732A1 (en) * 2015-10-01 2017-04-06 Mc10, Inc. Method and system for interacting with a virtual environment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2624238A1 (fr) * 2012-02-02 2013-08-07 Eurocopter España, S.A. Maquette virtuelle avec aide portable haptique
US20170095732A1 (en) * 2015-10-01 2017-04-06 Mc10, Inc. Method and system for interacting with a virtual environment

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AERO-NEWS NETWORK: "Aero-TV: Immersive & Cost-Effective: Virtual Reality + Motion = Talon Simulators", YOUTUBE, 13 September 2017 (2017-09-13), pages 1, XP054980772, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=LAUCIpummkU> [retrieved on 20200812] *
CAMILLE BAROTDOMINIQUE LENNEDOMITILE LOURDEAUX, DYNAMIC SCÉNARIO ADAPTATION BALANCING CONTROL, COHERENCE AND EMERGENCE, February 2013 (2013-02-01)
GRIM REAPERS: "Questioned: What Is "Game" Flight & Avionics Mode? | DCS WORLD", YOUTUBE, 26 October 2019 (2019-10-26), pages 1, XP054980778, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=5kMwK_Kox8c> [retrieved on 20200812] *

Also Published As

Publication number Publication date
WO2021148482A1 (fr) 2021-07-29

Similar Documents

Publication Publication Date Title
Boletsis et al. VR locomotion in the new era of virtual reality: an empirical comparison of prevalent techniques
US9571877B2 (en) Systems and methods to determine media effectiveness
CA2953806C (fr) Generation de nouvelles frises chronologiques pendant une reprise de session de jeu
US20150375102A1 (en) Spawning new timelines during game session replay
CN110325250B (zh) 用户分析系统和方法
Lotte Brain-computer interfaces for 3D games: hype or hope?
JP2021514750A (ja) ゲームプレーデータのデインターリーブ
US20220310247A1 (en) Virtual reality therapeutic systems
Pan et al. The effects of familiarity design on the adoption of wellness games by the elderly
McArthur The UX of avatar customization
EP3941601A1 (fr) Interfaces cerveau-ordinateur de systèmes informatiques
US11042622B2 (en) Authenticating users and improving virtual reality experiences via ocular scans and pupillometry
Magaki et al. Developing an accessible evaluation method of VR cybersickness
JP2023020979A (ja) ゲームスタイルの分類
Zielasko et al. Systematic design space exploration of discrete virtual rotations in vr
FR3106687A1 (fr) Procédé de génération d’un contenu virtuel pour une plateforme interactive, et dispositif correspondant.
US9566513B2 (en) Multiplayer team balancing
Eriksson Reaching out to grasp in Virtual Reality: A qualitative usability evaluation of interaction techniques for selection and manipulation in a VR game
Fleck et al. Teegi, he's so cute: example of pedagogical potential testing of an interactive tangible interface for children at school
Clua et al. Challenges for XR in Games
Navarro Improving player performance by developing gaze aware games
US20230398455A1 (en) Method and system for providing game reimmersion
US11543885B2 (en) Graphical emotion symbol determination based on brain measurement data for use during an electronic messaging session
Wang How will different control/display ratios influence muscle fatigue and game experience in virtual reality games?
Jalbert et al. Exit 53: physiological data for improving non-player character interaction

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210730

PLFP Fee payment

Year of fee payment: 3

AU Other action affecting the ownership or exploitation of an industrial property right

Effective date: 20220217

ST Notification of lapse

Effective date: 20230905