FR3079320A1 - Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode perception de l'accessibilite - Google Patents

Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode perception de l'accessibilite Download PDF

Info

Publication number
FR3079320A1
FR3079320A1 FR1852547A FR1852547A FR3079320A1 FR 3079320 A1 FR3079320 A1 FR 3079320A1 FR 1852547 A FR1852547 A FR 1852547A FR 1852547 A FR1852547 A FR 1852547A FR 3079320 A1 FR3079320 A1 FR 3079320A1
Authority
FR
France
Prior art keywords
virtual
list
avatar
space
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1852547A
Other languages
English (en)
Inventor
Richard Guignon
Sebastien Poivre
Gildas Belay
Mathieu Ducrot
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1852547A priority Critical patent/FR3079320A1/fr
Publication of FR3079320A1 publication Critical patent/FR3079320A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/085Retrieval of network configuration; Tracking network configuration history
    • H04L41/0853Retrieval of network configuration; Tracking network configuration history by actively collecting configuration information or by backing up configuration information

Abstract

L'invention est un procédé de traitement de données numériques relatives à un environnement de réalité virtuelle, mis en œuvre dans un dispositif de traitement associé à un équipement de communication comprenant une interface de communication, l'équipement de communication étant utilisé par un utilisateur et étant associé à une liste de capacités, le procédé comprenant : - recevoir un flux de données associées à un espace virtuel et à des éléments de l'espace dans l'environnement virtuel, - déterminer une liste d'incapacités associée à l'équipement de communication en fonction de la liste de capacités, - rechercher un modèle d'avatar en fonction d'au moins une liste d'incapacités, un avatar étant un élément de l'espace virtuel, représentatif de l'utilisateur dans l'environnement virtuel, - déterminer au moins un attribut associé à l'avatar.

Description

Procédé et dispositif de traitement de données d’un environnement de réalité virtuelle en mode perception de l’accessibilité
L'invention concerne le traitement de données de réalité virtuelle, et en particulier dans le domaine des services collaboratifs utilisant un environnement de réalité virtuelle, de réalité mixte ou augmentée.
Il existe des visiocasques ou lunettes de réalité virtuelle permettant d'afficher un environnement de réalité virtuelle. Par exemple, un casque HTC Vive© (marque déposée) permet d’afficher des espaces virtuels dans Γenvironnement de réalité virtuelle. Un tel casque avec les contrôleurs associés permettent à un utilisateur d'interagir sur les objets virtuels projetés et de se déplacer dans Γenvironnement de réalité virtuelle. Les déplacements, la gestuelle, et l’orientation de l’utilisateur dans l’environnement réel dans lequel est placé l’utilisateur, sont également reproduits dans l’environnement virtuel grâce aux stations de base (ou émetteurs) et aux capteurs situés sur les casques et sur les contrôleurs.
Dans le monde professionnel, des interlocuteurs travaillant en coopération sur des projets communs, sont souvent situés sur des différents sites géographiques. A travers des appels téléphoniques ou même des « ponts » téléphoniques, des communications entre ces différents interlocuteurs sont largement répandues. D’autres outils existent également pour collaborer à distance (audio/visioconférence, partage d’écrans d’ordinateurs, etc.), mais les interactions réalisables à travers ces outils, et l’engagement des différents interlocuteurs lors de rutilisation de ces solutions, peuvent être limités. Ces solutions possèdent en particulier des inconvénients lors de processus de « co-création ».
De nouveaux services dans le domaine de la réalité virtuelle émergent. Pour se rapprocher de Γ environnement réel, de nouvelles solutions tentent de reproduire la richesse des échanges entre collaborateurs ou partenaires autant que dans Γenvironnement réel, en reproduisant des environnements de collaboration disposant de conditions d’interactions, par exemple des communications infra verbales entre des avatars (expressions du visage, direction du regard, etc.), des interactions avec un objet en cours de conception, etc. ; ainsi se développent des solutions facilitant la collaboration à travers un espace virtuel de co-conception où les participants sont représentées par exemple à travers des avatars, dans des salles de réunion virtuelles.
L’émergence des équipements de communication spécifiques permet à de plus en plus d’utilisateurs de pouvoir bénéficier d’une expérience d’immersion dans un espace virtuel. Selon une capacité d’immersion de ces équipements, les utilisateurs de ces équipements spécifiques bénéficient d’une expérience d’immersion à travers un espace virtuel et les éléments virtuels de l’espace. Par capacité d’immersion est entendu l’ensemble des caractéristiques matérielles et logicielles des équipements contribuant à une expérience immersive de l’utilisateur dans un espace virtuel donné. Des caractéristiques peuvent être la présence d’un microphone, d’un accéléromètre, d’un gyroscope, d’un écran tactile, des capacités associées comme la sensibilité d’un accéléromètre ou d’un gyroscope, la résolution d’un capteur photo/vidéo, mais aussi la présence d’une puce wifi, la bande passante de la connexion entrante/sortante de l’équipement, etc. La capacité d’immersion d’un équipement peut être variable dans le temps.
Dans la suite, on considère des équipements de niveau 1 des équipements de type visionneuses (« cardboards » en anglais) référencés CB en figure 1, qui sont des casques dans lequel Putilisateur vient glisser un téléphone intelligent (« smartphone » en anglais). Les visionneuses sont donc économiques mais offrent une expérience d’immersion très limitée puisque seuls les mouvements de la tête sont détectés ; ainsi, un déplacement de Γutilisateur dans le monde réel ne sera pas reproduit en virtuel, comme par exemple les équipements Homido©, Samsung Gear VR© -marque déposée). Un téléviseur référencé TV en figure 1, un smartphone référencé SP en figure 1, ou même un projecteur vidéo, peuvent être également considérés dans cette catégorie. Ces équipements de niveau 1 ne sont pas destinés principalement à Γutilisation de services dans un environnement de réalité virtuelle.
Dans la suite, on considère des équipements de niveau 2 des équipements de type casques de réalité virtuelle autonomes référencés RS en figure 1, qui ne nécessitent pas de smartphone puisque l’écran est directement intégré dans le casque. Certains des systèmes précédents, dit « légers » proposent une télécommande qui permet un minimum d’interaction dans Γenvironnement virtuel. Cependant, les gestes et mouvements de Putilisateur ne sont pas détectés (par exemple Oculus GO© marque déposée).
Dans la suite, on considère des équipements de niveau 3 des systèmes pour lesquels la capacité d’immersion est supérieure, comme des systèmes dit « room scale » référencés RSS en figure 1, qui permettent de suivre les faits et gestes de Putilisateur en temps réel, en particulier grâce à des connecteurs référencés RS_Co en figure 1. La captation des mouvements utilisateur peut se faire avec des capteurs externes au casque (HTC Vive ©, Oculus Rift ©), ou interne au casque (Microsoft Mixed reality©, système dit « autonome » référencé RSS_C en figure 1). Ces équipements de niveau 3 offrent aujourd’hui une des meilleures expériences d’immersion dans un environnement de réalité virtuelle.
Les différences d’équipements, catégorisés ci-dessus par niveau pour exemple, peuvent être un frein à l’adoption et à l’usage de systèmes collaboratifs immersifs.
L'invention offre une solution ne présentant pas les inconvénients de l'état de la technique.
A cet effet, selon un premier aspect fonctionnel, il est proposé un procédé de traitement de données numériques relatives à un environnement de réalité virtuelle, mis en œuvre dans un dispositif de traitement associé à un équipement de communication comprenant une interface de communication, l’équipement de communication étant utilisé par un utilisateur et étant associé à une liste de capacités, le procédé comprenant :
recevoir un flux de données associées à un espace virtuel et à des éléments de l’espace dans l’environnement virtuel, déterminer une liste d’incapacités associée à l’équipement de communication en fonction de la liste de capacités, rechercher un modèle d’avatar en fonction d’au moins une liste d’incapacités, un avatar étant un élément de l’espace virtuel, représentatif de l’utilisateur dans l’environnement virtuel, déterminer au moins un attribut associé à l’avatar.
Le procédé de traitement de données ici décrit permet à un utilisateur d’un équipement de communication, en particulier un équipement non spécifique à rutilisation de services dans un environnement de réalité virtuelle (par exemple un smartphone, un ordinateur, une tablette, un téléviseur, une montre, etc.) de s’intégrer dans un espace virtuel collaboratif en communiquant les déficits de son équipement de communication aux autres utilisateurs de cet espace virtuel collaboratif. Un avatar représenté par un robot pourra, par exemple, être équipé ou non de roulettes, de bras, de jambes, d’articulations plus ou moins nombreuses (bras et mains, bras et mains et doigts, jambes et pieds) : un avatar plus ou moins proche d’une représentation humanoïde. De même, le visage de l’avatar pourra être plus ou moins affiné selon les données considérées par l’équipement utilisateur utilisé : intégration d’une bouche de l’avatar si détection du son par un microphone de l’équipement, intégration détails émotionnels du visage (sourcils, etc.) si reconnaissance faciale, ainsi que l’ensemble des interactions induites par ces intégrations sur le visage : direction du regard si la technologie eye-tracking est par exemple intégré dans le casque virtuel de Γ utilisateur, changement de couleur du visage de l’avatar si détection d’un taux de sudation, d’un rythme cardiaque de l’utilisateur, fermeture des yeux de l’avatar si absence de mouvement utilisateur pendant un temps donné, etc.
Ainsi, le procédé offre l'avantage de pouvoir, par exemple, intégrer dans un système collaboratif immersif un utilisateur d’un système « room scale » et un utilisateur d’un équipement non spécifique, en adaptant l’espace virtuel collaboratif et les éléments de cet espace, selon les capacités d’immersion de l’équipement. La solution proposée ici consiste à étendre l’accessibilité des services collaboratifs virtuels, par exemple, aux équipements de niveau 1 comme un smartphone en communiquant à travers l’environnement virtuel les utilisateurs d’équipements « légers », en cohérence avec leur capacité d’immersion.
En effet, dans l’état actuel de la technique, si on mélange des utilisateurs de systèmes « room scale » avec des utilisateurs d’équipements « légers » de type cardboards, les différences de capacités d’immersion (champ de vision réduit, absence de connecteurs, absence de capteurs de mouvement, débit de connexion faible, taille d’écran, absence de microphone, etc.) conduisent à une relation de collaboration peu équitable.
D’un côté, les utilisateurs d’équipements « légers » seront frustrés par l’expérience car la vision en réalité virtuelle offerte par le casque laisse à penser que l’interaction avec l’environnement peut se faire de façon naturelle, ce qui n’est pas le cas puisque les mouvements réels de l’utilisateur ne sont pas reproduits dans l’environnement virtuel.
D’un autre côté, les utilisateurs de systèmes « room scale », qui ne sont pas forcément conscient du dispositif utilisé par les utilisateurs d’équipements « légers » pourrait s’attendre à une interaction complète avec ces participants. Par exemple, tendre un objet que l’autre utilisateur ne pourrait pas saisir. Cette situation peut favoriser les utilisateurs les mieux équipés pour prendre l’avantage face aux décisions du collectif.
Ceci peut être source de malentendu et de frustration dans Putilisation du système collaboratif immersif selon l’équipement de communication utilisé. Par équipement de communication étant entendu, tout équipement connecté à partir duquel un utilisateur accède à la restitution et aux interactions d’un environnement virtuel, un espace virtuel collaboratif. Il est en particulier connecté via un réseau de communication local ou à distance, à un dispositif central (par exemple un serveur) comprenant une unité de traitement de données à partir duquel un ensemble d’utilisateurs est connecté via leur équipement de communication respectif, afin de partager le même environnement virtuel. Ce dispositif de communication possède en particulier un dispositif de restitution (par exemple un écran de type LCD, un projecteur, etc.). Par exemple un dispositif de communication peut-être un ordinateur, un téléphone portable, des lunettes 3D, des lunettes de réalité augmentée, etc.
Dans le futur, d’autres équipements possédant une capacité d’immersion supérieure aux équipements de niveau 3 verront certainement le jour ; cependant, dans chaque niveau d’équipements, la liste des incapacités associée à un équipement peut varier, en particulier selon la liste de capacités d’un équipement de référence donné (par exemple un équipement de niveau 3). Par liste de capacités associée à un équipement, est entendu une liste de l’ensemble des caractéristiques physiques et logicielles caractérisant l’équipement à travers ses dispositifs d’entrée et de sortie associés. Par liste d’incapacités associée à un équipement est entendu un ensemble des caractéristiques physiques et logicielles absents de l’équipement, au regard d’un équipement de référence donné, par exemple comme de capacité d’immersion maximal au regard des concepteurs du service collaboratif virtuel considéré. Par incapacité est entendu un déficit d’accessibilité à l’espace virtuel collaboratif par rapport à la capacité d’immersion d’un équipement de référence donné.
La liste de capacités ou d’incapacités d’un équipement peut être variable dans le temps.
Dans une liste de capacités ou une liste d’incapacités d’un équipement pourra également être considéré l’ensemble des restrictions relatives aux logiciels supportés par l’équipement. Dans un mode de réalisation particulier, la liste d’incapacités serait constitué d’un ensemble des caractéristiques physiques et logicielles absents de l’équipement, au regard d’un équipement de référence donné couplé à un ensemble de restrictions relatives à des logiciels supportés par l’équipement de l’utilisateur.
De ce procédé ici présenté découle en particulier une solution logicielle et matérielle de réalité virtuelle, qui permet de s’immerger dans un atelier de collaboration et de partage de contenus. Les collaborateurs ou partenaires professionnels, répartis sur plusieurs sites, peuvent travailler, créer et innover ensemble grâce à une perception de la capacité d’immersion des autres utilisateurs présents dans l’atelier de collaboration.
Selon un mode de réalisation, le flux de données associées à l’espace virtuel et aux éléments de l’espace dans l’environnement virtuel comprend une liste de capacités de référence relative à un équipement de communication de référence.
Avantageusement, ce mode de réalisation permet de configurer un avatar associé à l’utilisateur d’un équipement de communication, en fonction d’un équipement de référence, au regard de la liste de capacités de l’équipement de Γutilisateur. L’équipement de référence considéré étant un équipement possédant une liste de capacités favorable à une expérience utilisateur de haute capacité d’immersion pour l’espace virtuel collaboratif et les éléments de cet espace. La liste de capacités de référence relative à un équipement de communication de référence peut être initialisée à travers ses capacités d’évaluation de la position de l’équipement dans l’environnement réel (géolocalisation, détection de mouvement), de gestion de la stéréoscopie, de niveau de résolution de l’image, d’estimation du champ de vision, du niveau de connexion de la bande passante, etc.
Selon un autre mode de réalisation, qui pourra être mis en œuvre alternativement ou cumulativement avec le précédent, déterminer une deuxième liste d’incapacités associée à au moins un déficit d’accessibilité relatif à l’utilisateur ou à son environnement.
Avantageusement, ce mode de réalisation permet de configurer un avatar associé à l’utilisateur d’un équipement de communication, en fonction d’une ou plusieurs déficiences relatives à l’utilisateur lui-même (troubles visuels, auditifs, handicap moteur..) ou à relatives à son environnement (environnement bruyant, pas de possibilité de parler, mauvaise captation réseau, en mouvement..). Dans un mode de réalisation particulier, la deuxième liste d’incapacités relatives à l’utilisateur est alimentée à travers une sélection utilisateur proposé à travers une interface de communication, par exemple celle de l’équipement de communication de Γutilisateur.
Selon un autre mode de réalisation, qui pourra être mis en œuvre alternativement ou cumulativement avec les précédents, déterminer au moins un attribut associé à l’avatar comprend en outre déterminer au moins un élément fonctionnel de l’avatar dans l’espace virtuel.
Avantageusement, ce mode de réalisation permet aux autres utilisateurs présents dans l’espace virtuel de considérer un avatar selon des déficiences qui caractérisent l’équipement de communication de l’utilisateur, en particulier à travers des attributs relatifs à sa représentation graphique de l’avatar, un avatar étant considéré comme un objet virtuel dans l’espace virtuel. Par exemple, Γutilisateur d’un smartphone serait représenté dans Γenvironnement virtuel à travers le procédé ici décrit, par exemple à travers un robot virtuel de télé-présence mobile similaire au modèle Uby© - marque déposée (c’est-à-dire un robot virtuel disposé sur roues avec un écran). Ainsi, Putilisateur du smartphone est perçu dans l’espace virtuel collaboratif par les autres utilisateurs, d’un avatar doté des facultés fonctionnelles d’un robot de télé-présence. Pour l’exemple du robot de télé-présence, un élément fonctionnel peut être la diffusion sur l’écran du robot virtuel, du flux vidéo capturé par la caméra du smartphone de Putilisateur filmé.
Selon un autre mode de réalisation, qui pourra être mis en œuvre alternativement ou cumulativement avec les précédents, le procédé comprend en outre déterminer au moins un attribut d’interaction associé à un élément non accessible pour l’avatar dans l’espace virtuel.
Avantageusement, ce mode de réalisation permet d’adapter des éléments non accessibles pour un avatar dans l’espace virtuel selon des déficiences de l’équipement de communication identifiées. Par exemple, les visionneuses simples (sans télécommande) ne permettraient pas d’ouvrir une porte virtuelle. Un attribut d’interaction consiste à conditionner l’ouverture de cette porte selon une durée fixée à plus de 5 secondes pendant laquelle le champ de vision de Putilisateur inclus cette porte.
Selon un mode de réalisation, qui pourra être mis en œuvre alternativement ou cumulativement avec les précédents, le procédé comprenant en outre, en cas d’activation d’un attribut d’interaction associé à l’élément non accessible pour l’avatar, déterminer des éléments de substitution.
Avantageusement, ce mode de réalisation permet aux autres utilisateurs présents dans l’espace virtuel collaboratif considéré, de percevoir les actions effectuées par un utilisateur doté d’un équipement de capacité d’immersion moindre. Dans l’exemple précédent, la prise en main du tableau blanc par rutilisateur de smartphone entraînera, par exemple, la désactivation temporaire de rutilisation des crayons virtuels, ou même la détermination d’éléments de substitution permettant de simuler rutilisation des crayons par rutilisateur de smartphone ; par exemple une liaison visuelle entre l’avatar et les crayons sont symboliquement représentés en fonction des interactions effectuées par l’utilisateur de smartphone sur le tableau blanc.
L'invention concerne également un programme d'ordinateur comportant des instructions pour la mise en œuvre du procédé de traitement de données selon l'un quelconque des modes particuliers de réalisation décrits précédemment, lorsque ledit programme est exécuté par un processeur. Un tel programme peut utiliser n’importe quel langage de programmation. H peut être téléchargé depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur. Ce programme peut utiliser n'importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n'importe quelle autre forme souhaitable.
L'invention vise aussi un support d'enregistrement ou support d'informations lisible par un ordinateur, et comportant des instructions d'un programme d'ordinateur tel que mentionné ci-dessus. Les supports d'enregistrement mentionnés ci-avant peuvent être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement (disque dur, clé USB). D'autre part, les supports d'enregistrement peuvent correspondre à un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, les supports d'enregistrement peuvent correspondre à un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Le procédé de traitement de données selon l'invention peut donc être mis en œuvre de diverses manières, notamment sous forme câblée ou sous forme logicielle.
Selon un premier aspect matériel, il est proposé un dispositif de traitement de données numériques relatives à un environnement de réalité virtuelle, associé à un équipement de communication comprenant une interface de communication, l’équipement de communication étant utilisé par un utilisateur et étant associé à une liste de capacités, le dispositif comprenant :
un module de réception apte à recevoir un flux de données associées à un espace virtuel et à des éléments de l’espace dans Γenvironnement virtuel, un module de détermination apte à déterminer une liste d’incapacités associée à l’équipement de communication en fonction de la liste de capacités, un module de recherche apte à rechercher un modèle d’avatar en fonction de la liste d’incapacités, un avatar étant un élément de l’espace, représentatif de l’utilisateur dans l’environnement virtuel, un module de détermination apte à déterminer au moins un attribut associé à l’avatar.
Le dispositif de traitement de données d’un environnement de réalité virtuelle ici décrit permet la mise en œuvre du procédé ici décrit.
Selon un deuxième aspect fonctionnel, un procédé de traitement de données numériques relatives à un environnement de réalité virtuelle, mis en œuvre par un serveur connecté via un ou plusieurs réseaux de communication à au moins un équipement de communication comprenant une interface de communication et un dispositif de traitement de données numériques relatives à un environnement de réalité virtuelle, le procédé comprenant :
envoyer un flux de données associées à un espace virtuel et à des éléments de l’espace dans l’environnement virtuel vers l’équipement de communication, recevoir une liste d’incapacités associée à au moins l’équipement de communication, rechercher un modèle d’avatar en fonction de la liste d’incapacités, un avatar étant un élément de l’espace virtuel, représentatif de l’utilisateur dans l’environnement virtuel, et en fonction d’un ou plusieurs avatars de l’espace virtuel.
Avantageusement, ce mode de réalisation permet aux autres utilisateurs de capitaliser sur l’apprentissage des déficiences de leur interlocuteur, en particulier à travers des représentations d’avatars standardisés par un service ou même à travers plusieurs services. Dans un mode de réalisation particulier, l’ensemble des avatars présents dans un espace virtuel collaboratif donné peuvent être représentés les uns par rapport aux autres selon la liste d’incapacités de leur équipement : l’équipement de référence considéré par le procédé serait par exemple l’équipement de l’utilisateur possédant la capacité d’immersion la plus haute parmi les équipements utilisés. Les avatars peuvent évoluer dans le temps selon un mode de réalisation particulier.
Selon un deuxième aspect matériel, le serveur de traitement de données numériques relatives à un environnement de réalité virtuelle, connecté via un ou plusieurs réseaux de communication à au moins un équipement de communication comprenant une interface de communication et un dispositif de traitement de données numériques relatives à un environnement de réalité virtuelle, le serveur ayant accès à une base de données comprenant des modèles d’avatar, le serveur comprenant : un module d’émission apte à envoyer un flux de données associées à un espace virtuel et à des éléments de l’espace dans Γenvironnement virtuel, un module de réception apte à recevoir une liste d’incapacités associée à au moins l’équipement de communication, un module de recherche apte à rechercher un modèle d’avatar en fonction de la liste d’incapacités, un avatar étant un élément de l’espace virtuel, représentatif de l’utilisateur dans l’environnement virtuel, et en fonction d’un ou plusieurs modèles d’avatar considérés dans l’espace virtuel.
Un serveur (par exemple référencé S en figure 5) de traitement de données d’un environnement de réalité virtuelle ici décrit permet la mise en œuvre du procédé ici décrit.
D’autres caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description suivante d’un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels :
la figure 1 illustre une plateforme de services associée à un service collaboratif immersif, et l’ensemble des équipements de communication à partir desquels un ensemble d’utilisateurs accède à un espace virtuel collaboratif associé à ce service.
la figure 2 illustre les étapes de configuration d’un avatar relatif à un utilisateur dans l’environnement virtuel à travers un dispositif ici présenté, la figure 3 illustre un dispositif APP ici proposé, implémenté dans un équipement de communication de type smartphone.
la figure 4 décrit les modules du dispositif APP ici présenté.
la figure 5 illustre les étapes de configuration d’un avatar relatif à un utilisateur dans Γenvironnement virtuel à travers un dispositif APP et en fonction des autres avatars de l’espace virtuel.
La figure 1 illustre en particulier une plateforme de services représentée ici par un serveur référencé S. Cette plateforme de services est un ensemble d’équipements connecté à un réseau de communication à partir de laquelle tout type d’équipement de communication est susceptible de faire appel à un service, en particulier un service collaboratif immersif. Cette plateforme de services intègre une brique logicielle S_VR permettant de générer un service collaboratif virtuel dans lequel un espace virtuel collaboratif intègre un ensemble d’avatars. Le dispositif APP_PS est le dispositif relatif au procédé ici décrit permettant une mise en œuvre décrit à la figure 5.
Dans ce mode de réalisation, des équipements de communication (connectés directement ou indirectement au réseau de communication) tels qu’une télévision référencée TV, un téléphone intelligent SP appelé smartphone, un système de casque CRV de réalité virtuelle de type « room scale » référencé RSS composé de capteurs RS_Ca et de connecteurs RS_Co, un système autonome référencé RSS_C, un système de casque RS de réalité virtuelle référencé RCRV, un masque support d’un téléphone portable intelligent référencé CB, intègrent un dispositif ici décrit afin de permettre aux utilisateurs d’équipements d’accéder au service collaboratif immersif. L’ordinateur est également un autre exemple d’équipement de communication (non représenté ici). Ces équipements de communication possèdent une liste de capacités à partir de laquelle les fonctionnalités d’immersion du service collaboratif immersif vont s’adapter grâce à la mise en œuvre du procédé ici présenté. Les dispositifs référencés APP_1, APP_2, APP_3, APP_4, APP_5, APP_6 peuvent être des dispositifs relatives à un programme de données et/support informatique identique ou différent. Dans un mode de réalisation particulier, les dispositifs sont configurés pour chaque dispositif avant et/ou après rinstallation du dispositif sur l’équipement.
Dans un mode de réalisation, la plateforme de services S diffuse un même flux de données FX de l’environnement virtuel, en mode multipoint («broadcast» en anglais) et les dispositifs, par exemple des applications logicielles, mettent en œuvre les étapes du procédé décrit en figure 2.
A chaque équipement de communication est associée la liste de capacités de cet équipement relativement à sa capacité d’immersion dans un environnement virtuel, à travers un niveau d’immersion dans un environnement virtuel, et un niveau d’accessibilité à un espace virtuel immersif donné. Le niveau d’immersion ne sera pas considéré dans ce document car il est relatif aux équipements de communication et mesuré à travers la perception d’immersion dans l’espace virtuel par rutilisateur.
Le procédé présenté ici permet d’améliorer la perception du niveau d’accessibilité à un espace virtuel immersif donné par les autres utilisateurs.
Le casque CRV de type « scale room », possédant des capteurs RS_Ca dans la pièce où se trouve Γ utilisateur et des contrôleurs RS_Co est considéré ici comme l’équipement de communication de référence, car possédant un niveau d’accessibilité élevé au regard d’un espace virtuel collaboratif donné : manipulation des objets virtuels à l’aide des contrôleurs, un avatar reproduisant les mouvements de tête, de bras de rutilisateur, déplacement de l’avatar en particulier à l’aide des capteurs situés dans la pièce, etc.
Au regard d’un équipement de référence de type « room scale », un équipement TV possède « seulement » un dispositif d’entrée de données à travers une télécommande. Par des technologies de type Eye-tracking, son niveau d’accessibilité à l’environnement virtuel peut être augmenté par la détermination de la direction du regard de rutilisateur. Ainsi le modèle d’avatar à associer à cet équipement à travers une liste de capacités, puis à travers une liste d’incapacités, permet au procédé de rechercher un modèle d’avatar associé à cette première liste d’incapacités, et donc d’affiner la perception du niveau d’accessibilité de l’équipement à travers un regard mobile de l’avatar.
Les éléments d’accessibilité sont les solutions apportées aux éléments non accessibles en fonction d’une liste de capacités de l’équipement de communication.
La figure 2 illustre les étapes de configuration d’un avatar relatif à un utilisateur dans Γenvironnement virtuel à travers un dispositif ici présenté.
Dans ce mode de réalisation, le dispositif de traitement APP est intégré directement dans l’applicatif du service collaboratif immersif de réalité virtuelle existante. Dans une étape E00, le dispositif accède à une liste de capacités de l’équipement de communication et/ou d’un ou plusieurs applicatifs, par exemple l’applicatif VR.
Dans un mode de réalisation préféré, cette liste est constituée par l’application VR, par exemple lors du processus d’installation de cette application dans l’équipement de communication, et cette liste est stockée dans une mémoire à laquelle l’application peut accéder.
Dans une étape E20, le dispositif de traitement APP reçoit le flux FX de données envoyé par la plateforme de service S. Dans ce mode de réalisation, le flux contient une liste de capacités relative à un équipement de communication de référence. Le procédé détermine alors une liste d’incapacités de l’équipement par rapport à cette liste de référence, et cette liste est stockée dans une mémoire à laquelle l’application peut accéder. Cette détermination permet d’évaluer les déficits d’accessibilité de l’équipement de communication. Dans un mode de réalisation particulier, une deuxième liste capacité est déterminée en fonction d’un paramétrage utilisateur, effectué par exemple à travers l’interface de communication du smartphone indiquant des déficits d’accessibilité de Putilisateur.
Le dispositif de traitement APP lance ensuite une recherche pour un modèle d’avatars dans une base de données BD1 en lançant une requête E23 contenant par exemple une ou plusieurs listes d’incapacités.
Dans un mode de réalisation particulier, le dispositif de traitement APP accède aux modèles d’avatar stockées par exemple dans une base de données située dans le réseau par exemple à travers l’un des équipements de la plateforme de services afin de permettre des mises à jour (36) par les fournisseurs de services sans nécessité de mettre à jour le dispositif.
Dans une étape E25, le dispositif de traitement APP détermine un ou plusieurs attributs associés à l’avatar et renvoie dans une étape E26 le modèle d’avatar ainsi que le ou les attributs à la plateforme de services référencée S.
Dans une étape E27, la plateforme de services met à jour à travers l’applicatif S_VR les paramètres, en particulier de configuration de l’avatar de l’utilisateur dans l’environnement virtuel.
La figure 3 illustre un dispositif APP ici proposé, implémenté dans un équipement de communication de type smartphone.
L’équipement électronique est illustré comme un dispositif mobile 100. Le dispositif mobile 100 comprend un dispositif d'affichage 145, un processeur CPU, un dispositif d'entrée INPUT et un module applicatif APP caractérisant le procédé ici présenté. Dans un mode de réalisation, l’application APP est intégrée par une application VR relative à un service collaboratif immersif. Dans le présent dispositif, l'interaction utilisateur et la manipulation du rendu du module applicatif sur une interface graphique peuvent être obtenues en utilisant le dispositif d'affichage 145, qui est dans notre exemple un écran tactile couplé fonctionnellement au processeur CPU commandant l'interface affichée. Le dispositif d'entrée INPUT et le dispositif d'affichage 145 sont ainsi fusionnés. Certains dispositifs mobiles 100 peuvent également présenter un dispositif d'entrée INPUT comme un clavier.
Le processeur CPU peut commander le rendu et/ou l'affichage de l'interface graphique sur le dispositif d'affichage 145 en fonction du type d'applications, applications natives ou de tiers. Le processeur CPU peut également gérer les entrées utilisateur selon le présent procédé. Le panneau tactile 145 peut être vu comme un dispositif d'entrée permettant des interactions avec un doigt d'un utilisateur ou d'autres dispositifs tels qu'un stylet. L'interface de capteur tactile ou le panneau tactile 145 peut inclure tout circuit approprié pour convertir les signaux analogiques correspondant à l'entrée tactile reçue sur sa surface en toute donnée d'entrée tactile numérique appropriée. De telles données d'entrée tactiles peuvent, par exemple, être utilisées pour effectuer des sélections de parties de l'interface graphique d'une application. L'entrée reçue du contact d'un utilisateur est envoyée au processeur CPU. Le panneau tactile 145 est configuré pour détecter et signaler l’emplacement du point de contact au processeur CPU, qui peut interpréter les touches conformément à l'application et à l’interface graphique en cours. Un microphone est référencé 160 et une caméra est référencée 150.
La figure 4 illustre une architecture d'un dispositif APP de traitement de données d'un environnement de réalité virtuelle. Un tel dispositif est configuré pour mettre en œuvre le procédé de traitement de données de réalité virtuelle selon l'un quelconque des modes particuliers de réalisation de l'invention décrits ci-dessus.
Le dispositif APP comprend une mémoire MEM, une unité de traitement UT, équipée par exemple d'un processeur PROC, et pilotée par le programme d'ordinateur PG stocké en mémoire MEM. Le programme d'ordinateur PG comprend des instructions pour mettre en œuvre les étapes du procédé de traitement de données tel que décrit précédemment, lorsque le programme est exécuté par le processeur PROC.
A l'initialisation, les instructions de code du programme d'ordinateur PG sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur PROC. Le processeur PROC de l'unité de traitement UT met notamment en œuvre les étapes du procédé, selon les instructions du programme d'ordinateur PG.
De la même façon, une architecture d'un dispositif APP_PS (figure 1 ou 5) de traitement de données d'un environnement de réalité virtuelle pourrait être illustrée de la même façon. Un tel dispositif est configuré pour mettre en œuvre le procédé de traitement de données de réalité virtuelle selon le mode particulier de réalisation de l'invention décrit dans la figure 5 ci-après. Les modules 09, 10, 11, et 12 sont des modules permettant la mise en œuvre du procédé ici décrit.
La figure 5 illustre les étapes de configuration d’un avatar relatif à un utilisateur à travers les avatars présents dans l’environnement virtuel. Ainsi, les capacités de l’avatar sont déterminées en fonction d’un ensemble des capacités, et plus précisément des incapacités du dispositif de cet utilisateur, et des incapacités des autres avatars considérés dans l’espace virtuel.
Dans ce mode de réalisation, le dispositif de traitement APP est intégré directement dans l’applicatif du service collaboratif de réalité virtuelle existant, applicatif référencé VR. Dans une étape E00, le dispositif accède à une liste de capacités de l’équipement de communication et/ou d’un ou plusieurs applicatifs, par exemple l’applicatif VR.
Dans un mode de réalisation préféré, cette liste est constituée par l’application APP, par exemple lors du processus d’installation de cette application dans le système informatique de l’équipement de communication, et cette liste est stockée dans une mémoire à laquelle l’application peut accéder.
Dans une étape E20, le dispositif de traitement APP reçoit le flux FX_1 de données relatif à cet équipement et envoyé par la plateforme de service S. Les échanges préliminaires d’établissement d’un canal de communication dédié n’est pas décrit ici car estimé connu de l’homme du métier. La liste de capacités est envoyée au serveur S (E26) qui la stocke Le procédé mis en œuvre dans le dispositif APP_PS, détermine alors une liste d’incapacités de l’équipement par rapport à une liste de référence. Cette détermination E25 permet d’évaluer les déficits d’accessibilité de l’équipement de communication. Dans un mode de réalisation particulier, une deuxième liste capacité est déterminée en fonction d’un paramétrage utilisateur, effectué par exemple à travers l’interface de communication du smartphone indiquant des déficits d’accessibilité de l’utilisateur.
Le dispositif de traitement APP_PS accède aux modèles d’avatar stockés par exemple dans une base de données BD1 en lançant une requête E23 contenant par exemple une ou plusieurs listes d’incapacités.
Dans une étape E27, le dispositif de traitement APP_PS intègre le modèle d’avatar associé à un ou plusieurs éléments fonctionnels dans le flux de données.
Dans une étape E29, le serveur envoie le flux FX_2 de données dans lequel l’avatar de l’équipement SP de communication est mis à jour, vers les autres équipements.
Dans une étape E30, en cas d’activation d’éléments d’accessibilité, le dispositif S_VR du serveur S du service de réalité virtuelle recherche (E24) d’éléments de substitution dans une base de données BD2 et envoie FX_2 (relatif à un temps ultérieur au flux FX), en particulier vers un ou plusieurs autres équipements afin que les utilisateurs de ces équipements puissent être percevoir les interactions associées à ou aux attribut(s) d’interaction. Par élément d’accessibilité est entendu un ou plusieurs éléments ajoutés, retirés, et/ou modifiés de l’environnement virtuel, associé à un élément dit non accessible. Par exemple, une porte fermée (élément non accessible) de l’espace virtuel peut intégrer un élément graphique de type un contour rectangulaire de couleur discriminante comme élément d’accessibilité. Ees utilisateurs d’équipements de haute capacité d’immersion pouvant agir directement sur la porte, par exemple à l’aide de connecteurs, pourront être dispensés de cet affichage, contrairement à d’autres équipements plus légers (un simple projecteur sans télécommande par exemple) dont la liste d’incapacités détermine à partir du procédé présenté ici, spécifie l’absence de dispositifs de contrôle et/ou de sélection.
Dans le présent texte, les dispositifs ou modules peuvent être mis en œuvre sous forme logicielle (ou « software »), auquel cas il prend la forme d’un programme exécutable par un processeur, ou sous forme matérielle (ou « hardware »), comme un circuit intégré spécifique application (ASIC), un système sur puce (SOC), ou sous forme d'une combinaison d'éléments matériels et applications, comme par exemple un programme application destiné à être chargé et exécuté sur un composant de type FPGA (Field Programmable Gâte Array). »
Bien que décrits à travers un certain nombre d’exemples de réalisation détaillés, le procédé proposé et l’objet pour la mise en œuvre du procédé comprennent différentes variantes, modifications et perfectionnements qui apparaîtront de façon évidente à l’homme de l’art, étant entendu que ces différentes variantes, modifications 10 et perfectionnements font partie de la portée de l’invention, telle que définie par les revendications qui suivent. De plus, différents aspects et caractéristiques décrits cidessus peuvent être mis en œuvre ensemble, ou séparément, ou bien substitués les uns aux autres, et l’ensemble des différentes combinaisons et sous combinaisons des aspects et caractéristiques font partie de la portée de l’invention. En outre, il se peut 15 que certains dispositifs et objets décrits ci-dessus n’incorporent pas la totalité des modules et fonctions décrits pour les modes de réalisation préférés.

Claims (11)

  1. REVENDICATIONS
    1. Procédé de traitement de données numériques relatives à un environnement de réalité virtuelle, mis en œuvre dans un dispositif de traitement (APP) associé à un équipement de communication (SP) comprenant une interface de communication, l’équipement de communication étant utilisé par un utilisateur et étant associé à une liste (C) de capacités, le procédé comprenant :
    recevoir un flux (FX) de données associées à un espace virtuel et à des éléments de l’espace dans Γenvironnement virtuel, déterminer une première liste (IC) d’incapacités, liste associée à l’équipement de communication en fonction de la liste (C) de capacités, rechercher un modèle d’avatar en fonction d’au moins une liste (IC) d’incapacités, un avatar étant un élément de l’espace virtuel, représentatif de l’utilisateur dans l’environnement virtuel, déterminer au moins un attribut (A) associé à l’avatar.
  2. 2. Procédé selon la revendication 1, dans lequel le flux (FX) de données associées à l’espace virtuel et aux éléments de l’espace dans l’environnement virtuel comprend une liste de capacités de référence relative à un équipement de communication de référence.
  3. 3. Procédé selon la revendication 1, comprenant en outre déterminer une deuxième liste (IC) d’incapacités, liste associée à au moins un déficit d’accessibilité relatif à Γ utilisateur.
  4. 4. Procédé selon la revendication 1, dans lequel déterminer au moins un attribut associé à l’avatar comprend déterminer au moins un élément fonctionnel de l’avatar dans l’espace virtuel.
  5. 5. Procédé selon la revendication 1 comprenant en outre déterminer au moins un attribut d’interaction (AI) associé à un élément non accessible pour l’avatar dans l’espace virtuel.
  6. 6. Procédé selon la revendication 5 comprenant en outre, en cas d’activation d’un attribut d’interaction (AI) associé à l’élément non accessible pour l’avatar, déterminer des éléments de substitution.
  7. 7. Programme informatique caractérisé en ce qu’il comporte des instructions pour la mise en œuvre du procédé selon l’une des revendications 1 à 6, lorsque ce programme est exécuté par un processeur.
  8. 8. Support de données sur lequel a été mémorisée au moins une série d’instructions de code de programme pour l’exécution d’un procédé selon l’une des revendications 1 à 6.
  9. 9. Dispositif (APP) de traitement de données numériques relatives à un environnement de réalité virtuelle, associé à un équipement de communication (SP) comprenant une interface de communication, l’équipement de communication étant utilisé par un utilisateur et étant associé à une liste (C) de capacités, le dispositif comprenant :
    un module de réception apte à recevoir un flux (FX) de données associées à un espace virtuel et à des éléments de l’espace dans Γenvironnement virtuel, un module de détermination apte à déterminer une liste (IC) d’incapacités associée à l’équipement de communication en fonction de la liste (C) de capacités, un module de recherche apte à rechercher un modèle d’avatar en fonction d’au moins une liste (C) d’incapacités, un avatar étant un élément de l’espace virtuel, représentatif de l’utilisateur dans l’environnement virtuel, un module de détermination apte à déterminer au moins un attribut associé à l’avatar.
  10. 10. Procédé de traitement de données numériques relatives à un environnement de réalité virtuelle, mis en œuvre par un serveur (SERV) connecté via un ou plusieurs réseaux de communication à au moins un équipement de communication (SP) comprenant une interface de communication et un dispositif (APP) de traitement de données numériques relatives à un environnement de réalité virtuelle, le procédé comprenant : envoyer un flux (FX) de données associées à un espace virtuel et à des éléments de l’espace dans Γenvironnement virtuel vers l’équipement de communication, recevoir une liste (IC) d’incapacités associée à au moins l’équipement de communication, rechercher un modèle d’avatar en fonction d’au moins une liste (IC) d’incapacités, un avatar étant un élément de l’espace virtuel, représentatif de l’utilisateur dans l’environnement virtuel, et en fonction d’un ou plusieurs avatars de l’espace virtuel.
  11. 11. Serveur (SERV) de traitement de données numériques relatives à un environnement de réalité virtuelle, connecté via un ou plusieurs réseaux de communication à au moins un équipement de communication (SP) comprenant une interface de communication et un dispositif (APP) de traitement de données numériques relatives à un environnement de réalité virtuelle, le serveur ayant accès à une base de données comprenant des modèles d’avatar, le serveur comprenant : un module d’émission apte à envoyer un flux (FX) de données associées à un espace virtuel et à des éléments de l’espace dans l’environnement virtuel, un module de réception apte à recevoir une liste (IC) d’incapacités associée à au moins l’équipement de communication, un module de recherche apte à rechercher un modèle d’avatar en fonction d’au moins une liste (IC) d’incapacités, un avatar étant un élément de l’espace virtuel, représentatif de Γutilisateur dans l’environnement virtuel, et en fonction d’un ou plusieurs avatars de l’espace virtuel.
FR1852547A 2018-03-23 2018-03-23 Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode perception de l'accessibilite Withdrawn FR3079320A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1852547A FR3079320A1 (fr) 2018-03-23 2018-03-23 Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode perception de l'accessibilite

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1852547A FR3079320A1 (fr) 2018-03-23 2018-03-23 Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode perception de l'accessibilite
FR1852547 2018-03-23

Publications (1)

Publication Number Publication Date
FR3079320A1 true FR3079320A1 (fr) 2019-09-27

Family

ID=62948210

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1852547A Withdrawn FR3079320A1 (fr) 2018-03-23 2018-03-23 Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode perception de l'accessibilite

Country Status (1)

Country Link
FR (1) FR3079320A1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100053187A1 (en) * 2008-09-04 2010-03-04 Nokia Corporation Method, Apparatus, and Computer Readable Medium for Editing an Avatar and Performing Authentication
US20100153858A1 (en) * 2008-12-11 2010-06-17 Paul Gausman Uniform virtual environments

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100053187A1 (en) * 2008-09-04 2010-03-04 Nokia Corporation Method, Apparatus, and Computer Readable Medium for Editing an Avatar and Performing Authentication
US20100153858A1 (en) * 2008-12-11 2010-06-17 Paul Gausman Uniform virtual environments

Similar Documents

Publication Publication Date Title
CN107004410B (zh) 语音和连接平台
US20150317353A1 (en) Context and activity-driven playlist modification
US9100540B1 (en) Multi-person video conference with focus detection
US9041766B1 (en) Automated attention detection
RU2640632C2 (ru) Способ и устройство для доставки информации
US20190379742A1 (en) Session-based information exchange
US11234051B2 (en) Predictive media routing
US11430211B1 (en) Method for creating and displaying social media content associated with real-world objects or phenomena using augmented reality
JP2010529738A (ja) 居宅用動画通信システム
EP1849283A1 (fr) Procede et dispositif d'echange de donnees
US9813748B2 (en) Coordination of video and/or audio recording
US11011158B2 (en) Analyzing data to provide alerts to conversation participants
US20230247073A1 (en) Region Of Interest-Based Resolution Normalization
EP3336709A1 (fr) Procédé d'utilisation d'un poste de travail étendu, et système d'utilisation d'un poste de travail étendu associé
FR3079320A1 (fr) Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode perception de l'accessibilite
FR3079321A1 (fr) Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode accessibilite
US10868842B2 (en) Automatic responses to incoming calls based on user activity
FR3107390A1 (fr) Dispositif, système et procédé de traitement de données de réalité virtuelle
EP2228987B1 (fr) Système d'interprétation d'un mouvement d'un interlocuteur, procédé et programme d'ordinateur correspondant.
US11166069B1 (en) Video content conversion
EP3404874B1 (fr) Procédé de gestion de réponse
US20230096129A1 (en) Hologram communication continuity
WO2017103480A1 (fr) Système et procédé de réalisation d'un tour de table lors d'une réunion à distance
EP4010785A1 (fr) Etablissement d'une communication par analyse des mouvements oculaires
FR3021779A1 (fr) Procede et dispositif de controle d l' affichage d' un groupe de contacts

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20190927

ST Notification of lapse

Effective date: 20201110