FR3079321A1 - Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode accessibilite - Google Patents
Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode accessibilite Download PDFInfo
- Publication number
- FR3079321A1 FR3079321A1 FR1852546A FR1852546A FR3079321A1 FR 3079321 A1 FR3079321 A1 FR 3079321A1 FR 1852546 A FR1852546 A FR 1852546A FR 1852546 A FR1852546 A FR 1852546A FR 3079321 A1 FR3079321 A1 FR 3079321A1
- Authority
- FR
- France
- Prior art keywords
- list
- accessibility
- virtual
- accessible
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/085—Retrieval of network configuration; Tracking network configuration history
- H04L41/0853—Retrieval of network configuration; Tracking network configuration history by actively collecting configuration information or by backing up configuration information
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Life Sciences & Earth Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Cardiology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Information Transfer Between Computers (AREA)
Abstract
L'invention est un procédé de traitement de données numériques relatives à un environnement de réalité virtuelle, mis en œuvre dans un dispositif de traitement associé à un équipement de communication comprenant une interface de communication, l'équipement de communication étant utilisé par un utilisateur et étant associé à une liste de capacités, le procédé comprenant : - recevoir un flux de données associées à un espace virtuel et à des éléments de l'espace dans l'environnement virtuel, - déterminer une première liste d'incapacités associée à l'élément de communication en fonction de la liste de capacités, - identifier dans les données reçues, un élément de l'espace appelé élément non accessible, - rechercher un modèle d'accessibilité associé à l'élément non accessible, en fonction d'au moins une liste d'incapacités, - déterminer au moins un élément d'accessibilité (EA) associé à l'élément non accessible.
Description
Procédé et dispositif de traitement de données d’un environnement de réalité virtuelle en mode accessibilité
L'invention concerne le traitement de données de réalité virtuelle, et en particulier dans le domaine des services collaboratifs utilisant un environnement de réalité virtuelle, de réalité mixte ou augmentée.
Il existe des visiocasques ou lunettes de réalité virtuelle permettant d'afficher un environnement de réalité virtuelle. Par exemple, un casque HTC Vive© (marque déposée) permet d’afficher des espaces virtuels dans l’environnement de réalité virtuelle. Un tel casque avec les contrôleurs associés permettent à un utilisateur d'interagir sur les objets virtuels projetés et de se déplacer dans l’environnement de réalité virtuelle. Les déplacements, la gestuelle, et l’orientation de l’utilisateur dans l’environnement réel dans lequel est placé Putilisateur, sont également reproduits dans l’environnement virtuel grâce aux stations de base (ou émetteurs) et aux capteurs situés sur les casques et sur les contrôleurs.
Dans le monde professionnel, des interlocuteurs travaillant en coopération sur des projets communs, sont souvent situés sur des différents sites géographiques. A travers des appels téléphoniques ou même des « ponts » téléphoniques, des communications entre ces différents interlocuteurs sont largement répandues. D’autres outils existent également pour collaborer à distance (audio/visioconférence, partage d’écrans d’ordinateurs, etc.), mais les interactions réalisables à travers ces outils, et l’engagement des différents interlocuteurs lors de Putilisation de ces solutions, peuvent être limités. Ces solutions possèdent en particulier des inconvénients lors de processus de « co-création ».
De nouveaux services dans le domaine de la réalité virtuelle émergent. Pour se rapprocher de l’environnement réel, de nouvelles solutions tentent de reproduire la richesse des échanges entre collaborateurs ou partenaires autant que dans l’environnement réel, en reproduisant des environnements de collaboration disposant de conditions d’interactions, par exemple des communications infra verbales entre des avatars (expressions du visage, direction du regard, etc.), des interactions avec un objet en cours de conception, etc. ; ainsi se développent des solutions facilitant la collaboration à travers un espace virtuel de co-conception où les participants sont représentées par exemple à travers des avatars, dans des salles de réunion virtuelles.
L’émergence des équipements de communication spécifiques permet à de plus en plus d’utilisateurs de pouvoir bénéficier d’une expérience d’immersion dans un espace virtuel. Selon une capacité d’immersion de ces équipements, les utilisateurs de ces équipements spécifiques bénéficient d’une expérience d’immersion à travers un espace virtuel et les éléments virtuels de l’espace. Par capacité d’immersion est entendu l’ensemble des caractéristiques matérielles et logicielles des équipements contribuant à une expérience immersive de l’utilisateur dans un espace virtuel donné. Des caractéristiques peuvent être la présence d’un microphone, d’un accéléromètre, d’un gyroscope, d’un écran tactile, des capacités associées comme la sensibilité d’un accéléromètre ou d’un gyroscope, la résolution d’un capteur photo/vidéo, mais aussi la présence d’une puce wifi, la bande passante de la connexion entrante/sortante de l’équipement, etc. La capacité d’immersion d’un équipement peut être variable dans le temps.
Dans la suite, on considère des équipements de niveau 1 des équipements de type visionneuses (« cardboards » en anglais) référencés CB en figure 1, qui sont des casques dans lequel Putilisateur vient glisser un téléphone intelligent (« smartphone » en anglais). Les visionneuses sont donc économiques mais offrent une expérience d’immersion très limitée puisque seuls les mouvements de la tête sont détectés ; ainsi, un déplacement de Γutilisateur dans le monde réel ne sera pas reproduit en virtuel, comme par exemple les équipements Homido©, Samsung Gear VR© -marque déposée. Un téléviseur référencé TV en figure 1, un smartphone référencé SP en figure 1, ou même un projecteur vidéo, peuvent être également considérés dans cette catégorie. Ces équipements de niveau 1 ne sont pas destinés principalement à Γutilisation de services dans un environnement de réalité virtuelle.
Dans la suite, on considère des équipements de niveau 2 des équipements de type casques de réalité virtuelle autonomes référencés RS en figure 1, qui ne nécessitent pas de smartphone puisque l’écran est directement intégré dans le casque. Certains des systèmes précédents, dit « légers » proposent une télécommande qui permet un minimum d’interaction dans Γenvironnement virtuel. Cependant, les gestes et mouvements de Putilisateur ne sont pas détectés (par exemple Oculus GO© marque déposée).
Dans la suite, on considère des équipements de niveau 3 des systèmes pour lesquels la capacité d’immersion est supérieure, comme des systèmes dit « room scale » référencés RSS en figure 1, qui permettent de suivre les faits et gestes de Putilisateur en temps réel, en particulier grâce à des connecteurs référencés RS_Co en figure 1. La captation des mouvements utilisateur peut se faire avec des capteurs externes au casque (HTC Vive ©, Oculus Rift ©), ou interne au casque (Microsoft Mixed reality©, système dit « autonome » référencé RSS_C en figure 1). Ces équipements de niveau 3 offrent aujourd’hui une des meilleures expériences d’immersion dans un environnement de réalité virtuelle.
Dans le cadre de systèmes collaboratifs immersifs basés sur rutilisation d’un espace virtuel commun, les interactions de Lutilisateur avec l’environnement et les autres utilisateurs est primordiale : seuls les équipements de niveau 3 offrent aujourd’hui une expérience d’immersion maximale. Cependant, ces équipements sont coûteux et nécessitent souvent rutilisation d’une pièce dédiée.
Les différences d’équipements, catégorisés ci-dessus par niveau pour exemple, peuvent être un frein à l’adoption et à l’usage de systèmes collaboratifs immersifs.
L'invention offre une solution ne présentant pas les inconvénients de l'état de la technique.
A cet effet, selon un aspect fonctionnel, il est proposé un procédé de traitement de données numériques relatives à un environnement de réalité virtuelle, mis en œuvre dans un dispositif de traitement associé à un équipement de communication comprenant une interface de communication, l’équipement de communication étant utilisé par un utilisateur et étant associé à une liste de capacités, le procédé comprenant recevoir un flux de données associées à un espace virtuel et à des éléments de l’espace dans l’environnement virtuel, déterminer une première liste d’incapacités associée à l’élément de communication en fonction de la liste de capacités, identifier dans les données reçues, un élément de l’espace appelé élément non accessible, rechercher un modèle d’accessibilité associé à l’élément non accessible, en fonction d’au moins la première liste d’incapacités, déterminer au moins un élément d’accessibilité associé à l’élément non accessible.
Le procédé de traitement de données ici décrit permet à un utilisateur d’un équipement de communication, en particulier un équipement non spécifique à rutilisation de services dans un environnement de réalité virtuelle (par exemple un smartphone, un ordinateur, une tablette, un téléviseur, une montre, etc.) de s’intégrer dans un système collaboratif immersif en comblant les déficits d’accessibilité de son équipement de communication grâce à des éléments d’accessibilité.
Ainsi, le procédé offre l'avantage de pouvoir, par exemple, intégrer dans un système collaboratif immersif un utilisateur d’un système « room scale » et un utilisateur d’un équipement non spécifique, en adaptant l’espace virtuel collaboratif et les éléments de cet espace, selon les capacités d’immersion de l’équipement. La solution proposée consiste à étendre l’accessibilité des services collaboratifs virtuels, par exemple, aux équipements de niveau 1 comme un smartphone.
En effet, dans l’état actuel de la technique, si on mélange des utilisateurs de systèmes « room scale » avec des utilisateurs d’équipements « légers » de type cardboards, les différences de capacités d’immersion (champ de vision réduit, absence de connecteurs, absence de capteurs de mouvement, débit de connexion faible, taille d’écran, absence de microphone, etc.) conduisent à une relation de collaboration peu équitable.
D’un côté, les utilisateurs d’équipements « légers » seront frustrés par l’expérience car la vision en réalité virtuelle offerte par le casque laisse à penser que l’interaction avec l’environnement peut se faire de façon naturelle, ce qui n’est pas le cas puisque les mouvements réels de l’utilisateur ne sont pas reproduits dans l’environnement virtuel.
D’un autre côté, les utilisateurs de systèmes « room scale », qui ne sont pas forcément conscient du dispositif utilisé par les utilisateurs d’équipements « légers » pourrait s’attendre à une interaction complète avec ces participants. Par exemple, tendre un objet que l’autre utilisateur ne pourrait pas saisir. Cette situation peut favoriser les utilisateurs les mieux équipés pour prendre l’avantage face aux décisions du collectif.
Ceci peut être source de malentendu et de frustration dans rutilisation du système collaboratif immersif selon l’équipement de communication utilisé. Par équipement de communication étant entendu, tout équipement connecté à partir duquel un utilisateur accède à une restitution et aux interactions d’un environnement virtuel. H est en particulier connecté via un réseau de communication local ou à distance, à un dispositif central (par exemple un serveur) comprenant une unité de traitement de données à partir duquel un ensemble d’utilisateurs est connecté via leur équipement de communication respectif, afin de partager le même environnement virtuel, l’espace virtuel collaboratif. Ce dispositif de communication possède en particulier un dispositif de restitution (par exemple un écran de type LCD, un projecteur, etc.). Par exemple un dispositif de communication peut-être un ordinateur, un téléphone portable, des lunettes 3D, des lunettes de réalité augmentée, etc.
Dans le futur, d’autres équipements possédant une capacité d’immersion supérieure aux équipements de niveau 3 verront certainement le jour ; cependant, dans chaque niveau d’équipements, la liste des incapacités associée à un équipement peut varier, en particulier selon la liste de capacités d’un équipement de référence donné (par exemple un équipement de niveau 3). Par liste de capacités associée à un équipement, est entendu une liste de l’ensemble des caractéristiques physiques et logicielles caractérisant l’équipement à travers ses dispositifs d’entrée et de sortie associés. Par liste d’incapacités associée à un équipement est entendu un ensemble des caractéristiques physiques et logicielles absents de l’équipement, au regard d’un équipement de référence donné, par exemple comme de capacité d’immersion maximal au regard des concepteurs du service collaboratif virtuel considéré. Par incapacité est entendu un déficit d’accessibilité à l’espace virtuel collaboratif par rapport à la capacité d’immersion d’un équipement de référence donné.
La liste de capacités ou d’incapacités d’un équipement peut être variable dans le temps.
Dans une liste de capacités ou une liste d’incapacités d’un équipement pourra également être considéré l’ensemble des restrictions relatives aux logiciels supportés par l’équipement. Dans un mode de réalisation particulier, la liste d’incapacités serait constitué d’un ensemble des caractéristiques physiques et logicielles absents de l’équipement, au regard d’un équipement de référence donné couplé à un ensemble de restrictions relatives à des logiciels supportés par l’équipement de l’utilisateur.
Par élément non accessible est entendu un élément de l’espace virtuel ne pouvant être perçu et/ou utilisé par un équipement de communication de la manière dont il a était initialement conçu dans le service collaboratif virtuel, en particulier pour des équipements de haute capacité d’immersion. Par exemple, un crayon virtuel disposé près un tableau blanc virtuel ne peut être saisi par un équipement de type visionneuse, pour lequel rutilisateur de l’équipement ne peut interagir.
Par élément d’accessibilité est entendu un ou plusieurs éléments ajoutés, retirés, et/ou modifiés de l’environnement virtuel, associé à un élément non accessible. Par exemple, une porte fermée de l’espace virtuel peut intégrer un élément graphique de type un contour rectangulaire de couleur discriminante comme élément d’accessibilité. Les utilisateurs d’équipements de haute capacité d’immersion pouvant agir directement sur la porte, par exemple à l’aide de connecteurs, pourront être dispensés de cet affichage, contrairement à d’autres équipements plus légers (un simple projecteur sans télécommande par exemple) dont la liste d’incapacités détermine à partir du procédé présenté ici, spécifie l’absence de dispositifs de contrôle et/ou de sélection.
De ce procédé ici présenté découle en particulier une solution logicielle et matérielle de réalité virtuelle, qui permet de s’immerger dans un atelier de collaboration et de partage de contenus. Les collaborateurs ou partenaires professionnels, répartis sur plusieurs sites, peuvent travailler, créer et innover ensemble grâce à une capacité d’immersion « augmentée ».
Selon un mode de réalisation, le flux de données associées à l’espace virtuel et aux éléments de l’espace dans Γenvironnement virtuel comprend une liste de capacités de référence relative à un équipement de communication de référence.
Avantageusement, ce mode de réalisation permet de configurer un espace virtuel et les éléments de cet espace conçu, en terme de restitution et d’interactions selon un équipement de référence, au regard de la liste de capacités de l’équipement de rutilisateur. L’équipement de référence considéré étant un équipement possédant une liste de capacités favorable à une expérience utilisateur de haute capacité d’immersion pour l’espace virtuel et les éléments de cet espace. La liste de capacités de référence relative à un équipement de communication de référence peut être initialisée à travers ses capacités d’évaluation de la position de l’équipement dans l’environnement réel (géolocalisation, détection de mouvement), de gestion de la stéréoscopie, de niveau de résolution de l’image, d’estimation du champ de vision, du niveau de connexion de la bande passante, etc.
Selon un autre mode de réalisation, qui pourra être mis en œuvre alternativement ou cumulativement avec le précédent, déterminer une deuxième liste d’incapacités associée à au moins un déficit d’accessibilité relatif à rutilisateur ou à son environnement.
Avantageusement, ce mode de réalisation permet de configurer un espace virtuel et les éléments de cet espace en fonction d’une ou plusieurs déficiences relatives à rutilisateur lui-même (troubles visuels, auditifs, handicap moteur..) ou à relatives à son environnement (environnement bruyant, pas de possibilité de parler, mauvaise captation réseau, en mouvement..). Dans un mode de réalisation particulier, la deuxième liste d’incapacités relatives à rutilisateur est alimentée à travers une sélection utilisateur proposé à travers une interface de communication, par exemple celle de l’équipement de communication de l’utilisateur.
Selon un mode de réalisation, qui pourra être mis en œuvre alternativement ou cumulativement avec les précédents, le procédé comprend en outre transmettre à l’interface de communication de l’équipement de communication, au moins l’élément d’accessibilité associé à l’élément non accessible.
Avantageusement, ce mode de réalisation permet de guider Γutilisateur à travers l’espace virtuel en fonction des déficits d’accessibilité identifiés. Par exemple, un tableau blanc virtuel grâce auquel les utilisateurs peuvent partager des idées en les écrivant, dessinant ou même projetant sur celui-ci, n’est pas accessible pour les utilisateurs de cardboards ou même de smartphones à travers Γutilisation des crayons virtuels saisissables par les systèmes de type « room scale » équipés de connecteurs. Ainsi, le procédé, peut en particulier introduire un guidage visuel vers le tableau blanc (et non les crayons virtuels) afin que Putilisateur sélectionne directement le tableau blanc. C’est le procédé mis en œuvre dans le dispositif de traitement parallèlement ou séquentiellement à ces éléments d’accessibilité.
Selon un mode de réalisation, qui pourra être mis en œuvre alternativement ou cumulativement avec les précédents, le procédé comprend en outre intégrer au flux de données, l’élément d’accessibilité associé à l’élément non accessible.
Avantageusement, ce mode de réalisation permet la diffusion multi-point (en mode « broadcast » en anglais), du flux relatif au service collaboratif immersif vers l’ensemble des équipements de communication. C’est le procédé mis en œuvre dans le dispositif de traitement, par exemple une application installée dans l’équipement de communication, qui intègre le ou les éléments d’accessibilité associés à l’élément non accessible à l’équipement, dans le flux de données (FX) avant de transmettre celui-ci à l’interface de communication de l’équipement, (cf. figure 2)
Selon un mode de réalisation, qui pourra être mis en œuvre alternativement ou cumulativement avec les précédents, le procédé comprend en outre déterminer au moins un attribut d’interaction associé à l’élément non accessible de l’espace virtuel.
Avantageusement, ce mode de réalisation permet d’adapter les interactions des éléments non accessibles, rendus accessibles à l’équipement concerné, à travers un élément d’accessibilité. Dans le cas précédent du tableau blanc, l’utilisateur du smartphone ayant sélectionné le tableau blanc, se voit proposer une interaction avec celui-ci en quittant momentanée une représentation de l’espace virtuel de réunion par un affichage plein écran sur son smartphone du tableau blanc pour effectuer des actions sur celui-ci à travers l’interface tactile. Ainsi, à l’élément d’accessibilité du tableau blanc (par exemple un rectangle lumineux autour de celui-ci), est associé l’attribut d’interaction de la fonctionnalité d’affichage plein écran sur le smartphone.
Selon un autre mode de réalisation, qui pourra être mis en œuvre alternativement ou cumulativement avec les précédents, le procédé comprend en outre, en cas d’activation d’un attribut d’interaction associé à l’élément non accessible, déterminer des éléments de substitution.
Avantageusement, ce mode de réalisation permet aux autres utilisateurs présents dans l’espace virtuel collaboratif considéré, de percevoir les actions effectuées par un utilisateur doté d’un équipement de capacité d’immersion moindre. Dans l’exemple précédent, la prise en main du tableau blanc par l’utilisateur de smartphone entraînera, par exemple, la désactivation temporaire de rutilisation des crayons virtuels, ou même la détermination d’éléments de substitution permettant de simuler rutilisation des crayons par l’utilisateur de smartphone ; par exemple une liaison visuelle entre l’avatar et les crayons sont symboliquement représentés en fonction des interactions effectuées par l’utilisateur de smartphone sur le tableau blanc.
L'invention concerne également un programme d'ordinateur comportant des instructions pour la mise en œuvre du procédé de traitement de données selon l'un quelconque des modes particuliers de réalisation décrits précédemment, lorsque ledit programme est exécuté par un processeur. Un tel programme peut utiliser n’importe quel langage de programmation. H peut être téléchargé depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur. Ce programme peut utiliser n'importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n'importe quelle autre forme souhaitable.
L'invention vise aussi un support d'enregistrement ou support d'informations lisible par un ordinateur, et comportant des instructions d'un programme d'ordinateur tel que mentionné ci-dessus. Les supports d'enregistrement mentionnés ci-avant peuvent être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement (disque dur, clé USB). D'autre part, les supports d'enregistrement peuvent correspondre à un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, les supports d'enregistrement peuvent correspondre à un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Le procédé de traitement de données selon l'invention peut donc être mis en œuvre de diverses manières, notamment sous forme câblée ou sous forme logicielle.
Selon un aspect matériel, il est proposé un dispositif de traitement de données numériques relatives à un environnement de réalité virtuelle, associé à un équipement de communication comprenant une interface de communication, l’équipement de communication étant utilisé par un utilisateur et étant associé à une liste de capacités, le dispositif comprenant :
un module de réception apte à recevoir un flux de données associées à un espace virtuel et à des éléments de l’espace dans l’environnement virtuel, un module de détermination apte à déterminer une première liste d’incapacités en fonction de la liste de capacités, un module d’identification apte à identifier dans les données reçues, un élément de l’espace appelé élément non accessible, un module d’identification apte à identifier des données de paramétrage associées à l’élément non accessible, en fonction de la liste d’incapacités, un module de recherche d’un modèle d’accessibilité associé à l’élément non accessible, en fonction d’au moins une liste d’incapacités, un module de détermination apte à déterminer au moins un élément d’accessibilité associé à l’élément non accessible.
Le dispositif de traitement de données d’un environnement de réalité virtuelle ici décrit permet la mise en œuvre du procédé ici décrit.
D’autres caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description suivante d’un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels :
la figure 1 illustre une plateforme de services associée à un service collaboratif immersif, et l’ensemble des équipements de communication à partir desquels un ensemble d’utilisateurs accède à un espace virtuel collaboratif associé à ce service.
la figure 2 illustre les étapes du procédé ici décrit intégrant les éléments d’accessibilité et les attributs d’interaction des éléments non accessibles dans le flux de données associés au service.
La figure 3 illustre un dispositif APP ici proposé, implémenté dans un équipement de communication de type smartphone.
la figure 4 décrit les modules du dispositif APP ici présenté.
la figure 5 illustre les étapes du procédé ici décrit diffusant des flux de données associés au service en mode point à point (« unicast » en anglais).
La figure 1 illustre en particulier une plateforme de services représentée ici par un serveur référencé S. Cette plateforme de services est un ensemble d’équipements connecté à un réseau de communication à partir de laquelle tout type d’équipement de communication est susceptible de faire appel à un service, en particulier un service collaboratif immersif. Cette plateforme de services intègre une brique logicielle S_VR permettant de générer un service collaboratif virtuel dans lequel un espace virtuel collaboratif intègre un ensemble d’avatars. Le dispositif APP_PS est le dispositif relatif au procédé ici décrit permettant une mise en œuvre décrit à la figure 5.
Dans ce mode de réalisation, des équipements de communication (connectés directement ou indirectement au réseau de communication) tels qu’une télévision référencée TV, un téléphone intelligent SP appelé smartphone, un système de casque CRV de réalité virtuelle de type « room scale » référencé RSS composé de capteurs
RS_Ca et de connecteurs RS_Co, un système autonome référencé RSS_C, un système de casque RS de réalité virtuelle référencé RCRV, un masque support d’un téléphone portable intelligent référencé CB, intègrent un dispositif ici décrit afin de permettre aux utilisateurs d’équipements d’accéder au service collaboratif immersif. L’ordinateur est également un autre exemple d’équipement de communication (non représenté ici). Ces équipements de communication possèdent une liste de capacités à partir de laquelle les fonctionnalités d’immersion du service collaboratif immersif vont s’adapter grâce à la mise en œuvre du procédé ici présenté. Les dispositifs référencés APP_1, APP_2, APP_3, APP_4, APP_5, APP_6 peuvent être des dispositifs relatives à un programme de données et/support informatique identique ou différent. Dans un mode de réalisation particulier, les dispositifs sont configurés pour chaque dispositif avant et/ou après Γinstallation du dispositif sur l’équipement.
Dans un mode de réalisation, la plateforme de services S diffuse un même flux de données LX de l’environnement virtuel, en mode multipoint («broadcast» en anglais) et les dispositifs, par exemple des applications logicielles, mettent en œuvre les étapes du procédé décrit en figure 2.
A chaque équipement de communication est associée la liste de capacités de cet équipement relativement à sa capacité d’immersion dans un environnement virtuel, à travers un niveau d’immersion dans un environnement virtuel, et un niveau d’accessibilité à un espace virtuel immersif donné. Le niveau d’immersion ne sera pas considéré dans ce document car il est relatif aux équipements de communication et mesuré à travers la perception d’immersion dans l’espace virtuel par rutilisateur.
Le procédé présenté ici permet d’améliorer le niveau d’accessibilité à un espace virtuel immersif donné.
Un casque CRV de type « room scale », possédant des capteurs RS_Ca dans la pièce où se trouve rutilisateur et des contrôleurs RS_Co est considéré ici comme l’équipement de communication de référence, car possédant un niveau d’accessibilité élevé au regard d’un espace virtuel collaboratif donné : manipulation des objets virtuels à l’aide des contrôleurs, un avatar reproduisant les mouvements de tête, de bras de l’utilisateur, déplacement de l’avatar en particulier à l’aide des capteurs situés dans la pièce, etc.
Les éléments d’accessibilité sont des solutions apportées aux éléments non accessibles, en fonction d’une liste d’incapacités de l’équipement de communication.
La figure 2 illustre les étapes du procédé ici décrit intégrant les éléments d’accessibilité et les éléments d’interaction des éléments non accessibles dans le flux de données associés au service.
Dans ce mode de réalisation, le dispositif de traitement APP_2 est intégré directement dans l’applicatif du service collaboratif immersif existant, applicatif référencé VR. Dans une étape E00, le dispositif accède à une liste de capacités de l’équipement de communication et/ou d’un ou plusieurs applicatifs, par exemple l’applicatif VR.
Dans un mode de réalisation préféré, cette liste est constituée par l’application VR, par exemple lors du processus d’installation de cette application dans l’équipement de communication, et cette liste est stockée dans une mémoire à laquelle l’application peut accéder.
Dans une étape E20, le dispositif de traitement APP_2 reçoit le flux PX de données envoyé par la plateforme de service S et identifie un élément non accessible. Dans ce mode de réalisation, le flux contient une liste de capacités relative à un équipement de communication de référence. Le procédé détermine alors, dans une étape préliminaire, une liste d’incapacités de l’équipement par rapport à cette liste de capacité de référence, et cette liste est stockée dans une mémoire à laquelle l’application peut accéder. Cette détermination permet d’évaluer les déficits d’accessibilité de l’équipement de communication, et donc d’identifier un élément non accessible dans l’espace virtuel. Dans un mode de réalisation particulier, une deuxième liste de capacités est déterminée en fonction d’un paramétrage utilisateur, effectué par exemple à travers l’interface de communication du smartphone indiquant des déficits d’accessibilité de l’utilisateur.
Le dispositif de traitement APP_2 lance ensuite une recherche d’un ou plusieurs éléments d’accessibilité associé à l’élément non accessible identifié dans une base de données BD1 en lançant une requête E23 contenant par exemple une ou plusieurs listes d’incapacités.
Dans un mode de réalisation particulier, le dispositif de traitement APP_2 accède aux éléments d’accessibilité stockés par exemple dans une base de données située dans le réseau, par exemple à travers l’un des équipements de la plateforme de services afin de permettre des mises à jour (36) par les fournisseurs de services, sans nécessité de mettre à jour le dispositif.
Dans une étape E25, le dispositif de traitement APP_2 détermine un ou plusieurs attributs d’interaction associés à le ou les éléments d’admissibilité et intègre le ou les éléments d’accessibilité dans le flux de données.
Dans une étape E26, le dispositif de traitement APP_2 transmet à l’interface I de communication de l’équipement de communication le ou les éléments d’admissibilité à travers le flux FX_M.
Dans une étape E27, en cas d’activation des éléments d’accessibilité et les attributs d’interaction associés, le dispositif de traitement APP_2 envoie des informations vers l’application S_VR du serveur S du service collaboratif virtuel. Dans une étape E28, le dispositif de traitement APP recherche des éléments de substitution dans une base BD2 et envoie FX_T (relatif à un temps ultérieur au flux FX) vers un ou plusieurs autres équipements connectés au service afin que les utilisateurs de ces équipements (par exemple l’équipement RSS) puissent percevoir les interactions associées à ou aux attribut(s) d’interaction.
La figure 3 illustre un dispositif APP ici proposé, implémenté dans un équipement de communication de type smartphone.
L’équipement électronique est illustré comme un dispositif mobile 100. Le dispositif mobile 100 comprend un dispositif d'affichage 145, un processeur CPU, un dispositif d'entrée INPUT et un module applicatif APP caractérisant le procédé ici présenté. Dans un mode de réalisation, l’application APP est intégrée par une application VR relative à un service collaboratif immersif. Dans le présent dispositif, l'interaction utilisateur et la manipulation du rendu du module applicatif sur une interface graphique peuvent être obtenues en utilisant le dispositif d'affichage 145, qui est dans notre exemple un écran tactile couplé fonctionnellement au processeur CPU commandant l'interface affichée. Le dispositif d'entrée INPUT et le dispositif d'affichage 145 sont ainsi fusionnés. Certains dispositifs mobiles 100 peuvent également présenter un dispositif d'entrée INPUT comme un clavier.
Le processeur CPU peut commander le rendu et/ou l'affichage de l'interface graphique sur le dispositif d'affichage 145 en fonction du type d'applications, applications natives ou de tiers. Le processeur CPU peut également gérer les entrées utilisateur selon le présent procédé. Le panneau tactile 145 peut être vu comme un dispositif d'entrée permettant des interactions avec un doigt d'un utilisateur ou d'autres dispositifs tels qu'un stylet. L'interface de capteur tactile ou le panneau tactile 145 peut inclure tout circuit approprié pour convertir les signaux analogiques correspondant à l'entrée tactile reçue sur sa surface en toute donnée d'entrée tactile numérique appropriée. De telles données d'entrée tactiles peuvent, par exemple, être utilisées pour effectuer des sélections de parties de l'interface graphique d'une application. L'entrée reçue du contact d'un utilisateur est envoyée au processeur CPU. Le panneau tactile 145 est configuré pour détecter et signaler l’emplacement du point de contact au processeur CPU, qui peut interpréter les touches conformément à l'application et à l’interface graphique en cours. Un microphone est référencé 160 et une caméra est référencée 150.
La figure 4 illustre une architecture d'un dispositif APP de traitement de données d'un environnement de réalité virtuelle. Un tel dispositif est configuré pour mettre en œuvre le procédé de traitement de données de réalité virtuelle selon l'un quelconque des modes particuliers de réalisation de l'invention décrits ci-dessus.
Le dispositif APP comprend une mémoire MEM, une unité de traitement UT, équipée par exemple d'un processeur PROC, et pilotée par le programme d'ordinateur PG stocké en mémoire MEM. Le programme d'ordinateur PG comprend des instructions pour mettre en œuvre les étapes du procédé de traitement de données tel que décrit précédemment, lorsque le programme est exécuté par le processeur PROC.
A l'initialisation, les instructions de code du programme d'ordinateur PG sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur PROC. Le processeur PROC de l'unité de traitement UT met notamment en œuvre les étapes du procédé, selon les instructions du programme d'ordinateur PG.
De la même façon, une architecture d'un dispositif APP_PS (figure 1 ou 5) de traitement de données d'un environnement de réalité virtuelle pourrait être illustrée de la même façon. Un tel dispositif est en particulier configuré pour mettre en œuvre le procédé de traitement de données de réalité virtuelle selon le mode particulier de réalisation de l'invention décrit dans la figure 5 ci-après. Les modules 09, 10, 11, 12 et 13 sont des modules permettant la mise en œuvre du procédé ici décrit.
La figure 5 illustre les étapes du procédé ici décrit diffusant des flux de données associés au service en mode point à point (« unicast » en anglais).
Dans ce mode de réalisation, le dispositif de traitement APP_PS est intégré directement dans l’applicatif du service collaboratif immersif existant, applicatif référencé VR. Dans une étape E00, le dispositif accède à une liste de capacités de l’équipement de communication et/ou d’un ou plusieurs applicatifs, par exemple l’applicatif VR.
Dans un mode de réalisation préféré, cette liste est constituée par l’application VR, par exemple lors du processus d’installation de cette application dans le système informatique de l’équipement de communication, et cette liste est stockée dans une mémoire à laquelle l’application peut accéder.
Dans une étape E20, le dispositif de traitement APP reçoit le flux FX_1 de données relatif à cet équipement et envoyé par la plateforme de service S. Les échanges préliminaires d’établissement d’un canal de communication dédié n’est pas décrit ici car estimé connu de l’homme du métier. La liste de capacités est envoyée au serveur S (E26) qui la stocke Le procédé mis en œuvre dans le dispositif APP_PS, détermine alors une liste d’incapacités de l’équipement par rapport à une liste de référence. Cette détermination E25 permet d’évaluer les déficits d’accessibilité de l’équipement de communication et donc d’identifier un élément non accessible dans l’espace virtuel. Dans un mode de réalisation particulier, une deuxième liste capacité est déterminée en fonction d’un paramétrage utilisateur, effectué par exemple à travers l’interface de communication du smartphone indiquant des déficits d’accessibilité de Γ utilisateur.
Le dispositif APP_PS lance une recherche pour un élément d’accessibilité associé à l’élément non accessible identifié dans une base de données BD1 en lançant une requête E23 contenant une ou plusieurs listes d’incapacités.
Dans une étape E24, le dispositif de traitement APP_PS situé au niveau de la plateforme de services S, accède aux éléments d’accessibilité stockés par exemple dans une base de données BD2.
Dans une étape E27, le dispositif de traitement APP_PS détermine un ou plusieurs attributs d’interaction associés à le ou les éléments d’admissibilité et intègre les éléments d’accessibilité dans le flux de données.
Dans une étape E30, en cas d’activation des éléments d’accessibilité et les attributs d’interaction associés, le dispositif S_VR du serveur S du service de réalité virtuelle recherche d’éléments de substitution dans une base BD3 (non représentée) et envoie FX_2 (relatif à un temps ultérieur au flux FX), en particulier vers un ou plusieurs autres équipements afin que les utilisateurs de ces équipements puissent être percevoir les interactions associées à ou aux attribut(s) d’interaction.
Dans le présent texte, les dispositifs ou modules peuvent être mis en œuvre sous forme logicielle (ou « software »), auquel cas il prend la forme d’un programme exécutable par un processeur, ou sous forme matérielle (ou « hardware »), comme un circuit intégré spécifique application (ASIC), un système sur puce (SOC), ou sous forme d'une combinaison d'éléments matériels et applications, comme par exemple un programme application destiné à être chargé et exécuté sur un composant de type FPGA (Field Programmable Gâte Array). »
Bien que décrits à travers un certain nombre d’exemples de réalisation détaillés, le procédé proposé et l’objet pour la mise en œuvre du procédé comprennent différentes variantes, modifications et perfectionnements qui apparaîtront de façon évidente à l’homme de l’art, étant entendu que ces différentes variantes, modifications et perfectionnements font partie de la portée de l’invention, telle que définie par les revendications qui suivent. De plus, différents aspects et caractéristiques décrits cidessus peuvent être mis en œuvre ensemble, ou séparément, ou bien substitués les uns aux autres, et l’ensemble des différentes combinaisons et sous combinaisons des aspects et caractéristiques font partie de la portée de l’invention. En outre, il se peut que certains dispositifs et objets décrits ci-dessus n’incorporent pas la totalité des modules et fonctions décrits pour les modes de réalisation préférés.
Claims (10)
- REVENDICATIONS1. Procédé de traitement de données numériques relatives à un environnement de réalité virtuelle, mis en œuvre dans un dispositif (APP) de traitement associé à un équipement de communication (SP) comprenant une interface de communication, l’équipement de communication étant utilisé par un utilisateur et étant associé à une liste (C) de capacités, le procédé comprenant :recevoir un flux (FX) de données associées à un espace virtuel et à des éléments de l’espace dans Γenvironnement virtuel, déterminer une première liste (IC) d’incapacités associée à l’élément de communication en fonction de la liste (C) de capacités, identifier dans les données reçues, un élément de l’espace appelé élément non accessible (ENA), rechercher un modèle d’accessibilité associé à l’élément non accessible, en fonction d’au moins la première liste d’incapacités (IC), déterminer au moins un élément d’accessibilité (EA) associé à l’élément non accessible.
- 2. Procédé selon la revendication 1, dans lequel le flux (FX) de données associées à l’espace virtuel et aux éléments de l’espace dans Γenvironnement virtuel comprend une liste de capacités de référence relative à un équipement de communication de référence.
- 3. Procédé selon la revendication 1, comprenant en outre, déterminer une deuxième liste d’incapacités associée à au moins un déficit d’accessibilité relatif à Futilisateur.
- 4. Procédé selon la revendication 1, comprenant en outre transmettre à l’interface de communication de l’équipement de communication, au moins l’élément d’accessibilité (EA) associé à l’élément non accessible.
- 5. Procédé selon la revendication 4, comprenant en outre intégrer au flux (FX) de données, l’élément d’accessibilité (EA) associé à l’élément non accessible.
- 6. Procédé selon la revendication 1, comprenant en outre déterminer au moins un attribut d’interaction (AI) associé à l’élément non accessible de l’espace virtuel.
- 7. Procédé selon la revendication 6 comprenant en outre, en cas d’activation d’un attribut d’interaction associé à l’élément non accessible, déterminer des éléments de substitution.
- 8. Programme informatique caractérisé en ce qu’il comporte des instructions pour la mise en œuvre du procédé selon l’une des revendications 1 à 7, lorsque ce programme est exécuté par un processeur.
- 9. Support de données sur lequel a été mémorisée au moins une série d’instructions de code de programme pour l’exécution d’un procédé selon l’une des revendications 1 à 7.
- 10. Dispositif (APP) de traitement de données numériques relatives à un environnement de réalité virtuelle, associé à un équipement de communication (SP) comprenant une interface de communication, l’équipement de communication étant utilisé par un utilisateur et étant associé à une liste (C) de capacités, le dispositif comprenant :un module de réception apte à recevoir un flux (FX) de données associées à un espace virtuel et à des éléments de l’espace dans Γenvironnement virtuel, un module de détermination apte à déterminer une première liste (IC) d’incapacités en fonction de la liste (C) de capacités, un module d’identification apte à identifier dans les données reçues, un élément de l’espace appelé élément non accessible (ENA), un module de recherche d’un modèle d’accessibilité associé à l’élément non accessible, en fonction d’au moins une liste d’incapacités, un module de détermination apte à déterminer au moins un élément d’accessibilité (EA) associé à l’élément non accessible.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1852546A FR3079321A1 (fr) | 2018-03-23 | 2018-03-23 | Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode accessibilite |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1852546 | 2018-03-23 | ||
FR1852546A FR3079321A1 (fr) | 2018-03-23 | 2018-03-23 | Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode accessibilite |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3079321A1 true FR3079321A1 (fr) | 2019-09-27 |
Family
ID=62948209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1852546A Withdrawn FR3079321A1 (fr) | 2018-03-23 | 2018-03-23 | Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode accessibilite |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3079321A1 (fr) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100153858A1 (en) * | 2008-12-11 | 2010-06-17 | Paul Gausman | Uniform virtual environments |
US20150011277A1 (en) * | 2013-07-02 | 2015-01-08 | Kabam, Inc. | System and method for determining in-game capabilities based on device information |
-
2018
- 2018-03-23 FR FR1852546A patent/FR3079321A1/fr not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100153858A1 (en) * | 2008-12-11 | 2010-06-17 | Paul Gausman | Uniform virtual environments |
US20150011277A1 (en) * | 2013-07-02 | 2015-01-08 | Kabam, Inc. | System and method for determining in-game capabilities based on device information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3192220B1 (fr) | Partage en temps réel au cours d'un appel téléphonique | |
US20180365809A1 (en) | Privacy image generation | |
US10536647B2 (en) | Using a display as a light source | |
US20150317353A1 (en) | Context and activity-driven playlist modification | |
CN107209781B (zh) | 使用自然语言的上下文搜索 | |
RU2640632C2 (ru) | Способ и устройство для доставки информации | |
US9715751B2 (en) | Zooming to faces depicted in images | |
US20150085146A1 (en) | Method and system for storing contact information in an image using a mobile device | |
KR20150044830A (ko) | 휴대용 장치가 웨어러블 장치를 통하여 정보를 표시하는 방법 및 그 장치 | |
FR3000632A1 (fr) | Procede d'affichage de donnees dans un reseau et dispositif mobile associe | |
FR3039906A1 (fr) | Procede de partage interactif d'applications et de donnees entre ordinateurs a ecran tactile et programme d'ordinateur pour la mise en œuvre dudit procede | |
JP5278912B2 (ja) | 通信装置、通信方法およびプログラム | |
US9294786B2 (en) | Coordination of video and/or audio recording | |
EP3336709A1 (fr) | Procédé d'utilisation d'un poste de travail étendu, et système d'utilisation d'un poste de travail étendu associé | |
FR3079321A1 (fr) | Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode accessibilite | |
FR3079320A1 (fr) | Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode perception de l'accessibilite | |
US11166069B1 (en) | Video content conversion | |
EP3404874B1 (fr) | Procédé de gestion de réponse | |
WO2021122410A1 (fr) | Procédé et système de visualisation d'un contenu numérique affiché par un appareil électronique | |
CN113692555B (zh) | 在可变照明中电子控制相机的透镜的光传输 | |
US11575723B2 (en) | Smart speaker media network system and method | |
FR3099675A1 (fr) | Interactions guidées par des règles déclenchées lors de la récupération et du stockage de contenu de webinaire | |
FR3059440A1 (fr) | Navigation dans des donnees utilisateur | |
EP2400752A1 (fr) | Système de capture de TV widget |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20190927 |
|
ST | Notification of lapse |
Effective date: 20201110 |