FR3080935A1 - Procede et systeme de generation a la volee d'un contenu de realite augmentee sur un appareil utilisateur. - Google Patents

Procede et systeme de generation a la volee d'un contenu de realite augmentee sur un appareil utilisateur. Download PDF

Info

Publication number
FR3080935A1
FR3080935A1 FR1853781A FR1853781A FR3080935A1 FR 3080935 A1 FR3080935 A1 FR 3080935A1 FR 1853781 A FR1853781 A FR 1853781A FR 1853781 A FR1853781 A FR 1853781A FR 3080935 A1 FR3080935 A1 FR 3080935A1
Authority
FR
France
Prior art keywords
scenario
image
user device
video
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1853781A
Other languages
English (en)
Other versions
FR3080935B1 (fr
Inventor
Pierre ADDOUM
Sylvain GUARY
Evgenii KHRUSHCHEV
Evgeniy DOMBROVSKIY
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ARGO, FR
Original Assignee
BEAR
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEAR filed Critical BEAR
Priority to FR1853781A priority Critical patent/FR3080935B1/fr
Priority to US16/392,294 priority patent/US10891794B2/en
Publication of FR3080935A1 publication Critical patent/FR3080935A1/fr
Application granted granted Critical
Publication of FR3080935B1 publication Critical patent/FR3080935B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

La présente invention concerne un procédé (100) de génération à la volée d'un contenu de réalité augmentée comprenant les étapes suivantes : - lecture (112), par ledit appareil utilisateur, d'une image réelle, - identification (116) d'un scénario préalablement associé à ladite image réelle, - production (122,124), au niveau dudit appareil utilisateur, d'un contenu de réalité augmentée par exécution dudit scénario sur ladite image réelle, et - lecture (126) dudit contenu par ledit appareil utilisateur nomade ; l'étape de production (122,124) comprenant une suppression (122), dans toute la vidéo, des pixels d'une couleur prédéterminée renseignée comme paramètre d'affichage, dans ledit scénario. L'invention concerne également un système mettant en œuvre un tel procédé.

Description

« Procédé et système de génération à la volée d'un contenu de réalité augmentée sur un appareil utilisateur »
Domaine technique
La présente invention concerne un procédé de génération à la volée d'un contenu de réalité augmentée sur un appareil utilisateur, en particulier de type smartphone, tablette, phablette. Elle concerne également un système configuré pour mettre en œuvre un tel procédé.
Le domaine de l’invention est, de manière non limitative, celui de la génération à la volée de contenus de réalité augmentée sur un appareil utilisateur nomade.
Etat de la technique
La réalité augmentée peut être définie comme étant la superposition de d'au moins un objet virtuel dans une image réelle, ou une séquence d'images réelles, se trouvant dans l'environnement d'un utilisateur. L'objet virtuel est incrusté dans l'image réelle par traitement numérique. L'objet virtuel peut être une image, une vidéo, etc. Les techniques de réalité augmentée sont bien connues et largement utilisées de nos jours pour générer des contenus vidéo de réalité augmentée, par exemple en temps réel.
La génération d'un contenu de réalité augmentée est réalisée par calcul numérique, pour traiter les objets virtuels et les incruster dans l'image réelle. Ce traitement numérique peut être complexe et nécessiter des ressources de calcul numérique non négligeables. De ce fait, dans la plupart des cas, la génération du contenu de réalité augmentée est réalisée au niveau d'un site central puis, diffusé vers un ou plusieurs utilisateurs.
Or, cette centralisation n'est pas flexible pour la génération à la volée de contenus de réalité augmentée. De plus, pour être capable de fournir à la volée un contenu de réalité augmentée aux utilisateurs, elle nécessite que ledit contenu soit préalablement généré et mémorisé au niveau du site central, ce qui nécessite des ressources de mémorisation qui peuvent être importantes, en fonction du nombre de contenus à mémoriser.
- 2 Un but de la présente invention est de remédier aux inconvénients précités.
Un autre but de la présente invention est de proposer un procédé de génération à la volée d'un contenu de réalité augmentée plus simple et plus flexible.
Un autre but de la présente invention est de proposer un procédé de génération à la volée d'un contenu de réalité augmentée réalisant une meilleure utilisation des ressources numériques disponibles.
Exposé de l'invention
Au moins un de ces buts est atteint avec un procédé de génération à la volée d'un contenu de réalité augmentée sur un appareil utilisateur nomade, ledit procédé comprenant les étapes suivantes :
lors d'une phase, dite préliminaire, réalisée pour au moins une image, dite réelle :
-configuration d'un scénario comprenant au moins une vidéo et au moins un paramètre d'affichage, et
-association dudit scénario à ladite image réelle ;
lors d'une phase, dite d'exécution :
- lecture, par ledit appareil utilisateur, d'une image réelle,
- identification d'un scénario préalablement associé à ladite image réelle,
- production, au niveau dudit appareil utilisateur, d'un contenu de réalité augmentée par exécution dudit scénario sur ladite image réelle, et
- lecture dudit contenu par ledit appareil utilisateur nomade ;
l'étape de production comprenant une suppression, dans toute la vidéo, des pixels d'une couleur prédéterminée renseignée comme paramètre d'affichage, dans ledit scénario.
Ainsi, le procédé selon l'invention réalise la production du contenu de réalité augmentée au niveau de l'appareil utilisateur nomade. Par conséquent, le contenu de réalité augmentée n'est pas produit au niveau d'un site central. Ainsi, le procédé selon l'invention est plus flexible car il permet de s'adapter à
- 3 chaque appareil utilisateur, et à l'environnement de chaque appareil utilisateur.
De plus, avec le procédé selon l'invention, le contenu de réalité augmentée est produit à la volée après la lecture de l'image réelle par l'appareil utilisateur. Par conséquent, il ne nécessite pas une production préalable des contenus de réalité augmentée et une mémorisation de ces contenus au niveau d'un site central distant de l'appareil utilisateur.
En outre, le traitement de la vidéo, et plus généralement des objets virtuels, à incruster dans l'image réelle est réalisée au niveau de l'appareil utilisateur. Ainsi, le procédé selon l'invention permet d'exploiter les ressources de calcul déjà présentes au niveau de chaque appareil utilisateur, et d'éviter de prévoir des ressources de calcul additionnelles au niveau d'un site central distant.
Par ailleurs, le procédé selon l'invention prévoit de supprimer les pixels d'une couleur dans toute la vidéo, sans faire d'analyse complexe, telle qu'une détection de fond ou une détection de contour. La couleur à supprimer est déterminée préalablement et renseigné à l'appareil utilisateur, ce qui est plus simple et nécessite moins de ressources de calcul.
Dans la suite de la demande, par « objet » ou « objet virtuel », on entend tout objet visuel, tel qu'une image ou une vidéo, utilisée pour réaliser le contenu de réalité augmentée, par superposition/incrustation sur/dans une image réelle, ou une série d'images réelles.
En particulier, le contenu de réalité augmentée est un contenu multimédia visuel, ou audiovisuel.
Au moins un paramètre d'affichage d'un scénario peut être commun à plusieurs, ou à tous les, objets virtuels dudit scénario.
Alternativement, ou en plus, au moins un paramètre d'affichage d'un scénario, peut être individuel à un objet virtuel dudit scénario et s'appliquer uniquement audit objet virtuel.
Pour au moins une image, le scénario peut en outre comprendre au moins un autre objet sonore, et/ou visuel que la vidéo.
- 4 Ainsi, le scénario peut comprendre plusieurs images et/ou vidéos qui sont exécutés simultanément, ou à tour de rôle.
Les caractéristiques qui seront décrites dans la suite, en référence à la vidéo, peuvent être appliquées, individuellement ou en combinaison, à chaque objet du scénario.
Suivant une caractéristiques particulièrement avantageuse du procédé selon l'invention, l'étape de production peut être réalisée au fur et à mesure de l'étape de lecture du contenu, et en particulier simultanément.
Autrement dit, l'étape de production et l'étape de lecture se chevauchent dans le temps de sorte que l'étape de lecture du contenu débute avant la fin de l'étape de production. La lecture du contenu peut débuter peu après le début de l'étape de production, sans attendre la production de la totalité du contenu.
Ainsi, la génération du contenu de réalité augmentée est réalisée de manière plus réactive, en temps réel.
De plus, il est possible de mettre fin à l'étape de production lorsque l'étape de lecture est arrêtée, par exemple par l'utilisateur. Cela permet d'éviter de produire une partie du contenu qui ne sera pas lue.
Le procédé selon l'invention peut comprendre un chargement de la vidéo, et plus généralement de chaque objet virtuel composant le scénario, après l'étape de lecture de l'image réelle.
Suivant une première alternative, la vidéo, et plus généralement chaque objet virtuel composant le scénario, peut être chargé dans l'appareil utilisateur préalablement à l'étape de production.
Dans ce cas, le chargement de chaque objet virtuel se termine avant le début de l'étape de production.
Suivant une alternative avantageuse, la vidéo peut être chargée dans l'appareil utilisateur au fur et à mesure de l'étape de production, et encore plus particulièrement simultanément.
- 5 Autrement dit, le chargement de la vidéo et l'étape de production se chevauchent dans le temps de sorte que l'étape de production du contenu débute avant la fin de l'étape de chargement de la vidéo.
Ainsi, la génération du contenu de réalité augmentée est réalisée de manière plus réactive, en temps réel.
De plus, il est possible de mettre fin à l'étape de chargement lorsque l'étape de production est arrêtée, par exemple par l'utilisateur. Cela permet d'éviter de charger une partie du contenu qui ne sera pas utilisée.
Suivant une version avantageuse du procédé selon l'invention, les étapes de chargement de la vidéo, de production du contenu de réalité augmentée et de lecture dudit contenu peuvent être réalisées simultanément.
Autrement dit, ces trois étapes peuvent se chevaucher dans le temps de sorte que l'étape de lecture commence alors que les étapes de chargement de la vidéo et de production du contenu de réalité augmentée ne sont pas terminées.
Ainsi, le procédé permet une génération à la volée plus rapide du contenu de réalité augmentée.
L'étape de suppression d'une couleur dans la vidéo peut être réalisée pixel par pixel, pour chaque image composant la vidéo.
En particulier, l'étape de suppression d'une couleur dans la vidéo peut comprendre un remplacement de chaque pixel de ladite couleur par un pixel transparent, en particulier dans chaque image composant la vidéo.
Un tel remplacement peut être réalisé en modifiant les valeurs de couleur pour ledit pixel, ou en supprimant ledit pixel dans chaque image composant la vidéo.
Suivant un mode de réalisation, l'étape de configuration peut comprendre, pour au moins une vidéo faisant partie d'un scénario, une étape manuelle de choix de la couleur à supprimer.
Un tel choix peut être réalisée par l'opérateur ayant conçu le scénario, et mémorisé comme paramètre d'affichage pour ladite vidéo ou pour l'ensemble du scénario.
- 6 Le choix de la couleur à supprimer peut être réalisé par sélection manuelle de ladite couleur :
- dans la vidéo, ou
- parmi plusieurs choix prédéterminés.
Cette sélection peut être réalisée par exemple grâce à un pointeur, de type souris d'ordinateur ou un doigt de l'utilisateur sur un écran tactile, dans la vidéo, respectivement au sein des choix proposés.
Les choix proposés peuvent être préconfigurés, ou déterminées par analyse d'un fond de la vidéo.
Avantageusement, un scénario peut comprendre au moins un paramètre d'affichage relatif à l'orientation d'un plan d'affichage d'au moins un objet du scénario par rapport au plan d'affichage de l'image lue, renseigné à l'appareil utilisateur lors de la phase d'exécution, et utilisé lors de l'étape de production pour ajuster l'orientation dudit au moins objet.
L'orientation peut être relative à l'ensemble du scénario de sorte que l'ensemble du scénario est exécuté dans un même plan.
Alternativement, une orientation peut être individuelle à au moins un objet formant le scénario, tel que par exemple une vidéo, une image, etc.
Préférentiellement, le plan d'affichage d'au moins un objet, et en particulier du scénario, peut être perpendiculaire au plan formé par l'image de sorte que les objets sont perçus comme reposant verticalement sur ladite image.
Cela permet d'avoir un rendu 3D pour le contenu de réalité augmentée.
Bien entendu, de manière générale, un scénario peut comprendre au moins un autre paramètre d'affichage que ceux déjà cités, à savoir une couleur à supprimer et une orientation.
Par exemple, un scénario peut en outre comprendre une combinaison quelconque d'au moins un des paramètres d'affichage suivants :
- une position d'affichage,
- une taille d'affichage,
- un moment de début, respectivement de fin, d'affichage,
- une vitesse de lecture,
- etc.
De manière générale, chaque paramètre d'affichage peut être commun à plusieurs, en particulier à tous les, objets du scénario, ou individuel à un objet dudit scénario.
Avantageusement, le procédé selon l'invention peut comprendre une sélection de plusieurs paramètres d'affichage par sélection d'un bouton auquel lesdits paramètres d'affichage sont préalablement associés.
En effet, il est possible d'associer plusieurs paramètres d'affichage à un même bouton. La sélection dudit bouton permet de sélectionner tous ces paramètres en une seule opération, au lieu de sélectionner ces paramètres de manière individuelle. Ainsi, la configuration du scénario est plus simple, plus ergonomique et plus rapide.
Pour au moins un scénario, une vidéo peut être ajoutée audit scénario par mémorisation d'un identifiant de ladite vidéo.
Dans ce cas, la vidéo peut être mémorisée au niveau d'un site distant, tel que par exemple le site sur lequel l'étape de configuration est réalisée, ou un site tiers.
Suivant une caractéristique particulièrement avantageuse, pour au moins un scénario, une vidéo peut être ajoutée audit scénario par mémorisation d'une adresse d'accès internet de ladite vidéo, tel que par exemple une adresse URL ou FTP.
Dans ce cas, il est possible de modifier le contenu de réalité augmentée en modifiant la vidéo accessible à ladite adresse, sans intervenir sur la configuration du scénario. Ainsi, le procédé selon l'invention permet de réaliser une modification à la volée simple et rapide, du contenu de réalité augmentée.
De plus, cette caractéristique permet d'utiliser comme vidéo, un flux vidéo produit en temps réel, ou en direct. Une telle vidéo peut par exemple être la vidéo d'un événement ayant lieu au moment de la génération du contenu de réalité augmenté, alors que le scénario a été défini bien avant.
- 8 Avantageusement, un scénario peut être associé à une image par mémorisation avec un identifiant de ladite image :
- d'un identifiant dudit scénario ; ou
- des données représentant ledit scénario, tel que par exemple un code source ou un exécutable dudit scénario.
Un objet peut être ajouté à un scénario par mémorisation d'un identifiant ou d'une adresse dudit objet avec un identifiant dudit scénario, ou dans les données représentant ledit scénario.
Le procédé selon l'invention peut en outre comprendre, lors de la phase préliminaire, une attribution d'un identifiant à une image réelle par analyse du contenu de ladite image réelle.
Un tel identifiant dépendant du contenu de l'image permet d'identifier ladite image quel que soit le support, et quel que soit sa provenance.
Un tel identifiant peut par être formé par, ou généré à partir de, un ensemble, ou un nuage, de points identifiés dans ladite image.
Ainsi, lors de la phase d'exécution, l'image réelle lue par l'appareil utilisateur peut être analysée pour retrouver son identifiant, et identifier le scénario qui lui est associé.
L'analyse de l'image lue pour retrouver son identifiant peut être réalisée par l'appareil utilisateur ou un site distant dudit appareil utilisateur.
Suivant un exemple de réalisation nullement limitatif, l'étape d'identification du scénario associé à l'image lue par l'appareil utilisateur peut comprendre les opérations suivantes :
-transmission de l'image lue par l'appareil utilisateur vers un premier site distant,
- identification de ladite image lue au niveau dudit premier site distant par analyse du contenu de ladite image,
-transmission dudit premier site distant vers ledit appareil utilisateur d'un identifiant de ladite image lue,
- 9 -transmission dudit identifiant par l'appareil utilisateur vers un deuxième site distant, et
- identification du scénario associé à ladite image lue au niveau dudit deuxième site distant.
Au niveau de l'appareil utilisateur, l'image réelle peut être lue grâce à un moyen d'imagerie, tel qu'un appareil photo, équipant ledit appareil utilisateur.
En particulier, l'appareil utilisateur peut être muni d'une application client configurée pour la réalisation du procédé selon l'invention et utilisant un tel moyen d'imagerie.
Une telle application client peut réaliser toutes les étapes de la phase d'exécution elle-même, ou faire appel à d'autres applications déjà présentes dans l'appareil utilisateur pour la réalisation d'une ou plusieurs étapes de la phase d'exécution.
Suivant un autre aspect de la même invention, il est proposé un système de génération à la volée d'un contenu de réalité augmentée sur un appareil utilisateur nomade, configuré pour mettre en œuvre toutes les étapes du procédé selon l'invention.
Le système selon l'invention peut comprendre :
- un serveur, au niveau d'un site distant dudit appareil utilisateur, pour configurer et associer, à au moins une image réelle, un scénario comprenant au moins une vidéo et au moins un paramètre d'affichage ; et
- un appareil utilisateur nomade configuré pour la réalisation des étapes suivantes :
- lecture d'une image réelle,
- réception d'un scénario préalablement associé à ladite image,
- production d'un contenu de réalité augmentée par exécution dudit scénario sur ladite image lue, et
- lecture dudit contenu de réalité augmentée ;
- 10 l'étape de production comprenant une suppression, dans toute la vidéo, des pixels d'une couleur prédéterminée renseignée comme paramètre d'affichage, dans ledit scénario.
Avantageusement, le serveur peut comprendre une interface graphique pour configurer et associer un scénario à une image.
L'interface graphique peut être accessible au travers d'un navigateur internet.
L'interface graphique peut faire partie d'une plateforme hébergée dans le serveur, et permettant la configuration du ou des scénarii.
Description des figures et modes de réalisation
D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée d'exemples nullement limitatifs, et des dessins annexés sur lesquels :
- la FIGURE 1 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé selon l'invention ;
- la FIGURE 2 est une représentation schématique d'un premier exemple de réalisation non limitatif d'un système selon l'invention ; et
- la FIGURE 3 est une représentation schématique d'un deuxième exemple de réalisation non limitatif d'un système selon l'invention.
Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur.
- 11 En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan technique.
Sur les figures, les éléments communs à plusieurs figures conservent la même référence.
La FIGURE 1 est une représentation schématique d'un exemple non limitatif d'un procédé selon l'invention.
Le procédé 100, représenté sur la FIGURE 1, comprend une phase 102 de configuration d'un scénario pour au moins une image réelle. La phase 102 est réalisée pour chaque image pour laquelle on souhaite définir un scénario qui sera incrustée/superposée sur ladite image pour obtenir un contenu de réalité augmentée.
La phase 102 comprend une étape 104 de création d'un identifiant de l'image. Pour ce faire, l'image réelle est analysée, par un algorithme prédéterminé, pour y détecter un ensemble de points, ou un nuage de points, en fonction de son contenu. Ce nuage de points sera utilisé pour identifier cette image ultérieurement.
Le nuage de points est mémorisé lors de l'étape 102 avec un identifiant unique qui lui est attribué.
Lors d'une étape 106 un scénario est défini pour l'image.
Le scénario comprend un ou plusieurs objets virtuels qui seront incrustés dans/sur l'image réelle pour obtenir un contenu de réalité augmentée qui sera joué à la volée à la demande d'un utilisateur.
Dans tous les cas, le scénario comprend au moins une vidéo.
Le scénario peut également comprendre une image, un son, etc.
Chaque objet peut être ajouté au scénario par son identifiant.
Suivant un exemple préféré, une vidéo peut être ajoutée à un scénario par une adresse URL de ladite vidéo. Ainsi, il est possible d'utiliser une vidéo en direct d'un événement qui se produit au moment de la génération du contenu de réalité augmentée.
- 12 Le scénario comprend également au moins un paramètre d'affichage, qui sera utilisé pour incruster le ou les objets virtuels, dans/sur l'image réelle.
Dans tous les cas, au moins un paramètre d'affichage définit une couleur à supprimer dans une vidéo faisant partie du scénario.
Le scénario peut en outre comprendre au moins un paramètre d'affichage relatif :
- un plan d'affichage d'au moins un objet virtuel relativement au plan de l'image, par exemple dans un plan perpendiculaire au plan de l'image ;
- une position d'affichage d'au moins un objet virtuel dans le plan de l'image ;
- un moment de début, respectivement de fin, d'affichage d'au moins un objet virtuel ;
- etc.
Au moins un paramètre d'affichage, par exemple un plan de lecture, peut s'appliquer à l'ensemble des objets virtuels du scénario.
Au moins un paramètre d'affichage peut s'appliquer de manière individuelle à un objet du scénario uniquement, tel que par exemple une position d'affichage ou une couleur à supprimer.
Le scénario peut être défini en utilisant une interface graphique.
Une telle interface graphique peut comprendre un bouton permettant de charger un ou plusieurs objets virtuels, une ou plusieurs zones de saisie permettant de renseigner un identifiant ou une adresse UR.L d'un objet virtuel, etc.
L'interface peut en outre lister un ou plusieurs paramètres d'affichage. Pour au moins un paramètre d'affichage peuvent être, un ou plusieurs choix peuvent être prédéfinis, dans l'interface, et proposés à l'opérateur.
Pour au moins une vidéo, l'interface peut comprendre un moyen de sélection d'une couleur à supprimer dans une vidéo faisant partie d'un scénario. Une telle sélection peut être réalisée directement dans la vidéo, ou par sélection d'une couleur parmi plusieurs couleurs proposées dans l'interface utilisateur.
- 13 Lors d'une étape 108, le scénario est mémorisé, par exemple dans une base de données, en association avec l'identifiant de l'image réelle, déterminé lors de l'étape 104.
Le scénario peut comporter un identifiant mémorisé avec celui de l'image réelle. Alternativement, le scénario peut avoir comme identifiant l'identifiant de l'image réelle.
Le scénario peut être représenté par un code source, ou un exécutable.
Le procédé 100 comprend en outre une phase 110, dite d'exécution, lors de laquelle le contenu de réalité augmentée est produit, et affiché, au niveau d'un appareil utilisateur nomade.
La phase d'exécution comprend une étape 112 de lecture d'une image par l'appareil utilisateur nomade. L'image peut être lue depuis un support papier par exemple. La lecture de l'image peut être réalisée grâce à un appareil photo équipant l'appareil utilisateur nomade.
Lors d'une étape 114, l'image lue est analysée pour identifier l'image. Pour ce faire, l'image réelle lue est analysée par le même algorithme que celui utilisé lors de l'étape 104 pour déterminer un nuage de points. Le nuage de points est ensuite comparé à ceux mémorisés lors de l'étape 104 pour retrouver un identifiant de l'image. Cette étape d'analyse peut être réalisée au niveau de l'appareil utilisateur ou d'un site distant qui peut être celui où le scénario est configuré ou un site tiers.
L'identifiant déterminé lors de l'étape 114 est utilisée lors d'une étape 116 pour déterminer un scénario associé à ladite image lors de l'étape 108. Cette étape peut comprendre l'émission de l'identifiant de l'image vers le site sur lequel le scénario est identifié, si ce dernier ne réalise pas l'étape 114 d'identification de l'image.
Le scénario identifié est chargé dans l'appareil utilisateur à l'étape 118. Ce chargement consiste en un chargement des données représentant le scénario, tel que par exemple le code source du scénario, en particulier sous la forme d'un fichier exécutable.
- 14 Le scénario chargé est interprété par l'appareil utilisateur en vue d'identifier chaque objet virtuel faisant partie du scénario, ainsi que les paramètres d'affichage s'appliquant à chaque objet virtuel.
Une étape 120 déclenche le chargement des objets virtuels faisant partie du scénario. Le chargement des objets virtuels peut être simultané, ou à tour de rôle.
Chaque objet virtuel, pour lequel un paramètre d'affichage est renseigné dans le scénario, est traité lors d'une étape 122 pour appliquer ledit paramètre d'affichage audit objet virtuel. Lorsqu'aucun traitement n'est à appliquer à un objet virtuel, l'étape 122 n'est pas réalisée pour cet objet virtuel. Un tel traitement peut par exemple être un ajustement de la taille d'un objet, un ajustement d'un plan de lecture dudit objet par rapport au plan d'affichage de l'image réelle, un moment de lecture dudit objet, etc.
Dans le cas l'objet virtuel est une vidéo, le traitement comprend une suppression d'une couleur dans ladite vidéo. Cette traitement est réalisé pixel par pixel pour chaque image constituant la vidéo. Chaque pixel de la couleur prédéterminée est remplacé par un pixel transparent, ou est supprimé.
Les étapes de chargement 120 et de traitement 122 sont réalisées individuellement pour chaque objet virtuel composant le scénario. Elles peuvent être réalisées pour chaque objet virtuel à tour de rôle, ou pour plusieurs objets virtuels en même temps.
Le contenu de réalité augmentée est généré lors d'une étape 124 en jouant le scénario sur l'image réelle. Cette génération consiste en une lecture de chaque objet virtuel dans une fenêtre comprenant l'image, et en particulier dans une fenêtre dont le fond est constitué par l'image réelle.
Lors d'une étape 126, le contenu de réalité augmentée est joué sur un écran d'affichage de l'appareil utilisateur. La fenêtre d'affichage du contenu de réalité augmentée peut correspondre à la totalité, ou à une partie uniquement, de l'écran d'affichage de l'appareil utilisateur.
- 15 Suivant un mode de réalisation, les étapes 120-126 sont réalisées les unes après les autres de sorte que l'étape 122 débute après la fin de l'étape 120 pour tous les objets virtuels, et ainsi de suite.
Suivant un autre mode de réalisation, proposant une plus grande réactivité, une partie ou la totalité des étapes 120-126 peut se superposer dans le temps. Par exemple, l'étape de traitement 122 peut débuter avant la fin de l'étape de chargement 122 en particulier lorsque l'objet virtuel est une vidéo. De même, l'étape 124 peut débuter avant la fin de l'étape de traitement 122, et éventuellement avant la fin de l'étape de chargement 120, et ainsi de suite pour les étapes 124 et 126. Suivant un exemple de réalisation, l'étape 126 de lecture du contenu de réalité augmentée peut débuter avant la fin de l'étape de chargement 120, en particulier pour un objet virtuel de type vidéo.
Ce mode de réalisation permet d'inclure dans un scénario une vidéo captée et diffusée en direct, c'est-à-dire en même temps que la génération du contenu de réalité augmentée. Pour ce faire, le scénario peut comprendre une adresse UR.L diffusant en direct ladite vidéo, qui est alors téléchargée en direct et en streaming vers l'appareil utilisateur.
La FIGURE 2 est une représentation schématique d'un premier exemple de réalisation non limitatif d'un système selon l'invention.
Le système 200, représenté sur la FIGURE 2, peut être utilisé pour mettre en œuvre le procédé 100 de la FIGURE 1.
Le système 200 comprend au moins un appareil utilisateur nomade 202, par exemple de type tablette ou smartphone. L'appareil utilisateur 202 est doté d'un appareil photo (non représenté) permettant de lire une image réelle 204, par exemple depuis un support physique, et d'un écran d'affichage 206 sur lequel est diffusé le contenu de réalité augmentée obtenu par superposition d'un ou plusieurs objets virtuels 208 avec l'image réelle 204.
L'appareil utilisateur 202 est en outre doté d'une application 210 permettant de réaliser, ou de gérer, l'ensemble des étapes mises en œuvre dans ledit appareil utilisateur 202.
En particulier l'application 210 comprend un module de communication 212 configuré pour communiquer avec un ou plusieurs serveurs distant en vue par exemple de :
- transmettre une image lue par l'appareil utilisateur 202 vers un serveur distant,
- optionnellement, recevoir un identifiant d'une image depuis un premier serveur et transmettre ledit identifiant vers un autre serveur,
- recevoir des données représentant un scénario associé à ladite image, et
- charger un ou des objets virtuels, depuis un ou plusieurs sites distants : ces objets sont identifiés soit grâce à une donnée d'identification, soit à une donnée d'adresse de type UR.L.
L'application 210 comprend en outre un module 214 de traitement d'au moins un objet virtuel en fonction d'au moins un paramètre d'affichage. Un tel traitement peut être un ajustement de la position de l'objet virtuel, un ajustement d'une dimension de l'objet virtuel, une suppression d'une couleur dans une vidéo, etc.
L'application 210 comprend également un module 216 de production du contenu de réalité augmentée. Ce module 216 réalise une superposition des objets virtuels sur l'image réelle, et envoie les données vers un module 218 de lecture du contenu dans une fenêtre d'affichage définie sur l'écran 206.
L'application 210 est une application logicielle. De même, chacun des modules 212-218 sont des modules logiciels utilisant les ressources électroniques et numériques présentes dans l'appareil utilisateur, tel que des mémoires, un processeur, une antenne de communication, etc.
Sur la FIGURE 2, les modules 212-218 sont représentés de manière individuelle et séparée, pour faciliter la compréhension. Bien entendu, il se peut que ces modules soient imbriqués les uns dans les autres, de sorte à former un seul et unique programme. De plus chaque module peut lui-même être formé par plusieurs modules logiciels ou matériels.
Le système 200 comprend en outre un serveur central 220, se trouvant sur un distant central distant de l'appareil utilisateur 202, et en communication avec un ledit appareil utilisateur 202 au travers d'un réseau de type Internet.
- 17 Le serveur 202 comprend un module de communication 222 pour échanger des données avec l'appareil utilisateur 202, une interface utilisateur 224 pour créer et configurer un scénario, un module 226 d'identification d'une image par analyse du contenu de ladite image, ainsi qu'une première base de données 228 pour mémoriser des données représentant un scénario en association avec un identifiant d'image, et une deuxième base de données 230 pour mémoriser un identifiant d'une image en association avec des données d'analyse du contenu de ladite image, tel qu'un nuage de points.
Préférentiellement, l'interface utilisateur 224 est accessible au travers d'un navigateur Internet pour définir et configurer un scénario.
Sur la FIGURE 2, les modules 222-226 sont représentés de manière individuelle et séparée, pour faciliter la compréhension. Bien entendu, il se peut que ces modules soient imbriqués les uns dans les autres, de sorte à former un seul et unique programme.
Dans le système 200, chaque nouvelle image est analysée au niveau du serveur 220 qui mémorise, dans la base 230 les données d'analyse de ladite image avec un identifiant qui lui est attribué. L'identifiant est ensuite utilisé pour la création, la configuration et la mémorisation d'un scénario en association avec ledit identifiant, dans la base 228.
Lorsque l'appareil utilisateur 202 lit une image, il transmet l'image lue au serveur 220. Ce dernier analyse l'image lue, et retrouve l'identifiant de l'image lue en comparant les données fournies par l'analyse à celles mémorisées dans la base de données 230. L'identifiant de l'image est utilisé pour retrouver le scénario qui lui est associé en consultant la base 228. Les données représentant le scénario associé à l'image lue sont envoyées à l'appareil utilisateur 202.
Les objets virtuels composant le scénario peuvent être chargés depuis le serveur 220, ou tout autre serveur ou site internet tiers.
La FIGURE 3 est une représentation schématique d'un deuxième exemple de réalisation non limitatif d'un système selon l'invention.
- 18 Le système 300, représenté sur la FIGURE 3, peut être utilisé pour mettre en œuvre le procédé 100 de la FIGURE 1.
Le système 300 comprend tous les éléments du système 200 de la FIGURE 2. A la différence du système 200, dans le système 300 le module d'analyse d'image 226 et la base données 230 sont localisés dans un serveur 302 se trouvant sur un site distant à la fois de l'appareil utilisateur 202 et du site sur lequel se trouve le serveur 220.
Le serveur 302 comprend un module de communication 304 avec le serveur 220 et l'appareil utilisateur 202.
Dans le système 300, chaque nouvelle image est analysée au niveau du serveur 302, qui mémorise, dans la base 230, les données d'analyse de ladite image avec un identifiant qui lui est attribué. L'identifiant est ensuite communiqué au serveur 220 pour la création, la configuration et la mémorisation, dans la base 228, d'un scénario en association avec ledit identifiant.
Lorsque l'appareil utilisateur 202 lit une image, il transmet l'image lue au serveur 302. Ce dernier analyse l'image lue, et retrouve l'identifiant de l'image lue en comparant les données fournies par l'analyse à celles mémorisées préalablement dans la base 230. L'identifiant de l'image lue est renvoyé à l'appareil utilisateur 202. Ce dernier envoie cet identifiant au serveur 220, qui identifie le scénario qui lui est associé, en consultant la base 228, et renvoie à l'appareil utilisateur 202 les données représentant le scénario.
Les objets virtuels composant le scénario peuvent chargés depuis le serveur 220, ou le serveur 302, ou tout autre serveur ou site internet tiers.
Sur chacun des FIGURES 2 et 3, seul un appareil utilisateur 202 est représenté. Bien entendu, le système selon l'invention n'est pas limité à un seul appareil utilisateur et peut comprendre une multitude d'appareils utilisateurs.
De plus, chacun des serveurs 220 et 302 peut être constitué par un unique serveur, ou par un ensemble de serveurs, ou ordinateurs, se trouvant sur un même site ou sur des sites différents.
De plus, chaque base de données 228 et 230 peut être mémorisée sur un même site ou sur des sites différents ou encore dans le nuage.
- 19 Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention.

Claims (14)

  1. REVENDICATIONS
    1. Procédé (100) de génération à la volée d'un contenu de réalité augmentée sur un appareil utilisateur nomade (202), ledit procédé (100) comprenant les étapes suivantes :
    lors d'une phase, dite préliminaire (102), réalisée pour au moins une image (204), dite réelle :
    -configuration (106) d'un scénario comprenant au moins une vidéo et au moins un paramètre d'affichage, et
    -association (108) dudit scénario à ladite image réelle (204) ;
    lors d'une phase (110), dite d'exécution :
    -lecture (112), par ledit appareil utilisateur, d'une image réelle (204),
    -identification (116) d'un scénario préalablement associé à ladite image réelle (204),
    -production (122,124), au niveau dudit appareil utilisateur (202), d'un contenu de réalité augmentée par exécution dudit scénario sur ladite image réelle (204), et
    - lecture (126) dudit contenu par ledit appareil utilisateur nomade (202) ;
    l'étape de production(122,124) comprenant une suppression (122), dans toute la vidéo, des pixels d'une couleur prédéterminée renseignée comme paramètre d'affichage, dans ledit scénario.
  2. 2. Procédé (100) selon la revendication précédente, caractérisé en ce que l'étape de production (122,124) est réalisée au fur et à mesure de l'étape (126) de lecture du contenu, et en particulier simultanément.
  3. 3. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend un chargement (120) de la vidéo dans l'appareil utilisateur (202) au fur et à mesure de l'étape de production (122,124), et encore plus particulièrement simultanément.
  4. 4. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que la suppression d'une couleur dans la vidéo comprend un remplacement de chaque pixel de ladite couleur par un pixel transparent.
  5. 5. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce l'étape de configuration (106) comprend, pour au moins une vidéo faisant partie d'un scénario, une étape manuelle de choix de la couleur à supprimer.
  6. 6. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'un scénario comprend en outre au moins un autre objet visuel que la vidéo.
  7. 7. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'un scénario comprend au moins un paramètre d'affichage relatif à l'orientation d'un plan d'affichage d'au moins un objet (208) du scénario par rapport au plan d'affichage de l'image lue (204), renseigné à l'appareil utilisateur (202) lors de la phase d'exécution (110), et utilisé lors de l'étape de production (122,124) pour ajuster l'orientation dudit au moins objet (208).
  8. 8. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend une sélection de plusieurs paramètres d'affichage par sélection d'un bouton auquel lesdits paramètres sont préalablement associés.
  9. 9. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que, pour au moins un scénario, une vidéo est ajoutée audit scénario par mémorisation d'un identifiant de ladite vidéo.
  10. 10. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que, pour au moins un scénario, une vidéo est ajoutée audit scénario par mémorisation d'une adresse URL ou FTP de ladite vidéo.
  11. 11. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce la phase préliminaire (102) comprend, une attribution (104) d'un identifiant à une image réelle (204) par analyse du contenu de ladite image réelle (204).
  12. 12. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que, l'étape (116) d'identification du scénario associé à l'image lue (204) par l'appareil utilisateur (202) comprend les opérations suivantes :
    -transmission de l'image lue par l'appareil utilisateur (202) vers un premier site distant,
    - identification (104) de ladite image lue (204) au niveau dudit premier site distant par analyse du contenu de ladite image (204),
    -transmission dudit premier site distant vers ledit appareil utilisateur (202) d'un identifiant de ladite image lue,
    -transmission dudit identifiant par l'appareil utilisateur (202) vers un deuxième site distant ; et
    - identification du scénario associé à ladite image lue (204) au niveau dudit deuxième site distant.
  13. 13.Système (200;300) de génération à la volée d'un contenu de réalité augmentée sur un appareil utilisateur nomade (202), configuré pour mettre en œuvre toutes les étapes du procédé (100) selon l'une quelconque des revendications précédentes, ledit système (200;300) comprenant :
    - un serveur (220), au niveau d'un site distant dudit appareil utilisateur (202), pour configurer et associer, à au moins une image réelle (204), un scénario comprenant au moins une vidéo et au moins un paramètre d'affichage ; et
    - un appareil utilisateur nomade (202) configuré pour la réalisation des étapes suivantes :
    - lecture (112) d'une image réelle,
    - réception (118) d'un scénario préalablement associé à ladite image lue (204),
    - 23 -production (122,124) d'un contenu de réalité augmentée par exécution dudit scénario sur ladite image lue, et
    - lecture (126) dudit contenu de réalité augmentée ;
    l'étape de production (122,124) comprenant une suppression (122), dans 5 toute la vidéo, des pixels d'une couleur prédéterminée renseignée comme paramètre d'affichage, dans ledit scénario.
  14. 14. Système (200;300) selon la revendication précédente, caractérisé en ce que le serveur (220) comprend une interface graphique (224) pour configurer 10 et associer un scénario à une image (204).
FR1853781A 2018-05-02 2018-05-02 Procede et systeme de generation a la volee d'un contenu de realite augmentee sur un appareil utilisateur. Active FR3080935B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1853781A FR3080935B1 (fr) 2018-05-02 2018-05-02 Procede et systeme de generation a la volee d'un contenu de realite augmentee sur un appareil utilisateur.
US16/392,294 US10891794B2 (en) 2018-05-02 2019-04-23 Method and system for generating augmented reality content on the fly on a user device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1853781 2018-05-02
FR1853781A FR3080935B1 (fr) 2018-05-02 2018-05-02 Procede et systeme de generation a la volee d'un contenu de realite augmentee sur un appareil utilisateur.

Publications (2)

Publication Number Publication Date
FR3080935A1 true FR3080935A1 (fr) 2019-11-08
FR3080935B1 FR3080935B1 (fr) 2020-05-22

Family

ID=63637962

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1853781A Active FR3080935B1 (fr) 2018-05-02 2018-05-02 Procede et systeme de generation a la volee d'un contenu de realite augmentee sur un appareil utilisateur.

Country Status (2)

Country Link
US (1) US10891794B2 (fr)
FR (1) FR3080935B1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060165377A1 (en) * 2005-01-26 2006-07-27 Von Wendt Thomas Method for reproducing video clips
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100091036A1 (en) * 2008-10-10 2010-04-15 Honeywell International Inc. Method and System for Integrating Virtual Entities Within Live Video
US20100182340A1 (en) * 2009-01-19 2010-07-22 Bachelder Edward N Systems and methods for combining virtual and real-time physical environments
US9165605B1 (en) * 2009-09-11 2015-10-20 Lindsay Friedman System and method for personal floating video
US9524585B2 (en) * 2012-11-05 2016-12-20 Microsoft Technology Licensing, Llc Constructing augmented reality environment with pre-computed lighting
CN110946651A (zh) * 2013-08-13 2020-04-03 波士顿科学国际有限公司 解剖项的计算机可视化
US9524588B2 (en) * 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
US9690370B2 (en) * 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
WO2016077798A1 (fr) * 2014-11-16 2016-05-19 Eonite Perception Inc. Systèmes et procédés pour préparation, traitement et application de réalité augmentée
US10055892B2 (en) * 2014-11-16 2018-08-21 Eonite Perception Inc. Active region determination for head mounted displays
US9728010B2 (en) * 2014-12-30 2017-08-08 Microsoft Technology Licensing, Llc Virtual representations of real-world objects
US9685005B2 (en) * 2015-01-02 2017-06-20 Eon Reality, Inc. Virtual lasers for interacting with augmented reality environments
EP3335418A1 (fr) * 2015-08-14 2018-06-20 PCMS Holdings, Inc. Système et procédé pour téléprésence multi-vue à réalité augmentée
US10523522B2 (en) * 2015-08-31 2019-12-31 The Boeing Company Environmental visualization system including computing architecture visualization to display a multidimensional layout
US20170132267A1 (en) * 2015-11-11 2017-05-11 Le Holdings (Beijing) Co., Ltd. Pushing system and method based on natural information recognition, and a client end
US10536691B2 (en) * 2016-10-04 2020-01-14 Facebook, Inc. Controls and interfaces for user interactions in virtual spaces
US10110871B2 (en) * 2016-10-31 2018-10-23 Disney Enterprises, Inc. Recording high fidelity digital immersive experiences through off-device computation
US20180124497A1 (en) * 2016-10-31 2018-05-03 Bragi GmbH Augmented Reality Sharing for Wearable Devices
US10466777B2 (en) * 2016-12-07 2019-11-05 LogMeln, Inc. Private real-time communication between meeting attendees during a meeting using one or more augmented reality headsets
US10497180B1 (en) * 2018-07-03 2019-12-03 Ooo “Ai-Eksp” System and method for display of augmented reality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060165377A1 (en) * 2005-01-26 2006-07-27 Von Wendt Thomas Method for reproducing video clips
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality

Also Published As

Publication number Publication date
US20190340823A1 (en) 2019-11-07
FR3080935B1 (fr) 2020-05-22
US10891794B2 (en) 2021-01-12

Similar Documents

Publication Publication Date Title
EP1444651A2 (fr) Procede et systeme pour produire la frequence de mises a jour de moyens
FR2954536A1 (fr) Procede pour integrer dans un navigateur web le rendu graphique produit par une application graphique
WO2013140077A1 (fr) Procede et systeme d'execution d'une application pour la consultation de contenus et services accessibles par navigation sur un reseau de telecommunication.
EP2511842B1 (fr) Consultation de maquettes numériques à partir de postes légers
FR2892883A1 (fr) Procede d'optimisation de rendu d'une scene multimedia, programme, signal, support de donnees, terminal et procede de reception correspondants.
EP3202116B1 (fr) Procédé et dispositif d'aide à la décision
FR3080935A1 (fr) Procede et systeme de generation a la volee d'un contenu de realite augmentee sur un appareil utilisateur.
FR3055079A1 (fr) Systeme de composition ou de modification de sequences de realite virtuelle, procede de composition et systeme de lecture desdites sequences
CA3160129A1 (fr) Procede et systeme de generation de modeles numeriques 3d
EP3596688A1 (fr) Procédé d'enrichissement d'un contenu numérique par données spontanées
US20240144337A1 (en) Generation of product videos using machine learning
WO2010103247A1 (fr) Procedes et dispositifs pour la mise a jour d'une application client/serveur sans redemarrage de l'application cote client.
FR2810187A1 (fr) Procede et systeme pour particulariser un contenu de television numerique
WO2024121075A1 (fr) Procédé de génération d'une application de traitement d'au moins un flux multimédia, dispositif et programme d'ordinateur associés
US8965143B2 (en) System for enhancing content
FR3103041A1 (fr) Procédé et dispositif de traitement d’image
FR3133261A1 (fr) Essai de style avec Des GAN inversÉs
FR3029657A1 (fr) Procede de fourniture d'un service informatique et systeme informatique pour la mise en œuvre du procede.
FR3138841A1 (fr) Procédé et dispositif de construction d’une base de connaissance dans le but d’utiliser de manière transverse des fonctions applicatives d’une pluralité de logiciels.
FR2921745A1 (fr) Procede, serveur et programme pour la visualisation a taille reelle d'un objet sur un dispositif d'affichage
FR2863075A1 (fr) Dispositif et procede de controle d'acces a des informations d'une base de donnees, methodes et produits associes
FR3062540A1 (fr) Activation automatique de la configuration d'un terminal de communication
WO2005055084A1 (fr) Dispositif et procédé de contrôle d'accès à des informations d'une base de données, méthodes et produits associés
FR2973532A1 (fr) Procede et dispositif de visualisation d'une serie de contenus multimedia
WO2015044590A1 (fr) Procédé d'authentification d'un utilisateur muni d'un premier dispositif auprès d'un deuxième dispositif

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20191108

CD Change of name or company name

Owner name: ARGO, FR

Effective date: 20200408

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7