FR3084498A1 - Systemes et procedes pour une interaction amelioree dans une application de realite augmentee - Google Patents

Systemes et procedes pour une interaction amelioree dans une application de realite augmentee Download PDF

Info

Publication number
FR3084498A1
FR3084498A1 FR1856891A FR1856891A FR3084498A1 FR 3084498 A1 FR3084498 A1 FR 3084498A1 FR 1856891 A FR1856891 A FR 1856891A FR 1856891 A FR1856891 A FR 1856891A FR 3084498 A1 FR3084498 A1 FR 3084498A1
Authority
FR
France
Prior art keywords
user
information
augmented reality
data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1856891A
Other languages
English (en)
Other versions
FR3084498B1 (fr
Inventor
Lucille Cambon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amadeus SAS
Original Assignee
Amadeus SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amadeus SAS filed Critical Amadeus SAS
Priority to FR1856891A priority Critical patent/FR3084498B1/fr
Publication of FR3084498A1 publication Critical patent/FR3084498A1/fr
Application granted granted Critical
Publication of FR3084498B1 publication Critical patent/FR3084498B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Des systèmes et des procédés sont fournis pour l'obtention d'informations de localisation associées à la localisation d'un utilisateur ; l'obtention d'informations de l'utilisateur relatives à au moins une ou plusieurs préférences de l'utilisateur ; l'implication d'un utilisateur dans une ou plusieurs interactions basées sur une notification d'un tiers et sur au moins une des informations associées à la localisation de l'utilisateur et l'information relative à une ou plusieurs préférences de l'utilisateur ; la saisie de ladite une ou plusieurs interactions de l'utilisateur afin d'obtenir plus d'informations concernant l'utilisateur ; la comparaison de ladite une plusieurs interactions avec une séquence prédéterminée d'interactions ; l'affichage d'une représentation d'un cadeau à l'utilisateur si l'étape de comparaison détermine que ladite ou plusieurs interactions correspondent à la séquence prédéterminée d'interactions ; et la remise du cadeau représenté à l'utilisateur.

Description

SYSTÈMES ET PROCÉDÉS POUR UNE INTERACTION AMÉLIORÉE DANS UNE APPLICATION DE RÉALITÉ AUGMENTÉE
DOMAINE [0001], L’invention présente concerne un système, un dispositif, un procédé et des instructions permettant au procédé dans le système d’améliorer les interactions d’un utilisateur dans une application de réalité augmentée, particulièrement, mais pas exclusivement, un système et des procédés relatifs à une implication d’un utilisateur dans une offre ou une promotion.
CONTEXTE [0002], La réalité augmentée est une technologie qui superpose une image générée par ordinateur sur une vue du monde réel, fournissant ainsi une vue composite. L’élément généré par ordinateur et l’élément du monde réel peuvent tous deux être accédés par un utilisateur pour effectuer des tâches telles que par exemple, la navigation, l’interaction et d’autres tâches de ce genre.
[0003]. La disponibilité croissante des données et des sources de données dans le monde moderne a entraîné une augmentation et une innovation des moyens par lesquels les gens consomment des données. Les individus s’appuient de plus en plus sur des ressources en ligne et sur la disponibilité de données pour renseigner leurs interactions et leur comportement journaliers. L omnipresence de dispositifs portables connectés a permis l’accès à ce type d’information pratiquement partout.
[0004], Les systèmes actuels de réalité augmentée, bien qu’ils soient utiles, peuvent se limiter au simple apport d’un affichage supplémentaire d’informations déjà disponibles pour un utilisateur ou une réplique du spectre visuel avec des données superposées. Il existe un besoin pour de véritables systèmes augmentés qui utilisent des informations d’utilisateur et/ou de localisation ainsi que des détails concernant la perception visuelle d’un utilisateur afin de fournir une experience de réalité augmentée pleinement intégrée et qui permettent aux utilisateurs d interagir de façons différentes et intéressantes.
RÉSUMÉ [0005].Selon un aspect de la présente invention, un procédé mis en œuvre par un plusieurs processeurs dans un système informatique de réalité augmentée est fourni, le procédé comprenant : l’obtention d’informations de localisation associées à la localisation d’un utilisateur; l’obtention d’informations propres à un utilisateur, relatives à au moins une ou plusieurs préférences de l’utilisateur ; l’implication d’un utilisateur dans une ou plusieurs interactions sur la base d’une notification d’un tiers et au moins d’une des informations associées a la localisation de l’utilisateur et des informations relatives à une ou plusieurs préférences de l’utilisateur afin d’obtenir davantage d’informations concernant l’utilisateur ; la comparaison d’une ou de plusieurs interactions avec une séquence prédéterminée d’interactions ; l’affichage d’une représentation d’un cadeau à l’utilisateur si l’étape de comparaison détermine qu’une ou plusieurs interactions correspondent à la séquence prédéterminée d’interactions ; et la remise du cadeau représenté à l’utilisateur.
[000«].De préférence, le procédé comprend par ailleurs d’établir si la localisation de l’utilisateur a une relation prédéterminée avec un lieu prédéterminé et si la relation prédéterminée est établie, d’afficher la représentation du cadeau.
[0007].De préférence le procédé comprend par ailleurs l’affichage d’une notification à l’utilisateur avec des informations concernant une ou plusieurs interactions que l’utilisateur doit réaliser, la notification étant basée sur au moins une des informations de l’utilisateur, les informations supplémentaires et les informations de localisation.
[0008J.De préférence, le procédé comprend par ailleurs d’amener le système informatique de réalité augmentée à communiquer avec un dispositif mobile d’utilisateur permettant ainsi à l’utilisateur d’interagir avec le système.
[0009].De preference, le cadeau pour l’utilisateur comprend le stockage du cadeau dans un
De préférence, la forme du bon est un code lisible par ordinateur.
De préférence, le cadeau est obtenu en présentant le bon au tiers.
De preference, les interactions prédéterminées comprennent de mener l’utilisateur portefeuille virtuel sur le dispositif mobile.
[00010], De préférence, le cadeau est sous la forme d’un bon à faire valoir auprès d’un tiers prédéterminé.
[00011], [00012], [00013], sur une voie prédéterminée pour trouver le cadeau.
[00014], De preference, la voie amène l’utilisateur à passer devant des marchandises ou des services associés au cadeau.
[00015], De préférence, le procédé comprend par ailleurs : l’apport d’informations relatives a des dispositifs et l’apport d’informations relatives à des capteurs à un serveur dans lequel les informations de dispositifs et les informations de capteurs sont associées à un dispositif de réalité augmentée et sont combinées à un ou plusieurs ensembles de données parmi une pluralité de sources de données associées au dispositif de réalité augmentée ; la réception d’informations relatives à l’affichage, dans laquelle les informations d’affichage sont déterminées sur la base d’une analyse des informations de dispositifs, des informations de capteurs et d’un ou de plusieurs ensembles de données pour déterminer la pertinence des informations d’affichage par rapport à un champ visuel visible via un port de visualisation du dispositif de réalité augmentée ; et en réponse aux informations d’affichage, l’affichage, par l’intermédiaire d’un adaptateur d’affichage, d’une superposition graphique représentante des données d’affichage sur le port de visualisation. [00016], Selon un autre aspect, un système est fourni pour apporter une réalité augmentée comprenant : une mémoire pour stocker les informations relatives à au moins une localisation et une preference d’un utilisateur ; un ou plusieurs processeurs configurés pour : obtenir des informations de localisation associées à une localisation d’un utilisateur ; obtenir des informations de l’utilisateur relatives à au moins une ou plusieurs préférences de l’utilisateur ; impliquer un utilisateur dans une ou plusieurs interactions basées sur une notification d’un tiers et au moins une des informations associées à la localisation de l’utilisateur ainsi que les informations relatives à une ou plusieurs des préférences de l’utilisateur ; saisir ladite une ou plusieurs interactions d’utilisateur afin d’obtenir davantage d’informations concernant l’utilisateur ; comparer ladite une ou plusieurs interactions avec une séquence prédéterminée d’interactions ; afficher une représentation de cadeau à l’utilisateur si l’étape de comparaison détermine que ladite une ou plusieurs interactions correspondent à la séquence prédéterminée d’interactions ; et remettre le cadeau représenté à l’utilisateur ; obtenir une information associée à la localisation d’un utilisateur ; provoquer une interaction d’un utilisateur basée sur une notification d’un tiers et au moins une des informations associée à la localisation de l’utilisateur et l’information relative à une ou plusieurs préférences de l’utilisateur ; s’impliquer avec l’utilisateur dans une ou plusieurs interactions formant au moins une partie d’un jeu ; saisir les interactions de l’utilisateur pour en apprendre davantage sur l’utilisateur ; comparer ladite une ou plusieurs interactions avec une séquence prédéterminée de réponses pour déterminer si l’utilisateur a réussi le jeu ; afficher un cadeau à l’utilisateur si l’étape de comparaison détermine que l’utilisateur a réussi le jeu ; et remettre le cadeau à l’utilisateur pour une rédemption future.
[00017]. De préférence, le procédé comprend par ailleurs : un afficheur ayant un champ visuel ; une unité de mouvement par inertie configurée pour détecter des mouvements ou des orientations du dispositif de réalité augmentée ; un stockage de données configuré pour stocker des informations, relatives au dispositif, associées au dispositif de réalité augmentée et des informations relatives aux capteurs associés à des composants du dispositif de réalité augmentée ; une interface de réseau configurée pour : transmettre un premier ensemble de données à un serveur dans lequel le premier ensemble de données inclut des informations de dispositifs et des informations de capteurs et dans lequel le serveur combine les informations de dispositifs et les informations de capteurs avec un ou plusieurs ensembles de données parmi une pluralité de sources de données associées au dispositif de réalité augmentée ; et acquérir un deuxième ensemble de données d’un serveur dans lequel le deuxième ensemble de données inclut des données d’affichage, dans lequel les données d’affichage sont déterminées sur la base d’une analyse des informations de dispositifs, des informations de capteurs, et d’un ou de plusieurs ensembles de données afin de déterminer la pertinence des informations d’affichage par rapport à un champ visuel du dispositif de réalité augmentée ; et un adaptateur d’affichage configuré pour fournir un affichage superposé qui inclut les données d’affichage du deuxième ensemble d’informations de données sur un port de visualisation.
[00018]. Selon un autre aspect un support de stockage lisible par ordinateur, non transitoire est fourni qui stocke des instructions exécutables par un système informatique de réalité augmentée incluant un ou plusieurs processeurs pour amener le système informatique de réalité augmentée a mettre en œuvre un procédé pour apporter des données d’interactions d’utilisateur dans le cadre d’un jeu, le procédé comprenant : l’obtention d’informations de localisation associées a la localisation d’un utilisateur ; l’obtention d’informations de l’utilisateur relatives à au moins une ou plusieurs préférences de l’utilisateur ; l’implication d’un utilisateur dans une ou plusieurs interactions sur la base d’une notification d’un tiers et au moins une des informations associées à la localisation de l’utilisateur ainsi que les informations relatives à une ou plusieurs preferences de l’utilisateur ; la saisie de ladite une ou plusieurs interactions de l’utilisateur pour obtenir plus d’informations concernant l’utilisateur ; la comparaison de ladite une plusieurs interactions avec une séquence prédéterminée d’interactions ; l’affichage d’une représentation d un cadeau à l’utilisateur si l’étape de comparaison détermine que ladite une ou plusieurs interactions correspondent à la séquence prédéterminée d’interactions ; et la remise du cadeau représenté à l’utilisateur.
BRÈVE DESCRIPTION DES DESSINS
100019]. Des modes de réalisation exemplaires seront maintenant discutés de façon détaillée en faisant référence aux dessins qui les accompagnent. Dans les dessins :
[00020], Figure 1 est un diagramme bloc d’un système exemplaire pour un système intégré de réalité augmentée, conforme à des modes de réalisation de la présente invention.
[00021], Figure 2 est un diagramme bloc d’un dispositif informatique exemplaire, conforme a des modes de realisation de la présente invention.
[00022], Figure 3A - 3B sont des diagrammes de dispositifs exemplaires de réalité augmentée, conformes à des modes de réalisation de la présente invention.
[00023]. Figure 4 est un diagramme d’un dispositif mobile exemplaire pour servir d’interface avec le dispositif de réalité augmentée de la Figure 3A, conformément à des modes de réalisation de la présente invention.
[00024], Figure 5 est une vue augmentée d’une scène associée à une notification, conforme a des modes de réalisation de la présente invention.
[00025], Figure 6 est une autre vue augmentée d’une scène associée à une notification, conforme à des modes de réalisation de la présente invention [00026]. Figure 7 est une capture d’écran d’un dispositif mobile associé à l’interaction de l’utilisateur avec l’application de réalité augmentée, conformément à modes de réalisation de la présente invention.
[00027]. Figure 8 est une autre vue augmentée d’une scène associée à un troisième cas de capture d’écran d’un utilisateur, conforme à des modes de réalisation de la présente invention. [00028], Figure 9 est une autre vue augmentée d’une scène associée à une maquette de portefeuille électronique, conformément à des modes de réalisation de la présente invention.
[00029]. Figure 10 est une capture d’écran d’une séquence d’interactions relative au paiement en ligne en utilisant un portefeuille électronique, conformément à des modes de réalisation de la présente invention.
[00030]. Figure 11 est une autre vue augmentée d’une scène associée à un système de paiement en ligne, conforme à des modes de réalisation de la présente invention.
[00031 ]. Figure 12 est un organigramme d’une séquence d’interactions, conforme à des modes de réalisation de la présente invention.
[00032], Figure 13 est un organigramme d’une séquence d’interactions pour le premier cas d utilisateur conforme à des modes de réalisation de la présente invention.
[00033], Figure 14 est un organigramme d’une séquence d’interactions pour le deuxième cas d’utilisateur, conforme à des modes de réalisation de la présente invention.
[00034], Figure 15 est un organigramme d’une séquence d’interactions pour le troisième cas d utilisateur, conforme à des modes de réalisation de la présente invention.
[00035], Figure 16 est un diagramme bloc d’interactions d’éléments de systèmes, conformément à des modes de réalisation de la présente invention
DESCRIPTION DÉTAILLÉE [00036]. Faisant maintenant référence de façon détaillée aux modes de réalisation exemplaires dont les exemples sont illustrés par les dessins accompagnants qui sont implémentés conformément à la présente invention. Partout où ce sera possible, les mêmes numéros de référence seront utilisés dans l’ensemble des dessins pour faire référence à des éléments identiques ou semblables.
[00037], Les modes de réalisation décrits dans les présentes, concernent une interaction améliorée et une intégration dans un système de réalité augmentée. Les systèmes de réalité augmentée fournissent un potentiel immense pour valoriser la compréhension visuelle du monde dans son ensemble. En complémentant la perspective visuelle, les individus font des expériences avec leurs yeux, les systèmes de réalité augmentée fournissent une compréhension plus détaillée du monde qui nous entoure.
[00038]. Les systèmes actuels de réalité augmentée peuvent superposer des images générées par ordinateur et des données sur un champ de vue visuel en apportant une expérience visuelle d’ordinaire indisponible avec les seuls yeux. Cette vue peut comporter un nombre de couches differentes qui peuvent être mises à la disposition de l’utilisateur pour une interaction. Les implémentations actuelles de systèmes de réalité augmentée changent tout le temps et plus d options deviennent disponibles quant à la façon de les utiliser. Les systèmes actuellement disponibles ne sont pas tous efficaces et il y a toujours un besoin de systèmes améliorés de réalité augmentée concernant particulièrement la façon dont l’utilisateur peut interagir avec ceux-ci.
[00039]. La présente invention est une nouvelle application d’un système de réalité augmentée, d’un dispositif, d’un procédé et des instructions donnant la capacité au procédé dans le système d améliorer les expériences de l’utilisateur à travers une interaction. Les modes de réalisation décrits dans les présentes abordent ces problèmes sous une perspective différente des approches connues. Plutôt que de se concentrer sur la fourniture d’un ensemble limité d’informations basé sur une application particulière, les systèmes divulgués intègrent des données à partir du dispositif de réalité augmentée lui-même avec une pléthore de sources de données associées à l’individu. Les systèmes divulgués peuvent par ailleurs analyser et traiter les données disponibles en utilisant les informations relatives à l’utilisateur et/les informations de localisation de I utilisateur. Le résultat de cette intégration de données peut être fourni à l’utilisateur du dispositif de réalité augmentée pour apporter une superposition complète d’informations concernant des aspects du champ de vision de l’utilisateur en apparence sans rapport. En outre, la présente invention propose un mode d’interaction unique avec le système de réalité augmentée offrant à l’utilisateur une expérience très améliorée.
[00040]. Les modes de réalisation divulgués peuvent personnaliser l’information sur la base des informations de l’utilisateur et/ou de localisation concernant l’utilisateur. La superposition fournie peut se connecter à d’autres sources de données gérées par l’individu ou d’autres tiers afin de fournir une heure, une localisation et des données de contexte spécifiques relatives aux éléments que l’individu est en train de visionner.
[00041], Des systèmes et des procédés sont fournis pour améliorer l’intégration de données dans des dispositifs de réalité augmentée. Les systèmes et les procédés incluent : l’obtention d’informations associées à une localisation de l’utilisateur ; l’obtention d’informations de l’utilisateur relatives à au moins une ou plusieurs préférences de l’utilisateur ; le déclenchement d’une interaction de l’utilisateur sur la base d’une notification d’un tiers ; l’implication de l’utilisateur dans une ou plusieurs interactions formant au moins une partie d’un jeu ; la saisie des interactions de l’utilisateur pour obtenir plus d’informations concernant l’utilisateur ; la comparaison de ladite une plusieurs interactions avec une séquence prédéterminée de réponses afin de déterminer si l’utilisateur a réussi le jeu ; une réponse aux interactions de l’utilisateur en présentant un cadeau à l’utilisateur si l’étape de comparaison a déterminé que l’utilisateur a réussi le jeu ; et la remise du cadeau à l’utilisateur pour une rédemption future.
[00042]. De plus, les modes de réalisation divulgués peuvent moderniser et améliorer la façon dont les utilisateurs ou les consommateurs sont ciblés pour interagir avec des fournisseurs de services et/ou de produits. Par exemple, les informations concernant un utilisateur peuvent être accédées sur la base d’une géolocalisation ou autre mode similaire et des fournisseurs locaux peuvent cibler l’utilisateur en offrant des produits et des services de manière augmentée et interactive. La localisation de l’utilisateur, l’heure de la journée ou plusieurs autres conditions (comme décrit ci-dessous) peuvent provoquer des notifications interactives variées envers l’utilisateur, lesquelles lorsqu’elles sont actionnées par l’utilisateur peuvent produire des avantages pour l’utilisateur. De cette façon, non seulement les systèmes et procédés divulgués sont utiles pour l’utilisateur, mais ils peuvent aussi améliorer les interactions de l’utilisateur avec les fournisseurs à proximité.
[00043]. Les modes de réalisation divulgués peuvent fournir des expériences interactives à
I individu. La majorité des systèmes actuels de réalité augmentée disséminent simplement les informations. Les systèmes qui apportent un certain degré d’interaction le font sur la base de l’interaction de l’utilisateur avec une application particulière, ce qui limite l’efficacité. Parce que le système et les procédés divulgués fournissent des données intégrées adaptées spécifiquement à 1 individu, l’interaction de l’individu peut avoir un rapport avec un nombre quelconque d’activités ou de services associés à l’individu.
[00044], Les modes de réalisation décrits dans les présentes fournissent des technologies et des techniques pour l’utilisation de vastes volumes de données disponibles (à partir d’une variété de sources de données) pour apporter une expérience de réalité augmentée interactive et intégrée. Les modes de réalisation décrits dans les présentes incluent des systèmes, des dispositifs, des procédés et des instructions permettant aux procédés des systèmes d’obtenir des informations relatives à l’utilisateur et/ou la localisation d’un individu et des informations de dispositif concernant un dispositif de réalité augmentée associé à l’individu du dispositif de réalité augmentée. Les modes de réalisation incluent par ailleurs l’obtention d’une pluralité d’ensembles de données associés à l’individu ou au dispositif de réalité augmentée à partir d’une pluralité de sources de données et la détermination d’un sous-ensemble d’informations ayant de la pertinence pour l’individu dans lequel la pertinence des informations est basée sur les informations d utilisateur et/ou de localisation et les informations de dispositif obtenues du dispositif de réalité augmentée. En outre, les modes de réalisation décrits incluent des systèmes et des procédés pour générer des données d’affichage basées sur le sous-ensemble d’informations déterminé ; et pour fournir la donnée d’affichage au dispositif de réalité augmentée pour un affichage sur le dispositif de réalité augmentée dans lequel la donnée d’affichage est superposée par-dessus le champ visuel de l’individu.
[00045]. Dans certains modes de réalisation, les technologies décrites incluent par ailleurs des systèmes et des procédés (ci-après incluant des instructions pour mettre en œuvre les procédés dans les systèmes) dans lesquels les informations d’utilisateur et/ou de localisation obtenues du dispositif de réalité augmentée incluent des données visuelles représentantes du champ visuel de I individu et dans lesquels la pertinence du sous-ensemble d’informations est par ailleurs basée sur une analyse des données visuelles. Un autre encore des modes de réalisation divulgués inclut des systèmes et des procédés dans lesquels les informations d’utilisateur et/ou de localisation obtenues du dispositif de réalité augmentée incluent au moins une information de localisation, une information d’orientation et une information de mouvement. Dans d’autres modes de réalisation divulgués, des systèmes et des procédés sont fournis dans lesquels les informations, obtenues de la pluralité des ensembles de données, pouvant provenir de sources de données propriétaires plutôt que du dispositif de l’utilisateur et peuvent inclure des informations associées à l’individu et peuvent inclure des informations relatives au jeu et à l’interaction entre l’utilisateur (généralement via le dispositif de l’utilisateur), le système et un quelconque fournisseur. De plus les sources propriétaires peuvent être des fournisseurs de services ou de produits qui ont précédemment eu une interaction avec un utilisateur et connaissent donc certaines de ses préférences.
[00046], La Figure I est un diagramme bloc d’un système exemplaire 100 pour un système intégré de réalité augmentée, conforme à des modes de réalisation de la présente invention. Le système 100 peut inclure des sources de données propriétaires, incluant une base de données 111, une source de données 113, une base de données 115, une base de données 117, un système de données 116 et un moteur d’analyse prédictive 118. Le système 100 peut par ailleurs inclure des sources de données externes 120 qui peuvent inclure des données de carte 121, des données de notations 123, des données météorologiques 127, des données de vol 129 et des données de localisation 125. D’autres sources de données externes (non représentées) peuvent aussi être fournies, telles que des données de géolocalisation, des données de profil d’utilisateur à partir d une pluralité de sources différentes, des données de préférence d’un utilisateur, des données de fournisseurs locaux, des données de fournisseurs d’intérêt pour l’utilisateur, etc. Le système 100 peut par ailleurs inclure une interface de programmation d’application (API) 130. L’API 130 peut être implémentée sur un serveur ou un système informatique en utilisant par exemple, un dispositif informatique 200, décrit plus en détail ci-dessous en référence à la Figure2. Par exemple, des données de sources de données propriétaires 110 et de sources de données externes 120 peuvent être obtenues par l’intermédiaire de dispositifs entrée/sortie (I/O) 230 et/ou d’une interface de réseau 218 du dispositif informatique 200. Par ailleurs, les données peuvent être stockées au cours d’un traitement dans un stockage approprié tel que le stockage 228 et/ou la mémoire de système 221. Faisant de nouveau référence à la Figure 1, le système 100 peut par ailleurs inclure un système de réalité augmentée 140.
[00047]. D’une manière similaire à ΓΑΡΙ 130, le système de réalité augmentée 140 peut être implemente sur un serveur ou sur un système informatique en utilisant par exemple, le dispositif informatique 200. La Figure 2 est un diagramme bloc d’un système informatique exemplaire 200 conforme à des modes de réalisation de la présente invention. Dans certains modes de réalisation, le dispositif informatique 200 peut être un serveur spécialisé fournissant la fonctionnalité décrite dans les présentes. Dans certains modes de réalisation, les composants du système 100, tels que les sources de données propriétaires 110 (p. ex., la base de données 111, la source de données 113, la base de données 115, le système de données 116, la base de données 117 et le moteur d’analyse prédictive 118), 1ΆΡΙ 130, le système de réalité augmentée 140 et un dispositif de réalité virtuelle augmentée 145 peuvent être implémentés en utilisant le dispositif informatique 200 ou de multiples dispositifs informatiques 200 fonctionnant parallèlement. Par ailleurs, le dispositif informatique 200 peut être un deuxième dispositif fournissant la fonctionnalité décrite dans les présentes ou recevant les informations du serveur pour fournir au moins une partie de la fonctionnalité décrite. En outre, le dispositif informatique 200 peut être un dispositif supplémentaire ou des dispositifs qui stockent et/ou fournissent des données conformément avec les modes de réalisation de la présente invention.
[00048], Le dispositif informatique 200 peut inclure une ou plusieurs unités de traitement centrales (CPUs) 220 et une mémoire de système 221. Le dispositif informatique 200 peut aussi inclure une ou plusieurs unités de traitement graphique (GPUs) 225 et une mémoire graphique 226. Dans certains modes de réalisation, le dispositif informatique 200 peut être un dispositif informatique sans tête qui n’inclut pas de GPU (s) 225 et/ou de mémoire graphique 226. [00049]. Les CPUs 220 peuvent être des microprocesseurs seuls ou multiples, des réseaux prédiffiisés programmables, ou des processeurs de signaux numériques capables d’exécuter des ensembles d’instructions stockés en mémoire (p. ex., une mémoire de système 221), une mémoire cache (p. ex., une mémoire cache 241) ou un registre (p. ex. un des registres 240). Les CPUs 220 peuvent contenir un ou plusieurs registres (p. ex. un registre 240 pour stocker des types de données variables incluant, entre autres, des données, des instructions, des valeurs de point flottantes, des valeurs conditionnelles, des adresses de mémoire pour des localisations dans une mémoire (p. ex. la mémoire de système 221 ou une mémoire graphique 226), des pointeurs et des compteurs. Les registres CPU 240 peuvent inclure des registres spéciaux qui sont utilisés pour stocker des données associées à des instructions en cours d’exécution, tels qu’un pointeur d’instruction, un compteur d’instruction et/ou un pointeur de paquet de mémoire. La mémoire de système 221 peut inclure un support lisible par ordinateur tangible et/non transitoire, tel qu’un disque souple, un disque dur, un disque compact à lecture seule (CD-ROM), un disque optomagnétique (MO), une mémoire d’accès aléatoire d’un disque numérique polyvalent (DVDRAM), un disque à état solide (SSD), un disque flash et/ou une mémoire flash, un processeur, une mémoire cache, un registre de mémoire ou une mémoire semi-conductrice. La mémoire de système 221 peut comprendre une ou plusieurs puces de mémoire capable de stocker des données et donnant un accès direct aux CPUs 220. La mémoire de système 221 peut être un type quelconque de mémoire à accès aléatoire (RAM) ou une autre puce de mémoire disponible capable de fonctionner de la manière décrite dans les présentes.
C00050J. Les CPUs 220 peuvent communiquer avec la mémoire de système 221 via une interface de système 250, parfois désignées comme étant un bus. Dans certains modes de réalisation qui indueut les GPUs 225, ceiies-ci peuvent être tout type de circuiterie spéciale qui peut manipuler ou altérer une mémoire (p. ex. la mémoire graphique 226) afin de fournir et/ou d’accelerer la création d’images. Les GPUs 225 peuvent stocker des images dans une mémoire d images (p. ex. une mémoire d’images 245) pour une sortie sur un dispositif d’affichage tel que le dispositif d’affichage 224. Dans certains modes de réalisation, les images stockées dans la mémoire d’images 245 peuvent être fournies à d’autres dispositifs informatiques par l’intermédiaire d’une interface de réseau 218 ou de dispositifs I/O 230. Les GPUs 225 peuvent avoir une structure hautement parallèle optimisée pour traiter de larges blocs parallèles de données graphiques de façon plus efficace que les CPUs à usage général 220. Par ailleurs la fonctionnalité des GPUs 225 peut être incluse dans un jeu de puces d’une unité de traitement à usage spécial ou d’un coprocesseur.
[ 0051], Les CPUs 220 peuvent exécuter des instructions programmables stockées dans la mémoire de système 221 ou une autre mémoire, ils peuvent fonctionner sur des données stockées dans la mémoire (p. ex. la mémoire de système 221) et communiquer avec les GPUs 225 par l’intermédiaire d’une interface de système 250 qui relie la communication entre les divers composants du système informatique 200. Dans certains modes de réalisation, les CPUs 220 les GPUs 225, l’interace de système 250 ou une quelconque combinaison de ceux-ci sont intègres dans un jeu de puces unique ou dans l’unité de traitement. Les GPUs 225 peuvent exécuter des ensembles d’instructions stockés dans la mémoire (p. ex. la mémoire de système 221) pour manipuler des données graphiques stockées dans la mémoire de système 221 ou dans la mémoire graphique 226. Par exemple, les CPUs 220 peuvent fournir des instructions aux GPUs 225, et les GPUs 225 peuvent traiter les instructions pour restituer les données graphiques stockées dans la mémoire graphique 226. La mémoire graphique 226 peut être tout espace de mémoire accessible par les GPUs 225 incluant la mémoire locale, la mémoire de système, les mémoires sur puce et le disque dur. Les GPUs 225 peuvent permettre l’affichage de données graphiques stockées dans la mémoire graphique 226 sur le dispositif d’affichage 224 ou elles peuvent traiter l’information graphique et fournir cette information à des dispositifs connectés par l’intermédiaire d’une interface de réseau 218 ou de dispositifs I/O 230.
[00052]. Le dispositif informatique 200 peut inclure le dispositif d’affichage 224 et les dispositifs (I/O) 230 (p. ex. un clavier, une souris ou un dispositif de pointage) connectés au contrôleur I/O 223. Le contrôleur I/O 223 peut communiquer avec les autres composants du dispositif informatique 200 via l’interface de système 250. Il est souligné que les CPUs 220 peuvent aussi communiquer avec la mémoire de système 221 et d’autres dispositifs de façons autres que par l’intermédiaire de l’interface de système 250, par exemple par communication sérielle ou par communication directe point à point. De façon similaire, les GPUs 225 peuvent communiquer avec la mémoire graphique 226 et avec d’autres dispositifs de manières autres que par l’interface de système 250. De plus pour recevoir une entrée, les CPUs 220 peuvent fournir une sortie via les dispositifs I/O 230 (p. ex. par une imprimante, des haut-parleurs, un conducteur osseux et d’autres dispositifs de sortie).
[00053]. Par ailleurs, le dispositif informatique 200 peut inclure une interface de réseau 218 pour servir d’interface à un LAN, un WAN, un MAN ou à l’Internet par l’intermédiaire d’une variété de connexions incluant, sans s’y limiter, des lignes téléphoniques standard, des liaisons LAN ou WAN (p. ex., 802.21, Tl, T3, 56 kb, X.25), des connexions à haut débit (p. ex., ISDN ; Frame Relay, ATM), des connexions sans fil (p. ex., celles qui se conforment entre autres à 802.11 a, 802.11 b, 802.11 b/g/n, 802.1 lac, Bluetooth, Bluetooth LTE, 3GPP, ou les normes WiMax) ou d’autres combinaisons d’une quelconque ou de toutes les connexions précitées. L’interface de réseau 218 peut comprendre un adaptateur de réseau intégré, une carte d’interface de réseau, une carte de réseau PCMCIA, un adaptateur de réseau de puce de carte, un adaptateur de réseau sans fil, un adaptateur de réseau USB, un modem ou tout autre dispositif approprié pour mettre le dispositif informatique 200 en interface avec tout type de réseau capable de mettre en œuvre les opérations décrites dans les présentes.
[00054]. Faisant de nouveau référence à la Figure 1, le système 100 peut par ailleurs inclure le dispositif de réalité augmentée 145. Le dispositif de réalité augmentée peut être un téléphone mobile une tablette ou un autre assistant numérique personnel tel qu’illustré dans la Figure 4, un dispositif tel qu’un dispositif de réalité augmentée 390 décrit dans la Figure 3B, les deux étant décrits de façon plus détaillée ci-dessous, ou un quelconque autre dispositif de réalité augmentée. En outre, le dispositif de réalité augmentée 145 peut être implémenté en utilisant les composants montrés dans le dispositif300 illustré dans la Figure 3A, décrite plus en détail ci-dessous.
[00055]. Les Figures 3A et 3B sont des diagrammes de dispositifs exemplaires de réalité augmentée 300 et 390 qui sont conformes à des modes de réalisation de la présente invention. Ces dispositifs exemplaires de réalité augmentée peuvent représenter des composants internes (p. ex. comme le montre la Figure 3A) d’un dispositif de réalité augmentée et un autre exemple de composants externes (p. ex., comme le montre la Figure 3B) d’un dispositif de réalité augmentée. Dans certains modes de réalisation, la Figure 3A peut représenter un dispositif électronique exemplaire 300 contenu à l’intérieur du dispositif de réalité augmentée 390 de la Figure 3 B. Dans un autre mode de réalisation, un dispositif mobile 400 dans la Figure 4 peut être utilisé à la place du dispositif de réalité augmentée 390 de la Figure 3 B. L’interaction, la communication et les détails de la relation entre le dispositif de réalité augmentée 390 dans la Figure 3B et le dispositif300 dans la Figure 3A, tels qu’ils sont décrits ci-dessous, sont les mêmes que ceux entre le dispositif400 dans la Figure 4 et le dispositif 300 dans la Figure 3enabledA.
[00056], La Eigure 3A est un diagramme bloc simplifié illustrant un dispositif électronique exemplaire 300. Dans certains modes de réalisation, le dispositif électronique 300 peut inclure un dispositif de réalité augmentée ayant des capacités d’affichage vidéo et la capacité de communiquer avec d’autres systèmes informatiques, par exemple via l’Internet. Selon la fonctionnalité fournie par le dispositif électronique 300, dans divers modes de réalisation, le dispositif électronique 300 peut être ou peut inclure un dispositif portable, ou un dispositif de communication multimodes configuré à la fois pour des communications par la voix ou des données, un smartphone, un téléphone portable, un ordinateur portable, un ordinateur branché sur le réseau, un mini-ordinateur portable, une console de jeux, une tablette, une montre connectée, des lunettes, un casque d’écoute, des lunettes masque, ou un assistant personnel numérique PDA activé pour la communication en réseau. Un exemple de dispositif portable est le dispositif mobile 400 de la Figure 4.
[00057]. Un dispositif électronique 300 peut inclure un cas (non illustré) d’hébergement d un ou de plusieurs composants du dispositif électronique 300. Les composants internes du dispositif électronique 300 peuvent par exemple, être construits sur une carte de circuit imprimé (PCB). Bien que les composants et les sous-systèmes du dispositif électronique 300 peuvent être réalisés sous forme d éléments discrets, les fonctions des composants et des sous-systèmes peuvent aussi être réalisées en intégrant, en combinant ou en conditionnant un ou plusieurs éléments ensemble dans une ou plusieurs combinaisons.
[00058]. Le dispositif électronique 300 peut inclure un contrôleur comprenant une ou plusieurs CPU (s) 301 qui contrôlent le fonctionnement global du dispositif électronique 300. Les CPU (s) 301 peuvent être un ou plusieurs microprocesseurs, des réseaux prédiffiisés programmables (FPGAs), des processeurs de signaux numériques (DSPs) ou toute combinaison de ceux-ci, capables d’exécuter des ensembles particuliers d’instructions. Les CPU (s) 301 peuvent interagir avec les sous-systèmes de dispositifs tels que le système de communication sans fil 306 pour échanger des signaux de fréquence radio avec un réseau sans fil afin de mettre en œuvre des fonctions de communication, un sous-système audio 320 pour produire de l’audio (incluant par exemple ainsi le sous-système de haut-parleurs avec un haut-parleur gauche 321 et un haut-parleur droit 323 qui peuvent produire des sons différents dans l’oreille gauche et dans l’oreille droite d’un utilisateur afin de créer des effets sonores d’« ambiophonie »), un sous système de localisation 308 pour acquérir des informations de localisation et un sous-système d’affichage 310 pour produire des éléments d’affichage.
[00059]. La CPU (s) 301 peut aussi interagir avec des dispositifs d’entrées 307, une mémoire persistante 330, une mémoire à accès aléatoire (RAM) 337, une mémoire à lecture seule (ROM) 338, un port de données 318 (p. ex. un port conventionnel de données sérielles, un port de données de bus sériel universel (USB), un port de données de 30 broches, un port de données d’éclairage, un port de données d’interface multimédia de haute définition (HDMI)), un microphone 322, une caméra 324 et des communications sans fil 306 (qui peuvent employer toute technologie de communication sans fil appropriée (p. ex. RF), optique ou d’autres technologies de communication de courte portée (par exemple Wifi, Bluetooth ou NFC)). Certains des soussystèmes illustrés dans la Figure 3 mettent en œuvre des fonctions liées à la communication, par lesquels d’autres sous-systèmes peuvent fournir des fonctions « résidentes » ou sur dispositif.
[00060], Le système de communication sans fil 306 inclut des systèmes de communication pour communiquer avec un réseau afin de permettre la communication avec des dispositifs externes (p. ex. un serveur, non illustré). La conception particulière du système de communication sans fil 306 dépend du réseau sans fil avec lequel le dispositif électronique 300 est destiné à fonctionner. Le dispositif électronique 300 peut envoyer et recevoir des signaux de communication sur le réseau sans fil après que l’enregistrement obligatoire sur le réseau ou les procédures d’activation ont été complétés.
[00061]. Le sous-système de localisation 308 peut fournir divers systèmes tels qu’un système de positionnement global (p. ex. un GPS 309) qui fournissent des informations de localisation. De plus, le sous-système de localisation peut utiliser des informations de localisation provenant de dispositifs connectés (p. ex. connectés via le système de communication sans fil 306) pour apporter d’autres données de localisation. Les informations de localisation fournies par le sous-système de localisation 308 peuvent être stockées, par exemple dans la mémoire persistante 330, et être utilisées par les applications 334 et le système d’exploitation 332. [00062]. Le sous-systeme d’affichage 310 peut contrôler des afficheurs variés (p. ex. un afficheur pour l’œil gauche 311, un afficheur pour l’œil droit 313 et l’écran 402 de la Figure 4). Afin de fournir un afficheur de réalité augmentée, le sous-système d’affichage 310 peut fournir les éléments d’affichage graphiques (p. ex. ceux qui sont générés en utilisant la/les GPU(s) 302) sur des afficheurs transparents. Dans d’autres modes de réalisation, l’affichage généré sur l’afficheur de l’œil gauche 311 et sur l’afficheur de l’œil droit 313 peut inclure une image saisie à partir de la caméra 324 et reproduite avec des éléments graphiques superposés. En outre, le soussysteme 310 peut afficher des superpositions différentes sur l’afficheur de l’œil gauche 311 et sur l’afficheur de l’œil droit 313 pour montrer des éléments différents ou pour fournir une simulation de profondeur ou de perspective. Dans le cas de l’écran 400, des images différentes peuvent être superposées dans différentes parties de l’écran. Dans certains modes de réalisation, l’écran peut etre divisé en une pluralité de zones différentes pour montrer des informations et des données différentes. Par exemple, une moitié de l’écran peut être utilisée à des fins de réalité augmentée et une moitié de l’écran pour d’autres applications ou fonctions. La caméra peut être située sur un dispositif mobile comme le montrent les Figures 4 à 7. D’autres variantes sont encore possibles. [00063], La caméra 324 peut être une caméra CMOS, une caméra CCD, ou un quelconque autre type de caméra capable de saisir et de produire des données d’images compressées ou non compressées telles que des données d’images fixes ou des données d’images vidéo. Dans certains modes de réalisation, le dispositif électronique 300 peut inclure plus d’une caméra, permettant à l’utilisateur de passer d’une caméra à une autre, ou de superposer une donnée d’image saisie par une caméra par-dessus une donnée d’image saisie par une autre caméra. La sortie de données d’images de la caméra 324 peut être stockée, par exemple dans une mémoire d’images qui peut être un tampon temporaire résidant dans la RAM 337 ou un tampon permanent résidant dans la
ROM 338 ou dans la mémoire persistante 330. La mémoire d’images peut être, par exemple, un tampon de type premier entré premier sorti (FIFO). Dans certains modes de réalisation, la mémoire d’images peut être fournie directement à la GPU (s) 302 et le sous-système d’affichage 310 pour un affichage sur l’afficheur de l’œil gauche 311, sur l’afficheur de l’œil gauche 313 ou sur 1 écran 402 avec ou sans superposition graphique.
[00064]. Le dispositif électronique peut inclure une unité de mesure d’inertie (p. ex.,
IMU 340) pour mesurer les données d’orientation et de mouvement associées au dispositif électronique 300 L’IMU 340 peut utiliser un accéléromêtre 342, des gyroscopes 344 et d’autres capteurs 346 pour saisir une force spécifique, un taux angulaire, des champs magnétiques et des informations biométriques pour une utilisation par le dispositif électronique 300. La saisie de donnée par l’IMU 340 et les capteurs associés (p. ex. l’accéléromêtre 342, les gyroscopes 344 et d’autres capteurs 346) peuvent être stockés dans la mémoire telle que la mémoire persistante 330 ou la RAM 337 et être utilisés par les applications 334 et par le système d’exploitation 332. Les données collectées par l’intermédiaire de l’IMU 340 et ses capteurs associés peuvent aussi être fournies à des dispositifs en réseau par l’intermédiaire, par exemple, d’un système de communication sans fil 306.
[00065]. Les CPU (s) 301 peuvent être un ou plusieurs processeurs qui fonctionnent sous un contrôle de programme stocké et exécutent des modules logiciels stockés dans un support de stockage lisible par ordinateur, transitoire, concrètement intégré, tel que la mémoire persistante 330 qui peut être un registre, un processeur en cache, une mémoire vive à accès aléatoire (RAM), un disque souple, un disque dur, un CD-ROM (un disque compact à lecture seule), un MO (un disque optomagnétique), un DVD-ROM (un disque numérique polyvalent à mémoire morte), un DVD-RAM (un disque numérique polyvalent à mémoire vive) ou d’autres mémoires semi-conductrices.
[00066]. Les modules logiciels peuvent aussi être stockés dans un support de stockage
Lsible par ordinateur tel que la ROM 338, ou toute autre technologie de mémoire persistante appropriée incluant EEPROM, EAROM, et FLASH. Ces supports de stockage lisibles par ordinateur stockent des instructions lisibles par ordinateur pour une exécution par la/les CPU (s) 301 afin de mettre en œuvre une variété de fonctions sur le dispositif électronique 300. Autrement, les fonctions et les procédés peuvent aussi être implémentés dans des composants matériels ou des combinaisons de matériel et de logiciels tels que, par exemple, des circuits intégrés spécifiques ASICs et/ou des ordinateurs à usage spécial.
[00067]. Les modules logiciels peuvent inclure un logiciel de système d’exploitation 332, utilisé pour contrôler les opérations du dispositif électronique 300. De plus, les modules logiciels peuvent inclure des applications logicielles 334 pour fournir des fonctionnalités supplémentaires au dispositif électronique 300. Par exemple, les applications logicielles 334 peuvent inclure des applications conçues pour servir d’interface avec des systèmes comme le système 100 ci-dessus. Les applications 334 peuvent fournir une fonctionnalité spécifique pour permettre au dispositif électronique 300 de servir d’interface avec différents systèmes de données et pour fournir une fonctionnalité améliorée et une augmentation visuelle.
[00068], Les applications logicielles 334 peuvent aussi inclure une gamme d’applications, incluant par exemple, une application de messagerie courriel, un répertoire d’adresses, une application bloc-notes, une application de navigateur Internet, une application de communication par voix (p. ex. la téléphonie ou une application de voix sur protocoles Internet (VoIP)), une application de cartographie, une application de lecteur multimédia, une application relative à la santé, etc. Chacune des applications logicielles 334 peut inclure des informations de mise en page définissant le placement de champs particuliers et d’éléments graphiques destinés à l’affichage sur l’afficheur de réalité augmentée (p. ex. par l’intermédiaire du sous-système d’affichage 310) conformément à cette application correspondante. Dans certains modes de réalisation, les applications logicielles 334 sont des modules logiciels s’exécutant sous la direction du système d’exploitation 332.
[00069], Le système d’exploitation 332 peut fournir un nombre d’interfaces de protocole d application (APIs) fournissant une interface pour la communication entre les divers soussystèmes et les services du dispositif électronique 300, et les applications logicielles 334. Par exemple, le logiciel de systèmes d’exploitation 332 fournit une API graphique aux applications qui ont besoin de créer des éléments graphiques pour affichage sur le dispositif électronique 300. L’accession à l’API d’interface utilisateur peut fournir l’application avec la fonctionnalité pour créer et gérer des contrôles d’interface augmentée tels que des superpositions ; recevoir des entrées via la caméra 324, le microphone 322 ou le dispositif d’entrée 307 ; et d’autres fonctionnalités destinées à l’affichage par l’intermédiaire du sous-système d’affichage 310. Par ailleurs, une API de service de caméra peut permettre la saisie de vidéo via la caméra 324 aux fins de saisir des données d’images telles que des données d’image ou de vidéo qui peuvent être traitées et utilisées pour fournir l’augmentation via le sous-système 310.
[00070], Dans certains modes de réalisation, les composants du dispositif électronique 300 peuvent être utilisés ensemble pour fournir une entrée de l’utilisateur au dispositif électronique 300. Par exemple, le sous-système d’affichage 310 peut inclure des contrôles interactifs sur l’afficheur de l’œil gauche 311 et sur l’afficheur de l’œil droit 313, ou sur I écran 402. Dans le cadre de l’affichage augmenté, ces contrôles peuvent apparaître devant l’utilisateur du dispositif électronique 300. En utilisant la caméra 324, le dispositif électronique 300 peut détecter lorsqu’un utilisateur sélectionne un des contrôles affichés sur le dispositif de réalité augmentée. L’utilisateur peut sélectionner un contrôle en faisant un geste ou un mouvement particulier saisi par la caméra, en touchant la zone d’espace où le soussysteme 310 affiche le contrôle virtuel sur la vue augmentée en touchant physiquement un dispositif d’entrée 307 sur le dispositif électronique 300. Cette entrée peut être traitée par un dispositif électronique 300.
[00071], La caméra 324 peut par ailleurs inclure des caméras multiples pour détecter à la fois une entrée directe d’utilisateur ainsi qu’un suivi de tête et un suivi de main. Au fur et à mesure qu’un utilisateur bouche sa tête ici, la caméra 324 peut fournir des informations visuelles correspondant à l’environnement mobile et aux mouvements des mains de l’utilisateur. Ces mouvements peuvent être fournis à la CPU (s) 301, au système d’exploitation 332 et aux applications 334 où des données peuvent être combinées avec d’autres données de capteurs et des informations relatives à l’information augmentée affichée via le sous-système 310 afin de déterminer les sélections et entrées d’un utilisateur.
[00072], En outre, le dispositif électronique 300 peut recevoir une entrée directe par le microphone 322. Dans certains modes de réalisation, le microphone 322 peut être un plusieurs microphones utilisés à des fins similaires ou différentes. Par exemple, dans des environnements multimicrophones, certains microphones peuvent détecter des changements environnementaux alors que d’autres microphones peuvent recevoir des commandes directes audio de l’utilisateur. Le microphone 322 peut enregistrer directement de l’audio ou une entrée de l’utilisateur. De façon similaire aux données visuelles de la caméra 324, les données audio du microphone 322 peuvent etre fournies à la GPU (s) 301, au système d’exploitation 332 et aux applications 334 pour traitement afin de déterminer l’entrée de l’utilisateur.
[00073], Dans certains modes de réalisation, la mémoire persistante 330 stocke des données 336 incluant des données spécifiques à un utilisateur du dispositif électronique 300, telles que des informations de comptes d’utilisateur ou des identifiants spécifiques de dispositif. La mémoire persistante 330 peut aussi stocker des données relatives à celles (p. ex. des contenus, des notifications et des messages) qui sont obtenues à partir de services auxquels le dispositif électronique 300 a accédé.
[00074], La mémoire persistante 330 peut par ailleurs stocker des données relatives à diverses applications avec des préférences de l’utilisateur particulier du dispositif électronique 300 par exemple. Dans certains modes de réalisation, la mémoire persistante 330 peut stocker des données 336 liant les données d’un utilisateur à un champ particulier de données, par exemple, dans une application, pour fournir automatiquement les références d’un utilisateur à une application en cours d’exécution sur le dispositif électronique 300. Par ailleurs, dans divers modes de réalisation, les données 336 peuvent aussi inclure des données de service comprenant des informations requises par le dispositif électronique 300 pour établir et maintenir une communication avec un réseau.
T00075]. Dans certains modes de réalisation, le dispositif électronique 300 peut aussi indiquer un ou plusieurs modules de mémoire amovibles 352 (p. ex., la mémoire FLASH) et une interface mémoire 350. Le module de mémoire amovible 352 peut stocker des informations utilisées pour identifier ou authentifier un utilisateur ou le compte d’un utilisateur sur un réseau sans fil. Par exemple, en conjonction avec certains types de réseaux sans fil, incluant GSM et des réseaux successeurs, le module de mémoire amovible 352 est désigné comme étant un module d’identite d’abonné (SIM). Le module de mémoire 352 peut être inséré dans, ou être couplé à, l’interface de module de mémoire 350 du dispositif électronique 300 afin de fonctionner en conjonction avec le réseau sans fil.
[00076]. Le dispositif électronique 300 peut aussi inclure une batterie 362 qui fournit une alimentation electnque pour faire fonctionner le dispositif électronique 300. La batterie 362 peut etre couplée à la circuiterie électrique du dispositif électronique 300 par l’intermédiaire d’une interface de batterie 360 qui peut gérer des fonctions telles que le chargement de la batterie 362 à partir d’une source de courant externe (non illustrée) et la distribution du courant vers diverses charges à l’intérieur du dispositif électronique 300, ou couplée avec celui-ci.
[00077], Un ensemble d’applications qui contrôlent les opérations basiques du dispositif incluant des données et potentiellement des applications de communication vocale peut être installé sur le dispositif électronique 300 pendant ou après la fabrication. Des applications supplémentaires ou des mises à jour du logiciel de systèmes d’exploitation 332 ou d’applications logicielles 334 peuvent aussi être téléchargées sur le dispositif électronique 300 via le port de données 318, les communications sans fil 306, le module de mémoire 352 ou tout autre système approprié. Le téléchargement de programmes ou de modules de code peut être installé de façon permanente, par exemple, écrit dans la mémoire persistante 330 ou écrit dans et exécuté à partir de la RAM 337 pour une exécution par la/les CPU (s) pendant le temps d’exécution.
[00078], La Figure 3B est un exemple de dispositif de réalité augmentée 390. Dans certains modes de réalisation, le dispositif de réalité augmentée 390 peut être des contacts, des verres, des masques de vision, ou un casque qui fournissent un port de vision augmentée au porteur. Dans d’autres modes de réalisation (non illustrés dans la Figure 3B) le dispositif de réalité augmentée peut faire partie d’un ordinateur, d’un dispositif mobile, d’un dispositif de télécommunications portables, d’une tablette, d’un PDA d’un autre dispositif informatique tel que décrit par rapport à la Figure 3A et la Figure 4.
[00079]. Comme illustré dans la Figure 3B, le dispositif de réalité augmentée 390 peut inclure un port de visualisation 391 par laquelle le porteur peut regarder. Le dispositif de réalité augmentée 390 peut aussi inclure des composants de traitement 392. Les composants de traitement 392 peuvent être des compartiments qui hébergent la circuiterie et des modules décrits ci-dessus par rapport à la Figure3A. Bien que montrés comme étant deux éléments distincts de chaque côté du dispositif de réalité augmentée 390, le matériel de traitement et/ou les composants peuvent être hébergés sur un seul côté du dispositif de réalité augmentée 390. Les composants montrés dans la Figure 3 A peuvent être inclus dans toute partie du dispositif de réalité augmentée 390.
[00080]. Dans certains modes de réalisation, le dispositif de réalité augmentée 390 peut inclure des dispositifs d’affichage 393. Ces dispositifs d’affichage peuvent être associés à l’afficheur de l’œil gauche 311 et à l’afficheur de l’œil droit 313 de la Figure 3 A. Dans ces modes de realisation, le dispositif d’affichage 393 peut recevoir des informations d’affichage pertinentes de l’afficheur de l’œil gauche 311, de l’afficheur de l’œil droit 313 et du sous-système d affichage 310 ainsi que projeter ou afficher la superposition pertinente sur le port de visualisation 391. À travers ce processus, le dispositif d’affichage augmenté 390 peut fournir des éléments graphiques augmentés devant être montrés dans le champ de vue du porteur.
[00081], Dans un autre mode de réalisation, la fonctionnalité du dispositif de réalité augmentée et les dispositifs d’affichage 393, 311 et 313 peuvent être actionnés par le dispositif mobile 400 et affichés sur l’écran 402 comme illustré dans la Figure 4. Les mêmes fonctions et caractéristiques s’appliquent à ce mode de réalisation avec en plus, le fait que l’écran peut aussi faire office d afficheur et de dispositif d’entrée. Le dispositif d’entrée peut être activé par le toucher et/ou augmenté par d’autres dispositifs d’entrée supplémentaires ainsi que décrit ci-dessus et ci-dessous (par exemple le dispositif d’entrée 307).
[00082], Faisant référence à nouveau à la Figure 1, chacune des bases de données : 111, 115 et 117, la source de données 113, le système de données 116, le moteur d’analyse prédictive 118, 1 API 130 et le système de réalité augmentée 140, peut être un module qui est une unité matérielle fonctionnelle intégrée, conçue pour un usage avec d’autres composants ou faisant partie d’un programme qui met en œuvre une fonction particulière de fonctions liées. Chacun de ces modules être implémenté en utilisant le dispositif informatique 200 de la Figure 2. Chacun de ces éléments est décrit plus en détail ci-après. Dans certains modes de réalisation, la fonctionnalité du système 100 peut être divisée entre de multiples dispositifs informatiques (p. ex. de multiples dispositifs similaires au dispositif informatique 200) pour permettre le traitement distribué des données. Dans ces modes de réalisation, les composants différents peuvent communiquer via le dispositif I/O 230 ou l’interface de réseau 218 du dispositif informatique 200 de la Figure 2. [00083], Des données peuvent être mises à disposition du système 100 par l’intermédiaire de sources de données propriétaires 110 et de sources de données externes 120. Il faut noter que les sources de données exemplaires montrées pour chacune des sources (p. ex. les bases de données 111, 115, et 117, la source de données 113, le système de données 116 et le moteur d analyse prédictive 118 des sources de données propriétaires 110, et les données de cartes 121, les données de notations 123, les données météorologiques 127, les données de vol 129 et les données de localisation 125 des sources de données externes 120) ne sont pas exhaustives.
[00084], Beaucoup de sources de données différentes et de types de données existent à la fois dans les sources de données propriétaires 110 et dans les sources de données externes 120. En outre, certaines des données peuvent faire double emploi parmi les sources de données externes 120 et les sources de données propriétaires 110. Par exemple, les sources de données externes 120 peut fournir des données de localisation 125 qui peuvent inclure des données concernant des aéroports spécifiques ou des sociétés, incluant des fournisseurs de marchandises et de services tels qu’ils sont mis enjeu dans la présente invention. Ces mêmes données peuvent être incluses, dans une forme similaire ou différente, par exemple dans la base de données 111 des sources de données propriétaires 110.
[00085]. En outre, une quelconque des sources de données parmi les sources de données propriétaires 110 et les sources de données externes 120, ou une quelconque autre source de données utilisée par le système 100 peut être un système de gestion de bases de données relationnel (RDBMS) (p. ex. Oracle Database, Microsoft SQL Server, MySQL, PostgreSQL, and/or IBM DB2). Un RDBMS peut être désigné pour renvoyer de façon efficace des données pour un rang entier, ou un enregistrement aussi peu d’opérations que possible. Un RDBMS peut stocker des données en sérialisant chaque rang de données. Par exemple, dans un RDBLS, les données associées à un enregistrement peuvent être stockées en série de sorte que les données associées à toutes les catégories de l’enregistrement peuvent être accédées en une opération. En outre, un RDBMS peut permettre d’accéder de façon efficace à des enregistrements ayant un lien, stockés dans des tableaux disparates, en reliant les enregistrements par des champs ou des attributs communs.
[00086], Dans certains modes de réalisation, une quelconque des sources de données parmi les sources de données propriétaires 110 et les sources de données externes 120, ou une quelconque des sources de données utilisées par le système 100, peut être un système de gestion de base de données non relationnelle (NRDBMS) (p. ex., XML, Cassandra, CouchDB, MongoDB, Oracle NoSQL Database, FoundationDB, et/ou Redis). Un système de gestion de bases de données relationnelle peut stocker des données en utilisant une variété de structures de donnée telles qu’un stockage de valeur clé, un stockage de document, un graphique et un stockage de tuple, entre autres. Par exemple, une base de données non relationnelle utilisant un document stocké pourrait combiner toutes les données associées à un enregistrement particulier en un seul document encode en utilisant XML. Une base de données non relationnelle peut fournir un accès efficace un enregistrement entier et satisfaire une distribution efficace entre de multiple système de données.
[00087], Dans certains modes de réalisation, une quelconque des sources de données dans les sources de données propriétaires 110 et les sources de données externes 120 ou une quelconque des autres sources de données utilisées par le système 100, peut être une base de données graphique (p. ex. Neo4j ou Titan). Une base de données graphique peut stocker des données en utilisant des concepts graphiques tels que des nœuds, des bords et des propriétés pour représenter les données. Les enregistrements stockés dans une base de données graphique peuvent être associés à d’autres enregistrements sur la base des bords qui connectent les divers nœuds. Ces types de bases de données peuvent stocker de façon efficace des relations hiérarchiques complexes qui sont difficiles à modéliser dans d’autres types de systèmes de base de données. [00088], Dans certains modes de réalisation, une quelconque des sources de données dans les sources de données propriétaires 110 et les sources de données externes 120, ou une quelconque des autres sources de données utilisées par le système 100 peut être accédée via une
APL Par exemple, le système de données 116 pourrait être une API qui permet l’accès aux données dans la base de données 115. En outre, les sources de données externes 120 peuvent toutes être des données disponibles publiquement auxquelles on accède via une API. L’API 130 peut accéder à une quelconque des sources de données par l’intermédiaire de son API spécifique afin de fournir des données et des informations supplémentaires au système 100.
[00089], Bien que les sources de données provenant des sources de données propriétaires 110 et les sources de données externes 120 soient représentées dans la Figure 1 comme des bases de données ou des sources de données isolées, on doit comprendre que ces sources de données qui peuvent utiliser, entre autres, un quelconque des systèmes de stockage de données décrits précédemment, peuvent être distribuées entre de multiples dispositifs électroniques, de multiples systèmes de stockage de données ou d’autres systèmes électroniques. En outre, bien que les sources de données parmi les sources de données propriétaires 110 soient montrées comme étant des systèmes distincts ou des composants accessibles via ΓΑΡΙ 130, on doit comprendre que dans certains modes de réalisation ces diverses sources de données peuvent accéder les unes aux autres directement via des interfaces autres que ΓΑΡΙ 130.
[00090]. En plus de fournir un accès direct aux systèmes de stockage de données tels que la base de données 111 ou la source de données 113, les sources de données propriétaires 110 peuvent inclure un système de données 116. Le système de données 116 peut se connecter à une ou de multiples sources de données, telles que la base de données 115. Le système de données 116 peut fournir une interface aux données stockées dans la base de données 115. Dans certains modes de réalisation, le système de données peut combiner des données dans la base de données 115 avec d’autres données ou le système de données 116 peut prétraiter les données dans la base de données 115 avant de fournir ces données à 1ΆΡΙ 130 ou à un autre demandeur.
[00091]. Les sources de données propriétaires 110 peuvent par ailleurs inclure un moteur d’analyse prédictive 118. Le moteur d’analyse prédictive 118 peut utiliser des données stockées dans la base de données 117 et peut stocker de nouvelles données dans la base de données 117. Le moteur d’analyse prédictive peut à la fois fournir des données à d’autres systèmes via ΙΆΡΙ130 et recevoir des données provenant d’autres systèmes ou composants via I ’API 130. Par exemple, le moteur d’analyse prédictive 118 peut recevoir, entre autres, des informations sur des achats faits par les utilisateurs, des mises à jour de préférences de voyage, les services regardés et les services rejetés. L’information collectée par le moteur d’analyse predictive 118 peut inclure toute donnée relative à la fois à l’information stockée dans les autres composants des sources de données propriétaires 110 ainsi que l’information des sources de données externes 120. Dans la présente invention, l’information collectée peut aussi amener le système et les fournisseurs à en apprendre davantage sur les utilisateurs. Cette connaissance peut ensuite être utilisée par ailleurs pour donner lieu à des offres fritures de cadeaux, de marchandises et de services à offrir à l’utilisateur.
[00092], En utilisant ces données, le moteur d’analyse prédictive 118 peut utiliser diverses d’analyses prédictives et des technologies d’apprentissage automatique incluant, parmi d’autres, l’apprentissage supervisé, l’apprentissage non supervisé, l’apprentissage semi-supervisé, l’apprentissage par renforcement et l’apprentissage profond. Ces techniques peuvent être utilisées pour construire et mettre à jour des modèles basés sur les données collectées par le moteur d’analyse prédictive 118. En appliquant ces techniques et modèles à de nouveaux ensembles de données, le moteur d’analyse prédictive 118 peut fournir des informations basées sur des comportements passés et/ou des choix faits par un individu particulier. Par exemple, le moteur d’analyse prédictive peut recevoir des données du dispositif de réalité augmentée 145 et du système de réalité augmentée 140 concernant un individu particulier. Le moteur d’analyse prédictive 118 peut utiliser les informations de profil et les informations d’achats dans le passé qui sont associées a cet individu afin de déterminer des services de voyage tels qu’un surclassement de siège ou des prestations en vol que l’individu pourrait apprécier. Par exemple, le moteur d’analyse prédictive peut déterminer que l’individu n’a jamais choisi d’être surclassé premiere classe, mais achète fréquemment des prestations en vol telles que des boissons premium et des forfaits de divertissement. Par conséquent, le moteur d’analyse prédictive peut déterminer que l’individu est disposé à recevoir une option d’achat de ces prestations plutôt qu’une option de surclassement de son siège. II faut comprendre que le moteur d’analyse prédictive 118 est capable d’utiliser des techniques avancées qui vont au-delà de l’exemple fourni. Les sources de données propriétaires 110 peuvent représenter des sources de données variées (p. ex., la base de données 111, la source de données 113, la base de données 115, le système de données 116, la base de données 117 et le moteur d’analyse prédictive 118) qui ne sont pas directement accessibles ou disponibles au public. Ces sources de données peuvent être fournies aux souscripteurs sur la base du paiement d’un prix fixe ou d’un abonnement. L’accès à ces sources de données peut être fourni directement par le propriétaire des sources de données propriétaires ou par l’intermédiaire d’une interface telle que l’API 130, décrite de façon plus détaillée cidessous. L’exemple ci-dessus relatif à la fourniture de services de voyage peut aussi s’étendre à la fourniture d’autres marchandises et services comme on le verra ci-dessous.
[00093]. Bien qu’un seul groupement de sources de données propriétaires 110 est illustré dans la Figure 1, une variété de sources de données propriétaires, d’une variété de fournisseurs, peuvent être disponibles pour le système 100. Dans certains modes de réalisation, chacun des groupements de sources de données inclura des données relatives à une industrie ou à un domaine commun. Dans d’autres modes de réalisation, le groupement des sources de données propriétaires peut dépendre du fournisseur des sources de données variées.
[00094]. Par exemple, les sources de données dans les sources de données propriétaires 110 peuvent contenir des données relatives à l’industrie du voyage aérien ou à tout fournisseur de marchandises et de services susceptible d’être intéressé par une interaction avec l’utilisateur. Dans cet exemple, la base de données 111 peut contenir des informations de profil d’utilisateur, des informations de géolocalisation, des profils de clients et les informations qui y sont liées et d’autres informations pertinentes pour l’utilisateur dans une situation donnée. De plus, les données de profil d’utilisateur peuvent inclure des informations de voyage, une histoire, des préférences, des informations relatives à la fidélité et d’autres informations relatives un profil d’utilisateur. Par ailleurs, dans cet exemple, la source de données 113 peut contenir des informations relatives à des partenariats ou à des services auxiliaires, tels que des fournisseurs de marchandises et de services, des restaurants, des hôtels, des loueurs de voitures, des événements, une assurance et un parking. Ainsi que décrit précédemment, l’information pertinente peut être traitée via le système de données 116. Par conséquent dans ce mode de réalisation exemplaire, les sources de données dans les sources de données propriétaires 110 peuvent fournir des données globales relatives un utilisateur et à toutes marchandises ou tous services qui pourraient intéresser l’utilisateur.
[00095], De façon similaire aux sources de données propriétaires 110, les sources de données externes 120 peuvent représenter diverses sources de données (p. ex. des données de cartes 121, des données de notations 123, des données météorologiques 127, des données de vol 129 et des données de localisation 125). Contrairement aux sources de données propriétaires 110, les sources de données externes 120 peuvent être accessibles au public ou peuvent être des sources de données qui sont en dehors du contrôle direct du fournisseur de ΓΑΡΙ 130 ou du système 100.
[00096], Bien qu’un seul groupement de sources de données externes 120 soit illustré dans la Figure 1, une variété de sources de données externes peuvent être mises à la disposition du système 100 par une variété de fournisseurs. Dans certains modes de réalisation, chacun des groupements de sources de données inclura des données relatives à une industrie ou à un domaine commun. Dans d autres modes de réalisation, le groupement de sources de données externes peut dépendre du fournisseur de diverses sources de données. Dans certains modes de réalisation, les sources de données externes 120 peuvent représenter toutes sources de données externes disponibles à 1ΆΡΙ130.
[00097], En outre, les types spécifiques de données montrées dans les sources de données externes 120 ne sont que de simples exemples. Des types de données supplémentaires peuvent etre inclus et l’inclusion de types spécifiques de données dans les sources de données externes 120 n’est pas censée être exhaustive.
[00098]. Comme le montre la Figure 1, les sources de données externes 120 peuvent inclure des données de cartes 121. Les données de cartes peuvent inclure la localisation, des cartes et des informations de navigation disponibles via une API fournie telle que Google Maps API et/ou l’Open Street Map API, entre autres. Les données de notations 123 peuvent inclure des notations ou des informations de revue concernant des entreprises, des produits, des lieux, etc. Par exemple, les données de notations 123 peuvent inclure des données de l’API Yelp, les commentaires de clients d’Amazon, et/ou le contenu de l’API TripAdvisor, entre autres. Les données de lieu 125 peuvent inclure des données spécifiques telles que des profils d’entreprise, les heures d operations, les menus et autres données similaires. Les données météorologiques 127 peuvent être des informations météo spécifiques à un lieu qui peuvent être accessibles via l’API Dark Sky Forecast, l’API The Weather Channel, l’API NOAA Web Services et/ou 1ΆΡΙ Weather Underground, entre autres.
[00099], Les données de vol 129 peuvent inclure des informations de vol des informations de porte et/ou des informations d’aéroport qui peuvent être accessibles via l’API FlightStats, l’API FlightWise, l’API FlightStats et l’API FlightAware, entre autres. Chacune de ces sources de données externes 120 (p. ex., les données de cartographie 121, les données de notation 123, les données météorologiques 127, les données de vol 129 et les données de lieu 125) peut fournir d’autres données accessibles via l’API 130.
[000100]. Les données pertinentes d’un utilisateur peuvent inclure les noms et les informations personnelles, les détails de l’utilisateur relatifs à ses achats récents, ses choix de restaurant et d autres services et toute autre information qui peut être pertinente par rapport à un utilisateur interagissant avec le fournisseur de marchandises ou de services.
[000101]. Ainsi que décrit précédemment, l’API 130 peut fournir une interface unifiée pour accéder à une quelconque des données disponibles provenant des sources de données propriétaires 110 et des sources de données externes 120 dans une interface commune. L’API 130 peut être un logiciel en cours d’exécution, par exemple sur un dispositif informatique tel que le dispositif informatique 200 décrit en référence à la Figure 2. Dans ces modes de réalisation, 1 API 130 peut être écrite en utilisant un quelconque langage de programmation standard (p. ex., Python, Ruby, Java, C, C++, node.js, PHP, Péri, ou autre langage similaire) et peut fournir un accès en utilisant divers formats de transfert de données et/ou de protocoles incluant SOAP, objets JSON, services basés sur REST, XML ou d’autres formats/protocoles similaires. L’API 130 peut fournir des requêtes de réception pour des données dans un format standard et répondre dans un format prévisible.
[000102], L’API 130 peut combiner des données à partir d’une ou de plusieurs sources de données (p. ex., des données stockées dans les sources de données propriétaires 110, des sources de données externes 120, ou les deux) en une réponse unifiée. De plus, dans certains modes de réalisation, 1 API 130 peut traiter l’information provenant de diverses sources de données pour fournir des champs ou des attributs supplémentaires qui ne sont pas disponibles dans les données brutes. Ce traitement peut être basé sur une ou de multiples sources de données et peut utiliser un ou de multiples enregistrements de chaque source de données. Par exemple, l’API 130 pour et fournir des informations agrégées ou des informations statistiques telles que des moyennes, des sommes, des portées numériques ou d’autres informations calculables. En outre, l’API 130 peut normaliser les données provenant de multiples sources de données en un format commun. La description précédente des capacités de l’API 130 ne représente que des exemples. Il y a beaucoup de façons supplémentaires pour l’API de récupérer et d’empaqueter les données fourmes par des sources de données propriétaires 110 et des sources de données externes 120. [000103], Le système de réalité augmentée 140 peut interagir avec le dispositif de réalité augmentée 145 et l’API 130. Le système de réalité augmentée 140 peut recevoir des informations relatives au dispositif de réalité augmentée 145 (p. ex. par les communications sans fil 306 de la Figure 3A). Cette information peut inclure une quelconque des informations décrites précédemment en référence aux Figures3A ou 3B. Par exemple, le système de réalité augmentée peut recevoir des informations de lieu, des informations de mouvement, des informations visuelles, des informations de son, des informations d’orientation, des informations biométriques ou tout autre type d’information fourni par le dispositif de réalité augmentée 145. De plus, le système de réalité augmentée 140 peut recevoir des informations d’identification provenant du dispositif de réalité augmentée 145 tel qu’un identifiant spécifique au dispositif ou des justificatifs d authentification associés à l’utilisateur du dispositif de réalité augmentée 145.
[000104]. Le système de réalité augmentée 140 peut traiter l’information reçue et formuler des requetes a l’API 130. Ces requêtes peuvent utiliser les informations d’identification du dispositif de réalité augmentée 145, telles qu’un identifiant de dispositif ou des justificatifs d authentification de l’utilisateur du dispositif de réalité augmentée 145.
[000105], En plus de recevoir l’information du dispositif de réalité augmentée 145, le système de réalité augmentée 140 peut pousser les informations pertinentes vers le dispositif de réalité augmentée 145. Par exemple, le système de réalité augmentée 140 peut pousser les informations relatives à l’utilisateur pour inviter une interaction de ce dernier vers le dispositif de réalité augmentée 145 au for et à mesure qu’elles sont disponibles. De cette façon, le système de réalité augmentée 140 peut à la fois tirer et pousser des informations du dispositif de réalité augmentée 145 et vers celui-ci. En outre, le système de réalité augmentée 140 peut tirer (p. ex. via l’API 130) les informations de source de données externes 120. Par exemple, s’il y a un fournisseur qui est connu de l’utilisateur dans un lieu donné, le système de réalité augmentée 140 peut acquérir cette information et notifier l’utilisateur via le dispositif de réalité augmentée 145 via une interface d’informations (p. ex. un cadeau 502 est présenté sur l’écran du dispositif de la Figure 5) et/ou dans une offre associée à l’utilisateur ainsi que l’illustrent les Figures 6 et 7). [000106]. En utilisant l’information du dispositif de réalité augmentée 145, le système de réalité augmentée 140 peut demander des informations détaillées via l’API 130. L’information renvoyee par l’API 130 peut être combinée avec l’information reçue du dispositif de réalité augmentée 145 et être traitée par le système de réalité augmentée 140. Le système de réalité augmentée 140 peut ensuite prendre des décisions intelligentes concernant les informations de réalité augmentée actualisées devant être affichées sur le dispositif de réalité augmentée 145. Des cas d’utilisations exemplaires de ce processus sont décrits de façon plus détaillée ci-dessous en référence aux Figures 6 à 9. Le dispositif de réalité augmentée 145 peut recevoir l’information de réalité augmentée actualisée et afficher les mises à jour pertinentes par exemple, sur le port de visualisation 391 montré dans la Figure3B, ou sur l’écran 402 dans la Figure 4.
[000107], Les Figures 5 à 11 sont des usages exemplaires du système 100 de la Figure 1, conformes à des modes de réalisation de la présente invention. La Figure 5 est une vue augmentée exemplaire d’un dispositif de réalité augmentée (p. ex. le dispositif mobile 400 de la Figure 4 ou du dispositif de réalité augmentée 145 de la Figure 1) pour offrir des marchandises ou des services associés à un jeu et/ou à une offre spéciale à un utilisateur. La Figure 6 est un cas d’usage exemplaire pour l’utilisation d’un dispositif de réalité augmentée (p. ex., le dispositif 390 ou le dispositif de réalité augmentée 145) recevant une indication qu’une offre a été faite et/ou que l’utilisateur a complété le jeu avec succès. Au travers des descriptions des Figures 5 à 11 il sera fait reference aux éléments discutés précédemment dans les Figures l-3par leurs numéros de référence appropriés.
[000108]. La Figure 5 est une vue augmentée exemplaire 500 d’un dispositif de réalité augmentée (p. ex. le dispositif400 de la Figure 4 ou le dispositif de réalité augmentée 145 de la
Figure 1) pour identifier les éléments visuels qui peuvent être associés à un cadeau 502 ou à un jeu pour obtenir le cadeau. La vue augmentée 500 peut être une vue sur un écran 402 du dispositif mobile tel qu’il est montré. Comme indiqué précédemment, si l’utilisateur est équipé d’autres dispositifs pour visionner et interagir avec la vue augmentée 500, ceux-ci sont également applicables au dispositif pour afficher les informations et recevoir les entrées. Des exemples incluent le port de visualisation 391 de la Figure 3B et peuvent être le résultat du dispositif d’affichage 393 de la Figure 3B projetant des superpositions graphiques fournies par l’afficheur de l’œil gauche 311 et par l’afficheur de l’œil droit 313 du sous-système 310 de la Figure 3 A. [000109]. Faisant reference à la Figure 5, la vue augmentée 500 peut représenter l’écran de superpositions graphiques 402 résultant de la vue de réalité augmentée. Par exemple, les éléments augmentés de la vue augmentée peuvent être le cadeau 502 et une quelconque autre information pertinente (p. ex. la scène visionnée par l’utilisateur 506) avec lesquels l’utilisateur peut interagir pour participer au jeu ou les instructions données par un fournisseur de marchandises et de services comme cela sera maintenant décrit.
[000110], Lorsque l’utilisateur est dans un lieu connu, sa localisation peut être déterminée via un nombre d’applications différentes et/ou de dispositifs de localisation qui peuvent être associés au dispositif mobile de l’utilisateur. Par exemple, le dispositif mobile peut inclure la geolocahsation qui permet que la localisation de l’utilisateur soit connue à tout moment. De plus, les mouvements, les préférences et d’autres informations relatives à l’utilisateur peuvent aussi être utilisés pour prédire une localisation de l’utilisateur à un moment prédéterminé. Par exemple, si l’utilisateur a autorisé certains fournisseurs ou certaines applications à utiliser les informations de l’utilisateur, celles-ci peuvent être utilisées pour localiser un utilisateur. Par exemple, sur la base d’une carte de fidélité pour un café, l’utilisateur peut être localisé comme étant dans ce même café chaque jour entre 9 h et 10 h du lundi au vendredi. De façon similaire, pendant le weekend l’utilisateur est vraisemblablement à proximité de son adresse de résidence une grande partie du temps. Toute information pertinente peut être utilisée pour identifier les déplacements des utilisateurs. Ensuite un fournisseur de services et de marchandises associé ou à proximité de l’utilisateur peut envoyer des offres et des jeux à l’utilisateur sur la base de sa localisation connue ou supposée. Les cas d’utilisateurs exemplaires suivants approfondissent comment ceci peut être utilisé et adapté par ailleurs pour augmenter la consommation de produits et de services et pour encourager une plus grande interaction de l’utilisateur avec le fournisseur.
[000111], Dans un mode de réalisation, un jeu est utilisé pour rendre les interactions avec le fournisseur de marchandises et de services plus appropriées et plus incitantes pour que l’utilisateur accepte les marchandises et les services de l’offre. L’interaction fournit une interface technique à partir de laquelle le fournisseur dérive des informations concernant un utilisateur et ensuite achemine des marchandises et des services en accord avec le profil de l’utilisateur (qui peut être déjà connu) et des interactions dans le jeu qui peuvent être utilisées pour élargir le profil, les habitudes et les tendances de l’utilisateur. L’utilisation de jeux présente un défi à utilisateur et’ encourage l’utilisateur à s’impliquer davantage avec le fournisseur. De plus, toute interaction faite par l’utilisateur peut être saisie et utilisée pour syntoniser les offres futures faites à l’utilisateur. Certaines des interactions vont révéler de nouvelles informations concernant l’utilisateur soit sur une base intrinsèque, ou en relation avec le fournisseur de marchandises ou de services.
[000112]. Dans un mode de réalisation de la présente invention, il peut y avoir des « niveaux » de jeux différents, les jeux demandant une plus grande interaction au for et à mesure que le niveau augmente. En retour, un cadeau ou un prix peut être offert à l’utilisateur. Le prix peut etre plus intéressant et/ou de plus grande valeur selon le degré d’interaction de l’utilisateur. Par exemple, le jeu peut être facile si le cadeau contient une remise sur un repas ou un accès au salon et/ou un service accéléré dans un environnement aéroportuaire. Le jeu peut être sensiblement plus complexe si le prix ou le cadeau est un vol gratuit qui représente pour 1 utilisateur une valeur monétaire ou une valeur personnelle plus élevée.
[000113], Le jeu peut être proposé à un ou à de multiples utilisateurs ou joueurs en même temps ou i des moments différents et/ou sur le même lieu ou des lieux différents. Les scénarios possibles présentent de nombreuses variables, des circonstances et des situations et ne peuvent être limités aux exemples présentés ici. Le nombre de joueurs peut dépendre de la valeur du jeu et/ou de la durée nécessaire pour compléter le jeu. Le jeu peut avoir des contraintes de temps, des contraintes basées sur le lieu et toutes autres contraintes appropriées qui peuvent être basées sur un profil d’utilisateur ou autrement.
[000114], Dans un mode de réalisation, il peut y avoir plus d’un cadeau présenté à l’utilisateur, le cadeau étant syntonisé à un profil d’utilisateur ; un fournisseur ou un profil de vendeur ; un lieu ou tout autre paramètre. La sélection d’un cadeau différent peut invoquer le même jeu ou des jeux différents.
[000115], Le jeu peut avoir des règles. Celles-ci peuvent être présentées à l’utilisateur via un support approprié. Un exemple peut être un personnage, tel qu’un personnage de dessin animé qui dit à l’utilisateur comment jouer ou ce qu’il faut faire.
[000116], Dans un premier exemple, l’utilisateur peut être quelque part à proximité d’une boutique de cosmétiques. L’utilisateur peut être connu de la boutique de cosmétiques, ou ne pas l’etre, et peut, ou non, avoir un profil connu par la boutique. La localisation de l’utilisateur peut être déterminée d’une manière appropriée. Par exemple, la localisation peut être basée sur : la geolocalisation ; les achats de l’utilisateur dans la boutique ; un bon cadeau ou une étiquette relative à la boutique dans un portefeuille électronique ; un GPS ; un document de voyage ; ou un quelconque autre mode permettant de déterminer la localisation d’un utilisateur par leur dispositif mobile ou par des applications associées, ou par des systèmes de géolocalisation.
[000117], Si l’utilisateur est connu de la boutique, il peut avoir un profil d’utilisateur. Le profit de l’utilisateur peut permettre l’accès à une application liée au portefeuille ou portefeuille électronique sur le dispositif mobile. Si l’utilisateur a précédemment été dans la chaîne de magasins et a acheté quelque chose lors de sa dernière visite, il peut avoir un bon cadeau ou une étiquette dans le portefeuille. L’utilisateur, une fois qu’il est reconnu, pourrait ensuite être plus vraisemblablement ciblé par la présente invention. En fait, le bon cadeau ou l’étiquette peuvent constituer une commande d’offrir le jeu ou le cadeau.
[000118]. Le profil d’utilisateur peut être accédé par un quelconque fournisseur ou service en supposant que 1 utilisateur a donné les permissions nécessaires concernant sa vie privée et des paramètres d’accès. Si l’utilisateur à des paramètres qui empêchent l’accès à certaines informations le système peut être capable de demander une permission via un message approprié pour obtenir accès à une quelconque des informations refusées.
[000119]. Lorsque l’utilisateur est reconnu, une notification 404 peut apparaître dans l’écran 402 du dispositif mobile 400 de la Figure 4. L’utilisateur peut sélectionner la notification via une interaction appropriée et le système de réalité augmentée 140 est activé. La caméra sur le dispositif mobile 400 est activée et une vue de réalité augmentée 500 du voisinage local 506 est présentée à l’utilisateur, comme l’illustre la Figure 5. La vue inclut une icône 502 sous la forme d un colis avec un ruban. L’icône peut avoir une quelconque autre forme dépendant des circonstances et de la nature de l’offre. Basée sur l’interaction appropriée de l’utilisateur, le colis est ouvert est un cadeau ou un jeu avec d’autres instructions sont reçus. Dans cet exemple, 1 utilisateur peut cliquer sur le colis ou dire « ouvrir paquet » et le paquet s’ouvre et l’écran 600 de la Figure 6 s’affiche à l’utilisateur.
[000120], L’écran continue à montrer la vue de réalité augmentée 500/600 et le cadeau 602 est révélé. Dans ce cas le cadeau est une remise de 20 % sur l’accès à un salon dans l’aéroport (voir Figure 7). L’utilisateur peut interagir avec le cadeau 602 et le cadeau est stocké sur le dispositif mobile, par exemple, dans le portefeuille ou un autre lieu de stockage. L’interaction peut être un clic sur l’écran ou un autre type d’interaction. Le portefeuille ou le lieu de stockage peut être un portefeuille lié au voyage ou un autre type de lieu de stockage qui peut être stocké par exemple dans un code lisible par ordinateur, tel qu’un code-barres, un code QR ou une quelconque autre représentation du cadeau.
[000121]. Ultérieurement, l’utilisateur peut décider d’obtenir le cadeau. Ceci peut se produire de différentes façons. Dans un premier exemple, l’utilisateur peut être dans le voisinage d’une autre boutique de cosmétiques de la même chaîne, l’utilisateur peut simplement décider d’obtenir le cadeau s’étant souvenu que le cadeau est stocké dans son portefeuille sur le dispositif mobile. Dans un autre exemple, l’utilisateur peut être localisé via un autre processus de géolocalisation et une notification peut être présentée à l’utilisateur pour lui rappeler qu’il a le cadeau dans le portefeuille. L’utilisateur peut alors interagir avec la notification et le cadeau peut être montré sur l’écran du dispositif mobile de sorte que l’utilisateur peut obtenir le cadeau. Si le cadeau est stocké sous forme de code tel qu’un code-barres, un numéro ou un code QR, utilisateur a seulement besoin de présenter le dispositif mobile aux fournisseurs pour permettre aux fournisseurs de remettre le cadeau ou l’offre à l’utilisateur. Dans cet exemple, une remise de 20 % sur le prochain achat de l’utilisateur.
[000122], Dans un mode de réalisation, le cadeau peut être imprimé avant que l’utilisateur arrive pour le faire valoir. D’autres modes de communication avec la boutique ou le fournisseur indiquant que l’utilisateur a un cadeau à faire valoir peuvent aussi être utilisés.
[000123]. Dans un second cas d’utilisation, l’utilisateur peut être récompensé avec une offre pour des services gratuits sous une forme quelconque. Par exemple, si l’utilisateur est dans un restaurant et/ou que c’est l’heure du déjeuner, l’utilisateur peut être identifié par géolocalisation par un autre processus de reconnaissance d’utilisateur. Une notification apparaît à l’utilisateur et l’utilisateur interagit avec celle-ci. Le système ouvre ensuite la caméra le processus de réalité augmentée commence. L’utilisateur voit un repas sur une table dans le restaurant. Une opportunité de commander un repas gratuit au restaurant ou la possibilité de commander un repas gratuit sur un vol futur sont alors offertes à l’utilisateur si l’utilisateur agit au cours d’une période prédéterminée. La période prédéterminée peut correspondre un événement récent ou à une simple période de temps sélectionnée. Dans cet exemple, l’événement connu pourrait être la période nécessaire pour précommander un repas pour un prochain vol.
[000124]. Si 1 utilisateur accepte l’offre ou le cadeau en interagissant avec celui-ci, un code ou un bon cadeau est placé dans le portefeuille pour une rédemption future. Le cadeau ou l’offie peuvent être obtenus d’un certain nombre de façons. Par exempte, utilisateur peut présenter 1e bon cadeau au restaurant ; utiliser 1e code pour effectuer une réservation en ligne ; ou dans un aéroport, présenter leportefeuilte devant être scanné par un agent. D’autres options sont aussi possibles qui deviendront évidentes à l’homme de métier.
[000125], Au moment de payer le repas, le code du portefeuille peut être scanné soit dans un environnement de réalité augmentée où l’utilisateur a fait sa réservation en ligne, ou manuellement selon le cas. Si l’utilisateur a déjà payé, un remboursement peut se produire ou si l’utilisateur n’a pas encore payé une remise de 100 % peut être appliquée sur le prix normal. [000126]. Dans un autre exemple, il y a une campagne lancée, par exemple, pour la nouvelle route aérienne de Nice à Reykjavik par une nouvelle compagnie aérienne. Pour lancer la campagne, des billets cadeaux gratuits pour un voyage aller-retour sur la nouvelle route sont cachés « quelque part autour » de l’utilisateur. Le fait que l’utilisateur soit dans le lieu du billet caché est déterminé par géolocalisation ou par tout autre dispositif au processus de géolocalisation. Cette fois le cadeau peut être plus difficile à trouver, utilisateur devra investir du temps et de l’énergie pour le trouver. Par exemple, un certain nombre de billets physiques peuvent être cachés dans des lieux prédéterminés. Si l’utilisateur se trouve dans un des lieux prédéterminés, il peut être notifié du cadeau de la façon décrite ci-dessus. Il peut alors se livrer à un jeu de cache-cache pour trouver le billet caché. Si l’utilisateur trouve le billet, il peut ensuite le faire valoir physiquement conformément aux instructions qui sont imprimées dessus. Dans ce cas le cadeau est physique et caché dans un lieu physique prédéterminé. La Figure 8 montre une vue de réalité augmentée dans laquelle un billet peut être caché dans un arbre.
[000127]. Dans un autre mode de réalisation, le billet peut être caché de façon virtuelle et peut être trouvé en suivant les instructions virtuelles ou en interagissant avec l’écran pour jouer le jeu requis afin de trouver un billet virtuel dans l’environnement de réalité augmentée. À nouveau, si l’utilisateur trouve le billet, il peut interagir avec le billet virtuel pour le sauvegarder dans le portefeuille afin de le faire valoir plus tard en personne, en ligne ou virtuellement. Le nombre des billets prédéterminés peut être caché soit physiquement, soit virtuellement ou des deux façons combinées. Lorsque par exemple dix billets ont été trouvés, le cadeau peut disparaître et aucune autre notification n’est donnée aux utilisateurs, même s’ils se trouvent dans un lieu pertinent. [000128]. Dans les exemples donnés ci-dessus, le jeu peut impliquer de se déplacer dans une aire afin de recevoir des notifications qui sont dans l’aire et ensuite d’interagir de la façon décrite ci-dessus. Dans d’autres exemples, des jeux différents dans des lieux différents peuvent provoquer la notification d’un cadeau ou la notification qu’un cadeau a été gagné, selon le cas. Dans le premier cas, comme décrit ci-dessus, la première notification comme celle montrée par exemple dans la Figure 4 peut simplement lire « vous avez gagné un prix, cliquez pour l’accepter ». Dans ce cas, le processus continue de la façon décrite dans les 2 premiers exemples ci-dessus.
[000129]. Dans un mode de réalisation, il peut y avoir un élément supplémentaire entre le moment de la notification du cadeau et le moment de sa réception. Cela peut prendre la forme d’un jeu. Le jeu peut être très simple et simplement demander une interaction avec l’écran, ou il peut être plus complexe. Le jeu peut être utilisé par le fournisseur du jeu afin d’amener l’utilisateur dans certains lieux et/ou points d’intérêt. Par exemple, l’utilisateur peut être invité à participer à un jeu pour recevoir le prix ou le cadeau. Si l’utilisateur accepte, il peut être invité à reahser des étapes dans un jeu ou à compléter un puzzle, ou autre action similaire. Dans le premier cas, l’utilisateur peut, par exemple, être invité à suivre une certaine route, étant guidé vers celle-ci au cours de l’expérience de réalité augmentée. Si l’utilisateur réussit à suivre la route, il reçoit le cadeau qui est ensuite traité et saisi pour rédemption de la façon décrite ci-dessus. Au fur et à mesure que l’utilisateur suit la route, la boutique, ou le fournisseur, peut par ailleurs montrer à l’utilisateur des marchandises et des services qui pourraient l’intéresser, par exemple, sur la base du profil de l’utilisateur. Ainsi, en participant au jeu, l’utilisateur est encouragé à regarder plus de produits et de services qu’il ne l’aurait été autrement. De cette façon, la boutique ou le fournisseur met en place une commercialisation et une vente ciblées.
[000130], Le jeu consiste essentiellement d’une ou de plusieurs desinteractions menées à bien par l’utilisateur dans la poursuite du cadeau ou des prix. Les interactions peuvent provenir juste de l’utilisateur ou peuvent être une combinaison d’interactions entre l’utilisateur et le système. La combinaison des actions peut prendre la forme d’un jeu devant être joué juste par l’utilisateur ou avec d’autres utilisateurs ou avec le système, selon le cas. Ladite une plusieurs interactions peuvent prendre un nombre de formes différentes et dépendre du jeu et du cadeau qui en découle. Par exemple, l’interaction peut être simple si le jeu est simple et plus complexe si le jeu est complexe ou que le cadeau est substantiel. Pour une version simple, le jeu peut requérir un ou plusieurs clics ou interactions afin de gagner le cadeau. Dans un jeu plus complexe, il peut y avoir plusieurs interactions (p. ex. une série d’interactions) et l’utilisateur peut être obligé d’entrer des informations via un ou plusieurs dispositifs de saisie. Les interactions peuvent être utilisées par le système pour en apprendre davantage sur l’utilisateur. Ladite une plusieurs interactions peuvent etre utilisées pour définir un jeu ou un processus pour recevoir un cadeau ou un prix. Le terme «jeu » utilisé dans les présentes est censé inclure à la fois les processus pour recevoir un cadeau ou un prix par le biais d’une ou de plusieurs interactions, ou une série d’interactions plus complexes lorsque l’utilisateur participe à un jeu plus complexe.
[000131]. Le système utilisera un processus pour déterminer si l’utilisateur a complété le jeu avec succès et peut donc recevoir le cadeau. Ce processus peut comparer l’interaction de utilisateur avec une séquence prédéterminée de réponses qui aboutiraient en un jeu réussi. Il peut y avoir nombre de séquences prédéterminées differentes qui aboutiraient en un jeu gagné. Une séquence prédéterminée de réponses peut s’avérer être une seule réponse. De plus, l’utilisateur peut gagner le jeu en complétant certaines, mais pas toutes de ladite une ou plusieurs réponses prédéterminées.
[000132], Dans un autre mode de réalisation, la première notification peut exiger que l’utilisateur s’adonne à un jeu dans le premier cas. Le message peut lire : « Voulez-vous participer à un jeu : Il y a un prix à proximité ». Si l’utilisateur est d’accord, le jeu peut commencer et en complétant le jeu l’utilisateur peut gagner le cadeau ou le prix. Le jeu peut être un jeu de cachecache comme décrit ci-dessus ou peut être d’autres jeux. Dans un mode de réalisation préférée, les jeux peuvent etre utilisés pour déterminer des informations concernant l’utilisateur que la boutique ou le fournisseur peuvent utiliser pour pousser certaines marchandises ou certains services afin de cibler l’utilisateur dans le futur lorsque certaines offres ou certains cadeaux sont disponibles.
[000133], Le jeu peut inclure des liens vers des produits qui pourraient intéresser l’utilisateur.
Tout en participant au jeu, des marchandises ou des services intéressants peuvent être montrés à l’utilisateur dans l’environnement ou au cours de l’expérience de réalité augmentée. Les marchandises et services peuvent être réels ou virtuels. L’utilisateur peut ensuite ajouter des marchandises ou des services dans un chariot ou les acheter immédiatement. Par exemple, si 1 utilisateur joue a un jeu de cache-cache, les marchandises et les services présentant un intérêt pour l’utilisateur peuvent surgir sous la forme de dessin animé au fur et à mesure que l’utilisateur passe devant le comptoir où ils sont mis en vente. Dans un autre exemple, si l’utilisateur complète un jeu de mots croisés, des solutions peuvent être sa boisson favorite. La boisson peut surgir accompagner d’une carte ou l’utilisateur peut obtenir la boisson. Les combinaisons et les possibilités sont nombreuses et variées.
[000134], Les jeux peuvent être ajustés pour être en harmonie avec les cadeaux ou peuvent n avoir aucun rapport. Dans le premier cas, il y a plus de probabilités que le fournisseur ou la boutique en apprenne davantage sur l’utilisateur. Les jeux peuvent inclure : un jeu de mots ou des mots croisés ; un jeu de chiffre, tel que par exemple un Sudoku® ; un puzzle d’assemblage ; un jeu de cartes ; un casse-tête de logique ; un jeu vidéo ; un jeu informatique ou tout autre jeu pertinent.
[000135]. Comme décrit précédemment, la vue augmentée 500 peut fournir des informations intégrées basées sur un utilisateur et/ou des informations de localisation concernant le porteur du dispositif de réalité augmentée (p. ex. le dispositif de réalité augmentée 145 de la Figure 1). Par exemple, comme démontré dans la Figure 5, le dispositif de réalité augmentée peut détecter, en utilisant des informations de mouvement (p. ex. de l’IMU 340), que l’utilisateur se déplace à travers un certain environnement. Le dispositif de réalité augmentée peut transmettre la localisation de l’utilisateur dans l’aéroport, des informations de mouvement et les informations d’identification de l’utilisateur au serveur de réalité augmentée (p. ex. le serveur de réalité augmentée 140 de la Figure 1). Le serveur de réalité augmentée peut récupérer les informations de profil concernant l’utilisateur ainsi que des informations relatives à l’aéroport et à la localisation de l’utilisateur (p. ex. en utilisant l’API 130 de la Figure 1). Les informations récupérées par le système de réalité augmentée peuvent être combinées avec les informations d’utilisateur de l’utilisateur et/ou des informations de localisation pour fournir les éléments graphiques montrés sur la vue augmentée 400. Dans certains modes de réalisation, les éléments graphiques particuliers peuvent être fournis en partie par le moteur d’analyse prédictive 118 et peuvent être ajustés sur mesure à l’utilisateur sur la base de son profil, ou filtrés sur la base du comportement passé de l’utilisateur.
[000136]. Dans certains modes de réalisation, le système de réalité augmentée 140 peut par ailleurs récupérer des informations concernant la localisation de l’utilisateur qui incluent des points de passage, des barrières virtuelles et des agencements associés à la localisation à partir de sources de données disponibles via l’API 130. En utilisant ces informations, le système de réalité augmentée 140 peut calculer un chemin de navigation (non illustré) pour que l’utilisateur soit guidé vers la boutique pour trouver le cadeau. Le chemin de navigation peut être transmis à partir du dispositif de réalité augmentée 145 et peut être affiché sur la vue augmentée 500. Dans certains modes de realisation, le système de réalité augmentée 140 peut calculer les éléments visuels nécessaires pour le chemin augmenté 401 et les transmettre directement au dispositif de réalité augmentée 145. Dans d’autres modes de réalisation, le système de réalité augmentée peut transmettre des données brutes au dispositif de réalité augmentée 145 et le dispositif de réalité augmentée 145 peut déterminer la superposition graphique nécessaire pour produire le chemin de navigation.
[000137], Dans certains modes de réalisation, le système de réalité augmentée 140 peut par ailleurs saisir des informations visuelles à partir du dispositif de réalité augmentée 145 (p. ex. en utilisant la caméra 324). Le système de réalité augmentée 140 peut par ailleurs traiter les données visuelles afin de fournir un évitement d’objets qui sont visibles à partir des données de caméra, mais ne sont pas disponibles via les sources de données disponibles fournies par l’API 130. Par exemple, ces informations visuelles pourraient inclure des barrières temporaires, des personnes, une construction ou d’autres obstacles qui exigeraient un chemin alternatif. Au fur et à mesure que 1 utilisateur se déplace dans le voisinage, des données peuvent être fournies de façon continue au système de réalité augmentée 140 et le système de réalité augmentée 140 peut traiter et analyser de façon continue ces données pour déterminer les obstructions ou les obstacles potentiels. Le système de réalité augmentée 140 peut ensuite mettre à jour le chemin de navigation affiché sur la vue augmentée 500 au fur et à mesure que l’utilisateur avance vers le cadeau.
[000138]. Le flux continu d’informations concernant le monde réel, les obstacles et la cible de destination visée (p. ex. la porte de destination) peut permettre au système de réalité augmentée 140 de fournir continuellement un chemin de navigation actualisé pour le dispositif de réalité augmentée 145 afin de l’afficher sur la vue augmentée 500. En outre, les données acquises via le dispositif de réalité augmentée 145 peuvent être renvoyées au système de réalité augmentée 140. Ces informations peuvent à leur tour être fournies, par exemple, aux sources de données propriétaires 110 via 1ΆΡΙ 130. Les données peuvent ensuite être utilisées pour permettre à d’autres individus de voir les mêmes obstacles. Ce retour d’information en boucle peut renforcer l’efficacité et l’efficience du système en approvisionnant des informations actualisées concernant les obstacles en provenance de multiples utilisateurs actifs du système de réalité augmentée 140. En outre, le système de réalité augmentée 140 peut comparer les informations visuelles avec les informations de mouvement à partir du dispositif de réalité augmentée 145 pour identifier les obstacles qu’un utilisateur a évités et qui n’étaient pas précédemment déterminés comme étant des obstacles. De cette façon, le système de réalité augmentée peut améliorer identification des obstacles pour une future génération de chemin en apprenant de façon efficace quelles formes ou images visuelles pourraient correspondre à des obstacles.
[000139], De plus, le système de réalité augmentée 140 peut déterminer la boutique préférée de 1 utilisateur, sur la base de profil d’utilisateur récupéré pour l’utilisateur via 1ΆΡΙ130. Afin d’assister l’utilisateur, le système de réalité augmentée 140 peut récupérer les lieux de voisinage liés à la boutique favorite. Cette information peut être combinée avec les calculs pour le chemin de navigation et le système de réalité augmentée 140 peut fournir la localisation des boutiques tout au long du chemin de l’utilisateur.
[000140]. En outre, dans certains modes de réalisation, le système de réalité augmentée peut accéder au moteur d’analyse prédictive 118, à l’histoire des achats passés associés à l’utilisateur et reconnaître que l’utilisateur apprécie faire du shopping dans la boutique hors-taxes, et qu’il apprécie de manger dans un restaurant particulier. Le système de réalité augmentée 140 peut récupérer les informations de lieux hors-taxes et des notations ainsi que les informations de localisation du restaurant et les notations via l’API 130 et fournir ces informations au dispositif de reahte augmentée 145. Le dispositif de réalité augmentée peut afficher les lieux et les notations pour les boutiques hors-taxes pertinentes et les restaurants sur la vue augmentée 500 selon le besoin.
[000141], Dans certains modes de réalisation, le système de réalité augmentée 140 peut par ailleurs utiliser les informations de profil de l’utilisateur afin de déterminer que l’utilisateur ne mange qu’au restaurant The Galley Diner lorsqu’il est dans un lieu particulier. Par conséquent, en utilisant les informations de profil, le système de réalité augmentée 140 peut filtrer les informations et fournir au dispositif de réalité augmentée 145 seulement les localisations pour The Galley Diner et aucune autre information de restaurant. Dans certains modes de réalisation, le système de réalité augmentée 140 peut mettre en avant The Galley Diner par rapport aux autres restaurants. En outre, dans certains modes de réalisation, le système de réalité augmentée 140 peut récupérer des recommandations de restaurant à partir du moteur d’analyse prédictive 118 sur la base des choix de restaurant de l’utilisateur dans le passé. En analysant par exemple les données relatives au choix de restaurant par des individus qui préfèrent The Galley Diner, le moteur d’analyse prédictive peut fournir au système de réalité augmentée 140 des recommandations de choix de restaurants qui plairaient probablement à l’utilisateur.
[000142], Par cette intégration, l’utilisateur reçoit une vue augmentée 500 entièrement en diapason avec ses préférences particulières plutôt que de recevoir un déluge de toutes informations disponibles comme c’est le cas avec les systèmes de réalité augmentée conventionnelle.
[000143], En outre, le dispositif de réalité augmentée 145 et le système de réalité augmentée 140 peuvent fournir un retour d’information basé sur les actions des utilisateurs. En s appuyant sur l’exemple précédent, si l’utilisateur décide d’entrer dans The Galley Diner, les actions de l’utilisateur peuvent être saisies par le dispositif de réalité augmentée 145 et fournies au système de réalité augmentée 140. Le système de réalité augmentée 140 peut mettre à jour les sources de données propriétaires 110 via l’API 130. Lorsque le système de réalité augmentée 140 interroge l’API 130 pour des informations supplémentaires, l’API 130 peut, en utilisant par exemple le moteur d’analyse prédictive 118 et les informations précédentes concernant ce que l’utilisateur a déjà mangé, fournir des données au système de réalité augmentée 140 qui n’incluent pas de localisation de restaurants ou de recommandations. Dans certains modes de réalisation, le moteur d’analyse prédictive 118 peut déterminer que l’utilisateur apprécie typiquement un café à la fin d’un repas et par conséquent, peut inclure des informations relatives aux cafés dans les informations fournies au système de réalité augmentée 140. De façon similaire, ce type d’information peut être saisi alors que l’utilisateur interagît dans les jeux cités en exemples cidessus.
[000144], Le dispositif de réalité augmentée 145 peut afficher de diverses manières les informations à l’utilisateur. Par exemple, les processus de superpositions graphiques peuvent être utilises de sorte qu’ils produisent une impression de perspective. Le dispositif de réalité augmentée 145 peut aussi fournir des informations d’utilisateur spécifiques à un contexte au système de réalité augmentée 140. Par exemple, le dispositif de réalité augmentée 145 peut fournir de façon continue des informations de localisation au serveur de réalité augmentée 140. Lorsque le serveur de réalité augmentée 140 détecte que l’utilisateur est arrivé à un lieu et à arrêter de bouger, le serveur de réalité augmentée 140 peut interroger l’API 130 pour récupérer des informations spécifiques à l’utilisateur et à la localisation. Cette information peut inclure les informations de profil de l’utilisateur ainsi que les prestations disponibles près de la localisation. [000145]. Le système de réalité augmentée 140 combine les informations de profil de l’utilisateur, les informations de localisation et les informations de jeux de sorte que l’utilisateur peut se divertir et interagir d’une manière qui permet aux fournisseurs ou aux boutiques d’en apprendre davantage sur l’utilisateur. Cette information peut être déterminée par exemple, par le moteur d’analyse predictive 118 et fournie au système de réalité augmentée 140 via l’API 130. L analyse predictive ou les achats passés, ou l’histoire peuvent révéler que l’utilisateur apprécie les mots croisés. Par conséquent, le système de réalité augmentée 140 peut prescrire que tout jeu présenté à l’utilisateur implique des jeux de lettre. Le système de réalité augmentée 140 peut fournir cette information au dispositif de réalité augmentée 145 qui peut afficher les options. [000146], Ainsi que décrit précédemment en référence à la Figure 3A, l’utilisateur peut décider de visionner les cadeaux qui lui sont offerts. S’il est déterminé que l’utilisateur est en train d’effectuer un achat qui nécessite un paiement, le système de réalité augmentée peut utiliser les informations de paiement stockées pour l’utilisateur, à, la demande de l’utilisateur, pour acheter les marchandises ou les services. Lors d’un achat réussi, le système de réalité augmentée 140 peut fournir les marchandises ou services sélectionnés au dispositif de réalité augmentée 145 pour un affichage a l’endroit approprié. Dans certains modes de réalisation, le dispositif de réalité augmentée 145 peut recevoir l’autorisation appropriée et les justificatifs d’identification et ceux-ci peuvent etre stockés dans le portefeuille pour une rédemption future si nécessaire.
[000147], La Figure 9 montre un portefeuille électronique affiché sur un écran tel que l’écran 402 du dispositif mobile 400. L’utilisateur peut interagir avec le portefeuille électronique pour faire valoir des cadeaux ou des offres. La Figure 10 montre une page de paiement en ligne qui affiche un système d’offre de paiement d’un portefeuille dans lequel l’utilisateur peut faire valoir des cadeaux ou des offres reçues par l’intermédiaire d’un processus de la présente invention. La Figure 11 montre une vue de réalité augmentée représentant comment un utilisateur peut visionner un code QR en utilisant son dispositif de réalité augmentée. Ce code QR peut être utilisé pour acheter des marchandises ou des services à titre d’exemple.
[000148], Comme indiqué précédemment, la vue de réalité augmentée 500 peut être affichée sur un écran 402 ou un dispositif mobile (qui peut représenter une autre forme de dispositif de réalité augmentée 145 de la Figure 1). Le dispositif de réalité augmentée dans ce cas peut être une tablette qui inclut un projecteur ou qui communique avec des lunettes de réalité augmentée utilisées par l’utilisateur.
[000149]. Dans certains modes de réalisation, sur la base des préférences et des informations du profil d’utilisateur relatives à des modes d’utilisation historiques, ou déterminées par le moteur d’analyse prédictive 118, le système de réalité augmentée 140 peut filtrer les données et les offres qui pourraient être inutiles ou indésirables pour l’utilisateur.
[000150]. La Figure 12 est un organigramme d’un procède exemplaire pour une intégration de données améliorées dans des systèmes de réalité augmentée, conformes à des modes de réalisation de laprésente invention. On comprendra aisément que la procédure illustrée peut être modifiée pour supprimer des étapes ou encore pour inclure des étapes supplémentaires. On doit comprendre qu’un ou plusieurs dispositifs informatiques (tels que le système de la Figure 2 ou le dispositif électronique de la Figure 3) peuvent mettre en œuvre le procédé exemplaire et que la fonctionnalité décrite dans les présentes peut être intégrée comme matériel, logiciel stocké dans ledit un ou plusieurs dispositifs informatiques, ou toutes combinaisons de ceux-ci.
[000151]. Au cours d’une première étape 1200, le système (p. ex. le système de réalité augmentée 140 de la Figure 1) peut identifier les informations d’utilisateur et de localisation d’un dispositif de réalité augmentée (p. ex. le dispositif mobile 400 de la Figure 4 ou le dispositif de réalité augmentée 145 de la Figure 1) associé à l’utilisateur. L’étape de localisation d’un utilisateur peut inclure les informations de profil spécifiques concernant l’utilisateur du dispositif de réalité augmentée. De plus, les informations de localisation de l’utilisateur peuvent inclurent des informations de divers capteurs sur le dispositif de réalité augmentée (p. ex., GPS 309, IMU 340 et de la camera du dispositif mobile, etc.). Les informations de localisation peuvent être basées par exemple sur la géolocalisation, un GPS (p. ex. le GPS 309), ou récupérées à partir d’une infrastructure en réseau (p. ex. via des communications sans fil 306). Le système de réalité augmentée peut recevoir cette information sur un réseau (p. ex. via les communications sans fil 306 de la Figure 3A) du dispositif de réalité augmentée.
[000152], Le système de réalité augmentée peut aussi obtenir à l’étape 1200 une pluralité d ensembles de données associées à l’utilisateur à partir d’une pluralité de sources de données (p. ex., la base de données 111, la source de données 113, la base de données 115, le système de données 116, la base de données 117 et le moteur d’analyse prédictive 118, les données de cartes 121, les données météorologiques 127, les données de vol 129, les données de notations 123 et les données de localisation 125) sur la base des informations d’utilisateur et/ou de localisation (p. ex. en utilisant ΓΑΡΙ 130). Les informations d’utilisateur et de localisation du dispositif de réalité augmentée peuvent fournir une base pour le filtrage de la pluralité des sources de données. Les informations d’utilisateur et de localisation peuvent inclure des informations d’identification concernant le dispositif de réalité augmentée, telles qu’un numéro de série ou un identifiant unique ainsi qu’une localisation, une orientation, un mouvement et d’autres informations concernant l’état actuel du dispositif de réalité augmentée. En utilisant ces informations d’utilisateur et de localisation, le système peut récupérer des ensembles de données qui fournissent des informations détaillées concernant 1 utilisateur (p. ex., en utilisant l’API 130) qui ne sont généralement pas disponibles à partir du dispositif de réalité augmentée lui-même. Par exemple, les informations de profil peuvent inclure des achats récents, des jeux préférés, des fournisseurs préférés et d’autres informations qui ne sont pas aisément disponibles au système de réalité augmentée.
[000153], A l’étape 1202, l’utilisateur est notifié d’un cadeau ou d’un jeu. Le cadeau ou le jeu peut être présenté à l’utilisateur sur l’écran associé au dispositif mobile ou de quelconque autre manière appropriée. L’utilisateur peut ensuite interagir avec la notification à l’étape 1204. Si l’utilisateur n’interagit pas avec la notification, les processus vont s’interrompre à ce stade. Selon la nature du cadeau ou du jeu, Γ utilisateur peut être contacté à nouveau à un moment ou dans un lieu différent, ou le cadeau ou le jeu peuvent n’être plus jamais vus par l’utilisateur. Si l’utilisateur interagit avec la notification à l’étape 1204, il est possible de demander à l’utilisateur de participer au jeu, ou de recevoir le cadeau à l’étape 1206. Les interactions peuvent former une ou plusieurs interactions qui définissent un jeu ou une victoire pour gagner un cadeau ou un prix comme décrit ci-dessus.
[000154]. À 1 étape 1208,1 utilisateur accepte le cadeau ou donne son accord pour participer au jeu. L’utilisateur entreprend ensuite de participer au jeu à l’étape 1210. Toutes les interactions de l’utilisateur au cours des diverses étapes génèrent une information concernant utilisateur qui est ensuite acquise par le système à l’étape 1212.
[000155], Comme décrit ci-dessus, la complexité du processus et l’interaction entre le système et l’utilisateur va dépendre de la nature exacte de l’offre du fournisseur. Dans le plus simple des cas, le jeu consiste simplement à sélectionner le cadeau et à en prendre possession à l’étape 1214. Dans ce cas le plus simple, les étapes 1210 et 1212 ne sont pas nécessairement mises en œuvre.
[000156]. Après que le cadeau a été collecté, il peut être stocké pour une rédemption future à 1 etape 1216. Si le cadeau est un cadeau physique ou comprend un bon comme pour l’exemple du billet ci-dessus, le stockage peut être physique. Dans le cas d’un code ou d’un autre cadeau « virtuel », celui-ci peut être stocké dans un portefeuille électronique ou autre stockage sur le dispositif mobile.
[000157]. Les Figures 13 à 15 sont des organigrammes respectivement d’un premier, second et troisième cas d’utilisateur comme décrites de façon approfondie ci-dessus. Lorsque les mêmes faits sont mis en œuvre pour chaque cas d’utilisateur, la description est la même pour chaque cas d’utilisateur et n’est pas répétée par souci de compréhension. Lorsque les étapes sont différentes, elles seront décrites pour le cas d’utilisateur respectif en référence à la figure pertinente.
[000158]. Faisant référence à la Figure 13, dans un premier cas d’utilisateur, une notification est reçue à une étape 1300. L’utilisateur clique sur la notification à l’étape 1302 et le moteur de réalité augmentée commence à l’étape 1304. Un cadeau apparaît à l’étape 1306. L’utilisateur clique ensuite sur le cadeau a l’étape 1308 et le cadeau s’ouvre à l’étape 1310, par exemple sous forme d’une fenêtre contextuelle sur l’écran. Dans un mode de réalisation, l’image d’un cadeau emballé s’ouvre pour révéler une offre, un bon cadeau ou un autre cadeau. Le cadeau est ensuite associé à une référence dans la machine de réalité augmentée à l’étape 1312. L’association peut être avec un code, un code-barres, un montant, un bon cadeau, un coupon ou autre association pertinente. La référence du cadeau est ensuite stockée dans un portefeuille électronique ou l’équivalent à l’etape 1314. Les autres lieux du stockage peuvent inclure le « nuage », une application, une liste, un courriel, un texte ou autre mécanisme de stockage pertinent. Plus tard, l’utilisateur peut décider de faire valoir le cadeau à l’étape 1316. Ceci peut donner lieu un certain nombre d’autres actions incluant, mais sans s’y limiter, les étapes 1318, 1320 et 1322. À l’étape 1318, l’utilisateur peut s’approprier le cadeau en ligne en utilisant le code du portefeuille à un lieu de paiement. À l’étape 1320, l’utilisateur peut s’approprier le cadeau hors connexion en utilisant le code du portefeuille à un lieu de paiement. À l’étape 1318, l’utilisateur peut s’approprier le cadeau en utilisant un processus de paiement augmenté.
[000159], Faisant référence à la Figure 14, dans le second cas d’utilisateur, l’utilisateur est localisé à l’un d’un nombre spécifique de lieux à l’étape 1400. Les étapes 1300 à 1304 sont ensuite mises en œuvre comme pour le premier cas d’utilisateur. À l’étape 1402, le cadeau est contextualisé par rapport à la localisation de l’utilisateur et apparaît en réalité augmentée. Les étapes 1308 à 1314 sont ensuite mises en œuvre comme pour le premier cas d’utilisateur. À l’étape 1404, l’utilisateur est maintenant localisé à proximité d’une boutique de cosmétiques à un second lieu et une autre notification est envoyée à l’utilisateur pour lui rappeler le cadeau sur les produits hors-taxes. Si l’utilisateur décide de faire valoir les cadeaux à l’étape 1316, l’étape 1406 est mise en œuvre dans laquelle 1 utilisateur effectue un achat. Le cadeau est obtenu par tout processus approprié tel que décrit précédemment.
[000160]. Faisant référence maintenant à la Figure 15, le troisième cas d’utilisateur se déroule comme suit. Les étapes 1300 à 1304 sont mises en œuvre comme pour le premier cas d’utilisateur. À l’etape 1500, des cadeaux en nombre limité sont cachés quelque part dans la réalité augmentée ou dans le monde réel. L’utilisateur décide de chercher le cadeau, ou de participer au jeu selon le cas, à l’étape 1502. Si l’utilisateur trouve le cadeau à l’étape 1504, notamment avant que les cadeaux aient tous été revendiqués par d’autres, le processus continue. Si l’utilisateur ne trouve pas le cadeau ou qu’il trouve le cadeau après que le nombre de cadeaux alloué ait été trouvé par 1 utilisateur lui-meme ou d’autres utilisateurs, le processus s’arrête. Si l’étape 1504 est réussie, les étapes 1308 à 1316 sont mises en œuvre comme pour le premier cas d’utilisateur. L’étape 1316 peut donner heu a un certain nombre d’autres actions incluant, sans s’y limiter, les étapes 1506 et 1508. À l’étape 1506, l’utilisateur peut effectuer l’achat du cadeau en ligne en utilisant le code du portefeuille à un lieu de paiement qui peut être un lieu physique ou un lieu de paiement virtuel. À l’étape 1508, l’utilisateur peut effectuer l’achat du cadeau hors connexion en utilisant le code du portefeuille à un lieu de paiement.
[000161], Bien que les systèmes précédents aient été décrits dans le cadre d’un contexte de jeux de réalité augmentée, le système peut être utilisé dans de nombreux domaines différents. Les caractéristiques utilisées et les données qui sont incorporées peuvent être basées sur le domaine spécifique dans lequel les modes de réalisation divulgués sont déployés.
[000162], La Figure 16 montre un exemple des interactions au niveau du système d’un système exemplaire conforme à la présente invention. Un dispositif mobile 1600 est en communication avec la machine de réalité virtuelle (dans cette figure, montrée sous la référence 1602). Cette combinaison de dispositifs peut communiquer avec de nombreux autre systèmes et processus. Par exemple, il peut y avoir une interaction avec un processus de gestion d’expérience client ou avec le système 1604. Cela peut être utilisé pour influencer le contenu des offres et des cadeaux sur la base, par exemple, d’un profil d’utilisateur. Il peut aussi y avoir des interactions avec une plateforme de commercialisation 1606 qui permet de faire des recommandations de cadeaux devant être associés à un utilisateur et lui être présentés.
[000163], Dans la spécification ci-dessus, les modes de réalisation ont été décrits en référence à de nombreux détails spécifiques qui peuvent varier d’une implémentation à une autre implementation. Certaines adaptations et modifications des modes de réalisation décrits peuvent etre réalisées. D’autres modes de réalisation seront apparents aux hommes de métier en tenant compte de la spécification et de la pratique des modes de réalisation révélés qui sont divulgués dans les présentes. La spécification et les exemples doivent être considérés à titre exemples uniquement. De meme, la sequence d’étapes montrée dans les figures est censée servir d’illustration et n’est pas censée se limiter à une quelconque séquence particulière d’étapes. Par conséquent, l’homme de métier comprendra que ces étapes peuvent être effectuées dans un ordre différent tout en implémentant le même procédé.

Claims (11)

  1. REVENDICATIONS
    1. Un procédé mis en œuvre par un ou plusieurs processeurs dans un système informatique de réalité augmentée, le procédé comprenant :
    la communication avec un appareil de réalité augmentée ;
    1 obtention d informations de localisation associées à la localisation d’un utilisateur à partir du dispositif de réalité augmentée ;
    1 obtention d informations de T utilisateur relatives à au moins une ou plusieurs préférences de T utilisateur ;
    1 obtention d informations relatives au dispositif et d’informations relatives aux capteurs à un serveur à partir de la réalité augmentée, dans lequel les informations relatives au dispositif sont associées au dispositif de réalité augmentée et les informations relatives aux capteurs sont recueillies par des capteurs du dispositif de réalité augmentée ;
    l'obtention d’informations relatives à l’affichage, dans lequel les informations d’affichage sont déterminées sur la base d’une analyse des informations de dispositif, des informations de capteurs et d’un ou plusieurs ensembles de données associées au dispositif de réalité augmentée, l'analyse comprenant la détermination de la pertinence des informations d’affichage par rapport à un champ visuel visible via un port de visualisation du dispositif de réalité augmentée ;
    en réponse à 1 obtention d'informations d’affichage, l’affichage, par l’intermédiaire d’un adaptateur d’affichage, d’une superposition graphique représentant des données d’affichage sur le port de visualisation ;
    l’implication d’un utilisateur dans une ou plusieurs interactions sur la base d’une notification d’un tiers et au moins une des informations associées à la localisation de l’utilisateur ainsi que l’information relative à une ou plusieurs préférences de l’utilisateur ;
    l’obtention d’informations supplémentaire concernant l’utilisateur en saisissant ladite une ou plusieurs interactions de l'utilisateur ;
    la comparaison de ladite une ou plusieurs interactions avec une séquence prédéterminée d’interactions ;
    revendications modifiées copie au propre l’affichage d’une représentation d’un cadeau à l’utilisateur si l’étape de comparaison détermine que ladite une ou plusieurs interactions correspondent à la séquence prédéterminée d’interactions ;
    la remise du cadeau représenté à l’utilisateur ; et la mise ajout dudit un ou de plusieurs ensembles de données avec les informations obtenues à partir du dispositif de réalité augmentée.
  2. 2. Le procédé de la revendication 1, comprenant d’établir si la localisation de
    1 utilisateur a une relation prédéterminée avec une localisation prédéterminée et si la relation prédéterminée est établie, l’affichage de la représentation du cadeau.
  3. 3. Le procédé de la revendication 1 ou 2, comprenant par ailleurs l’affichage d’une notification à un utilisateur avec des informations relatives à une ou plusieurs interactions que 1 utilisateur doit effectuer, la notification étant basée sur au moins une des informations de
    1 utilisateur, des informations supplémentaires et des informations de localisation.
  4. 4. Le procédé de la revendication 3, dans lequel la remise du cadeau à l’utilisateur comprend le stockage du cadeau dans un portefeuille virtuel sur le dispositif mobile.
  5. 5. Le procédé d’une quelconque des revendications précédentes, dans lequel le cadeau est sous la forme d’un bon à faire valoir auprès d’un tiers prédéterminé.
  6. 6. Le procédé de la revendication 5, dans lequel le bon a la forme d’un code lisible par ordinateur.
  7. 7. Le procédé de la revendication 5 ou de la revendication 6, dans lequel on peut faire valoir le cadeau contre présentation du bon auprès du tiers.
    revendications modifiées copie au propre
  8. 8. Le procédé d’une quelconque des revendications précédentes, dans lequel les interactions prédéterminées comprennent de guider l’utilisateur sur un chemin prédéterminé pour trouver le cadeau.
  9. 9. Le procédé de la revendication 8, dans lequel le chemin prédéterminé passe par des marchandises ou des services associés au cadeau.
  10. 10. Un système pour apporter une réalité augmentée comprenant :
    une mémoire pour stocker les informations relatives à au moins une localisation et une préférence d’un utilisateur ;
    un ou plusieurs processeurs configurés pour :
    communiquer avec un appareil de réalité augmentée ;
    obtenir des informations de localisation associées à une localisation d’un utilisateur à partir du dispositif de réalité augmentée ;
    obtenir des informations de 1 utilisateur relatives à au moins une ou plusieurs préférences de l’utilisateur ;
    obtenir des informations relatives au dispositif et d’informations relatives aux capteurs à un serveur à partir de la réalité augmentée, dans lequel les informations relatives au dispositif sont associées au dispositif de réalité augmentée et les informations relatives aux capteurs sont recueillies par des capteurs du dispositif de réalité augmentée ;
    obtenir des informations relatives à l’affichage, dans lequel les informations d’affichage sont déterminées sur la base d’une analyse des informations de dispositif, des informations de capteurs et d un ou plusieurs ensembles de données associées au dispositif de réalité augmentée, l'analyse comprenant la détermination de la pertinence des informations d’affichage par rapport à un champ visuel visible via un port de visualisation du dispositif de réalité augmentée ;
    en réponse à l'obtention d'informations d’affichage, afficher, par l’intermédiaire d’un adaptateur d’affichage, une superposition graphique représentant des données d’affichage sur le port de visualisation ;
    4 revendications modifiées copie au propre impliquer un utilisateur dans une ou plusieurs interactions basées sur une notification d’un tiers et au moins une des informations associées à la localisation de Γ utilisateur ainsi que les informations relatives à une ou plusieurs des préférences de l’utilisateur ;
    obtenir des informations supplémentaire concernant l’utilisateur en saisissant ladite une ou plusieurs interactions de l'utilisateur ;
    comparer ladite une ou plusieurs interactions avec une séquence prédéterminée d’interactions ;
    afficher une représentation de cadeau à l’utilisateur si l’étape de comparaison détermine que ladite une ou plusieurs interactions correspondent à la séquence prédéterminée d’interactions ; remettre le cadeau représenté à l’utilisateur ; et mettre à jour ledit un ou de plusieurs ensembles de données avec les informations obtenue à partir du dispositif de réalité augmentée.
    H. Un dispositif de réalité augmentée pour une utilisation avec le système de la revendication 10, comprenant par ailleurs :
    un afficheur ayant un champ visuel ;
    une unité de mouvement par inertie configurée pour détecter des mouvements ou des orientations du dispositif de réalité augmentée, dans laquelle l'unité de mouvement par inertie utilise des capteurs pour recueillir des informations ;
    un stockage de données configuré pour stocker des informations relatives au dispositif associées au dispositif de réalité augmentée et des informations relatives aux capteurs, dans laquelle les informations relatives aux capteurs sont recueillies par les capteurs du dispositif de réalité augmentée ;
    une interface de réseau configurée pour :
    transmettre un premier ensemble de données à un serveur dans lequel le premier ensemble de données inclut des informations de dispositif et des informations de capteurs et dans lequel le serveur combine les informations de dispositif et les informations de capteurs avec un ou plusieurs ensembles de données parmi une pluralité de sources de données associées au dispositif de réalité augmentée, et revendications modifiées copie au propre acquérir un deuxième ensemble de données d’un serveur dans lequel le deuxième ensemble de données inclut des données d’affichage, dans lequel les données d’affichage sont déterminées sur la base d’une analyse des informations de dispositif, des informations de capteurs et d un ou de plusieurs ensembles de données, l'analyse comprenant la détermination de la pertinence des informations d’affichage par rapport à un champ visuel du dispositif de réalité augmentée ; et un adaptateur d’affichage configuré pour fournir un affichage superposé qui inclut les données d’affichage du deuxième ensemble d’informations de données sur un port de visualisation.
  11. 12. Un support de stockage lisible par ordinateur, non transitoire, stockant des instructions qui sont exécutables par un système informatique de réalité augmentée incluant un ou plusieurs processeurs pour amener le système informatique de réalité augmentée à mettre en œuvre un procédé afin de fournir des données d’interactions d’un utilisateur, par rapport à un jeu, le procédé comprenant :
    la communication avec un appareil de réalité augmentée ;
    1 obtention d informations de localisation associées à la localisation d’un utilisateur à partir du dispositif de réalité augmentée ;
    1 obtention d informations de 1 utilisateur relatives à au moins une ou plusieurs préférences de l’utilisateur ;
    l'obtention d’informations relatives au dispositif et d’informations relatives aux capteurs à un serveur à partir de la réalité augmentée, dans lequel les informations relatives au dispositif sont associées au dispositif de réalité augmentée et les informations relatives aux capteurs sont recueillies par des capteurs du dispositif de réalité augmentée ;
    l'obtention d’informations relatives à l’affichage, dans lequel les informations d’affichage sont déterminées sur la base d’une analyse des informations de dispositif, des informations de capteurs et d’un ou plusieurs ensembles de données associées au dispositif de réalité augmentée, l'analyse comprenant la détermination de la pertinence des informations d affichage par rapport à un champ visuel visible via un port de visualisation du dispositif de réalité augmentée ;
    6 revendications modifiées copie au propre en réponse à 1 obtention d'informations d’affichage, l’affichage, par l’intermédiaire d’un adaptateur d affichage, d une superposition graphique représentant des données d’affichage sur le port de visualisation ;
    l’implication d’un utilisateur dans une ou plusieurs interactions sur la base d’une notification d un tiers et au moins une des informations associées à la localisation de l’utilisateur ainsi que les informations relatives à une ou plusieurs préférences de l’utilisateur ;
    l'obtention d’informations supplémentaires concernant l’utilisateur en saisissant ladite une ou plusieurs interactions de l'utilisateur ;
    la comparaison de ladite une plusieurs interactions avec une séquence prédéterminée d’interactions ;
    1 affichage d une représentation d un cadeau à l’utilisateur si l’étape de comparaison détermine que ladite une ou plusieurs interactions correspondent à la séquence prédéterminée d’interactions ;
    la remise du cadeau représenté à l’utilisateur ; et la mise à joui dudit un ou de plusieurs ensembles de données avec informations obtenue à partir du dispositif de réalité augmentée.
FR1856891A 2018-07-25 2018-07-25 Systemes et procedes pour une interaction amelioree dans une application de realite augmentee Active FR3084498B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1856891A FR3084498B1 (fr) 2018-07-25 2018-07-25 Systemes et procedes pour une interaction amelioree dans une application de realite augmentee

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1856891A FR3084498B1 (fr) 2018-07-25 2018-07-25 Systemes et procedes pour une interaction amelioree dans une application de realite augmentee

Publications (2)

Publication Number Publication Date
FR3084498A1 true FR3084498A1 (fr) 2020-01-31
FR3084498B1 FR3084498B1 (fr) 2021-06-04

Family

ID=65494206

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1856891A Active FR3084498B1 (fr) 2018-07-25 2018-07-25 Systemes et procedes pour une interaction amelioree dans une application de realite augmentee

Country Status (1)

Country Link
FR (1) FR3084498B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111861502A (zh) * 2020-04-03 2020-10-30 上海寻梦信息技术有限公司 信息处理方法、系统、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120059720A1 (en) * 2004-06-30 2012-03-08 Musabji Adil M Method of Operating a Navigation System Using Images
US20120218299A1 (en) * 2011-02-25 2012-08-30 Nintendo Co., Ltd. Information processing system, information processing method, information processing device and tangible recoding medium recording information processing program
EP2940629A1 (fr) * 2014-04-30 2015-11-04 Amadeus S.A.S. Système de réservation visuelle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120059720A1 (en) * 2004-06-30 2012-03-08 Musabji Adil M Method of Operating a Navigation System Using Images
US20120218299A1 (en) * 2011-02-25 2012-08-30 Nintendo Co., Ltd. Information processing system, information processing method, information processing device and tangible recoding medium recording information processing program
EP2940629A1 (fr) * 2014-04-30 2015-11-04 Amadeus S.A.S. Système de réservation visuelle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111861502A (zh) * 2020-04-03 2020-10-30 上海寻梦信息技术有限公司 信息处理方法、系统、电子设备及存储介质
CN111861502B (zh) * 2020-04-03 2024-04-19 上海寻梦信息技术有限公司 信息处理方法、系统、电子设备及存储介质

Also Published As

Publication number Publication date
FR3084498B1 (fr) 2021-06-04

Similar Documents

Publication Publication Date Title
US10740804B2 (en) Systems, methods and apparatuses of seamless integration of augmented, alternate, virtual, and/or mixed realities with physical realities for enhancement of web, mobile and/or other digital experiences
US11243084B2 (en) Systems and methods for improved data integration in augmented reality architectures
US11941226B2 (en) Multimedia content based transactions
US9836755B2 (en) Determining a user's event experience through user actions
US20210097578A1 (en) Marketing automation platform
US20230098707A1 (en) Network of personalized devices determining data for shopping predictions
US11587109B2 (en) Using cross platform metrics for determining user engagement
CN110110203A (zh) 资源信息推送方法及服务器、资源信息展示方法及终端
US8681144B2 (en) Prioritized rendering of objects in a virtual universe
US20200162851A1 (en) Systems and methods for sharing information between augmented reality devices
KR102590492B1 (ko) 영상 채팅에 이용 가능한 평판 뱃지를 제공하는 방법, 시스템, 및 컴퓨터 프로그램
US11636520B1 (en) Blockchain-based digital advertising and marketing system and method
US20220129064A1 (en) Methods, systems, apparatuses, and devices for facilitating modifying environments based on user preferences
US11967213B2 (en) Methods and systems for demonstrating a personalized automated teller machine (ATM) presentation
US9497500B1 (en) System and method for controlling external displays using a handheld device
US11423620B2 (en) Use of secondary sources for location and behavior tracking
US10878668B1 (en) Methods and systems for demonstrating a personalized automated teller machine (ATM) presentation
FR3084498A1 (fr) Systemes et procedes pour une interaction amelioree dans une application de realite augmentee
US20240004456A1 (en) Automated configuration of augmented and virtual reality avatars for user specific behaviors
US11741489B2 (en) AI enabled coupon code generation for improved user experience
KR102522571B1 (ko) 이벤트와 관련된 결과를 결정하는 시스템 및 방법
US20240152948A1 (en) Systems and methods for user data collection within an augmented reality game
KR102173961B1 (ko) 경연 플랫폼 운영 방법 및 경연 참여 방법
US20230196425A1 (en) Linking user behaviors to tracked data consumption using digital tokens

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200131

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6