FR3071635A1 - Procede creant une interface projetee tangible pour la selection, la visualisation 3d et la commande des plats du menu directement depuis la table du restaurant, ainsi qu'un dispositif pour la mise en oeuvre du procede. - Google Patents
Procede creant une interface projetee tangible pour la selection, la visualisation 3d et la commande des plats du menu directement depuis la table du restaurant, ainsi qu'un dispositif pour la mise en oeuvre du procede. Download PDFInfo
- Publication number
- FR3071635A1 FR3071635A1 FR1870581A FR1870581A FR3071635A1 FR 3071635 A1 FR3071635 A1 FR 3071635A1 FR 1870581 A FR1870581 A FR 1870581A FR 1870581 A FR1870581 A FR 1870581A FR 3071635 A1 FR3071635 A1 FR 3071635A1
- Authority
- FR
- France
- Prior art keywords
- user
- dishes
- restaurant
- tangible
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012800 visualization Methods 0.000 claims abstract description 4
- 239000004615 ingredient Substances 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 235000012054 meals Nutrition 0.000 claims description 2
- 238000005192 partition Methods 0.000 abstract 1
- 230000003287 optical effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 2
- 208000027534 Emotional disease Diseases 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 235000012171 hot beverage Nutrition 0.000 description 1
- 235000015243 ice cream Nutrition 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/12—Hotels or restaurants
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Tourism & Hospitality (AREA)
- Finance (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Cash Registers Or Receiving Machines (AREA)
Abstract
L'invention concerne un procédé créant une interface projetée tangible pour la sélection, la visualisation en 3 dimensions et la commande de plats de restaurants, ainsi qu'un dispositif pour la mise en œuvre dudit procédé. Le dispositif repose sur un système de projecteur et de capteurs. Le procédé partitionne l'image projetée en sections correspondant à l'espace devant chaque utilisateur à table. Chaque image pour la section associée est déformée en fonction de la position de l'utilisateur correspondant pour créer l'illusion 3D des plats. Chaque utilisateur peut sélectionner le plat à visualiser grâce à une interface projetée tangible. L'utilisateur peut commander les plats directement depuis sa table. Le procédé selon l'invention est particulièrement destiné à l'industrie de la restauration et de l'hôtellerie.
Description
Titre de l’invention : Procédé créant une interface projetée tangible pour la sélection, la visualisation 3D et la commande des plats du menu directement depuis la table du restaurant, ainsi qu’un dispositif pour la mise en œuvre du procédé.
[0001] La présente invention concerne un procédé créant une interface projetée tangible pour la sélection, la visualisation en 3 dimensions à échelle réelle des plats du menu du restaurant directement sur la table, pour un ou plusieurs utilisateurs simultanément, ainsi que la commande des plats depuis la table du ou des utilisateurs, et un dispositif pour la mise en œuvre dudit procédé.
[0002] Il est connu de l’état de la technique une application mobile appelée KabaQ (https://youtu.be/21FeT61o78s) permettant de visualiser des plats de restaurant en réalité augmentée. Cette solution a pour limite de contraindre Γ utilisateur à porter un équipement : une tablette ou un smartphone. De plus Γ utilisateur ne regarde pas directement l’environnement mais un écran, ce qui amoindrit l’immersion. Enfin l’écran est placé entre les utilisateurs, ce qui diminue la convivialité recherchée dans un restaurant.
[0003] Il est connu de l’état de la technique un procédé de réalité augmentée pour la visualisation de plats de restaurant ainsi qu’un dispositif pour la mise en œuvre du procédé ayant fait l’objet de notre demande de brevet à ΓΙΝΡΙ n°FR1771011, qui vise à pallier les inconvénients de l’application KabaQ. Le dispositif repose sur un système de projection à focale ultra courte (ultra short throw) et un système de capteurs permettant la visualisation de plats de restaurant en 3 dimensions sans contraindre l’utilisateur à porter un équipement - comme des lunettes de réalité augmentée sur le visage ou des écrans dans les mains - ; et directement dans son environnement : sur la table de l’utilisateur. Le procédé reçoit les des données nécessaires au calcul de la position du visage de l’utilisateur et déforme l’image à projeter en fonction de cette position de façon à créer une illusion d’optique 3D des plats en temps réel. L’utilisateur en déplaçant son visage peut voir le plat virtuel sous ses différentes perspectives en 3 dimensions, à échelle réelle et directement sur la table. Le procédé reçoit également les informations de points de contact entre la main et la surface de la table et crée une interface projetée tangible permettant à l’utilisateur de sélectionner le plat à visualiser.
[0004] La présente invention vise à ajouter des caractéristiques à l’invention ayant fait l’objet de notre demande de brevet à ΓΙΝΡΙ n°FR1771011.
[0005] La présente invention crée une interface projetée tangible pour la sélection et la visualisation en 3 dimensions à échelle réelle des plats du menu du restaurant di rectement sur la table. L’invention est fonctionnelle pour un ou plusieurs utilisateurs simultanément. Le procédé de la présente invention consiste en la réception des données nécessaires au calcul de la position moyenne des yeux de chaque utilisateur, où l’image projetée est divisée en sections correspondant à l’espace devant chaque utilisateur, et où chaque image pour la section associée est déformée en fonction de la position de l’utilisateur correspondant pour créer l’illusion 3D. Le dispositif pour la mise en œuvre du procédé embarque un système de capteurs configuré pour recevoir les données nécessaires au calcul de la position moyenne des yeux de chaque utilisateur en temps réel. Le dispositif peut être placé en bout de table pour supprimer tout encombrement.
[0006] De plus, le procédé reçoit les informations de la commande de chaque utilisateur, et les transmet vers les cuisines du restaurant, de sorte que chaque utilisateur puisse passer des commandes directement depuis sa table et à tout moment du repas. Le procédé transmet également l’emplacement de la table du ou des utilisateurs aux serveurs de façon à faciliter le service à table. Le dispositif pour la mise en œuvre du procédé embarque un système électronique pour la transmission de ces informations en cuisine.
[0007] Le procédé de la présente invention reçoit les informations électroniques de paiement et le dispositif embarque un terminal de paiement électronique.
[0008] La présence d’un utilisateur à la table est détectée, ainsi que la position de la place occupée. La détection déclenche alors la projection de contenu sur la région de la table associée à la place occupée. Un système de capteur est configuré pour recevoir les données nécessaires à la détection d’un utilisateur se plaçant à la table en temps réel.
[0009] Chaque utilisateur peut concevoir le plat qu’il souhaite : l’interface tangible lui permet de choisir les ingrédients. La déformation de la section de l’image projetée en fonction de la position de l’utilisateur correspondant lui permet de visualiser les plats personnalisés en 3 dimensions avec la bonne perspective. Elle lui permet également de comprendre les portions des plats.
[0010] Le dessin annexé illustre l’invention.
[0011] [fig. 1] représente la réalisation du procédé : l’image projetée est partitionnée en quatre sections (105), correspondant à l’espace devant les quatre places disponibles de la table. Chaque section de l’image projetée est déformée en fonction de la position de l’utilisateur correspondant de façon à créer une illusion d’optique 3D pour cette position, lui permettant de voir le plat du restaurant virtuel (104) comme s’il était réel directement sur la table du restaurant.
[0012] Un picoprojecteur à focale ultra courte (ultra short throw) (101) projette les images directement sur la table de l’utilisateur. La focale ultra courte permet d’obtenir un système compact et non encombrant. Le dispositif embarquant le picoprojecteur à focale ultra courte peut être placé à l’extrémité de la table rendant sa présence très discrète sur la table. Le projecteur peut être de rapport de projection plus élevé et embarqué dans le dispositif fixé au plafond du restaurant.
[0013] Un système de capteurs (102) est configuré pour recevoir les données nécessaires au suivi de la position moyenne des yeux de chaque utilisateur dans l’espace. Il peut être une caméra vidéo avec lentille grand angle, ou plusieurs caméras vidéo dont l’axe optique est dans la direction de chaque place possible à la table, ou une ou plusieurs caméras stéréo, ou un ou plusieurs capteurs de profondeur. Le procédé comprend des algorithmes de vision par ordinateur et d’apprentissage automatique (machine leaming ) qui assurent le calcul de la position moyenne des yeux de chaque utilisateur dans l’espace en temps réel à partir des données dudit système de capteurs.
[0014] Un système de capteurs (102) est configuré pour recevoir les points de contact de la surface plane de la table avec les mains. Il peut être un système émettant un plan de lumière infrarouge parallèlement au plan de table couplé à un capteur en haut du dispositif détectant les points lumineux correspondant aux réflexions du signal infrarouge avec les objets touchant la surface. Il peut également être un système reposant sur un procédé plus élaboré qui calcule les positions et orientations des membres de squelette des mains de chaque utilisateur. Ce système est par exemple une caméra stéréo infrarouge comme le Leap Motion, et le procédé comprend alors des algorithmes de vision par ordinateur et d’apprentissage automatique. Ce système de capteurs crée ainsi une interface projetée tangible permettant à chaque utilisateur de choisir le plat virtuel à visualiser en 3 dimensions.
[0015] Le picoprojecteur ainsi que le ou les systèmes de capteurs sont calibrés ensemble. Une approche par lumière structurée peut permettre la calibration du picoprojecteur, du ou des systèmes de capteurs (c’est-à-dire le calcul de leurs paramètres intrinsèques), ainsi que la calibration de l’ensemble capteur(s) - projecteur (c’est-à-dire le calcul de la position et orientation du picoprojecteur par rapport à la position et orientation de chaque capteur qui analyse les lumières structurées). La calibration permet de créer un unique système de coordonnées pour le picoprojecteur, le ou les capteurs et le monde virtuel.
[0016] Si la géométrie de l’environnement de l’utilisateur est complexe et contient par exemple une assiette, alors chaque section de l’image à projeter peut être rendue en deux passages. Dans un premier passage, un rendu est réalisé depuis la position du visage de l’utilisateur correspondant à la section. La texture synthétisée est projetée depuis la position moyenne des yeux de cet utilisateur sur l’environnement correspondant. Dans un deuxième passage, un rendu est réalisé depuis une caméra virtuelle placée a' la position du picoprojecteur re'el et ayant les mêmes paramètres intrinsèques que le picoprojecteur réel. Les images de ce rendu pour chaque utilisateur sont concaténées en une seule image, qui est envoyée au picoprojecteur pour être projetée. Si la géométrie de l’environnement est simplement un plan de table, alors une homographie pour chaque utilisateur à chaque image de rendu peut être calculée, puis utilisée pour déformer chaque section correspondante de l’image à projeter.
[0017] L’illusion d’optique 3D créée par le procédé de la présente invention repose sur plusieurs effets de profondeur dont l’effet perspective et l’effet de parallaxe.
[0018] Les plats de la carte du restaurant peuvent être scannés préalablement par photogrammétrie. La photogrammétrie consiste à créer des modèles numériques en 3 dimensions à partir de photos prises sous différents points de vue. La présente invention offre à l’utilisateur la possibilité de voir les modèles en 3 dimensions sous tous ses angles avec la bonne perspective. Un modèle numérique créé par photogrammétrie permet ainsi à l’utilisateur qui utilise la présente invention de voir des détails photoréalistes sous tous les angles.
[0019] Les informations des plats commandés sont envoyées en cuisine par réseau sans fil ou par réseau filaire. Chaque utilisateur peut commander à n’importe quel instant un plat, ce qui est particulièrement adapté aux plats nécessitant d’être consommée juste après la préparation comme une glace ou une boisson chaude. L’emplacement de la table est également transmis en cuisine, de sorte que le serveur ne perd pas de temps à rechercher l’utilisateur dans le restaurant. Cette information est d’autant plus importante que le serveur n’a pas nécessairement rencontré l’utilisateur au moment de la commande car l’invention permet le passage de commande sans assistance du serveur. Chaque utilisateur peut procéder au paiement de sa commande depuis sa place assise en utilisant le terminal de paiement électronique (103).
[0020] Un système de capteurs (102) est configuré pour détecter la présence d’un utilisateur à une table du restaurant, ainsi que la place occupée. Il peut être une caméra vidéo avec lentille grand angle, ou plusieurs caméras vidéo dont l’axe optique est dans la direction de chaque place possible à la table, ou une ou plusieurs caméras stéréo, ou un ou plusieurs capteurs de profondeur. Le procédé comprend des algorithmes de vision par ordinateur et d’apprentissage automatique qui assurent la détection à partir des données dudit système de capteurs. Si le dispositif utilisé est une caméra vidéo, alors le procédé peut reposer sur la méthode de détection de visage dans l’image de Viola et Jones ou sur une méthode de réseau neuronal convolutif. Si le dispositif est un capteur de profondeur, alors le procédé peut reposer sur la détection de points solides dans l’espace au-dessus de la place qui serait vide sans occupant. La détection déclenche alors la projection de contenu sur la région de la table associée à la place occupée.
[0021] Un bouton interactif est projeté et permet d’allumer ou déteindre la projection. Lorsque la projection est éteinte, la table du restaurant est dégagée, non encombrée d’un quelconque écran et est ainsi non différenciable d’une table quelconque de restaurant. L’interface de la présente invention est ainsi non intrusive (non invasive). [0022] Des animations en 3 dimensions en lien avec le plat sélectionné sont projetées devant chaque utilisateur. Par exemple un petit personnage en 3 dimensions et animé raconte des histoires culinaires en relation avec le plat sélectionné par chaque utilisateur. Ce personnage peut être la mascotte de la marque du restaurant. Les animations en 3 dimensions fait patienter Γ utilisateur pendant la préparation des plats. La déformation de la section de l’image projetée en fonction de la position de l’utilisateur correspondant lui permet de visualiser les animations en 3 dimensions avec la bonne perspective.
[0023] Un système de capteurs (102) est configuré pour mesurer les émotions de chaque utilisateur. Il peut être une caméra vidéo avec lentille grand angle, ou plusieurs caméras vidéo dont l’axe optique est dans la direction de chaque place possible à la table, ou une ou plusieurs caméras stéréo, ou un ou plusieurs capteurs de profondeur. Le procédé comprend des algorithmes de vision par ordinateur et d’apprentissage automatique qui assurent le calcul des émotions de chaque utilisateur en temps réel à partir des données dudit système de capteurs. Les réactions émotives mesurées apportent des informations précises au restaurateur sur les comportements des utilisateurs par rapport au contenu projeté. Le restaurateur peut alors savoir quels plats ont du succès et peut prendre des décisions avec confiance.
[0024] Chaque utilisateur peut concevoir le plat qu’il souhaite : l’interface tangible lui permet de choisir les ingrédients. La déformation de la section de l’image projetée en fonction de la perspective de l’utilisateur correspondant lui permet de visualiser les plats personnalisés, leurs portions, et de les évaluer.
[0025] Le procédé selon l’invention est particulièrement destiné à l’industrie de la restauration et de l’hôtellerie.
Claims (9)
- Revendications1. Procédé créant une interface projetée tangible pour la sélection, la visualisation en 3 dimensions à échelle réelle des plats du menu du restaurant (104) directement sur la table du ou des utilisateurs, caractérisé en ce qu’il comprend une étape de réception de données nécessaires au calcul de la position moyenne des yeux de chaque utilisateur, où l’image projetée est divisée en sections (105) correspondant à l’espace devant chaque utilisateur, et où chaque image pour la section associée est déformée en fonction de la position de l’utilisateur correspondant pour créer l’illusion 3D des plats.
- 2. Procédé selon revendication 1, caractérisé en ce qu’il comprend en outre une étape de réception d'informations d'une commande, et une étape de transmission desdites informations de commande vers les cuisines du restaurant, de sorte que chaque utilisateur puisse passer au moins une commande directement depuis sa table et à tout moment du repas.
- 3. Procédé selon la revendication 2, caractérisé en ce qu’il comprend en outre une étape de transmission de l’emplacement de la table du ou des utilisateurs aux serveurs, de façon à faciliter le service à table.
- 4. Procédé selon la revendication 2 ou 3, caractérisé en ce qu’il comprend en outre une étape de paiement électronique de ladite commande.2/2
- 5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce qu’il comprend en outre une étape de détection de la présence d’un utilisateur à la table, ainsi que la place occupée à la table, permettant de déclencher la projection de contenu sur la région de la table associée à la place occupée.
- 6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce qu’il comprend en outre une étape de conception des plats par chaque utilisateur à partir du choix des ingrédients, où l’interface tangible permet la sélection des ingrédients, et où la déformation de la section de l’image projetée en fonction de la position de l’utilisateur correspondant lui permet de visualiser et d’évaluer les plats personnalisés en 3 dimensions et leurs portions.
- 7. Dispositif pour la mise en œuvre du procédé selon l'une quelconque des revendications 1 à 6, embarquant un pico-projecteur à focale ultra courte (101), une unité informatique configurée pour héberger des calculs suivant ledit procédé, un système de capteurs configuré pour recevoir des données nécessaires à la détection des points de contact des mains de chaque utilisateur avec la surface de la table; caractérisé en ce qu’il embarque en outre un système de capteurs (102) configuré pour recevoir les données nécessaires au calcul de la position moyenne des yeux de chaque utilisateur en temps réel.
- 8. Dispositif selon la revendication 7, caractérisé en ce qu’il embarque en outre un système électronique de transmission des informations vers les cuisines du restaurant.
- 9. Dispositif selon la revendication 7 ou 8, caractérisé en ce qu’il embarque en outre un terminal de paiement électronique (103).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2018/075831 WO2019057978A1 (fr) | 2017-09-24 | 2018-09-24 | Procédé pour fournir une interface homme-machine à au moins un utilisateur se trouvant dans un lieu de consommation et dispositif pour la mise en œuvre du procédé |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1771011A FR3071650A1 (fr) | 2017-09-24 | 2017-09-24 | Procede de realite augmentee pour la visualisation de plats de restaurant |
FR1771011 | 2017-09-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3071635A1 true FR3071635A1 (fr) | 2019-03-29 |
Family
ID=60450954
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1771011A Pending FR3071650A1 (fr) | 2017-09-24 | 2017-09-24 | Procede de realite augmentee pour la visualisation de plats de restaurant |
FR1870581A Withdrawn FR3071635A1 (fr) | 2017-09-24 | 2018-05-20 | Procede creant une interface projetee tangible pour la selection, la visualisation 3d et la commande des plats du menu directement depuis la table du restaurant, ainsi qu'un dispositif pour la mise en oeuvre du procede. |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1771011A Pending FR3071650A1 (fr) | 2017-09-24 | 2017-09-24 | Procede de realite augmentee pour la visualisation de plats de restaurant |
Country Status (1)
Country | Link |
---|---|
FR (2) | FR3071650A1 (fr) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112365317A (zh) * | 2020-11-12 | 2021-02-12 | 东方明珠新媒体股份有限公司 | 一种基于场景化虚拟餐桌的下单方法及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010238118A (ja) * | 2009-03-31 | 2010-10-21 | Promise Co Ltd | オーダリングシステム |
US20150029140A1 (en) * | 2013-07-24 | 2015-01-29 | Coretronic Corporation | Portable display device |
US20150051991A1 (en) * | 2006-12-13 | 2015-02-19 | Compurants Limited | Interactive food and drink ordering system |
US20150213565A1 (en) * | 2014-01-24 | 2015-07-30 | Tillster, Inc. | System and method for a wireless mobile device interface integrated with a restaurant point of sale system and with a cloud-accessible data center for querying a database of customer information |
US20160244311A1 (en) * | 2010-04-14 | 2016-08-25 | Restaurant Technology Inc. | Structural food preparation systems and methods |
US20170163937A1 (en) * | 2014-09-25 | 2017-06-08 | Steve H. McNelley | Transparent projection communication terminals |
US20170262154A1 (en) * | 2013-06-07 | 2017-09-14 | Sony Interactive Entertainment Inc. | Systems and methods for providing user tagging of content within a virtual scene |
-
2017
- 2017-09-24 FR FR1771011A patent/FR3071650A1/fr active Pending
-
2018
- 2018-05-20 FR FR1870581A patent/FR3071635A1/fr not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150051991A1 (en) * | 2006-12-13 | 2015-02-19 | Compurants Limited | Interactive food and drink ordering system |
JP2010238118A (ja) * | 2009-03-31 | 2010-10-21 | Promise Co Ltd | オーダリングシステム |
US20160244311A1 (en) * | 2010-04-14 | 2016-08-25 | Restaurant Technology Inc. | Structural food preparation systems and methods |
US20170262154A1 (en) * | 2013-06-07 | 2017-09-14 | Sony Interactive Entertainment Inc. | Systems and methods for providing user tagging of content within a virtual scene |
US20150029140A1 (en) * | 2013-07-24 | 2015-01-29 | Coretronic Corporation | Portable display device |
US20150213565A1 (en) * | 2014-01-24 | 2015-07-30 | Tillster, Inc. | System and method for a wireless mobile device interface integrated with a restaurant point of sale system and with a cloud-accessible data center for querying a database of customer information |
US20170163937A1 (en) * | 2014-09-25 | 2017-06-08 | Steve H. McNelley | Transparent projection communication terminals |
Non-Patent Citations (2)
Title |
---|
GRÉGOIRE HUVELIN: "ARKit : prévisualisez vos menus en réalité augmentée - GoGlasses", 28 August 2017 (2017-08-28), XP055467139, Retrieved from the Internet <URL:https://www.goglasses.fr/realite-augmentee/previsualiser-repas-arkit> [retrieved on 20180413] * |
MARGAUX DUSSERT: "Choisissez vos plats en réalité augmentée | L'ADN", 8 September 2017 (2017-09-08), XP055467137, Retrieved from the Internet <URL:http://www.ladn.eu/mondes-creatifs/realite-virtuelle/choisissez-votre-steak-frites-en-realite-augmentee/> [retrieved on 20180413] * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112365317A (zh) * | 2020-11-12 | 2021-02-12 | 东方明珠新媒体股份有限公司 | 一种基于场景化虚拟餐桌的下单方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
FR3071650A1 (fr) | 2019-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106415444B (zh) | 注视滑扫选择 | |
US10810753B2 (en) | Single-frequency time-of-flight depth computation using stereoscopic disambiguation | |
US10587864B2 (en) | Image processing device and method | |
US20210042992A1 (en) | Assisted augmented reality | |
US20200151959A1 (en) | System and method of enhancing user's immersion in mixed reality mode of display apparatus | |
US20130135295A1 (en) | Method and system for a augmented reality | |
EP4184443A1 (fr) | Dispositifs, systèmes et procédés de capture et d'affichage d'apparences | |
WO2019057978A1 (fr) | Procédé pour fournir une interface homme-machine à au moins un utilisateur se trouvant dans un lieu de consommation et dispositif pour la mise en œuvre du procédé | |
US20170277259A1 (en) | Eye tracking via transparent near eye lens | |
US10003777B2 (en) | Projection screen for specularly reflecting light | |
CN108475180A (zh) | 在多个显示区域之间分布视频 | |
KR20180123217A (ko) | 컴퓨터화된 시스템을 구비한 사용자 인터페이스를 제공하고 가상 환경과 상호작용하기 위한 방법 및 장치 | |
CA2942652A1 (fr) | Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe | |
JP2002318652A (ja) | 仮想入力装置およびプログラム | |
CN108520106B (zh) | 用于空间设计的方法和系统 | |
JP2017120329A (ja) | 調理用ヘッドマウントディスプレイおよび調理用ヘッドマウントディスプレイのプログラム | |
FR3071635A1 (fr) | Procede creant une interface projetee tangible pour la selection, la visualisation 3d et la commande des plats du menu directement depuis la table du restaurant, ainsi qu'un dispositif pour la mise en oeuvre du procede. | |
CN109166257B (zh) | 一种购物车商品核验方法及其装置 | |
EP2721444A1 (fr) | Système de colocalisation d'un écran tactile et d'un objet virtuel et dispositif pour la manipulation d'objets virtuels mettant en uvre un tel système | |
EP3602253B1 (fr) | Système de transparence pour caméra banalisée | |
US20160320312A1 (en) | Gemstone imaging apparatus | |
WO2015132785A1 (fr) | Appareil portable et système pour présentation et analyse en ligne d'articles de petite taille | |
FR2971864A1 (fr) | Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle | |
FR3043295A1 (fr) | Dispositif de realite augmentee spatiale pour un environnement de bureau | |
JP2014204289A (ja) | 画像表示装置、画像表示システム、および画像表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
ST | Notification of lapse |
Effective date: 20210105 |