FR3071635A1 - Procede creant une interface projetee tangible pour la selection, la visualisation 3d et la commande des plats du menu directement depuis la table du restaurant, ainsi qu'un dispositif pour la mise en oeuvre du procede. - Google Patents

Procede creant une interface projetee tangible pour la selection, la visualisation 3d et la commande des plats du menu directement depuis la table du restaurant, ainsi qu'un dispositif pour la mise en oeuvre du procede. Download PDF

Info

Publication number
FR3071635A1
FR3071635A1 FR1870581A FR1870581A FR3071635A1 FR 3071635 A1 FR3071635 A1 FR 3071635A1 FR 1870581 A FR1870581 A FR 1870581A FR 1870581 A FR1870581 A FR 1870581A FR 3071635 A1 FR3071635 A1 FR 3071635A1
Authority
FR
France
Prior art keywords
user
dishes
restaurant
tangible
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1870581A
Other languages
English (en)
Inventor
Guillaume Chican
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to PCT/EP2018/075831 priority Critical patent/WO2019057978A1/fr
Publication of FR3071635A1 publication Critical patent/FR3071635A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Cash Registers Or Receiving Machines (AREA)

Abstract

L'invention concerne un procédé créant une interface projetée tangible pour la sélection, la visualisation en 3 dimensions et la commande de plats de restaurants, ainsi qu'un dispositif pour la mise en œuvre dudit procédé. Le dispositif repose sur un système de projecteur et de capteurs. Le procédé partitionne l'image projetée en sections correspondant à l'espace devant chaque utilisateur à table. Chaque image pour la section associée est déformée en fonction de la position de l'utilisateur correspondant pour créer l'illusion 3D des plats. Chaque utilisateur peut sélectionner le plat à visualiser grâce à une interface projetée tangible. L'utilisateur peut commander les plats directement depuis sa table. Le procédé selon l'invention est particulièrement destiné à l'industrie de la restauration et de l'hôtellerie.

Description

Titre de l’invention : Procédé créant une interface projetée tangible pour la sélection, la visualisation 3D et la commande des plats du menu directement depuis la table du restaurant, ainsi qu’un dispositif pour la mise en œuvre du procédé.
[0001] La présente invention concerne un procédé créant une interface projetée tangible pour la sélection, la visualisation en 3 dimensions à échelle réelle des plats du menu du restaurant directement sur la table, pour un ou plusieurs utilisateurs simultanément, ainsi que la commande des plats depuis la table du ou des utilisateurs, et un dispositif pour la mise en œuvre dudit procédé.
[0002] Il est connu de l’état de la technique une application mobile appelée KabaQ (https://youtu.be/21FeT61o78s) permettant de visualiser des plats de restaurant en réalité augmentée. Cette solution a pour limite de contraindre Γ utilisateur à porter un équipement : une tablette ou un smartphone. De plus Γ utilisateur ne regarde pas directement l’environnement mais un écran, ce qui amoindrit l’immersion. Enfin l’écran est placé entre les utilisateurs, ce qui diminue la convivialité recherchée dans un restaurant.
[0003] Il est connu de l’état de la technique un procédé de réalité augmentée pour la visualisation de plats de restaurant ainsi qu’un dispositif pour la mise en œuvre du procédé ayant fait l’objet de notre demande de brevet à ΓΙΝΡΙ n°FR1771011, qui vise à pallier les inconvénients de l’application KabaQ. Le dispositif repose sur un système de projection à focale ultra courte (ultra short throw) et un système de capteurs permettant la visualisation de plats de restaurant en 3 dimensions sans contraindre l’utilisateur à porter un équipement - comme des lunettes de réalité augmentée sur le visage ou des écrans dans les mains - ; et directement dans son environnement : sur la table de l’utilisateur. Le procédé reçoit les des données nécessaires au calcul de la position du visage de l’utilisateur et déforme l’image à projeter en fonction de cette position de façon à créer une illusion d’optique 3D des plats en temps réel. L’utilisateur en déplaçant son visage peut voir le plat virtuel sous ses différentes perspectives en 3 dimensions, à échelle réelle et directement sur la table. Le procédé reçoit également les informations de points de contact entre la main et la surface de la table et crée une interface projetée tangible permettant à l’utilisateur de sélectionner le plat à visualiser.
[0004] La présente invention vise à ajouter des caractéristiques à l’invention ayant fait l’objet de notre demande de brevet à ΓΙΝΡΙ n°FR1771011.
[0005] La présente invention crée une interface projetée tangible pour la sélection et la visualisation en 3 dimensions à échelle réelle des plats du menu du restaurant di rectement sur la table. L’invention est fonctionnelle pour un ou plusieurs utilisateurs simultanément. Le procédé de la présente invention consiste en la réception des données nécessaires au calcul de la position moyenne des yeux de chaque utilisateur, où l’image projetée est divisée en sections correspondant à l’espace devant chaque utilisateur, et où chaque image pour la section associée est déformée en fonction de la position de l’utilisateur correspondant pour créer l’illusion 3D. Le dispositif pour la mise en œuvre du procédé embarque un système de capteurs configuré pour recevoir les données nécessaires au calcul de la position moyenne des yeux de chaque utilisateur en temps réel. Le dispositif peut être placé en bout de table pour supprimer tout encombrement.
[0006] De plus, le procédé reçoit les informations de la commande de chaque utilisateur, et les transmet vers les cuisines du restaurant, de sorte que chaque utilisateur puisse passer des commandes directement depuis sa table et à tout moment du repas. Le procédé transmet également l’emplacement de la table du ou des utilisateurs aux serveurs de façon à faciliter le service à table. Le dispositif pour la mise en œuvre du procédé embarque un système électronique pour la transmission de ces informations en cuisine.
[0007] Le procédé de la présente invention reçoit les informations électroniques de paiement et le dispositif embarque un terminal de paiement électronique.
[0008] La présence d’un utilisateur à la table est détectée, ainsi que la position de la place occupée. La détection déclenche alors la projection de contenu sur la région de la table associée à la place occupée. Un système de capteur est configuré pour recevoir les données nécessaires à la détection d’un utilisateur se plaçant à la table en temps réel.
[0009] Chaque utilisateur peut concevoir le plat qu’il souhaite : l’interface tangible lui permet de choisir les ingrédients. La déformation de la section de l’image projetée en fonction de la position de l’utilisateur correspondant lui permet de visualiser les plats personnalisés en 3 dimensions avec la bonne perspective. Elle lui permet également de comprendre les portions des plats.
[0010] Le dessin annexé illustre l’invention.
[0011] [fig. 1] représente la réalisation du procédé : l’image projetée est partitionnée en quatre sections (105), correspondant à l’espace devant les quatre places disponibles de la table. Chaque section de l’image projetée est déformée en fonction de la position de l’utilisateur correspondant de façon à créer une illusion d’optique 3D pour cette position, lui permettant de voir le plat du restaurant virtuel (104) comme s’il était réel directement sur la table du restaurant.
[0012] Un picoprojecteur à focale ultra courte (ultra short throw) (101) projette les images directement sur la table de l’utilisateur. La focale ultra courte permet d’obtenir un système compact et non encombrant. Le dispositif embarquant le picoprojecteur à focale ultra courte peut être placé à l’extrémité de la table rendant sa présence très discrète sur la table. Le projecteur peut être de rapport de projection plus élevé et embarqué dans le dispositif fixé au plafond du restaurant.
[0013] Un système de capteurs (102) est configuré pour recevoir les données nécessaires au suivi de la position moyenne des yeux de chaque utilisateur dans l’espace. Il peut être une caméra vidéo avec lentille grand angle, ou plusieurs caméras vidéo dont l’axe optique est dans la direction de chaque place possible à la table, ou une ou plusieurs caméras stéréo, ou un ou plusieurs capteurs de profondeur. Le procédé comprend des algorithmes de vision par ordinateur et d’apprentissage automatique (machine leaming ) qui assurent le calcul de la position moyenne des yeux de chaque utilisateur dans l’espace en temps réel à partir des données dudit système de capteurs.
[0014] Un système de capteurs (102) est configuré pour recevoir les points de contact de la surface plane de la table avec les mains. Il peut être un système émettant un plan de lumière infrarouge parallèlement au plan de table couplé à un capteur en haut du dispositif détectant les points lumineux correspondant aux réflexions du signal infrarouge avec les objets touchant la surface. Il peut également être un système reposant sur un procédé plus élaboré qui calcule les positions et orientations des membres de squelette des mains de chaque utilisateur. Ce système est par exemple une caméra stéréo infrarouge comme le Leap Motion, et le procédé comprend alors des algorithmes de vision par ordinateur et d’apprentissage automatique. Ce système de capteurs crée ainsi une interface projetée tangible permettant à chaque utilisateur de choisir le plat virtuel à visualiser en 3 dimensions.
[0015] Le picoprojecteur ainsi que le ou les systèmes de capteurs sont calibrés ensemble. Une approche par lumière structurée peut permettre la calibration du picoprojecteur, du ou des systèmes de capteurs (c’est-à-dire le calcul de leurs paramètres intrinsèques), ainsi que la calibration de l’ensemble capteur(s) - projecteur (c’est-à-dire le calcul de la position et orientation du picoprojecteur par rapport à la position et orientation de chaque capteur qui analyse les lumières structurées). La calibration permet de créer un unique système de coordonnées pour le picoprojecteur, le ou les capteurs et le monde virtuel.
[0016] Si la géométrie de l’environnement de l’utilisateur est complexe et contient par exemple une assiette, alors chaque section de l’image à projeter peut être rendue en deux passages. Dans un premier passage, un rendu est réalisé depuis la position du visage de l’utilisateur correspondant à la section. La texture synthétisée est projetée depuis la position moyenne des yeux de cet utilisateur sur l’environnement correspondant. Dans un deuxième passage, un rendu est réalisé depuis une caméra virtuelle placée a' la position du picoprojecteur re'el et ayant les mêmes paramètres intrinsèques que le picoprojecteur réel. Les images de ce rendu pour chaque utilisateur sont concaténées en une seule image, qui est envoyée au picoprojecteur pour être projetée. Si la géométrie de l’environnement est simplement un plan de table, alors une homographie pour chaque utilisateur à chaque image de rendu peut être calculée, puis utilisée pour déformer chaque section correspondante de l’image à projeter.
[0017] L’illusion d’optique 3D créée par le procédé de la présente invention repose sur plusieurs effets de profondeur dont l’effet perspective et l’effet de parallaxe.
[0018] Les plats de la carte du restaurant peuvent être scannés préalablement par photogrammétrie. La photogrammétrie consiste à créer des modèles numériques en 3 dimensions à partir de photos prises sous différents points de vue. La présente invention offre à l’utilisateur la possibilité de voir les modèles en 3 dimensions sous tous ses angles avec la bonne perspective. Un modèle numérique créé par photogrammétrie permet ainsi à l’utilisateur qui utilise la présente invention de voir des détails photoréalistes sous tous les angles.
[0019] Les informations des plats commandés sont envoyées en cuisine par réseau sans fil ou par réseau filaire. Chaque utilisateur peut commander à n’importe quel instant un plat, ce qui est particulièrement adapté aux plats nécessitant d’être consommée juste après la préparation comme une glace ou une boisson chaude. L’emplacement de la table est également transmis en cuisine, de sorte que le serveur ne perd pas de temps à rechercher l’utilisateur dans le restaurant. Cette information est d’autant plus importante que le serveur n’a pas nécessairement rencontré l’utilisateur au moment de la commande car l’invention permet le passage de commande sans assistance du serveur. Chaque utilisateur peut procéder au paiement de sa commande depuis sa place assise en utilisant le terminal de paiement électronique (103).
[0020] Un système de capteurs (102) est configuré pour détecter la présence d’un utilisateur à une table du restaurant, ainsi que la place occupée. Il peut être une caméra vidéo avec lentille grand angle, ou plusieurs caméras vidéo dont l’axe optique est dans la direction de chaque place possible à la table, ou une ou plusieurs caméras stéréo, ou un ou plusieurs capteurs de profondeur. Le procédé comprend des algorithmes de vision par ordinateur et d’apprentissage automatique qui assurent la détection à partir des données dudit système de capteurs. Si le dispositif utilisé est une caméra vidéo, alors le procédé peut reposer sur la méthode de détection de visage dans l’image de Viola et Jones ou sur une méthode de réseau neuronal convolutif. Si le dispositif est un capteur de profondeur, alors le procédé peut reposer sur la détection de points solides dans l’espace au-dessus de la place qui serait vide sans occupant. La détection déclenche alors la projection de contenu sur la région de la table associée à la place occupée.
[0021] Un bouton interactif est projeté et permet d’allumer ou déteindre la projection. Lorsque la projection est éteinte, la table du restaurant est dégagée, non encombrée d’un quelconque écran et est ainsi non différenciable d’une table quelconque de restaurant. L’interface de la présente invention est ainsi non intrusive (non invasive). [0022] Des animations en 3 dimensions en lien avec le plat sélectionné sont projetées devant chaque utilisateur. Par exemple un petit personnage en 3 dimensions et animé raconte des histoires culinaires en relation avec le plat sélectionné par chaque utilisateur. Ce personnage peut être la mascotte de la marque du restaurant. Les animations en 3 dimensions fait patienter Γ utilisateur pendant la préparation des plats. La déformation de la section de l’image projetée en fonction de la position de l’utilisateur correspondant lui permet de visualiser les animations en 3 dimensions avec la bonne perspective.
[0023] Un système de capteurs (102) est configuré pour mesurer les émotions de chaque utilisateur. Il peut être une caméra vidéo avec lentille grand angle, ou plusieurs caméras vidéo dont l’axe optique est dans la direction de chaque place possible à la table, ou une ou plusieurs caméras stéréo, ou un ou plusieurs capteurs de profondeur. Le procédé comprend des algorithmes de vision par ordinateur et d’apprentissage automatique qui assurent le calcul des émotions de chaque utilisateur en temps réel à partir des données dudit système de capteurs. Les réactions émotives mesurées apportent des informations précises au restaurateur sur les comportements des utilisateurs par rapport au contenu projeté. Le restaurateur peut alors savoir quels plats ont du succès et peut prendre des décisions avec confiance.
[0024] Chaque utilisateur peut concevoir le plat qu’il souhaite : l’interface tangible lui permet de choisir les ingrédients. La déformation de la section de l’image projetée en fonction de la perspective de l’utilisateur correspondant lui permet de visualiser les plats personnalisés, leurs portions, et de les évaluer.
[0025] Le procédé selon l’invention est particulièrement destiné à l’industrie de la restauration et de l’hôtellerie.

Claims (9)

  1. Revendications
    1. Procédé créant une interface projetée tangible pour la sélection, la visualisation en 3 dimensions à échelle réelle des plats du menu du restaurant (104) directement sur la table du ou des utilisateurs, caractérisé en ce qu’il comprend une étape de réception de données nécessaires au calcul de la position moyenne des yeux de chaque utilisateur, où l’image projetée est divisée en sections (105) correspondant à l’espace devant chaque utilisateur, et où chaque image pour la section associée est déformée en fonction de la position de l’utilisateur correspondant pour créer l’illusion 3D des plats.
  2. 2. Procédé selon revendication 1, caractérisé en ce qu’il comprend en outre une étape de réception d'informations d'une commande, et une étape de transmission desdites informations de commande vers les cuisines du restaurant, de sorte que chaque utilisateur puisse passer au moins une commande directement depuis sa table et à tout moment du repas.
  3. 3. Procédé selon la revendication 2, caractérisé en ce qu’il comprend en outre une étape de transmission de l’emplacement de la table du ou des utilisateurs aux serveurs, de façon à faciliter le service à table.
  4. 4. Procédé selon la revendication 2 ou 3, caractérisé en ce qu’il comprend en outre une étape de paiement électronique de ladite commande.
    2/2
  5. 5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce qu’il comprend en outre une étape de détection de la présence d’un utilisateur à la table, ainsi que la place occupée à la table, permettant de déclencher la projection de contenu sur la région de la table associée à la place occupée.
  6. 6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce qu’il comprend en outre une étape de conception des plats par chaque utilisateur à partir du choix des ingrédients, où l’interface tangible permet la sélection des ingrédients, et où la déformation de la section de l’image projetée en fonction de la position de l’utilisateur correspondant lui permet de visualiser et d’évaluer les plats personnalisés en 3 dimensions et leurs portions.
  7. 7. Dispositif pour la mise en œuvre du procédé selon l'une quelconque des revendications 1 à 6, embarquant un pico-projecteur à focale ultra courte (101), une unité informatique configurée pour héberger des calculs suivant ledit procédé, un système de capteurs configuré pour recevoir des données nécessaires à la détection des points de contact des mains de chaque utilisateur avec la surface de la table; caractérisé en ce qu’il embarque en outre un système de capteurs (102) configuré pour recevoir les données nécessaires au calcul de la position moyenne des yeux de chaque utilisateur en temps réel.
  8. 8. Dispositif selon la revendication 7, caractérisé en ce qu’il embarque en outre un système électronique de transmission des informations vers les cuisines du restaurant.
  9. 9. Dispositif selon la revendication 7 ou 8, caractérisé en ce qu’il embarque en outre un terminal de paiement électronique (103).
FR1870581A 2017-09-24 2018-05-20 Procede creant une interface projetee tangible pour la selection, la visualisation 3d et la commande des plats du menu directement depuis la table du restaurant, ainsi qu'un dispositif pour la mise en oeuvre du procede. Withdrawn FR3071635A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/EP2018/075831 WO2019057978A1 (fr) 2017-09-24 2018-09-24 Procédé pour fournir une interface homme-machine à au moins un utilisateur se trouvant dans un lieu de consommation et dispositif pour la mise en œuvre du procédé

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1771011A FR3071650A1 (fr) 2017-09-24 2017-09-24 Procede de realite augmentee pour la visualisation de plats de restaurant
FR1771011 2017-09-24

Publications (1)

Publication Number Publication Date
FR3071635A1 true FR3071635A1 (fr) 2019-03-29

Family

ID=60450954

Family Applications (2)

Application Number Title Priority Date Filing Date
FR1771011A Pending FR3071650A1 (fr) 2017-09-24 2017-09-24 Procede de realite augmentee pour la visualisation de plats de restaurant
FR1870581A Withdrawn FR3071635A1 (fr) 2017-09-24 2018-05-20 Procede creant une interface projetee tangible pour la selection, la visualisation 3d et la commande des plats du menu directement depuis la table du restaurant, ainsi qu'un dispositif pour la mise en oeuvre du procede.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
FR1771011A Pending FR3071650A1 (fr) 2017-09-24 2017-09-24 Procede de realite augmentee pour la visualisation de plats de restaurant

Country Status (1)

Country Link
FR (2) FR3071650A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112365317A (zh) * 2020-11-12 2021-02-12 东方明珠新媒体股份有限公司 一种基于场景化虚拟餐桌的下单方法及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010238118A (ja) * 2009-03-31 2010-10-21 Promise Co Ltd オーダリングシステム
US20150029140A1 (en) * 2013-07-24 2015-01-29 Coretronic Corporation Portable display device
US20150051991A1 (en) * 2006-12-13 2015-02-19 Compurants Limited Interactive food and drink ordering system
US20150213565A1 (en) * 2014-01-24 2015-07-30 Tillster, Inc. System and method for a wireless mobile device interface integrated with a restaurant point of sale system and with a cloud-accessible data center for querying a database of customer information
US20160244311A1 (en) * 2010-04-14 2016-08-25 Restaurant Technology Inc. Structural food preparation systems and methods
US20170163937A1 (en) * 2014-09-25 2017-06-08 Steve H. McNelley Transparent projection communication terminals
US20170262154A1 (en) * 2013-06-07 2017-09-14 Sony Interactive Entertainment Inc. Systems and methods for providing user tagging of content within a virtual scene

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150051991A1 (en) * 2006-12-13 2015-02-19 Compurants Limited Interactive food and drink ordering system
JP2010238118A (ja) * 2009-03-31 2010-10-21 Promise Co Ltd オーダリングシステム
US20160244311A1 (en) * 2010-04-14 2016-08-25 Restaurant Technology Inc. Structural food preparation systems and methods
US20170262154A1 (en) * 2013-06-07 2017-09-14 Sony Interactive Entertainment Inc. Systems and methods for providing user tagging of content within a virtual scene
US20150029140A1 (en) * 2013-07-24 2015-01-29 Coretronic Corporation Portable display device
US20150213565A1 (en) * 2014-01-24 2015-07-30 Tillster, Inc. System and method for a wireless mobile device interface integrated with a restaurant point of sale system and with a cloud-accessible data center for querying a database of customer information
US20170163937A1 (en) * 2014-09-25 2017-06-08 Steve H. McNelley Transparent projection communication terminals

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GRÉGOIRE HUVELIN: "ARKit : prévisualisez vos menus en réalité augmentée - GoGlasses", 28 August 2017 (2017-08-28), XP055467139, Retrieved from the Internet <URL:https://www.goglasses.fr/realite-augmentee/previsualiser-repas-arkit> [retrieved on 20180413] *
MARGAUX DUSSERT: "Choisissez vos plats en réalité augmentée | L'ADN", 8 September 2017 (2017-09-08), XP055467137, Retrieved from the Internet <URL:http://www.ladn.eu/mondes-creatifs/realite-virtuelle/choisissez-votre-steak-frites-en-realite-augmentee/> [retrieved on 20180413] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112365317A (zh) * 2020-11-12 2021-02-12 东方明珠新媒体股份有限公司 一种基于场景化虚拟餐桌的下单方法及设备

Also Published As

Publication number Publication date
FR3071650A1 (fr) 2019-03-29

Similar Documents

Publication Publication Date Title
CN106415444B (zh) 注视滑扫选择
US10810753B2 (en) Single-frequency time-of-flight depth computation using stereoscopic disambiguation
US10587864B2 (en) Image processing device and method
US20210042992A1 (en) Assisted augmented reality
US20200151959A1 (en) System and method of enhancing user&#39;s immersion in mixed reality mode of display apparatus
US20130135295A1 (en) Method and system for a augmented reality
EP4184443A1 (fr) Dispositifs, systèmes et procédés de capture et d&#39;affichage d&#39;apparences
WO2019057978A1 (fr) Procédé pour fournir une interface homme-machine à au moins un utilisateur se trouvant dans un lieu de consommation et dispositif pour la mise en œuvre du procédé
US20170277259A1 (en) Eye tracking via transparent near eye lens
US10003777B2 (en) Projection screen for specularly reflecting light
CN108475180A (zh) 在多个显示区域之间分布视频
KR20180123217A (ko) 컴퓨터화된 시스템을 구비한 사용자 인터페이스를 제공하고 가상 환경과 상호작용하기 위한 방법 및 장치
CA2942652A1 (fr) Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d&#39;utilisateurs et procede associe
JP2002318652A (ja) 仮想入力装置およびプログラム
CN108520106B (zh) 用于空间设计的方法和系统
JP2017120329A (ja) 調理用ヘッドマウントディスプレイおよび調理用ヘッドマウントディスプレイのプログラム
FR3071635A1 (fr) Procede creant une interface projetee tangible pour la selection, la visualisation 3d et la commande des plats du menu directement depuis la table du restaurant, ainsi qu&#39;un dispositif pour la mise en oeuvre du procede.
CN109166257B (zh) 一种购物车商品核验方法及其装置
EP2721444A1 (fr) Système de colocalisation d&#39;un écran tactile et d&#39;un objet virtuel et dispositif pour la manipulation d&#39;objets virtuels mettant en uvre un tel système
EP3602253B1 (fr) Système de transparence pour caméra banalisée
US20160320312A1 (en) Gemstone imaging apparatus
WO2015132785A1 (fr) Appareil portable et système pour présentation et analyse en ligne d&#39;articles de petite taille
FR2971864A1 (fr) Equipement de realite virtuelle equipe d&#39;un dispositif de contact et utilisation d&#39;un tel dispositif dans un equipement de realite virtuelle
FR3043295A1 (fr) Dispositif de realite augmentee spatiale pour un environnement de bureau
JP2014204289A (ja) 画像表示装置、画像表示システム、および画像表示方法

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

ST Notification of lapse

Effective date: 20210105