FR2847357A1 - Methode de commande d'une machine au moyen de la position d'un objet mobile - Google Patents

Methode de commande d'une machine au moyen de la position d'un objet mobile Download PDF

Info

Publication number
FR2847357A1
FR2847357A1 FR0215515A FR0215515A FR2847357A1 FR 2847357 A1 FR2847357 A1 FR 2847357A1 FR 0215515 A FR0215515 A FR 0215515A FR 0215515 A FR0215515 A FR 0215515A FR 2847357 A1 FR2847357 A1 FR 2847357A1
Authority
FR
France
Prior art keywords
sector
screen
zone
separation surface
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0215515A
Other languages
English (en)
Inventor
Frederic Guerault
Christophe Chesnaut
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SIMAG DEV
Original Assignee
SIMAG DEV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SIMAG DEV filed Critical SIMAG DEV
Priority to FR0215515A priority Critical patent/FR2847357A1/fr
Publication of FR2847357A1 publication Critical patent/FR2847357A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Abstract

L'invention présente une méthode qui permet la commande d'une machine au moyen de la position d'un objet mobile 19 dans une zone de localisation 13, cette zone de localisation présentant une première surface de séparation 31 disposée entre une surface d'accès 15 et une surface d'appui 14, cette méthode faisant appel à un procédé d'imagerie pour déterminer quel secteur identifié b2 de la surface d'accès l'objet mobile a traversé, cette méthode produisant une commande de premier rang fonction de ce secteur identifié, cette méthode produisant également une commande de deuxième rang lorsque l'objet mobile a traversé la première surface de séparation 31. De plus, la commande de deuxième rang est fonction du secteur identifié b2 qu'a traversé l'objet mobile 19. L'invention vise également un dispositif comprenant des moyens pour la mise en oeuvre de cette méthode.

Description

i Méthode de commande d'une machine au moyen de la position d'un objet
mobile La présente invention concerne une méthode de commande d'une machine au moyen de la position d'un objet mobile dans une zone de localisation. Le domaine de l'invention est donc celui de la commande de machines,
en particulier de machines électroniques tels que les ordinateurs.
Il est ainsi connu de commander un ordinateur à l'aide d'un clavier.
Toutefois, l'utilisation d'un clavier requiert un apprentissage préalable et une 10 certaine dextérité. Il ne s'agit pas là d'une méthode de commande très conviviale. Il est aussi connu de commander un ordinateur à l'aide d'une souris, objet mobile qui se déplace dans un plan. Le déplacement planaire de la souris est reproduit par un déplacement homothétique d'un curseur sur l'écran de 15 l'ordinateur. La souris se manipule beaucoup plus aisément qu'un clavier. Cependant, c'est un accessoire qui demande tout de même une bonne maîtrise
gestuelle et une certaine expérience pour être employé correctement.
Il est par ailleurs connu de commander un ordinateur à l'aide d'un écran tactile, si bien qu'il n'y a plus de dispositif intermédiaire entre l'utilisateur et 20 l'écran. Un simple contact ou une pression du doigt sur un secteur de l'écran
déclenche l'exécution de la commande représentée dans ce secteur.
L'écran tactile a donc une fonction de visualisation et une fonction de saisie dans une zone de localisation qui concide avec la face frontale de l'écran. Selon une première option, la saisie peut être réalisée au moyen d'une 2 5 dalle transparente, souvent résistive ou capacitive, disposée sur cette face frontale. Lorsqu'un objet mobile tel que le doigt d'un utilisateur appuie sur un secteur de cette dalle, celle-ci génère une information électrique représentant le secteur identifié qui a été soumis à la pression de l'objet mobile. La dalle est un composant coteux qui est technologiquement complexe à fabriquer. De plus, sa
disposition sur l'écran peut affecter la luminosité de ce dernier.
Selon une deuxième option, la saisie peut être réalisée acoustiquement.
En ce cas, la dalle est composée d'un matériau qui assure la propagation des
ondes acoustiques de surface. Des transducteurs et des capteurs ultrasoniques sont agencés en réseau pour cartographier les différents secteurs de l'écran.
Lorsqu'un objet est au contact d'un secteur de l'écran, il absorbe une partie des
ondes qui traverse ce secteur. Là encore, la dalle est un composant de haute technologie qui est susceptible de dégrader sévèrement la luminosité de l'écran.
Il faut de plus remarquer que les deux options précédentes imposent l'utilisation d'un milieu particulier, celui de la dalle, apte à assurer la localisation de l'objet mobile. Selon une troisième option, la saisie peut être réalisée optiquement. On
prévoit dans ce cas un support disposé à la périphérie de la face frontale de l'écran. Sur ce support, une pluralité de sources lumineuses telles que des diodes électroluminescentes est arrangée selon une disposition matricielle en 10 regard d'une pluralité correspondante de détecteurs. La localisation d'un objet mobile situé à proximité immédiate de l'écran s'effectue en identifiant le secteur de cet écran dans lequel tous les faisceaux lumineux sont interrompus. Ici, la luminosité de l'écran n'est pas perturbée mais le support est encore un composant d'une relative complexité.
Cette troisième option est moins contraignante sur le milieu dans lequel
la localisation est pratiquée puisqu'il suffit que celui-ci soit transparent. Elle présente par contre une résolution limitée.
En outre, les trois options précédentes sont mal adaptées à un écran de grandes dimensions, d'une superficie supérieure ou égale à 1 mètre carré, ne
2 0 serait-ce que pour des raisons économiques.
Il a donc été proposé d'employer une technique d'imagerie pour s'affranchir des contraintes liées à une localisation physique de l'objet mobile. La localisation est ici pratiquée sur une image de la zone de localisation figurant à proximité de l'écran. Cette image est acquise au moyen d'un capteur tel que 25 ceux qui sont utilisés dans les caméras vidéo et elle est ensuite soumise à un
traitement qui permet de définir le secteur de l'écran en regard duquel figure l'objet mobile. A titre de référence, on citera la demande internationale de brevet WO 01 93006.
Lorsque la caméra est placée derrière l'objet mobile, il est impossible, 30 sans connaître la taille de celui-ci, d'estimer la distance qui le sépare de l'écran. Ainsi, la méthode de commande produira la même commande si l'objet mobile est proche de l'écran ou s'il en est relativement éloigné. D'autre part, l'interposition d'un corps quelconque entre la caméra et l'objet mobile masquerait ce dernier, interdisant par là même sa localisation. Il convient donc de prendre
des précautions quant à l'installatidn du capteur d'image relativement à l'écran.
Afin de pallier les carences de la technique d'imagerie sur une seule image, on met en jeu le principe connu de la stéréovision. Ce principe permet de déterminer la position réelle de l'objet dans l'espace en utilisant deux images prises sous des angles de vues différents. On peut même employer plus de deux images. La demande internationale de brevet WO 99 40562 expose un dispositif qui détecte le doigt d'un utilisateur lorsqu'il vient au contact de l'écran, ceci sans
information à priori sur le doigt (sa taille, par exemple).
Toutes les solutions techniques présentées ci-dessus permettent de commander une machine en fonction de la position d'un objet mobile dans une
zone de localisation qui correspond à un plan, à savoir la face frontale de l'écran.
Il en va de même pour le système de commande à plusieurs caméras décrit dans la demande internationale de brevet WO 02 29722. La zone de localisation présente une surface de séparation disposée entre une surface d'accès accessible à l'objet mobile et une surface d'appui qui concide avec la 15 face frontale de l'écran. Le système détecte un franchissement de la surface de séparation par l'objet mobile pour déclencher une opération spécifique analogue à celle initiée au moyen d'un interrupteur disposé sur la souris mentionné plus haut, opération connue sous le nom de " clic " dans le langage courant. Cette opération spécifique est indépendante de la position de l'objet mobile dans le
plan ou, autrement dit, de sa projection sur l'écran.
La présente invention a ainsi pour objet d'accroître sensiblement la capacité d'une méthode de commande qui met en oeuvre un procédé d'imagerie.
Selon l'invention, une méthode permet la commande d'une machine au moyen de la position d'un objet mobile dans une zone de localisation, cette zone 25 de localisation présentant une première surface de séparation disposée entre une surface d'accès et une surface d'appui, cette méthode faisant appel à un procédé d'imagerie pour déterminer quel secteur identifié de la surface d'accès l'objet mobile a traversé, cette méthode produisant une commande de premier rang fonction de ce secteur identifié, cette méthode produisant également une 30 commande de deuxième rang lorsque l'objet mobile a traversé la première surface de séparation; de plus, la commande de deuxième rang est fonction du
secteur identifié qu'a traversé l'objet mobile.
Ainsi, outre un premier ensemble de commandes comprenant un nombre de commandes de premier rang égal au nombre de secteurs de la surface 35 d'accès, on définit un deuxième ensemble de commandes comprenant un nombre de commandes de deuxième rang inférieur ou égal à ce même nombre
de secteurs. Le nombre de commandes que peut produire la méthode selon l'invention est ainsi pratiquement doublé par rapport à l'état de l'art.
Avantageusement, la zone de localisation comporte une deuxième surface de séparation disposée entre la première surface de séparation et la surface d'appui et la méthode produit une commande de troisième rang lorsque l'objet mobile a traversé cette deuxième surface de séparation, cette commande
de troisième rang étant également fonction du secteur identifié qu'a traversé l'objet mobile et différant de la commande correspondante de deuxième rang.
On définit donc un troisième ensemble de commandes comprenant lui 10 aussi un nombre de commandes de troisième rang inférieur ou égal à ce même nombre de secteurs. Le nombre de commandes que peut produire la méthode selon l'invention est ici sensiblement triplé.
Si l'état de l'art enseigne la possibilité de définir un ensemble de commandes dans un espace sectorisé à deux dimensions correspondant à un
plan sur lequel est projeté un objet, l'invention propose de définir un ensemble de commandes dans un espace sectorisé à trois dimensions, la troisième dimension permettant de représenter la distance d'une surface de séparation à la surface d'appui.
De préférence, une zone de surveillance jouxtant la surface d'accès de la 20 zone de localisation, la méthode produit une commande d'activation lorsque
l'objet mobile a pénétré dans cette zone de surveillance.
L'invention vise également un dispositif comprenant des moyens pour la
mise en oeuvre de la méthode ci-dessus.
La présente invention apparaîtra maintenant avec plus de détails dans le 25 cadre de la description qui suit d'exemples de réalisation donnés à titre illustratif
en se référant aux figures annexées qui représentent: - la figure 1, un schéma d'un dispositif destiné à la mise en oeuvre de l'invention, - la figure 2, un schéma de la partition en secteurs d'un écran de visualisation, et
- la figure 3, un schéma de la zone de localisation.
Les éléments présents dans plusieurs figures sont affectés d'une seule
et même référence.
On remarquera à titre préliminaire que la zone de localisation de l'objet mobile est un volume ouvert qui n'est pas nécessairement matérialisé par des parois physiques. Elle peut figurer à proximité d'un quelconque support comme 35 un mur, une vitrine ou une table, auquel cas les interférences éventuelles entre
l'objet mobile et l'écran qui pourraient apparaître dans une image sont évitées.
La seule contrainte d'installation réside dans la fixation des caméras qui doivent
reposer sur un support.
Toutefois, pour simplifier la présentation de l'invention, la zone de localisation est ici superposée à l'écran d'un ordinateur de sorte que la surface d'appui de cette zone se confond avec la face frontale de l'écran. Cette
disposition ne doit pas être considérée comme un impératif technique.
En référence à la figure 1, une première 11 et une deuxième 12 caméras couvrent la zone de localisation 13, de forme sensiblement parallélépipédique,
dont la surface d'appui 14 est opposée à la surface d'accès 15.
On prévoit de plus une zone de surveillance 16 qui recouvre la zone de
localisation 13.
Les deux caméras 11, 12 sont reliées à une unité de traitement 17 qui
commande l'écran de visualisation.
Un objet mobile 19, tel la main ou l'index d'un utilisateur, a la faculté de
se déplacer dans la zone de localisation 13.
L'invention propose, à titre optionnel, de repérer la présence d'un utilisateur qui vient à proximité de la zone de localisation 13. Ainsi, les caméras 11, 12 déclenchent la visualisation d'une scène initiale sur l'écran, le salon d'une habitation par exemple, lorsqu'elles ont détecté la pénétration d'un corps
2 o quelconque dans la zone de surveillance 13.
En référence à la figure 2, la surface d'appui 14 est partitionnée en une pluralité de secteurs figurant chacun à l'intersection d'une rangée a, b, c et d'une colonne 1, 2, 3. Le secteur référencé ii est disposé sur la ième rangée et sur la jème colonne. Par exemple, une bibliothèque apparaît dans le secteur bl et un
2 5 appareil de reproduction sonore dans le secteur c3.
En référence à la figure 3, une première 31, une deuxième 32 et une troisième 33 surfaces de séparation figurent dans cet ordre entre la surface
d'accès 15 et la surface d'appui 14 de la zone de localisation 13.
Par convention, lorsque l'objet mobile 19 est positionné respectivement 30 entre la surface d'accès 15 et la première surface de séparation 31, entre la première 31 et la deuxième 32 surface de séparation, entre la deuxième 32 et la troisième 33 surface de séparation, entre la troisième surface de séparation 33 et
la surface d'appui 14, il engendre une commande respectivement de premier rang, de deuxième rang, de troisième rang, de quatrième rang.
Lorsque l'objet mobile 19 est introduit entre la surface d'accès 15 et la première surface de séparation 31 au droit du secteur bl, l'unité de traitement 17 provoque (commande de premier rang) l'affichage d'un livre de la bibliothèque dans chaque secteur à l'exception du secteur bl. Deux options sont alors offertes. Selon une première option, l'objet mobile 19 se déplace en direction de l'écran 14 pour apparaître entre la première 31 et la deuxième 32 surface de séparation toujours au droit du secteur bl. Ce déplacement provoque (commande de deuxième rang) l'affichage d'un nouveau livre dans chaque secteur. Selon une deuxième option, l'objet mobile 19 se déplace latéralement entre la surface d'accès 15 et la première surface de séparation 31 pour atteindre un autre secteur, le secteur d2 par exemple. Un nouveau déplacement de l'objet mobile 19 en direction de l'écran 14 pour apparaître entre la première 31 et la deuxième 32 surfaces de séparation toujours au droit du secteur d2 provoque ( commande de deuxième rang) la visualisation de la première page du
livre.
Si l'objet mobile 19 se déplace encore en direction de l'écran pour apparaître entre la deuxième surface de séparation 32 et la surface d'appui 14 toujours au droit du secteur d2, c'est la page suivante qui est visualisée
(commande de troisième rang).
Si par contre l'objet mobile 19 se déplace encore en direction de la surface d'accès 15 pour apparaître entre cette surface d'accès et la première surface de séparation 31 toujours au droit du secteur d2, c'est la page
précédente qui est visualisée.
A titre d'exemple, l'unité de traitement 17 visualise à nouveau la scène
initiale lorsque l'objet mobile 19 sort de la zone de localisation 13.
Lorsque l'objet mobile 19 est introduit entre la surface d'accès 15 et la première surface de séparation 31 au droit du secteur c3, l'unité de traitement 17 provoque l'affichage de l'appareil de reproduction sonore sur la totalité de l'écran. Ainsi, le bouton permettant de régler le volume figure dans le secteur bl
3 0 et le lecteur de compact-disques dans le secteur c2.
Lorsque l'objet mobile 19 est introduit entre la première 31 et la deuxième 32 surface de séparation au droit du secteur c2, l'unité de traitement 17 provoque l'affichage d'un disque dans chaque secteur à l'exception du
secteur c2. Deux options sont alors offertes.
Selon une première option, l'objet mobile 19 se déplace en direction de l'écran 14 pour apparaître entre la deuxième 32 et la troisième 33 surface de séparation toujours au droit du secteur c2. Ce déplacement provoque l'affichage
d'un nouveau disque dans chaque secteur.
Selon une deuxième option, l'objet mobile 19 se déplace latéralement entre la première 31 et la deuxième 32 surface de séparation pour atteindre un autre secteur, le secteur J2 par exemple. Un nouveau déplacement de l'objet mobile 19 en direction de l'écran 14 pour apparaître entre la deuxième 32 et la troisième 33 surfaces de séparation toujours au droit du secteur d2 provoque la
visualisation du premier morceau du disque.
Si l'objet mobile 19 se déplace encore en direction de l'écran pour apparaître entre la troisième surface de séparation 33 et la surface d'appui 14
toujours au droit du secteur d2, c'est le morceau suivant qui est reproduit.
Si par contre l'objet mobile 19 se déplace en direction de la surface d'accès 15 pour apparaître entre la première 31 et la deuxième 32 surface de séparation toujours au droit du secteur d2, c'est le morceau précédent qui est
reproduit.
A titre d'exemple, l'unité de traitement 17 visualise à nouveau l'appareil
de reproduction sonore lorsque l'objet mobile 19 revient au droit du secteur c2.
Lorsque l'objet mobile 19 est introduit entre la première 31 et la deuxième 32 surface de séparation au droit du secteur b, l'unité de traitement 17 provoque l'affichage d'un niveau sonore identifié dans chaque secteur à
l'exception du secteur bM. Deux options sont alors offertes.
L'objet mobile 19 se déplace latéralement entre la première 31 et la deuxième 32 surface de séparation pour atteindre le secteur correspondant au niveau sonore souhaité. Un nouveau déplacement de l'objet mobile 19 en direction de l'écran 14 pour apparaître entre la deuxième 32 et la troisième 33 surfaces de séparation règle le volume de l'appareil de reproduction sonore au
niveau souhaité.
A titre d'exemple, l'unité de traitement 17 visualise à nouveau l'appareil
de reproduction sonore lorsque l'objet mobile 19 revient au droit du secteur bM.
Dans l'exemple de réalisation ci-dessus, trois surfaces de séparation 31, 32, 33 sont prévues. Naturellement, l'invention s'applique quel que soit le nombre
de ces surfaces de séparation pourvu qu'il y en ait au moins une.
Par ailleurs, le procédé d'imagerie qui permet de déterminer la position de l'objet mobile 19 dans la zone de localisation 13 n'est pas plus détaillé car
l'homme du métier dispose de nombreuses solutions connues.
De même, le dispositif qui permet de mettre en oeuvre la méthode de commande exposée ci-dessus ne nécessite pas d'explications supplémentaires. En effet il est réalisé au moyen d'éléments que l'homme du métier emploie couramment.
L'exemple de réalisation de l'invention présenté ci-dessus a été choisi
pour son caractère concret. Il ne serait cependant pas possible de répertorier de manière exhaustive tous les modes de réalisation que recouvre cette invention. En particulier, toute étape ou tout moyen décrit peut-être remplacé par une étape ou un moyen équivalent sans sortir du cadre de la présente invention.

Claims (4)

REVENDICATIONS
1) Méthode de commande d'une machine au moyen de la position d'un objet mobile 19 dans une zone de localisation 13, cette zone de localisation présentant une première surface de séparation 31 disposée entre une surface d'accès 15 et une surface d'appui 14, ladite méthode faisant appel à un procédé d'imagerie pour déterminer en regard de quel
secteur identifié b2 de la surface d'appui 14 se trouve ledit objet mobile 19, cette méthode produisant une commande de premier rang fonction de ce secteur identifié b2, cette méthode produisant également une commande de deuxième rang lorsque ledit objet 19 mobile a traversé ladite première surface de séparation 31, caractérisée en ce que ladite commande de deuxième rang est fonction du secteur identifié b2 en regard duquel se trouve ledit objet mobile 19.
2) Méthode selon la revendication 1 caractérisée en ce que, ladite zone de localisation 13 comportant une deuxième surface de séparation 32 disposée entre ladite première surface de séparation 31 et ladite surface d'appui 14, elle produit une commande de troisième rang lorsque ledit objet mobile a traversé ladite deuxième surface de séparation 32, cette commande de troisième rang étant également fonction du secteur 20 identifié b2 en regard duquel se trouve ledit objet mobile 19 et différant
de la commande correspondante de deuxième rang.
3) Méthode selon l'une quelconque des revendications 1 ou 2 caractérisée en ce que, une zone de surveillance 16 jouxtant la surface d'accès 15 de ladite zone de localisation 13, elle produit une commande d'activation 25 lorsque ledit objet mobile 19 a pénétré dans cette zone de surveillance
16.
4) Dispositif comprenant des moyens 11, 12, 17 pour la mise en oeuvre de
la méthode selon l'une quelconque des revendications précédentes.
FR0215515A 2002-11-19 2002-11-19 Methode de commande d'une machine au moyen de la position d'un objet mobile Pending FR2847357A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR0215515A FR2847357A1 (fr) 2002-11-19 2002-11-19 Methode de commande d'une machine au moyen de la position d'un objet mobile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0215515A FR2847357A1 (fr) 2002-11-19 2002-11-19 Methode de commande d'une machine au moyen de la position d'un objet mobile

Publications (1)

Publication Number Publication Date
FR2847357A1 true FR2847357A1 (fr) 2004-05-21

Family

ID=32187822

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0215515A Pending FR2847357A1 (fr) 2002-11-19 2002-11-19 Methode de commande d'une machine au moyen de la position d'un objet mobile

Country Status (1)

Country Link
FR (1) FR2847357A1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007063306A2 (fr) * 2005-12-02 2007-06-07 Spiral Scratch Limited Interface informatique virtuelle
US9218704B2 (en) 2011-11-01 2015-12-22 Pepsico, Inc. Dispensing system and user interface
US9721060B2 (en) 2011-04-22 2017-08-01 Pepsico, Inc. Beverage dispensing system with social media capabilities

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0905644A2 (fr) * 1997-09-26 1999-03-31 Matsushita Electric Industrial Co., Ltd. Dispositif de reconnaissance de gestes de la main
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
WO2002016875A1 (fr) * 2000-08-24 2002-02-28 Siemens Aktiengesellschaft Procede de recherche d'informations de destination et pour la navigation dans une representation cartographique, progiciel et appareil de navigation y relatifs
WO2002029722A2 (fr) * 2000-10-03 2002-04-11 Jestertek, Inc. Systeme de controle a cameras multiples

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0905644A2 (fr) * 1997-09-26 1999-03-31 Matsushita Electric Industrial Co., Ltd. Dispositif de reconnaissance de gestes de la main
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
WO2002016875A1 (fr) * 2000-08-24 2002-02-28 Siemens Aktiengesellschaft Procede de recherche d'informations de destination et pour la navigation dans une representation cartographique, progiciel et appareil de navigation y relatifs
WO2002029722A2 (fr) * 2000-10-03 2002-04-11 Jestertek, Inc. Systeme de controle a cameras multiples

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007063306A2 (fr) * 2005-12-02 2007-06-07 Spiral Scratch Limited Interface informatique virtuelle
WO2007063306A3 (fr) * 2005-12-02 2007-08-30 Spiral Scratch Ltd Interface informatique virtuelle
US9721060B2 (en) 2011-04-22 2017-08-01 Pepsico, Inc. Beverage dispensing system with social media capabilities
US9218704B2 (en) 2011-11-01 2015-12-22 Pepsico, Inc. Dispensing system and user interface
US10005657B2 (en) 2011-11-01 2018-06-26 Pepsico, Inc. Dispensing system and user interface
US10435285B2 (en) 2011-11-01 2019-10-08 Pepsico, Inc. Dispensing system and user interface
US10934149B2 (en) 2011-11-01 2021-03-02 Pepsico, Inc. Dispensing system and user interface

Similar Documents

Publication Publication Date Title
EP3079047B1 (fr) Procédé pour interagir avec un appareil mettant en oeuvre une surface de commande capacitive et appareil mettant en oeuvre ce procédé
EP1227442A1 (fr) Procédé- de traitement d'images en 2D appliquées sur des objets en 3D
EP1062566A1 (fr) Procede de navigation en image de synthese 3d par la manipulation d'image 3d "navigation hyper 3d"
EP1719047B1 (fr) Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact
US8212768B2 (en) Digital, data, and multimedia user interface with a keyboard
CN110337318A (zh) 混合现实装置中的虚拟和真实对象记录
JP2022009202A (ja) マルチビューインタラクティブデジタルメディア表現へのオーディオの統合
FR2936326A1 (fr) Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts
FR2882600A1 (fr) Clavier virtuel acoustique, dispositif et procede.
WO2002001490A1 (fr) Plaque acoustique interactive de precision
FR2757660A1 (fr) Appareil de detection de position et appareil de telecommande
WO2004068085A3 (fr) Procede et dispositif de representation imagee d'objets acoustiques, produit-programme informatique correspondant et support d'enregistrement lisible par ordinateur correspondant
FR2847357A1 (fr) Methode de commande d'une machine au moyen de la position d'un objet mobile
US9304674B1 (en) Depth-based display navigation
US8089456B2 (en) Inputting information using holographic techniques
EP2926232A1 (fr) Système et procédé de communication reproduisant une interactivité de type physique
FR2971864A1 (fr) Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle
WO2007068824A2 (fr) Systeme de visualisation pour la manipulation d'un objet
FR3077910A1 (fr) Procede d'aide a la maintenance d'un systeme complexe
FR2853423A1 (fr) Dispositif de saisie comportant un capteur optique suivi d'un moyen de filtrage
WO2006027423A1 (fr) Dispositif de saisie comportant un capteur optique suivi d’un moyen de filtrage
FR2731290A1 (fr) Telecommande virtuelle a laser
EP0938699A1 (fr) Interface pour cederoms
WO2014053731A1 (fr) Dispositif de commande d'un systeme informatique et/ou electronique
WO2015014945A1 (fr) Système de programmation d'un système d'analyse de situation embarqué sur un porteur comportant au moins un système d'écoute embarqué

Legal Events

Date Code Title Description
TP Transmission of property