WO2015105919A3 - Procédés et appareil pour la reconnaissance des sections de début et/ou de fin d'un geste au moyen d'un capteur auxiliaire et pour la cartographie d'un mouvement humain arbitraire dans un espace arbitraire délimité par une étendue de mouvement d'un utilisateur - Google Patents

Procédés et appareil pour la reconnaissance des sections de début et/ou de fin d'un geste au moyen d'un capteur auxiliaire et pour la cartographie d'un mouvement humain arbitraire dans un espace arbitraire délimité par une étendue de mouvement d'un utilisateur Download PDF

Info

Publication number
WO2015105919A3
WO2015105919A3 PCT/US2015/010533 US2015010533W WO2015105919A3 WO 2015105919 A3 WO2015105919 A3 WO 2015105919A3 US 2015010533 W US2015010533 W US 2015010533W WO 2015105919 A3 WO2015105919 A3 WO 2015105919A3
Authority
WO
WIPO (PCT)
Prior art keywords
methods
motion
arbitrary
gesture
user
Prior art date
Application number
PCT/US2015/010533
Other languages
English (en)
Other versions
WO2015105919A2 (fr
Inventor
Anusankar Elangovan
Harsh MENON
William Mitchell BRADLEY
Original Assignee
Nod, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nod, Inc. filed Critical Nod, Inc.
Publication of WO2015105919A2 publication Critical patent/WO2015105919A2/fr
Publication of WO2015105919A3 publication Critical patent/WO2015105919A3/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device

Abstract

L'invention concerne un appareil et des procédés pour la reconstruction d'un geste par agrégation de diverses données issues de divers capteurs, notamment des données de reconnaissance de sections de début et/ou de fin du geste au moyen d'un capteur auxiliaire, comme un capteur tactile capacitatif ou un capteur MEMS. L'invention concerne également un appareil et des procédés pour reconstruire une posture squelettique partielle par agrégation de diverses données issues de divers capteurs, en particulier, elle concerne des procédés et un appareil pour cartographier un mouvement humain arbitraire dans un espace arbitraire délimité par une étendue de mouvement d'un utilisateur. Des modes de réalisation particuliers concernent des procédés et un appareil pour projeter un mouvement humain arbitraire dans un espace à coordonnées tridimensionnelles sur un plan bidimensionnel afin de permettre une interaction avec des interfaces utilisateur bidimensionnelles.
PCT/US2015/010533 2014-01-07 2015-01-07 Procédés et appareil pour la reconnaissance des sections de début et/ou de fin d'un geste au moyen d'un capteur auxiliaire et pour la cartographie d'un mouvement humain arbitraire dans un espace arbitraire délimité par une étendue de mouvement d'un utilisateur WO2015105919A2 (fr)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201461924682P 2014-01-07 2014-01-07
US201461924669P 2014-01-07 2014-01-07
US61/924,682 2014-01-07
US61/924,669 2014-01-07

Publications (2)

Publication Number Publication Date
WO2015105919A2 WO2015105919A2 (fr) 2015-07-16
WO2015105919A3 true WO2015105919A3 (fr) 2015-10-01

Family

ID=53524466

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/US2015/010533 WO2015105919A2 (fr) 2014-01-07 2015-01-07 Procédés et appareil pour la reconnaissance des sections de début et/ou de fin d'un geste au moyen d'un capteur auxiliaire et pour la cartographie d'un mouvement humain arbitraire dans un espace arbitraire délimité par une étendue de mouvement d'un utilisateur

Country Status (1)

Country Link
WO (1) WO2015105919A2 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019232000A1 (fr) * 2018-05-30 2019-12-05 Google Llc Procédés et systèmes d'identification d'entrée par gestes humains tridimensionnels

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
US20120319940A1 (en) * 2011-06-16 2012-12-20 Daniel Bress Wearable Digital Input Device for Multipoint Free Space Data Collection and Analysis
WO2013104681A1 (fr) * 2012-01-09 2013-07-18 Softkinetic Software Système et procédé permettant d'améliorer une interaction basée sur les gestes
US20130290911A1 (en) * 2011-01-19 2013-10-31 Chandra Praphul Method and system for multimodal and gestural control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
US20130290911A1 (en) * 2011-01-19 2013-10-31 Chandra Praphul Method and system for multimodal and gestural control
US20120319940A1 (en) * 2011-06-16 2012-12-20 Daniel Bress Wearable Digital Input Device for Multipoint Free Space Data Collection and Analysis
WO2013104681A1 (fr) * 2012-01-09 2013-07-18 Softkinetic Software Système et procédé permettant d'améliorer une interaction basée sur les gestes

Also Published As

Publication number Publication date
WO2015105919A2 (fr) 2015-07-16

Similar Documents

Publication Publication Date Title
USD804671S1 (en) Ultrasound diagnosis apparatus
WO2015101947A3 (fr) Systèmes et procédés de détection biométrique avec fusion de capteurs
MX2015010321A (es) Identificacion del conductor de un vehículo.
WO2017101907A3 (fr) Appareil de stimulation neuro-vasculaire
WO2013018099A3 (fr) Système et procédé pour assurer l'interface avec un dispositif par le biais d'un affichage en 3d
EP2711059A3 (fr) Système et procédé pour faciliter une interaction avec un espace virtuel
EP2400367A3 (fr) Appareil pour le traitement dýun objet tridimensionnel interactif
USD816081S1 (en) Touch sensor art keyboard
WO2016099906A3 (fr) Placement d'objets assisté dans un système de visualisation tridimensionnel
WO2016100931A8 (fr) Procédé, système, et dispositif pour naviguer dans un environnement de réalité virtuelle
EP3037931A3 (fr) Dispositif de détection tactile, circuit de détection tactile, circuit d'excitation et procédé de commande de dispositif d'affichage
EP2873444A3 (fr) Appareils et procédés de réhabilitation sur la base de réalité virtuelle
TWD179292S (zh) 座標輸入器
EP2672225A3 (fr) Application de navigation
WO2014137806A3 (fr) Langage visuel pour interfaces informatiques humaines
BR112016023928A2 (pt) método de realizar diálogo multimodal entre um robô humanoide e um usuário, programa de computador e robô humanoide para implantação de tal método
WO2012107892A3 (fr) Détection de regard dans un environnement de mappage tridimensionnel (3d)
EP2626779A3 (fr) Comprimé à interface utilisateur
WO2010103482A3 (fr) Interfaçage 3d amélioré pour dispositifs distants
EP3049902A4 (fr) Système de capteur tactile capacitif et procédé
WO2015109323A3 (fr) Systèmes et procédés d'imagerie tridimensionnelle
EP2848239A8 (fr) Aide à marcher véhicule
WO2011145094A3 (fr) Identification et présentation d'un mouvement relatif d'un dispositif dans un vaisseau
EP2330483A3 (fr) Appareil et procédé d'interface d'espace tridimensionnel
EP2506222A3 (fr) Dispositif, procédé et programme de la realité augmentée

Legal Events

Date Code Title Description
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15735119

Country of ref document: EP

Kind code of ref document: A2

122 Ep: pct application non-entry in european phase

Ref document number: 15735119

Country of ref document: EP

Kind code of ref document: A2