JP2014225288A - 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム - Google Patents
自然なジェスチャに基づくユーザ・インターフェース方法及びシステム Download PDFInfo
- Publication number
- JP2014225288A JP2014225288A JP2014158723A JP2014158723A JP2014225288A JP 2014225288 A JP2014225288 A JP 2014225288A JP 2014158723 A JP2014158723 A JP 2014158723A JP 2014158723 A JP2014158723 A JP 2014158723A JP 2014225288 A JP2014225288 A JP 2014225288A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- user interface
- poi
- user
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6045—Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、個々の実施例に関して及びある特定の図面を参照して説明されることになるが、本発明はそれらに限定されない。記載された図面は、単に概略的に過ぎず、限定するものではない。図中で、その要素のうちのいくつかのサイズは、例示目的のために、誇張されていることがあり、原寸に比例して描かれていないこともある。
ID(a)HR(t)=ID(Dmin(V(E);V({A,B,C,D}LR(t));
V({0,1,2,3,4,5,6,7,8,9,10,11}HR(t−1)))
但し、
ID(a)は、画素「a」の識別タグであり、
LR(t)は、時間tでのより低い解像度画像であり、
HR(t)は、時間tでのより高い解像度画像であり、
HR(t−1)は、時間t−1でのより高い解像度画像であり、
Dmin(V;X)は、画素「E」とXの間の最小ユークリッド距離であり、但し、Xは最も近いクラスタの重心の位置であり、
V(x)は、対応する画素の三次元値であり、そのIDはxであり、
{A,B,C,D}は、より低い解像度配列900内の画素クラスタ識別候補リストであり、
{0,1,2,3,4,5,6,7,8,9,10,11}は、t−1でのより高い解像度配列960内の画素クラスタ識別候補リストである。
(i)時間tでのより低い解像度配列900内の対応する画素「E」の三次元値(V(E))、
(ii)時間tでのより低い解像度配列900内の対応する画素「A」、「Β」、「C」又は「D」のうちのいずれか1つの三次元値(V({A,B,C,D}LR(t))、或いは、
(iii)時間t−1でのより高い解像度配列960内の対応する画素「0」から「11」のうちのいずれか1つの三次元値1V({0,1,2,3,4,5,6,7,8,9,10,11}HR(t−1))。
(i)ポイントDからポイントAに、+Y軸の方向で変化がある。
(ii)ポイントAからポイントBに、+X軸の方向で変化がある。
(iii)ポイントBからポイントCに、−Y軸の方向で変化がある。及び、
(iv)ポイントCからポイントDに、−X軸の方向で変化がある。
(i)取込みデバイス入力データへのスケーラビリティ、すなわち、任意の解像度の画像に対応、
(ii)実時間クロスプラットフォーム動作、すなわち、任意のハードウェア及び/又はオペレーティング・システムに対応、
(iii)事前のユーザ/物体検出及び/又は識別を必要としない、
(iv)事前のユーザ部分/物体部分検出及び/又は識別を必要としない、
(v)ジェスチャ分類子を必要としない、
(vi)多重コントローラが許可され得る、すなわち、複数ROI及び/又は複数ユーザ/物体、
(vii)多重POIが許可され得る、すなわち、いくつかのPOIが各単一のROI内で許可される、
(viii)特定の追跡/動き推定アルゴリズムを必要としない、
(ix)最小限の身体的努力インターフェース、すなわち、インターフェースレイアウト編成での改良されたユーザ体験、
(x)直観的及び効率的なインターフェース、すなわち、制御のための少しの自然なジェスチャの使用、並びに、
(xi)インターフェースからのインテリジェント文脈情報フィードバック。
Claims (16)
- ユーザ・インターフェース・システムが接続されたコンピュータ化されたシステムとユーザとの対話を提供するユーザ・インターフェース・システムであって、
少なくとも1つの多次元の画像化システムであって、シーンの少なくとも1つの多次元の表現を、前記少なくとも1つの多次元の画像化システムの視界内に形成する、前記少なくとも1つの多次元の画像化システムと、
前記多次元の表現において多次元の制約付きクラスタリング動作を実行して、前記シーンのクラスタ化された表現を生成し、該クラスタ化された表現から対象ポイント候補を識別するように動作する、前記少なくとも1つの多次元の画像化システムに接続されたプロセッサであって、各対象ポイント候補は、前記クラスタ化された表現内で、他の1つのクラスタのみに接続されたクラスタであって、コヒーレントな動きを示す前記クラスタとして識別される、前記プロセッサと、
前記少なくとも1つの多次元の画像化システムおよび前記プロセッサに接続され、前記少なくとも1つの多次元の画像化システムの視界内の少なくとも1つの対象ポイント候補によって実行されたジェスチャを認識し、認識されたジェスチャを用いて前記コンピュータ化されたシステムを制御する、ジェスチャ認識システムと、
を含む、前記ユーザ・インターフェース・システム。 - 前記ジェスチャ認識システムは、アクティブ化ジェスチャ検出器を含み、該アクティブ化ジェスチャ検出器は、少なくとも連続的軌道分析を使用して、
少なくとも1つの識別された対象ポイント候補の軌道に沿って軌道ポイントを識別し、
基準シード識別オーダを有する少なくとも1つの基準シード・ポイントを形成する少なくとも1つの多次元の変化を、前記少なくとも1つの識別された対象ポイント候補の軌道方向で識別し、
前記基準シード・ポイント及び前記軌道ポイントを使用してジェスチャを認識する、請求項1に記載のユーザ・インターフェース・システム。 - 少なくとも前記基準シード・ポイントを記憶するメモリを更に含む、請求項2に記載のユーザ・インターフェース・システム。
- 前記アクティブ化ジェスチャ検出器は、少なくとも1つの所定の対象ポイント候補によって実行された所定のジェスチャを認識し、各所定の対象ポイント候補をアクティブ化する信号を前記プロセッサに提供する、請求項2又は3に記載のユーザ・インターフェース・システム。
- 前記プロセッサは、前記ジェスチャ認識システムから受信した前記信号に基づいて、アクティブ化された対象ポイントとして対象ポイント候補をアクティブ化し、各アクティブ化された対象ポイントが対象ポイント候補状態をなお有する、請求項4に記載のユーザ・インターフェース・システム。
- 前記アクティブ化された対象ポイントを管理する対象ポイント(POI)マネージャを更に含む、請求項5に記載のユーザ・インターフェース・システム。
- 前記ジェスチャ認識システムは、前記アクティブ化された対象ポイントの前記軌道ポイント及びシード・ポイントの少なくともいずれか1つを分析して、前記コンピュータ化されたシステムを制御するジェスチャを判定する、請求項6に記載のユーザ・インターフェース・システム。
- 前記プロセッサは、各アクティブ化された対象ポイントに関連する対象領域を判定する、請求項5から7までのいずれか一項に記載のユーザ・インターフェース・システム。
- 各アクティブ化された対象ポイントに関連する前記対象領域を管理する、対象領域(ROI)マネージャを更に含む、請求項7に記載のユーザ・インターフェース・システム。
- 前記ジェスチャ認識システムは、対象領域内に配置された、複数のアクティブ化された対象ポイントから前記コンピュータ化されたシステムを制御するためのジェスチャを判定する、請求項5から9までのいずれか一項に記載のユーザ・インターフェース・システム。
- アクティブ化された対象ポイントが前記コンピュータ化されたシステムを制御するように対話可能なグラフィカル・ユーザ・インターフェースを更に含む、請求項5から10までのいずれか一項に記載のユーザ・インターフェース・システム。
- 前記グラフィカル・ユーザ・インターフェースは、最小限の自然なジェスチャのみを使用して選択するための要素の所定の配置を有する、請求項11に記載のユーザ・インターフェース・システム。
- 前記プロセッサが、対象ポイント候補を判定するための隣接グラフ・ビルダを更に含む、請求項1から12までのいずれか一項に記載のユーザ・インターフェース・システム。
- 視覚的フィードバックを提供するディスプレイを更に含む、請求項1から13までのいずれか一項に記載のユーザ・インターフェース・システム。
- 音声フィードバック・システムを更に含む、請求項1から14までのいずれか一項に記載のユーザ・インターフェース・システム。
- 前記多次元の画像化システムは、三次元画像化システムを含む、請求項1から15までのいずれか一項に記載のユーザ・インターフェース・システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP11150271.2 | 2011-01-05 | ||
EP11150271.2A EP2474950B1 (en) | 2011-01-05 | 2011-01-05 | Natural gesture based user interface methods and systems |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013546740A Division JP5646085B2 (ja) | 2011-01-05 | 2012-01-04 | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014225288A true JP2014225288A (ja) | 2014-12-04 |
JP6031071B2 JP6031071B2 (ja) | 2016-11-24 |
Family
ID=44005288
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013546740A Active JP5646085B2 (ja) | 2011-01-05 | 2012-01-04 | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
JP2014158723A Active JP6031071B2 (ja) | 2011-01-05 | 2014-08-04 | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013546740A Active JP5646085B2 (ja) | 2011-01-05 | 2012-01-04 | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
Country Status (10)
Country | Link |
---|---|
US (1) | US9081419B2 (ja) |
EP (1) | EP2474950B1 (ja) |
JP (2) | JP5646085B2 (ja) |
KR (1) | KR101554082B1 (ja) |
CN (1) | CN103314391B (ja) |
AU (1) | AU2012204889B2 (ja) |
CA (1) | CA2817443C (ja) |
SG (1) | SG190826A1 (ja) |
TW (1) | TWI524210B (ja) |
WO (1) | WO2012093147A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022501697A (ja) * | 2017-11-16 | 2022-01-06 | コントロール バイオニクス ホールディングス ピーティーワイ リミテッド | 文脈依存性ユーザインタフェースを備えた筋電位(emg)支援通信デバイス |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US9374448B2 (en) | 2012-05-27 | 2016-06-21 | Qualcomm Incorporated | Systems and methods for managing concurrent audio messages |
EP2872966A1 (en) | 2012-07-12 | 2015-05-20 | Dual Aperture International Co. Ltd. | Gesture-based user interface |
CN105378593B (zh) * | 2012-07-13 | 2019-03-01 | 索尼深度传感解决方案股份有限公司 | 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 |
US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
US8994827B2 (en) | 2012-11-20 | 2015-03-31 | Samsung Electronics Co., Ltd | Wearable electronic device |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
US9477313B2 (en) | 2012-11-20 | 2016-10-25 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving outward-facing sensor of device |
US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
US10185416B2 (en) | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
KR101450586B1 (ko) * | 2012-11-28 | 2014-10-15 | (주) 미디어인터랙티브 | 동작 인식 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 |
USD732076S1 (en) * | 2013-01-04 | 2015-06-16 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with animated icon |
DE102013100522A1 (de) * | 2013-01-18 | 2014-08-07 | Huf Hülsbeck & Fürst Gmbh & Co. Kg | Universelle Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US9092665B2 (en) * | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
DE102013003033A1 (de) * | 2013-02-22 | 2014-08-28 | Audi Ag | Verfahren zum Betreiben einer Wiedergabeeinrichtung sowie Vorrichtung mit einer solchen Wiedergabeeinrichtung |
RU2013110494A (ru) | 2013-03-11 | 2014-09-20 | ЭлЭсАй Корпорейшн | Устройство обработки изображений с уровнем оценки, реализующим программный и аппаратный алгоритмы разной точности |
EP2973427B1 (en) | 2013-03-15 | 2020-09-09 | Intel Corporation | Continuous interaction learning and detection in real-time |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US10533850B2 (en) | 2013-07-12 | 2020-01-14 | Magic Leap, Inc. | Method and system for inserting recognized object data into a virtual world |
US20150067603A1 (en) * | 2013-09-05 | 2015-03-05 | Kabushiki Kaisha Toshiba | Display control device |
US20150116200A1 (en) * | 2013-10-25 | 2015-04-30 | Honda Motor Co., Ltd. | System and method for gestural control of vehicle systems |
US10311595B2 (en) | 2013-11-19 | 2019-06-04 | Canon Kabushiki Kaisha | Image processing device and its control method, imaging apparatus, and storage medium |
JP6429466B2 (ja) * | 2013-11-19 | 2018-11-28 | キヤノン株式会社 | 画像処理装置およびその制御方法、撮像装置、プログラム |
JP6344903B2 (ja) * | 2013-11-19 | 2018-06-20 | キヤノン株式会社 | 画像処理装置およびその制御方法、撮像装置、プログラム |
CN103616952B (zh) * | 2013-12-03 | 2017-08-08 | 北京悦动双成科技有限公司 | 确定动作的方法及三维传感器 |
US9390726B1 (en) | 2013-12-30 | 2016-07-12 | Google Inc. | Supplementing speech commands with gestures |
US9213413B2 (en) | 2013-12-31 | 2015-12-15 | Google Inc. | Device interaction with spatially aware gestures |
EP2891950B1 (en) | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
KR102265143B1 (ko) * | 2014-05-16 | 2021-06-15 | 삼성전자주식회사 | 입력 처리 장치 및 방법 |
USD766305S1 (en) * | 2014-05-21 | 2016-09-13 | Panasonic Intellectual Property Management Co., Ltd. | Portion of a vehicle display screen with graphical user interface |
USD764493S1 (en) * | 2014-11-14 | 2016-08-23 | Microsoft Corporation | Display screen with animated graphical user interface |
CN105843371B (zh) * | 2015-01-13 | 2018-11-02 | 上海速盟信息技术有限公司 | 人机隔空交互方法及系统 |
WO2016167672A1 (es) * | 2015-04-14 | 2016-10-20 | Delmar Lissa Jose Antonio | Dispositivo portátil de comunicación para transmitir mensajes táctiles |
CN107533359B (zh) * | 2015-05-20 | 2019-04-23 | 三菱电机株式会社 | 信息处理装置和联锁控制方法 |
KR20160147326A (ko) | 2015-06-15 | 2016-12-23 | 동의대학교 산학협력단 | 깊이 영상 처리 기반의 가상 키보드 조작 방법 |
EP3115926A1 (en) * | 2015-07-08 | 2017-01-11 | Nokia Technologies Oy | Method for control using recognition of two-hand gestures |
JP6569496B2 (ja) * | 2015-11-26 | 2019-09-04 | 富士通株式会社 | 入力装置、入力方法、及びプログラム |
CN105549873A (zh) * | 2015-12-03 | 2016-05-04 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
US10217283B2 (en) * | 2015-12-17 | 2019-02-26 | Google Llc | Navigation through multidimensional images spaces |
US9900584B2 (en) * | 2016-04-27 | 2018-02-20 | Semyon Nisenzon | Depth map generation based on cluster hierarchy and multiple multiresolution camera clusters |
USD814477S1 (en) * | 2016-07-19 | 2018-04-03 | Resounding, Llc | Display screen or portion thereof with graphical user interface |
CN106155326A (zh) * | 2016-07-26 | 2016-11-23 | 北京小米移动软件有限公司 | 虚拟现实通讯中的对象识别方法和装置、虚拟现实设备 |
US10832071B2 (en) | 2016-09-01 | 2020-11-10 | International Business Machines Corporation | Dynamic determination of human gestures based on context |
CN107918481B (zh) * | 2016-10-08 | 2022-11-11 | 深圳巧牛科技有限公司 | 基于手势识别的人机交互方法与系统 |
CN110545886A (zh) * | 2016-12-05 | 2019-12-06 | 优史佩斯公司 | 用于基于手势的交互的系统和方法 |
US10437342B2 (en) | 2016-12-05 | 2019-10-08 | Youspace, Inc. | Calibration systems and methods for depth-based interfaces with disparate fields of view |
US10303417B2 (en) | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Interactive systems for depth-based input |
US10303259B2 (en) | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Systems and methods for gesture-based interaction |
US11010813B2 (en) * | 2016-12-14 | 2021-05-18 | Walmart Apollo, Llc | System for building grocery basket and method of using same |
CN107478227B (zh) * | 2017-07-11 | 2020-06-16 | 厦门博尔利信息技术有限公司 | 交互式大型空间的定位算法 |
EP3454177B1 (en) * | 2017-09-11 | 2020-06-10 | Barco N.V. | Method and system for efficient gesture control of equipment |
USD982613S1 (en) * | 2018-04-06 | 2023-04-04 | Google Llc | Display screen with animated graphical user interface |
CN109348400B (zh) * | 2018-09-16 | 2020-08-04 | 台州昉创科技有限公司 | 一种3d音效的主体位姿预判方法 |
USD917557S1 (en) * | 2019-03-12 | 2021-04-27 | Capital One Services, Llc | Display screen or portion thereof with animated card communication interface |
US11559738B2 (en) | 2019-12-11 | 2023-01-24 | Playerunknown Productions B.V. | Machine learned virtual gaming environment |
CN111695420B (zh) * | 2020-04-30 | 2024-03-08 | 华为技术有限公司 | 一种手势识别方法以及相关装置 |
CN112818224B (zh) * | 2021-01-26 | 2024-02-20 | 北京百度网讯科技有限公司 | 信息推荐方法、装置、电子设备及可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366958A (ja) * | 2001-06-08 | 2002-12-20 | Toshiba Corp | 画像認識方法および画像認識装置 |
WO2010011923A1 (en) * | 2008-07-24 | 2010-01-28 | Gesturetek, Inc. | Enhanced detection of circular engagement gesture |
JP2010081466A (ja) * | 2008-09-29 | 2010-04-08 | Hitachi Ltd | 操作制御装置及び操作表示方法 |
JP2010525432A (ja) * | 2007-04-20 | 2010-07-22 | ソフトキネティック エス.エイ. | ボリューム認識方法およびシステム |
JP2010262400A (ja) * | 2009-04-30 | 2010-11-18 | Denso Corp | 車載用電子機器操作装置 |
WO2010138952A2 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Gesture shortcuts |
JP2010541398A (ja) * | 2007-09-24 | 2010-12-24 | ジェスチャー テック,インコーポレイテッド | 音声及びビデオ通信のための機能向上したインタフェース |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6683968B1 (en) * | 1999-09-16 | 2004-01-27 | Hewlett-Packard Development Company, L.P. | Method for visual tracking using switching linear dynamic system models |
WO2002037471A2 (en) * | 2000-11-03 | 2002-05-10 | Zoesis, Inc. | Interactive character system |
WO2003071410A2 (en) * | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
DE20300882U1 (de) | 2003-01-21 | 2003-03-13 | Fraunhofer Ges Forschung | Vorrichtung zur interaktiven Steuerung eines Mauszeigers einer graphischen Benutzerschnittstelle |
JP2005242759A (ja) * | 2004-02-27 | 2005-09-08 | National Institute Of Information & Communication Technology | 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
EP2458554B1 (en) * | 2005-01-21 | 2015-04-29 | Qualcomm Incorporated | Motion-based tracking |
CN101952818B (zh) | 2007-09-14 | 2016-05-25 | 智慧投资控股81有限责任公司 | 基于姿态的用户交互的处理 |
US8555207B2 (en) | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
WO2010011929A1 (en) | 2008-07-25 | 2010-01-28 | Gesturetek, Inc. | Enhanced detection of waving engagement gesture |
WO2010103482A2 (en) | 2009-03-13 | 2010-09-16 | Primesense Ltd. | Enhanced 3d interfacing for remote devices |
US9377857B2 (en) | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
EP2480955B1 (en) * | 2009-09-22 | 2018-05-16 | Facebook Inc. | Remote control of computer devices |
US20110151974A1 (en) * | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Gesture style recognition and reward |
EP2357605B1 (en) * | 2009-12-28 | 2013-01-16 | Softkinetic Software | Stabilisation method and computer system |
WO2011106520A1 (en) * | 2010-02-24 | 2011-09-01 | Ipplex Holdings Corporation | Augmented reality panorama supporting visually impaired individuals |
US8558873B2 (en) * | 2010-06-16 | 2013-10-15 | Microsoft Corporation | Use of wavefront coding to create a depth image |
US8578299B2 (en) * | 2010-10-08 | 2013-11-05 | Industrial Technology Research Institute | Method and computing device in a system for motion detection |
-
2011
- 2011-01-05 EP EP11150271.2A patent/EP2474950B1/en active Active
-
2012
- 2012-01-04 WO PCT/EP2012/050115 patent/WO2012093147A1/en active Application Filing
- 2012-01-04 JP JP2013546740A patent/JP5646085B2/ja active Active
- 2012-01-04 SG SG2013038229A patent/SG190826A1/en unknown
- 2012-01-04 AU AU2012204889A patent/AU2012204889B2/en not_active Ceased
- 2012-01-04 CN CN201280004764.7A patent/CN103314391B/zh active Active
- 2012-01-04 CA CA2817443A patent/CA2817443C/en active Active
- 2012-01-04 KR KR1020137020205A patent/KR101554082B1/ko active IP Right Grant
- 2012-01-05 TW TW101100435A patent/TWI524210B/zh active
-
2013
- 2013-06-28 US US13/931,332 patent/US9081419B2/en active Active
-
2014
- 2014-08-04 JP JP2014158723A patent/JP6031071B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366958A (ja) * | 2001-06-08 | 2002-12-20 | Toshiba Corp | 画像認識方法および画像認識装置 |
JP2010525432A (ja) * | 2007-04-20 | 2010-07-22 | ソフトキネティック エス.エイ. | ボリューム認識方法およびシステム |
JP2010541398A (ja) * | 2007-09-24 | 2010-12-24 | ジェスチャー テック,インコーポレイテッド | 音声及びビデオ通信のための機能向上したインタフェース |
WO2010011923A1 (en) * | 2008-07-24 | 2010-01-28 | Gesturetek, Inc. | Enhanced detection of circular engagement gesture |
JP2010081466A (ja) * | 2008-09-29 | 2010-04-08 | Hitachi Ltd | 操作制御装置及び操作表示方法 |
JP2010262400A (ja) * | 2009-04-30 | 2010-11-18 | Denso Corp | 車載用電子機器操作装置 |
WO2010138952A2 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Gesture shortcuts |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022501697A (ja) * | 2017-11-16 | 2022-01-06 | コントロール バイオニクス ホールディングス ピーティーワイ リミテッド | 文脈依存性ユーザインタフェースを備えた筋電位(emg)支援通信デバイス |
JP7149492B2 (ja) | 2017-11-16 | 2022-10-07 | コントロール バイオニクス リミテッド | 文脈依存性ユーザインタフェースを備えた筋電位(emg)支援通信デバイス |
Also Published As
Publication number | Publication date |
---|---|
CN103314391A (zh) | 2013-09-18 |
US20140007022A1 (en) | 2014-01-02 |
KR20130112061A (ko) | 2013-10-11 |
CA2817443A1 (en) | 2012-07-12 |
KR101554082B1 (ko) | 2015-09-17 |
EP2474950B1 (en) | 2013-08-21 |
JP2014501415A (ja) | 2014-01-20 |
JP6031071B2 (ja) | 2016-11-24 |
AU2012204889B2 (en) | 2014-09-11 |
AU2012204889A1 (en) | 2013-04-18 |
CN103314391B (zh) | 2017-03-01 |
SG190826A1 (en) | 2013-07-31 |
TW201237677A (en) | 2012-09-16 |
JP5646085B2 (ja) | 2014-12-24 |
US9081419B2 (en) | 2015-07-14 |
WO2012093147A1 (en) | 2012-07-12 |
TWI524210B (zh) | 2016-03-01 |
EP2474950A1 (en) | 2012-07-11 |
CA2817443C (en) | 2015-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6031071B2 (ja) | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム | |
US11460929B2 (en) | User-defined virtual interaction space and manipulation of virtual cameras with vectors | |
US8126221B2 (en) | Interactive device and method for transmitting commands from a user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160128 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161021 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6031071 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |