JP2011528819A - ユーザインターフェース制御のためのカメラジェスチャ - Google Patents
ユーザインターフェース制御のためのカメラジェスチャ Download PDFInfo
- Publication number
- JP2011528819A JP2011528819A JP2011513067A JP2011513067A JP2011528819A JP 2011528819 A JP2011528819 A JP 2011528819A JP 2011513067 A JP2011513067 A JP 2011513067A JP 2011513067 A JP2011513067 A JP 2011513067A JP 2011528819 A JP2011528819 A JP 2011528819A
- Authority
- JP
- Japan
- Prior art keywords
- movement
- feature points
- camera
- shift
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Abstract
【選択図】図2
Description
Jianbo Shi et al., "Good Features to Track", Proc. EEEE Comput. Soc. Conf.Comput. Vision and Pattern Recogn., pp. 593-600, 1994 Bouguet, J.V., "Pyramidal Implementation of the Lucas Kanade Feature Tracker Description of the Algorithm," Intel Corp. Microprocessor Research Labs, 1999
Claims (36)
- カメラからの現在のビデオ画像において複数の特徴点を特定することと;
前記特徴点の位置と、前記カメラからの過去のビデオ画像における前記特徴点の位置とを比較することと;
前記特徴点の前記位置の変化から、前記カメラの3次元移動を判断することと;
前記カメラの前記3次元移動の識別をジェスチャ出力として出力することと;
を含む、方法。 - 前記判断することは、前記現在の画像と前記過去の画像との間の前記特徴点の位置の差に複数の分類子を適用することによって、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項1に記載の方法。
- 前記複数の分類子は、複数の特徴点が共通の移動距離を共有するか否かに基づく第1の分類子を含む、請求項2に記載の方法。
- 前記複数の分類子は、前記特徴点のうち異なる特徴点は異なる距離を移動したか否かに基づく第2の分類子を含む、請求項2または3に記載の方法。
- 前記複数の分類子は、前記特徴点の平均移動速度に基づく第3の分類子を含む、請求項2から4のいずれか1項に記載の方法。
- 前記現在のビデオ画像において特定された特徴点のうち前記過去のビデオ画像にも見られた特徴点の数を数えることと;
前記特定された特徴点の数を、予め定められた、特徴点の最小数と比較することと;
前記特定された特徴点の数が前記予め定められた最小数を下回る場合に、前記現在のビデオ画像において1つ以上の新しい特徴点を特定することによって、前記特徴点を更新することと;
をさらに含む、請求項1から5のいずれか1項に記載の方法。 - 前記判断することは、前記更新を実行する頻度に基づいて、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項6に記載の方法。
- 前記カメラの移動がシフト移動または回転移動であったことを判断することと;
対応するシフト移動または回転移動を前記カメラの移動履歴に記録するが、前記移動履歴に記録された前記移動とは異なるジェスチャを出力することと;
をさらに含む、請求項1から6のいずれか1項に記載の方法。 - 前記移動がシフト移動であると判断された場合、前記出力することにおいて前記移動を回転移動と識別し、
前記移動が回転移動であると判断された場合、前記出力することおいて前記移動をシフト移動と識別する、
請求項8に記載の方法。 - 前記複数の分類子は、
前記複数の特徴点が共通の移動距離を有するか否かに基づく第1の分類子と;
前記特徴点のうちの2つの移動距離における差に基づく第2の分類子と;
新しい特徴点が必要とされる頻度に基づく第3の分類子と;
前記特徴点の平均移動速度に基づく第4の分類子と;
を含む、請求項2に記載の方法。 - コンピュータ上の3次元ユーザインターフェースを操作するために、携帯電話機カメラを使用すること;
をさらに含む、請求項1から10のいずれか1項に記載の方法。 - 前記判断することは、前記3次元移動がズーム移動であることを判断する、請求項1から11のいずれか1項に記載の方法。
- カメラからビデオ画像データを受信するように構成されるビデオ入力部と、プロセッサとを備える装置であって、前記プロセッサが:
前記カメラからの現在のビデオ画像において複数の特徴点を特定することと;
前記特徴点の位置と、前記カメラからの過去のビデオ画像における前記特徴点の位置とを比較することと;
前記特徴点の前記位置の変化から、前記カメラの3次元移動を判断することと;
前記カメラの前記3次元移動の識別をジェスチャ出力として出力することと;
を実行するように構成される、装置。 - 前記判断することは、前記現在の画像と前記過去の画像との間の前記特徴点の位置の差に複数の分類子を適用することによって、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項13に記載の装置。
- 前記複数の分類子は、複数の特徴点が共通の移動距離を共有するか否かに基づく第1の分類子を含む、請求項14に記載の装置。
- 前記複数の分類子は、前記特徴点のうち異なる特徴点は異なる距離を移動したか否かに基づく第2の分類子を含む、請求項14から15のいずれか1項に記載の装置。
- 前記複数の分類子は、前記特徴点の平均移動速度に基づく第3の分類子を含む、請求項14から16のいずれか1項に記載の装置。
- 前記プロセッサは、さらに、
前記現在のビデオ画像において特定された特徴点のうち前記過去のビデオ画像にも見られた特徴点の数を数えることと;
前記特定された特徴点の数を、予め定められた、特徴点の最小数と比較することと;
前記特定された特徴点の数が前記予め定められた最小数を下回る場合に、前記現在のビデオ画像において1つ以上の新しい特徴点を特定することによって、前記特徴点を更新することと;
を実行するように構成される、請求項13から17のいずれか1項に記載の装置。 - 前記判断することは、前記更新を実行する頻度に基づいて、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項18に記載の装置。
- 前記プロセッサは、さらに、
前記カメラの移動がシフト移動または回転移動であったことを判断することと;
対応するシフト移動または回転移動を前記カメラの移動履歴に記録するが、前記移動履歴に記録された前記移動とは異なるジェスチャを出力することと;
を実行するように構成される、請求項13から19のいずれか1項に記載の装置。 - 前記移動がシフト移動であると判断された場合、前記出力することにおいて前記移動を回転移動と識別し、
前記移動が回転移動であると判断された場合、前記出力することおいて前記移動をシフト移動と識別する、
請求項20に記載の装置。 - 前記複数の分類子は、
複数の前記特徴点が共通の移動距離を有するか否かに基づく第1の分類子と;
前記特徴点のうちの2つの移動距離における差に基づく第2の分類子と;
新しい特徴点が必要とされる頻度に基づく第3の分類子と;
前記特徴点の平均移動速度に基づく第4の分類子と;
を含む、請求項14に記載の装置。 - 前記装置は、前記カメラに通信可能に接続されるコンピュータであり、前記カメラはコンピュータマウス入力デバイスの一部である、請求項13から22のいずれか1項に記載の装置。
- 前記判断することは、前記3次元移動がズーム移動であることを判断する、請求項13から23のいずれか1項に記載の装置。
- カメラからの現在のビデオ画像において複数の特徴点を特定することと;
前記特徴点の位置と、前記カメラからの過去のビデオ画像における前記特徴点の位置とを比較することと;
前記特徴点の前記位置の変化から、前記カメラの3次元移動を判断することと;
前記カメラの前記3次元移動の識別をジェスチャ出力として出力することと;
を実行するための、コンピュータにより実行可能な命令を格納する、コンピュータ可読媒体。 - 前記判断することは、前記現在の画像と前記過去の画像との間の前記特徴点の位置の差に複数の分類子を適用することによって、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項25に記載のコンピュータ可読媒体。
- 前記複数の分類子は、複数の特徴点が共通の移動距離を共有するか否かに基づく第1の分類子を含む、請求項26に記載のコンピュータ可読媒体。
- 前記複数の分類子は、前記特徴点のペアにおける相対位置の変化に基づく第2の分類子を含む、請求項26から27のいずれか1項に記載のコンピュータ可読媒体。
- 前記複数の分類子は、前記特徴点の平均移動速度に基づく第3の分類子を含む、請求項26から28のいずれか1項に記載のコンピュータ可読媒体。
- 前記現在のビデオ画像において特定された特徴点のうち前記過去のビデオ画像にも見られた特徴点の数を数えることと;
前記特定された特徴点の数を、予め定められた、特徴点の最小数と比較することと;
前記特定された特徴点の数が前記予め定められた最小数を下回る場合に、前記現在のビデオ画像において1つ以上の新しい特徴点を特定することによって、前記特徴点を更新することと;
をさらに実行するための、コンピュータにより実行可能な命令を格納する、請求項25から29のいずれか1項に記載のコンピュータ可読媒体。 - 前記判断することは、前記更新を実行する頻度に基づいて、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項30に記載のコンピュータ可読媒体。
- 前記カメラの移動がシフト移動または回転移動であったことを判断することと;
対応するシフト移動を前記カメラの移動履歴に記録するが、前記出力することにおいて前記移動を回転移動として識別することと;
をさらに実行するための、コンピュータにより実行可能な命令を格納する、請求項25から31のいずれか1項に記載のコンピュータ可読媒体。 - 前記複数の分類子は、
複数の前記特徴点が共通の移動距離を有するか否かに基づく第1の分類子と;
前記特徴点のペアにおける相対位置における差に基づく第2の分類子と;
新しい特徴点が必要とされる頻度に基づく第3の分類子と;
前記特徴点の平均移動速度に基づく第4の分類子と;
を含む、請求項26に記載のコンピュータ可読媒体。 - 前記カメラの前記移動がズーム移動であったことを判断すること;
をさらに実行するための、コンピュータにより実行可能な命令を格納する、請求項25から33のいずれか1項に記載のコンピュータ可読媒体。 - 前記カメラの移動がシフト移動または回転移動であったことを判断することと;
対応するシフト移動または回転移動を前記カメラの移動履歴に記録するが、前記移動履歴に記録された前記移動とは異なるジェスチャを出力することと;
をさらに実行するためのコンピュータにより実行可能な命令を格納する、請求項25から34のいずれか1項に記載のコンピュータ可読媒体。 - 前記コンピュータにより実行可能な命令により、実行時に、
前記移動がシフト移動であると判断された場合、前記出力することにおいて前記移動を回転移動と識別することと;
前記移動が回転移動であると判断された場合、前記出力することおいて前記移動をシフト移動と識別することと;
をさらに生じさせる、請求項35に記載のコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/137,202 US8269842B2 (en) | 2008-06-11 | 2008-06-11 | Camera gestures for user interface control |
PCT/IB2009/005913 WO2009150522A1 (en) | 2008-06-11 | 2009-06-11 | Camera gestures for user interface control |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011528819A true JP2011528819A (ja) | 2011-11-24 |
JP5312578B2 JP5312578B2 (ja) | 2013-10-09 |
Family
ID=41414251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011513067A Expired - Fee Related JP5312578B2 (ja) | 2008-06-11 | 2009-06-11 | ユーザインターフェース制御のためのカメラジェスチャ |
Country Status (8)
Country | Link |
---|---|
US (1) | US8269842B2 (ja) |
EP (1) | EP2304534A4 (ja) |
JP (1) | JP5312578B2 (ja) |
KR (1) | KR101247991B1 (ja) |
CN (1) | CN102089738B (ja) |
BR (1) | BRPI0915357A2 (ja) |
CA (1) | CA2727213C (ja) |
WO (1) | WO2009150522A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013133129A1 (ja) * | 2012-03-06 | 2013-09-12 | 日産自動車株式会社 | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 |
WO2014207940A1 (ja) * | 2013-06-28 | 2014-12-31 | 楽天株式会社 | 表示システム、表示方法、及びプログラム |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL172995A (en) * | 2006-01-05 | 2011-07-31 | Gadi Royz | Method and device for making a virtual film for use in browsing the site |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
US8294766B2 (en) | 2009-01-28 | 2012-10-23 | Apple Inc. | Generating a three-dimensional model using a portable electronic device recording |
US8760432B2 (en) | 2010-09-21 | 2014-06-24 | Visteon Global Technologies, Inc. | Finger pointing, gesture based human-machine interface for vehicles |
KR101799270B1 (ko) * | 2010-12-29 | 2017-11-21 | 엘지전자 주식회사 | 이동 단말기 및 이것의 터치 인식 방법 |
EP2682841B1 (en) * | 2011-03-03 | 2016-11-23 | Omron Corporation | Gesture input device and method for controlling gesture input device |
US9423876B2 (en) | 2011-09-30 | 2016-08-23 | Microsoft Technology Licensing, Llc | Omni-spatial gesture input |
KR101926563B1 (ko) * | 2012-01-18 | 2018-12-07 | 삼성전자주식회사 | 카메라 추적을 위한 방법 및 장치 |
SE537366C2 (sv) * | 2012-09-25 | 2015-04-14 | Jonas Patrik Graphenius | Säkerhetsanordning och förfarande för detektering av förflyttning av en dörr samt övervakning av rörelse i ett område |
US8933882B2 (en) | 2012-12-31 | 2015-01-13 | Intentive Inc. | User centric interface for interaction with visual display that recognizes user intentions |
US9105550B2 (en) | 2013-01-11 | 2015-08-11 | Digimarc Corporation | Next generation imaging methods and systems |
US9164653B2 (en) | 2013-03-15 | 2015-10-20 | Inspace Technologies Limited | Three-dimensional space for navigating objects connected in hierarchy |
US10031586B2 (en) * | 2013-06-12 | 2018-07-24 | Amazon Technologies, Inc. | Motion-based gestures for a computing device |
US10234955B2 (en) * | 2015-09-28 | 2019-03-19 | Nec Corporation | Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program |
CN109948511A (zh) * | 2019-03-14 | 2019-06-28 | 广东美的白色家电技术创新中心有限公司 | 手势识别方法及装置 |
DE112019007277T5 (de) * | 2019-05-03 | 2022-05-12 | Toyota Motor Europe | Bilderfassungseinrichtung zur Verfolgung eines Objekts |
EP3963476A1 (en) * | 2019-05-03 | 2022-03-09 | Verily Life Sciences LLC | Predictive classification of insects |
WO2020226933A2 (en) | 2019-05-03 | 2020-11-12 | Verily Life Sciences Llc | Insect singulation and classification |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005119591A1 (ja) * | 2004-06-04 | 2005-12-15 | Matsushita Electric Industrial Co., Ltd. | 表示制御方法および装置、プログラム、並びに携帯機器 |
JP2007095030A (ja) * | 2005-09-29 | 2007-04-12 | Lg Electronics Inc | 携帯用端末機のグラフィック信号表示装置及び方法 |
JP2008084287A (ja) * | 2006-08-28 | 2008-04-10 | Sony Corp | 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム |
JP2008527854A (ja) * | 2005-01-07 | 2008-07-24 | ジェスチャー テック,インコーポレイテッド | オプティカルフローに基づく傾きセンサー |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1701351A (zh) * | 2000-09-07 | 2005-11-23 | 卡尼斯塔公司 | 检测和定位用户-对象与虚拟传送设备的交互作用的准三维方法和装置 |
US6944315B1 (en) * | 2000-10-31 | 2005-09-13 | Intel Corporation | Method and apparatus for performing scale-invariant gesture recognition |
US6798429B2 (en) * | 2001-03-29 | 2004-09-28 | Intel Corporation | Intuitive mobile device interface to virtual spaces |
FI20045300A (fi) | 2004-08-17 | 2006-02-18 | Nokia Corp | Elektroninen laite ja menetelmä elektronisen laitteen toimintojen ohjaamiseksi sekä ohjelmatuote menetelmän toteuttamiseksi |
NO20044073D0 (no) | 2004-09-27 | 2004-09-27 | Isak Engquist | Informasjonsbehandlingssystem og fremgangsmate |
GB0503253D0 (en) * | 2005-02-17 | 2005-03-23 | Univ Northumbria Newcastle | User control of a hand-held device |
US7620316B2 (en) * | 2005-11-28 | 2009-11-17 | Navisense | Method and device for touchless control of a camera |
FI20051283A (fi) | 2005-12-13 | 2007-06-14 | Elcoteq Se | Menetelmä ja sovitelma graafisen käyttöliittymän hallitsemiseksi sekä graafisella käyttöliittymällä varustettu kannettava laite |
US20070222746A1 (en) * | 2006-03-23 | 2007-09-27 | Accenture Global Services Gmbh | Gestural input for navigation and manipulation in virtual space |
US9317124B2 (en) | 2006-09-28 | 2016-04-19 | Nokia Technologies Oy | Command input by hand gestures captured from camera |
US7971156B2 (en) * | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
-
2008
- 2008-06-11 US US12/137,202 patent/US8269842B2/en active Active
-
2009
- 2009-06-11 BR BRPI0915357A patent/BRPI0915357A2/pt not_active IP Right Cessation
- 2009-06-11 CA CA2727213A patent/CA2727213C/en not_active Expired - Fee Related
- 2009-06-11 KR KR1020117000451A patent/KR101247991B1/ko not_active IP Right Cessation
- 2009-06-11 JP JP2011513067A patent/JP5312578B2/ja not_active Expired - Fee Related
- 2009-06-11 WO PCT/IB2009/005913 patent/WO2009150522A1/en active Application Filing
- 2009-06-11 EP EP09762050.4A patent/EP2304534A4/en not_active Withdrawn
- 2009-06-11 CN CN2009801275013A patent/CN102089738B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005119591A1 (ja) * | 2004-06-04 | 2005-12-15 | Matsushita Electric Industrial Co., Ltd. | 表示制御方法および装置、プログラム、並びに携帯機器 |
JP2008527854A (ja) * | 2005-01-07 | 2008-07-24 | ジェスチャー テック,インコーポレイテッド | オプティカルフローに基づく傾きセンサー |
JP2007095030A (ja) * | 2005-09-29 | 2007-04-12 | Lg Electronics Inc | 携帯用端末機のグラフィック信号表示装置及び方法 |
JP2008084287A (ja) * | 2006-08-28 | 2008-04-10 | Sony Corp | 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013133129A1 (ja) * | 2012-03-06 | 2013-09-12 | 日産自動車株式会社 | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 |
CN104204726A (zh) * | 2012-03-06 | 2014-12-10 | 日产自动车株式会社 | 移动物体位置姿态估计装置和移动物体位置姿态估计方法 |
WO2014207940A1 (ja) * | 2013-06-28 | 2014-12-31 | 楽天株式会社 | 表示システム、表示方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2304534A1 (en) | 2011-04-06 |
CA2727213A1 (en) | 2009-12-17 |
CN102089738B (zh) | 2013-05-08 |
EP2304534A4 (en) | 2014-06-04 |
US20090309765A1 (en) | 2009-12-17 |
KR101247991B1 (ko) | 2013-03-27 |
BRPI0915357A2 (pt) | 2015-11-03 |
US8269842B2 (en) | 2012-09-18 |
KR20110016994A (ko) | 2011-02-18 |
JP5312578B2 (ja) | 2013-10-09 |
WO2009150522A1 (en) | 2009-12-17 |
CN102089738A (zh) | 2011-06-08 |
CA2727213C (en) | 2017-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5312578B2 (ja) | ユーザインターフェース制御のためのカメラジェスチャ | |
US10379733B2 (en) | Causing display of a three dimensional graphical user interface with dynamic selectability of items | |
US10254849B2 (en) | Cursor mode switching | |
US11443453B2 (en) | Method and device for detecting planes and/or quadtrees for use as a virtual substrate | |
US10163261B2 (en) | Selecting two-dimensional imagery data for display within a three-dimensional model | |
JP5665140B2 (ja) | 入力装置、入力方法、及びプログラム | |
US9268407B1 (en) | Interface elements for managing gesture control | |
US20130091462A1 (en) | Multi-dimensional interface | |
CN104487915A (zh) | 维持扩增的连续性 | |
US11501505B2 (en) | Traversing photo-augmented information through depth using gesture and UI controlled occlusion planes | |
Takahashi et al. | Human gesture recognition system for TV viewing using time-of-flight camera | |
CN104081307A (zh) | 图像处理装置、图像处理方法和程序 | |
US11429985B2 (en) | Information processing device calculating statistical information | |
WO2014194148A2 (en) | Systems and methods involving gesture based user interaction, user interface and/or other features | |
EP3767435A1 (en) | 6-dof tracking using visual cues | |
US20150309681A1 (en) | Depth-based mode switching for touchless gestural interfaces | |
US20130249807A1 (en) | Method and apparatus for three-dimensional image rotation on a touch screen | |
Mooser et al. | Large document, small screen: a camera driven scroll and zoom control for mobile devices | |
TW202206984A (zh) | 用於模擬滑鼠的電子裝置 | |
Babaei et al. | The optimization of interface interactivity using gesture prediction engine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130702 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees | ||
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |