JP6297599B2 - 3d物体検出によるシステムのエンゲージメントのための方法 - Google Patents
3d物体検出によるシステムのエンゲージメントのための方法 Download PDFInfo
- Publication number
- JP6297599B2 JP6297599B2 JP2015556015A JP2015556015A JP6297599B2 JP 6297599 B2 JP6297599 B2 JP 6297599B2 JP 2015556015 A JP2015556015 A JP 2015556015A JP 2015556015 A JP2015556015 A JP 2015556015A JP 6297599 B2 JP6297599 B2 JP 6297599B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- application
- detected
- anchor
- struck
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 36
- 238000000034 method Methods 0.000 title claims description 35
- 238000007667 floating Methods 0.000 claims description 39
- 230000009471 action Effects 0.000 claims description 37
- 230000033001 locomotion Effects 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 13
- 238000004091 panning Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 6
- 238000004873 anchoring Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 14
- 230000000007 visual effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000002604 ultrasonography Methods 0.000 description 6
- 230000003247 decreasing effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
104 物体
206 境界円
302 ユーザデバイス、デバイス
304 指
310 地図
312 視覚インジケータ、視覚フィードバック
320 ジョイスティックコントロール、ジョイスティック、コントロール
405 最大閾値
406 動的なズーム範囲
407 最小閾値
409 最大検出可能距離
410 継続ズームアウト範囲
411 継続ズームイン範囲
422 ドット
424 セクションまたは円、中心セクションまたは円、中心コントロールセクション、中心領域、円
426 外側領域、外側領域またはセクション
428a セクタ、パンアップ領域
442 視覚的合図
452 ドット
454 矢印
455 外側の円
456 視覚インジケータ
1700 システム
1702 バス
1704 処理構成要素、プロセッサ
1706 システムメモリ構成要素、システムメモリ
1708 静的なストレージ構成要素、ストレージ構成要素、ストレージデバイス
1710 外部メモリ構成要素、外部メモリ入力
1712 ネットワークインターフェース構成要素、通信インターフェース
1714 出力構成要素、出力デバイス
1716 入力構成要素、入力デバイス
1718 カーソル制御構成要素、カーソル制御デバイス
1720 通信リンク
Claims (13)
- デバイスでアプリケーションを制御するための方法であって、
閾値の長さの時間の間、ユーザが前記デバイスの近くに浮かぶ物体またはジェスチャをある位置において維持していることを検出するステップと、
前記維持された位置の検出に基づいて前記デバイスに対して前記物体または前記ジェスチャの最初の位置にアンカーを打つステップと、
前記検出に応答して、前記アンカーを打たれた最初の位置からの前記物体または前記ジェスチャの変化に関連付けられた1つまたは複数のコマンドを示すユーザインタフェースを表示することを含めて、前記デバイスをエンゲージするステップと、
前記アンカーを打たれた最初の位置を用いて前記アプリケーションを制御するステップとを含み、
前記アンカーを打たれた最初の位置を用いて前記アプリケーションを制御するステップが、
前記アンカーを打たれた最初の位置に関連する安定区域内で前記デバイスに対する前記ジェスチャまたは前記物体の高さの変化を検出することに基づいて前記アプリケーションを操作するステップと、
前記物体または前記ジェスチャが前記安定区域内で前記デバイスの上の前記デバイスに平行な平面に沿って移動するところを検出されるときにはいつも前記アプリケーションを操作しないステップとを含む
方法。 - 前記アンカーを打たれた最初の位置を用いて前記アプリケーションを制御するステップが、前記物体または前記ジェスチャが前記安定区域の外の領域の上に浮かんでいるところを検出されるときにはいつも前記アプリケーションを操作するステップをさらに含み、
前記アプリケーションを操作するステップが、
前記物体または前記ジェスチャが前記安定区域の外の第1の領域の上に浮いているところを検出される場合に、第1の速さを有する第1のパンアクションを実行するステップと、
前記物体または前記ジェスチャが前記安定区域の外の第2の領域の上に浮いているところを検出される場合に、第2の速さを有する第2のパンアクションを実行するステップであって、前記第2の領域が、前記第1の領域よりも前記安定区域から遠い、ステップとを含む請求項1に記載の方法。 - 前記アンカーを打たれた最初の位置を用いて前記アプリケーションを制御するステップが、前記デバイスの上に浮かぶ3次元空間内の前記物体または前記ジェスチャの少なくとも1つの動きを検出するステップを含む請求項1に記載の方法。
- 前記アプリケーションを操作するステップが、前記最初の位置に対する前記デバイスの上に浮かぶ前記物体または前記ジェスチャの位置に基づく請求項2に記載の方法。
- 前記アプリケーションを操作するステップが、
前記物体または前記ジェスチャが前記安定区域の外の第3の領域に浮かんでいるところを検出される場合に第3のアクションを実行するステップであって、前記第3の領域が、前記第2の領域よりも前記安定区域から遠い、ステップをさらに含む請求項2に記載の方法。 - 前記ユーザが前記デバイスの上の位置に前記ジェスチャまたは前記物体を浮かべていることを検出するステップをさらに含む請求項1に記載の方法。
- 前記ユーザが前記デバイスの下の位置に前記ジェスチャまたは前記物体を浮かべていることを検出するステップをさらに含む請求項1に記載の方法。
- 前記アプリケーションを制御するステップが、前記アンカーを打たれた最初の位置に基づいて前記アプリケーションにアンカーを打たれた前記ユーザインターフェースを使用するステップを含む請求項1に記載の方法。
- 前記アプリケーションにアンカーを打たれた前記ユーザインターフェースが、前記デバイスの近くに浮かぶ検出されたジェスチャまたは物体の前記最初の位置に応じて前記アプリケーション上で中心を決められる請求項8に記載の方法。
- 装置であって、
閾値の長さの時間の間、ユーザが装置の近くに浮かぶ物体またはジェスチャをある位置において維持していることを検出するための手段と、
前記維持された位置の検出に基づいて装置に対して前記物体または前記ジェスチャの最初の位置にアンカーを打つための手段と、
前記検出に応答して、前記アンカーを打たれた最初の位置からの前記物体または前記ジェスチャの変化に関連付けられた1つまたは複数のコマンドを示すユーザインタフェースを表示することを含めて、前記装置をエンゲージするための手段と、
前記アンカーを打たれた最初の位置を用いて装置で動作するアプリケーションを制御するための手段とを含み、
前記アンカーを打たれた最初の位置を用いて前記アプリケーションを制御するための前記手段が、
前記アンカーを打たれた最初の位置に関連する安定区域内で前記装置に対する前記ジェスチャまたは前記物体の高さの変化を検出することに基づいて前記アプリケーションを操作ための手段と、
前記物体または前記ジェスチャが前記安定区域内で前記装置の上の前記装置に平行な平面に沿って移動するところを検出されるときにはいつも前記アプリケーションを操作しないための手段とを含む、
装置。 - 前記アンカーを打たれた最初の位置を用いて前記アプリケーションを制御するための前記手段が、前記物体または前記ジェスチャが前記安定区域の外の領域の上に浮かんでいるところを検出されるときにはいつも前記アプリケーションを操作するための手段をさらに含み、
前記アプリケーションを操作するための前記手段が、
前記物体または前記ジェスチャが前記安定区域の外の第1の領域の上に浮いているところを検出される場合に、第1の速さを有する第1のパンアクションを実行するための手段と、
前記物体または前記ジェスチャが前記安定区域の外の第2の領域の上に浮いているところを検出される場合に、第2の速さを有する第2のパンアクションを実行するための手段であって、前記第2の領域が、前記第1の領域よりも前記安定区域から遠い、手段とを含む請求項10に記載の装置。 - 前記アンカーを打たれた最初の位置を用いて前記アプリケーションを制御するための前記手段が、前記装置の上に浮かぶ3次元空間内の前記物体または前記ジェスチャの少なくとも1つの動きを検出するための手段を含む請求項10に記載の装置。
- プロセッサに、請求項1乃至9の何れか1項に記載の方法を実施させるように構成されたプロセッサ可読命令を含む、非一時的プロセッサ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361761186P | 2013-02-05 | 2013-02-05 | |
US61/761,186 | 2013-02-05 | ||
US14/034,204 | 2013-09-23 | ||
US14/034,204 US9720504B2 (en) | 2013-02-05 | 2013-09-23 | Methods for system engagement via 3D object detection |
PCT/US2013/077511 WO2014123637A1 (en) | 2013-02-05 | 2013-12-23 | Methods for system engagement via 3d object detection |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016505188A JP2016505188A (ja) | 2016-02-18 |
JP2016505188A5 JP2016505188A5 (ja) | 2017-02-02 |
JP6297599B2 true JP6297599B2 (ja) | 2018-03-20 |
Family
ID=51260433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015556015A Expired - Fee Related JP6297599B2 (ja) | 2013-02-05 | 2013-12-23 | 3d物体検出によるシステムのエンゲージメントのための方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9720504B2 (ja) |
EP (1) | EP2954397B1 (ja) |
JP (1) | JP6297599B2 (ja) |
KR (1) | KR20150114518A (ja) |
CN (1) | CN104956307B (ja) |
WO (1) | WO2014123637A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US10241639B2 (en) | 2013-01-15 | 2019-03-26 | Leap Motion, Inc. | Dynamic user interactions for display control and manipulation of display objects |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9916009B2 (en) * | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US10620775B2 (en) | 2013-05-17 | 2020-04-14 | Ultrahaptics IP Two Limited | Dynamic interactive objects |
US9436288B2 (en) * | 2013-05-17 | 2016-09-06 | Leap Motion, Inc. | Cursor mode switching |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
WO2015047242A1 (en) * | 2013-09-25 | 2015-04-02 | Schneider Electric Buildings Llc | Method and device for adjusting a set point |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US20150231491A1 (en) * | 2014-02-19 | 2015-08-20 | Microsoft Corporation | Advanced Game Mechanics On Hover-Sensitive Devices |
DE202014103729U1 (de) | 2014-08-08 | 2014-09-09 | Leap Motion, Inc. | Augmented-Reality mit Bewegungserfassung |
US9830073B2 (en) * | 2014-12-12 | 2017-11-28 | Alpine Electronics, Inc. | Gesture assistive zoomable selector for screen |
US10429923B1 (en) | 2015-02-13 | 2019-10-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
US11416077B2 (en) * | 2018-07-19 | 2022-08-16 | Infineon Technologies Ag | Gesture detection system and method using a radar sensor |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7786980B2 (en) * | 2004-06-29 | 2010-08-31 | Koninklijke Philips Electronics N.V. | Method and device for preventing staining of a display device |
US7924271B2 (en) * | 2007-01-05 | 2011-04-12 | Apple Inc. | Detecting gestures on multi-event sensitive devices |
US8219936B2 (en) | 2007-08-30 | 2012-07-10 | Lg Electronics Inc. | User interface for a mobile device using a user's gesture in the proximity of an electronic device |
US8933876B2 (en) * | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
US8555207B2 (en) * | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
US9772689B2 (en) * | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
US8237666B2 (en) * | 2008-10-10 | 2012-08-07 | At&T Intellectual Property I, L.P. | Augmented I/O for limited form factor user-interfaces |
US20110213655A1 (en) * | 2009-01-24 | 2011-09-01 | Kontera Technologies, Inc. | Hybrid contextual advertising and related content analysis and display techniques |
EP2389622A1 (en) * | 2009-01-26 | 2011-11-30 | Zrro Technologies (2009) Ltd. | Device and method for monitoring an object's behavior |
KR101857564B1 (ko) * | 2009-05-15 | 2018-05-15 | 삼성전자 주식회사 | 휴대 단말기의 이미지 처리 방법 |
US8619029B2 (en) * | 2009-05-22 | 2013-12-31 | Motorola Mobility Llc | Electronic device with sensing assembly and method for interpreting consecutive gestures |
US20120120029A1 (en) * | 2009-07-23 | 2012-05-17 | Mccarthy John P | Display to determine gestures |
JP2012094085A (ja) * | 2010-10-29 | 2012-05-17 | Hitachi Consumer Electronics Co Ltd | 入力装置 |
US20120120002A1 (en) * | 2010-11-17 | 2012-05-17 | Sony Corporation | System and method for display proximity based control of a touch screen user interface |
JP5614275B2 (ja) * | 2010-12-21 | 2014-10-29 | ソニー株式会社 | 画像表示制御装置および画像表示制御方法 |
US9430128B2 (en) * | 2011-01-06 | 2016-08-30 | Tivo, Inc. | Method and apparatus for controls based on concurrent gestures |
CN103097989B (zh) * | 2011-01-31 | 2016-03-16 | 松下电器产业株式会社 | 信息处理装置以及处理控制方法 |
JP2012194915A (ja) * | 2011-03-17 | 2012-10-11 | Seiko Epson Corp | 画像表示システム |
US9285950B2 (en) * | 2011-03-30 | 2016-03-15 | Google Inc. | Hover-over gesturing on mobile devices |
US9182838B2 (en) * | 2011-04-19 | 2015-11-10 | Microsoft Technology Licensing, Llc | Depth camera-based relative gesture detection |
JP5701714B2 (ja) * | 2011-08-05 | 2015-04-15 | 株式会社東芝 | ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム |
US8854433B1 (en) * | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US20130204457A1 (en) * | 2012-02-06 | 2013-08-08 | Ford Global Technologies, Llc | Interacting with vehicle controls through gesture recognition |
NL2008683C2 (en) * | 2012-04-23 | 2013-10-28 | Gerald Jules Rudolf Taunay | Method, system and computer program for determining distances and positions. |
US8451246B1 (en) * | 2012-05-11 | 2013-05-28 | Google Inc. | Swipe gesture classification |
US9541417B2 (en) * | 2012-06-05 | 2017-01-10 | Apple Inc. | Panning for three-dimensional maps |
US9418672B2 (en) * | 2012-06-05 | 2016-08-16 | Apple Inc. | Navigation application with adaptive instruction text |
US10331219B2 (en) * | 2013-01-04 | 2019-06-25 | Lenovo (Singaore) Pte. Ltd. | Identification and use of gestures in proximity to a sensor |
US20140198059A1 (en) * | 2013-01-16 | 2014-07-17 | Research In Motion Limited | Electronic device with touch-sensitive display and gesture-detection |
US9092665B2 (en) * | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9129155B2 (en) * | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US9298266B2 (en) * | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
KR20150073354A (ko) * | 2013-12-23 | 2015-07-01 | 삼성전자주식회사 | 디스플레이를 통하여 제공되는 오브젝트 처리 방법 및 장치 |
KR102167289B1 (ko) * | 2014-06-03 | 2020-10-19 | 엘지전자 주식회사 | 영상 표시 기기 및 그의 동작 방법 |
US9830073B2 (en) * | 2014-12-12 | 2017-11-28 | Alpine Electronics, Inc. | Gesture assistive zoomable selector for screen |
-
2013
- 2013-09-23 US US14/034,204 patent/US9720504B2/en active Active
- 2013-12-23 CN CN201380071430.6A patent/CN104956307B/zh active Active
- 2013-12-23 JP JP2015556015A patent/JP6297599B2/ja not_active Expired - Fee Related
- 2013-12-23 KR KR1020157023181A patent/KR20150114518A/ko active IP Right Grant
- 2013-12-23 EP EP13821372.3A patent/EP2954397B1/en active Active
- 2013-12-23 WO PCT/US2013/077511 patent/WO2014123637A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
KR20150114518A (ko) | 2015-10-12 |
JP2016505188A (ja) | 2016-02-18 |
EP2954397B1 (en) | 2018-03-28 |
US9720504B2 (en) | 2017-08-01 |
CN104956307A (zh) | 2015-09-30 |
WO2014123637A1 (en) | 2014-08-14 |
CN104956307B (zh) | 2018-07-13 |
US20140223385A1 (en) | 2014-08-07 |
EP2954397A1 (en) | 2015-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6297599B2 (ja) | 3d物体検出によるシステムのエンゲージメントのための方法 | |
US10416789B2 (en) | Automatic selection of a wireless connectivity protocol for an input device | |
CN107533373B (zh) | 虚拟现实中经由手与对象的场境敏感碰撞的输入 | |
KR101872426B1 (ko) | 깊이 기반 사용자 인터페이스 제스처 제어 | |
KR101710972B1 (ko) | 논-터치 제스처를 사용하여 단말 기기를 제어하는 방법 및 장치 | |
KR102194272B1 (ko) | 제스처들을 이용한 터치 입력들의 향상 | |
KR102091028B1 (ko) | 사용자 기기의 오브젝트 운용 방법 및 장치 | |
US9529527B2 (en) | Information processing apparatus and control method, and recording medium | |
WO2016109409A1 (en) | Virtual lasers for interacting with augmented reality environments | |
KR20150130379A (ko) | 센서 융합을 통한 상호작용 입력들의 확장 | |
KR20120056211A (ko) | 정보처리장치 및 그 동작 방법 | |
US10474324B2 (en) | Uninterruptable overlay on a display | |
JP5865615B2 (ja) | 電子機器および制御方法 | |
KR20170003689A (ko) | 화면 자동 회전을 제어하는 방법, 장치 및 단말기 | |
JP6075193B2 (ja) | 携帯端末装置 | |
US10791278B2 (en) | Monitoring apparatus and system | |
WO2019130896A1 (ja) | 表示制御装置、表示制御方法およびプログラム | |
JP7383471B2 (ja) | 電子機器およびその制御方法 | |
KR101898162B1 (ko) | 다중 센서감지를 통해 다른 기기로 추가기능 및 피드백을 제공하는 기기 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6297599 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |