JP2016528651A - 近距離自然ユーザインタフェースシステム及びその作動の方法 - Google Patents
近距離自然ユーザインタフェースシステム及びその作動の方法 Download PDFInfo
- Publication number
- JP2016528651A JP2016528651A JP2016536347A JP2016536347A JP2016528651A JP 2016528651 A JP2016528651 A JP 2016528651A JP 2016536347 A JP2016536347 A JP 2016536347A JP 2016536347 A JP2016536347 A JP 2016536347A JP 2016528651 A JP2016528651 A JP 2016528651A
- Authority
- JP
- Japan
- Prior art keywords
- user
- mobile device
- hand
- display device
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
Abstract
Description
102 移動デバイス
104 表示デバイス
108 ユーザの手
110 目線ベクトル
Claims (20)
- 自然ユーザインタフェースシステムの作動の方法であって、
表示画面と表示デバイスカメラとを有する表示デバイスを与える段階と、
移動デバイスカメラの光軸が前記表示デバイスカメラの光軸に対してある角度に位置決めされた該移動デバイスカメラを有する移動デバイスを与える段階と、
前記移動デバイスを前記表示デバイスと対にする段階と、
ユーザの手を検出する段階と、
前記ユーザの手の姿勢及び移動を決定する段階と、
前記ユーザの手の前記姿勢及び移動を前記表示画面上のユーザインタフェースの要素を制御するための動作に変換する段階と、
を含むことを特徴とする方法。 - 前記表示デバイスの向きに対する前記移動デバイスの向きに基づいて前記移動デバイスカメラの視野角を回転させる段階を更に含むことを特徴とする請求項1に記載の方法。
- ユーザの顔を検出する段階と、
前記ユーザの顔からの目線ベクトルを決定する段階と、
前記目線ベクトルを用いて前記表示画面上のカーソルの移動を精緻化する段階と、
を更に含むことを特徴とする請求項1に記載の方法。 - 前記ユーザの手を検出する段階は、
前記移動デバイスカメラを用いて前記ユーザの手を検出する段階と、
前記表示デバイスカメラを用いて前記ユーザの手を検出する段階と、
を含む、
ことを特徴とする請求項1に記載の方法。 - 前記ユーザの手の前記姿勢及び移動を決定する段階は、
前記移動デバイスカメラを用いて前記ユーザの手の前後の動き及び左右の動きを決定する段階と、
前記表示デバイスカメラを用いて前記ユーザの手の上下及び左右の動きを決定する段階と、
前記移動デバイスカメラ及び前記表示デバイスカメラを用いて前記ユーザの手の姿勢を決定する段階と、
前記移動デバイスカメラ及び前記表示デバイスカメラによって決定された時の前記ユーザの手の動きを相関付けることにより、3次元で該ユーザの手の前記姿勢及び移動を決定する段階と、
を含む、
ことを特徴とする請求項1に記載の方法。 - 自然ユーザインタフェースシステムの作動の方法であって、
表示画面と表示デバイスカメラとを有する表示デバイスを与える段階と、
移動デバイスカメラの光軸が前記表示デバイスカメラの光軸に対してある角度に位置決めされた該移動デバイスカメラを有する移動デバイスを与える段階と、
前記移動デバイスを前記表示デバイスと対にする段階と、
前記表示デバイスに対する前記移動デバイスの向きに基づいて前記移動デバイスカメラの視野角を同期する段階と、
前記移動デバイスカメラと前記表示デバイスカメラとを用いてユーザの手を検出する段階と、
前記ユーザの手の姿勢及び移動を決定する段階と、
前記ユーザの手の前記姿勢及び移動を前記表示画面上のユーザインタフェースの要素を制御するための動作に変換する段階と、
ユーザの顔を検出する段階と、
前記ユーザの顔からの目線ベクトルを決定する段階と、
前記目線ベクトルを用いて前記表示画面上のカーソルの移動を精緻化する段階と、
を含むことを特徴とする方法。 - 前記移動デバイスカメラを用いて前記ユーザの手を検出する段階は、
暗闇条件を決定する段階と、
前記暗闇条件に基づいて前記ユーザの手を照らすための前記移動デバイスのフラッシュライトを起動する段階と、
を含む、
ことを特徴とする請求項6に記載の方法。 - 前記移動デバイスを前記表示デバイスと対にする段階は、
前記移動デバイスの面の下向きを決定する段階と、
前記移動デバイスと前記表示デバイスの間の無線接続を自動的に開始する段階と、
を含む、
ことを特徴とする請求項6に記載の方法。 - 前記移動デバイスを与える段階は、重複する視野を有するように前記移動デバイスカメラ及び前記表示デバイスカメラを位置決めする段階を含むことを特徴とする請求項6に記載の方法。
- 前記移動デバイスカメラを用いて前記ユーザの手を検出する段階は、天井を背景にして該ユーザの手を検出する段階を含むことを特徴とする請求項6に記載の方法。
- 自然ユーザインタフェースシステムであって、
表示画面と表示デバイスカメラとを有する表示デバイスと、
移動デバイスカメラの光軸が前記表示デバイスカメラの光軸に対してある角度に位置決めされた該移動デバイスカメラを有する移動デバイスと、
を含み、
前記移動デバイスは、該移動デバイスを前記表示デバイスと対にするための第1のデバイス対形成モジュールを含み、
前記移動デバイスカメラ及び前記表示デバイスカメラは、
ユーザの手を検出し、かつ
前記ユーザの手の姿勢及び移動を決定する、
ためのものであり、
前記表示デバイスは、前記ユーザの手の前記姿勢及び移動を前記表示画面上のユーザインタフェースの要素を制御するための動作に変換するための動き変換モジュールを含む、
ことを特徴とするシステム。 - 前記移動デバイスは、前記表示デバイスの向きに対する該移動デバイスの向きに基づいて前記移動デバイスカメラの視野角を回転させるための視野同期モジュールを含むことを特徴とする請求項11に記載のシステム。
- 前記表示デバイスカメラは、ユーザの顔を検出するためのものであり、
前記表示デバイスは、
前記ユーザの顔からの目線ベクトルを決定するために前記動き変換モジュールに結合された目線検出モジュールと、
前記表示画面上に表示するための前記目線ベクトルを用いたカーソルの移動を精緻化するために前記目線検出モジュールに結合された移動精緻化モジュールと、
を含む、
ことを特徴とする請求項11に記載のシステム。 - 前記移動デバイスカメラを用いて前記ユーザの手を検出するために前記第1のデバイス対形成モジュールに結合された形状検出モジュールを更に含むことを特徴とする請求項11に記載のシステム。
- 前記移動デバイスカメラは、前記ユーザの手の前後の動き、該ユーザの手の左右の動き、及び該ユーザの手の姿勢を決定するためのものであり、
前記表示デバイスカメラは、前記ユーザの手の上下及び左右の動きを決定し、かつ該ユーザの手の前記姿勢を決定するためのものであり、
前記表示デバイスは、前記移動デバイスカメラ及び前記表示デバイスカメラによって決定された時の前記ユーザの手の動きを相関付けることによって該ユーザの手の前記姿勢及び移動を3次元で決定するためのものである、
ことを特徴とする請求項11に記載のシステム。 - 前記移動デバイスカメラを用いて前記ユーザの手を検出するために前記第1のデバイス対形成モジュールに結合された形状検出モジュール、
を更に含み、
前記表示デバイスカメラは、前記ユーザの顔を検出し、該ユーザの手の上下及び左右の動きを決定し、かつ該ユーザの手の姿勢を決定するためのものであり、
前記移動デバイスカメラは、前記ユーザの手の前後の動き及び左右の動きを決定し、かつ該ユーザの手の前記姿勢を決定するためのものであり、
前記表示デバイスは、前記移動デバイスカメラ及び前記表示デバイスカメラによって決定された時の前記左右の動きを相関付けることによって前記ユーザの手の前記姿勢及び移動を3次元で決定するためのものであり、該表示デバイスは、
前記ユーザの顔からの目線ベクトルを決定するために前記動き変換モジュールに結合された目線検出モジュールと、
前記表示画面上に表示するための前記目線ベクトルを用いたカーソルの移動を精緻化するために前記目線検出モジュールに結合された移動精緻化モジュールと、
を含む、
ことを特徴とする請求項11に記載のシステム。 - 前記移動デバイスカメラは、暗闇条件を決定するためのものであり、
前記移動デバイスは、前記暗闇条件に基づいて前記ユーザの手を照らすためのフラッシュライトを含む、
ことを特徴とする請求項16に記載のシステム。 - 前記移動デバイスは、前記移動デバイスの面の下向きを決定するためのジャイロスコープを含み、
前記第1のデバイス対形成モジュールは、前記移動デバイスと前記表示デバイスの間の無線接続を自動的に開始するためのものである、
ことを特徴とする請求項16に記載のシステム。 - 前記表示デバイスカメラの前記光軸に対してある角度に位置決めされた前記移動デバイスカメラの前記光軸は、重複する視野を有する該移動デバイスカメラ及び該表示デバイスカメラを含むことを特徴とする請求項16に記載のシステム。
- 前記形状検出モジュールは、天井を背景にして前記ユーザの手を検出するためのものであることを特徴とする請求項16に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/973,798 US9261966B2 (en) | 2013-08-22 | 2013-08-22 | Close range natural user interface system and method of operation thereof |
US13/973,798 | 2013-08-22 | ||
PCT/US2014/051452 WO2015026707A1 (en) | 2013-08-22 | 2014-08-18 | Close range natural user interface system and method of operation thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016528651A true JP2016528651A (ja) | 2016-09-15 |
JP6094782B2 JP6094782B2 (ja) | 2017-03-15 |
Family
ID=52479896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016536347A Active JP6094782B2 (ja) | 2013-08-22 | 2014-08-18 | 近距離自然ユーザインタフェースシステム及びその作動の方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9261966B2 (ja) |
EP (1) | EP3017358B1 (ja) |
JP (1) | JP6094782B2 (ja) |
CN (1) | CN105453015B (ja) |
WO (1) | WO2015026707A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
CN105094287A (zh) * | 2014-04-15 | 2015-11-25 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
WO2016157938A1 (ja) | 2015-03-31 | 2016-10-06 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US9946298B2 (en) * | 2015-04-08 | 2018-04-17 | Mediatek Inc. | Wearable device interactive system |
JP6215881B2 (ja) * | 2015-08-05 | 2017-10-18 | ミネベアミツミ株式会社 | 可変機器システム |
CN108472848B (zh) * | 2015-08-31 | 2020-06-26 | 统一实业有限公司 | 注射成型设备及方法 |
CN107992867A (zh) * | 2016-10-26 | 2018-05-04 | 深圳超多维科技有限公司 | 用于手势指点翻译的方法、装置及电子设备 |
US11169668B2 (en) * | 2018-05-16 | 2021-11-09 | Google Llc | Selecting an input mode for a virtual assistant |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070159455A1 (en) * | 2006-01-06 | 2007-07-12 | Ronmee Industrial Corporation | Image-sensing game-controlling device |
US20110175920A1 (en) * | 2010-01-13 | 2011-07-21 | Smart Technologies Ulc | Method for handling and transferring data in an interactive input system, and interactive input system executing the method |
US20120249443A1 (en) * | 2011-03-29 | 2012-10-04 | Anderson Glen J | Virtual links between different displays to present a single virtual object |
US20130004016A1 (en) * | 2011-06-29 | 2013-01-03 | Karakotsios Kenneth M | User identification by gesture recognition |
JP2013514585A (ja) * | 2009-12-17 | 2013-04-25 | マイクロソフト コーポレーション | プレゼンテーション用カメラ・ナビゲーション |
WO2013083426A1 (en) * | 2011-12-05 | 2013-06-13 | Alcatel Lucent | Method for gesture control, gesture server device and sensor input device |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
KR100581144B1 (ko) * | 2003-12-20 | 2006-05-16 | 주식회사 팬택앤큐리텔 | 이동통신 단말기 및 카메라 제어 방법 |
US7145562B2 (en) | 2004-05-03 | 2006-12-05 | Microsoft Corporation | Integration of three dimensional scene hierarchy into two dimensional compositing system |
WO2006108017A2 (en) | 2005-04-04 | 2006-10-12 | Lc Technologies, Inc. | Explicit raytracing for gimbal-based gazepoint trackers |
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
US8395658B2 (en) | 2006-09-07 | 2013-03-12 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
GB2474536B (en) * | 2009-10-13 | 2011-11-02 | Pointgrab Ltd | Computer vision gesture based control of a device |
US9240021B2 (en) | 2010-11-04 | 2016-01-19 | Digimarc Corporation | Smartphone-based methods and systems |
KR101811219B1 (ko) | 2011-01-10 | 2017-12-22 | 삼성전자 주식회사 | 손가락 추적을 이용한 휴대 단말기 제어 방법 및 장치 |
US8797265B2 (en) | 2011-03-09 | 2014-08-05 | Broadcom Corporation | Gyroscope control and input/output device selection in handheld mobile devices |
US8717318B2 (en) * | 2011-03-29 | 2014-05-06 | Intel Corporation | Continued virtual links between gestures and user interface elements |
WO2013012335A1 (en) | 2011-07-21 | 2013-01-24 | Ziv Attar | Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene |
US9674661B2 (en) * | 2011-10-21 | 2017-06-06 | Microsoft Technology Licensing, Llc | Device-to-device relative localization |
WO2013103410A1 (en) * | 2012-01-05 | 2013-07-11 | California Institute Of Technology | Imaging surround systems for touch-free display control |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8665060B2 (en) * | 2012-02-06 | 2014-03-04 | Transcend Information, Inc. | Method of controlling storage device and storage device thereof |
US8259161B1 (en) | 2012-02-06 | 2012-09-04 | Google Inc. | Method and system for automatic 3-D image creation |
US9285893B2 (en) * | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
KR20150067638A (ko) * | 2013-12-10 | 2015-06-18 | 삼성전자주식회사 | 디스플레이 장치, 단말기 및 그 제어 방법 |
-
2013
- 2013-08-22 US US13/973,798 patent/US9261966B2/en active Active
-
2014
- 2014-08-18 CN CN201480044140.7A patent/CN105453015B/zh active Active
- 2014-08-18 EP EP14838675.8A patent/EP3017358B1/en active Active
- 2014-08-18 WO PCT/US2014/051452 patent/WO2015026707A1/en active Application Filing
- 2014-08-18 JP JP2016536347A patent/JP6094782B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070159455A1 (en) * | 2006-01-06 | 2007-07-12 | Ronmee Industrial Corporation | Image-sensing game-controlling device |
JP2013514585A (ja) * | 2009-12-17 | 2013-04-25 | マイクロソフト コーポレーション | プレゼンテーション用カメラ・ナビゲーション |
US20110175920A1 (en) * | 2010-01-13 | 2011-07-21 | Smart Technologies Ulc | Method for handling and transferring data in an interactive input system, and interactive input system executing the method |
US20120249443A1 (en) * | 2011-03-29 | 2012-10-04 | Anderson Glen J | Virtual links between different displays to present a single virtual object |
US20130004016A1 (en) * | 2011-06-29 | 2013-01-03 | Karakotsios Kenneth M | User identification by gesture recognition |
WO2013083426A1 (en) * | 2011-12-05 | 2013-06-13 | Alcatel Lucent | Method for gesture control, gesture server device and sensor input device |
Also Published As
Publication number | Publication date |
---|---|
EP3017358B1 (en) | 2019-01-16 |
US20150054740A1 (en) | 2015-02-26 |
EP3017358A4 (en) | 2017-06-14 |
US9261966B2 (en) | 2016-02-16 |
CN105453015A (zh) | 2016-03-30 |
EP3017358A1 (en) | 2016-05-11 |
WO2015026707A1 (en) | 2015-02-26 |
JP6094782B2 (ja) | 2017-03-15 |
CN105453015B (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6094782B2 (ja) | 近距離自然ユーザインタフェースシステム及びその作動の方法 | |
JP6445515B2 (ja) | 少なくとも2つの制御オブジェクトを用いて行われるジェスチャの検出 | |
US9600078B2 (en) | Method and system enabling natural user interface gestures with an electronic system | |
US9207773B1 (en) | Two-dimensional method and system enabling three-dimensional user interaction with a device | |
US8723789B1 (en) | Two-dimensional method and system enabling three-dimensional user interaction with a device | |
US20130314380A1 (en) | Detection device, input device, projector, and electronic apparatus | |
US20160049011A1 (en) | Display control device, display control method, and program | |
WO2014162825A1 (ja) | 表示制御装置、表示制御方法およびプログラム | |
US20160292922A1 (en) | Display control device, display control method, and recording medium | |
JP2015114818A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20160291687A1 (en) | Display control device, display control method, and recording medium | |
US20150009119A1 (en) | Built-in design of camera system for imaging and gesture processing applications | |
CN105264572A (zh) | 信息处理设备、信息处理方法和程序 | |
US20150189256A1 (en) | Autostereoscopic multi-layer display and control approaches | |
US9833701B2 (en) | Gaming device with an inclined surface | |
US10607069B2 (en) | Determining a pointing vector for gestures performed before a depth camera | |
TW201626174A (zh) | 具高追蹤速度的光學導航裝置 | |
Wang et al. | Bare finger 3D air-touch system using an embedded optical sensor array for mobile displays | |
US10506290B2 (en) | Image information projection device and projection device control method | |
US20170168592A1 (en) | System and method for optical tracking | |
Colaço | Sensor design and interaction techniques for gestural input to smart glasses and mobile devices | |
KR101381366B1 (ko) | 동작 인식 리모트 컨트롤러 장치 및 그 구동 방법 | |
KR20140071170A (ko) | 손동작 기반 사용자 인터페이스를 지원하는 프로젝션 시스템 및 그 인터페이스 방법 | |
KR20160013501A (ko) | 홀로그래피 터치 방법 및 프로젝터 터치 방법 | |
JP2016018448A (ja) | 入力装置およびその制御方法、制御プログラム、並びに入力システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161017 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170131 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6094782 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |