JP6202942B2 - 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 - Google Patents
情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 Download PDFInfo
- Publication number
- JP6202942B2 JP6202942B2 JP2013174678A JP2013174678A JP6202942B2 JP 6202942 B2 JP6202942 B2 JP 6202942B2 JP 2013174678 A JP2013174678 A JP 2013174678A JP 2013174678 A JP2013174678 A JP 2013174678A JP 6202942 B2 JP6202942 B2 JP 6202942B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- processing apparatus
- information processing
- operation surface
- predetermined object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
まず第1の実施形態として、認識対象と操作面との距離に基づいてタッチ状態と非タッチ状態を区別した上で、タッチ状態においてユーザの指先の動きが静止したとみなされる位置をタッチ位置として特定する実施形態を説明する。タッチ位置とは、タッチ入力によって指示される操作面に平行な二次元(xy平面)における位置座標を示し、少なくとも、タッチ入力が開始されるタッチ開始位置と、タッチ入力が終了されるタッチ終了位置を含む。なお、本実施形態では、情報処理装置に対する操作を行う指示部として認識すべき認識対象の一例として、ユーザの手及びその指先を挙げて説明する。ただし、本実施形態は認識対象をスタイラスペンや差し棒などの操作器具に置き換えても適応可能である。
ここで、本実施形態の情報処理装置100に搭載されている赤外発光部207と赤外カメラ208を使って算出できる指先とテーブル面との垂直距離の分解能(精度)は20mmであるとする。つまり、指先が操作面101から垂直距離20mm以下の位置にある場合、垂直距離hLが0mmなのか20mmなのか、それとも0〜20mm範囲内の異なる値なのかを正確に求めることはできないことを想定する。
上述した第1の実施形態では、「タッチ」、「リリース」、「タップ」、「ムーブスタート」、「ムーブ」という5種類のタッチイベントを利用することで、イベント情報を受けた機能部に対して実行すべき動作を一意に特定させていた。それに対し、扱うイベント数を減らすことで、処理を単純化する変形例を説明する。以下、変形例について図面を参照して詳細に説明する。なお、第1の実施形態において説明したのと共通する内容については同番号を付し、適宜説明を省略する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
301 領域検出部
302 位置検出部
303 距離取得部
306 状態判定部
307 推定部
308 認識部
309 表示制御部
Claims (20)
- 操作面と所定の物体との近接状態が所定の条件を満たしている間、前記操作面が前記所定の物体によってタッチされていると判定する状態判定手段と、
前記所定の物体によって示される指示位置を検出する位置検出手段と、
前記状態判定手段により、前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が初めに静止したとみなされる位置を、前記所定の物体によるタッチ入力が開始された前記操作面上の位置であると特定する特定手段と、
を備えることを特徴とする情報処理装置。 - 前記特定手段は、さらに、前記状態判定手段により、前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が最後に静止したとみなされる位置を、前記所定の物体によるタッチ入力が終了された位置であると特定すること
を特徴とする請求項1に記載の情報処理装置。 - 前記特定手段は、前記状態判定手段により前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が静止したとみなされる位置が発生しない場合、前記操作面と前記所定の物体との近接状態が前記所定の条件を満たすようになった時点での前記指示位置を、前記所定の物体によるタッチ入力が開始された前記操作面上の位置であると特定することを特徴とする請求項1又は2に記載の情報処理装置。
- 前記特定手段は、前記状態判定手段により前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が静止したとみなされる位置が発生しない場合、前記操作面と前記所定の物体との近接状態が前記所定の条件を満たさなくなった時点での前記指示位置を、前記所定の物体によるタッチ入力が終了された前記操作面上の位置であると特定することを特徴とする請求項2に記載の情報処理装置。
- 前記位置検出手段は、前記所定の物体によって示される指示位置の3次元位置情報を検出し、
前記状態判定手段は、検出された前記指示位置の3次元位置情報に基づいて特定される前記操作面と前記所定の物体との間の距離が所定の条件を満たしている間、前記操作面が前記所定の物体によってタッチされている状態であると判定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 - 前記特定手段は、前記状態判定手段により、前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が静止したとみなされる位置の3次元位置情報のうち、前記操作面に平行な成分で示される2次元位置情報を、前記所定の物体によってタッチされた前記操作面上の位置であると特定することを特徴とする請求項5に記載の情報処理装置。
- 前記状態判定手段は、前記操作面と前記所定の物体との間の距離が、第1の閾値より小さくなってから、第2の閾値より大きくなるまでの間、前記操作面が前記所定の物体によってタッチされていると判定することを特徴とする請求項5又は6に記載の情報処理装置。
- 前記第2の閾値は、前記第1の閾値よりも大きいことを特徴とする請求項7に記載の情報処理装置。
- 前記第1の閾値と前記第2の閾値の大きさは等しいことを特徴とする請求項7に記載の情報処理装置。
- 前記特定手段によって、前記所定の物体によるタッチ入力が開始された位置であると特定された位置と、前記所定の物体によるタッチ入力が終了された位置であると特定された位置が一致する場合に、タップ操作が入力されたと認識する認識手段を更に備えることを特徴とする請求項2又は4に記載の情報処理装置。
- 前記認識手段は、前記特定手段によって、前記所定の物体によるタッチ入力が開始された位置であると特定された位置と、前記位置検出手段によって最後に検出された指示位置との間の距離が、所定の閾値より大きい場合に、ムーブ操作が開始されたと認識することを特徴とする請求項10に記載の情報処理装置。
- 前記認識手段は、ムーブ操作が開始されたと認識した後、前記位置検出手段によって検出された指示位置が最後に静止したとみなされる位置を、前記ムーブ操作の終了位置と認識することを特徴とする請求項11に記載の情報処理装置。
- 前記認識手段は、前記特定手段によって、前記所定の物体によるタッチ入力が開始された位置であると特定された位置と、前記所定の物体によるタッチ入力が終了された位置であると特定された位置が、一致しない場合に、ムーブ操作が入力されたと認識することを特徴とする請求項10に記載の情報処理装置。
- 前記操作面に表示される画像を制御する表示制御手段を更に備え、
前記表示制御手段は、前記認識手段により、タップ操作が入力されたと認識された場合、前記特定手段によって特定された前記タッチ入力が開始された位置に表示されたオブジェクトに対応する画像を前記操作面に表示させることを特徴とする請求項10乃至13のいずれか1項に記載の情報処理装置。 - 前記表示制御手段は、前記認識手段により、ムーブ操作が開始されたと認識された場合、前記特定手段によって特定された前記タッチ入力が開始された位置に表示されたオブジェクトを、前記位置検出手段によって最後に検出された指示位置に移動させることを特徴とする請求項14に記載の情報処理装置。
- 撮像部が撮像した入力画像から、前記所定の物体が写る移動領域を検出する領域検出手段を更に備え、
前記位置検出手段は、前記領域検出手段によって検出された移動領域の形状に基づいて、前記所定の物体によって示される指示位置を検出することを特徴とする請求項1乃至15のいずれか1項に記載の情報処理装置。 - 前記撮像部は、赤外光を撮像する赤外カメラであって、前記入力画像は、前記赤外カメラによって検出された赤外光の輝度値によって構成される情報であることを特徴とする請求項16に記載の情報処理装置。
- 状態判定手段により、操作面と所定の物体との近接状態が所定の条件を満たしている間、前記操作面が前記所定の物体によってタッチされていると判定する状態判定工程と、
位置検出手段により、前記所定の物体によって示される指示位置を検出する位置検出工程と、
前記操作面が前記所定の物体によってタッチされていると判定されている間に、検出された指示位置が初めに静止したとみなされる位置を、特定手段により、前記所定の物体によるタッチ入力が開始された前記操作面上の位置であると特定する特定工程と、
を有することを特徴とする情報処理装置の制御方法。 - コンピュータに読み込ませ実行させることで、前記コンピュータを請求項1に記載の情報処理装置の各手段として機能させるプログラム。
- 請求項19に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013174678A JP6202942B2 (ja) | 2013-08-26 | 2013-08-26 | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 |
US14/464,436 US9513715B2 (en) | 2013-08-26 | 2014-08-20 | Information processing apparatus, method for controlling information processing apparatus, and storage medium |
CN201410425710.9A CN104423881B (zh) | 2013-08-26 | 2014-08-26 | 信息处理装置及其控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013174678A JP6202942B2 (ja) | 2013-08-26 | 2013-08-26 | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015043154A JP2015043154A (ja) | 2015-03-05 |
JP2015043154A5 JP2015043154A5 (ja) | 2016-09-29 |
JP6202942B2 true JP6202942B2 (ja) | 2017-09-27 |
Family
ID=52479895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013174678A Active JP6202942B2 (ja) | 2013-08-26 | 2013-08-26 | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9513715B2 (ja) |
JP (1) | JP6202942B2 (ja) |
CN (1) | CN104423881B (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9218090B2 (en) * | 2013-04-03 | 2015-12-22 | Dell Products, Lp | System and method for controlling a projector via a passive control strip |
JP6349838B2 (ja) * | 2014-01-21 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
US9563956B2 (en) * | 2014-03-26 | 2017-02-07 | Intel Corporation | Efficient free-space finger recognition |
US10168833B2 (en) * | 2014-09-03 | 2019-01-01 | Hewlett-Packard Development Company, L.P. | Presentation of a digital image of an object |
US9983745B2 (en) * | 2014-09-19 | 2018-05-29 | Kabushiki Kaisha Tokai Rika Denki Seisakusho | Touch sensor device and controller |
BR112017007976B1 (pt) * | 2014-10-22 | 2023-01-17 | Telefonaktiebolaget Lm Ericsson (Publ) | Método e dispositivo para fornecer uma interface de usuário baseada em toque |
US10001857B2 (en) * | 2015-05-13 | 2018-06-19 | Seiko Epson Corporation | Display apparatus and method of controlling display apparatus |
US9753582B2 (en) * | 2015-06-30 | 2017-09-05 | Synaptics Incorporated | Position-filtering for land-lift events |
JP6555958B2 (ja) * | 2015-07-21 | 2019-08-07 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、および記憶媒体 |
JP6566767B2 (ja) * | 2015-07-29 | 2019-08-28 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、コンピュータプログラム、及び記憶媒体 |
EP3333616A4 (en) | 2015-08-04 | 2019-04-03 | Sony Interactive Entertainment Inc. | VISIOCASQUE, DISPLAY CONTROL METHOD, AND PROGRAM |
US10963063B2 (en) * | 2015-12-18 | 2021-03-30 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2017134638A (ja) * | 2016-01-28 | 2017-08-03 | 株式会社東海理化電機製作所 | 操作検出装置 |
JP2017146927A (ja) * | 2016-02-19 | 2017-08-24 | ソニーモバイルコミュニケーションズ株式会社 | 制御装置、制御方法及びプログラム |
WO2017149719A1 (ja) * | 2016-03-03 | 2017-09-08 | 日立マクセル株式会社 | 入力操作検出装置及び映像投射装置 |
CN107402654B (zh) * | 2016-05-18 | 2021-07-16 | 原相科技股份有限公司 | 触控侦测方法以及触控侦测系统 |
KR102604520B1 (ko) * | 2016-08-17 | 2023-11-22 | 삼성전자주식회사 | 온라인으로 상품을 구매하는 방법 및 장치 |
JP6452658B2 (ja) * | 2016-09-27 | 2019-01-16 | キヤノン株式会社 | 情報処理装置、およびその制御方法ならびにプログラム |
JP2018085552A (ja) * | 2016-11-21 | 2018-05-31 | セイコーエプソン株式会社 | プロジェクターシステム |
JP7345142B2 (ja) * | 2018-02-14 | 2023-09-15 | パナソニックIpマネジメント株式会社 | リスク評価システム及びリスク評価方法 |
KR102469722B1 (ko) * | 2018-09-21 | 2022-11-22 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
JP6733789B2 (ja) * | 2019-07-31 | 2020-08-05 | 富士通株式会社 | 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム |
CN113867522A (zh) * | 2021-08-31 | 2021-12-31 | 歌尔科技有限公司 | 一种互动投影控制方法及装置、感应垫、互动投影仪 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05241733A (ja) | 1992-02-27 | 1993-09-21 | Hitachi Ltd | タッチパネルの入力誤差補正方式 |
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
US6624833B1 (en) * | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
EP1739529B1 (en) * | 2000-07-05 | 2010-12-01 | Smart Technologies ULC | Camera-based touch system and method |
US20020015064A1 (en) * | 2000-08-07 | 2002-02-07 | Robotham John S. | Gesture-based user interface to multi-level and multi-modal sets of bit-maps |
US20050122308A1 (en) * | 2002-05-28 | 2005-06-09 | Matthew Bell | Self-contained interactive video display system |
JP3933139B2 (ja) * | 2004-03-09 | 2007-06-20 | 日産自動車株式会社 | コマンド入力装置 |
US7728825B2 (en) * | 2005-03-22 | 2010-06-01 | Microsoft Corporation | Targeting in a stylus-based user interface |
US20100045705A1 (en) * | 2006-03-30 | 2010-02-25 | Roel Vertegaal | Interaction techniques for flexible displays |
US8284165B2 (en) * | 2006-10-13 | 2012-10-09 | Sony Corporation | Information display apparatus with proximity detection performance and information display method using the same |
US8519963B2 (en) * | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display |
US8130211B2 (en) * | 2007-09-24 | 2012-03-06 | Microsoft Corporation | One-touch rotation of virtual objects in virtual workspace |
US20090174679A1 (en) * | 2008-01-04 | 2009-07-09 | Wayne Carl Westerman | Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface |
US8228300B2 (en) * | 2008-03-28 | 2012-07-24 | Sprint Communications Company L.P. | Physical feedback to indicate object directional slide |
US8375336B2 (en) * | 2008-05-23 | 2013-02-12 | Microsoft Corporation | Panning content utilizing a drag operation |
US8514251B2 (en) * | 2008-06-23 | 2013-08-20 | Qualcomm Incorporated | Enhanced character input using recognized gestures |
US9030418B2 (en) * | 2008-06-24 | 2015-05-12 | Lg Electronics Inc. | Mobile terminal capable of sensing proximity touch |
JP2010042207A (ja) * | 2008-08-18 | 2010-02-25 | Fujifilm Corp | 入力装置、医療機器 |
US8502787B2 (en) * | 2008-11-26 | 2013-08-06 | Panasonic Corporation | System and method for differentiating between intended and unintended user input on a touchpad |
US8549432B2 (en) * | 2009-05-29 | 2013-10-01 | Apple Inc. | Radial menus |
US20120327009A1 (en) * | 2009-06-07 | 2012-12-27 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US8547327B2 (en) * | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
US20110181510A1 (en) * | 2010-01-26 | 2011-07-28 | Nokia Corporation | Gesture Control |
US20110185320A1 (en) * | 2010-01-28 | 2011-07-28 | Microsoft Corporation | Cross-reference Gestures |
JP5114795B2 (ja) * | 2010-01-29 | 2013-01-09 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
US8751970B2 (en) * | 2010-02-25 | 2014-06-10 | Microsoft Corporation | Multi-screen synchronous slide gesture |
US9268431B2 (en) * | 2010-08-27 | 2016-02-23 | Apple Inc. | Touch and hover switching |
JP2012073658A (ja) * | 2010-09-01 | 2012-04-12 | Shinsedai Kk | コンピュータシステム |
JP5708083B2 (ja) * | 2011-03-17 | 2015-04-30 | ソニー株式会社 | 電子機器、情報処理方法、プログラム、及び電子機器システム |
WO2012125990A2 (en) * | 2011-03-17 | 2012-09-20 | Laubach Kevin | Input device user interface enhancements |
CN102841733B (zh) * | 2011-06-24 | 2015-02-18 | 株式会社理光 | 虚拟触摸屏系统以及自动切换交互模式的方法 |
US10082950B2 (en) * | 2011-11-09 | 2018-09-25 | Joseph T. LAPP | Finger-mapped character entry systems |
JP2014220720A (ja) * | 2013-05-09 | 2014-11-20 | 株式会社東芝 | 電子機器、情報処理方法及びプログラム |
-
2013
- 2013-08-26 JP JP2013174678A patent/JP6202942B2/ja active Active
-
2014
- 2014-08-20 US US14/464,436 patent/US9513715B2/en active Active
- 2014-08-26 CN CN201410425710.9A patent/CN104423881B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US20150054735A1 (en) | 2015-02-26 |
US9513715B2 (en) | 2016-12-06 |
JP2015043154A (ja) | 2015-03-05 |
CN104423881B (zh) | 2018-09-25 |
CN104423881A (zh) | 2015-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6202942B2 (ja) | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 | |
JP2015043154A5 (ja) | ||
US10156938B2 (en) | Information processing apparatus, method for controlling the same, and storage medium | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
JP6452456B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
KR102347248B1 (ko) | 터치 제스쳐 인식 방법 및 장치 | |
US9880684B2 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium | |
WO2014106219A1 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
US9035889B2 (en) | Information processing apparatus and information processing method | |
US20170315674A1 (en) | Information processing apparatus, control method for the information processing apparatus, and storage medium | |
JP2015022624A (ja) | 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体 | |
JP2010244480A (ja) | ジェスチャ認識に基づく制御装置及び制御方法 | |
US10379678B2 (en) | Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram | |
US10126856B2 (en) | Information processing apparatus, control method for information processing apparatus, and storage medium | |
JP6245938B2 (ja) | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 | |
US10067598B2 (en) | Information processing apparatus, input control method, method of controlling information processing apparatus | |
US9489077B2 (en) | Optical touch panel system, optical sensing module, and operation method thereof | |
EP2957998A1 (en) | Input device | |
US10416814B2 (en) | Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium | |
JP6555958B2 (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
KR101860138B1 (ko) | 오브젝트 생성 및 오브젝트의 변환이 가능한 동작 인식 센서를 이용한 3차원 입력 장치 | |
JP6579866B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
JP6570376B2 (ja) | 情報処理装置、その制御方法、プログラム、記憶媒体 | |
TWI464626B (zh) | 移動感測裝置以及移動感測方法 | |
US10185490B2 (en) | Information processing apparatus, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160809 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170829 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6202942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |