JP2015043154A - 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 - Google Patents
情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 Download PDFInfo
- Publication number
- JP2015043154A JP2015043154A JP2013174678A JP2013174678A JP2015043154A JP 2015043154 A JP2015043154 A JP 2015043154A JP 2013174678 A JP2013174678 A JP 2013174678A JP 2013174678 A JP2013174678 A JP 2013174678A JP 2015043154 A JP2015043154 A JP 2015043154A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- recognition target
- information processing
- processing apparatus
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
Abstract
【解決手段】 上記課題を解決するため、本発明の情報処理装置は、操作面と認識対象との近接状態に基づいて、前記操作面が前記認識対象によってタッチされているかを判定する状態判定部306と、前記認識対象によって示される指示位置を検出する位置検出部302と、前記操作面が前記認識対象によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が初めに静止したとみなされる位置を、前記認識対象によるタッチ入力が開始された位置であると推定する推定部308と、を備えることを特徴とする。
【選択図】 図1
Description
まず第1の実施形態として、認識対象と操作面との距離に基づいてタッチ状態と非タッチ状態を区別した上で、タッチ状態においてユーザの指先の動きが静止したとみなされる位置をタッチ位置として特定する実施形態を説明する。タッチ位置とは、タッチ入力によって指示される操作面に平行な二次元(xy平面)における位置座標を示し、少なくとも、タッチ入力が開始されるタッチ開始位置と、タッチ入力が終了されるタッチ終了位置を含む。なお、本実施形態では、情報処理装置に対する操作を行う指示部として認識すべき認識対象の一例として、ユーザの手及びその指先を挙げて説明する。ただし、本実施形態は認識対象をスタイラスペンや差し棒などの操作器具に置き換えても適応可能である。
ここで、本実施形態の情報処理装置100に搭載されている赤外発光部207と赤外カメラ208を使って算出できる指先とテーブル面との垂直距離の分解能(精度)は20mmであるとする。つまり、指先が操作面101から垂直距離20mm以下の位置にある場合、垂直距離hLが0mmなのか20mmなのか、それとも0〜20mm範囲内の異なる値なのかを正確に求めることはできないことを想定する。
上述した第1の実施形態では、「タッチ」、「リリース」、「タップ」、「ムーブスタート」、「ムーブ」という5種類のタッチイベントを利用することで、イベント情報を受けた機能部に対して実行すべき動作を一意に特定させていた。それに対し、扱うイベント数を減らすことで、処理を単純化する変形例を説明する。以下、変形例について図面を参照して詳細に説明する。なお、第1の実施形態において説明したのと共通する内容については同番号を付し、適宜説明を省略する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
301 領域検出部
302 位置検出部
303 距離取得部
306 状態判定部
307 推定部
308 認識部
309 表示制御部
Claims (16)
- 操作面と認識対象との近接状態に基づいて、前記操作面が前記認識対象によってタッチされているかを判定する状態判定手段と、
前記認識対象によって示される指示位置を検出する位置検出手段と、
前記状態判定手段により、前記操作面が前記認識対象によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が初めに静止したとみなされる位置を、前記認識対象によるタッチ入力が開始された位置であると推定する推定手段と、
を備えることを特徴とする情報処理装置。 - 前記推定手段は、さらに、前記状態判定手段により、前記操作面が前記認識対象によってタッチされていると判定されている間において、前記位置検出手段によって検出された指示位置が最後に静止したとみなされる位置を、前記認識対象によるタッチ入力が終了された位置であると推定すること
を特徴とする請求項1に記載の情報処理装置。 - 前記状態判定手段は、前記操作面と前記認識対象との間の距離が、第1の閾値より小さくなってから、第2の閾値より大きくなるまでの間は、前記操作面が前記認識対象によってタッチされていると判定することを特徴とする請求項2に記載の情報処理装置。
- 前記第2の閾値は、前記第1の閾値よりも大きいことを特徴とする請求項3に記載の情報処理装置。
- 前記推定手段は、さらに、前記操作面と前記認識対象との間の距離が、第1の閾値より小さくなった位置を、前記認識対象によるホバー操作の開始位置であると推定し、前記操作面と前記認識対象との間の距離が、第2の閾値より大きくなった位置を、前記認識対象によるホバー操作の終了位置であると推定することを特徴とする請求項3又は4に記載の情報処理装置。
- 前記推定手段によって、前記認識対象によるタッチ入力が開始された位置であると推定された位置と、前記認識対象によるタッチ入力が終了された位置であると推定された位置が一致する場合に、タップ操作が入力されたと認識する認識手段を更に備えることを特徴とする請求項2乃至5のいずれか1項に記載の情報処理装置。
- 前記認識手段は、前記推定手段によって、前記認識対象によるタッチ入力が開始された位置であると推定された位置と、前記位置検出手段によって最後に検出された指示位置との間の距離が、所定の閾値より大きい場合に、ムーブ操作が開始されたと認識することを特徴とする請求項6に記載の情報処理装置。
- 前記認識手段は、ムーブ操作が開始されたと認識してから、前記位置検出手段によって検出された指示位置が最後に静止したとみなされる位置を、前記ムーブ操作の終了位置と認識することを特徴とする請求項7に記載の情報処理装置。
- 前記認識手段は、前記推定手段によって、前記認識対象によるタッチ入力が開始された位置であると推定された位置と、前記認識対象によるタッチ入力が終了された位置であると推定された位置が、一致しない場合に、ムーブ操作が入力されたと認識することを特徴とする請求項6に記載の情報処理装置。
- 前記操作面に表示される画像を制御する表示制御手段を更に備え、
前記表示制御手段は、前記認識手段により、タップ操作が入力されたと認識された場合、前記推定手段によって推定された前記タッチ入力が開始された位置に表示されたオブジェクトに対応する画像を前記操作面に表示させることを特徴とする請求項6乃至9のいずれか1項に記載の情報処理装置。 - 前記表示制御手段は、前記認識手段により、ムーブ操作が開始されたと認識された場合、前記推定手段によって推定された前記タッチ入力が開始された位置に表示されたオブジェクトを、前記位置検出手段によって最後に検出された指示位置に移動させることを特徴とする請求項6乃至10のいずれか1項に記載の情報処理装置。
- 撮像部が撮像した入力画像から、前記認識対象が写る移動領域を検出する領域検出手段を更に備え、
前記位置検出手段は、前記領域検出手段によって検出された移動領域の形状に基づいて、前記認識対象による指示位置を検出することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 - 前記撮像部は、赤外光を撮像する赤外カメラであって、前記入力画像は、前記赤外カメラによって検出された赤外光の輝度値によって構成される情報であることを特徴とする請求項12に記載の情報処理装置。
- 状態判定手段により、操作面と認識対象との近接状態に基づいて、前記操作面が前記認識対象によってタッチされているかを判定する状態判定工程と、
位置検出手段により、前記認識対象によって示される指示位置を検出する位置検出工程と、
推定手段により、前記状態判定工程において前記操作面が前記認識対象によってタッチされていると判定されている間に、前記位置検出工程において検出された指示位置が初めに静止したとみなされる位置を、前記認識対象によるタッチ入力が開始された位置であると推定する推定工程と、
を有することを特徴とする情報処理装置の制御方法。 - コンピュータに読み込ませ実行させることで、前記コンピュータを請求項1に記載の情報処理装置の各手段として機能させるプログラム。
- 請求項15に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013174678A JP6202942B2 (ja) | 2013-08-26 | 2013-08-26 | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 |
US14/464,436 US9513715B2 (en) | 2013-08-26 | 2014-08-20 | Information processing apparatus, method for controlling information processing apparatus, and storage medium |
CN201410425710.9A CN104423881B (zh) | 2013-08-26 | 2014-08-26 | 信息处理装置及其控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013174678A JP6202942B2 (ja) | 2013-08-26 | 2013-08-26 | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015043154A true JP2015043154A (ja) | 2015-03-05 |
JP2015043154A5 JP2015043154A5 (ja) | 2016-09-29 |
JP6202942B2 JP6202942B2 (ja) | 2017-09-27 |
Family
ID=52479895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013174678A Active JP6202942B2 (ja) | 2013-08-26 | 2013-08-26 | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9513715B2 (ja) |
JP (1) | JP6202942B2 (ja) |
CN (1) | CN104423881B (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017027311A (ja) * | 2015-07-21 | 2017-02-02 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、および記憶媒体 |
JP2017146927A (ja) * | 2016-02-19 | 2017-08-24 | ソニーモバイルコミュニケーションズ株式会社 | 制御装置、制御方法及びプログラム |
WO2017149719A1 (ja) * | 2016-03-03 | 2017-09-08 | 日立マクセル株式会社 | 入力操作検出装置及び映像投射装置 |
JP2018055257A (ja) * | 2016-09-27 | 2018-04-05 | キヤノン株式会社 | 情報処理装置、およびその制御方法ならびにプログラム |
WO2018092627A1 (ja) * | 2016-11-21 | 2018-05-24 | セイコーエプソン株式会社 | プロジェクターシステム |
JP2018525709A (ja) * | 2015-06-30 | 2018-09-06 | シナプティクス インコーポレイテッド | ランドリフトイベントの位置フィルタリング |
WO2019159587A1 (ja) * | 2018-02-14 | 2019-08-22 | パナソニックIpマネジメント株式会社 | リスク評価システム及びリスク評価方法 |
JP2019204539A (ja) * | 2019-07-31 | 2019-11-28 | 富士通株式会社 | 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9218090B2 (en) * | 2013-04-03 | 2015-12-22 | Dell Products, Lp | System and method for controlling a projector via a passive control strip |
JP6349838B2 (ja) * | 2014-01-21 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
US9563956B2 (en) * | 2014-03-26 | 2017-02-07 | Intel Corporation | Efficient free-space finger recognition |
WO2016036352A1 (en) * | 2014-09-03 | 2016-03-10 | Hewlett-Packard Development Company, L.P. | Presentation of a digital image of an object |
US9983745B2 (en) * | 2014-09-19 | 2018-05-29 | Kabushiki Kaisha Tokai Rika Denki Seisakusho | Touch sensor device and controller |
WO2016064311A1 (en) * | 2014-10-22 | 2016-04-28 | Telefonaktiebolaget L M Ericsson (Publ) | Method and device for providing a touch-based user interface |
US10001857B2 (en) * | 2015-05-13 | 2018-06-19 | Seiko Epson Corporation | Display apparatus and method of controlling display apparatus |
JP6566767B2 (ja) | 2015-07-29 | 2019-08-28 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、コンピュータプログラム、及び記憶媒体 |
US10685211B2 (en) | 2015-08-04 | 2020-06-16 | Sony Interactive Entertainment Inc. | Head-mounted display, display control method, and program |
US10963063B2 (en) * | 2015-12-18 | 2021-03-30 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2017134638A (ja) * | 2016-01-28 | 2017-08-03 | 株式会社東海理化電機製作所 | 操作検出装置 |
CN107402654B (zh) * | 2016-05-18 | 2021-07-16 | 原相科技股份有限公司 | 触控侦测方法以及触控侦测系统 |
KR102604520B1 (ko) * | 2016-08-17 | 2023-11-22 | 삼성전자주식회사 | 온라인으로 상품을 구매하는 방법 및 장치 |
KR102469722B1 (ko) * | 2018-09-21 | 2022-11-22 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
CN113867522A (zh) * | 2021-08-31 | 2021-12-31 | 歌尔科技有限公司 | 一种互动投影控制方法及装置、感应垫、互动投影仪 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1124839A (ja) * | 1997-07-07 | 1999-01-29 | Sony Corp | 情報入力装置 |
JP3933139B2 (ja) * | 2004-03-09 | 2007-06-20 | 日産自動車株式会社 | コマンド入力装置 |
JP2010042207A (ja) * | 2008-08-18 | 2010-02-25 | Fujifilm Corp | 入力装置、医療機器 |
JP2011175623A (ja) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2012073658A (ja) * | 2010-09-01 | 2012-04-12 | Shinsedai Kk | コンピュータシステム |
JP2014220720A (ja) * | 2013-05-09 | 2014-11-20 | 株式会社東芝 | 電子機器、情報処理方法及びプログラム |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05241733A (ja) | 1992-02-27 | 1993-09-21 | Hitachi Ltd | タッチパネルの入力誤差補正方式 |
US6624833B1 (en) * | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
EP1739528B1 (en) * | 2000-07-05 | 2009-12-23 | Smart Technologies ULC | Method for a camera-based touch system |
US20020015064A1 (en) * | 2000-08-07 | 2002-02-07 | Robotham John S. | Gesture-based user interface to multi-level and multi-modal sets of bit-maps |
US20050122308A1 (en) * | 2002-05-28 | 2005-06-09 | Matthew Bell | Self-contained interactive video display system |
US7728825B2 (en) * | 2005-03-22 | 2010-06-01 | Microsoft Corporation | Targeting in a stylus-based user interface |
US20100045705A1 (en) * | 2006-03-30 | 2010-02-25 | Roel Vertegaal | Interaction techniques for flexible displays |
US8284165B2 (en) * | 2006-10-13 | 2012-10-09 | Sony Corporation | Information display apparatus with proximity detection performance and information display method using the same |
US8519963B2 (en) * | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display |
US8130211B2 (en) * | 2007-09-24 | 2012-03-06 | Microsoft Corporation | One-touch rotation of virtual objects in virtual workspace |
US20090174679A1 (en) * | 2008-01-04 | 2009-07-09 | Wayne Carl Westerman | Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface |
US8627231B2 (en) * | 2008-03-28 | 2014-01-07 | Sprint Communications Company L.P. | List-position locator |
US8375336B2 (en) * | 2008-05-23 | 2013-02-12 | Microsoft Corporation | Panning content utilizing a drag operation |
US8514251B2 (en) * | 2008-06-23 | 2013-08-20 | Qualcomm Incorporated | Enhanced character input using recognized gestures |
US9030418B2 (en) * | 2008-06-24 | 2015-05-12 | Lg Electronics Inc. | Mobile terminal capable of sensing proximity touch |
US8502787B2 (en) * | 2008-11-26 | 2013-08-06 | Panasonic Corporation | System and method for differentiating between intended and unintended user input on a touchpad |
US8549432B2 (en) * | 2009-05-29 | 2013-10-01 | Apple Inc. | Radial menus |
US20120327009A1 (en) * | 2009-06-07 | 2012-12-27 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US8547327B2 (en) * | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
US20110181510A1 (en) * | 2010-01-26 | 2011-07-28 | Nokia Corporation | Gesture Control |
US20110185320A1 (en) * | 2010-01-28 | 2011-07-28 | Microsoft Corporation | Cross-reference Gestures |
US8751970B2 (en) * | 2010-02-25 | 2014-06-10 | Microsoft Corporation | Multi-screen synchronous slide gesture |
US9098138B2 (en) * | 2010-08-27 | 2015-08-04 | Apple Inc. | Concurrent signal detection for touch and hover sensing |
JP5708083B2 (ja) * | 2011-03-17 | 2015-04-30 | ソニー株式会社 | 電子機器、情報処理方法、プログラム、及び電子機器システム |
US9195321B2 (en) * | 2011-03-17 | 2015-11-24 | Intellitact Llc | Input device user interface enhancements |
CN102841733B (zh) * | 2011-06-24 | 2015-02-18 | 株式会社理光 | 虚拟触摸屏系统以及自动切换交互模式的方法 |
US10082950B2 (en) * | 2011-11-09 | 2018-09-25 | Joseph T. LAPP | Finger-mapped character entry systems |
-
2013
- 2013-08-26 JP JP2013174678A patent/JP6202942B2/ja active Active
-
2014
- 2014-08-20 US US14/464,436 patent/US9513715B2/en active Active
- 2014-08-26 CN CN201410425710.9A patent/CN104423881B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1124839A (ja) * | 1997-07-07 | 1999-01-29 | Sony Corp | 情報入力装置 |
JP3933139B2 (ja) * | 2004-03-09 | 2007-06-20 | 日産自動車株式会社 | コマンド入力装置 |
JP2010042207A (ja) * | 2008-08-18 | 2010-02-25 | Fujifilm Corp | 入力装置、医療機器 |
JP2011175623A (ja) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2012073658A (ja) * | 2010-09-01 | 2012-04-12 | Shinsedai Kk | コンピュータシステム |
JP2014220720A (ja) * | 2013-05-09 | 2014-11-20 | 株式会社東芝 | 電子機器、情報処理方法及びプログラム |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018525709A (ja) * | 2015-06-30 | 2018-09-06 | シナプティクス インコーポレイテッド | ランドリフトイベントの位置フィルタリング |
JP7007916B2 (ja) | 2015-06-30 | 2022-01-25 | シナプティクス インコーポレイテッド | ランドリフトイベントの位置フィルタリング |
JP2017027311A (ja) * | 2015-07-21 | 2017-02-02 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、および記憶媒体 |
JP2017146927A (ja) * | 2016-02-19 | 2017-08-24 | ソニーモバイルコミュニケーションズ株式会社 | 制御装置、制御方法及びプログラム |
WO2017149719A1 (ja) * | 2016-03-03 | 2017-09-08 | 日立マクセル株式会社 | 入力操作検出装置及び映像投射装置 |
JP2018055257A (ja) * | 2016-09-27 | 2018-04-05 | キヤノン株式会社 | 情報処理装置、およびその制御方法ならびにプログラム |
WO2018092627A1 (ja) * | 2016-11-21 | 2018-05-24 | セイコーエプソン株式会社 | プロジェクターシステム |
JP2018085552A (ja) * | 2016-11-21 | 2018-05-31 | セイコーエプソン株式会社 | プロジェクターシステム |
US10754474B2 (en) | 2016-11-21 | 2020-08-25 | Seiko Epson Corporation | Projector system |
WO2019159587A1 (ja) * | 2018-02-14 | 2019-08-22 | パナソニックIpマネジメント株式会社 | リスク評価システム及びリスク評価方法 |
JP2019204539A (ja) * | 2019-07-31 | 2019-11-28 | 富士通株式会社 | 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN104423881A (zh) | 2015-03-18 |
CN104423881B (zh) | 2018-09-25 |
US9513715B2 (en) | 2016-12-06 |
JP6202942B2 (ja) | 2017-09-27 |
US20150054735A1 (en) | 2015-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6202942B2 (ja) | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 | |
JP2015043154A5 (ja) | ||
US9400562B2 (en) | Image projection device, image projection system, and control method | |
US10156938B2 (en) | Information processing apparatus, method for controlling the same, and storage medium | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
JP6452456B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
US10642422B2 (en) | Information processing apparatus, control method for the information processing apparatus, and storage medium | |
KR102347248B1 (ko) | 터치 제스쳐 인식 방법 및 장치 | |
US9035889B2 (en) | Information processing apparatus and information processing method | |
US20160077631A1 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium | |
JP2015022624A (ja) | 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体 | |
JP2010244480A (ja) | ジェスチャ認識に基づく制御装置及び制御方法 | |
JP2010205223A (ja) | 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置 | |
US10379678B2 (en) | Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram | |
JP6245938B2 (ja) | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 | |
US9489077B2 (en) | Optical touch panel system, optical sensing module, and operation method thereof | |
EP2957998A1 (en) | Input device | |
US10416814B2 (en) | Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium | |
JP6555958B2 (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
JP6579866B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
JP6570376B2 (ja) | 情報処理装置、その制御方法、プログラム、記憶媒体 | |
TWI464626B (zh) | 移動感測裝置以及移動感測方法 | |
US10185490B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2018181169A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
TWI697827B (zh) | 控制系統及其控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160809 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170829 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6202942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |