JP5658500B2 - 情報処理装置及びその制御方法 - Google Patents
情報処理装置及びその制御方法 Download PDFInfo
- Publication number
- JP5658500B2 JP5658500B2 JP2010167477A JP2010167477A JP5658500B2 JP 5658500 B2 JP5658500 B2 JP 5658500B2 JP 2010167477 A JP2010167477 A JP 2010167477A JP 2010167477 A JP2010167477 A JP 2010167477A JP 5658500 B2 JP5658500 B2 JP 5658500B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- display area
- contact position
- dimensional
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Description
少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段と、
前記判別手段によって判別されたオブジェクトと前記決定手段によって追跡対象として決定された指示部の座標情報とを関連付ける関連付け手段とを備える。
図1は本願発明の情報処理装置の概要を示すものである。本実施形態の装置は、以下の説明から明らかになるが、少なくとも1つの選択対象のオブジェクトを2次元平面の表示領域に表示する構成、並びに、操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段として機能する構成、並びに、前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段としての構成を有する。そして、これらを制御することで、3次元ジェスチャーがどのオブジェクトに対してなされたかを精度を検出するものである。以下はその具体例である。
上記第1の実施形態では、2次元座標検出装置1、3次元座標検出装置2の出力をホストコンピュータ5が受け取り、ホストコンピュータ5がその出力を制御、管理して目的を達成する。しかしながらこれに限定するものではなく、例えば、3次元座標検出装置2が2次元座標検出装置1の出力結果を受け取る構成であっても良い。すなわち、3次元座標検出装置2が、2次元座標検出装置1から、ユーザが2次元領域(表示面)に対してタッチしたことで検出した座標の出力結果を入力したとき、その入力された座標(Z軸の値が0の3次元座標データ)と、3次元座標検出装置2自身の出力結果と比較し、あるいは解析を行って、属性情報やジェスチャーコマンドを生成してホストコンピュータ5に出力する構成であっても良い。
第1の実施形態では、ジェスチャーコマンド生成のための解析を始めるトリガーは、2次元座標検出装置1の出力であり、それをキャンセルするのは3次元座標検出装置2の出力であった。しかしながらこれに限定されるものではなく、例えば表示領域にキャンセルを強制的に実行させるための特定オブジェクト(キャンセルオブジェクト)を表示させておいても良い。
図6は、図7の様、複数人で操作を行った場合のタイミングチャートである。図中信号S201〜S204は図3(B)の信号と同一であるので、説明を省略する。
以上の実施形態においては、2次元座標検出装置1として抵抗膜方式、3次元座標検出装置2として3次元画像距離センサを用いて説明したがこれに限定されるものではない。具体的に2次元座標検出装置としては、静電容量方式、表面弾性波や空中波を利用した超音波方式、光学式を用いたもので構わない。
以上の各実施形態において、3次元座標検出装置の出力値として位置座標値を用いる事で説明してきたが、これに限定されるものではない。
先の実施形態では2次元座標検出装置と3次元座標検出装置からの座標を同時に、あるいは2次元座標検出装置からの出力と、その出力が得られた直後の3次元座標検出装置からの出力とを比較する。そして3次元座標検出装置が出力する出力結果の中の、2次元座標検出装置が出力する位置情報と一致している1つ(若しくは、最も近い位置情報)を選択して、オブジェクト情報を受け渡す。
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
Claims (14)
- 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段と、
前記判別手段によって判別されたオブジェクトと前記決定手段によって追跡対象として決定された指示部の座標情報とを関連付ける関連付け手段と、
を備えることを特徴とする情報処理装置。 - 更に、前記決定手段で追跡対象として決定された指示部が前記第2の検出手段による検出範囲から外れた場合、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項1に記載の情報処理装置。
- 前記表示手段に表示されるオブジェクトには、追跡を強制的にキャンセルすることを指示する特定オブジェクトが含まれ、
更に、決定手段で追跡対象として決定した指示部の追跡中に、追跡している指示部による前記表示領域の前記特定オブジェクトの位置への接触を前記第1の検出手段で検出したとき、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項1に記載の情報処理装置。 - 前記第2の検出手段は、前記表示領域の2次元平面から所定距離だけ隔てた位置に設けられ、少なくとも前記表示領域を撮影視野内にした3次元画像距離検出手段であることを特徴とする請求項1又は3のいずれか1項に記載の情報処理装置。
- 前記関連付け手段は、さらに、第2の検出手段によって検出された3次元の座標情報に基づくジェスチャーと、前記判別手段によって判別されたオブジェクトを関連付けることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
少なくとも前記表示領域の2次元平面に対して予め定められた距離だけ隔てた位置に設けられ、前記表示領域を撮影視野内にして画像を検出する第2の検出手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した画像内の指示部の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段と、
前記判別手段によって判別されたオブジェクトと前記決定手段によって追跡対象として決定された指示部の座標情報とを関連付ける関連付け手段と、
を備えることを特徴とする情報処理装置。 - 更に、前記決定手段で追跡対象として決定された指示部が前記第2の検出手段による視野範囲から外れた場合、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項5に記載の情報処理装置。
- 前記表示手段に表示されるオブジェクトには、追跡を強制的にキャンセルすることを指示する特定オブジェクトが含まれ、
更に、決定手段で追跡対象として決定した指示部の追跡中に、追跡している指示部による前記表示領域の前記特定オブジェクトの位置への接触を前記第1の検出手段で検出したとき、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項5に記載の情報処理装置。 - 前記関連付け手段は、さらに、第2の検出手段によって検出された3次元の座標情報に基づくジェスチャーと、前記判別手段によって判別されたオブジェクトを関連付けることを特徴とする請求項6乃至8のいずれか1項に記載の情報処理装置。
- 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段とを備える情報処理装置の制御方法であって、
判別手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別工程と、
決定手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定工程と、
関連付け手段が、前記判別工程において判別されたオブジェクトと前記決定工程において追跡対象として決定された指示部の座標情報とを関連付ける関連付け工程と、
を備えることを特徴とする情報処理装置の制御方法。 - 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、少なくとも前記表示領域の2次元平面に対して予め定められた距離だけ隔てた位置に設けられ、前記表示領域を視野範囲内にして画像を検出する第2の検出手段とを備える情報処理装置の制御方法であって、
判別手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別工程と、
決定手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した画像内の指示部の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定工程と、
関連付け手段が、前記判別工程において判別されたオブジェクトと前記決定工程において追跡対象として決定された指示部の座標情報とを関連付ける関連付け工程と、
を備えることを特徴とする情報処理装置の制御方法。 - 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段とを備えるコンピュータを、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段、
前記判別手段によって判別されたオブジェクトと前記決定手段によって追跡対象として決定された指示部の座標情報とを関連付ける関連付け手段、
として機能させるためのプログラム。 - 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
少なくとも前記表示領域の2次元平面に対して予め定められた距離だけ隔てた位置に設けられ、前記表示領域を視野範囲内にして画像を検出する第2の検出手段とを備えるコンピュータを、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した画像内の指示部の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段、
前記判別手段によって判別されたオブジェクトと前記決定手段によって追跡対象として決定された指示部の座標情報とを関連付ける関連付け手段、
として機能させるためのプログラム。 - 請求項12又は13に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010167477A JP5658500B2 (ja) | 2010-07-26 | 2010-07-26 | 情報処理装置及びその制御方法 |
US13/176,783 US8743089B2 (en) | 2010-07-26 | 2011-07-06 | Information processing apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010167477A JP5658500B2 (ja) | 2010-07-26 | 2010-07-26 | 情報処理装置及びその制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012027796A JP2012027796A (ja) | 2012-02-09 |
JP2012027796A5 JP2012027796A5 (ja) | 2013-09-05 |
JP5658500B2 true JP5658500B2 (ja) | 2015-01-28 |
Family
ID=45493200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010167477A Expired - Fee Related JP5658500B2 (ja) | 2010-07-26 | 2010-07-26 | 情報処理装置及びその制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8743089B2 (ja) |
JP (1) | JP5658500B2 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5783441B2 (ja) * | 2011-03-09 | 2015-09-24 | 日本電気株式会社 | 入力装置、入力方法 |
JP5785753B2 (ja) * | 2011-03-25 | 2015-09-30 | 京セラ株式会社 | 電子機器、制御方法および制御プログラム |
JP5610644B2 (ja) * | 2012-04-27 | 2014-10-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 入力装置、入力支援方法及びプログラム |
JP5461735B2 (ja) * | 2012-04-27 | 2014-04-02 | パナソニック株式会社 | 入力装置、入力支援方法及びプログラム |
US9798456B2 (en) * | 2012-08-30 | 2017-10-24 | Panasonic Intellectual Property Corporation Of America | Information input device and information display method |
US9978178B1 (en) * | 2012-10-25 | 2018-05-22 | Amazon Technologies, Inc. | Hand-based interaction in virtually shared workspaces |
DE102012110460A1 (de) * | 2012-10-31 | 2014-04-30 | Audi Ag | Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens |
US9170676B2 (en) * | 2013-03-15 | 2015-10-27 | Qualcomm Incorporated | Enhancing touch inputs with gestures |
GB2519124A (en) * | 2013-10-10 | 2015-04-15 | Ibm | Controlling application launch |
JP6213193B2 (ja) * | 2013-11-29 | 2017-10-18 | 富士通株式会社 | 動作判定方法及び動作判定装置 |
US9575508B2 (en) | 2014-04-21 | 2017-02-21 | Apple Inc. | Impact and contactless gesture inputs for docking stations |
US9962570B2 (en) * | 2014-05-22 | 2018-05-08 | Brandon Dallmann | Trampoline game system |
US10838503B2 (en) | 2014-07-31 | 2020-11-17 | Hewlett-Packard Development Company, L.P. | Virtual reality clamshell computing device |
TWI531954B (zh) * | 2014-11-14 | 2016-05-01 | 中強光電股份有限公司 | 觸控及手勢控制系統與觸控及手勢控制方法 |
JP2016095795A (ja) * | 2014-11-17 | 2016-05-26 | 株式会社東芝 | 認識装置、方法、及びプログラム |
US9454235B2 (en) * | 2014-12-26 | 2016-09-27 | Seungman KIM | Electronic apparatus having a sensing unit to input a user command and a method thereof |
JP6478796B2 (ja) * | 2015-05-14 | 2019-03-06 | 三菱電機株式会社 | セルフプリント端末 |
JP6483556B2 (ja) | 2015-07-15 | 2019-03-13 | 株式会社東芝 | 操作認識装置、操作認識方法及びプログラム |
JP6590609B2 (ja) * | 2015-09-15 | 2019-10-16 | キヤノン株式会社 | 画像解析装置及び画像解析方法 |
CN112106052B (zh) * | 2020-07-22 | 2022-03-18 | 上海亦我信息技术有限公司 | 设计方法、装置和系统、数据处理方法和装置 |
JP2022119429A (ja) * | 2021-02-04 | 2022-08-17 | 東芝テック株式会社 | 情報処理装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60120482A (ja) | 1983-12-02 | 1985-06-27 | Canon Inc | 画像信号処理装置 |
JPS6110360A (ja) | 1984-06-26 | 1986-01-17 | Canon Inc | 画像処理装置 |
US5384900A (en) | 1988-03-14 | 1995-01-24 | Canon Kabushiki Kaisha | Method of managing an image memory by a process independent of an image processing process |
JPH03119386A (ja) | 1989-10-02 | 1991-05-21 | Canon Inc | 画像処理装置 |
JPH04221330A (ja) | 1990-12-20 | 1992-08-11 | Mitsubishi Gas Chem Co Inc | 芳香族多価アルコールの製造方法 |
US6606636B1 (en) | 1993-07-29 | 2003-08-12 | Canon Kabushiki Kaisha | Method and apparatus for retrieving dynamic images and method of and apparatus for managing images |
JPH11338120A (ja) * | 1998-05-27 | 1999-12-10 | Dainippon Screen Mfg Co Ltd | レイアウト装置 |
US6580806B1 (en) | 1998-11-20 | 2003-06-17 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and storage |
US6740860B2 (en) | 2000-12-06 | 2004-05-25 | Canon Kabushiki Kaisha | Photodetector, photosensing position detector, coordinate input device, coordinate input/output apparatus, and photodetection method |
JP3997392B2 (ja) | 2001-12-13 | 2007-10-24 | セイコーエプソン株式会社 | 表示装置及び表示装置の入力方法 |
JP2003316510A (ja) * | 2002-04-23 | 2003-11-07 | Nippon Hoso Kyokai <Nhk> | 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。 |
JP4006290B2 (ja) | 2002-07-30 | 2007-11-14 | キヤノン株式会社 | 座標入力装置、座標入力装置の制御方法、プログラム |
US20050052427A1 (en) | 2003-09-10 | 2005-03-10 | Wu Michael Chi Hung | Hand gesture interaction with touch surface |
JP4401727B2 (ja) | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 画像表示装置及び方法 |
JP4221330B2 (ja) | 2004-05-07 | 2009-02-12 | 日本電信電話株式会社 | インタフェース方法、装置、およびプログラム |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
JP5257779B2 (ja) * | 2008-03-19 | 2013-08-07 | 株式会社デンソー | 表示方法、表示装置、及び操作入力装置 |
JP2011141360A (ja) | 2010-01-06 | 2011-07-21 | Canon Inc | 画像表示装置および画像表示装置の制御方法 |
-
2010
- 2010-07-26 JP JP2010167477A patent/JP5658500B2/ja not_active Expired - Fee Related
-
2011
- 2011-07-06 US US13/176,783 patent/US8743089B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012027796A (ja) | 2012-02-09 |
US8743089B2 (en) | 2014-06-03 |
US20120019485A1 (en) | 2012-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5658500B2 (ja) | 情報処理装置及びその制御方法 | |
US8180114B2 (en) | Gesture recognition interface system with vertical display | |
GB2498299B (en) | Evaluating an input relative to a display | |
WO2017215375A1 (zh) | 信息输入装置与方法 | |
CN103809733B (zh) | 人机交互系统和方法 | |
US20110298708A1 (en) | Virtual Touch Interface | |
WO2013035554A1 (ja) | 入力体の動き検出方法およびそれを用いた入力デバイス | |
JP6021335B2 (ja) | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 | |
US9317130B2 (en) | Visual feedback by identifying anatomical features of a hand | |
US20100328351A1 (en) | User interface | |
JP6618276B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
WO2012032515A1 (en) | Device and method for controlling the behavior of virtual objects on a display | |
US20190265841A1 (en) | 3d touch interaction device, touch interaction method thereof, and display device | |
WO2014106219A1 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
CN102341814A (zh) | 姿势识别方法和采用姿势识别方法的交互式输入系统 | |
US20110250929A1 (en) | Cursor control device and apparatus having same | |
WO2011146070A1 (en) | System and method for reporting data in a computer vision system | |
JP2009251702A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
US9703410B2 (en) | Remote sensing touchscreen | |
JP5342806B2 (ja) | 表示方法および表示装置 | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6643825B2 (ja) | 装置及び方法 | |
JP5675196B2 (ja) | 情報処理装置及びその制御方法 | |
TWI444875B (zh) | 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法 | |
JP2017027311A (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130724 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130724 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141128 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5658500 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |