JP2012027796A - 情報処理装置及びその制御方法 - Google Patents
情報処理装置及びその制御方法 Download PDFInfo
- Publication number
- JP2012027796A JP2012027796A JP2010167477A JP2010167477A JP2012027796A JP 2012027796 A JP2012027796 A JP 2012027796A JP 2010167477 A JP2010167477 A JP 2010167477A JP 2010167477 A JP2010167477 A JP 2010167477A JP 2012027796 A JP2012027796 A JP 2012027796A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- display area
- determined
- instruction unit
- contact position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】 プロジェクタ3は机4の上面に少なくとも1つの選択対象のオブジェクトを表示する。操作者が操作する指示部を机4の上面に接触すると2次元座標検出装置1はその接触位置を検出し、いずれのオブジェクトが操作者により指示されたのかを判別する。このとき、3次元座標検出装置2が検出した指示部の位置の中で、いずれが接触位置に最も近いかを判定し、最も近いと判定され指示部を追跡対象として決定する。以降、追跡対象として決定した指示部を3次元座標検出装置2で検出し、操作者によるジェスチャーパターンを判定したとき、そのジェスチャーパターンに対応する処理を、選択したオブジェクトに対して実行する。
【選択図】 図1
Description
少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段と、
該決定手段で追跡対象として決定した指示部を前記第2の検出手段によって追跡することで、操作者による前記決定した指示部のジェスチャーパターンを判定し、判定したジェスチャーパターンに対応する処理を、前記判別手段で判別したオブジェクトに対して実行する処理手段とを備える。
図1は本願発明の情報処理装置の概要を示すものである。本実施形態の装置は、以下の説明から明らかになるが、少なくとも1つの選択対象のオブジェクトを2次元平面の表示領域に表示する構成、並びに、操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段として機能する構成、並びに、前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段としての構成を有する。そして、これらを制御することで、3次元ジェスチャーがどのオブジェクトに対してなされたかを精度を検出するものである。以下はその具体例である。
上記第1の実施形態では、2次元座標検出装置1、3次元座標検出装置2の出力をホストコンピュータ5が受け取り、ホストコンピュータ5がその出力を制御、管理して目的を達成する。しかしながらこれに限定するものではなく、例えば、3次元座標検出装置2が2次元座標検出装置1の出力結果を受け取る構成であっても良い。すなわち、3次元座標検出装置2が、2次元座標検出装置1から、ユーザが2次元領域(表示面)に対してタッチしたことで検出した座標の出力結果を入力したとき、その入力された座標(Z軸の値が0の3次元座標データ)と、3次元座標検出装置2自身の出力結果と比較し、あるいは解析を行って、属性情報やジェスチャーコマンドを生成してホストコンピュータ5に出力する構成であっても良い。
第1の実施形態では、ジェスチャーコマンド生成のための解析を始めるトリガーは、2次元座標検出装置1の出力であり、それをキャンセルするのは3次元座標検出装置2の出力であった。しかしながらこれに限定されるものではなく、例えば表示領域にキャンセルを強制的に実行させるための特定オブジェクト(キャンセルオブジェクト)を表示させておいても良い。
図6は、図7の様、複数人で操作を行った場合のタイミングチャートである。図中信号S201〜S204は図3(B)の信号と同一であるので、説明を省略する。
以上の実施形態においては、2次元座標検出装置1として抵抗膜方式、3次元座標検出装置2として3次元画像距離センサを用いて説明したがこれに限定されるものではない。具体的に2次元座標検出装置としては、静電容量方式、表面弾性波や空中波を利用した超音波方式、光学式を用いたもので構わない。
以上の各実施形態において、3次元座標検出装置の出力値として位置座標値を用いる事で説明してきたが、これに限定されるものではない。
先の実施形態では2次元座標検出装置と3次元座標検出装置からの座標を同時に、あるいは2次元座標検出装置からの出力と、その出力が得られた直後の3次元座標検出装置からの出力とを比較する。そして3次元座標検出装置が出力する出力結果の中の、2次元座標検出装置が出力する位置情報と一致している1つ(若しくは、最も近い位置情報)を選択して、オブジェクト情報を受け渡す。
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
Claims (12)
- 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段と、
該決定手段で追跡対象として決定した指示部を前記第2の検出手段によって追跡することで、操作者による前記決定した指示部のジェスチャーパターンを判定し、判定したジェスチャーパターンに対応する処理を、前記判別手段で判別したオブジェクトに対して実行する処理手段と
を備えることを特徴とする情報処理装置。 - 更に、前記決定手段で追跡対象として決定された指示部が前記第2の検出手段による検出範囲から外れた場合、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項1に記載の情報処理装置。
- 前記表示手段に表示されるオブジェクトには、追跡を強制的にキャンセルすることを指示する特定オブジェクトが含まれ、
更に、決定手段で追跡対象として決定した指示部の追跡中に、追跡している指示部による前記表示領域の前記特定オブジェクトの位置への接触を前記第1の検出手段で検出したとき、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項1に記載の情報処理装置。 - 前記第2の検出手段は、前記表示領域の2次元平面から所定距離だけ隔てた位置に設けられ、少なくとも前記表示領域を撮影視野内にした3次元画像距離検出手段であることを特徴とする請求項1又は3のいずれか1項に記載の情報処理装置。
- 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
少なくとも前記表示領域の2次元平面に対して予め定められた距離だけ隔てた位置に設けられ、前記表示領域を撮影視野内にして画像を検出する第2の検出手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した画像内の指示部の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段と、
該決定手段で追跡対象として決定した指示部を前記第2の検出手段によって追跡することで、操作者による前記決定した指示部のジェスチャーパターンを判定し、判定したジェスチャーパターンに対応する処理を、前記判別手段で判別したオブジェクトに対して実行する処理手段と
を備えることを特徴とする情報処理装置。 - 更に、前記決定手段で追跡対象として決定された指示部が前記第2の検出手段による視野範囲から外れた場合、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項5に記載の情報処理装置。
- 前記表示手段に表示されるオブジェクトには、追跡を強制的にキャンセルすることを指示する特定オブジェクトが含まれ、
更に、決定手段で追跡対象として決定した指示部の追跡中に、追跡している指示部による前記表示領域の前記特定オブジェクトの位置への接触を前記第1の検出手段で検出したとき、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項5に記載の情報処理装置。 - 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段とを備える情報処理装置の制御方法であって、
判別手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別工程と、
決定手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定工程と、
処理手段が、該決定工程で追跡対象として決定した指示部を前記第2の検出手段によって追跡することで、操作者による前記決定した指示部のジェスチャーパターンを判定し、判定したジェスチャーパターンに対応する処理を、前記判別工程で判別したオブジェクトに対して実行する処理工程と
を備えることを特徴とする情報処理装置の制御方法。 - 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
少なくとも前記表示領域の2次元平面に対して予め定められた距離だけ隔てた位置に設けられ、前記表示領域を視野範囲内にして画像を検出する第2の検出手段とを備える情報処理装置の制御方法であって、
判別手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別工程と、
決定手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した画像内の指示部の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定工程と、
処理手段が、該決定手段で追跡対象として決定した指示部を前記第2の検出手段によって追跡することで、操作者による前記決定した指示部のジェスチャーパターンを判定し、判定したジェスチャーパターンに対応する処理を、前記判別工程で判別したオブジェクトに対して実行する処理工程と
を備えることを特徴とする情報処理装置の制御方法。 - 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段とを備えるコンピュータを、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段、
該決定手段で追跡対象として決定した指示部を前記第2の検出手段によって追跡することで、操作者による前記決定した指示部のジェスチャーパターンを判定し、判定したジェスチャーパターンに対応する処理を、前記判別手段で判別したオブジェクトに対して実行する処理手段
として機能させるためのプログラム。 - 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
少なくとも前記表示領域の2次元平面に対して予め定められた距離だけ隔てた位置に設けられ、前記表示領域を視野範囲内にして画像を検出する第2の検出手段とを備えるコンピュータを、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した画像内の指示部の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段、
該決定手段で追跡対象として決定した指示部を前記第2の検出手段によって追跡することで、操作者による前記決定した指示部のジェスチャーパターンを判定し、判定したジェスチャーパターンに対応する処理を、前記判別手段で判別したオブジェクトに対して実行する処理手段
として機能させるためのプログラム。 - 請求項10又は11に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010167477A JP5658500B2 (ja) | 2010-07-26 | 2010-07-26 | 情報処理装置及びその制御方法 |
US13/176,783 US8743089B2 (en) | 2010-07-26 | 2011-07-06 | Information processing apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010167477A JP5658500B2 (ja) | 2010-07-26 | 2010-07-26 | 情報処理装置及びその制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012027796A true JP2012027796A (ja) | 2012-02-09 |
JP2012027796A5 JP2012027796A5 (ja) | 2013-09-05 |
JP5658500B2 JP5658500B2 (ja) | 2015-01-28 |
Family
ID=45493200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010167477A Expired - Fee Related JP5658500B2 (ja) | 2010-07-26 | 2010-07-26 | 情報処理装置及びその制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8743089B2 (ja) |
JP (1) | JP5658500B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012190126A (ja) * | 2011-03-09 | 2012-10-04 | Nec Casio Mobile Communications Ltd | 入力装置、入力方法 |
JP2013242836A (ja) * | 2012-04-27 | 2013-12-05 | Panasonic Corp | 入力装置、入力支援方法及びプログラム |
JP2013242916A (ja) * | 2012-04-27 | 2013-12-05 | Panasonic Corp | 入力装置、入力支援方法及びプログラム |
JP2015105882A (ja) * | 2013-11-29 | 2015-06-08 | 富士通株式会社 | 動作判定方法及び動作判定装置 |
KR20150130431A (ko) * | 2013-03-15 | 2015-11-23 | 퀄컴 인코포레이티드 | 제스처들을 이용한 터치 입력들의 향상 |
JP2016218497A (ja) * | 2015-05-14 | 2016-12-22 | 三菱電機株式会社 | セルフプリント端末 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5785753B2 (ja) * | 2011-03-25 | 2015-09-30 | 京セラ株式会社 | 電子機器、制御方法および制御プログラム |
WO2014034031A1 (ja) * | 2012-08-30 | 2014-03-06 | パナソニック株式会社 | 情報入力装置及び情報表示方法 |
US9978178B1 (en) * | 2012-10-25 | 2018-05-22 | Amazon Technologies, Inc. | Hand-based interaction in virtually shared workspaces |
DE102012110460A1 (de) * | 2012-10-31 | 2014-04-30 | Audi Ag | Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens |
GB2519124A (en) * | 2013-10-10 | 2015-04-15 | Ibm | Controlling application launch |
US9575508B2 (en) | 2014-04-21 | 2017-02-21 | Apple Inc. | Impact and contactless gesture inputs for docking stations |
US9962570B2 (en) * | 2014-05-22 | 2018-05-08 | Brandon Dallmann | Trampoline game system |
US10838503B2 (en) | 2014-07-31 | 2020-11-17 | Hewlett-Packard Development Company, L.P. | Virtual reality clamshell computing device |
TWI531954B (zh) * | 2014-11-14 | 2016-05-01 | 中強光電股份有限公司 | 觸控及手勢控制系統與觸控及手勢控制方法 |
JP2016095795A (ja) * | 2014-11-17 | 2016-05-26 | 株式会社東芝 | 認識装置、方法、及びプログラム |
US9454235B2 (en) * | 2014-12-26 | 2016-09-27 | Seungman KIM | Electronic apparatus having a sensing unit to input a user command and a method thereof |
JP6483556B2 (ja) | 2015-07-15 | 2019-03-13 | 株式会社東芝 | 操作認識装置、操作認識方法及びプログラム |
JP6590609B2 (ja) * | 2015-09-15 | 2019-10-16 | キヤノン株式会社 | 画像解析装置及び画像解析方法 |
CN112106052B (zh) * | 2020-07-22 | 2022-03-18 | 上海亦我信息技术有限公司 | 设计方法、装置和系统、数据处理方法和装置 |
JP2022119429A (ja) * | 2021-02-04 | 2022-08-17 | 東芝テック株式会社 | 情報処理装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11338120A (ja) * | 1998-05-27 | 1999-12-10 | Dainippon Screen Mfg Co Ltd | レイアウト装置 |
JP2003316510A (ja) * | 2002-04-23 | 2003-11-07 | Nippon Hoso Kyokai <Nhk> | 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。 |
JP2006040271A (ja) * | 2004-06-28 | 2006-02-09 | Microsoft Corp | ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用 |
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
JP2010140458A (ja) * | 2008-03-19 | 2010-06-24 | Denso Corp | 表示方法、表示装置、及び操作入力装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60120482A (ja) | 1983-12-02 | 1985-06-27 | Canon Inc | 画像信号処理装置 |
JPS6110360A (ja) | 1984-06-26 | 1986-01-17 | Canon Inc | 画像処理装置 |
US5384900A (en) | 1988-03-14 | 1995-01-24 | Canon Kabushiki Kaisha | Method of managing an image memory by a process independent of an image processing process |
JPH03119386A (ja) | 1989-10-02 | 1991-05-21 | Canon Inc | 画像処理装置 |
JPH04221330A (ja) | 1990-12-20 | 1992-08-11 | Mitsubishi Gas Chem Co Inc | 芳香族多価アルコールの製造方法 |
US6606636B1 (en) | 1993-07-29 | 2003-08-12 | Canon Kabushiki Kaisha | Method and apparatus for retrieving dynamic images and method of and apparatus for managing images |
US6580806B1 (en) | 1998-11-20 | 2003-06-17 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and storage |
US6740860B2 (en) | 2000-12-06 | 2004-05-25 | Canon Kabushiki Kaisha | Photodetector, photosensing position detector, coordinate input device, coordinate input/output apparatus, and photodetection method |
JP3997392B2 (ja) | 2001-12-13 | 2007-10-24 | セイコーエプソン株式会社 | 表示装置及び表示装置の入力方法 |
JP4006290B2 (ja) | 2002-07-30 | 2007-11-14 | キヤノン株式会社 | 座標入力装置、座標入力装置の制御方法、プログラム |
US20050052427A1 (en) | 2003-09-10 | 2005-03-10 | Wu Michael Chi Hung | Hand gesture interaction with touch surface |
JP4401727B2 (ja) | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 画像表示装置及び方法 |
JP4221330B2 (ja) | 2004-05-07 | 2009-02-12 | 日本電信電話株式会社 | インタフェース方法、装置、およびプログラム |
JP2011141360A (ja) | 2010-01-06 | 2011-07-21 | Canon Inc | 画像表示装置および画像表示装置の制御方法 |
-
2010
- 2010-07-26 JP JP2010167477A patent/JP5658500B2/ja not_active Expired - Fee Related
-
2011
- 2011-07-06 US US13/176,783 patent/US8743089B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11338120A (ja) * | 1998-05-27 | 1999-12-10 | Dainippon Screen Mfg Co Ltd | レイアウト装置 |
JP2003316510A (ja) * | 2002-04-23 | 2003-11-07 | Nippon Hoso Kyokai <Nhk> | 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。 |
JP2006040271A (ja) * | 2004-06-28 | 2006-02-09 | Microsoft Corp | ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用 |
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
JP2010140458A (ja) * | 2008-03-19 | 2010-06-24 | Denso Corp | 表示方法、表示装置、及び操作入力装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012190126A (ja) * | 2011-03-09 | 2012-10-04 | Nec Casio Mobile Communications Ltd | 入力装置、入力方法 |
JP2013242836A (ja) * | 2012-04-27 | 2013-12-05 | Panasonic Corp | 入力装置、入力支援方法及びプログラム |
JP2013242916A (ja) * | 2012-04-27 | 2013-12-05 | Panasonic Corp | 入力装置、入力支援方法及びプログラム |
US10261630B2 (en) | 2012-04-27 | 2019-04-16 | Panasonic Intellectual Property Corporation Of America | Input device, input support method, and program |
KR20150130431A (ko) * | 2013-03-15 | 2015-11-23 | 퀄컴 인코포레이티드 | 제스처들을 이용한 터치 입력들의 향상 |
JP2016511487A (ja) * | 2013-03-15 | 2016-04-14 | クアルコム,インコーポレイテッド | ジェスチャによるタッチ入力の向上 |
KR102194272B1 (ko) * | 2013-03-15 | 2020-12-22 | 퀄컴 인코포레이티드 | 제스처들을 이용한 터치 입력들의 향상 |
JP2015105882A (ja) * | 2013-11-29 | 2015-06-08 | 富士通株式会社 | 動作判定方法及び動作判定装置 |
JP2016218497A (ja) * | 2015-05-14 | 2016-12-22 | 三菱電機株式会社 | セルフプリント端末 |
Also Published As
Publication number | Publication date |
---|---|
JP5658500B2 (ja) | 2015-01-28 |
US8743089B2 (en) | 2014-06-03 |
US20120019485A1 (en) | 2012-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5658500B2 (ja) | 情報処理装置及びその制御方法 | |
GB2498299B (en) | Evaluating an input relative to a display | |
US8466934B2 (en) | Touchscreen interface | |
WO2017215375A1 (zh) | 信息输入装置与方法 | |
US20080244468A1 (en) | Gesture Recognition Interface System with Vertical Display | |
US20110298708A1 (en) | Virtual Touch Interface | |
WO2013035554A1 (ja) | 入力体の動き検出方法およびそれを用いた入力デバイス | |
US9317130B2 (en) | Visual feedback by identifying anatomical features of a hand | |
WO2017041433A1 (zh) | 可穿戴设备的触控响应方法、装置及可穿戴设备 | |
US20190265841A1 (en) | 3d touch interaction device, touch interaction method thereof, and display device | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
WO2014106219A1 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
CN102341814A (zh) | 姿势识别方法和采用姿势识别方法的交互式输入系统 | |
WO2012032515A1 (en) | Device and method for controlling the behavior of virtual objects on a display | |
CN103809733A (zh) | 人机交互系统和方法 | |
JP2015064724A (ja) | 情報処理装置 | |
US9703410B2 (en) | Remote sensing touchscreen | |
JP5342806B2 (ja) | 表示方法および表示装置 | |
WO2015064991A2 (ko) | 비접촉 동작 제어가 가능한 스마트 디바이스 및 이를 이용한 비접촉 동작 제어 방법 | |
KR100969927B1 (ko) | 사용자 지향적 비접촉식 상호 작용 디스플레이 장치 | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP2018063555A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP5675196B2 (ja) | 情報処理装置及びその制御方法 | |
TWI444875B (zh) | 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法 | |
JP2017027311A (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130724 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130724 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141128 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5658500 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |