JP5658500B2 - 情報処理装置及びその制御方法 - Google Patents

情報処理装置及びその制御方法 Download PDF

Info

Publication number
JP5658500B2
JP5658500B2 JP2010167477A JP2010167477A JP5658500B2 JP 5658500 B2 JP5658500 B2 JP 5658500B2 JP 2010167477 A JP2010167477 A JP 2010167477A JP 2010167477 A JP2010167477 A JP 2010167477A JP 5658500 B2 JP5658500 B2 JP 5658500B2
Authority
JP
Japan
Prior art keywords
unit
display area
contact position
dimensional
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010167477A
Other languages
English (en)
Other versions
JP2012027796A (ja
JP2012027796A5 (ja
Inventor
佐藤 肇
肇 佐藤
小林 克行
克行 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010167477A priority Critical patent/JP5658500B2/ja
Priority to US13/176,783 priority patent/US8743089B2/en
Publication of JP2012027796A publication Critical patent/JP2012027796A/ja
Publication of JP2012027796A5 publication Critical patent/JP2012027796A5/ja
Application granted granted Critical
Publication of JP5658500B2 publication Critical patent/JP5658500B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Description

本発明は、ユーザの3次元空間内におけるジェスチャーに応じた処理を行う技術に関するものである。
従来より、各種方式の座標入力装置が提案、製品化されている。このうち、タッチパネルは、ユーザが指で表示画面をタッチするだけで良く、特殊な機具を用いなくて済むことから、広く用いられている。この種の装置の位置検出方式として、抵抗膜方式、静電容量方式、表面弾性波や空中波を利用した超音波方式、光学式等があげられる。例えば抵抗膜方式は透明電極が設けられた複数のシートを指等により押圧する事で、抵抗値の変化を計測して、その押圧位置を算出するものである。押圧、すなわちシートに接触する事で物理的な変化を計測して位置算出を行うので、位置算出のみならず、その接触しているかの判定を高精度に行う事が可能である。シートの物理的状態変化を計測して位置算出を行う静電容量方式、表面弾性波方式も同様に高精度で接触を検知可能である。さらには特許文献1に示されるように、複数の指示位置を検出可能な入力装置も知られるようになった。
一方、空間上の位置を検出可能な三次元位置検出装置も知られている。複数のカメラを用いて共通視野範囲を複数の方向から観察して物体の三次元形状や、物体の位置検出が行える、いわゆるステレオカメラ装置がある。さらには、マトリックス状にセルを配置して二次元の画像を取り込むと共に、赤外線を放射して、そのセル毎に物体から反射してくる赤外光の時間を計測する距離画像センサ装置も知られている。この装置は、セル毎に反射物体までの距離を算出する事が可能なので、やはり物体の三次元形状や、物体の位置検出を行うことが可能である。
物体の三次元形状や、物体の位置検出が行えるこの種の装置を利用して、3次元空間内で掌の移動や、掌を返した等の動作を検出する事が可能となる。その動作を検出する事で、例えば表示装置に表示されている物体を移動、回転させたりする事が可能となる。つまり、この種の装置の出力結果に基づき、PCを制御する事が可能となる。以降、3次元空間内でのこの操作を『3次元空間ジェスチャー』という。また、3次元空間ジェスチャーを検出し、それに応じた処理を実行すること3次元空間ジェスチャー機能と称す。
例えば特許文献2には、人間の動作を検出する画像入力手段、身体動作を複数の部位の動作に分離する分離手段、夫々の動作部位毎の動作情報を出力する動作情報出力手段とが開示されている。そして前記の夫々の動作情報出力を解析する事で、3次元空間ジェスチャーにより表示制御を行う事ができることが開示されている。
さらには、特許文献3には、3次元ポインティングのユーザーインタフェースが示されている。具体的には、空間を分割した仮想ボックスが重み付けによりあらかじめ配置されていて、時間的に連続して検出された画像に基づき、ユーザの指示したボックスを特定する事が可能となっている。
特開2005-100391号公報 特登録3997392号公報 特登録4221330号公報
しかしながら、物体の三次元形状や、物体の位置検出が可能な装置では、その形状検出や位置検出に誤差が含まれる。この誤差による課題を、図7を参照して説明する。
図7(A)において、XY平面は表示装置の表示面と仮定する。そして、3次元座標検出装置は、X軸、Y軸、Z軸で定義される空間座標系の位置を検出できるものとする。
今、操作者αが、その3次元空間内で操作して、表示されているObject-Aをタッチ(選択)する動作を行ったものとする。この時、前述した計測誤差のために、3次元座標検出装置は、操作者αが表示されているObject-Aの表示面上をタッチしたかを正確に判定できない。言い換えれば、Object-Aの表示面上の近くで操作したが、それが接触状態に有るのか否かを正確に区別できない。
一方、操作者が表示オブジェクトを選択したと判断するのは、指先が表示面をタッチしたその時であり、それは操作者自信が指先の感触で確認できる。決して、指先がその表示オブジェクトに近づいた時ではない。仮に、近づいただけなのに、検出装置がタッチしたと誤判定したなら、操作者の意図と異なる動作、つまり誤動作を起こす事になる。このことは、操作性を著しく低下させる。
同様に図7(A)において、操作者βがObject-Bを選択する場合の動作を示した。同様にタッチしたかを正確に判定する事は困難であるが、図7(B)は、この時、Z軸方向から見た時の、動作を示したものである。操作者α、操作者βともにオブジェクトA、オブジェクトBの上を通過している。従って、このタッチ判定に誤差が含まれると、操作者の意図と異なり、例えば操作者βが、Object-Aを選択したような誤検出も起こりえる。
本発明は上述した問題を解決するためになされたものであり、複数人が3次元空間ジェスチャーの操作を行ったとしても、各操作者の3次元ジェスチャーのターゲットとしたオブジェクトとその3次元空間ジェスチャーとを高い精度で関連づけ、誤ったオブジェクトに対して、誤った処理が行われることを抑制する技術を提供しようとするものである。
この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、
少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段と、
前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段と
前記判別手段によって判別されたオブジェクトと前記決定手段によって追跡対象として決定された指示部の座標情報とを関連付ける関連付け手段とを備える。
本発明によれば、処理対象となるオブジェクトを精度良く指定でき、且つ、その処理内容を示すジェスチャーとも高い精度で関連づけることができる。従って、従って複数人で操作しても、各々の操作者が操作している対象オブジェクトを正確に特定し、操作者の意図を的確に反映させる事が可能となる。
実施形態の装置の装置概略図。 操作、及びジェスチャーの一例を説明する説明図。 実施形態を説明するタイミングチャート。 実施形態の処理を説明するためのフローチャート。 第3の実施形態の処理を説明するためのフローチャート。 複数の入力が有った場合のタイミングチャート。 課題を説明するための図。 効果の一例を説明する説明図。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
[第1の実施形態]
図1は本願発明の情報処理装置の概要を示すものである。本実施形態の装置は、以下の説明から明らかになるが、少なくとも1つの選択対象のオブジェクトを2次元平面の表示領域に表示する構成、並びに、操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段として機能する構成、並びに、前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段としての構成を有する。そして、これらを制御することで、3次元ジェスチャーがどのオブジェクトに対してなされたかを精度を検出するものである。以下はその具体例である。
実施形態の装置は、操作者が作業するための作業台となる机4、机4の上面から所定距離だけ隔てた位置に固定され、表示領域に対して画像を投影する表示装置としてのプロジェクター3、表示領域を入力領域とし、操作者の指示部(指)の接触位置を検出する2次元座標検出装置1(第1の検出手段に対応)、並びに、操作者の指示部の3次元空間ジェスチャーを検出するための3次元座標検出装置2(第2の検出手段に対応)、並びに、これらを制御するホストコンピュータ5で構成される。
2次元座標検出装置1は、表示されたメニュー等の選択対象のオブジェクトのいずれがが、操作者が操作する指示部で指示されたのかを判別できれば良く、抵抗膜方式、静電容量方式、表面弾性波や空中波を利用した超音波方式、光学式のいずれでも構わない。
また、3次元座標検出装置2は、3次元空間内の操作者の指示位置を追従して検出(ジェスチャー検出)するものであれば、その方式は問わない。実施形態では、3次元座標検出装置2として、3次元画像距離検出装置を用いるものとして説明する。3次元画像距離検出装置としての3次元座標検出装置2を、図示が如く視野範囲に前述プロジェクター3の表示領域を含むように配置する。そして、この3次元画像距離検出装置は、赤外線が対象物体で反射して戻ってくるまでの時間を計測することで、物体までの距離を取得する事が可能な構成となっている。その距離を検出するセンサ部分を、マトリックス状に配置する事で、各センサ毎に、独立してこの距離計測が可能となり、物体の3次元的な位置情報や、物体の形状を計測する事ができる。しかも、連続的に撮影する事で、物体の移動を追跡する事も可能な装置である。ただし、3次元座標検出装置2は、机4上に表示されたオブジェクトを検出する事は出来ない。つまり、ディスプレイ表示面の形状(フラットパネルディスプレイなら平面形状、CRTディスプレイのであれば湾曲した形状)を計測できるのみである。
なお本願発明の実施形態においては、プロジェクター装置3を表示装置としているが、液晶表示装置等のフラットパネルディスプレイであっても良い。この場合、フラットパネルディスプレイの表示面に、透明な2次元座標検出装置1が重ねて配置されることになる。また、3次元座標検出装置2も、上記の如く、赤外線を利用した3次元画像距離検出装置に限らず、ステレオカメラ等を用いて物体の位置や動作を検出する構成でも良い。
また、2次元座標検出装置1、及び、3次元座標検出装置2の出力をホストコンピュータ5が処理するものとして説明するが、例えば2次元座標検出装置1の出力を3次元座標検出装置2に直接出力するような構成であっても良い。また以後の説明にあっては、表示装置の表示面(投影面)であるところの座標入力面をXY平面と定義し、XY平面の法線方向をZ軸として説明する。
図2を用いて、操作者が行う操作の一例を説明する。操作者は画面に表示されている本を読んでいるものとする。通常、物理的な本を読んでいる人は、或るページを読み終えると、ページをめくる操作を行う。本実施形態では、かかる操作をジェスチャーとして検出し、検出したジェスチャーに応じて、ページのめくりのための表示制御を行う。そこで表示されている本(オブジェクト)をタッチする事でまず対象となるオブジェクトを選択する(図2(B))。そして、そのまま手の甲を返す動作をすればページがめくれ(図2(C))、読んでる途中に前のページを読み返したくなれば手の平を返す動作により、ページを元に戻す事ができる(図2(D))。従って、図2(B)の状態は、表示面をタッチするので操作者の手は図2(A)に示すが如く、Iの状態である。手の甲を返す(図2(C))、手の平を返す(図2(D))操作は、図2(A)におけるIIの状態(空中)での操作となる。
先にも述べたが、この種の3次元座標検出装置2の距離計測は必ず誤差が含まれる。従って、この3次元座標検出装置2により操作者が表示面をタッチしたかを正確に判定する事は困難である。一方で、2次元座標検出装置は、タッチする事によりタッチ位置座標を検出するので、タッチしたかを正確に判定可能であるものの、位置検出可能な範囲は、表示面のみであり、空中の位置座標検出はできない。
そこで本願発明では、2次元座標検出装置1、3次元座標検出装置2の機能特徴を組み合わせて、図2に示すような表示されているオブジェクトの選択と空間ジェスチャーによる制御を実現している。図2ではページをめくる操作を示したが、空間ジェスチャーを利用する事で、自然な動作で、かつ直感的な操作性を提供する事が可能となる。
図3を用いて、本願発明の2次元座標検出装置1、3次元座標検出装置2の動作を説明する。
図3(A)は操作者の動作を説明する説明図で、操作者がまず表示オブジェクトを選択するためにXYZ座標系のA地点に掌をかざしたものとする。すなわち、A地点において、掌が3次元座標検出装置2の計測の視野範囲内に入って、3次元座標検出装置2が掌の位置計測を開始し始めた状態となる。そして、操作者は表示されているオブジェクトを選択するために、B地点で表示面をタッチし、C地点で3次元座標検出装置2の計測視野外となって、掌の位置計測が終了する。
図3(B)は、この時の2次元座標検出装置1、3次元座標検出装置2の動作を説明するタイミングチャートである。信号S201は、掌がAの地点にある時に、3次元座標検出装置2がその3次元位置計測を開始し、掌がCの地点に来た時に、その計測が完了する事を示している。
信号S202は、操作者が表示画面をタッチしたB地点で、2次元座標検出装置1が初めてその位置座標を出力し、タッチしている期間のみ、その出力が成されている事を示す。そしてその出力が終了すると共に、タッチされていた所に表示されているオブジェクトが選択されことを示す表示状態にする制御(例えば、タッチしたオブジェクトを点滅表示する等)を行う。そして、タッチされたオブジェクトと、3次元座標検出したユーザのジェスチャー(3次元空間でのストローク)とを関連づける処理を行う。この関連づけの為の処理を、属性情報の生成と称し、表示画像を制御しているホストコンピュータがその情報の管理を行う。
2次元座標検出装置1が出力している間(信号S202)、同時に3次元座標検出装置2も3次元座標の検出を行っている(信号S201)。3次元座標検出装置2の出力結果でタッチしているかを判定するのは困難であっても、その検出座標値により、掌の2次元位置(XY座標)とそれが表示面近傍に位置している事は検知可能である。従って、2次元座標検出装置1の結果により生成された属性情報(どのオブジェクトがタッチされたかを示す情報)を、両者の検出座標値を比較させる事で、そのまま3次元座標検出装置2の出力座標値に引き継ぐ事が可能である。従って、2次元座標検出装置1の出力が終了後、3次元座標検出装置2が出力する座標は、生成された属性情報を有する事になる。
図7(A),(B)に示すように複数の入力が同時に行われた場合を考える。操作者αが掌をA地点からB地点に移動させる際には、3次元座標検出装置2の出力座標値には属性情報が付与されていない。操作者βの掌がD地点からE地点に移動する際の3次元座標検出装置2の出力座標値も同様である。3次元座標検出装置2の出力は操作者αと操作者βの掌位置情報が同時に出力されている。
そして操作者αがB地点でタッチする事で、直後に検出される2次元座標検出装置1と3次元座標検出装置2の出力が比較される。当然のことながら、3次元座標検出装置2が出力する二つの位置座標(X,Y,Z)において、その一方の座標のX軸成分、Y軸成分は、2次元座標検出装置1が出力する座標値(X,Y)と略等しい状態にあるはずである。従って、略等しい位置にあると判定した掌(この場合、操作者αの掌)に、Object-Aがタッチされたことを示す属性情報が付与される。同様に、E地点以降、3次元座標検出装置2が出力する操作者βの掌位置情報に、Object-Bがタッチされたことを示す属性情報が付与される。操作者α、操作者βが同時にタッチした場合であっても、この位置情報の比較を行えば、属性情報の付与を正確に行える。
この様に、2次元座標検出装置1、3次元座標検出装置2が複数の物体の位置を検出する場合であっても、両者が出力する座標値同士の比較、及び座標出力タイミングを比較する事で、属性情報の付与に誤動作する事が無い。従って、信頼性の高い操作環境を提供する事が可能である。特に、本願発明のように、机上でこの様な操作する場合には、机を取り囲む様にして複数の操作者が同時に操作をする事が想定され、スムーズな共同作業を行える操作環境を提供する事が可能となる。
再び図3に戻って説明する。タッチする事によって生成された属性情報は、3次元座標検出装置2が出力する座標情報と関連付けられる。従って、その属性情報は3次元座標検出装置2が対象とする掌を連続的に座標出力している間のみ有効となる(信号S203)。そして属性情報が付加されている3次元座標検出装置2の3次元出力座標、もしくは3次元出力画像をホストコンピュータ5が解析して、例えば掌が返った等を認識して、それに相応するジェスチャーコマンドを生成する(信号S204)。この様に構成することで、例えば図2に示されるような操作を、複数人が各々のオブジェクトに対して、各々操作することが可能となる。
また、属性情報が付与されてない期間(信号S201のAからB‘の期間)は、コマンド生成のための画像解析が行われていないので、ホストコンピュータ5の処理能力の負荷を軽減する事が可能である。さらには、詳細は後述するが出力された座標情報を蓄積する量を削減でき、メモリ容量を小さくする事も可能である。
図8(A),(B)はこの様に構成することで得られる効果の一つについて説明する図である。図8(A)に示すとおり、今、表示領域80内にオブジェクトA、B、Cが表示されているものとする。そして操作者によりブジェクトBを表示領域81内に移動させたいものとする。
図8(B)には、3次元座標検出装置2により検出される掌の軌跡、あるいは手の画像情報が示される。時刻t1に3次元座標検出装置2が操作者の掌を検知し始める。そしてオブジェクトA上を掌が通過(時刻t2)し、時刻t3でオブジェクトB付近に掌が位置したとする。2次元座標検出装置1は、時刻t3にて、掌によるタッチを検出して、そのタッチ位置を算出して、オブジェクトBを選択状態とすると共に、その後に3次元座標検出装置2により検出されたこの掌の動き(ジェスチャー)とオブジェクトBとを関連付ける。この関連づけは、2次元座標検出装置1と3次元座標検出装置2の出力結果を比較して行われるので、3次元座標検出装置2が複数の掌を検出していても、確実にそのうちの1つと関連付けが行われる。そして時刻t4からt5にかけて手首をひねる動作を検出(コマンド認識)して、隣の表示領域81にオブジェクトBを表示移動させると言う制御信号生成する。コマンドを認識した結果、オブジェクトBの表示がディスプレイ1からディスプレイ2へと移動する事になる。
時刻t1〜t3に到る間は、3次元座標検出装置2とオブジェクトの関連付けが行われていないので、追跡手段は空間ジェスチャーを認識する動作を行ってない。従って、いずれのオブジェクトの表示、動作に影響を与える事が無い。タッチする事により始めて3次元座標検出装置2で検出される指示手段とオブジェクトの関連付けが成され、その後に空間ジェスチャーを認識する動作に移行する。従って、2次元座標検出装置1の出力情報は、空間ジェスチャー認識開始のトリガー信号となり、余分な認識処理の実行を避け、信頼性の高い空間ジェスチャーによるコマンド生成が可能となる。
従来、この種の空間ジェスチャーを利用して、オブジェクトに何らかの制御信号を与える場合、目的とするオブジェクトは予め選択されている必要があった。つまり、マウス等のポインティングデバイスを用いてオブジェクトを選択した後、空間ジェスチャーにより操作をすると言う手順とならざるを得なかった。かかる点、本実施形態の構成によれば、図8(B)に示すが如く、操作者は一回の一連の動作で、しかも直感的に操作が可能となる優れた効果が得られるようになり、操作性が格段に向上するのが理解できよう。
図4は、上記実施形態にけるホストコンピュータの一連の操作を説明するためのフローチャートである。先ず、S101にて、3次元座標検出装置2からの出力が得られているかを判定し、何らかの物体が検知されるとS102で2次元座標検出装置1からの出力が得られるかを判定する。2次元座標検出装置1からの出力が得られると、その位置に表示されているオブジェクトが存在するか、言い換えるとオブジェクトを選択する動作を行ったかを判定する(S103)。オブジェクト選択の場合は、S104にて、3次元座標検出装置2の出力と2次元座標検出装置1の出力が比較される。そして3次元座標検出装置2の出力結果の中から、条件に適合した1つの出力(例えば指、ペン等の指示手段の位置情報、あるいはその形状)を決定する。
本願発明に有っては、この対応付けは各々の検出手段で出力される位置情報が比較され、その一致性により行われる。具体的には、操作者がタッチする事(S102)でオブジェクトが選択される(S103)。そして、ほぼ同時に検出されている3次元座標検出装置2の出力(S101)とステップS102で出力された位置情報とが比較される(S104)。その結果、3次元座標検出装置2が出力した位置情報の中から、最も条件に合致する1つの出力値が選択(決定)される事になる。S105では、S103で選択したオブジェクトを特定する情報と、S104で3次元座標検出装置2の出力の中から特定された出力値との関連付け(属性情報の生成)が行われる。そしてS106において、属性情報と3次元座標検出装置2の出力結果とが記憶される。
S107では、S106で蓄積された3次元座標検出装置2の出力における追跡中の座標データ列を、画像処理におけるパターン認識等を利用して、予め登録されたパターンのいずれか1つと一致するか否かを判定する。そして、一致するパターンとなったと見なせたとき、そのパターンに対応付けられた3次元空間ジェスチャーコマンドを生成する。3次元空間ジェスチャーコマンドが生成されると、記憶されている属性情報に基づき、選択されているオブジェクトに対してコマンドが実行され(S108)、S109で3次元座標検出装置2の出力を取り込む。また、S107でジェスチャーコマンドが生成されなければ、S109で3次元座標検出装置2の出力を取り込む事になる。S109で3次元座標検出装置2の出力が有れば、S110でその出力結果と、S106に既に記憶されている3次元座標検出装置2の出力結果とが比較される。こうする事で、前述特定されている出力値が、今回のサンプリングでどの様に変化したかを追跡する事が出来る。
S111では、前述既に特定されている出力値のオブジェクト情報と、追跡結果により該特定されている出力値がどのように変化したか、つまりその位置情報とが関連付けられる。そして、その関連付けられた情報と、3次元座標検出装置2の出力結果とが、S106で記憶される。従って、S106で記憶される情報は、特定された出力値の軌跡情報と関連付けられた対象オブジェクトが含まれる。そして蓄積された軌跡情報に基づきS107でパターン認識技術等を利用して、ジェスチャーによるコマンドの生成が成されるのである。
S107にて、所定のジェスチャーコマンドが生成されたと判定した場合には、関連付けられたオブジェクトに対して、そのコマンドに割り付けられた制御が実行される(S108)。ジェスチャーコマンドが生成された場合、それをもってS106で記憶されている軌跡情報のみを消去しても良い。その場合であっても、引き続き検出される特定された出力値の状態追跡が行われ、同様に再度S110、S111にてオブジェクトの関連付けが行われ、特定された出力値の軌跡が記憶される。そして、再度空間ジェスチャーコマンド生成のためのデータとして、利用される。
上記のルーチン(S106、S107、S109、S110、S111)を実行している最中に、S109において、3次元座標検出装置2の出力が無くなる、すなわち、3次元座法検出装置2の検出範囲外に操作者の指示部が移動すると、S112に進む。S112では、従前まで追跡対象としていた操作者の指示部を追跡対象外とするため、その属性情報の破棄、あるいはS106で記憶された情報を破棄して、S101に戻る。
この様な流れからすると、ジェスチャーコマンド生成のための解析を始めるトリガーは、2次元座標検出装置1の出力であり(ステップ102)、それをキャンセルするのは3次元座標検出装置2の出力(S109)となる。
また、3次元座標検出装置2が複数の指示手段を検出している(3次元座標検出装置2から複数の出力信号が生成されている状態)場合には、各々の指示手段で、上記説明した動作、及び関連付けが各々行われる。
なお、上記実施形態では、属性情報を破棄するタイミングは、S109にてNoと判定された場合、すなわち、ジェスチャーコマンドを実行した後に、3次元座標が検出されなくなったときとした。しかし、ジェスチャーコマンドを実行したとき、属性情報を破棄するようにしても良い。この場合、S108の処理の後は、無条件にS112に進めるようにすればよい。
[第2の実施形態]
上記第1の実施形態では、2次元座標検出装置1、3次元座標検出装置2の出力をホストコンピュータ5が受け取り、ホストコンピュータ5がその出力を制御、管理して目的を達成する。しかしながらこれに限定するものではなく、例えば、3次元座標検出装置2が2次元座標検出装置1の出力結果を受け取る構成であっても良い。すなわち、3次元座標検出装置2が、2次元座標検出装置1から、ユーザが2次元領域(表示面)に対してタッチしたことで検出した座標の出力結果を入力したとき、その入力された座標(Z軸の値が0の3次元座標データ)と、3次元座標検出装置2自身の出力結果と比較し、あるいは解析を行って、属性情報やジェスチャーコマンドを生成してホストコンピュータ5に出力する構成であっても良い。
[第3の実施形態]
第1の実施形態では、ジェスチャーコマンド生成のための解析を始めるトリガーは、2次元座標検出装置1の出力であり、それをキャンセルするのは3次元座標検出装置2の出力であった。しかしながらこれに限定されるものではなく、例えば表示領域にキャンセルを強制的に実行させるための特定オブジェクト(キャンセルオブジェクト)を表示させておいても良い。
この場合の処理内容を図5を用いて説明する。S301にて初期化のためにフラグFlag=0とセットする。次の、S302では、3次元座標検出装置2からの出力が得られているかを判定する。もし3次元座標検出装置2により、何ら物体が検知されない場合には、フラグFlagが1であるか否かを判定し(S312)、Flag=0の場合には3次元座標検出装置2による3次元座標検出処理に戻る。また、Flag=1の場合、以下の説明からも明らかなように、その属性情報を破棄し(S313)、フラグFlagも初期値にリセットするため、S301に戻る。
さて、S302にて、3次元座標検出装置2からの出力が得られていると判定されると、S303にて、2次元座標検出装置1からの出力が得られるかを判定する。2次元座標検出装置1からの出力が得られると、操作者は表示面をタッチしたことになるので、オブジェクトが選択されたのかを判定する(ステップS304)。オブジェクト選択操作があったと判定した場合は、選択されたオブジェクトがキャンセルオブジェクトであるか否かを判定する(S315)。キャンセルオブジェクトであると判定した場合には、S312に処理を進める。すなわち、操作者がキャンセルオブジェクトを指示した場合の処理は、操作者が3次元座標検出領域外に手を移動したのと同様の処理となる。
また、選択されたオブジェクトがキャンセルオブジェクト以外のオブジェクトであると判定した場合、選択されたオブジェクトに対応する属性情報を生成し(S305)、Flag=1をセット(S306)する。そして、S303で検出された3次元座標(少なくとも1つは存在することになる)の中で、S302で検出された2次元座標(Z軸の座標値が0の3次元座標ということもできる)に最も近い1つの3次元座標を特定する(S307)。そして、その特定された3次元座標に、生成された属性情報を付加する(指示したオブジェクトと3次元座標データとの関連づけを行う)ことで、以降、その3次元座標に後続して連続して検出される座標を、ジェスチャー判定対象として追跡対象とする(S308)。
S309では、属性情報が付加された3次元座標データ列と、予め登録されたジェスチャーパターンとパターンマッチング等の処理を行うことで、所定のジェスチャーコマンドを生成が成功したか否かを判定する。否の場合は、未だ十分な個数の3次元座標データが記憶されていないものとし、S311にて、3次元座標検出装置2からの出力を記憶することを継続する。そしてS302に戻って、引き続き3次元座標検出装置2の出力を監視する。空間ジェスチャーコマンドがステップS309で生成されたと判断した場合、S310にて、関連付けられているオブジェクトに対して、コマンドが実行される事になる。
上記に従えば、座標追跡処理を実行している最中(Flag=1の状態)で、追跡を受けている操作者が、例えば、誤ったオブジェクトを選択したことに気づいた場合、表示面のキャンセルオブジェクトを表示している部分を指示(タッチ)するだけで、その選択をキャンセルできる。なお、フラグFlag=1の状態で、キャンセルオブジェクトを操作者が指示したとき、属性情報を破棄するだけでなく、蓄積された3次元座標データも消去されるものとする。
以上説明したように本第2の実施形態によれば、例えば掌が3次元座標検出装置2の視野外(すなわち、3次元座標検出装置2の出力が無くなる)としなくても、属性情報が破棄出来るので、操作性が改善される。
[第4の実施形態]
図6は、図7の様、複数人で操作を行った場合のタイミングチャートである。図中信号S201〜S204は図3(B)の信号と同一であるので、説明を省略する。
まず3次元座標検出装置2はタイミングA点で出力を開始すると共に、タイミングDで更にもう一つの出力を開始する事になる。すなわち、観測すべき対象物体が2個になった事を意味し、その各々についてその物体形状、或いはその位置を出力する。そして2次元座標検出装置1はタイミングBで操作者αによるタッチを検出して出力を開始するとともに。タイミングEで操作者βによるタッチをも検出して、期間B’からE’までの間、2つの指示位置座標を出力する。
さて、タイミングBにおいて2次元座標検出装置1が出力する座標は、3次元座標検出装置2が出力する信号S201、もしくは信号S211のどちらの信号によるものかを区別しなければならない。本実施形態にあっては、2次元座標検出装置1は表示面であるところのXY平面、3次元座標検出装置2はXY平面を含むXYZ軸空間の座標を算出する。従って、両者の座標系を一致させる事で、その対応を区別する事が可能である。つまり3次元座標検出装置2が出力する(x2、y2、z2)座標と2次元座標検出装置1が出力する座標(x1、y1)とを比較して、X軸座標値、及びY軸座標値がほぼ一致している信号を選択する。先にも述べたとおり座標の一致性から、2次元座標検出装置1が信号S202で出力した検出動作は、3次元座標検出装置2が出力した信号S201による操作であると判定できる。さらには、2次元座標検出装置1の出力信号により、Object-Aをタッチした事も判別できるので、信号S201に対して、属性情報Object-Aを対応つける。
3次元座標検出装置2は所定周期毎にサンプリングをしており、上記で選択された指示手段の位置情報の変化を追跡する事が可能である。従って、指示手段とオブジェクトの関連付けは保持する事が可能である。
同様に2次元座標検出装置1が出力する信号S212に対して、3次元座標検出装置2が出力した信号S211が対応付けられ、信号S211に属性情報Object-Bを対応つける。そして、信号S201、S211には属性情報が付与されているので、ジェスチャーコマンドを検出のための解析が行われ、それぞれジェスチャーコマンドが生成される(信号S204,S214)。
[第5の実施形態]
以上の実施形態においては、2次元座標検出装置1として抵抗膜方式、3次元座標検出装置2として3次元画像距離センサを用いて説明したがこれに限定されるものではない。具体的に2次元座標検出装置としては、静電容量方式、表面弾性波や空中波を利用した超音波方式、光学式を用いたもので構わない。
また、3次元座標検出装置も、写真撮影等に用いる通常のカメラ手段、あるいはビデオ手段としても良い。当然の事ながら、図2(B)が如く、入力面をタッチしたかの判定を行う事は出来ない。この場合、そのカメラを図1に示すが如く、プロジェクター3の隣に配置したものとする。カメラが出力する画像は、当然ことながら2次元情報である。従って、撮像された画像内の手の位置がどの位置、あるいはどの方向にあるのか、あるいは時系列的に手がどの方向に移動したかを検知可能である。また、一旦、オブジェクトへの接触を検出した後でも、その操作者の手がカメラの撮影視野内から外れた場合には、追跡対象から除外すればよい。
従って先に説明した通り、2次元座標検出装置の出力結果によって選択されたオブジェクトを、3次元座標検出装置の出力座標値と関連付ける事で、同様の効果を得る事が可能となる。
[第6の実施形態]
以上の各実施形態において、3次元座標検出装置の出力値として位置座標値を用いる事で説明してきたが、これに限定されるものではない。
図2(C)、(D)に示す操作を、カメラ手段を用いて撮像するのであれば、掌が裏返った等の判断、図2(B)に示すように、タッチした状態が指1本で行われたか、あるいは二本で行われたかの判定も可能である。従って、カメラによる撮像画像からそのような状態を判定してコマンドを生成してもよい。具体的には、図2(C)において、第二の検出手段が、手の位置が左から右に移動したと言う事を判定してページをめくっても良いし、手の甲がひっくり返ったと言う事を判定してページをめくっても良い。或いは両者の信号を合成してコマンドを生成してもよいことは言うまでも無い。
[第7の実施形態]
先の実施形態では2次元座標検出装置と3次元座標検出装置からの座標を同時に、あるいは2次元座標検出装置からの出力と、その出力が得られた直後の3次元座標検出装置からの出力とを比較する。そして3次元座標検出装置が出力する出力結果の中の、2次元座標検出装置が出力する位置情報と一致している1つ(若しくは、最も近い位置情報)を選択して、オブジェクト情報を受け渡す。
しかしながら位置情報の限定されるものでなく、例えば3次元座標検出装置の代わりに通常のカメラ等の撮像手段を用いるのであれば、その撮像手段が出力するのは画像となる。従ってこの画像には、図7の様な操作を行えば、操作者による2つの手(もしくは腕)と2つのオブジェクトが映っているはずである。2次元座標検出装置から出力が得られ、Object-Aが選択されたとすると、その直後の撮像手段の出力画像には、少なくとも1つの手がObject-Aと重なっている、あるいはその近傍に位置しているはずである。つまり、2次元座標入力手段の出力をトリガーとして、その直後に得られる撮像手段からの画像から、今Object-Aをタッチしている手がどちらの手かを判別する事が可能となる。つまり、Object-Aと撮像手段が検出した手の情報を関連付ける事ができる。
以上の説明した各実施形態からもわかるように、操作者がタッチする事によって選択されたオブジェクト等の属性情報を、第二の位置検出手段が検出する値と対応付けが可能となる。従って複数人で操作しても、各々の操作者が操作している対象オブジェクトを正確に特定し、操作者の意図を的確に反映させる事が可能となる。さらには、属性情報の有無により、座標追跡手段が出力する一連の座標値が、空間ジェスチャーのコマンドを生成するための動作なのかを判定でき、誤動作や処理時間等を大幅に少なくする事が可能となった。さらには、操作者が複数の対象オブジェクトから必要なオブジェクトを選択し、操作者の意図を反映させるための操作を一連の動作で、しかも直感的に行える優れた効果が得られるようになった。
<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (14)

  1. 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
    操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
    前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段と、
    前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段と、
    前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段と
    前記判別手段によって判別されたオブジェクトと前記決定手段によって追跡対象として決定された指示部の座標情報とを関連付ける関連付け手段と、
    を備えることを特徴とする情報処理装置。
  2. 更に、前記決定手段で追跡対象として決定された指示部が前記第2の検出手段による検出範囲から外れた場合、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示手段に表示されるオブジェクトには、追跡を強制的にキャンセルすることを指示する特定オブジェクトが含まれ、
    更に、決定手段で追跡対象として決定した指示部の追跡中に、追跡している指示部による前記表示領域の前記特定オブジェクトの位置への接触を前記第1の検出手段で検出したとき、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項1に記載の情報処理装置。
  4. 前記第2の検出手段は、前記表示領域の2次元平面から所定距離だけ隔てた位置に設けられ、少なくとも前記表示領域を撮影視野内にした3次元画像距離検出手段であることを特徴とする請求項1又は3のいずれか1項に記載の情報処理装置。
  5. 前記関連付け手段は、さらに、第2の検出手段によって検出された3次元の座標情報に基づくジェスチャーと、前記判別手段によって判別されたオブジェクトを関連付けることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
    操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
    少なくとも前記表示領域の2次元平面に対して予め定められた距離だけ隔てた位置に設けられ、前記表示領域を撮影視野内にして画像を検出する第2の検出手段と、
    前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段と、
    前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した画像内の指示部の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段と
    前記判別手段によって判別されたオブジェクトと前記決定手段によって追跡対象として決定された指示部の座標情報とを関連付ける関連付け手段と、
    を備えることを特徴とする情報処理装置。
  7. 更に、前記決定手段で追跡対象として決定された指示部が前記第2の検出手段による視野範囲から外れた場合、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項5に記載の情報処理装置。
  8. 前記表示手段に表示されるオブジェクトには、追跡を強制的にキャンセルすることを指示する特定オブジェクトが含まれ、
    更に、決定手段で追跡対象として決定した指示部の追跡中に、追跡している指示部による前記表示領域の前記特定オブジェクトの位置への接触を前記第1の検出手段で検出したとき、当該指示部を追跡対象外としてリセットする手段を備えることを特徴とする請求項5に記載の情報処理装置。
  9. 前記関連付け手段は、さらに、第2の検出手段によって検出された3次元の座標情報に基づくジェスチャーと、前記判別手段によって判別されたオブジェクトを関連付けることを特徴とする請求項6乃至8のいずれか1項に記載の情報処理装置。
  10. 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
    操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
    前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段とを備える情報処理装置の制御方法であって、
    判別手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別工程と、
    決定手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定工程と、
    連付け手段が、前記判別工程において判別されたオブジェクトと前記決定工程において追跡対象として決定された指示部の座標情報とを関連付ける関連付け工程と、
    を備えることを特徴とする情報処理装置の制御方法。
  11. 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
    操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、少なくとも前記表示領域の2次元平面に対して予め定められた距離だけ隔てた位置に設けられ、前記表示領域を視野範囲内にして画像を検出する第2の検出手段とを備える情報処理装置の制御方法であって、
    判別手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別工程と、
    決定手段が、前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した画像内の指示部の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定工程と、
    連付け手段が、前記判別工程において判別されたオブジェクトと前記決定工程において追跡対象として決定された指示部の座標情報とを関連付ける関連付け工程と、
    を備えることを特徴とする情報処理装置の制御方法。
  12. 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
    操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
    前記表示領域の表示面に垂直な方向を含む空間内の、操作者が操作する指示部の3次元の位置を検出する第2の検出手段とを備えるコンピュータを、
    前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段、
    前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した指示部の3次元の位置の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段
    前記判別手段によって判別されたオブジェクトと前記決定手段によって追跡対象として決定された指示部の座標情報とを関連付ける関連付け手段、
    として機能させるためのプログラム。
  13. 少なくとも1つの選択対象のオブジェクトを表示領域に表示する表示手段と、
    操作者が操作する指示部の前記表示領域に対する2次元の接触位置を検出する第1の検出手段と、
    少なくとも前記表示領域の2次元平面に対して予め定められた距離だけ隔てた位置に設けられ、前記表示領域を視野範囲内にして画像を検出する第2の検出手段とを備えるコンピュータを、
    前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、当該接触位置に従って、前記表示手段で表示されたオブジェクトのいずれが前記指示部で選択されたのかを判別する判別手段、
    前記第1の検出手段によって前記表示領域に対する前記指示部の接触位置を検出したとき、前記第2の検出手段で検出した画像内の指示部の中で、前記接触位置に最も近い指示部を追跡対象として決定する決定手段、
    前記判別手段によって判別されたオブジェクトと前記決定手段によって追跡対象として決定された指示部の座標情報とを関連付ける関連付け手段、
    として機能させるためのプログラム。
  14. 請求項12又は13に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
JP2010167477A 2010-07-26 2010-07-26 情報処理装置及びその制御方法 Expired - Fee Related JP5658500B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010167477A JP5658500B2 (ja) 2010-07-26 2010-07-26 情報処理装置及びその制御方法
US13/176,783 US8743089B2 (en) 2010-07-26 2011-07-06 Information processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010167477A JP5658500B2 (ja) 2010-07-26 2010-07-26 情報処理装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2012027796A JP2012027796A (ja) 2012-02-09
JP2012027796A5 JP2012027796A5 (ja) 2013-09-05
JP5658500B2 true JP5658500B2 (ja) 2015-01-28

Family

ID=45493200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010167477A Expired - Fee Related JP5658500B2 (ja) 2010-07-26 2010-07-26 情報処理装置及びその制御方法

Country Status (2)

Country Link
US (1) US8743089B2 (ja)
JP (1) JP5658500B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5783441B2 (ja) * 2011-03-09 2015-09-24 日本電気株式会社 入力装置、入力方法
JP5785753B2 (ja) * 2011-03-25 2015-09-30 京セラ株式会社 電子機器、制御方法および制御プログラム
JP5610644B2 (ja) * 2012-04-27 2014-10-22 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力装置、入力支援方法及びプログラム
JP5461735B2 (ja) * 2012-04-27 2014-04-02 パナソニック株式会社 入力装置、入力支援方法及びプログラム
US9798456B2 (en) * 2012-08-30 2017-10-24 Panasonic Intellectual Property Corporation Of America Information input device and information display method
US9978178B1 (en) * 2012-10-25 2018-05-22 Amazon Technologies, Inc. Hand-based interaction in virtually shared workspaces
DE102012110460A1 (de) * 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
US9170676B2 (en) * 2013-03-15 2015-10-27 Qualcomm Incorporated Enhancing touch inputs with gestures
GB2519124A (en) * 2013-10-10 2015-04-15 Ibm Controlling application launch
JP6213193B2 (ja) * 2013-11-29 2017-10-18 富士通株式会社 動作判定方法及び動作判定装置
US9575508B2 (en) 2014-04-21 2017-02-21 Apple Inc. Impact and contactless gesture inputs for docking stations
US9962570B2 (en) * 2014-05-22 2018-05-08 Brandon Dallmann Trampoline game system
US10838503B2 (en) 2014-07-31 2020-11-17 Hewlett-Packard Development Company, L.P. Virtual reality clamshell computing device
TWI531954B (zh) * 2014-11-14 2016-05-01 中強光電股份有限公司 觸控及手勢控制系統與觸控及手勢控制方法
JP2016095795A (ja) * 2014-11-17 2016-05-26 株式会社東芝 認識装置、方法、及びプログラム
US9454235B2 (en) * 2014-12-26 2016-09-27 Seungman KIM Electronic apparatus having a sensing unit to input a user command and a method thereof
JP6478796B2 (ja) * 2015-05-14 2019-03-06 三菱電機株式会社 セルフプリント端末
JP6483556B2 (ja) 2015-07-15 2019-03-13 株式会社東芝 操作認識装置、操作認識方法及びプログラム
JP6590609B2 (ja) * 2015-09-15 2019-10-16 キヤノン株式会社 画像解析装置及び画像解析方法
CN112106052B (zh) * 2020-07-22 2022-03-18 上海亦我信息技术有限公司 设计方法、装置和系统、数据处理方法和装置
JP2022119429A (ja) * 2021-02-04 2022-08-17 東芝テック株式会社 情報処理装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60120482A (ja) 1983-12-02 1985-06-27 Canon Inc 画像信号処理装置
JPS6110360A (ja) 1984-06-26 1986-01-17 Canon Inc 画像処理装置
US5384900A (en) 1988-03-14 1995-01-24 Canon Kabushiki Kaisha Method of managing an image memory by a process independent of an image processing process
JPH03119386A (ja) 1989-10-02 1991-05-21 Canon Inc 画像処理装置
JPH04221330A (ja) 1990-12-20 1992-08-11 Mitsubishi Gas Chem Co Inc 芳香族多価アルコールの製造方法
US6606636B1 (en) 1993-07-29 2003-08-12 Canon Kabushiki Kaisha Method and apparatus for retrieving dynamic images and method of and apparatus for managing images
JPH11338120A (ja) * 1998-05-27 1999-12-10 Dainippon Screen Mfg Co Ltd レイアウト装置
US6580806B1 (en) 1998-11-20 2003-06-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage
US6740860B2 (en) 2000-12-06 2004-05-25 Canon Kabushiki Kaisha Photodetector, photosensing position detector, coordinate input device, coordinate input/output apparatus, and photodetection method
JP3997392B2 (ja) 2001-12-13 2007-10-24 セイコーエプソン株式会社 表示装置及び表示装置の入力方法
JP2003316510A (ja) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。
JP4006290B2 (ja) 2002-07-30 2007-11-14 キヤノン株式会社 座標入力装置、座標入力装置の制御方法、プログラム
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
JP4401727B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
JP4221330B2 (ja) 2004-05-07 2009-02-12 日本電信電話株式会社 インタフェース方法、装置、およびプログラム
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
JP5257779B2 (ja) * 2008-03-19 2013-08-07 株式会社デンソー 表示方法、表示装置、及び操作入力装置
JP2011141360A (ja) 2010-01-06 2011-07-21 Canon Inc 画像表示装置および画像表示装置の制御方法

Also Published As

Publication number Publication date
JP2012027796A (ja) 2012-02-09
US8743089B2 (en) 2014-06-03
US20120019485A1 (en) 2012-01-26

Similar Documents

Publication Publication Date Title
JP5658500B2 (ja) 情報処理装置及びその制御方法
US8180114B2 (en) Gesture recognition interface system with vertical display
GB2498299B (en) Evaluating an input relative to a display
WO2017215375A1 (zh) 信息输入装置与方法
CN103809733B (zh) 人机交互系统和方法
US20110298708A1 (en) Virtual Touch Interface
WO2013035554A1 (ja) 入力体の動き検出方法およびそれを用いた入力デバイス
JP6021335B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US9317130B2 (en) Visual feedback by identifying anatomical features of a hand
US20100328351A1 (en) User interface
JP6618276B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
WO2012032515A1 (en) Device and method for controlling the behavior of virtual objects on a display
US20190265841A1 (en) 3d touch interaction device, touch interaction method thereof, and display device
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
CN102341814A (zh) 姿势识别方法和采用姿势识别方法的交互式输入系统
US20110250929A1 (en) Cursor control device and apparatus having same
WO2011146070A1 (en) System and method for reporting data in a computer vision system
JP2009251702A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US9703410B2 (en) Remote sensing touchscreen
JP5342806B2 (ja) 表示方法および表示装置
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6643825B2 (ja) 装置及び方法
JP5675196B2 (ja) 情報処理装置及びその制御方法
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
JP2017027311A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130724

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141128

R151 Written notification of patent or utility model registration

Ref document number: 5658500

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees