JP3777650B2 - Interface equipment - Google Patents

Interface equipment Download PDF

Info

Publication number
JP3777650B2
JP3777650B2 JP09648196A JP9648196A JP3777650B2 JP 3777650 B2 JP3777650 B2 JP 3777650B2 JP 09648196 A JP09648196 A JP 09648196A JP 9648196 A JP9648196 A JP 9648196A JP 3777650 B2 JP3777650 B2 JP 3777650B2
Authority
JP
Japan
Prior art keywords
shape
hand
cursor
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP09648196A
Other languages
Japanese (ja)
Other versions
JPH09185456A (en
Inventor
進 丸野
太郎 今川
みち代 森家
堅司 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP09648196A priority Critical patent/JP3777650B2/en
Publication of JPH09185456A publication Critical patent/JPH09185456A/en
Application granted granted Critical
Publication of JP3777650B2 publication Critical patent/JP3777650B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータ、ワードプロセッサ等の情報機器やテレビ等のディスプレイを有する機器の入出力を行うインターフェイス装置に関するものである。
【0002】
【従来の技術】
この種の従来のインターフェイス装置として、表示装置内の情報に何か別の情報を加えたり、表示の情報を変更したり、選択したりするのに、表示画面中のマウスによって検出した座標位置にカーソルを表示して行うものがある。
【0003】
図30はこの種の従来のインターフェイス装置の概要を示すものである。図30において、501はホストコンピュータ、502はディスプレイで、ディスプレイ502中にはホストコンピュータ501により、仮想の操作ボタン503,504,505が表示されている。506はマウスカーソルで、マウス507によって検出したマウス507の移動量に基づき、マウス507の動きに同期して画面中を動くように、ホストコンピュータ501が表示制御する。ユーザーは、マウス507を動かす事により、表示画面中の任意の仮想の操作ボタンの位置にマウスカーソル506を移動させ、マウス507上のスイッチ508を押すことにより、操作ボタンを選択し、ホストコンピュータ501に動作の指示を与えられるようになっている。
【0004】
【発明が解決しようとする課題】
しかしながら上記従来の構成では、機器の本体とは別にマウスという入力装置が必要で、又マウスを操作するテーブル等の基台が必要であり、携帯情報機器等に用いる事は適さない。又、マウスを介して操作を行なうため、必ずしも直接的で分かりやすいインターフェイスにはなっていない。
【0005】
本発明はかかる点に鑑み、キーボードやマウス等の入力装置を必要とせず、簡単に機器の操作が可能であり、更にはより操作性が良く、直接的で分かりやすいインターフェイス装置を提供しようとするものである。
【0006】
【課題を解決するための手段】
本発明は、操作者の手の形状と、前記手の形状が所定の時間継続する手の動きとを認識する認識手段と、前記認識手段が認識する手の形状特徴により選択可能なメニューを画像に表示し、前記認識手段により認識された手の形状特徴を、数字を表すアイコンとして画像に表示する表示手段と、前記認識手段で認識した手の形状特徴に基づいて前記画像上に表示したメニューを選択し、前記メニューの選択後に前記認識手段が認識した所定の手の動きに基づいて制御指示を行う制御手段とを備えたインターフェス装置である。
【0007】
好ましくは、前記認識手段は手の指の数を認識し、前記表示手段は前記指の数を画像に表示し、前記制御手段は、前記認識手段が認識した手の指の数に基づいてメニューを選択する。
【0008】
好ましくは、前記表示手段は、数字を表すアイコンを表示し、前記認識手段が認識した手の指の数に基づいて数字に対応するメニューの一部を強調して表示する。
【0009】
操作者の手の形状所定の手の動きとを認識する認識手段と、前記認識手段により認識する手の形状特徴により選択可能なメニューを画面に表示す表示手段と、前記認識手段による手の形状の認識結果に対応したアイコンを生成するアイコン生成部と、前記アイコン生成部により生成したアイコンを前記画面上に表示し、前記認識手段が認識した所定の手の動きに基づいて、前記アイコンの前記画像上での移動及びメニューの選択を行う制御手段とを備えたインターフェス装置である。
【0012】
【発明の実施の形態】
(第1の実施の形態)
本発明の第1の実施形態は、操作者の手の形状を認識するために撮像装置などの認識手段と、この認識手段により認識された手の形状の特徴をアイコンなどで特殊形状として画面に表示する表示手段と、この表示手段により画面に表示されたアイコンなどの特殊形状をいわゆるカーソルとして動作させて画面内に表示された情報を手の形状を変えることにより制御する制御手段とを備えたインターフェイス装置である。
【0013】
(第2の実施の形態)
本発明の第2の実施形態は、少なくとも撮像部と、撮像した画像中の物体の形状及び又は動きを認識する動作認識部と、この動作認識部によって認識した物体の形状及び又は動きを表示する表示部とによって構成し、前記撮像部で撮像した画像を保存するフレームメモリと、このフレームメモリ中に保存した画像よりも前の時間に撮像した画像を基準画像として蓄積する基準画像メモリとを設け、動作認識部に、フレームメモリ中の画像と、基準画像メモリ中に蓄積している基準画像との差異を抽出する画像変化抽出部を設けたインターフェイス装置である。
【0014】
(第3の実施の形態)
本発明の第3の実施の形態は、少なくとも撮像部と、撮像した画像中の使用者の手の形状及び又は動きを認識する動作認識部と、この動作認識部によって認識した使用者の手の形状及び又は動きを表示する表示部を有し、撮像した使用者の輪郭を抽出する輪郭抽出手段と、この抽出した輪郭を追跡し、輪郭線の角度と輪郭線の長さとの関係、即ち輪郭波形を演算する輪郭波形演算部と、この輪郭波形演算部によって演算した輪郭波形をフィルタリングして、所定の形状を表わす形状波形を生成する形状フィルタとを設けて前記動作認識部を構成したインターフェイス装置である。
【0015】
以上のように構成したインターフェイス装置の撮像部にユーザーが向い、例えば手振りによって指示を与えると、撮像部は、ユーザーの画像を撮像する。輪郭抽出手段はユーザーの画像の輪郭を抽出し、この輪郭は、輪郭波形演算部によって、輪郭上の基準点を開始点とした輪郭線の長さを横軸として、水平線に対する輪郭線の角度、即ち輪郭波形として変換される。この輪郭波形は、所定の帯域のバンドパスフィルタ、例えば、指の凹凸に相当するバンドパスフィルタによって構成した形状フィルタによって指の凹凸形状を表わす形状波形に変換され、手のある位置を演算すると同時に、この形状波形中に存在するパルス数を数えるだけで、出されている指の本数、即ち手の形状を正確に判断させることが出来る。この手の位置や形状に基づき、与えた手振りが表示部の表示画面上に表示され、例えば表示画面上に表示した仮想スイッチ等を手振りによって選択出来るものであり、マウス等の入力装置を必要とせず、非常に簡便な機器の操作が可能となるものである。
【0016】
また、帯域の異なる複数のバンドパスフィルタによって複数の形状フィルタを構成し、前記複数の形状フィルタによって生成した形状波形に基づいて、使用者の動作を判定させるように構成してもよい。これにより、複数の形状が認識できるようになる。
【0017】
また、少なくとも手の凹凸に対応する輪郭波形形状のバンドパスフィルタと、指の凹凸に対応する輪郭波形形状のバンドパスフィルタとによって複数の形状フィルタを構成してもよい。これにより、手の部分の凹凸のみを反映した滑らかな形状波形に変換され、又指の凹凸のみを反映した形状波形に変換される。
【0018】
また、撮像した使用者の輪郭形状の座標と、輪郭波形演算部によって演算した輪郭波形との対応を記憶させる座標テーブルを設け、形状波形の波高存在位置と前記座標テーブルとを用いて、撮像画像中の所定の形状が存在する座標を演算する座標演算部を設けて動作認識部を構成してもよい。これにより、輪郭形状の座標が演算され、その座標が出力される。
【0019】
また、形状フィルタによって生成した形状波形中のパルス数を数える形状判定部を設けて動作認識部を構成し、前記形状判定部の出力値によって、物体の形状を判定させるようにしてもよい。これにより、パルス数によって、二本指の形状であるのか、手を握った形状であるのかの判定が容易になされる。
【0020】
また、形状フィルタによって生成した形状波形を微分する微分器を設けて動作認識部を構成してもよい。微分によって、波形がよりパルス状になり、パルス数のカウントが容易となる。
【0021】
(第4の実施の形態)
これまでの実施の形態は表示画面に表示された2次画面について操作を行う例について述べてきたが、本実施の形態は仮想的な3次元を2次元表示画面に表示した場合の操作に係るものである。一般的には表示された仮想的な3次元空間において、カーソルを用いて仮想空間内の仮想物体をつかむ動作を想定すると、以下のような構成となる。
【0022】
図21において、A1は入力装置、A2はカーソル座標記憶部、A3は物体座標記憶部、A4は表示装置、A5は接触判断部である。図22は既に述べてきた実施の形態と同様に、操作者の手の形状から表示することができる二指のマニピュレータ形状のカーソルを示す。図22(a),(c),(e)は指を開いた状態、図22(b),(d),(f)は指を閉じた状態を示す。図23は仮想空間内の仮想物体の例を示す。ここで操作者は二指のカーソルを用いて仮想3次元空間内の仮想物体をつかむ動作を想定する。図24(a)、図24(b)はカーソルを用いて仮想物体をつかむ時の仮想空間内のカーソルおよび仮想物体の配置を示す。図25は表示装置A4の表示を示す。
【0023】
操作者の操作が入力部A1に与えられると、カーソル座標記憶部A2に記憶するカーソル座標およびカーソルの二指の間隔が前記操作に基づいて更新される。表示装置A4はカーソル座標記憶部A2の記憶する情報および物体座標記憶部A3の記憶する仮想物体の位置情報を用いてカーソルと仮想物体を含む仮想空間を描画する。ここで、接触判断部A5はカーソル座標記憶部A2の記憶する情報および物体座標記憶部A3の記憶する仮想物体の位置情報を用いてカーソルと仮想物体が仮想空間内で接触するか否かを計算する。具体的には、カーソルおよび仮想物体を構成する複数の面の間の仮想空間内での距離をそれぞれの面の間について計算し、カーソルの二指の間に仮想物体が接触すれば、カーソルが仮想物体をつかんだと判断し、以後カーソルの移動にあわせて物体の座標を変更する。
【0024】
しかしながらこのような手法では図24(a)、(b)に示すような配置の場合に表示装置による表示が図25のようになり、仮想空間内でカーソルと仮想物体の位置が完全に一致しない場合でも座標が一致していると操作者が誤判断する場合がある。また、3次元表示装置を用いた場合や図24(a)、(b)を併記したような表示でも、実空間内と仮想空間内の距離感覚の違いからなめらかな操作が困難となる。
【0025】
このように、表示空間である仮想的な空間における距離感覚と実空間での距離感覚との差異や、操作者が意図するカーソルの動きと実際のカーソルの動きとの差異により、カーソルと仮想空間内の仮想物体との相互作用(例えば仮想のマニピュレータによって仮想物体をつかむ場合など)において操作者の意図に沿った相互作用(前記の例では仮想物体をつかむ)がなめらかに実現できない。
【0026】
本実施の形態では、仮想空間において操作者が手振り等で非接触で操作性良くカーソル制御が出来ると共に、仮想空間内の仮想物体との相互作用の発生の有無を、仮想空間内のカーソルと仮想物体の構成要素(仮想空間が3次元の場合は表面)間の距離のみによって決定するのではなく、相互作用判定手段が必ずしも仮想空間内での距離が近接していない対象物に対しても相互作用を起こすことで、カーソルが仮想物体と相互作用を起こすか否かの判定を操作者の意図に近づけ、インターフェイスの操作性をさらに向上させることが出来る。さらに、必ずしも仮想空間内での距離が近接していない対象物に対しても相互作用を起こすことが可能となる。
【0027】
本実施の形態の第1の構成は、表示手段と、前記表示手段に表示するカーソルの位置および形状を変更する入力手段と、前記カーソルの位置を代表する代表点座標および前記カーソルの形状を記憶するカーソル記憶手段と、前記カーソル以外の表示物の位置を代表する代表点座標および前記表示物体の形状を記憶する物体記憶手段と、前記カーソル記憶手段に記憶するカーソルの位置および形状と前記物体記憶手段に記憶する表示物の位置および形状を用いて、前記カーソルと前記表示物との間の相互作用を判定する相互作用判定手段とから構成し、前記相互作用判定手段は、少なくとも1点の前記カーソルの代表点と少なくとも1点の前記表示物の代表点との間の距離を計算する距離計算手段と、前記カーソルの移動または形状の変化を認識する動作認識手段と、前記距離計算手段が計算する距離と前記動作認識手段の認識結果を用いて前記カーソルと前記表示物との相互作用を決定する総合判定手段とから成ることを特徴とするインターフェイス装置である。
【0028】
本構成により、仮想空間において操作者が操作するカーソルと仮想空間内の仮想物体との相互作用の発生の有無を、仮想空間内の前記カーソルと前記仮想物体の構成要素(仮想空間が3次元の場合は表面)間の距離のみによって決定するのではなく、距離計算手段が算出する代表点間の距離および動作認識手段が認識するカーソルの動作によって総合判定手段が相互作用の発生の有無を判定することにより、必ずしも仮想空間内での距離が近接していない対象物に対しても相互作用を起こすことが可能となる。
【0029】
また、第1の構成において、動作認識手段が予め登録した動作を認識した場合に、距離計算手段が計算する距離が予め定めた基準以下の表示物に対して相互作用判定手段が相互作用を発生させる第2の構成としてもよい。
【0030】
また、第1、第2の構成において、表示空間内におけるカーソルの移動方向と移動量を算出する移動ベクトル算出手段を設けて相互作用判定手段を構成し、前記移動方向算出手段が算出するカーソルの移動方向およびカーソルの移動量に基づいて相互作用判定手段が前記カーソルと表示物との相互作用を決定する第3の構成としてもよい。
【0031】
また、第3の構成において、移動ベクトル算出手段が算出するカーソルの移動量が予め定めた基準値以下の場合に相互作用判定手段が相互作用を発生させる第4の構成としてもよい。
【0032】
また、第3、第4の構成において、移動ベクトル算出手段が算出するカーソルの移動方向の延長線近傍に存在する表示物に対して相互作用判定手段が相互作用を発生させる第5の構成としてもよい。
【0033】
また、第1〜第5の構成において、カーソルの形状と表示物の形状とが予め登録した組み合わせになる場合に相互作用判定手段が相互作用を発生させる第6の構成としてもよい。
【0034】
また、第1〜第6の構成において、カーソル形状および表示物の形状を認識する形状判定手段を備えて相互作用判定手段を構成し、前記形状認識手段が認識するカーソルの形状と表示物の形状とが一致する場合について相互作用判定手段が相互作用を発生させる第7の構成としてもよい。
【0035】
また、第1〜第7の構成において、視線方向を検出する視線入力手段を設け、前記視線入力手段が検出する視線の延長線上近傍の表示物に対し、動作認識手段が予め登録した動作を認識した場合に、相互作用判定手段が相互作用を発生させる第8の構成としてもよい。
【0036】
また、第8の構成において、視線入力手段が検出する視線の延長線上近傍の表示物に対し、前記視線の延長線上近傍にカーソルが存在し、かつ動作認識手段が予め登録した動作を認識した場合に、相互作用判定手段が相互作用を発生させる第9の構成としてもよい。
【0037】
また、第1〜第9の構成において、相互作用を発生させた場合、カーソルと対象とする表示物との位置関係および前記カーソルの形状および前記表示物の形状を学習する学習手段を設け、相互作用判定手段が学習手段の学習結果に基づいて、相互作用を決定する第10の構成としてもよい。
【0038】
また、第10の構成において、カーソルと対象とする表示物との位置関係または前記カーソルの形状および前記表示物の形状が学習手段が過去に学習した位置関係または形状と類似する場合に、相互作用判定手段が相互作用を発生させる第11の構成としてもよい。
【0039】
また、第1〜第11の構成において、カーソル記憶部および物体記憶部から距離計算手段への入力に対して座標変換を行う座標変換手段を設けて相互作用判定手段を構成する第12構成としてもよい。
【0040】
また、第12の構成において、相互作用を発生させた場合、カーソルと対象とする表示物との位置関係を接近させるように座標変換を行う第13の構成としてもよい。
【0041】
(第1の実施例)
図1は、本発明によるインターフェイス装置の第1の実施例の外観を示したものである。図1において、1はホストコンピュータ、2は表示に用いるディスプレイ、3は画像を撮像するCCDカメラである。CCDカメラ3は、ディスプレイ2の表示方向と同一方向に撮像面を配置してあり、ユーザーが表示面に向かうことにより、ユーザーの手形状を撮像できるようになっている。ディスプレイ2上には、メニュー201,202及び前記手形状を反映した表示を行うアイコン200が表示できるようになっている。
【0042】
図2は、本実施例の詳細ブロック図を示すものである。CCDカメラ3から入力された画像は、フレームメモリ21に蓄えられる。基準画像メモリ25には、予め撮像された人を含まない背景の画像を、基準画像として保存している。基準画像は必要に応じて随時更新する事ができる。
【0043】
形状識別手段22は、フレームメモリ21中に蓄えた画像と、基準画像メモリ25に保存された画像との差を抽出する事により、画像中から背景画像を取り除くと共に、例えばユーザーの手に相当する部分を抽出し、その形状が、例えば図3(a)に示すような、一本指の形状であるのか、又図3(b)に示すような二本指の形状であるのか又はそれ以外図3(c)であるのかを判断する。
【0044】
図4は、形状識別手段22の詳細実施の形態を示したもので、画像差演算部221 と輪郭抽出部222と形状識別部223とによって構成した例を示したものである。画像差演算部221 は、前述のように、フレームメモリ中に蓄えた画像と、基準画像メモリに保存された画像との差を演算する。これにより、抽出したい物体、例えばユーザーと背景の部分を分離できるわけである。例えば、画像差演算部221 を単純な引算回路で構成した場合、図5に示すように、フレームメモリ中の画像中のユーザーの手の部分だけを抽出することが出来るわけである。輪郭抽出部222 は、画像差演算部221 によって演算した結果の画像中に存在する物体の輪郭形状を抽出する。具体的な方法例としては、画像のエッジを抽出することにより、簡単に輪郭形状が抽出できる。
【0045】
形状識別部223は、輪郭抽出部222によって抽出した、手の輪郭形状を詳細識別し、例えばその形状が、図3(a)に示すような、一本指の形状であるのか、又図3(b)に示すような二本指の形状であるのかを判断する。形状の識別法としては例えば、テンプレートマッチング、形状モデルとのマッチング手法、ニューラルネットワークなどを用いることが可能である。
【0046】
アイコン生成部24は、形状識別部223 による手の形状の識別結果に基づき、ディスプレイに表示すべき特殊形状としてアイコン画像を生成する。例えば、手の形状の識別結果が一本指の形状であれば、例えば図6(a)に示すような数字”1”のアイコンを生成し、また二本指の形状であれば、例えば図6(b)に示すような、数字”2”のアイコンを生成する。アイコンの形状としては手の形状の識別結果が一本指の形状であれば、図6(c)に示すような一本指型のアイコンを、又二本指の形状であれば、図6(d)に示すような二本指型のアイコンなどを生成してもよい。表示制御部23は、形状識別部223 による手の形状の識別結果に基づき表示を制御する。例えば、識別結果に基づいた前記アイコンを表示するとともに識別結果と予め対応づけてあるメニューを手形状の識別結果に基づいて強調して表示を行う。
【0047】
以上の様に構成した本実施例による操作例を以下に示す。図7(a)に示すように、本実施例のインターフェイス装置を備えた機器にユーザーが向い、手を一本指の形状にすると、ディスプレイ上に数字”1”のアイコンが表示されるとともに、1番目のメニューであるテレビの表示が強調表示される。このとき強調表示にあわせてディスプレイ装置から音あるいは音声を出力することで操作者の注意を更に喚起することが可能である。ここで、図7(b)のように手を二本指の形状にすると、ディスプレイ上に数字”2”のアイコンが表示されるとともに、2番目のメニューであるネットワークの表示が強調表示される。この状態で例えば一定時間同じ手の形状を維持することで2番目のメニューが選択され、ホストコンピュータにネットワーク端末の表示を行うように指令を与えることができる。メニューの選択には音声などを併用してもよい。図7(c)のように予め決められた手の形状以外の場合にはディスプレイ上にはアイコンおよびメニューは表示されず、ホストコンピュータに命令は送られない。
【0048】
このように本実施例によれば、撮像した画像中の手の形状を識別し、識別結果に応じてコンピュータ等の機器を制御することが可能であり、キーボードやマウスなどの機器を用いずに遠隔から非接触で操作を行うことが可能である。また、手の形状を識別した結果を画面に反映させることで使用者が識別結果を確認しながら操作を行うことができ、使いやすくかつ確実な操作が可能となる。
【0049】
なお、本実施例では単にメニュー選択に適用した例を示したが、手のある形状に従ったをアイコン表示が、絵や文章などと置き換わるように前もって設定することにより、絵や文字を表示に書き込み制御することも容易であることは言うまでもない。
【0050】
(第2の実施例)
図8は、本発明によるインターフェイス装置の第2の実施例の外観を示したものである。図8において、第1の実施例と同様の機能を有する部分には同じ数値で構成要素を示す。即ち、1はホストコンピュータ、2は表示に用いるディスプレイ、3は画像を撮像するCCDカメラである。CCDカメラ3は、ディスプレイ2の表示方向と同一方向に撮像面を配置してあり、ユーザーが表示面に向かうことにより、ユーザーの手振りを撮像できるようになっている。ディスプレイ2の表示面上には、仮想スイッチ204,205,206,及び前記仮想スイッチを選択する矢印カーソルのアイコン203が表示できるようになっている。
【0051】
図9は、本実施の形態の詳細な構成のブロック図を示すものである。CCDカメラ3から入力された画像は、フレームメモリ21に蓄えられる。基準画像メモリ25には、予め撮像された画像が、基準画像として保存されている。基準画像更新部26は、タイマ261と画像更新部262とによって構成してあり,タイマ261で指示される一定の時間間隔でフレームメモリ21に保存した最新画像を基準画像メモリ25に転送し、基準画像を更新する。
【0052】
動作認識部22は、フレームメモリ中に蓄えた画像と、基準画像メモリに保存された画像との差を抽出することにより、画像中から背景画像を取り除くと共に、例えばユーザーの手に相当する部分を抽出し、その形状が、例えば図10(a)に示すような一本指の形状であるのか、又図10(b)に示すような握り拳の形状であるのかを判断する。
【0053】
図11は、動作認識部22の詳細を示したもので、画像差演算部221と輪郭抽出部222と形状変化識別部225と位置検出部224とによって構成した例を示したものである。
【0054】
画像差演算部221は、前述のようにフレームメモリ21中に蓄えた画像と,基準画像メモリ25に保存された画像との差を演算する。これにより、動きとして抽出したい物体、例えばユーザーの手の部分と背景の部分を分離できると同時に、動いている物体画像だけを抽出できるわけである。例えば,画像差演算部221を単純な引算回路で構成した場合、図12に示すように、基準画像中の手の部分と、フレームメモリ中の最新画像中の手の部分だけを抽出することが出来るわけであり、動いている手の部分だけを簡単に同定できるわけである。輪郭抽出部222は,画像差演算部221によって演算した結果の画像中に存在する物体、即ち,動く前と、動いた後の手の部分の輪郭形状を抽出する。具体的な方法例としては、画像のエッジを抽出することにより、簡単に輪郭形状が抽出できる。
【0055】
形状変化識別部225は、輪郭抽出部222によって抽出した、動いた後の手の部分の輪郭形状を詳細識別し、例えばその形状が、図10(a)に示すような、一本指の形状であるのか、又図10(b)に示すような握り拳の形状であるのかを判断する。同時に位置検出部224は,前記動いた後のユーザーの手の部分の輪郭形状の重心座標を演算する。
【0056】
アイコン生成部24は、形状変化識別部225による手の形状の識別結果に基づき,ディスプレイに表示すべきアイコン画像を生成する。アイコン画像の例としては例えば、手の形状の識別結果が一本指の形状であれば、例えば図13(a)に示すような矢印のアイコンを生成し、又握り拳の形状であれば、例えば図13(b)に示すようなX印のアイコンを生成する。また、手の形状の識別結果が二本指の形状であれば、例えば図13(c)に示すような二本指の形状を模した形状のアイコンを生成し、又握り拳の形状であれば、例えば図13(d)に示すような、握り拳の形状を模した形状のアイコンを生成する構成としてもよい。
【0057】
表示制御部23は、アイコン生成部24によって生成したアイコンのディスプレイ2上での表示位置を制御するもので、座標変換部231と座標反転部232から成る。座標変換部231は,撮像した画像の座標からディスプレイ2の表示座標への変換を行ない、又座標反転部232は、変換した表示座標の左右位置を反転する。
【0058】
即ち、位置検出部224 によって検出したユーザーの手に相当する部分の画像中の重心座標から、ディスプレイ2の表示座標への変換を行い、左右の座標を反転させてディスプレイ2にアイコンを表示するわけである。この操作により、ユーザーが手を右に動かせば、この動作を鏡に写したのと同様に、表示画面上でアイコンが向かって右に動く。
【0059】
以上の様に構成した本実施例による操作例を以下に示す。図8に示すように、本実施例によるインターフェイス装置を備えた機器にユーザーが向い、手を一本指の形状にして動かすと、ディスプレイ上に表示した矢印カーソルが、手の動きに対応した任意の位置に移動する。次に、ディスプレイ2上に表示した任意の仮想スイッチ204,205,206の上に手を動かすことによって矢印カーソルを移動させ、手を握り、握り拳形状にすると、その仮想スイッチ204,205,206 が選択され、ホストコンピュータ1に指令を与えることができるわけである。
【0060】
尚、本実施例では、撮像した画像中の物体の形状及び動きを認識する構成としたが、撮像した画像中の物体の形状または動きのいずれかを認識する構成としてもよいことは言うまでもない。
【0061】
以上のように本実施例によれば、撮像した画像中の物体の形状及び又は動きを認識する動作認識部と、動作認識部によって認識した物体の形状及び又は動きを表示する表示部と、撮像部で撮像した画像を保存するフレームメモリと、フレームメモリ中に保存した画像よりも前の時間に撮像した画像を基準画像として蓄積する基準画像メモリとを設け、動作認識部に、フレームメモリ中の画像と、基準画像メモリ中に蓄積している基準画像との差異を抽出することにより、撮像部にユーザーが向い、例えば手振りによって指示を与えると、与えた手振りが表示画面上に表示され、例えば表示画面上に表示した仮想スイッチ等を手振りによって選択でき、マウス等の入力装置を必要とせず、非常に簡便な機器の操作が可能となるものである。
【0062】
(第3の実施例)
本発明によるインターフェイス装置の第3の実施例の外観は第2の実施例で示した図8と同様であり、第2の実施例と同じ部分は図8、図10を用いて説明し、その他異なる部分のみを図14以降に示している。
【0063】
図14は、第3の実施例の詳細ブロック図を示すものである。CCDカメラ3から入力された画像は、フレームメモリ31に蓄えられる。動作認識部32は、フレームメモリ31中に蓄えた画像中から、例えばユーザーの手に相当する部分を抽出し、その形状が、例えば図10(a)に示すような一本指の形状であるのか図10(b)に示すような握り拳の形状であるのかを判断する。
【0064】
図15は、動作認識部32の詳細を示したものであり、図16〜図20を用いてその詳細動作を説明する。まず、輪郭抽出部321 は、画像中に存在する物体の輪郭形状を抽出する。具体的な方法例としては、画像を二値化し、そのエッジを抽出することにより、簡単に輪郭形状が抽出できる。図17(a)は、抽出した輪郭線の一例であり、手の部分は一本指の形状を示している。
【0065】
次に輪郭波形演算部322は、図17(a)に示すような輪郭抽出部321によって抽出した物体の輪郭形状を図中の開始点sを起点として、図の矢印の方向(反時計回り)に輪郭線をたどり、図19に示すように、輪郭線上の各点xにおける輪郭線の水平線からの角度θを、開始点sからの距離lに対する関数として抽出し、図17(b)に示すような、距離lを時間軸とみなした波形形状に変換すると同時に、距離lに対応する輪郭線上の各点の座標をテーブルにして、変換テーブル324に保存する。3231及び3232に示す形状フィルタ1及び形状フィルタ2は、それぞれ図17(b)に示した輪郭波形中の手の部分の凹凸、及び指の部分の凹凸に対応する帯域を通過させるフィルタである。
【0066】
形状フィルタ1により、図17(b)は、図17(c)に示すように、手の部分の凹凸のみを反映した滑らかな形状波形に変換され、又形状フィルタ2によって、図17(d)に示すように、指の凹凸のみを反映した形状波形に変換され、それぞれ微分器3251及び3252によって微分され、最終的に、図17(e)及び図17(f)に示す形状微分波形が得られる。形状判定部3262は、手の部分の輪郭形状が、図10(a)に示すような二本指の形状であるのか、又図10(b)に示すような握り拳の形状であるのかを判断し、同時に座標演算部3261は、前記ユーザーの手の部分の輪郭形状の重心座標を演算するものである。座標演算部3261は、図17(e)に示す形状微分波形中の、大きなパルス波形が存在する位置、lc1、lc2を求め、座標変換テーブル324 により、図20に示すc1点、c2点へ変換し、c1点からc2点までの手の部分の輪郭線より、手の部分の重心を演算して、手座標として出力する。
【0067】
又、形状判定部3262は、図17(f)の形状微分波形中の指の部分の相当するパルス波形の数をカウントして出力する。即ち、図17(f)の場合には、指の部分に相当する2つの大きなパルス波形が存在するため、図10(a)に示すような、二本指の形状であると判定して出力するわけである。又、図18(a)に示すように、手を握った形状の場合、指の部分の凹凸がほとんど無く、形状フィルタ2の出力は、図18(c)に示すように、凹凸の無い形状波形となり、従って微分器3262の出力も、図18(d)に示すように、パルス波形が無いような形状微分波形となり、パルス波形のカウントは0となり、図10(b)に示すような握り拳の形状であると判定して出力できるわけである。この形状判定部3262の具体的構成例としては、単純なしきい値処理法や、ニューラルネットワーク等を用いることができる。
【0068】
図14のアイコン生成部34は、図15中の形状判定部3262による手の形状の識別結果に基づき、ディスプレイに表示すべきアイコン画像を生成する。例えば、手の形状の識別結果が一本指の形状であれば、例えば図16(a)に示すような矢印のアイコンを、又握り拳の形状であれば、例えば図16(b)に示すような、X印のアイコンを生成する。表示制御部33は、アイコン生成部34によって生成したアイコンのディスプレイ上での表示位置を制御するもので、座標変換部331 と座標反転部332から成る。座標変換部331は、撮像した画像の座標からディスプレイの表示座標への変換を行ない、又、座標反転部332 は、変換した表示座標の左右位置を反転する。即ち、図15中の座標演算部3261が出力したユーザーの手に相当する部分の画像中の重心座標から、ディスプレイの表示座標への変換を行い、左右の座標を反転させてディスプレイにアイコンを表示するわけである。この操作により、ユーザーが手を右に動かせば、この動作を鏡に写したのと同様に、表示画面状でアイコンが向かって右に動く。
【0069】
以上の様に構成した本実施例の操作例を以下に示す。図8に示すように、本実施例によるインターフェイス装置を備えた機器にユーザーが向い、手を一本指の形状にして動かすと、ディスプレイ2上に表示したアイコン203 の矢印カーソルが、手の動きに対応した任意の位置に移動する。次に、ディスプレイ2上に表示した任意の仮想スイッチ204,205,206 の上に手を動かすことによって矢印カーソルを移動させ、手を握り、握り拳形状にすると、その仮想スイッチが選択され、ホストコンピュータ1に指令を与えることができるわけである。
【0070】
又、表示するアイコンの例としては、図16(c)、(d)に示すように、手の形状そのものをアイコン化すれば、実際の手の動きと対応が取れ、分かりやすい。具体的には、図16(c)、(d)のような画像を予め登録しておいてもよいし、又輪郭抽出部によって抽出した手の輪郭形状データを任意の大きさに縮小又は拡大し、アイコン画像として用いることもできる。
【0071】
このように、本実施例はインターフェイス装置の撮像部にユーザーが向い、例えば手振りによって指示を与えると、撮像部は、ユーザーの画像を撮像し、ユーザーの画像の輪郭を抽出し、輪郭上の基準点を開始点とした輪郭線の長さを横軸として、水平線に対する輪郭線の角度、即ち輪郭波形として変換される。この輪郭波形は、所定の帯域のバンドパスフィルタ、例えば、指の凹凸に相当するバンドパスフィルタによって構成した形状フィルタによって指の凹凸形状を表わす形状波形に変換され、手のある位置を演算すると同時に、この形状波形中に存在するパルス数を数えるだけで、出されている指の本数、即ち手の形状を正確に判断させることが出来る。この手の位置や形状に基づき、与えた手振りが表示画面上に表示され、例えば表示画面上に表示した仮想スイッチ等を手振りによって選択出来るものであり、マウス等の入力装置を必要とせず、非常に簡便な機器の操作が可能となるものである。
【0072】
(第4の実施例)
本発明の第4の実施例について図面を参照して説明する。図26はインターフェイス装置の第4の実施例のブロック図を示すものである。
【0073】
図26において、41は入力手段、42はカーソル記憶手段、43は物体記憶手段、44は表示手段、45は相互作用判定手段、45aは距離計算手段、45bは動作認識手段、45cは総合判定手段、45dは移動ベクトル算出手段、45eは形状判定手段、45fは学習手段、45gは座標変換手段、46は視線入力手段である。
【0074】
図26において操作者が入力手段41に対して操作を行い、前記操作結果に基づいて、カーソル記憶手段42がカーソルの仮想空間内での位置を代表する代表点座標および形状を変更・記憶し、表示手段44はカーソル記憶手段42が記憶するカーソルの仮想空間内での位置を代表する代表点座標および形状と物体記憶手段43が記憶する仮想物体の仮想空間内での位置を代表する代表点座標および形状とに基づいて前記カーソルおよび前記仮想物体を2次元表示あるいは3次元表示する。
【0075】
視線入力手段46は前記表示上における操作者の視線の位置を検出する。距離計算手段45aはカーソル記憶手段42と物体記憶手段43に記憶する代表点の座標に基づいてカーソルと仮想物体との仮想空間内における距離を計算する。動作認識手段45bはカーソル記憶手段42と物体記憶手段43に記憶する内容に基づいて操作動作の認識を行う。移動ベクトル算出手段45dは仮想空間内におけるカーソルの移動方向および移動距離を算出する。形状判定手段45eはカーソルの形状と仮想物体の形状が相互作用を起こすのに適切か否かを判定する。学習手段45fは総合判定手段45cがカーソルと仮想物体の間の相互作用を起こした場合の前記カーソルと前記仮想物体の位置及び形状の関係を記憶し、現在の状態が過去に相互作用を起こした状態に類似しているか否かを出力する。
【0076】
総合判定手段45cは距離計算手段45aの出力するカーソルと仮想物体間との距離と、動作認識手段45bが認識した認識結果と、移動ベクトル算出手段45dが算出するカーソルの移動方向と移動距離と、視線入力手段46が検出する視線の位置と、形状判定手段45eの判定結果と、学習手段45fが出力する過去の相互作用との類似度合とに基づいて前記カーソルと前記仮想物体が相互作用するか否かを判定し、相互作用の結果に応じて前記カーソルや前記仮想物体の代表点座標や形状を変更する。座標変換手段45gは相互作用判定手段45が相互作用を起こした場合に距離計算手段45aが距離計算に用いるカーソルと対象となる仮想物体との仮想空間内での座標を両者の位置が近づくように座標変換を行う。
【0077】
図22(a),(b)は、本発明のインターフェイス装置に用いるカーソルの第一の実施の形態で二指のマニピュレータ形状のものである。図22において、(a)は指を開いた状態、(b)は指を閉じた状態である。図22(c)、(d)は本発明のインターフェイス装置に用いるカーソルの第二の実施の形態で二指二関節のマニピュレータ形状のものである。図において(c)は指を開いた状態、(d)は指を閉じた状態である。図22(e)、(f)は本発明のインターフェイス装置に用いるカーソルの第三の実施の形態であり五指の手形状のものである。図22において、(e)は手を開いた状態、(f)は手を閉じた状態である。図23(a),(b)は本発明のインターフェイス装置に用いる仮想空間内の物体の例である((a)は立方体、(b)は平面体)。
【0078】
以上のように構成したインターフェイス装置の動作を説明する。本実施例は操作者が3次元の仮想空間内において図22のようなカーソルを移動し、前記仮想空間内に存在する図23のような仮想物体をつかんで移動する動作を想定する。操作者の操作は入力手段41に対して行う。
【0079】
ここで、入力にはカーソルの位置あるいは形状を変化させるための情報を入力する入力装置として、図27(a)〜(c)に示すような手段あるいはカメラやキーボード、音声認識などによるコマンド入力などを用いることができる。図27(a)はマウスで、マウス本体の移動とボタンのクリックなどによってカーソルを操作する。図27(b)はデータグローブで、人の手に装着し、指の関節角やデータグローブの実空間内での位置をカーソルの位置と形状に反映させ、カーソルを操作する。図27(c)はジョイスティックで、レバーの操作および操作ボタンとの併用によりカーソルを操作する。カメラを用いる場合には、身体または身体の一部(手など)をカメラで撮像し、手の形状および位置を読みとる。
【0080】
図28は、手のみをカメラで撮像した場合の形状抽出の一実施の形態を示す。図28(a)はカメラで手を撮像した例である。図28(a)の画像の各画素の輝度を二値化したものが図28(b)である。図28(b)において、黒画領域に外接する長方形の縦の辺の長さと横の辺の長さとの比率等により手の開閉の度合いの判定が可能となり、黒画素全体の重心座標と面積から位置と距離の入力が可能となる。入力手段41は前記操作内容(カーソルの移動量やカーソル形状の変更量など)をカーソル記憶手段42に出力する。
【0081】
カーソル記憶手段42は入力手段41が出力した操作内容に基づき、カーソル記憶手段で記憶するカーソルの代表点の仮想空間内での座標と形状を記憶する。代表点としてはカーソルの重心座標(X0,Y0,Z0)を代表点として用いる。
【0082】
尚、代表点としては、カーソルを構成する各面の中心座標や頂点の座標などを用いてもよい。形状としては図22(a)の場合は二指の間隔d、図22(b)、(c)の場合は各指の関節の内角θn(nは関節の番号:θnが小さくなると関節が曲がる状態を示す)を記憶情報とする。なお形状としては各指の指先や各関節の仮想空間内での座標などを用いてもよい。
【0083】
物体記憶手段43は操作の対象となる図23に示す仮想空間内の仮想物体の代表点の座標と形状を記憶する。代表点としては
仮想物体の重心座標(立方体:(X1,Y1,Z1),平面体:(X2,Y2,Z2))
を代表点として用いる。なお代表点としては、仮想物体を構成する各面の中心座標や頂点の座標などを用いてもよい。形状としては予め定めた形状を表すパラメータαを形状として記憶する(ここで立方体をα=1、平面体をα=2と定義する)。なお形状としては頂点座標などを用いてもよい。
【0084】
表示手段44はカーソル記憶手段42と物体記憶手段43が記憶するカーソルと仮想物体の位置と形状の情報に基づいて仮想空間を予め指定した視点から眺めた像を2次元表示する。図29(a)に表示手段の表示例を示す。操作者が操作を行うとカーソルの表示位置あるいは形状が変化し、操作者はその表示に基づいて操作を続ける。
【0085】
相互作用判定手段45はカーソル位置が変化する毎にカーソルが物体をつかんだか否か(相互作用の有無)を判定し、カーソルが物体をつかんだと判断した場合にはカーソルの移動にあわせて仮想物体の座標も移動させる。距離計算手段45aは、カーソル記憶手段42に記憶するカーソルの重心座標(X0,Y0,Z0)と物体記憶手段43に記憶する仮想物体の重心座標(X1,Y1,Z1),(X2,Y2,Z2)との距離を計算する。
【0086】
動作認識手段45b手段は予め登録した動作として”つかむ”という動作をカーソルの形状の変化を用いて認識する。図22(a)のカーソルの場合には二指の間隔dが減少し続ける状態を”つかむ”動作と認識し、図22(b)、(c)のカーソルの場合には全指の角度θnが減少し続ける状態を”つかむ”動作と認識する。なお、動作の認識手法としては形状を表すパラメータ(前記dやθnなど)の時系列的な変化を時系列パターン認識手法(テーブルマッチング、DPマッチング、ヒドゥンマルコフモデル(HMM)、リカレントニューラルネットワークなど)を用いて予め特定の動作を学習させた後、認識手法として用いてもよい。
【0087】
移動ベクトル算出手段45dはカーソルの重心座標(X0,Y0,Z0)の変化を用いて仮想空間内におけるカーソルの移動方向と移動量を算出する。例えば現時刻tの重心座標(X0,Y0,Z0)t と一時刻前の重心座標(X0,Y0,Z0)t-1 との差分ベクトルの方向と大きさをカーソルの移動方向と移動量とする。
【0088】
形状判定手段45eはカーソル記憶手段に記憶するカーソルの形状が物体記憶手段に記憶する形状の仮想物体をつかむのに適切な形状か否か(カーソルの形状が仮想物体と相互作用を起こすのに適切か否か)を判定する。ここでは物体の形状を表すパラメータαの値が1の時はカーソルの指が開いている状態を適切な状態とする。カーソルの指が開いている状態の判断としては、例えば、図22(a)のカーソルの場合にはdの値がdの最大値dmax と0との中間値よりも大きい場合とし、図22(b)、(c)の場合には各関節角θnがそれぞれの最大値θn maxと0との中間値よりもすべて大きい場合とする。
【0089】
物体の形状を表すパラメータαの値が0の時にはカーソルの指先の間隔が狭い状態を適切な状態とする。カーソルの指先が狭い状態の判断としては、例えば図22(a)のカーソルの場合には、dの値がdの最大値dmax と0との中間値よりも小さい場合とし、図22(b),(c)の場合には各関節角θnがそれぞれの最大値θn max と0との中間値よりもすべて小さい場合とする。なお、形状の判定法としては、仮想空間においてカーソルが仮想物体を接触する状態でつかんだ時のカーソル形状を表すパラメータ(dあるいはθn)を予め記憶しておき、それぞれのパラメータの値が±30%の範囲で一致すれば つかむ 動作に適切であると判断することなどもできる。
【0090】
視線入力手段46は操作者の視線を検出し、表示手段44が表示する画面上で操作者が注視する座標(注視点の座標)を算出する。視線の検出手段としてはCCDカメラや光センサー等を用いて操作者の瞳の向きを検出する方法などを用い、操作者の頭部の位置をカメラなどを用いて計測することにより前記画面上の注視点を算出する。
【0091】
学習手段45fは総合判定手段45cがカーソルが仮想物体をつかんだと判断したときのカーソルの形状を表すパラメータ(dまたはθn)とつかんだ仮想物体の形状を表すパラメータαおよび前記カーソルの位置と前記仮想物体の位置との相対的な位置関係(カーソルの重心と仮想物体の重心とを結ぶベクトル)を記憶し、現在の仮想物体の形状を表すパラメータと周囲の仮想物体の形状を表すパラメータおよび現在のカーソルの重心と周囲の仮想物体の重心との位置関係が、過去に物体をつかんだ場合に近い場合(例えば、各パラメータおよび位置関係を表すベクトルの各次元の要素の値が過去の値と±30%の範囲で一致する場合等)には過去の状況と類似していると判断し1を出力し、その他の場合には0を出力する。なお、他の学習手段として過去に物体をつかんだ場合のカーソルの形状を表すパラメータとつかんだ仮想物体の形状を表すパラメータαおよび前記カーソルの位置と前記仮想物体の位置との相対的な位置関係をニューラルネットワークなどを用いて学習してもよい。また、学習する項目として視線検出手段46で検出した画面上での注視点座標とカーソルの表示画面上での座標との位置関係などとを含めて学習することもできる。
【0092】
座標変換手段45gは物体をつかんだ場合(相互作用を起こした場合)に、距離計算手段が距離計算に用いる座標を仮想空間内でのカーソルと対象となる仮想物体との距離が近づくように座標変換する。例えば、カーソルが仮想物体をつかんだときのそれぞれの座標が(100、150、20)と(105、145、50)の場合、座標変換手段は各座標軸の内、差のもっとも大きいZ座標について(1)式のように変換を行う。
【0093】
Z’=0.8×z ・・・・・ (1)
ここで、zは座標変換手段が入力とするカーソル及び仮想物体の重心のZ座標、Z’は座標変換手段の出力するZ座標を示す。
【0094】
この場合X座標の値およびY座標の値は変更しない。また、カーソル記憶手段と物体記憶手段に記憶する値は変更しないため、表示手段が表示する画面は変化しない。上記のような変換を行うことで、仮想空間内での距離が離れている場合にでも操作者がつかむ動作を行えば、それ以後は距離計算を行う場合のカーソルと仮想物体間の距離が小さくなり、距離計算手段が操作者の知覚する距離感覚に近い距離を計算することが可能となる。
【0095】
総合判定手段45cは距離計算手段45aの出力するカーソルと仮想物体間との距離が予め定めた基準以下の場合、動作認識手段45bが予め登録した”つかむ”という動作を認識した場合に、”つかむ”という相互作用が発生したと判定し、以後”つかむ”相互作用が終了するまで物体記憶手段43に記憶するつかんでいる仮想物体の重心座標の値をカーソルの重心座標に一致させる。ここで、予め定める前記基準値は実際にカーソルと物体が仮想空間内で接触できる距離よりも大きい値でもよい。例えば図25(図24の配置)の場合、仮想物体とカーソルとの距離が前記距離の基準値以下であれば、操作者がつかむ動作を入力手段1に指示し、動作認識手段45bがつかむ動作を認識すれば仮想物体をつかんで移動することが可能となる。
【0096】
また、総合判定手段45cは前記距離の基準以下に複数の仮想物体が存在する場合、図29(b)に示すようにカーソルと仮想物体とを結ぶ線分(波線)と移動ベクトル算出手段45dが算出するカーソルの移動方向(矢印)とのなす角度がある基準(例えば90度)以下の物体をのみを対象とし、操作者の操作においてカーソルの移動方向を考慮した相互作用の判定が可能となる(図では3物体中最も上部に位置するものを選択する)。
【0097】
また、カーソルの移動距離については、移動距離が予め定めた移動距離基準よりも大きい場合には、相互作用を起こさない。これにより、単にカーソルを移動している場合に操作者が意図しない相互作用を起こさないことが可能となる。
【0098】
また、図29(c)に示すように、複数の仮想物体が前記基準を満たしている場合、視線入力手段46が検出する注視点の位置に近い仮想物体を総合判定手段45cが”つかむ”対象とする(図では注視点を意味する”+”印に近い左側の物体を選択する)。これにより、操作者の視線を用いて容易に対象を選択することが可能となる。
【0099】
また、図29(d)に示すように画面上で近接した物体が存在する場合、形状判定手段45eが判定したカーソルの形状に一致する仮想物体を総合判定手段45cが”つかむ”対象とする(図ではカーソルの指の間隔が狭い為、”つかむ”動作の対象として平面体が適切と判断し、平面体を選択する)。これにより、操作者の意図する仮想物体をカーソルの形状によって選択することが可能となり、操作者が仮想物体をつかむ場合に連想しやすいカーソル形状を対応づけることで操作が容易となる。
【0100】
また、学習手段45fが過去に物体をつかんだ場合と類似していると判断した仮想物体を総合判定手段45cが優先的に選択する。これにより操作者が過去に行った操作に近い判断を再現し、操作性を向上することが可能となる。
【0101】
このように本実施例は、仮想空間において操作者が操作するカーソルと仮想空間内の仮想物体との相互作用の発生の有無を、カーソルと仮想物体との距離のみで決定するのではなく、操作者の操作における動作や視線、あるいは過去の事例に基づいて決定することにより、仮想空間内におけるカーソルを用いた仮想物体との相互作用を行うインターフェイスにおいて操作性を向上させることが可能である。
【0102】
尚、本実施例では相互作用としてカーソルを用いて仮想物体をつかむ動作を用いて説明したが、他に仮想物体に対する指示(ポインティング)や衝突、摩擦、打撃、遠隔操作等の動作についても同様な扱いが可能である。また、仮想空間が2次元空間の場合や、表示手段が3次元立体表示ディスプレイなどを用いた場合にも同様の効果が得られる。また、実現手段としてはハードウェアを用いても、コンピュータ上のソフトウェアを用いて実現してもよい。
【0103】
以上のように本実施例は、仮想空間において操作者が操作するカーソルと仮想空間内の仮想物体との相互作用の発生の有無を、仮想空間内の前記カーソルと前記仮想物体とを構成要素間の距離のみによって決定するのではなく、距離計算手段が算出する代表点間の距離および動作認識手段が認識するカーソルの動作によって総合判定手段が相互作用の発生の有無を判定することにより、必ずしも仮想空間内での距離が近接していない対象物に対しても相互作用を起こすことが可能となり、操作性の良い入出力インターフェイスを提供することが可能となる。また、従来の接触判定法のように仮想空間内の前記カーソルと前記仮想物体とを構成要素間の距離をすべて計算する必要がないため計算量を軽減し、処理の高速化を図ることが可能となる。
【0104】
【発明の効果】
以上のように本発明は、操作者の手の形状あるいは又その動きを認識し、認識された手の形状の特徴を特殊形状として画面にカーソル表示することにより、画面内に表示された情報を、手の形状や動きにより画面に表示された情報を容易に操作性良く制御できるものである。
【0105】
さらに、手の形状の特徴を特殊形状として画面に表示してカーソル表示すると共に、そのカーソル表示以外の表示物との関連を操作者の意図に沿った相互作用の判定が逐次自動的になされることにより、表示物を指示したり、掴んだりする操作の操作性がさらに向上したインターフェイスが実現できるものである。
【図面の簡単な説明】
【図1】本発明の第1の実施例によるインターフェイス装置の外観図
【図2】本発明の第1の実施例によるインターフェイス装置の詳細ブロック図
【図3】 (a)〜(c) 同インターフェイス装置によって判断する手の形状の例を示す図
【図4】同実施例によるインターフェイス装置の形状識別手段の詳細例を示す図
【図5】同実施例の画像差演算部による演算の一例を示す図
【図6】 (a)〜(d) 同実施例のアイコン生成部が生成するアイコンの例を示す図
【図7】 (a)〜(c) 同実施例によるインターフェイス装置の動作例を示す外観図
【図8】本発明の第2の実施例によるインターフェイス装置の外観図
【図9】本発明の第2の実施例によるインターフェイス装置の詳細ブロック図
【図10】 (a),(b) 同インターフェイス装置によって判断する手の形状の例を示す図
【図11】同実施例のインターフェイス装置の動作認識部の詳細実施例を示す図
【図12】同実施例の画像差演算部による演算の一例を示す図
【図13】 (a)〜(d) 同実施例のアイコン生成部が生成するアイコンの例を示す図
【図14】本発明の第3の実施例によるインターフェイス装置の詳細ブロック図
【図15】本発明による第3の実施例のインターフェイス装置の動作認識部を示す図
【図16】 (a)〜(d) 同実施例によるインターフェイス装置によって表示画面上に表示するアイコンの例を示す図
【図17】 (a)〜(f) 同実施例によるインターフェイス装置の動作認識部の動作を示す図
【図18】 (a)〜(f) 同実施例によるインターフェイス装置の動作認識部の動作を示す図
【図19】同実施例によるインターフェイス装置の動作認識部の動作を示す図
【図20】同実施例によるインターフェイス装置の動作認識部の動作を示す図
【図21】本発明の第4の実施例におけるインターフェイス装置を示すブロック図
【図22】 (a) 同実施例のインターフェイス装置に用いるカーソルの一例においてカーソルが開いた状態を示す図
(b) 同閉じた状態を示す図
(c) 同実施例のインターフェイス装置に用いるカーソルの他の例においてカーソルが開いた状態を示す図
(d) 同閉じた状態を示す図
(e) 同実施例のインターフェイス装置に用いるカーソルのさらに他の例においてカーソルが開いた状態を示す図
(f) 同閉じた状態を示す図
【図23】 (a) 同実施例のインターフェイス装置に用いる仮想物体の一例の形を示す図
(b) 同仮想物体の他の例の形を示す図
【図24】 (a) 仮想空間のカーソルと仮想物体の配置を示す正面図
(b) 仮想空間のカーソルと仮想物体の配置を示す側面図
【図25】同実施例を説明するための仮想空間の表示例を示す図
【図26】同実施例のインターフェイス装置の一例を示すブロック図
【図27】 (a) 同実施例のインターフェイス装置に用いる入力手段における入力装置の一例を示す図
(b) 同実施例のインターフェイス装置に用いる入力手段における入力装置の他の例を示す図
(c) 同実施例のインターフェイス装置に用いる入力手段における入力装置のさらに他の例を示す図
【図28】 (a) 同実施例のカメラを用いて手を撮像した画像の一例を示す図
(b) 同実施例のカメラを用いて手を撮像した画像を二値化した一例を示す図
【図29】 (a) 本実施例のインターフェイス装置に用いる表示手段が表示する画面の一例を示す図
(b) 同表示画面の第二の例を示す図
(c) 同表示画面の第三の例を示す図
(d) 同表示画面の第四の例を示す図
【図30】従来のインターフェイス装置を示す図
【符号の説明】
1 ホストコンピュータ
2 ディスプレイ
3 CCDカメラ
21 フレームメモリ
22 形状識別手段
23 表示制御部
24 アイコン生成部
25 基準画像メモリ
26 基準画像更新部
31 フレームメモリ
32 動作認識部
33 表示制御部
34 アイコン生成部
41 入力手段
42 カーソル記憶手段
43 物体記憶手段
44 表示手段
45 相互作用判定手段
45a 距離計算手段
45b 動作認識手段
45c 総合判定手段
45d 移動ベクトル算出手段
45e 形状判定手段
45f 学習手段
45g 座標変換手段
200 アイコン
201,202 メニュー
203 アイコン
204,205,206 仮想スイッチ
221 画像差演算部
222 輪郭抽出部
223 形状識別部
224 位置検出部
225 形状変化識別部
231 座標変換部
232 座標反転部
261 タイマ
262 画像更新部
321 輪郭抽出部
322 輪郭波形演算部
324 座標テーブル
331 座標変換部
332 座標反転部
3231 形状フィルタ1
3232 形状フィルタ2
3251 微分器
3252 微分器
3261 座標演算部
3262 形状判定部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an interface device that performs input / output of information devices such as computers and word processors, and devices having a display such as a television.
[0002]
[Prior art]
As a conventional interface device of this kind, the coordinate position detected by the mouse on the display screen can be used to add other information to the information in the display device, to change the display information, or to make a selection. Some things are done by displaying a cursor.
[0003]
FIG. 30 shows an outline of this type of conventional interface device. In FIG. 30, 501 is a host computer, 502 is a display, and virtual operation buttons 503, 504, and 505 are displayed on the display 502 by the host computer 501. Reference numeral 506 denotes a mouse cursor, which is controlled by the host computer 501 so as to move in the screen in synchronization with the movement of the mouse 507 based on the movement amount of the mouse 507 detected by the mouse 507. The user moves the mouse 507 to move the mouse cursor 506 to the position of an arbitrary virtual operation button on the display screen, and presses the switch 508 on the mouse 507 to select the operation button. The operation instruction can be given to.
[0004]
[Problems to be solved by the invention]
However, the above-described conventional configuration requires an input device called a mouse separately from the main body of the device, and requires a base such as a table for operating the mouse, and is not suitable for use in a portable information device or the like. In addition, since the operation is performed through the mouse, the interface is not always direct and easy to understand.
[0005]
In view of this point, the present invention is intended to provide an interface device that does not require an input device such as a keyboard and a mouse, can be easily operated, and has better operability and is easy to understand. Is.
[0006]
[Means for Solving the Problems]
    The present invention provides an operator's hand shape,The hand shape continues for a predetermined timeRecognizing means for recognizing hand movements, and hand shape features recognized by the recognizing meansSelectable byDisplay menu in imageThen, the hand shape feature recognized by the recognition means is displayed on the image as an icon representing a number.A display means to display and a menu displayed on the image based on a hand shape feature recognized by the recognition means are selected, and control is performed based on a predetermined hand movement recognized by the recognition means after selection of the menu. Interface having control means for giving instructionsIDevice.
[0007]
  Preferably, saidThe recognition means recognizes the number of fingers of the hand, the display means displays the number of fingers on the image, and the control means selects a menu based on the number of fingers of the hand recognized by the recognition means.
[0008]
  Preferably, the display meansDisplays an icon representing a number and highlights a part of the menu corresponding to the number based on the number of fingers of the hand recognized by the recognition means.indicate.
[0009]
    The shape of the operator's handWhenRecognizing means for recognizing a predetermined hand movement, and hand shape features recognized by the recognizing meansSelectable byDisplay the menu on the screenRuDisplay means;An icon generation unit that generates an icon corresponding to the recognition result of the hand shape by the recognition unit; and the icon generated by the icon generation unit is displayed on the screen,Based on the predetermined hand movement recognized by the recognition means,Move the icon on the image and select a menuInterface with control meansIDevice.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
In the first embodiment of the present invention, a recognition unit such as an imaging device for recognizing the shape of an operator's hand, and features of the shape of the hand recognized by the recognition unit are displayed on a screen as a special shape using an icon or the like. Display means for displaying, and control means for controlling the information displayed in the screen by changing the shape of the hand by operating a special shape such as an icon displayed on the screen by the display means as a so-called cursor. It is an interface device.
[0013]
(Second Embodiment)
The second embodiment of the present invention displays at least an imaging unit, a motion recognition unit that recognizes the shape and / or motion of an object in the captured image, and the shape and / or motion of the object recognized by the motion recognition unit. A frame memory configured to store an image captured by the imaging unit, and a reference image memory for storing an image captured at a time before the image stored in the frame memory as a reference image. The motion recognition unit is an interface device provided with an image change extraction unit that extracts a difference between an image in the frame memory and a reference image stored in the reference image memory.
[0014]
(Third embodiment)
The third embodiment of the present invention includes at least an imaging unit, a motion recognition unit that recognizes the shape and / or movement of the user's hand in the captured image, and the user's hand recognized by the motion recognition unit. A contour extracting means for extracting a contour of a user who has captured the shape and / or movement, tracking the extracted contour, and the relationship between the angle of the contour and the length of the contour, that is, the contour An interface apparatus comprising the contour recognition unit configured to calculate a waveform, and a shape filter that filters the contour waveform calculated by the contour waveform calculator and generates a shape waveform representing a predetermined shape. It is.
[0015]
When the user faces the imaging unit of the interface device configured as described above and gives an instruction by, for example, a hand gesture, the imaging unit captures an image of the user. The contour extracting means extracts the contour of the user's image, and the contour is calculated by the contour waveform calculation unit with the angle of the contour line with respect to the horizontal line, with the length of the contour line starting from the reference point on the contour as the horizontal axis, That is, it is converted as a contour waveform. This contour waveform is converted into a shape waveform representing the uneven shape of the finger by a bandpass filter of a predetermined band, for example, a shape filter configured by a bandpass filter corresponding to the unevenness of the finger, and simultaneously calculates the position where the hand is located. By simply counting the number of pulses present in this shape waveform, the number of fingers that have been put out, that is, the shape of the hand can be determined accurately. Based on the position and shape of the hand, the given hand gesture is displayed on the display screen of the display unit.For example, the virtual switch displayed on the display screen can be selected by hand gesture, and an input device such as a mouse is required. Therefore, it is possible to operate a very simple device.
[0016]
In addition, a plurality of shape filters may be configured by a plurality of band pass filters having different bands, and the user's operation may be determined based on the shape waveforms generated by the plurality of shape filters. Thereby, a plurality of shapes can be recognized.
[0017]
In addition, a plurality of shape filters may be configured by a bandpass filter having a contour waveform shape corresponding to at least unevenness of the hand and a bandpass filter having a contour waveform shape corresponding to the unevenness of the finger. As a result, the waveform is converted into a smooth shape waveform that reflects only the unevenness of the hand portion, and is converted into a shape waveform that reflects only the unevenness of the finger.
[0018]
Further, a coordinate table for storing the correspondence between the coordinates of the contour shape of the imaged user and the contour waveform calculated by the contour waveform calculation unit is provided, and the captured image is obtained using the wave height existing position of the shape waveform and the coordinate table. The motion recognition unit may be configured by providing a coordinate calculation unit that calculates coordinates in which a predetermined shape exists. Thereby, the coordinates of the contour shape are calculated, and the coordinates are output.
[0019]
In addition, a shape determination unit that counts the number of pulses in the shape waveform generated by the shape filter may be provided to configure the motion recognition unit, and the shape of the object may be determined based on the output value of the shape determination unit. This makes it easy to determine whether the shape is a two-finger shape or a hand-held shape based on the number of pulses.
[0020]
Further, the action recognition unit may be configured by providing a differentiator that differentiates the shape waveform generated by the shape filter. By differentiation, the waveform becomes more pulsed and the number of pulses can be easily counted.
[0021]
(Fourth embodiment)
In the previous embodiments, an example of performing an operation on a secondary screen displayed on a display screen has been described. However, the present embodiment relates to an operation when virtual three-dimensional images are displayed on a two-dimensional display screen. Is. In general, assuming an operation in which a virtual object in a virtual space is grasped using a cursor in a displayed virtual three-dimensional space, the configuration is as follows.
[0022]
In FIG. 21, A1 is an input device, A2 is a cursor coordinate storage unit, A3 is an object coordinate storage unit, A4 is a display device, and A5 is a contact determination unit. FIG. 22 shows a two-fingered manipulator-shaped cursor that can be displayed from the shape of the operator's hand, as in the embodiment described above. 22 (a), (c) and (e) show a state where the finger is opened, and FIGS. 22 (b), (d) and (f) show a state where the finger is closed. FIG. 23 shows an example of a virtual object in the virtual space. Here, it is assumed that the operator uses a two-finger cursor to grab a virtual object in the virtual three-dimensional space. 24A and 24B show the arrangement of the cursor and the virtual object in the virtual space when the virtual object is grabbed using the cursor. FIG. 25 shows the display of the display device A4.
[0023]
When the operator's operation is given to the input unit A1, the cursor coordinates stored in the cursor coordinate storage unit A2 and the interval between the two fingers of the cursor are updated based on the operation. The display device A4 draws a virtual space including the cursor and the virtual object using the information stored in the cursor coordinate storage unit A2 and the position information of the virtual object stored in the object coordinate storage unit A3. Here, the contact determination unit A5 uses the information stored in the cursor coordinate storage unit A2 and the position information of the virtual object stored in the object coordinate storage unit A3 to calculate whether the cursor and the virtual object are in contact with each other in the virtual space. To do. Specifically, the distance in the virtual space between a plurality of surfaces constituting the cursor and the virtual object is calculated for each surface, and if the virtual object touches between the two fingers of the cursor, the cursor is It is determined that the virtual object is grabbed, and thereafter the coordinates of the object are changed according to the movement of the cursor.
[0024]
However, in such a method, in the case of the arrangement as shown in FIGS. 24A and 24B, the display by the display device is as shown in FIG. 25, and the positions of the cursor and the virtual object do not completely match in the virtual space. Even in this case, the operator may erroneously determine that the coordinates match. Further, even when a three-dimensional display device is used or a display such as those shown in FIGS. 24A and 24B, a smooth operation becomes difficult due to the difference in distance sense between the real space and the virtual space.
[0025]
As described above, the cursor and the virtual space are different depending on the difference between the sense of distance in the virtual space that is the display space and the sense of distance in the real space, and the difference between the cursor movement intended by the operator and the actual cursor movement. In an interaction with a virtual object (for example, when a virtual object is grabbed by a virtual manipulator), an interaction according to the intention of the operator (grabbing the virtual object in the above example) cannot be realized smoothly.
[0026]
In the present embodiment, the operator can perform cursor control with good operability in a virtual space with non-contact by hand gestures, etc., and whether or not an interaction with a virtual object in the virtual space has occurred Rather than being determined only by the distance between the components of the object (or the surface if the virtual space is three-dimensional), the interaction determining means does not necessarily interact with objects that are not close to each other in the virtual space. By causing the action, the determination as to whether the cursor interacts with the virtual object can be made closer to the intention of the operator, and the operability of the interface can be further improved. Furthermore, it is possible to cause an interaction even with an object that is not necessarily close in the virtual space.
[0027]
The first configuration of the present embodiment stores display means, input means for changing the position and shape of the cursor displayed on the display means, representative point coordinates representing the cursor position, and the shape of the cursor. Cursor storage means, object point storage means for storing representative point coordinates representing the position of a display object other than the cursor and the shape of the display object, cursor position and shape stored in the cursor storage means, and the object storage And means for determining an interaction between the cursor and the display object using the position and shape of the display object stored in the means, the interaction determination means comprising at least one point of the Distance calculating means for calculating a distance between a representative point of the cursor and at least one representative point of the display object; and a movement of the cursor or a change in shape is recognized. And an overall determination means for determining an interaction between the cursor and the display object using a distance calculated by the distance calculation means and a recognition result of the motion recognition means. Device.
[0028]
With this configuration, whether or not an interaction between the cursor operated by the operator in the virtual space and the virtual object in the virtual space has occurred is determined based on the components of the cursor and the virtual object in the virtual space (the virtual space is a three-dimensional In this case, the overall determination means determines whether or not an interaction has occurred, based on the distance between the representative points calculated by the distance calculation means and the movement of the cursor recognized by the action recognition means. Thus, it is possible to cause an interaction even with an object that is not necessarily close in the virtual space.
[0029]
In the first configuration, when the motion recognition unit recognizes a motion registered in advance, the interaction determination unit generates an interaction with a display object whose distance calculated by the distance calculation unit is equal to or less than a predetermined reference. A second configuration may be adopted.
[0030]
Further, in the first and second configurations, a movement vector calculation unit that calculates the movement direction and movement amount of the cursor in the display space is provided to constitute an interaction determination unit, and the cursor direction calculated by the movement direction calculation unit is configured. A third configuration may be adopted in which the interaction determining means determines the interaction between the cursor and the display object based on the moving direction and the moving amount of the cursor.
[0031]
Further, in the third configuration, a fourth configuration may be employed in which the interaction determination unit generates an interaction when the amount of movement of the cursor calculated by the movement vector calculation unit is equal to or less than a predetermined reference value.
[0032]
Further, in the third and fourth configurations, as a fifth configuration in which the interaction determining unit generates an interaction with respect to a display object existing in the vicinity of the extension line in the movement direction of the cursor calculated by the movement vector calculating unit. Good.
[0033]
Further, in the first to fifth configurations, a sixth configuration may be employed in which the interaction determination unit generates an interaction when the cursor shape and the display object shape are registered in advance.
[0034]
Further, in the first to sixth configurations, a shape determining means for recognizing the cursor shape and the shape of the display object is provided to constitute an interaction determining means, and the shape of the cursor recognized by the shape recognition means and the shape of the display object It is good also as a 7th structure in which an interaction determination means produces | generates an interaction about the case where and match.
[0035]
Further, in the first to seventh configurations, a line-of-sight input means for detecting a line-of-sight direction is provided, and the movement recognition means recognizes an action registered in advance for a display object in the vicinity of the extension of the line of sight detected by the line-of-sight input means In this case, the interaction determination means may be an eighth configuration for generating the interaction.
[0036]
Further, in the eighth configuration, when a cursor is present near the extension line of the line of sight detected by the line-of-sight extension detected by the line-of-sight input unit, and the motion recognition unit recognizes a motion registered in advance In addition, the interaction determination unit may have a ninth configuration that generates an interaction.
[0037]
In the first to ninth configurations, when an interaction is generated, a learning means is provided for learning the positional relationship between the cursor and the target display object, the shape of the cursor, and the shape of the display object. A tenth configuration may be adopted in which the action determination means determines the interaction based on the learning result of the learning means.
[0038]
Further, in the tenth configuration, when the positional relationship between the cursor and the target display object or the shape of the cursor and the shape of the display object are similar to the positional relationship or the shape learned in the past by the learning means, the interaction is performed. The eleventh configuration in which the determination means generates an interaction may be adopted.
[0039]
Further, in the first to eleventh configurations, as a twelfth configuration in which an interaction determining unit is configured by providing a coordinate converting unit that performs coordinate conversion on the input from the cursor storage unit and the object storage unit to the distance calculating unit. Good.
[0040]
Further, in the twelfth configuration, when an interaction is generated, a thirteenth configuration may be employed in which coordinate conversion is performed so that the positional relationship between the cursor and the target display object approaches.
[0041]
(First embodiment)
FIG. 1 shows the appearance of a first embodiment of an interface device according to the present invention. In FIG. 1, 1 is a host computer, 2 is a display used for display, and 3 is a CCD camera for capturing an image. The CCD camera 3 has an imaging surface arranged in the same direction as the display direction of the display 2, and the user's hand shape can be imaged when the user faces the display surface. On the display 2, menus 201, 202 and an icon 200 for displaying the hand shape can be displayed.
[0042]
FIG. 2 shows a detailed block diagram of this embodiment. An image input from the CCD camera 3 is stored in the frame memory 21. The reference image memory 25 stores a background image that does not include a person imaged in advance as a reference image. The reference image can be updated as needed.
[0043]
The shape identifying means 22 removes the background image from the image by extracting the difference between the image stored in the frame memory 21 and the image stored in the reference image memory 25, and corresponds to the user's hand, for example. The part is extracted, and the shape is, for example, the shape of a single finger as shown in FIG. 3 (a), the shape of a two finger as shown in FIG. 3 (b), or otherwise It is determined whether this is the case of FIG.
[0044]
FIG. 4 shows a detailed embodiment of the shape discriminating means 22 and shows an example constituted by the image difference calculating unit 221, the contour extracting unit 222, and the shape discriminating unit 223. As described above, the image difference calculation unit 221 calculates the difference between the image stored in the frame memory and the image stored in the reference image memory. Thereby, an object to be extracted, for example, a user and a background portion can be separated. For example, when the image difference calculation unit 221 is configured by a simple subtraction circuit, only the hand portion of the user in the image in the frame memory can be extracted as shown in FIG. The contour extracting unit 222 extracts the contour shape of the object existing in the image obtained as a result of the calculation by the image difference calculating unit 221. As a specific method example, a contour shape can be easily extracted by extracting an edge of an image.
[0045]
The shape identifying unit 223 identifies in detail the contour shape of the hand extracted by the contour extracting unit 222. For example, whether the shape is a one-finger shape as shown in FIG. It is determined whether the shape is two fingers as shown in (b). As a shape identification method, for example, template matching, a matching method with a shape model, a neural network, or the like can be used.
[0046]
The icon generation unit 24 generates an icon image as a special shape to be displayed on the display based on the result of the hand shape identification by the shape identification unit 223. For example, if the identification result of the hand shape is a one-finger shape, for example, the number “1” icon as shown in FIG. 6A is generated. An icon of the number “2” as shown in 6 (b) is generated. As the icon shape, if the identification result of the hand shape is a one-finger shape, a one-finger type icon as shown in FIG. A two-finger icon as shown in (d) may be generated. The display control unit 23 controls the display based on the hand shape identification result by the shape identification unit 223. For example, the icon based on the identification result is displayed, and a menu previously associated with the identification result is highlighted based on the hand shape identification result.
[0047]
An operation example according to this embodiment configured as described above will be described below. As shown in FIG. 7 (a), when the user faces a device equipped with the interface device of the present embodiment and the hand is in the shape of one finger, the number “1” icon is displayed on the display, The first menu, the television display, is highlighted. At this time, it is possible to further alert the operator by outputting sound or voice from the display device in accordance with the highlighting. Here, when the hand is formed into a two-finger shape as shown in FIG. 7B, the number “2” icon is displayed on the display and the display of the network as the second menu is highlighted. . In this state, for example, by maintaining the same hand shape for a certain period of time, the second menu is selected, and a command can be given to the host computer to display the network terminal. Audio may be used in combination for menu selection. In cases other than a predetermined hand shape as shown in FIG. 7C, icons and menus are not displayed on the display, and no command is sent to the host computer.
[0048]
As described above, according to the present embodiment, it is possible to identify the shape of the hand in the captured image, and to control devices such as a computer according to the identification result, without using devices such as a keyboard and a mouse. It is possible to operate remotely without contact. Further, by reflecting the result of identifying the shape of the hand on the screen, the user can perform an operation while confirming the identification result, and an easy-to-use and reliable operation is possible.
[0049]
In the present embodiment, an example of simple application to menu selection is shown. However, according to the shape of the hand, the icon display can be displayed in advance by setting the icon display to replace the picture or text. Needless to say, writing control is also easy.
[0050]
(Second embodiment)
FIG. 8 shows the external appearance of a second embodiment of the interface device according to the present invention. In FIG. 8, components having the same functions as those in the first embodiment are represented by the same numerical values. That is, 1 is a host computer, 2 is a display used for display, and 3 is a CCD camera for capturing an image. The CCD camera 3 has an imaging surface arranged in the same direction as the display direction of the display 2, and the user's hand gesture can be imaged when the user faces the display surface. On the display surface of the display 2, virtual switches 204, 205, 206, and an arrow cursor icon 203 for selecting the virtual switch can be displayed.
[0051]
FIG. 9 shows a block diagram of a detailed configuration of the present embodiment. An image input from the CCD camera 3 is stored in the frame memory 21. In the reference image memory 25, an image captured in advance is stored as a reference image. The reference image update unit 26 includes a timer 261 and an image update unit 262.The reference image update unit 26 transfers the latest image stored in the frame memory 21 to the reference image memory 25 at a predetermined time interval indicated by the timer 261, and Update the image.
[0052]
The motion recognition unit 22 removes the background image from the image by extracting the difference between the image stored in the frame memory and the image stored in the reference image memory, and for example, removes the portion corresponding to the user's hand. It is extracted, and it is determined whether the shape is, for example, the shape of a single finger as shown in FIG. 10A or the shape of a fist as shown in FIG.
[0053]
FIG. 11 shows the details of the motion recognition unit 22 and shows an example constituted by the image difference calculation unit 221, the contour extraction unit 222, the shape change identification unit 225, and the position detection unit 224.
[0054]
The image difference calculation unit 221 calculates the difference between the image stored in the frame memory 21 and the image stored in the reference image memory 25 as described above. As a result, an object to be extracted as a motion, for example, a user's hand portion and a background portion can be separated, and at the same time, only a moving object image can be extracted. For example, when the image difference calculation unit 221 is configured by a simple subtraction circuit, only the hand portion in the reference image and the hand portion in the latest image in the frame memory are extracted as shown in FIG. It is possible to identify only the part of the moving hand. The contour extraction unit 222 extracts an object existing in the image obtained as a result of the calculation by the image difference calculation unit 221, that is, the contour shape of the hand part before and after the movement. As a specific method example, a contour shape can be easily extracted by extracting an edge of an image.
[0055]
The shape change identification unit 225 identifies in detail the contour shape of the hand part after movement extracted by the contour extraction unit 222. For example, the shape is the shape of a single finger as shown in FIG. And whether the shape of the fist is as shown in FIG. 10 (b). At the same time, the position detection unit 224 calculates the barycentric coordinates of the contour shape of the user's hand after the movement.
[0056]
The icon generation unit 24 generates an icon image to be displayed on the display based on the result of the hand shape identification by the shape change identification unit 225. As an example of the icon image, for example, if the identification result of the hand shape is the shape of one finger, an arrow icon as shown in FIG. 13A is generated. An icon with an X mark as shown in FIG. 13B is generated. If the identification result of the hand shape is a two-finger shape, for example, an icon having a shape imitating a two-finger shape as shown in FIG. 13C is generated. For example, an icon having a shape imitating the shape of a fist as shown in FIG. 13D may be generated.
[0057]
The display control unit 23 controls the display position of the icon generated by the icon generation unit 24 on the display 2 and includes a coordinate conversion unit 231 and a coordinate inversion unit 232. The coordinate conversion unit 231 converts the coordinates of the captured image into the display coordinates of the display 2, and the coordinate inversion unit 232 inverts the left and right positions of the converted display coordinates.
[0058]
That is, the coordinates of the center of gravity in the image corresponding to the user's hand detected by the position detection unit 224 are converted into the display coordinates of the display 2, and the left and right coordinates are inverted to display icons on the display 2. It is. As a result of this operation, if the user moves his hand to the right, the icon moves to the right on the display screen in the same manner as when this action is reflected in the mirror.
[0059]
An operation example according to this embodiment configured as described above will be described below. As shown in FIG. 8, when the user faces a device equipped with the interface device according to the present embodiment and moves the hand in the shape of a single finger, the arrow cursor displayed on the display is an arbitrary one corresponding to the movement of the hand. Move to the position. Next, by moving the hand over any of the virtual switches 204, 205, 206 displayed on the display 2, the arrow cursor is moved, and when the hand is gripped and formed into a fist shape, the virtual switch 204, 205, 206 is selected and commanded to the host computer 1. Can be given.
[0060]
In this embodiment, the configuration and the movement of the object in the captured image are recognized. However, it goes without saying that either the configuration or the movement of the object in the captured image may be recognized.
[0061]
As described above, according to the present embodiment, the motion recognition unit that recognizes the shape and / or motion of an object in the captured image, the display unit that displays the shape and / or motion of the object recognized by the motion recognition unit, and the imaging A frame memory for storing an image captured by the image capturing unit, and a reference image memory for storing an image captured at a time before the image stored in the frame memory as a reference image. By extracting the difference between the image and the reference image stored in the reference image memory, when the user turns to the imaging unit and gives an instruction by hand gesture, for example, the given hand gesture is displayed on the display screen. A virtual switch or the like displayed on the display screen can be selected by hand gesture, and an input device such as a mouse is not required, and a very simple device operation is possible.
[0062]
(Third embodiment)
The external appearance of the third embodiment of the interface device according to the present invention is the same as that of the second embodiment shown in FIG. 8. The same parts as those of the second embodiment will be described with reference to FIGS. Only the different parts are shown in FIG.
[0063]
FIG. 14 shows a detailed block diagram of the third embodiment. An image input from the CCD camera 3 is stored in the frame memory 31. The motion recognition unit 32 extracts, for example, a part corresponding to the user's hand from the image stored in the frame memory 31, and the shape thereof is, for example, the shape of a single finger as shown in FIG. It is determined whether the shape of the fist is as shown in FIG.
[0064]
FIG. 15 shows the details of the motion recognition unit 32, and the detailed operations will be described with reference to FIGS. First, the contour extraction unit 321 extracts the contour shape of an object present in the image. As a specific method example, a contour shape can be easily extracted by binarizing an image and extracting its edges. FIG. 17A is an example of the extracted contour line, and the hand portion indicates the shape of one finger.
[0065]
Next, the contour waveform calculation unit 322 uses the contour shape of the object extracted by the contour extraction unit 321 as shown in FIG. 17A as the starting point s in the figure, and the direction of the arrow in the figure (counterclockwise) As shown in FIG. 19, the angle θ from the horizontal line of the contour line at each point x on the contour line is extracted as a function with respect to the distance l from the start point s, as shown in FIG. The distance l is converted into a waveform shape that is regarded as a time axis, and at the same time, the coordinates of each point on the contour line corresponding to the distance l are stored in the conversion table 324 as a table. The shape filter 1 and the shape filter 2 shown in 3231 and 3232 are filters that pass bands corresponding to the unevenness of the hand portion and the unevenness of the finger portion in the contour waveform shown in FIG.
[0066]
As shown in FIG. 17C, the shape filter 1 converts FIG. 17B into a smooth shape waveform reflecting only the unevenness of the hand portion, and the shape filter 2 converts FIG. 17D. As shown in FIG. 17, the waveform is converted into a shape waveform reflecting only the unevenness of the finger, and differentiated by differentiators 3251 and 3252, respectively, and finally the shape differential waveform shown in FIGS. 17 (e) and 17 (f) is obtained. It is done. The shape determination unit 3262 determines whether the contour shape of the hand portion is a two-finger shape as shown in FIG. 10 (a) or a fist shape as shown in FIG. 10 (b). At the same time, the coordinate calculation unit 3261 calculates the barycentric coordinates of the contour shape of the user's hand. The coordinate calculation unit 3261 obtains the positions lc1 and lc2 where the large pulse waveform exists in the shape differential waveform shown in FIG. 17E, and converts them into the points c1 and c2 shown in FIG. Then, the center of gravity of the hand part is calculated from the contour line of the hand part from the point c1 to the point c2 and output as hand coordinates.
[0067]
In addition, the shape determining unit 3262 counts and outputs the number of pulse waveforms corresponding to the finger portion in the shape differential waveform of FIG. That is, in the case of FIG. 17 (f), since there are two large pulse waveforms corresponding to the finger portion, it is determined that the shape is a two-finger shape as shown in FIG. 10 (a) and output. That is why. Further, as shown in FIG. 18 (a), in the case of a hand-held shape, there is almost no unevenness of the finger part, and the output of the shape filter 2 is a shape without unevenness as shown in FIG. 18 (c). Therefore, the output of the differentiator 3262 also becomes a shape differential waveform with no pulse waveform as shown in FIG. 18 (d), the pulse waveform count becomes 0, and the gripping fist as shown in FIG. 10 (b). Therefore, it can be determined that the shape is the shape and output. As a specific configuration example of the shape determination unit 3262, a simple threshold processing method, a neural network, or the like can be used.
[0068]
The icon generation unit 34 in FIG. 14 generates an icon image to be displayed on the display based on the result of hand shape identification by the shape determination unit 3262 in FIG. For example, if the identification result of the shape of the hand is the shape of a single finger, for example, an arrow icon as shown in FIG. 16A, and if it is the shape of a fist, for example, as shown in FIG. The X icon is generated. The display control unit 33 controls the display position of the icon generated by the icon generation unit 34 on the display, and includes a coordinate conversion unit 331 and a coordinate inversion unit 332. The coordinate conversion unit 331 converts the coordinates of the captured image into the display coordinates of the display, and the coordinate inversion unit 332 inverts the left and right positions of the converted display coordinates. That is, the coordinates of the center of gravity in the image corresponding to the user's hand output by the coordinate calculation unit 3261 in FIG. 15 are converted to the display coordinates of the display, and the icons are displayed on the display by inverting the left and right coordinates. That is why. As a result of this operation, if the user moves his hand to the right, the icon moves to the right in the form of a display screen, similar to the case where this action is reflected in the mirror.
[0069]
An operation example of the present embodiment configured as described above will be described below. As shown in FIG. 8, when the user faces a device equipped with the interface device according to the present embodiment and moves his / her hand in the shape of a single finger, the arrow cursor of the icon 203 displayed on the display 2 indicates the movement of the hand. Move to any position corresponding to. Next, when the arrow cursor is moved by moving the hand over any of the virtual switches 204, 205, and 206 displayed on the display 2, and when the hand is gripped and formed into a fist shape, the virtual switch is selected and a command is sent to the host computer 1. It can be given.
[0070]
Further, as an example of the icon to be displayed, as shown in FIGS. 16C and 16D, if the hand shape itself is converted into an icon, it can correspond to the actual hand movement and is easy to understand. Specifically, images such as those shown in FIGS. 16C and 16D may be registered in advance, or the hand contour shape data extracted by the contour extracting unit may be reduced or enlarged to an arbitrary size. However, it can also be used as an icon image.
[0071]
As described above, in the present embodiment, when the user faces the imaging unit of the interface device and gives an instruction by hand gesture, for example, the imaging unit captures the user image, extracts the contour of the user image, and extracts the reference on the contour. Using the length of the contour line starting from the point as the horizontal axis, the angle of the contour line with respect to the horizontal line, that is, the contour waveform is converted. This contour waveform is converted into a shape waveform representing the uneven shape of the finger by a bandpass filter of a predetermined band, for example, a shape filter configured by a bandpass filter corresponding to the unevenness of the finger, and simultaneously calculates the position where the hand is located. By simply counting the number of pulses present in this shape waveform, the number of fingers that have been put out, that is, the shape of the hand can be determined accurately. Based on the position and shape of the hand, the given hand gesture is displayed on the display screen. For example, the virtual switch displayed on the display screen can be selected by hand gesture, and no input device such as a mouse is required. This makes it possible to easily operate the equipment.
[0072]
(Fourth embodiment)
A fourth embodiment of the present invention will be described with reference to the drawings. FIG. 26 shows a block diagram of a fourth embodiment of the interface apparatus.
[0073]
In FIG. 26, 41 is an input means, 42 is a cursor storage means, 43 is an object storage means, 44 is a display means, 45 is an interaction determination means, 45a is a distance calculation means, 45b is an action recognition means, 45c is a comprehensive determination means. 45d is a movement vector calculation means, 45e is a shape determination means, 45f is a learning means, 45g is a coordinate conversion means, and 46 is a line-of-sight input means.
[0074]
In FIG. 26, the operator operates the input unit 41, and based on the operation result, the cursor storage unit 42 changes and stores the representative point coordinates and shape representing the position of the cursor in the virtual space. The display means 44 is representative point coordinates and shape representative of the position of the cursor stored in the cursor storage means 42 in the virtual space, and representative point coordinates representative of the position of the virtual object stored in the object storage means 43 in the virtual space. The cursor and the virtual object are displayed two-dimensionally or three-dimensionally based on the shape and the shape.
[0075]
The line-of-sight input means 46 detects the position of the operator's line of sight on the display. The distance calculation unit 45 a calculates the distance between the cursor and the virtual object in the virtual space based on the coordinates of the representative points stored in the cursor storage unit 42 and the object storage unit 43. The motion recognition unit 45 b recognizes the operation motion based on the contents stored in the cursor storage unit 42 and the object storage unit 43. The movement vector calculation means 45d calculates the movement direction and movement distance of the cursor in the virtual space. The shape determining means 45e determines whether or not the shape of the cursor and the shape of the virtual object are appropriate for causing interaction. The learning means 45f stores the relationship between the position and shape of the cursor and the virtual object when the comprehensive determination means 45c causes an interaction between the cursor and the virtual object, and the current state has caused an interaction in the past. Outputs whether the state is similar.
[0076]
The comprehensive determination unit 45c includes a distance between the cursor and the virtual object output from the distance calculation unit 45a, a recognition result recognized by the motion recognition unit 45b, a movement direction and a movement distance of the cursor calculated by the movement vector calculation unit 45d, Whether the cursor and the virtual object interact based on the degree of similarity between the line-of-sight position detected by the line-of-sight input unit 46, the determination result of the shape determining unit 45e, and the past interaction output by the learning unit 45f It is determined whether or not the representative point coordinates and shape of the cursor and the virtual object are changed according to the result of the interaction. The coordinate conversion means 45g is arranged such that when the interaction determination means 45 causes an interaction, the distance calculation means 45a approaches the coordinates in the virtual space between the cursor used by the distance calculation and the target virtual object in the virtual space. Perform coordinate transformation.
[0077]
22 (a) and 22 (b) show a two-finger manipulator in the first embodiment of the cursor used in the interface device of the present invention. In FIG. 22, (a) shows a state where the finger is opened, and (b) shows a state where the finger is closed. 22 (c) and 22 (d) show a second embodiment of a cursor used in the interface apparatus of the present invention, which has a two-finger / two-joint manipulator shape. In the figure, (c) shows a state where the finger is opened, and (d) shows a state where the finger is closed. FIGS. 22 (e) and 22 (f) show a third embodiment of the cursor used in the interface device of the present invention, which has a five-fingered hand shape. In FIG. 22, (e) shows a state where the hand is opened, and (f) shows a state where the hand is closed. FIGS. 23A and 23B are examples of objects in the virtual space used in the interface device of the present invention ((a) is a cube, and (b) is a plane).
[0078]
The operation of the interface device configured as described above will be described. In this embodiment, it is assumed that the operator moves a cursor as shown in FIG. 22 in a three-dimensional virtual space, and moves by holding a virtual object as shown in FIG. 23 existing in the virtual space. The operator's operation is performed on the input means 41.
[0079]
Here, as an input device for inputting information for changing the position or shape of the cursor for input, means as shown in FIGS. 27A to 27C, command input by a camera, keyboard, voice recognition, or the like, etc. Can be used. FIG. 27A shows a mouse, which is operated by moving the mouse body, clicking a button, and the like. FIG. 27B shows a data glove, which is worn on a person's hand. The cursor is operated by reflecting the joint angle of the finger and the position of the data glove in the real space on the position and shape of the cursor. FIG. 27C shows a joystick that operates a cursor by operating a lever and using the operation button together. When a camera is used, the body or a part of the body (such as a hand) is imaged with the camera, and the shape and position of the hand are read.
[0080]
FIG. 28 shows an embodiment of shape extraction when only the hand is imaged by the camera. FIG. 28A shows an example in which a hand is imaged by a camera. FIG. 28B shows the binarized luminance of each pixel in the image of FIG. In FIG. 28 (b), the degree of opening and closing of the hand can be determined by the ratio of the length of the vertical side and the length of the horizontal side of the rectangle circumscribing the black area, and the barycentric coordinates and area of the entire black pixel can be determined. It is possible to input the position and distance. The input means 41 outputs the operation content (cursor movement amount, cursor shape change amount, etc.) to the cursor storage means 42.
[0081]
The cursor storage means 42 stores the coordinates and shape of the representative point of the cursor stored in the cursor storage means in the virtual space based on the operation content output by the input means 41. As the representative point, the barycentric coordinates (X0, Y0, Z0) of the cursor are used as the representative point.
[0082]
As the representative point, the center coordinates or vertex coordinates of each surface constituting the cursor may be used. As for the shape, in FIG. 22 (a), the distance d between two fingers, and in FIGS. 22 (b) and 22 (c), the internal angle θn of each finger joint (n is the joint number: θn becomes smaller as the joint number is reduced). The storage information). As the shape, the fingertip of each finger or the coordinates of each joint in the virtual space may be used.
[0083]
The object storage means 43 stores the coordinates and shape of the representative point of the virtual object in the virtual space shown in FIG. As a representative point
Center of gravity coordinates of the virtual object (cube: (X1, Y1, Z1), plane: (X2, Y2, Z2))
Is used as a representative point. As the representative points, the center coordinates and vertex coordinates of each surface constituting the virtual object may be used. As a shape, a parameter α representing a predetermined shape is stored as a shape (here, a cube is defined as α = 1 and a plane body is defined as α = 2). As the shape, vertex coordinates or the like may be used.
[0084]
The display unit 44 two-dimensionally displays an image viewed from a viewpoint designated in advance in the virtual space based on the cursor and the position and shape information of the virtual object stored in the cursor storage unit 42 and the object storage unit 43. FIG. 29A shows a display example of the display means. When the operator performs an operation, the display position or shape of the cursor changes, and the operator continues the operation based on the display.
[0085]
Whenever the cursor position changes, the interaction determination means 45 determines whether or not the cursor has grabbed the object (the presence or absence of interaction). Move the coordinates of the object. The distance calculation means 45a includes the center-of-gravity coordinates (X0, Y0, Z0) of the cursor stored in the cursor storage means 42 and the center-of-gravity coordinates (X1, Y1, Z1), (X2, Y2,) of the virtual object stored in the object storage means 43. Z2) is calculated.
[0086]
The action recognition means 45b means recognizes the action of “grabbing” as a previously registered action by using a change in the shape of the cursor. In the case of the cursor in FIG. 22 (a), the state where the distance d between two fingers continues to decrease is recognized as a “grabbing” operation, and in the case of the cursors in FIGS. 22 (b) and 22 (c), the angle θn of all fingers. Is recognized as a “grab” action. As a motion recognition method, time-series pattern recognition methods (table matching, DP matching, Hidden Markov model (HMM), recurrent neural network, etc.) After a specific action is learned in advance using, it may be used as a recognition method.
[0087]
The movement vector calculation means 45d calculates the movement direction and the movement amount of the cursor in the virtual space using the change in the center of gravity coordinates (X0, Y0, Z0) of the cursor. For example, the direction and magnitude of the difference vector between the centroid coordinates (X0, Y0, Z0) t at the current time t and the centroid coordinates (X0, Y0, Z0) t-1 one hour before are expressed as the movement direction and movement amount of the cursor. To do.
[0088]
The shape determining means 45e determines whether or not the cursor shape stored in the cursor storage means is an appropriate shape for grasping the virtual object having the shape stored in the object storage means (appropriate for causing the cursor shape to interact with the virtual object). Whether or not). Here, when the value of the parameter α representing the shape of the object is 1, the state in which the finger of the cursor is open is set to an appropriate state. For example, in the case of the cursor shown in FIG. 22 (a), it is determined that the value of d is larger than the intermediate value between the maximum value dmax and 0 of d in the case of the cursor shown in FIG. In the cases of b) and (c), it is assumed that the joint angles θn are all larger than the intermediate value between the respective maximum values θn max and 0.
[0089]
When the value of the parameter α representing the shape of the object is 0, a state where the distance between the fingertips of the cursor is narrow is set to an appropriate state. For example, in the case of the cursor shown in FIG. 22 (a), it is determined that the value of d is smaller than the intermediate value between the maximum value dmax of d and 0 in the case of the cursor shown in FIG. 22 (b). In the case of (c), the joint angles θn are all smaller than the intermediate values between the maximum values θn max and 0, respectively. As a method for determining the shape, parameters (d or θn) representing the cursor shape when the cursor is in contact with the virtual object in the virtual space are stored in advance, and the value of each parameter is ± 30. It can also be judged that it is appropriate for the movement to grasp if they match within the range of%.
[0090]
The line-of-sight input means 46 detects the line of sight of the operator and calculates the coordinates (gaze point coordinates) that the operator gazes on the screen displayed by the display means 44. As a means for detecting the line of sight, a method of detecting the orientation of the operator's pupil using a CCD camera, an optical sensor, or the like is used, and the position of the operator's head is measured by using the camera or the like. Calculate the gaze point.
[0091]
The learning means 45f includes a parameter (d or θn) indicating the shape of the cursor when the comprehensive determination means 45c determines that the cursor has grasped the virtual object, the parameter α representing the shape of the grasped virtual object, the position of the cursor, Stores the relative positional relationship (the vector connecting the center of gravity of the cursor and the center of gravity of the virtual object) with the position of the virtual object, and the parameter indicating the shape of the current virtual object and the shape of the surrounding virtual objects and the current When the positional relationship between the center of gravity of the cursor and the center of gravity of the surrounding virtual objects is close to the case where the object has been grabbed in the past (for example, the values of the elements of each dimension of the vectors representing the parameters and positional relationships are the past values In the case of matching within a range of ± 30%, etc., it is determined that the situation is similar to the past situation, and 1 is output, and 0 is output in other cases. It should be noted that the parameter representing the shape of the cursor when the object is grasped in the past as another learning means, the parameter α representing the shape of the grasped virtual object, and the relative positional relationship between the position of the cursor and the position of the virtual object May be learned using a neural network or the like. Moreover, it is also possible to learn including items such as the positional relationship between the gaze point coordinates on the screen detected by the line-of-sight detection means 46 and the coordinates of the cursor on the display screen as items to be learned.
[0092]
When the coordinate conversion means 45g grasps an object (when an interaction occurs), the coordinates used by the distance calculation means for the distance calculation are coordinated so that the distance between the cursor in the virtual space and the target virtual object approaches. Convert. For example, when the respective coordinates when the cursor has grasped the virtual object are (100, 150, 20) and (105, 145, 50), the coordinate conversion means uses the Z coordinate having the largest difference among the coordinate axes ( 1) Perform conversion as shown in equation (1).
[0093]
Z ′ = 0.8 × z (1)
Here, z represents the Z coordinate of the center of gravity of the cursor and virtual object input by the coordinate conversion means, and Z ′ represents the Z coordinate output by the coordinate conversion means.
[0094]
In this case, the value of the X coordinate and the value of the Y coordinate are not changed. Further, since the values stored in the cursor storage means and the object storage means are not changed, the screen displayed by the display means does not change. By performing the above-mentioned conversion, if the operator grasps the movement even when the distance in the virtual space is far, the distance between the cursor and the virtual object when performing the distance calculation is reduced thereafter. Thus, the distance calculation means can calculate a distance close to the distance sense perceived by the operator.
[0095]
When the distance between the cursor output by the distance calculation unit 45a and the virtual object is equal to or less than a predetermined reference, the comprehensive determination unit 45c “grabs” when the motion recognition unit 45b recognizes the “grab” motion registered in advance. It is determined that the interaction “has occurred”, and thereafter the value of the barycentric coordinate of the grasped virtual object stored in the object storage unit 43 is matched with the barycentric coordinate of the cursor until the “grabbing” interaction is completed. Here, the predetermined reference value may be a value larger than the distance that the cursor and the object can actually contact in the virtual space. For example, in the case of FIG. 25 (arrangement in FIG. 24), if the distance between the virtual object and the cursor is equal to or less than the reference value of the distance, the operation that the operator grasps is input to the input unit 1 and the operation that is recognized by the operation recognition unit 45b. If it is recognized, it becomes possible to move by grabbing the virtual object.
[0096]
Further, when there are a plurality of virtual objects below the distance reference, the comprehensive determination unit 45c includes a line segment (dashed line) connecting the cursor and the virtual object and a movement vector calculation unit 45d as shown in FIG. It is possible to determine the interaction in consideration of the cursor moving direction in the operation of the operator only for an object whose angle formed with the cursor moving direction (arrow) to be calculated is a reference (for example, 90 degrees) or less. (In the figure, the top one of the three objects is selected).
[0097]
As for the movement distance of the cursor, no interaction occurs when the movement distance is larger than a predetermined movement distance reference. As a result, it is possible to prevent interaction that is not intended by the operator when the cursor is simply moved.
[0098]
In addition, as shown in FIG. 29 (c), when a plurality of virtual objects satisfy the above-mentioned criteria, the comprehensive determination unit 45c "grabs" a virtual object close to the position of the gazing point detected by the line-of-sight input unit 46 (In the figure, the object on the left side close to the “+” mark, which means a gazing point, is selected). Thereby, it becomes possible to easily select a target using the operator's line of sight.
[0099]
Also, as shown in FIG. 29 (d), when there is an object close to the screen, a virtual object that matches the shape of the cursor determined by the shape determining unit 45e is set as a target to be grasped by the comprehensive determining unit 45c ( In the figure, since the distance between the cursor fingers is narrow, it is determined that the plane body is appropriate as the target of the “grab” operation, and the plane body is selected). This makes it possible to select a virtual object intended by the operator according to the shape of the cursor, and the operation is facilitated by associating a cursor shape that is easily associated when the operator grasps the virtual object.
[0100]
Further, the comprehensive determination unit 45c preferentially selects a virtual object determined to be similar to the case where the learning unit 45f has grabbed the object in the past. As a result, it is possible to reproduce the judgment close to the operation performed by the operator in the past and improve the operability.
[0101]
As described above, in this embodiment, whether or not the interaction between the cursor operated by the operator in the virtual space and the virtual object in the virtual space occurs is not determined only by the distance between the cursor and the virtual object. It is possible to improve the operability in the interface that interacts with the virtual object using the cursor in the virtual space by determining the movement based on the user's operation, line of sight, or past cases.
[0102]
In this embodiment, the description has been made using the operation of grasping the virtual object using the cursor as the interaction. However, the same applies to other operations such as an instruction (pointing) to the virtual object, collision, friction, hitting, and remote operation It can be handled. The same effect can be obtained when the virtual space is a two-dimensional space or when the display means uses a three-dimensional stereoscopic display. Moreover, as an implementation means, you may implement | achieve using hardware or the software on a computer.
[0103]
As described above, in this embodiment, the presence or absence of the interaction between the cursor operated by the operator in the virtual space and the virtual object in the virtual space is determined, and the cursor and the virtual object in the virtual space are Is not necessarily determined by the distance alone, but the comprehensive determination means determines whether or not an interaction has occurred, based on the distance between the representative points calculated by the distance calculation means and the movement of the cursor recognized by the action recognition means. It is possible to interact with an object whose distance in the space is not close, and it is possible to provide an input / output interface with good operability. In addition, unlike the conventional contact determination method, it is not necessary to calculate all the distances between the components of the cursor and the virtual object in the virtual space, so the calculation amount can be reduced and the processing speed can be increased. It becomes.
[0104]
【The invention's effect】
As described above, the present invention recognizes the shape of the operator's hand or its movement, displays the recognized hand shape characteristics as a special shape on the screen, and displays the information displayed in the screen. The information displayed on the screen can be easily controlled with good operability by the shape and movement of the hand.
[0105]
Furthermore, the hand shape feature is displayed on the screen as a special shape and displayed as a cursor, and the interaction with the display object other than the cursor display is automatically determined sequentially according to the operator's intention. As a result, it is possible to realize an interface that further improves the operability of instructing and grasping the display object.
[Brief description of the drawings]
FIG. 1 is an external view of an interface device according to a first embodiment of the present invention.
FIG. 2 is a detailed block diagram of the interface device according to the first embodiment of the present invention.
FIGS. 3A to 3C are diagrams showing examples of hand shapes determined by the interface device. FIGS.
FIG. 4 is a diagram showing a detailed example of shape identifying means of the interface device according to the embodiment;
FIG. 5 is a diagram illustrating an example of calculation performed by an image difference calculation unit according to the embodiment.
FIGS. 6A to 6D are diagrams showing examples of icons generated by the icon generation unit of the embodiment;
FIGS. 7A to 7C are external views showing an operation example of the interface device according to the embodiment.
FIG. 8 is an external view of an interface device according to a second embodiment of the present invention.
FIG. 9 is a detailed block diagram of an interface device according to a second embodiment of the present invention.
FIGS. 10A and 10B are diagrams showing examples of hand shapes determined by the interface device. FIGS.
FIG. 11 is a diagram showing a detailed embodiment of an operation recognition unit of the interface device of the embodiment.
FIG. 12 is a diagram illustrating an example of calculation performed by an image difference calculation unit according to the embodiment.
FIGS. 13A to 13D are diagrams showing examples of icons generated by the icon generation unit of the embodiment;
FIG. 14 is a detailed block diagram of an interface device according to a third embodiment of the present invention.
FIG. 15 is a diagram showing an operation recognition unit of the interface device according to the third embodiment of the present invention;
FIGS. 16A to 16D are diagrams showing examples of icons displayed on the display screen by the interface device according to the embodiment;
FIGS. 17A to 17F are diagrams showing the operation of the operation recognition unit of the interface device according to the embodiment;
FIGS. 18A to 18F are diagrams showing the operation of the operation recognition unit of the interface device according to the embodiment;
FIG. 19 is a diagram showing the operation of the operation recognition unit of the interface device according to the embodiment;
FIG. 20 is a diagram showing the operation of the operation recognition unit of the interface device according to the embodiment;
FIG. 21 is a block diagram showing an interface device according to a fourth embodiment of the present invention.
FIG. 22A is a diagram showing a state in which the cursor is opened in an example of the cursor used in the interface device of the embodiment;
(b) Diagram showing the closed state
(c) The figure which shows the state which the cursor opened in the other example of the cursor used for the interface apparatus of the Example.
(d) Diagram showing the closed state
(e) The figure which shows the state which the cursor opened in the further another example of the cursor used for the interface apparatus of the Example.
(f) Diagram showing the closed state
FIG. 23A is a diagram showing an example of a virtual object used in the interface device of the embodiment;
(b) A diagram showing the shape of another example of the virtual object
FIG. 24A is a front view showing the placement of the cursor and virtual object in the virtual space.
(b) Side view showing placement of cursor and virtual object in virtual space
FIG. 25 is a view showing a display example of a virtual space for explaining the embodiment;
FIG. 26 is a block diagram showing an example of the interface device of the embodiment.
FIG. 27A is a diagram showing an example of an input device in the input means used in the interface device of the embodiment.
(b) The figure which shows the other example of the input device in the input means used for the interface apparatus of the Example
(c) The figure which shows the further another example of the input device in the input means used for the interface apparatus of the Example
FIG. 28A is a diagram showing an example of an image obtained by capturing a hand using the camera of the embodiment.
(b) The figure which shows an example which binarized the image which imaged the hand using the camera of the Example
FIG. 29A is a diagram showing an example of a screen displayed by display means used in the interface device of the present embodiment.
(b) Diagram showing a second example of the display screen
(c) Diagram showing a third example of the display screen
(d) Diagram showing a fourth example of the same display screen
FIG. 30 is a diagram showing a conventional interface device.
[Explanation of symbols]
1 Host computer
2 display
3 CCD camera
21 frame memory
22 Shape identification means
23 Display controller
24 Icon generator
25 Reference image memory
26 Reference image update unit
31 frame memory
32 Motion recognition unit
33 Display controller
34 Icon generator
41 Input means
42 Cursor storage means
43 Object storage means
44 Display means
45 Interaction judging means
45a Distance calculation means
45b Motion recognition means
45c Total judgment means
45d Movement vector calculation means
45e Shape determination means
45f learning means
45g coordinate conversion means
200 icons
201, 202 Menu
203 icon
204, 205, 206 Virtual switch
221 Image difference calculation unit
222 Contour extraction unit
223 Shape identification part
224 Position detector
225 Shape change identification part
231 Coordinate converter
232 Coordinate reversal unit
261 timer
262 Image update unit
321 Outline extraction unit
322 Contour waveform calculator
324 coordinate table
331 Coordinate converter
332 Coordinate reversal part
3231 Shape Filter 1
3232 Shape Filter 2
3251 Differentiator
3252 Differentiator
3261 Coordinate calculator
3262 Shape determination unit

Claims (4)

操作者の手の形状と、前記手の形状が所定の時間継続する手の動きとを認識する認識手段と、
前記認識手段が認識する手の形状特徴により選択可能なメニューを画像に表示し、
前記認識手段により認識された手の形状特徴を、数字を表すアイコンとして画像に表示する表示手段と、
前記認識手段で認識した手の形状特徴に基づいて前記画像上に表示したメニューを選択し、前記メニューの選択後に前記認識手段が認識した所定の手の動きに基づいて制御指示を行う制御手段とを備えたインターフェス装置。
Recognizing means for recognizing the shape of the operator's hand and the movement of the hand in which the shape of the hand continues for a predetermined time ;
A menu that can be selected according to the hand shape feature recognized by the recognition means is displayed on the image ,
Display means for displaying on the image the shape feature of the hand recognized by the recognition means as an icon representing a number ;
Control means for selecting a menu displayed on the image based on a hand shape feature recognized by the recognition means, and for giving a control instruction based on a predetermined hand movement recognized by the recognition means after selection of the menu; interferon y scan apparatus having a.
前記認識手段は手の指の数を認識し、前記表示手段は前記指の数を画像に表示し、前記制御手段は、前記認識手段が認識した手の指の数に基づいて前記メニューを選択する請求項1記載のインターフェス装置。 The recognition means recognizes the number of fingers of the hand, the display means displays the number of fingers on the image, and the control means selects the menu based on the number of fingers of the hand recognized by the recognition means. interferon y scan apparatus according to claim 1. 前記表示手段は数字を表すアイコンを表示し、前記認識手段が認識した手の指の数に基づいて数字に対応するメニューの一部を強調して表示する請求項2記載のインターフェス装置。 The display means displays the icon representing the digits, interferon y scan apparatus according to claim 2, wherein the stressed part of the menu corresponding to the numeric display based on the number of fingers of the hand which the recognition unit recognizes . 操作者の手の形状所定の手の動きとを認識する認識手段と、
前記認識手段により認識する手の形状特徴により選択可能なメニューを画面に表示する表示手段と、
前記認識手段による手の形状の認識結果に対応したアイコンを生成するアイコン生成部と、前記アイコン生成部により生成したアイコンを前記画面上に表示し、前記認識手段が認識した所定の手の動きに基づいて、前記アイコンの前記画像上での移動及びメニューの選択を行う制御手段とを備えたインターフェス装置。
A recognition means for recognizing the shape of the operator's hand and a predetermined hand movement;
Display means for displaying a selectable menu on the screen according to the hand shape feature recognized by the recognition means;
An icon generation unit that generates an icon corresponding to the recognition result of the hand shape by the recognition unit, and an icon generated by the icon generation unit is displayed on the screen, and a predetermined hand movement recognized by the recognition unit is displayed. based on, interferon y scan and control means for moving and selecting a menu on the image of the icon.
JP09648196A 1995-04-28 1996-04-18 Interface equipment Expired - Lifetime JP3777650B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09648196A JP3777650B2 (en) 1995-04-28 1996-04-18 Interface equipment

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP10555195 1995-04-28
JP7-270828 1995-10-19
JP27082895 1995-10-19
JP7-105551 1995-10-19
JP7-284768 1995-10-19
JP28476895 1995-11-01
JP09648196A JP3777650B2 (en) 1995-04-28 1996-04-18 Interface equipment

Publications (2)

Publication Number Publication Date
JPH09185456A JPH09185456A (en) 1997-07-15
JP3777650B2 true JP3777650B2 (en) 2006-05-24

Family

ID=27468437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09648196A Expired - Lifetime JP3777650B2 (en) 1995-04-28 1996-04-18 Interface equipment

Country Status (1)

Country Link
JP (1) JP3777650B2 (en)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282770A (en) * 1997-11-27 2004-10-07 Matsushita Electric Ind Co Ltd Control method
JP2001092590A (en) * 1999-09-21 2001-04-06 Nec Corp Optical pointing device
JP2005174356A (en) * 2000-02-01 2005-06-30 Toshiba Corp Direction detection method
JP2001216069A (en) * 2000-02-01 2001-08-10 Toshiba Corp Operation inputting device and direction detecting method
US7071914B1 (en) 2000-09-01 2006-07-04 Sony Computer Entertainment Inc. User input device and method for interaction with graphic images
JP2002157079A (en) * 2000-11-09 2002-05-31 Doko Kagi Kofun Yugenkoshi Method of discriminating intention
JP4790113B2 (en) * 2000-12-04 2011-10-12 ソニー株式会社 Image processing apparatus and method, and recording medium
JP2002236534A (en) * 2001-02-13 2002-08-23 Mitsubishi Motors Corp On-vehicle equipment operation device
KR100446612B1 (en) * 2001-07-24 2004-09-04 삼성전자주식회사 Method and apparatus for selecting information in multi-dimensional space
KR20030021987A (en) * 2001-09-07 2003-03-15 이민호 Wireless finger mouse system based on image processing
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
JP3867039B2 (en) * 2002-10-25 2007-01-10 学校法人慶應義塾 Hand pattern switch device
JP2004334590A (en) * 2003-05-08 2004-11-25 Denso Corp Operation input device
JP2004356819A (en) * 2003-05-28 2004-12-16 Sharp Corp Remote control apparatus
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP2005063090A (en) * 2003-08-11 2005-03-10 Keio Gijuku Hand pattern switch device
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
JP2005268929A (en) * 2004-03-16 2005-09-29 Sharp Corp Remote control apparatus
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
KR101085447B1 (en) * 2004-12-31 2011-11-21 삼성전자주식회사 Touch position detecting device and method of touch position detecting the same and touch screen display device having the same
JP5788853B2 (en) * 2005-02-08 2015-10-07 オブロング・インダストリーズ・インコーポレーテッド System and method for a gesture-based control system
WO2007013652A1 (en) * 2005-07-29 2007-02-01 Pioneer Corporation Image display control device, image display, remote control, and image display system
US8549442B2 (en) * 2005-12-12 2013-10-01 Sony Computer Entertainment Inc. Voice and video control of interactive electronically simulated environment
KR100778927B1 (en) * 2005-12-29 2007-11-22 엠텍비젼 주식회사 Device capable of recognizing non-contact key selection and method thereof
CN101379455B (en) 2006-02-03 2011-06-01 松下电器产业株式会社 Input device and its method
JP5161435B2 (en) * 2006-06-26 2013-03-13 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus, image processing system, computer control method, and program
JP4757132B2 (en) * 2006-07-25 2011-08-24 アルパイン株式会社 Data input device
JP2008040576A (en) * 2006-08-02 2008-02-21 Sharp Corp Image processing system and video display device equipped with the same
JP4267648B2 (en) * 2006-08-25 2009-05-27 株式会社東芝 Interface device and method thereof
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
KR100799907B1 (en) * 2006-11-29 2008-01-31 엠텍비젼 주식회사 Apparatus for sensing moving of subject and method thereof
JP2008146243A (en) * 2006-12-07 2008-06-26 Toshiba Corp Information processor, information processing method and program
PL1988445T3 (en) * 2007-05-04 2016-08-31 Whirlpool Co User interface and cooking oven provided with such user interface
JP4670860B2 (en) 2007-11-22 2011-04-13 ソニー株式会社 Recording / playback device
JP5684577B2 (en) 2008-02-27 2015-03-11 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー How to capture scene depth data and apply computer actions
EP2701042B1 (en) * 2008-03-18 2015-01-28 Elliptic Laboratories AS Object and movement detection
US20110029185A1 (en) * 2008-03-19 2011-02-03 Denso Corporation Vehicular manipulation input apparatus
JP5077773B2 (en) * 2008-03-19 2012-11-21 株式会社デンソー Vehicle operation input device
JP2009245392A (en) 2008-03-31 2009-10-22 Brother Ind Ltd Head mount display and head mount display system
JP4720874B2 (en) * 2008-08-14 2011-07-13 ソニー株式会社 Information processing apparatus, information processing method, and information processing program
JP5254753B2 (en) * 2008-11-14 2013-08-07 シャープ株式会社 Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
WO2010095204A1 (en) 2009-02-18 2010-08-26 株式会社 東芝 Interface controller and method thereof
JP5201096B2 (en) * 2009-07-17 2013-06-05 大日本印刷株式会社 Interactive operation device
WO2011093317A1 (en) * 2010-01-29 2011-08-04 新世代株式会社 Image processing apparatus, image processing method, computer program, recording medium, image processing module, and electronic apparatus
WO2012147960A1 (en) 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
WO2012147961A1 (en) * 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
JP6068741B2 (en) * 2012-03-30 2017-01-25 シャープ株式会社 Display system
JP2013222317A (en) * 2012-04-17 2013-10-28 Toshiba Mach Co Ltd Numerical control device
JP2014137616A (en) * 2013-01-15 2014-07-28 Fujitsu Ltd Display control device, display control system, and display control method
WO2016132480A1 (en) * 2015-02-18 2016-08-25 日立マクセル株式会社 Video display device and video display method
JP2015122124A (en) * 2015-03-31 2015-07-02 株式会社ナカヨ Information apparatus with data input function by virtual mouse
WO2017072913A1 (en) * 2015-10-29 2017-05-04 Necディスプレイソリューションズ株式会社 Control method, electronic blackboard system, display device, and program
JP6948801B2 (en) * 2017-02-28 2021-10-13 キヤノン株式会社 Information processing equipment, control methods and programs for information processing equipment
JP2020046893A (en) * 2018-09-19 2020-03-26 尚紀 北村 Surgery support system and virtual surgery support system
JP7433788B2 (en) * 2019-07-03 2024-02-20 キヤノン株式会社 Control device, imaging device, control method, program
KR102642109B1 (en) * 2020-08-27 2024-03-04 카페24 주식회사 Method, Apparatus and System for Automatic Registering Product Reviews Being Selective
JP2022122637A (en) 2021-02-10 2022-08-23 シャープ株式会社 Display device, display method and display program
JP2022191706A (en) 2021-06-16 2022-12-28 シャープ株式会社 Input device, input method, and input program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02132510A (en) * 1988-11-12 1990-05-22 Sony Corp Input device
JP3182876B2 (en) * 1991-05-24 2001-07-03 ソニー株式会社 Image signal processing method and apparatus
JPH0757103A (en) * 1993-08-23 1995-03-03 Toshiba Corp Information processor
JPH0836586A (en) * 1994-07-22 1996-02-06 Fujitsu Ltd Finger language retrieval system
JPH0844490A (en) * 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd Interface device
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system

Also Published As

Publication number Publication date
JPH09185456A (en) 1997-07-15

Similar Documents

Publication Publication Date Title
JP3777650B2 (en) Interface equipment
EP0823683B1 (en) Interface device
US9701015B2 (en) Vision-guided robots and methods of training them
KR101620777B1 (en) Enhanced virtual touchpad and touchscreen
JP6744990B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6360050B2 (en) Method and system for simultaneous human-computer gesture-based interaction using unique noteworthy points on the hand
CN111694428B (en) Gesture and track remote control robot system based on Kinect
Rautaray et al. Real time multiple hand gesture recognition system for human computer interaction
CN108845668B (en) Man-machine interaction system and method
JPH0844490A (en) Interface device
JP6618276B2 (en) Information processing apparatus, control method therefor, program, and storage medium
CN109145802B (en) Kinect-based multi-person gesture man-machine interaction method and device
JP2004078977A (en) Interface device
US20230085330A1 (en) Touchless image-based input interface
Roy et al. Real time hand gesture based user friendly human computer interaction system
Vančo et al. Gesture identification for system navigation in 3D scene
Srinivas et al. Virtual Mouse Control Using Hand Gesture Recognition
Tao et al. Human-Computer Interaction Using Fingertip Based on Kinect
Sahiwala et al. Virtual Mouse using Coordinate Mapping
Shaikh et al. Hand Gesture Recognition Using Open CV
CN112667087A (en) Unity-based gesture recognition operation interaction realization method and system
CN114995635A (en) Desktop gesture interaction method based on mixed reality
CN116841397A (en) Operation execution method, device, electronic equipment and readable storage medium
JP2012108826A (en) Display controller and control method of display controller, and program
Sawada et al. Gestural manipulation of intuition-driven monitor with the detection of human sensory factors

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120310

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130310

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130310

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140310

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term