JP3588527B2 - ユーザインタフェース装置及び指示入力方法 - Google Patents

ユーザインタフェース装置及び指示入力方法 Download PDF

Info

Publication number
JP3588527B2
JP3588527B2 JP00949697A JP949697A JP3588527B2 JP 3588527 B2 JP3588527 B2 JP 3588527B2 JP 00949697 A JP00949697 A JP 00949697A JP 949697 A JP949697 A JP 949697A JP 3588527 B2 JP3588527 B2 JP 3588527B2
Authority
JP
Japan
Prior art keywords
recognition
input image
input
image
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00949697A
Other languages
English (en)
Other versions
JPH10207618A (ja
Inventor
美和子 土井
明 森下
直子 梅木
俊一 沼崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP00949697A priority Critical patent/JP3588527B2/ja
Priority to US09/009,696 priority patent/US6266061B1/en
Publication of JPH10207618A publication Critical patent/JPH10207618A/ja
Priority to US09/860,496 priority patent/US20010024213A1/en
Application granted granted Critical
Publication of JP3588527B2 publication Critical patent/JP3588527B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理により入力を行なうユーザインタフェース装置及び入力方法に関する。
【0002】
【従来の技術】
コンピュータの入力デバイスとして、マウスが圧倒的に使われている。しかし、マウスで操作できることは、カーソルの移動と、メニューの選択などであり、あくまでも2次元のポインティングデバイスとしても役目に過ぎない。マウスで扱えるのは、2次元の情報であり、3次元空間の中の物体など奥行きがあるものを選択することは難しい。また、アニメーションを作成する場合、キャラクタの動きをつけるのに、マウスのような入力デバイスでは、自然な動きをつけることが難しい。
【0003】
3次元空間でのポインティングの難点を補うために、ボールを所望の方向に押したり回したりして6軸方向の情報を入力する装置や、いわゆるデータグローブやデータスーツ、サイバーグローブといった手などにはめて使用する装置が開発されている。しかし、これら装置は操作性の悪さ等のために、当初の期待程、普及していないのが現実である。
【0004】
これに対し、最近、ユーザは特殊な装置を扱うことなく、手振りや身振りでユーザの意図する情報を入力できる直接指示型の入力装置が開発されている。
【0005】
例えば、光を照射し、ユーザの手による反射光を受光し、これを画像化して特徴量抽出や形状認識処理を行ない、手の形状に応じた制御を実行したり、手の移動量に応じた分のカーソル移動や3次元モデルにおける視点の変更を行なったりするものがある。
【0006】
あるいは、ユーザの手の動きをビデオ撮影し、ビデオ映像を解析することにより、上記と同様の処理を行なうものがある。
【0007】
このような装置によって、ユーザは特殊な装置を装着などすることなく、簡易にジェスチャで入力を行なうことができる。
【0008】
【発明が解決しようとする課題】
しかし、この種の装置では、カーソルの移動モード、選択のモード、ダブルクリックのモードなどの各モードは固定的に使用され、モードを変えるためにはモードを変えるための明示的な操作が必要であり、ユーザに操作上の負担を強いる問題があった。
【0009】
本発明は、上記事情を考慮してなされたもので、画像処理により入力を行なうユーザインタフェース装置において、ユーザの操作上の負担を軽減したより使い易いユーザインタフェース装置及び指示入力方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明は、入力画像の画像処理により入力を行なうユーザインタフェース装置であって、ポインティングを行なうモードと、それ以外のモードとを、入力画像の画像処理結果に基づいて切り換える手段を備えたことを特徴とする。
【0011】
また、本発明は、入力画像の画像処理により入力を行なうユーザインタフェース装置であって、少なくとも、カーソルの移動のモードと、選択のモードと、ダブルクリックのモードとを、入力画像の画像処理結果に基づいて切り換える手段を備えたことを特徴とする。
【0012】
好ましくは、選択のモードでの選択可能なオブジェクト毎に、画像処理内容を制約した認識方法(認識エンジン)を指定する手段をさらに備え、選択されたオブジェクトについて入力画像の画像処理を行なうにあたっては、該オブジェクトについて指定された認識方法に従って画像処理を行なうようにしても良い。
【0013】
好ましくは、選択のモードでの選択可能なオブジェクト毎に、画像処理内容を制約した認識方法(認識エンジン)を指定する手段と、カーソルで指示された表示中のオブジェクトの近傍に該オブジェクトについて指定された認識方法を示す情報を呈示する手段とをさらに備えたても良い。
【0014】
好ましくは、カーソル上に所定の形状で前記入力画像の画像処理結果を呈示する手段をさらに備えたても良い。
【0015】
また、本発明は、反射画像を入力する第1の装置と入力画像の画像処理により入力を行なう第2の装置からなるユーザインタフェース装置であって、前記第2の装置は、前記第1の装置に対して、入力画像の画像処理内容を制約した認識方法(認識エンジン)の指定を行なう手段を備え、前記第1の装置は、前記認識方法の指定に基づいて所定の画像処理を行なう手段と、入力した画像と画像処理結果とを前記第2の装置に返す手段とを備えたことを特徴とする。
【0016】
好ましくは、前記第1の装置は、必要な認識方法に適した画像処理手段(認識エンジン)を保持しない場合、前記第2の装置に該認識方法に適した画像処理に必要な情報(認識エンジン)の転送を要求する手段をさらに備え、前記第2の装置は、要求された前記情報を、前記第1の装置に転送する手段をさらに備えても良い。
【0017】
好ましくは、前記第1の装置および前記第2の装置はそれぞれ、自装置内の所定の認識方法に適した画像処理に必要な情報が先にアクティブになった場合、他装置にアクティブになった該情報を非アクティブにするよう通知する手段と、他装置から前記所定の認識方法に適した画像処理に必要な情報を非アクティブにするよう通知を受けた場合、該情報を非アクティブにする手段とをさらに備えても良い。
【0018】
また、本発明は、入力画像の画像処理により入力を行なうユーザインタフェース装置による指示入力方法であって、対象物体の入力画像を画像処理し、この画像処理の結果に基づいて、ポインティングを行なうモードと、それ以外のモードとを切り換えることを特徴とする。
【0019】
また、本発明は、反射画像を入力する第1の装置と入力画像の画像処理により入力を行なう第2の装置からなるユーザインタフェース装置による指示入力方法であって、前記第2の装置から前記第1の装置に対して、入力画像の画像処理内容を制約した認識方法(認識エンジン)の指定を行ない、前記第1の装置は、前記認識方法の指定に基づいて所定の画像処理を行ない、これら入力した画像と画像処理結果とを前記第2の装置に返すことを特徴とする。
【0020】
本発明によれば、カーソルの移動モード、選択のモード、ダブルクリックのモードなどの各モードを変えるためのユーザによる明示的な操作が不要になる。
【0021】
また、ユーザの指示した点を認識処理で読み取って画面上のカーソル移動等に反映させるので、ユーザの操作によるキャリブレーションが不要である。
【0022】
さらに、必要な認識方法に適した画像処理手段(認識エンジン)を用いれば、入力精度の向上とユーザの操作性の向上が期待できる。
【0023】
また、入力画像を半透明にしてカーソルに重ねて表示すれば、ユーザに操作状況をフィードバックすることができる。
【0024】
このように本発明によれば、ユーザの操作上の負担を軽減したより使い易いユーザインタフェース装置を提供することができる。
【0025】
また、本発明によれば、第1の装置側(デバイス側)である程度の認識処理を行なうので、負荷分散ができ、また全体的な認識処理の速度向上を図ることができる。
【0026】
また、画像入力機能を持つデバイスの高機能化を図ることができる。
【0027】
なお、以上の各装置に係る発明は、方法に係る説明としても成立する。
【0028】
また、上記の発明は、相当する手順あるいは手段をコンピュータに実行させるためのプログラムを記録した機械読取り可能な媒体としても成立する。
【0029】
【発明の実施の形態】
以下、図面を参照しながら発明の実施の形態を説明する。
【0030】
まず、第1の実施形態について説明する。
【0031】
図1は、本発明の一実施形態に係るユーザインタフェース装置の構成例を示す図である。
【0032】
本ユーザインタフェース装置は、例えば、グラフィックユーザインタフェースを持つ計算機に適用すると好適なものである。すなわち、表示画面上にカーソル、スライダーバー、スクロールバー、プルダウンメニュー、ボックス、リンク、アプリケーションなどのアイコンが表示され、ユーザが入力デバイスによりカーソルの移動、アイコンの選択、アプリケーションの起動などの指示を入力するようなシステムであって、入力デバイスがマウスのような専用器具を必要とせずユーザの手などの物体を画像処理することにより入力を受けるものである。
【0033】
本実施形態は、概略的には、ユーザの手などの対象物体による反射光を画像として捉えることにより(あるいは背景の光の対象物体による反射光を画像として捉えることにより)、その形状、動き、距離情報などを検出し、その形状等に応じた所定の制御(例えば入出力装置に関する制御あるいはアプリケーションソフトの起動など)を行なうもので、ユーザは手のモーションなどにより意図する入力を行なうことができる機能を提供するものである。また、画像処理結果に応じて、カーソルの移動、アイコンの選択、アプリケーションの起動などの各モードを切り替えるようにしているので、ユーザは各モードを切り替えるための明示的な操作を不要としている。
【0034】
本ユーザインタフェース装置は、画像入力部10、画像記憶部11、形状解釈部12、解釈規則記憶部13、呈示部14、カーソル切替部15を備えている。
【0035】
図2に、画像入力部10の一構成例を示す。
【0036】
画像入力部10は、例えば、LEDなどの発光素子により近赤外線などの光を対象物体に照射する発光部101と、対象物体からの反射光を2次元アレイ状に配列された受光素子で受光する反射光抽出部102と、発光部101および反射光抽出部102の動作タイミングを制御するタイミング制御部103を有する。発光部101が発光しているときに反射光抽出部102で受光した光の量と、発光部101が発光していないときに反射光抽出部102で受光した光の量の差をとることによって、バックグラウンドの補正を行ない、発光部101からの光の対象物体による反射光の成分だけを取り出す。なお、画像入力部10は、発光部を持たず、CCDカメラなどの受光部のみ持つものであっても良い。
【0037】
図3に、表示装置20と画像入力部10の筐体8と対象物体22の関係を示す。例えば、画像入力部10の前にユーザの手22を持ってきた場合、その手からの反射光画像が得られる。このとき、反射光画像の各画素値は、物体の性質(光を鏡面反射する、散乱する、吸収する、など)、物体面の向き、物体の距離、などに影響されるが、物体全体が一様に光を散乱する物体である場合、その反射光量は物体までの距離と密接な関係を持つ。手などはこのような性質を持つため、手を差し出した場合の反射光画面は、手の距離、手の傾き(部分的に距離が異なる)、などを反映する。したがって、これらの情報を抽出することによって、様々な情報の入力・生成が可能になる。
【0038】
画像記憶部11は、画像入力部10から所定時間毎(例えば1/30秒毎、1/60秒毎、1/100秒毎など)に出力される画像検出対象物体の2次元画像を逐次記憶する。
【0039】
形状解釈部12は、画像記憶部11に記憶された2次元画像を、N×N(例えば64×64)のドットマトリクスとして逐次取込む。各画素は階調(例えば8ビット=256階調)を持つものとする。
【0040】
また、形状解釈部12は、ドットマトリクスから所定の特徴量を抽出し、解釈規則記憶部13に記憶された解釈規則をもとに、形状解釈する。そして、適合する解釈規則に応じた指示を解釈結果として出力する。もし適合する解釈規則がなければ、必要に応じてドットマトリクスからの所定の特徴量の抽出の仕方を変更して(例えばドットマトリクスのしきい値処理を行なう場合、そのしきい値を変更する)、再度マッチング処理をやり直すようにしても良い。最終的に適合する解釈規則がなければ、入力はなかったものとする。
【0041】
解釈規則記憶部13は、形状解釈のための解釈規則を記憶する。例えば、ドットマトリックス中におけるユーザの手などの対象物体の特徴量、例えば形状、面積、最上点、重心などの所定のものと、これに応じた指示内容が解釈規則として記憶されている。指示内容には、アイコンの選択、アプリケーションの起動、カーソル移動等がある。カーソル移動の場合には、手の移動方向・距離に応じたカーソルの移動量も指示される。例えば、親指と人差し指を開いて立てた状態をカーソル移動に対応させ(この場合、例えば人差し指の先端の移動距離・方向がカーソルの移動距離・方向に対応づけられる)、親指と人差し指を閉じて立てた状態を、カーソルの位置するアイコンの選択に対応させ、親指と人差し指を立て、カーソル移動の場合に対して手のひらを反転させた状態を、カーソルの位置するアイコンに対応するアプリケーションの起動に対応させるなどの規則が考えられる。
【0042】
形状解釈部12による形状解釈におけるドットマトリクスから特徴量の抽出の代表例は、距離情報の抽出と、領域抽出である。物体が一様で均質な散乱面を持つ物体であれば、反射光画像は距離画像とみなすことができる。したがって、受光部から見込んだ物体の立体形状を抽出することができる。物体が手であれば、手のひらの傾きなどが検出できる。手のひらの傾きは部分的な距離の違いとして現れる。また、手を移動させたときに画素値が変われば、距離が移動したと見ることができる。また、背景のように遠い物体からの反射光はほとんどないため、反射光画像からあるしきい値以上の領域を切り出すという処理で、物体の形状を簡単に切り出すことができる。例えば、物体が手であれば、そのシルエット像を切り出すのは極めて容易である。距離画像を用いる場合でも、一度しきい値によって領域抽出をしておいてから、その領域内の距離情報を用いる、という場合が多い。
【0043】
ドットマトリクスから抽出した特徴量と解釈規則とのマッチングの手法には種々のものがある。例えば、画像からベクトルを抽出するベクトル化、形状モデルにもとづいた形状の変形状態の抽出、走査線上の距離値にもとづいたスペクトル解析などである。
【0044】
もし適合する形状がなければ、例えばしきい値を変更するなどして、再度マッチング処理をやり直すようにしても良い。最終的に適合する形状がなければ、入力はなかったものと見なす。
【0045】
なお、形状解釈部12がアプリケーションやOSの機能などを起動する指示と認識した場合は、これらソフトウェアを起動させるようにする。
【0046】
呈示部14は、表示装置にて形状解釈部12による解釈結果を反映した呈示を行なう。例えば、カーソルの移動、必要に応じてメッセージの呈示などを行う。
【0047】
カーソル切替部15は、形状解釈部12による解釈結果に基づいてカーソルの切替えを制御する。
【0048】
図4〜図6に、本実施形態のユーザインタフェース装置の動作手順例を示す。
【0049】
まず、カーソルの制御状態Cを初期化(C←0)し、選択状態Sを初期化(S←0)し、カーソル情報Iを初期化(I←0)し、認識エンジンフラグRを初期化(R←0)する(ステップS1)。
【0050】
次に、反射画像を読み込み画像記憶部11へ書き込む(ステップS2)。
【0051】
次に、形状解釈部12にドットマトリックスを読み込む(ステップS3)。
【0052】
次に、形状解釈部12にてドットマトリックスから抽出した特徴量と解釈規則からジェスチャの示すモードを判定する(ステップS4)。
【0053】
以降は、この判定結果とパラメータ値によって処理が分かれる。
【0054】
カーソル制御のジェスチャ かつ C=0 かつ S=0 かつ R=0ならば(ステップS5)、カーソル制御に入る処理であり、C←1として(ステップS11)、ステップS2へ戻る。
【0055】
カーソル制御のジェスチャは、例えば図7に示す手の形状が認識された場合である。
【0056】
カーソル制御のジェスチャ かつ C=1 かつ S=0 かつ R=0ならば(ステップS6)、カーソル移動中の処理である。この場合、まず、ドットマトリックスより近傍点の座標(x,y)を算出し(ステップS12)、算出座標(x,y)にカーソルを移動させる(ステップS13)。そして、算出座標(x,y)を保持する。Cp=(x,y)とする(ステップS14)。ここで、Cpにオブジェクトがあるならば(ステップS15)、そのオブジェクトの状態をセット(I←オブジェクト状態)し(ステップS16)、オブジェクトがなければ(ステップS15)、I=Oとして(ステップS17)、ステップS2へ戻る。
【0057】
カーソル制御のジェスチャ かつ C=1 かつ S=1ならば(ステップS7)、カーソル制御に戻る処理であり、S←0、R←0、I←0として(ステップS18)、ステップS2へ戻る。
【0058】
選択のジェスチャ かつ C=1 かつ S=0 かつ R=0ならば(ステップS8)、オブジェクトを選択する処理である。この場合、まず、S←1とし(ステップS19)、Cpに最も近いオブジェクトを探索し(ステップS20)、探索したオブジェクトを選択する(ステップS21)。ここで、選択したオブジェクトに指定の認識エンジンがあるならば(ステップS22)、R←1とし(ステップS23)、ステップS2に戻る。指定の認識エンジンがない場合、リンクオブジェクトならば(ステップS24)、リンク先へ飛び(ステップS25)、C←0、S←0、I←0として(ステップS26)、ステップS2に戻る。リンクオブジェクトでないならば(ステップS24)、そのままステップS2に戻る。
【0059】
選択のジェスチャは、例えば図11に示す手の形状が認識された場合である。
【0060】
ここで、認識エンジンは、詳しくは後述するようにドットマトリックスから所定の特徴量を抽出するものであり、例えば、ドットマトリックス中の対象物体形状の最上位点の垂直方向の移動量を抽出する最上位点垂直方向エンジンなど、種々のものがある。
【0061】
選択のジェスチャ かつ R=1ならば(ステップS9)、選択したオブジェクトを移動する処理であり、認識オブジェクトに沿った認識を行い(ステップS27)、ステップS2に戻る。
【0062】
ダブルクリックのジェスチャ かつ C=1ならば(ステップS10)、ダブルクリックの処理である。この場合、Cpに最も近いオブジェクトを開き(ステップS28)、C←0、S←0、I←0、R←0として(ステップS29)、ステップS2に戻る。
【0063】
ダブルクリックのジェスチャは、例えば図14に示す手の形状が認識された場合である。
【0064】
上記以外の場合は、他の認識処理を行い(ステップS30)、ステップS2に戻る。
【0065】
以下では、具体例を用いて本実施形態を説明する。
【0066】
まず、図7のように親指と人差し指を延ばした手の形状が認識された場合に、カーソル移動が指示されるものとする。
【0067】
例えば図8(a)の状態で、図7の手の形状が認識され、カーソル移動を受け付ける状態となり、ユーザが手の形状を図7の状態で移動させると、これに応じてカーソル201が表示画面上で移動する。この場合、ユーザの手の形状のドットマトリックス中における一定の点、例えば画像中で縦方向の位置が最も上である最上位点(例えば人差し指の先端部に対応)、あるいは画像中で最も受光部に近い最近点(例えば最も高階調の点)などにおける移動量/方向が抽出される。
【0068】
なお、図8(b)に示すように、カーソル201上に入力画像202を半透明にして表示し、ユーザに認識状況をフィードバックするようにしても良い。
【0069】
カーソルがスライダーバーやリンクノードなど種々のオブジェクトの上にある場合は、その機能を呈示するようにカーソルの形状を変える。
【0070】
例えば図9(a)のように、カーソルの移動したところにスライダーバーがある場合、カーソルの形状を図中203のように変形する。なお、図9(b)のように、カーソル上に入力画像を半透明205にして表示しても良い。
【0071】
ここで、図9(a)中の204で示される矢印は、操作対象であるスライダーバーの操作が垂直方向に制約されることを呈示している。すなわち、スライダーバーには、垂直方向エンジンが指定されている。この場合、ユーザが手をどう動かそうと、認識されるのは、垂直方向の移動のみとなる。
【0072】
また例えば図10(a)のように、カーソルの移動したところにリンクノードがある場合、カーソルの形状を図中206のように変形する。なお、図10(b)のように、カーソル上に入力画像207を半透明にして表示しても良い。
【0073】
次に、図7の手の形状でカーソルを所望の位置に移動させた後、図11のように人差し指を延ばし、親指を閉じた手の形状が認識された場合に、カーソルによって示されるオブジェクトの選択が指示されるものとする。これは、マウスのシングルクリックに相当する。
【0074】
例えば図12(a)のような状態で、図11の手の形状にすると、スライダバーが選択される。なお、図中208で示される矢印は、操作対象であるスライダーバーの操作が垂直方向に制約されることを呈示している。なお、図12(b)のように、カーソル上に入力画像209を半透明にして表示しても良い。
【0075】
また例えば図10(a)の状態で、図11の手の形状にすると、リンクノード「会社概要」が選択され、図13(a)のように表示内容が変わる。なお、図13(b)のように、カーソル上に入力画像210を半透明にして表示しても良い。
【0076】
次に、図7の手の形状でカーソルを所望の位置に移動させた後、図14のように手の形状自体は変えずに手首を180度回転させた状態が認識された場合に、カーソルによって示されるオブジェクトについてダブルクリックが指示されるものとする。
【0077】
例えば図15(a)において、図7の手の形状で、「インタネット」のアイコン上のカーソルを移動させ、続いて手を図14のように回転させる。すると、「インタネット」のダブルクリックが受け付けられる。図15(b)にアイコンを選択してアイコンが開く直前の状態を示す。なお、図16のように、カーソル上に入力画像212を半透明にして表示しても良い。
【0078】
また例えば、まず図17(a)のようにカーソルを「ファイル」のところに移動させる。このとき、図17(b)のように、カーソル上に入力画像213を半透明にして表示しても良い。
【0079】
次に、「ファイル」を選択すると、図18(a)に示すように、プルダウンメニューが表示される。ここで、図中214で示される矢印は、操作対象であるプルダウンメニューの操作が垂直方向に制約されることを呈示している。
【0080】
次に、図18(a)のようにカーソルを「保存」の上に位置させ、図14のような手の形状にすることにより、「保存」のダブルクリックが受け付けられる。ここでも、図18(b)のように、カーソル上に入力画像213を半透明にして表示しても良い。
【0081】
「保存」がダブルクリックされると、カーソルの形状を例えば図19(a)の216のように変形する。これは、保存の選択により文書を保存する操作中であることを示す。ここでも、図19(b)のように、カーソル上に入力画像217を半透明にして表示しても良い。
【0082】
また例えば、まず図20(a)のようにカーソルを「ファイル」のところに移動させ、「ファイル」を選択し、さらに印刷のところに移動させ、「印刷」を選択する。すると、「印刷」に対応するメニューが表示される。このとき、図20(b)のように、カーソル上に入力画像219を半透明にして表示しても良い。
【0083】
次に、認識エンジンについて説明する。
【0084】
図21に、認識エンジンに関する処理のフローチャートを示す。
【0085】
本実施形態では、必要に応じオブジェクトごとに認識エンジンを指定するものとする。
【0086】
認識エンジンは、ドットマトリックスから所定の特徴量を抽出するものである。すなわち、形状解釈部12は、選択されたオブジェクトについて指定されている認識エンジンがあるならば(ステップS31)、指定された認識エンジンに従ってドットマトリックスから特徴量を抽出する。認識エンジンの指定がなければ(ステップS31)、通常の認識を実行する(ステップS32)。
【0087】
認識エンジンには、例えば、
ドットマトリックス中の対象物体形状の最近点の垂直方向の移動量を抽出する最近点垂直方向エンジン121、最近点の水平方向の移動量を抽出する最近点水平方向エンジン122、最近点の斜め方向の移動量を抽出する最近点斜め方向エンジン123、重心点の垂直方向の移動量を抽出する重心点垂直方向エンジン124、重心点の水平方向の移動量を抽出する重心点水平方向エンジン125、重心点の斜め方向の移動量を抽出する重心点斜め方向エンジン126、重心点の垂直方向の移動量を抽出する重心点垂直方向エンジン127、重心点の水平方向の移動量を抽出する重心点水平方向エンジン128、重心点の斜め方向の移動量を抽出する重心点斜め方向エンジン129、ドットマトリックス中の対象物体形状のエッジを切り出すエッジ切り出しエンジン130、ドットマトリックス中の対象物体形状の面積を算出する面積算出エンジン131、ドットマトリックス中の対象物体形状の最近点のx軸回り回転角を抽出する最近点x軸回り回転角エンジン132、最近点のy軸回り回転角を抽出する最近点y軸回り回転角エンジン133、最近点のz軸回り回転角を抽出する最近点z軸回り回転角エンジン134、重心点のx軸回り回転角を抽出する重心点x軸回り回転角エンジン135、重心点のy軸回り回転角を抽出する重心点y軸回り回転角エンジン136、重心点のz軸回り回転角を抽出する重心点z軸回り回転角エンジン137、重心点のx軸回り回転角を抽出する重心点x軸回り回転角エンジン138、重心点のy軸回り回転角を抽出する重心点y軸回り回転角エンジン139、重心点のz軸回り回転角を抽出する重心点z軸回り回転角エンジン140、その他、所定のエンジンの重み付け組合わせによる認識エンジン141など、種々のものが考えられる。
【0088】
図22には、オブジェクト毎の認識エンジンの記述の一例を示す。
【0089】
以上のように本実施形態によれば、カーソルの移動モード、選択のモード、ダブルクリックのモードなどの各モードを変えるためのユーザによる明示的な操作が不要になる。
【0090】
また、ユーザの指示した点を認識処理で読み取って画面上のカーソル移動等に反映させるので、ユーザの操作によるキャリブレーションが不要である。
【0091】
さらに、認識エンジンを用いれば、入力精度の向上とユーザの操作性の向上が期待できる。
【0092】
また、入力画像を半透明にしてカーソルに重ねて表示すれば、ユーザに操作状況をフィードバックすることができる。
【0093】
このように本実施形態によれば、ユーザの操作上の負担を軽減したより使い易いユーザインタフェース装置を提供することができる。
【0094】
次に、第2の実施形態について説明する。
【0095】
第2の実施形態は、第1の実施形態とは基本的に同様であるが、本実施形態では、画像入力部側筐体内(以下、デバイス側と言う)で認識処理の一部を行ない、画像入力部10側から本体側に入力画像のドットマトリックスと所定の認識結果を渡すようにしたものである。なお、デバイス側で行なう認識処理は、負荷の軽い処理であることが望ましい。
【0096】
図23に、本実施形態に係るインタフェース装置の一構成例を示す。
【0097】
図23では、本体内に、本体制御部32、呈示部14、カーソル切替部15が配置され、デバイス側に、画像入力部10、画像記憶部11、認識エンジン制御部30、アクティブリスト31、いくつかの所定の認識エンジン121,122,142,143,144が配置される。
【0098】
本体制御部32は、例えば、図1の形状解釈部12、解釈規則記憶部13(および認識エンジンを含む)に相当するものであるが、これに限らず、他の構成を持つもの、他の認識処理を行なうものであっても、認識エンジンを用いるものであれば構わない。
【0099】
図24には、垂直スライダーバー選択時のアクティブリスト記憶部の記述の一例を示す。この場合、カーソルエンジン142と最近点垂直方向エンジン121が指定されていることが示される。
【0100】
このような構成において、本体側からデバイス側に、アクティブにする認識エンジンのリストまたはその反対に非アクティブにする認識エンジンのリストを送る。デバイス側では、このリストをアクティブリスト記憶部31に格納し、認識エンジン制御部30により指定の認識エンジンに従って入力画像から所定の特徴量を認識結果として抽出し、入力画像と認識結果を本体側に返す。
【0101】
本実施形態によれば、デバイス側である程度の認識処理を行なうので、負荷分散ができ、また全体的な認識処理の速度向上を図ることができる。
【0102】
また、画像入力機能を持つデバイスの高機能化を図ることができる。
【0103】
図27に、本実施形態に係るインタフェース装置のさらに他の構成例を示す。
【0104】
図27では、本体内に、図25とほぼ同様の構成であるが、本構成例は、認識エンジンが本体側とデバイス側などの複数の場所に存在する場合、先にアクティブになった認識エンジンを持つ側が、同一の認識エンジンを持つ他の側に、該認識エンジンを非アクティブにするように通信するようにしたものである。
【0105】
この場合のアクティブ通知の動作手順例を図28に、アクティブ通知受理の動作手順例を図29にそれぞれ示す。
【0106】
まず、デバイス側で画像入力が行なわれ(ステップS39)、本体側および/またはデバイス側で認識で実行される(ステップS40)。そして、認識実行した側は通知相手に、認識結果と画像マトリックスとアクティブリスト(または非アクティブリスト)を送る(ステップS41)。
【0107】
次に、通知を受ける側は、認識結果と画像マトリックスとアクティブリスト(または非アクティブリスト)を受理し(ステップS42)、受理したアクティブリスト中でONの認識エンジン(または非アクティブリスト中でOFFの認識エンジン)を、保持しているアクティブリスト中でOFFに書き替える(ステップS43)。そして、必要に応じて他の処理を実行する(ステップS44)。
【0108】
なお、以上の各機能は、ソフトウェアとしても実現可能である。また、上記した各手順あるいは手段をコンピュータに実行させるためのプログラムを記録した機械読取り可能な媒体として実施することもできる。
【0109】
本発明は、上述した実施の形態に限定されるものではなく、その技術的範囲において種々変形して実施することができる。
【0110】
【発明の効果】
本発明によれば、画像処理結果に基づいて、カーソルの移動モード、選択のモード、ダブルクリックのモードなどの各モードを切り換えるので、モードを変えるためのユーザによる明示的な操作が不要になる。
【0111】
また、ユーザの指示した点を認識処理で読み取って画面上のカーソル移動等に反映させるので、ユーザの操作によるキャリブレーションが不要である。
【0112】
このように本発明によれば、ユーザの操作上の負担を軽減したより使い易いユーザインタフェース装置を提供することができる。
【0113】
また、本発明によれば、第1の装置側(デバイス側)である程度の認識処理を行なうので、負荷分散ができ、また全体的な認識処理の速度向上を図ることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係るインタフェース装置の構成例を示す図
【図2】画像入力部の構成例を示す図
【図3】表示装置と画像入力部の筐体と対象物体の関係を説明するための図
【図4】同実施形態のユーザインタフェース装置の動作手順例を示すフローチャート
【図5】同実施形態のユーザインタフェース装置の動作手順例を示すフローチャート
【図6】同実施形態のユーザインタフェース装置の動作手順例を示すフローチャート
【図7】カーソル制御のジェスチャを示す入力画像の一例を示す図
【図8】画面表示例を示す図
【図9】画面表示例を示す図
【図10】画面表示例を示す図
【図11】選択のジェスチャを示す入力画像の一例を示す図
【図12】画面表示例を示す図
【図13】画面表示例を示す図
【図14】ダブルクリックのジェスチャを示す入力画像の一例を示す図
【図15】画面表示例を示す図
【図16】画面表示例を示す図
【図17】画面表示例を示す図
【図18】画面表示例を示す図
【図19】画面表示例を示す図
【図20】画面表示例を示す図
【図21】指定された認識エンジンに従った処理について説明するための図
【図22】オブジェクト毎の認識エンジンの記述の一例を示す図
【図23】本発明の第2の実施形態に係るインタフェース装置の一構成例を示す図
【図24】垂直スライダーバー選択時のアクティブリスト記憶部の記述の一例を示す図
【図25】本発明の第2の実施形態に係るインタフェース装置の他の構成例を示す図
【図26】同実施形態のユーザインタフェース装置の動作手順例を示すフローチャート
【図27】本発明の第2の実施形態に係るインタフェース装置のさらに他の構成例を示す図
【図28】同実施形態のユーザインタフェース装置の動作手順例を示すフローチャート
【図29】同実施形態のユーザインタフェース装置の動作手順例を示すフローチャート
【符号の説明】
10…画像入力部
11…画像記憶部
12…形状解釈部
13…解釈規則記憶部
14…呈示部
15…カーソル切替部
101…発光部
102…反射光抽出部
103…タイミング制御部
20…表示装置
8…筐体
30…認識エンジン制御部
31,34…アクティブリスト記憶部
32…本体制御部
33…認識エンジン保存部
121…最近点垂直方向エンジン
122…最近点水平方向エンジン
142…カーソルエンジン
143…選択エンジン
144…ダブルクリックエンジン
151〜15N…認識エンジン

Claims (6)

  1. 反射画像を入力画像として入力する第1の装置と、当該入力画像の認識処理結果により、表示画面上の操作対象を操作するための入力を行う第2の装置からなるユーザインタフェース装置であって、
    前記第2の装置は、
    前記第1の装置に対して、前記操作対象に予め定められた認識方法を指定する手段を具備し、
    前記第1の装置は、
    前記入力画像に対し、前記第2の装置から指定された認識方法に対応する認識処理を行い、その結果得られた認識結果と当該入力画像とを前記第2の装置へ返す手段と、
    を具備したことを特徴とするユーザインタフェース装置。
  2. 反射画像を入力画像として入力する第1の装置と、当該入力画像の認識処理結果により、表示画面上の複数の操作対象を操作するための入力を行う第2の装置からなるユーザインタフェース装置であって、
    前記第2の装置は、
    前記入力画像を基に、前記表示画面に表示された複数の操作対象のうちの1つを選択する手段と、
    前記第1の装置に対して、選択された前記操作対象に予め定められた認識方法を指定する手段を具備し、
    前記第1の装置は、
    前記操作対象が選択された後に入力した入力画像に対し、前記第2の装置から指定された認識方法に対応する認識処理を行い、その結果得られた認識結果と当該入力画像とを前記第2の装置へ返す手段と、
    を具備したことを特徴とするユーザインタフェース装置。
  3. 前記第1の装置は、前記認識処理を行うために必要な認識エンジンを保持しない場合、前記第2の装置に当該認識エンジンの転送を要求する手段をさらに具備し、
    前記第2の装置は、前記第1の装置から要求された認識エンジンを当該第1の装置へ転送する手段をさらに具備したことを特徴とする請求項1または2記載のユーザインタフェース装置。
  4. 前記第1の装置および前記第2の装置のそれぞれは、異なる認識処理を行う複数の認識エンジンを保持するとともに、同一の認識エンジンが当該第1装置と当該第2の装置とに保持されており、
    前記第1の装置と前記第2の装置のそれぞれは、
    当該第1の装置と当該第2の装置のうちのいずれか一方の装置において、当該同一の認識エンジンがアクティブになったとき、他方の装置に対し、当該同一の認識エンジンを非アクティブにするよう通知する手段と、
    前記一方の装置から前記同一の認識エンジンを非アクティブにするよう通知を受けたとき、当該同一の認識エンジンを非アクティブにする手段と、
    をさらに具備したことを特徴とする請求項1または2記載のユーザインタフェース装置。
  5. 反射画像を入力画像として入力する第1の装置と、当該入力画像の認識処理結果により、表示画面上の操作対象を操作するための入力を行う第2の装置からなるユーザインタフェース装置における指示入力方法であって、
    前記第2の装置は、前記第1の装置に対して、前記操作対象に予め定められた認識方法を指定すると、当該第1の装置は、前記入力画像に対し、前記第2の装置から指定された認識方法に対応する認識処理を行い、その結果得られた認識結果と当該入力画像とを前記第2の装置へ返すことを特徴とする指示入力方法。
  6. 反射画像を入力画像として入力する第1の装置と、当該入力画像の認識処理結果により、表示画面上の複数の操作対象を操作するための入力を行う第2の装置からなるユーザインタフェース装置における指示入力方法であって、
    前記第2の装置は、前記入力画像を基に、前記表示画面に表示された複数の操作対象のうちの1つを選択して、この選択された操作対象に予め定められた認識方法を前記第1の装置に対して指定すると、当該第1の装置は、前記操作対象が選択された後に入力した入力画像に対し、前記第2の装置から指定された認識方法に対応する認識処理を行い、その結果得られた認識結果と当該入力画像とを前記第2の装置へ返すことを特徴とする指示入力方法。
JP00949697A 1997-01-22 1997-01-22 ユーザインタフェース装置及び指示入力方法 Expired - Fee Related JP3588527B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP00949697A JP3588527B2 (ja) 1997-01-22 1997-01-22 ユーザインタフェース装置及び指示入力方法
US09/009,696 US6266061B1 (en) 1997-01-22 1998-01-20 User interface apparatus and operation range presenting method
US09/860,496 US20010024213A1 (en) 1997-01-22 2001-05-21 User interface apparatus and operation range presenting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00949697A JP3588527B2 (ja) 1997-01-22 1997-01-22 ユーザインタフェース装置及び指示入力方法

Publications (2)

Publication Number Publication Date
JPH10207618A JPH10207618A (ja) 1998-08-07
JP3588527B2 true JP3588527B2 (ja) 2004-11-10

Family

ID=11721856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00949697A Expired - Fee Related JP3588527B2 (ja) 1997-01-22 1997-01-22 ユーザインタフェース装置及び指示入力方法

Country Status (1)

Country Link
JP (1) JP3588527B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2005174356A (ja) * 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
AU2002309016A1 (en) * 2002-05-20 2003-12-02 Tau Engineering, Inc. Remote operation detection device, program, and recording medium
JP2004246814A (ja) * 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd 指示動作認識装置
JP2008158675A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 車両用操作装置
JP4789885B2 (ja) * 2007-07-26 2011-10-12 三菱電機株式会社 インタフェース装置、インタフェース方法及びインタフェースプログラム
EP2258587A4 (en) * 2008-03-19 2013-08-07 Denso Corp OPERATING DEVICE FOR A VEHICLE
JP2021162969A (ja) * 2020-03-31 2021-10-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JPH10207618A (ja) 1998-08-07

Similar Documents

Publication Publication Date Title
US6266061B1 (en) User interface apparatus and operation range presenting method
US11983326B2 (en) Hand gesture input for wearable system
US11960706B2 (en) Item selection using enhanced control
EP0856786B1 (en) Window Displaying apparatus and method
JP4608326B2 (ja) 指示動作認識装置及び指示動作認識プログラム
US8294685B2 (en) Recognizing multiple input point gestures
US8259080B2 (en) Information handling system display device and methods thereof
US9529523B2 (en) Method using a finger above a touchpad for controlling a computerized system
US20170017393A1 (en) Method for controlling interactive objects from a touchpad of a computerized device
O'Hagan et al. Visual gesture interfaces for virtual environments
US20050237296A1 (en) Apparatus, system and method for virtual user interface
US10180714B1 (en) Two-handed multi-stroke marking menus for multi-touch devices
NO339941B1 (no) System og fremgangsmåte for et gestbasert styringssystem
JPH05282115A (ja) メニュー表示装置および方法
Corsten et al. Forceray: Extending thumb reach via force input stabilizes device grip for mobile touch input
JPH10207619A (ja) ユーザインタフェース装置及び操作範囲呈示方法
US20060168528A1 (en) Method for arranging user interface glyphs on displays
JP3588527B2 (ja) ユーザインタフェース装置及び指示入力方法
Wilson et al. Flowmouse: A computer vision-based pointing and gesture input device
Hueber et al. Headbang: Using head gestures to trigger discrete actions on mobile devices
US9639195B2 (en) Method using finger force upon a touchpad for controlling a computerized system
JP2004246814A (ja) 指示動作認識装置
KR101335394B1 (ko) 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치
JP4563723B2 (ja) 指示動作認識装置及び指示動作認識プログラム
JP4665172B2 (ja) 対話型インターフェース方式および対話型インターフェース用プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040816

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070820

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080820

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090820

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090820

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100820

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100820

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110820

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110820

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120820

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120820

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees