JP3787649B2 - Pointing device - Google Patents
Pointing device Download PDFInfo
- Publication number
- JP3787649B2 JP3787649B2 JP02402095A JP2402095A JP3787649B2 JP 3787649 B2 JP3787649 B2 JP 3787649B2 JP 02402095 A JP02402095 A JP 02402095A JP 2402095 A JP2402095 A JP 2402095A JP 3787649 B2 JP3787649 B2 JP 3787649B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- input
- camera
- display screen
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、ポインティングデバイス装置(以下、単にポインティングデバイスと称す)に係わり、特に、1つ以上存在する領域のうちから、ユーザが注視している領域を特定し、その領域内に図面データに基づき表示されている1つ以上の対象物の中から、注視位置対応の対象物が特定されるようにしたポインティングデバイスに関するものである。
【0002】
【従来の技術】
従来のポインティングデバイスとしては、特開昭60-85899号、あるいは電子情報通信学会論文誌A、J71−A巻、12号2192〜2197頁において論じられているものがある。この従来技術では、アイカメラあるいはアイカメラと視野カメラを用いてユーザの注視点を求めており、画面上のポインティングデバイスにも使用できるものである。この他の従来技術としては、例えば特開昭62-196723号に示されたものでは、表示画面周辺部に点光源を設け、視野カメラに写った点光源についての画像をもとに、ユーザの頭部の回転角度を検出し、アイカメラにより検出された眼球の位置を補正するようにしている。また、特開昭62-53630号および特開昭62-53631号に示されたものでは、測定空間内に特徴物を設置し、視野画像内での特徴物の位置をもとに、アイカメラからの視点情報を補正する。これらの発明に於いては、ユーザ位置の移動時にも、視点情報の補正が可能である。さらに、指差信号をポインティングに使用する技術として、特願昭60-99532号に記載のものが知られており、ユーザが移動しながらのポインティングが可能なものである。
【0003】
上記した従来技術の、特開昭60-85899号及び電子情報通信学会論文誌に示されたもの、及び特開昭62-196723号に示されたものは、眼球と頭部の移動する状況下で、ユーザの視点位置を求めることには有効であるが、ユーザの身体の位置が大きく移動するような場合には使用できない。また、特開昭62-53630号及び同62-53631号に示されたものは、初期の視野画像及び前回の視野画像を記憶しておき、それと最新の視野画像とから、ユーザの頭部位置を補正するものであるため、ユーザの動きが大きく、視野画像内から特徴物が一時的にはずれるような場合については、処理が複雑になるという問題がある。さらに、表示画面が複数個ある場合に、視点がどの表示画面のどの部分にあるかを特定することについての配慮がなされていない。さらに、特願昭60-99532号に示されたものは、スクリーンの周囲に多数の受光素子を配置する必要があり、特に大型の表示画面については簡便に製作できないという問題があった。
【0004】
本発明の目的は、1つ以上の領域各々に1以上の対象物が表示又は存在する場合、先ずユーザが注視している領域を特定し、その領域内から図面データを用いて注視位置対応の対象物を簡単に特定することができるポインティングデバイス装置を提供することにある。
【0005】
【課題を解決するための手段】
前記目的を達成するため本発明は、1つ以上存在する領域のうちからユーザが注視している領域を特定し、その領域内に図面データに基づき表示されている1以上の対象物の中から注視位置対応の対象物を特定するようにしたポインティングデバイス装置であって、1つ以上の領域を個々に識別するための識別手段と、ユーザに装着される視野カメラ及びアイカメラと、前記視野カメラのモニタ画面内におけるユーザの視点位置及び前記識別手段の位置に基づいて前記ユーザが注視している領域を特定し、前記ユーザが注視している領域内における前記ユーザの視点位置の座標を、前記視野カメラのモニタ画面内での前記識別手段の位置及びユーザの視点位置の座標により特定し、前記ユーザが注視している領域内における前記ユーザの視点位置及び図面データの座標位置に基づいて、ユーザが注視している対象物を特定する手段と、を備えたことを主な特徴とする。
【0006】
【作用】
本発明は、ユーザが移動しても、また、領域が複数ある場合でも、ユーザが何れの領域を注視しているかを、モニタ画面内におけるユーザの視点位置及び識別手段により容易に特定し、更に当該注視している領域内における1以上の対象物を注視しているかを図面データを用いて特定することができる。
【0007】
【実施例】
以下、本発明を実施例により説明する。図1は本発明の一実施例を示すブロック図で、表示装置11の表示画面1001の周辺の4隅には、赤外線ランプ1101が設けられている。表示画面1001には、表示制御装置1201を介して表示図面データ1301の図面が表示される。ユーザ2401は、眼球の動きを検出するアイカメラ1401とユーザの正面の様子を撮影するための、小形カメラである視野カメラ(赤外線に対する感度のよいもの)1501、及び音声入力用のマイク1901を装着している。また他の入力機器としてキーボード1801が用意されている。カメラ信号処理装置1601は、アイカメラ1401と視野カメラ1501の信号を基に、表示画面1001内の視点の位置座標を求める。この信号を基に、対象物特定装置1701は、表示画面1001に表示中の表示画面データから、ユーザが注視している表示画面内の対象物を特定する。一方、入力解析装置2001では、入力解析用データ2101を用いて、マイク1901及びキーボード1801からの入力を解析する。この結果が入力信号総合処理装置2201に入力され、対象物特定装置1701からの注視対象物についての情報と合わせて、計算機2301に処理命令として出力される。
【0008】
図2は、カメラ信号処理装置1601の動作を示すフローチャートである。この装置では、常時周期的にこの処理を実行する。まず、視野カメラ1501及びアイカメラ1401からの信号を取り込み(ステップ9111)、次に視野カメラ1501の信号から、輝度レベルにもとづいて視野内、即ち視野カメラのモニタ画面内での赤外線ランプの位置座標を求める(ステップ9112)。ついで、アイカメラ1401の信号から、視野カメラ1501のモニタ画面内での視点の位置座標を求める(ステップ9113)。さらにモニタ画面内での赤外線ランプの位置座標及び視点位置座標から、実際の表示画面の赤外線ランプ位置などの情報を基に、透視変換などの通常の画像処理技術を用いて、表示画面1001上の視点の座標を求める(ステップ9114)。
【0009】
図3は、対象物特定装置1701の動作を示すフローチャートである。まずカメラ信号処理装置1601で検出された視点の座標を取り込み(ステップ9121)、この視点の座標をもとに、表示画面データを参照して視点位置に表示されている対象物を特定する(ステップ9122)。
【0010】
図4は、表示図面データ1301の一例を示す図で、表示物の名称とそれが表示されている表示画面1001上の座標から成っている。ただし座標は、表示物が表示されている領域を四角形で近似したときの、各頂点の座標である。なお、上記領域を多角形で近似することも可能であり、その場合にはその各頂点の個数に見合った座標データを用意する必要がある。
【0011】
次に、入力解析装置2001と入力信号総合処理装置2201の動作を説明する。これらの装置は、マイクあるいはキーボードからの入力があった場合にのみ動作する。
【0012】
図5は、入力解析装置2001の動作を示すフローチャートである。これはキーボード1801あるいはマイク1901からの入力文を解析して、処理命令、即ち関数と引数値に変換して出力するもので、入力文として、「アツリョク トレンド ヒョウジ。」がステップ101で入力された場合を例として動作を説明する。辞書202に記載された単語の品詞カテゴリと文法201とを参照して、入力文の形態素・構文解析が行われる。この結果、入力文が分割書きされ、各々の単語にそれぞれ意味カテゴリ及び意味が付加される。ここで、形態素・構文解析の手法としては、通常使用されている手法、例えば予測ボトムアップ法などを使用する。また文法は、文の構造に関する規則であり、例えば
S(文)→NP(名詞句) S(文)
は、左辺のSが右辺のNPとSにより構成されうるという規則を表すものである。また辞書には、各見出し語について、品詞カテゴリ、見出し語をかな漢字に変換した表示語、意味カテゴリ、及び意味の4つの情報を与えている。ただし助詞については品詞カテゴリと表示語の2つだけを与えている。なお、入力文に含まれる語の認定は、ワードプロセッサなどで通常用いられる最長一致法による辞書引きによっても、同様に実施できる。
【0013】
次に、命令内容の同定のための処理ステップ103を実行する。この処理では、構文解析の結果を取り込み、命令同定ルール203を用いて命令内容を同定する。ここで命令とは、例えばSHOW-SVAR(状態量の提示命令)などのようなものである。また命令同定ルールは、各々の命令に対してその命令を同定するための標準的な文パターンを与えたものである。命令同定では、図6で詳細に述べるように、入力文と各々の文パターンとのマッチングを順次試み、マッチングした文パターンに対応する命令を入力命令であるとする。図の例では、文パターン「¥<状態量>?提示+せよ」が入力文とマッチングし、入力命令がSHOW-SVARであるという同定結果が得られている。この処理では、文パターンを与えるために、いくつかの記号を用意している。「%」は入力文に助詞がある場合にのみマッチングに使用する語を表す記号であり、これにより対話文によく見られる助詞の省略に対応することが可能である。「+」は省略可能な語を表す記号で、体言止めなどに対応するためのものである。「?」は任意個の語を表す記号であり、これによって文パターンの設定を容易としている。さらに、「¥」は語の意味カテゴリとのマッチングをすることを表す。
【0014】
ここで命令内容同定部の詳細な処理内容を説明する。図6はそのフローチャートで、まず文パターン番号を1に設定する。またその文パターンについて、文パターン中の語の番号を表すiを文パターンの語の総数Iに設定する。さらに、入力文の語の番号を示すjを入力文の語の総数Jに設定する(ステップ401)。次にk番目の文パターンのi番目の語Piと入力文のj番の語Wjを持ってくる(ステップ402)。このPiとWjとについて以下に述べるマッチング処理を実施する。なお、始めはiはIに、jはJに設定されているので、入力文及び文パターンの文末から文頭に向かって、語の比較を実施することになる。
【0015】
マッチングの処理は、文パターンの語Piの形、つまり前述の記号の有無によって異なる(ステップ403)。まず、記号がついていない場合の処理を説明する。この場合には、PiとWjとを比較し(ステップ404)、これらが同じ場合には、iとjを1だけ減じる(ステップ405)。つまり比較する語を1つ前のものとする。この結果iが0となった場合(ステップ406)は、文パターンの語全てが入力文の語とマッチングした場合なので、その文パターンkに対応する命令名を、入力された命令内容であるとして出力する(ステップ410)。
【0016】
一方、iが1以上の場合(ステップ406)には、jについての判定を実施する(ステップ407)。この結果、jが1以上であれば、ステップ402からの処理を繰り返す。逆にjが0であれば、文パターンkと入力文とのマッチングが失敗したので、次の文パターン(k+1)とのマッチングの準備をする(ステップ408)。ついで文パターンがまだ残っていれば(ステップ409)、ステップ402からの処理を新しい文パターンについて実行する。一方、文パターンがなくなった時には、命令同定不可の旨を出力し処理を終了する(ステップ412)。
【0017】
Piに記号「¥」が付いている場合には、PiとWjの意味カテゴリを比較する(ステップ413)。その結果に応じて前述と同様の処理を実施する。
【0018】
Piに記号「%」がついている場合には、Wjの品詞カテゴリが助詞であるか否かを判定する(ステップ414)。その結果、助詞であればPiとWjを比較し(ステップ415)、結果に応じて前述と同様の処理を実施する。一方、Wjが助詞でない場合には、jを1減じ、jが1以上であれば(ステップ417)、ステップ402にもどる。一方、jが0であれば、入力文の語がなくなったので、文パターンkと入力とのマッチングは失敗したとして、次の文パターンについての処理、即ちステップ408からの処理を実施する。
【0019】
「Pi」に記号「+」がついている場合には、PiとWjとを比較し(ステップ418)、同じであればステップ405からの処理を実施する。一方、異なる場合には、iを1減じた後iが1以上であればステップ402に戻る。iが0になった場合には、文パターンkの語が全て(省略可能なものを除いて)入力文に含まれていたということなので、ステップ410に戻り、命令同定を終了する。
【0020】
Piが記号「?」である場合には、「?」の前の語Pi−1とWjを比較する(ステップ421)。この結果、語がマッチングすれば、iから1を減じて、次の語についてのマッチング処理をステップ405から実行する。一方、同じでなければjを1減じ、jが1以上であれば(ステップ424)、ステップ402から入力文の1つ前の語を用いてマッチング処理を実施する。jが0であれば、文パターンkとのマッチングは失敗したので、次の文パターンk+1とのマッチング処理、即ちステップ408からを実行する。
【0021】
以上に詳述した図5のステップ103の命令同定処理が終わると、次にステップ104で同定した命令の実行に必要な情報の取得のための処理を行う。即ち命令によっては、その実行のためにいくつかの情報が必要なので、その情報取得を制御するための方法として、必要な情報項目とその取得方法をフレーム形式のデータとして用意した。これを格フレームという。格フレームは命令ごとに定義しており、命令名称のフレームの各スロットに、その命令の実行に必要な情報の項目を与えている。図5の格フレーム204の例では、命令SHOW-SVARに対して「状態量」、「表示形態」、及び「場所」の3つの情報が必要であることが示されている。各スロットのファシット及び値には、その情報を得るのに必要なデータを与えている。VALUEファシットには、入力文から検索すべき語の意味カテゴリ名が、IF-NEEDEDファシットには、入力文中に必要な語がない場合に起動すべき関数の名称が与えられている。ここで、関数STACKは対話履歴スタックを参照する関数、関数ASKは質問者に情報の追加入力を要求する関数である。また、関数CAMERAは、対象物特定装置1701からの結果を使用するようにするためのものである。この関数が起動されると、対応する格の値として、?Placeを書き込む。
【0022】
ステップ104の処理の流れを図7のフローチャートに示す。まず命令名をフレーム名としてもつ格フレームを取り出す(ステップ501)。次にiを1に設定する(ステップ502)。この初期処理のあとに、第iスロットのVALUEファシットの値を読み、Viの値として設定する(ステップ503)。このViの値がnilでなければ(ステップ504)、入力文の中から意味カテゴリをもつ語を捜す(ステップ505)。該当する語が発見できれば(ステップ506)、得られた語を第iスロットの情報項目の値として設定し(ステップ507)、まだスロットが残っていれば(ステップ510)、iを1増やして(ステップ511)、次のスロットについての処理に移る。一方、ステップ506で語を発見できない場合、あるいはステップ504でViの値がnilの場合には、IF-NEEDEDファシットの値を読み、Niの値として設定する(ステップ508)。次いで、Niの関数を順次実行する。その結果、値が得られた場合には、それを第iスロットの情報項目の値として設定して(ステップ509)、次のスロットについての処理に移る。
【0023】
以上の動作を図5の入力の例について述べると、命令SHOW-SVARに対応する格フレームには、「状態量」、「表示形態」、及び「場所」の3つのスロットがある。「状態量」については、まずVALUEファシットの値として与えられている意味カテゴリ<状態量>をもつ語を入力文の中で検索する。今、入力文には、対応する語「圧力」が含まれている。これにより、「状態量」の値として「圧力」が設定される。同様に表示形態についても、入力文から、意味カテゴリ<表示形態>を持つ語として「トレンド」が得られ、値として設定される。「場所」については、入力文から、意味カテゴリ<Place>の語が検索されるが、今、入力文中に対応する語はない。そのため、IF-NEEDEDファシットの値が参照され、関数CAMERAが実行される。この結果「場所」の値として「?Place」が設定される。
【0024】
以上のようにして命令実行に必要な情報の取得が終わると、最後にステップ105の関数・引数への対応づけのための処理が実行される。この処理では、前の処理で得られた命令及び情報項目の値を、プログラムの関数と引数に対応づけて出力する。図5の入力の例では、SHOW-SVARと「表示形態」トレンドから、関数名が「トレンド表示」に設定される。また引数値としては、「圧力」及び「?Place」が設定される。
【0025】
図8は、入力信号総合処理装置2201の動作を示すフローチャートである。この装置ではまず、入力解析装置2001で定められた関数名と引数値とを読み込む(ステップ9151)。次に、引数の中に変数?Placeがあるか否かを判定する(ステップ9152)。この結果、変数がなければ、入力解析装置2001からの関数、引数値を処理命令として計算機に出力する(ステップ9153)。一方、変数がある場合には、対象物特定装置1701から、ユーザが注視している対象物を読み込む(ステップ9154)。更に、変数?Placeに対象物の名称を設定し、処理命令を完成させて計算機に出力する(ステップ9155)。
【0026】
以上説明したごとく、本実施例になる装置を使用すれば、ユーザの装着したアイカメラ及び視野カメラからの視点についての信号、及び表示画面の周辺部に設けられた赤外線ランプの画像についての信号を用いて、ユーザが注視している表示画面内の座標及びそこに表示されている対象物を求めることができる。これによって、簡便でかつ操作場所を限定されないポインティングが可能となる。また、音声、キーボードからの入力と、注視対象物についての情報を総合して、計算機への命令とすることができる。これらにより、ポインティング操作のみならず、計算機への入力作業の簡単化、作業性の向上などが実現できる。
【0027】
なお、以上に説明した実施例においては、表示画面の形状を与えるためのマークとして、表示画面の4隅に赤外線ランプを設置するものとしたが、これは種々の変形が可能である。図9はその一例であり、赤外線発光源2501〜2504から4つの漏洩ファイバの枠2701〜2704へ赤外線を送るようにし、さらに各赤外線発光源は点滅し、その点滅周期は各発光源で異なっている。このようなマークを使用する場合には、カメラ信号処理装置1601において、視野カメラの画像中のマークと視点についての信号から、視点がどのマークで囲まれた枠内にあるかを、視点を取りかこむマークの点滅周期から求める。その後、特定された枠内での視点の座標を求めるようにすれば、表示画面上の視点の座標を精度よく求められる。これは特に大画面表示装置のような表示装置を使用する場合に有効である。
【0028】
図10は、マークのもう1つの例を示す模式図である。1つの赤外線発光源2505からの赤外線は、スターカプラ2601、漏洩ファイバ2700、光ファイバ経由で点光源2801〜2804へ導かれる。表示画面1001は4分割されその各々で点光源の数が異なっている。このマークを使用すると、視点がどの分割領域にあるかを、漏洩ファイバからの光と、視点と同一分割領域内にある点光源の個数から判定する。それ以外の処理については、図9の例と同様である。本例によると、視点の座標精度を向上できる他、使用する赤外線光源の個数が1個でよいという効果がある。
【0029】
なお、これらの例では、表示画面1001をマークによって4分割したが、分割数を変えることは可能である。また、全表示画面についてマークを付けるのではなく、表示画面の一部のみにマークを付け、その部分のみポインティング可能な領域として使用することもできる。例えば、画面の一部を漏洩ファイバで囲み、視点がこの部分に入ったときのみ音声での入力を受け付けるようにし、音声入力のスイッチングに使用することができる。また、ここでは光源として赤外線光源を考えたが、これを他の波長の光源、例えば可視光の光源としても全く同様の機能が実現できる。
【0030】
図11は本発明の第2の実施例を示すブロック図で、表示盤2901には3個の表示画面1001〜1003が設置され、その周辺部にはそれぞれ赤、緑、青色のマーク3001〜3003が付けられている。各表示画面には、表示図面データ1302の図面が表示制御装置1202によって表示されている。ユーザ2401はアイカメラ1401と視野カメラ1501、1502、及び音声入力用マイク1901を装着し、またキーボード1801も用意されている。カメラ信号処理装置1602は、アイカメラ1401と視野カメラ1501、1502の信号をもとに、ユーザの視点がどの表示画面のどの座標にあるかを求める。この信号をもとに、対象物候補特定装置1702では、表示画面に表示されている図面の内で、ユーザが注視している対象物を求める。一方、入力解析装置2001では、入力解析用データ2101を用いて、マイク1901及びキーボード1801からの入力を解析する。この結果が入力信号総合処理装置2202に入力される。次いでこの装置で対象物候補と、対象物限定データ2203を用いて、ユーザの注視している対象物を特定し、入力解析装置2002からの信号と総合して、計算機2301に処理命令を出力する。これら各部の処理は、大筋では図1の場合と同様であるが、表示画面の個数とマークが異なっているので、その点での相違がある。以下、それらの詳細を説明する。
【0031】
図12はカメラ信号処理装置1602の動作を示すフローチャートである。まず視野カメラ1501、1502およびアイカメラ1401からの信号を取り込み(ステップ9211)、次に視野カメラのモニタの画面内で視点の位置座標を求める(ステップ9212)。次に視野カメラのモニタ画面内で視点を取りかこむマーク3001〜3003を特定し、その色を判別する(ステップ9213)。例えばマークの色が赤であると認識された場合には、視点が表示画面1001の中にあると特定される。次いで判別されたマークについて、マークの4隅の点の視野カメラのモニタ画面内での座標を求める(ステップ9214)。この位置座標及び視点の位置座標から、実際のマーク形状についての情報を用いて、表示画面上での視点の座標を求める(ステップ9215)。この処理は、通常の画像処理の手法により実施する。
【0032】
次いで、対象物候補特定装置1702で、視点があると特定された表示画面に表示されている図面についてのデータから、ユーザが注視している対象物の候補を求める。ここでの処理は、前述した図1の対象物特定装置1701での処理と同様である。但し、表示図面データの内容が異なり、同一の画面内の点に複数個の対象物を対応付けることを許している。つまり、対象物候補特定装置は、視点の座標から1つ以上の対象物候補を出力することになる。以下では、表示画面には原子力プラントの圧力容器の図面が表示されており、対象物候補として、気水分離器と蒸気ドームの2つが得られたものとする。
【0033】
次に、マイク1901あるいはキーボード1801からの入力を入力解析装置2001で解析する。これは図1のものと全く同じ処理を行う。そこで今、マイク1901から
「圧力トレンド示せ」
という入力があった場合を考えると、この入力が解析され、
トレンド表示(圧力、?Place)
という命令であると同定される。ここで、?Placeは場所を表す変数である。この同定された命令と先に求めた対象物の候補を取り込み、入力信号総合処理装置2202は、計算機2301への命令を作成する。
【0034】
図13は入力信号総合処理装置2202の動作を示すフローチャートである。この装置は、まず入力解析装置2001から関数名と引数値を読み込む(ステップ9221)。次に引数の中に変数?Placeがあるか否かを判定する(ステップ9222)。判定の結果、変数?Placeがなければ、入力解析装置2001からの関数、引数をそのまま処理命令として計算機2301に出力する(ステップ9223)。一方、変数がある場合には、対象物候補特定装置1702から、ユーザが注視している対象物候補を読み込む(ステップ9224)。今の場合、対象物候補として気水分離器と蒸気ドームの2つが得られる。次いで、特定の引数(今の場合は状態量、値は「圧力」)の値を基に、対象物限定データを検索する(ステップ9225)。
【0035】
ここで、対象物限定データ2203について説明する。図14は対象物限定データの一部の内容を示す図で、状態量とプラント内の部位との関係が与えられている。このデータは、例えばドライウエル、蒸気ドームなどについては圧力が計測されており、炉心などについては流量が計測されていることを表している。
【0036】
図13に戻って、ステップ9225でこのデータを検索した後、引数値(今の例では「圧力」)に対応する部位として対象物候補が有るかどうかを判定する(ステップ6226)。この結果、なければ場所についての入力をユーザに要求する(ステップ6229)。この要求に従い、ユーザからマイクなどでの入力があればそれを解析して、処理命令を完成する。一方、候補があった場合には、それが1つか否かを判定する(ステップ6227)。その結果、候補が2つ以上ある場合には、ユーザに選択を要求する(ステップ6230)。候補が1つの場合には、それを変数?Placeの値として設定し、命令を完成して計算機に出力する(ステップ6228)。今考えている例では、対象物の候補として、気水分離器と蒸気ドームの2つが得られたが、マイクからの入力を解析して得られた引数値「圧力」から対象物限定データの参照により、圧力が計測されている部位である蒸気ドームが選択される。その結果、命令
トレンド表示(圧力、蒸気ドーム)
を完成し、計算機2301に出力する。
【0037】
以上説明したごとく、本実施例になる装置を使用すれば、複数個の表示画面を用いるような場合に、ユーザの視点がどの表示画面のどの部分にあるかを特定することができる。従って多数の表示画面を使用するプラント運転などの場合での命令入力に有効である。なお、本実施例では、ユーザが1人の例を示しているが、複数人の場合にも同様の処理が可能である。
【0038】
図11の実施例では、表示画面1001〜1003を異なる色の枠で囲んでその識別を行うものであるが、これを別の方法によって行うようにした例を図15に示す。同図において、表示盤2901には3個の表示画面1001〜1003が設けられ、それぞれの周辺にはマーク3004が設けられている。このマークは赤外線あるいは可視光線の発光源、もしくはペンキなどの塗料で記入されたものである。このようにして、マークの個数によって表示画面を区別することができる。さらに、表示画面左右及び上下のマークの個数を変えることにより、視野カメラの画像にどの表示画面のどの部分が写っているのかを認識できる。また、マークの区別をその個数と配置だけでなく、色、光源強度、点滅周期やそれらの組合わせで行うようにすることもできる。このようなマークを使用することにより、ユーザの頭部が大きく回転した場合についても、画面の上下左右を簡単に判別することが可能となる。
【0039】
図16は本発明の第3の実施例になる装置の構成を示すブロック図である。ユーザ2401の帽子3301には矢印マーク3302がつけられ、モニタカメラ3101はこれをモニタする。表示画面特定装置3201は、モニターカメラ3101がとらえた矢印マーク3302の信号をもとに、ユーザが向いている方向にある表示画面を特定する。カメラ信号処理装置1603は、ユーザが装着したアイカメラ1401、視野カメラ1501の信号を基に、上の処理で特定された表示画面内での視点を求めて、計算機2301に入力する。
【0040】
ここで、表示画面1001〜1003の周辺部あるいはその内部にはマークをつけず、表示画面はその枠の形状と色をマークとして用いるものとする。この方法によれば、表示画面あるいはその内部にマークをつける必要がなく、予め存在するものをマークとして使用することができ、表示要求等の作成の手間を省力化できる。さらに、ユーザの動きを、帽子の矢印をモニタしてとらえ、ユーザが見ている表示画面の候補を絞ることができる。この方法は、第2の実施例などと併用可能であり、とくに表示画面の数が多い場合には、その特定の処理の高速化、簡単化に役立つ。
【0041】
なお、ここでは表示画面の枠の形状と色をマークとして使用したが、画像処理技術が進歩すれば、表示画面に表示された図面を認識し、ユーザの視点のある部分に表示されている対象物を直接特定することが可能である。
【0042】
図17は本発明の第4の実施例を示すものである。同図において、プラントの制御盤3501には、メータ3401〜3404及びスイッチ3601〜3604が設置されている。赤外線光源2506〜2512からの光は、光ファイバ3801〜3807によって分岐器3701〜3707に導かれている。この分岐器には漏洩ファイバ3901〜3907が接続され、このファイバはスイッチやメータを囲むように配置されている。赤外線発光源2506〜2512は、各々相異なる波長の光を発生している。
【0043】
一方、ユーザ2401の装着したアイカメラ1401及び視野カメラ1501は、信号送信装置4001及び信号受信装置4101を経由し、計算機4201にそのデータ入力部4202を介して取り込まれる。この信号は機器特定部4601、データ記録部4602、出力部4203を介して記憶装置4401に記憶される。機器特定部4601では、機器特定用データ4402を、入力部4207、出力部4208を介して利用する。一方、命令入力装置4301から、入力部4205を介して命令が入力されると、データ検索部4603が動作し、記憶装置4401から入力部4202を介して記録されたデータが読み出され、入力命令に沿った形態で出力部4206を介して出力装置4501に表示、印字、あるいはコピーされる。
【0044】
本実施例は、例えばプラント運転中の運転員の視点の動きを自動的に記録、処理するためのもので、起動されると図18の処理を周期的に実施する。まず、視野カメラ(赤外線カメラ)に写った漏洩ファイバの枠のうちのどの枠内にアイカメラからの視点が入っているかを特定する。この処理ステップ9301の詳細なフローチャートは図19に示されており、これは機器特定部4601で実行される。即ちまず、視野カメラ、アイカメラからの信号を取り込み(ステップ9311)、視野カメラのモニタ画面内での視点の位置座標を、アイカメラ信号から求める(ステップ9312)。次に視野カメラのモニタ画面内で視点を取りかこむ枠を特定する(ステップ9313)。次に特定した枠についての輝度情報から、枠の赤外線光源の点滅周期を求める(ステップ9314)。この点滅周期をもとに、機器特定用データを用いて枠内の機器個数を求める(ステップ9315)。その結果、特定された枠内に機器が1つだけの場合には(ステップ9316)、その機器を特定して処理を終了する(ステップ9317)。一方、枠内に複数個の機器がある場合、枠内での視点の座標を、図11の実施例のカメラ信号処理装置1602と同様の処理により求める(ステップ9318)。次に機器特定用データを用いて、視点の座標から機器を特定する(ステップ9319)。
【0045】
なお、ここで用いた機器特定用データの一部を図20に示す。このデータは、枠の赤外線光源の点滅周期ごとに、枠内機器の個数、機器名称を与えている。さらに枠内に複数個の機器がある場合には、各々の機器に対応する領域を定義するための、各領域を四角形で近似し、四角形の4つの頂点の座標を与える。ここで、各領域を定義する場合に、枠内を左右2領域にわけるときに分割点のx座標のみを与えるか、あるいは多角形や円などにより領域を定義することも同様に可能である。
【0046】
以上のようにして、図18のステップ9301により視点の入っている表示画面が特定されると、次にその時点の時刻と、運転員が見ているメータ、スイッチなどの名称などに係わる情報を、記憶装置4401に記憶する(ステップ9302)。
【0047】
一方、命令入力装置4301から表示命令が入力されたときには、図21の処理が起動され(ステップ9303)、記憶装置4401に記憶された運転員の視点の時間的な動作についての情報を、出力装置4501に表示あるいは他の形で出力する(ステップ9304)。この出力装置への出力は、命令入力装置からの要求があれば、データの処理と平行して、即ちモニタとして出力することが可能である。なお、本実施例になる装置では、漏洩ファイバを配置し、各々の点滅周期を変えることにより、運転員の注視している機器などを特定した。この特定は、前に述べた実施例で示した各種の方法によっても実施可能である。あるいは、スイッチ、メータの形状あるいはそれに付随して設置された銘板上の文字などの認識によっても、同様に実現できる。
【0048】
本実施例によれば、プラント運転中の運転員の視点の動きをモニタし、その注視している対象物名称あるいは番号などとともに記録できる。従って例えばメータを見る頻度、ある時間内での視点の動作範囲などの分析を、計算機を用いて容易に行え、制御盤の評価、設計などに生かすことができる。なお、本装置では視点の動作のみモニタしたが、マイク、音声認識装置を用いれば、運転員の発話の履歴についても同様に記録し、利用することが可能である。
【0049】
図22は本発明の第5の実施例を示すブロック図で、表示画面1001の周辺には赤外線光源2513を接続した漏洩ファイバ3908が配置されている。ユーザ2401は、赤外線投光器(指差レーザ)4701を持ち、あるいは指などに装着している。この投光器には、投光のオン、オフスイッチ4702が設けられている。モニタ用の赤外線カメラ3102は、表示画面1001の前方に固定設置され、その信号が指差位置特定装置5001を介して、計算機2301に入力される。さらに計算機に入力された指差位置は、表示制御装置1204を介して、指差マーカ4901として表示画面1001上に表示される。
【0050】
図23は本実施例になる装置での処理の概要を示すフローチャートである。まずモニタカメラの信号から、指差位置特定装置5001によって、指差レーザのレーザ光が、表示画面上にぶつかり反射する点の表示画面上の位置をステップ9401で求める。このステップ9401の詳細な内容は図24に示されており、まずモニタカメラ3102の信号を読み込み(ステップ2411)、この信号から投光器4701からの指差レーザ光の折れ曲がり点を検出し、その点のモニタ画面内での座標を求める(ステップ9412)。次いで漏洩ファイバ3908で作った枠の各辺を表す直線の式を、モニタ画面座標上で求める(ステップ9413)。次いで枠の各辺の式と、折れ曲がり点の座標から、実際の枠形状についての情報を用いて折れ曲がり点、即ちユーザが指差した点の表示画面上での座標を求める(ステップ9414)。この処理は、通常の画像処理の手法によって実施する。なお、この実施例では、赤外線光源と漏洩ファイバによって、表示画面のまわりに枠を作った。しかしモニタカメラは固定できるので、モニタ画面内での座標と表示画面上の座標の変換に必要な関係を予め用意しておけば、枠がない場合でも、同様の指差点特定処理を実施できる。
【0051】
次に、図23に戻って、ステップ9401で求めた座標を計算機2301に入力し、指差によるポインティング情報として利用する(ステップ9402)。さらに、表示制御装置1204にステップ9401で求めた座標を入力し、表示画面上に表示する(ステップ9403)。
【0052】
以上述べたように、本実施例になる装置によれば、指差信号をポインティングに使用できる。またスクリーンの周囲に多数の受光素子を配置する必要のある従来技術に対し、モニタカメラ、赤外線投光器、及び赤外線光源と漏洩ファイバによって装置を構成することが可能であり、画面の大型化に容易に対応できる。また本実施例では、表示画面が1つの場合を示したが、これが複数個ある場合についても、他の実施例で示したように、各表示画面ごとに赤外線光源の点滅周期を変える、可視光の利用、塗料によるマーク、あるいは表示画面の形状をマークとして利用する、などの方法によっても同様に実現できる。
【0053】
【発明の効果】
以上、説明したように、本発明によれば、ユーザが移動する場合でも、ユーザの眼球の動きについての情報を表示画面のポインティング、更には特定表示画面内での対象物のポインティングに使用でき、その非接触操作故に、操作場所が限定されないポインティングデバイスが実現され得るものとなっている。
【図面の簡単な説明】
【図1】本発明の第1の実施例の構成を示すブロック図である。
【図2】第1実施例の動作説明図である。
【図3】第1実施例の動作説明図である。
【図4】第1実施例の動作説明図である。
【図5】第1実施例の動作説明図である。
【図6】第1実施例の動作説明図である。
【図7】第1実施例の動作説明図である。
【図8】第1実施例の動作説明図である。
【図9】表示画面識別のための方法を示す図である。
【図10】表示画面識別のための方法を示す図である。
【図11】本発明の第2の実施例の構成を示すブロック図である。
【図12】第2実施例の動作説明図である。
【図13】第2実施例の動作説明図である。
【図14】第2実施例の動作説明図である。
【図15】第2の実施における表示画面識別のための方法を示す図である。
【図16】本発明の第3の実施例の構成を示すブロック図である。
【図17】本発明の第4の実施例の構成を示す図である。
【図18】第4実施例の動作説明図である。
【図19】第4実施例の動作説明図である。
【図20】第4実施例の動作説明図である。
【図21】第4実施例の動作説明図である。
【図22】本発明の第5の実施例の構成を示すブロック図である。
【図23】第5の実施例の動作説明図である。
【図24】第5の実施例の動作説明図である。
【符号の説明】
1001〜1003…表示画面、1101…赤外線ランプ、1301,1302…表示図面データ、1401…アイカメラ、1501,1502…視野カメラ、1601〜1603…カメラ信号処理装置、1701…対象物特定装置、1702…対象物候補特定装置、1801…キーボード、1901…マイク、2001…入力解析装置、2101…入力解析用データ、2201,2202…入力信号総合処理装置、2203…対象物限定データ、2301…計算機、2401…ユーザ、2700〜2704,3901〜3907…漏洩ファイバ、3001〜3004…マーク、3101,3102…モニタカメラ、3201…表示画面特定装置、3301…帽子、3302…矢印マーク、4201…計算機、4301…命令入力装置、4601…機器特定部、4701…赤外線投光器、4901…マーカ、5001…指差位置特定装置。[0001]
[Industrial application fields]
The present invention relates to a pointing device apparatus (hereinafter simply referred to as a pointing device), and in particular, there are one or more.regionThe user is watching fromregionIdentify and itsregionThe present invention relates to a pointing device in which an object corresponding to a gaze position is specified from one or more objects displayed on the basis of drawing data.
[0002]
[Prior art]
Conventional pointing devices include those discussed in Japanese Patent Application Laid-Open No. 60-85899, or IEICE Transactions A, J71-A, No. 12, pages 2192-2197. In this prior art, a user's gazing point is obtained using an eye camera or an eye camera and a field of view camera, and can be used for a pointing device on a screen. As another prior art, for example, in the one disclosed in Japanese Patent Laid-Open No. 62-196723, a point light source is provided at the periphery of the display screen, and based on an image of the point light source reflected in the field of view camera, the user's The rotation angle of the head is detected, and the position of the eyeball detected by the eye camera is corrected. In addition, in the devices disclosed in Japanese Patent Laid-Open Nos. 62-53630 and 62-53631, an eye camera is installed based on the position of the feature in the field-of-view image by installing the feature in the measurement space. Correct the viewpoint information from. In these inventions, the viewpoint information can be corrected even when the user position is moved. Further, a technique described in Japanese Patent Application No. 60-99532 is known as a technique for using a pointing signal for pointing, and the user can perform pointing while moving.
[0003]
The above-mentioned prior arts disclosed in Japanese Patent Application Laid-Open No. Sho 60-85899 and the Journal of the Institute of Electronics, Information and Communication Engineers, and those shown in Japanese Patent Application Laid-Open No. Sho 62-196723 are subject to movement of the eyeball and head. Thus, it is effective for obtaining the viewpoint position of the user, but cannot be used when the position of the user's body moves greatly. JP-A-62-253630 and JP-A-62-253631 store the initial visual field image and the previous visual field image, and based on this and the latest visual field image, the user's head position is stored. Therefore, there is a problem that the process becomes complicated when the user's movement is large and the feature is temporarily deviated from the visual field image. Furthermore, when there are a plurality of display screens, no consideration is given to specifying which part of which display screen the viewpoint is on. Further, the device disclosed in Japanese Patent Application No. 60-99532 has a problem that it is necessary to arrange a large number of light receiving elements around the screen, and in particular, a large display screen cannot be easily manufactured.
[0004]
The object of the present invention is to provide one or moreregionOne or more objects are displayed on eachOr existFirst, the user is watchingAn area can be specified, and an object corresponding to the gaze position can be easily specified from the area using drawing data.pointing deviceapparatusIs to provide.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, the present invention includes one or more.regionThe user is watching fromregionIdentify and itsregionA pointing device device that identifies an object corresponding to a gaze position from one or more objects that are displayed based on drawing data within the pointing device.AreaThe user is gazing based on identification means for individually identifying, a field camera and an eye camera worn by the user, and a viewpoint position of the user in the monitor screen of the field camera and the position of the identification means Identify the area,The coordinates of the viewpoint position of the user in the area where the user is gazing is specified by the position of the identification means and the coordinates of the viewpoint position of the user in the monitor screen of the visual field camera,The user is watchingregionAnd a means for specifying an object being watched by the user based on the viewpoint position of the user and the coordinate position of the drawing data.
[0006]
[Action]
Even if the user moves or there are a plurality of areas, the present invention easily identifies which area the user is gazing by using the user's viewpoint position and identification means in the monitor screen, It is possible to specify using drawing data whether one or more objects in the region being watched are being watched..
[0007]
【Example】
Hereinafter, the present invention will be described with reference to examples. FIG. 1 is a block diagram showing an embodiment of the present invention, and
[0008]
FIG. 2 is a flowchart showing the operation of the camera
[0009]
FIG. 3 is a flowchart showing the operation of the
[0010]
FIG. 4 is a diagram showing an example of the
[0011]
Next, operations of the
[0012]
FIG. 5 is a flowchart showing the operation of the
S (sentence) → NP (noun phrase) S (sentence)
Represents the rule that S on the left side can be composed of NP and S on the right side. In addition, the dictionary provides four pieces of information for each headword: a part of speech category, a display word obtained by converting the headword into Kana-Kanji, a semantic category, and a meaning. However, as for particles, only two parts are given: part of speech category and display word. In addition, the recognition of the word contained in an input sentence can be similarly implemented also by the dictionary lookup by the longest match method normally used with a word processor etc.
[0013]
Next, the processing step 103 for identifying the instruction content is executed. In this process, the result of the syntax analysis is taken in and the instruction content is identified using the
[0014]
Here, the detailed processing contents of the instruction content identification unit will be described. FIG. 6 is a flowchart of the process. First, the sentence pattern number is set to 1. For the sentence pattern, i indicating the word number in the sentence pattern is set to the total number I of words in the sentence pattern. Further, j indicating the word number of the input sentence is set to the total number J of words of the input sentence (step 401). Next, the i-th word Pi of the k-th sentence pattern and the j-th word Wj of the input sentence are brought (step 402). A matching process described below is performed on Pi and Wj. Since i is initially set to I and j is set to J, words are compared from the end of the input sentence and the sentence pattern toward the beginning of the sentence.
[0015]
The matching process differs depending on the shape of the word Pi of the sentence pattern, that is, the presence or absence of the aforementioned symbol (step 403). First, processing when no symbol is attached will be described. In this case, Pi and Wj are compared (step 404), and if they are the same, i and j are reduced by 1 (step 405). That is, the word to be compared is the previous one. When this result is 0 (step 406), since all the words of the sentence pattern match the words of the input sentence, it is assumed that the instruction name corresponding to the sentence pattern k is the input instruction content. Output (step 410).
[0016]
On the other hand, if i is 1 or more (step 406), the determination for j is performed (step 407). As a result, if j is 1 or more, the processing from
[0017]
If the symbol “¥” is attached to Pi, the semantic categories of Pi and Wj are compared (step 413). Depending on the result, the same processing as described above is performed.
[0018]
If the symbol “%” is attached to Pi, it is determined whether or not the part of speech category of Wj is a particle (step 414). As a result, if it is a particle, Pi and Wj are compared (step 415), and processing similar to that described above is performed according to the result. On the other hand, if Wj is not a particle, j is reduced by 1, and if j is 1 or more (step 417), the process returns to step 402. On the other hand, if j is 0, there are no more words in the input sentence, so that matching between the sentence pattern k and the input fails, and the process for the next sentence pattern, that is, the process from
[0019]
If “Pi” has a symbol “+”, Pi and Wj are compared (step 418). If they are the same, the processing from
[0020]
If Pi is the symbol “?”, The words Pi−1 and Wj before “?” Are compared (step 421). If the word matches as a result, 1 is subtracted from i, and the matching process for the next word is executed from
[0021]
When the instruction identification process in step 103 of FIG. 5 detailed above is completed, a process for acquiring information necessary for executing the instruction identified in
[0022]
The process flow of
[0023]
The above operation will be described with reference to the input example of FIG. 5. The case frame corresponding to the instruction SHOW-SVAR has three slots of “state quantity”, “display form”, and “location”. As for “state quantity”, first, a word having a semantic category <state quantity> given as a value of the VALUE facilit is searched in the input sentence. The input sentence now includes the corresponding word “pressure”. Thereby, “pressure” is set as the value of “state quantity”. Similarly, regarding the display form, “trend” is obtained as a word having a semantic category <display form> from the input sentence and set as a value. As for “place”, words in the semantic category <Place> are searched from the input sentence, but there is no corresponding word in the input sentence. Therefore, the value of the IF-NEEDED face is referred to and the function CAMERA is executed. As a result, “? Place” is set as the value of “place”.
[0024]
When the acquisition of information necessary for instruction execution is completed as described above, the process for associating with the function / argument in step 105 is finally executed. In this process, the value of the instruction and information item obtained in the previous process is output in association with the function and argument of the program. In the input example of FIG. 5, the function name is set to “trend display” from SHOW-SVAR and the “display form” trend. In addition, “pressure” and “? Place” are set as argument values.
[0025]
FIG. 8 is a flowchart showing the operation of the integrated input
[0026]
As described above, if the apparatus according to the present embodiment is used, a signal about the viewpoint from the eye camera and the field-of-view camera worn by the user and a signal about the image of the infrared lamp provided in the peripheral portion of the display screen are transmitted. It is possible to obtain the coordinates in the display screen that the user is gazing at and the object displayed there. This makes it possible to perform pointing that is simple and does not limit the operation location. In addition, voice, input from the keyboard, and information on the object to be watched can be integrated into a command to the computer. As a result, not only the pointing operation but also simplification of the input work to the computer and improvement of workability can be realized.
[0027]
In the embodiment described above, infrared lamps are provided at the four corners of the display screen as marks for giving the shape of the display screen. However, various modifications can be made. FIG. 9 shows an example. Infrared light is sent from the infrared
[0028]
FIG. 10 is a schematic diagram showing another example of the mark. Infrared rays from one infrared
[0029]
In these examples, the
[0030]
FIG. 11 is a block diagram showing a second embodiment of the present invention. Three
[0031]
FIG. 12 is a flowchart showing the operation of the camera
[0032]
Next, the object
[0033]
Next, the input from the
“Show the pressure trend”
When this input is considered, this input is analyzed,
Trend display (pressure,? Place)
Is identified. here,? Place is a variable representing a place. The input command
[0034]
FIG. 13 is a flowchart showing the operation of the input signal
[0035]
Here, the object limitation data 2203 will be described. FIG. 14 is a diagram showing the contents of a part of the object limitation data, and the relationship between the state quantity and the parts in the plant is given. This data indicates that, for example, pressure is measured for a dry well, a steam dome, and the flow rate is measured for a core and the like.
[0036]
Returning to FIG. 13, after this data is searched in
Trend display (pressure, steam dome)
Is output to the
[0037]
As described above, when the apparatus according to the present embodiment is used, when a plurality of display screens are used, it is possible to specify which part of which display screen the user's viewpoint is on. Therefore, it is effective for command input in the case of plant operation using a large number of display screens. In the present embodiment, an example in which the number of users is one is shown, but the same processing can be performed when there are a plurality of users.
[0038]
In the embodiment of FIG. 11, the
[0039]
FIG. 16 is a block diagram showing the configuration of the apparatus according to the third embodiment of the present invention. An arrow mark 3302 is attached to the
[0040]
Here, the
[0041]
Here, the shape and color of the frame of the display screen are used as marks. However, if the image processing technology advances, the object displayed on the part where the user's viewpoint is recognized by recognizing the drawing displayed on the display screen. It is possible to directly identify things.
[0042]
FIG. 17 shows a fourth embodiment of the present invention. In the figure,
[0043]
On the other hand, the
[0044]
This embodiment is for automatically recording and processing, for example, the movement of the operator's viewpoint during plant operation. When activated, the processing of FIG. 18 is periodically performed. First, it is specified which of the leaked fiber frames captured by the field-of-view camera (infrared camera) contains the viewpoint from the eye camera. A detailed flowchart of this
[0045]
A part of the device specifying data used here is shown in FIG. This data gives the number of devices in the frame and the device name for each blinking cycle of the infrared light source of the frame. Further, when there are a plurality of devices in the frame, each region is approximated by a rectangle for defining a region corresponding to each device, and the coordinates of four vertices of the rectangle are given. Here, when defining each region, it is possible to provide only the x coordinate of the dividing point when dividing the frame into two left and right regions, or to define the region by a polygon, a circle, or the like.
[0046]
As described above, when the display screen in which the viewpoint is entered is specified in
[0047]
On the other hand, when a display command is input from the command input device 4301, the processing of FIG. 21 is started (step 9303), and information about the temporal operation of the operator's viewpoint stored in the storage device 4401 is output to the output device. Displayed in 4501 or output in another form (step 9304). The output to the output device can be output in parallel with the data processing, that is, as a monitor if there is a request from the command input device. In addition, in the apparatus which becomes a present Example, the apparatus etc. which the operator watched were specified by arrange | positioning a leak fiber and changing each blinking period. This identification can also be performed by various methods shown in the above-described embodiments. Alternatively, it can be realized in the same manner by recognizing the shape of the switch or meter, or the letters on the nameplate installed therewith.
[0048]
According to the present embodiment, the movement of the viewpoint of the operator during plant operation can be monitored and recorded together with the name or number of the object being watched. Therefore, for example, the frequency of looking at the meter, the viewpoint operating range within a certain time, etc. can be easily analyzed using a computer, which can be utilized for the evaluation and design of the control panel. Although only the viewpoint movement is monitored in this apparatus, the utterance history of the operator can be recorded and used in the same manner by using a microphone and a voice recognition apparatus.
[0049]
FIG. 22 is a block diagram showing a fifth embodiment of the present invention, and a
[0050]
FIG. 23 is a flowchart showing an outline of processing in the apparatus according to the present embodiment. First, in
[0051]
Next, returning to FIG. 23, the coordinates obtained in
[0052]
As described above, according to the apparatus of the present embodiment, the finger signal can be used for pointing. In contrast to the conventional technology that requires a large number of light receiving elements to be arranged around the screen, the device can be configured with a monitor camera, an infrared projector, and an infrared light source and a leakage fiber, which makes it easy to enlarge the screen. Yes. Further, in this embodiment, the case where there is one display screen is shown, but even when there are a plurality of display screens, as shown in the other embodiments, the flashing cycle of the infrared light source is changed for each display screen. It can be realized in the same manner by a method such as using the mark, using a paint mark, or using the shape of the display screen as a mark.
[0053]
【The invention's effect】
As described above, according to the present invention, even when the user moves, the information about the movement of the user's eyeball can be used for pointing the display screen, and further for pointing the target object within the specific display screen. Because of the non-contact operation, a pointing device that does not limit the operation location can be realized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.
FIG. 2 is an operation explanatory diagram of the first embodiment.
FIG. 3 is an operation explanatory diagram of the first embodiment.
FIG. 4 is an operation explanatory diagram of the first embodiment.
FIG. 5 is an operation explanatory diagram of the first embodiment.
FIG. 6 is an operation explanatory diagram of the first embodiment.
FIG. 7 is an operation explanatory diagram of the first embodiment.
FIG. 8 is an operation explanatory diagram of the first embodiment.
FIG. 9 is a diagram illustrating a method for identifying a display screen.
FIG. 10 is a diagram illustrating a method for identifying a display screen.
FIG. 11 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.
FIG. 12 is an operation explanatory diagram of the second embodiment.
FIG. 13 is an operation explanatory diagram of the second embodiment.
FIG. 14 is an operation explanatory diagram of the second embodiment.
FIG. 15 is a diagram showing a method for identifying a display screen in the second embodiment.
FIG. 16 is a block diagram showing a configuration of a third exemplary embodiment of the present invention.
FIG. 17 is a diagram showing a configuration of a fourth exemplary embodiment of the present invention.
FIG. 18 is an operation explanatory diagram of the fourth embodiment.
FIG. 19 is an operation explanatory diagram of the fourth embodiment.
FIG. 20 is an explanatory diagram of the operation of the fourth embodiment.
FIG. 21 is an operation explanatory diagram of the fourth embodiment.
FIG. 22 is a block diagram showing a configuration of a fifth exemplary embodiment of the present invention.
FIG. 23 is an operation explanatory diagram of the fifth embodiment.
FIG. 24 is an operation explanatory diagram of the fifth embodiment.
[Explanation of symbols]
1001 to 1003 ... Display screen, 1101 ... Infrared lamp, 1301 and 1302 ... Display drawing data, 1401 ... Eye camera, 1501 and 1502 ... Field of view camera, 1601 to 1603 ... Camera signal processing device, 1701 ... Object identification device, 1702 ... Object candidate identification device, 1801 ... keyboard, 1901 ... microphone, 2001 ... input analysis device, 2101 ... input analysis data, 2201, 2202 ... input signal comprehensive processing device, 2203 ... object limitation data, 2301 ... computer, 2401 ... User, 2700-2704, 3901-3907 ... Leaked fiber, 3001-3004 ... Mark, 3101,3102 ... Monitor camera, 3201 ... Display screen identification device, 3301 ... Cap, 3302 ... Arrow mark, 4201 ... Computer, 4301 ... Command input Device, 4601 ... device specifying unit, 4701 ... infrared projector, 4901 ... marker, 5001 ... finger pointing position specifying device.
Claims (4)
前記領域周辺で色彩により形成するマーク、又は前記領域周辺で光を発光するマーク、又は領域の形状自体を利用したマークより成り、1つ以上の領域を個々に識別するための識別手段と、
ユーザに装着され、ユーザが目視している範囲を撮影する視野カメラと、
ユーザに装着され、前記視野カメラで撮影した画面内でのユーザの視点位置を検出するアイカメラと、
前記視野カメラの撮影画面内における前記ユーザが注視している領域を、前記識別手段及びアイカメラで検出した視点位置により特定し、
前記ユーザが注視している領域内における前記ユーザの視点位置の座標を、前記視野カメラの撮影画面内での前記識別手段の位置及びユーザの視点位置の座標により特定し、
前記ユーザが注視している領域内における前記ユーザの視点位置及び図面データもしくは機器特定データの座標位置に基づいて、ユーザが注視している対象物を特定する手段と、
を備えたことを特徴とするポインティングデバイス装置。A pointing device device that identifies a region in which a user is gazing from among one or more regions, and identifies a target corresponding to a gaze position from one or more objects in the region. ,
An identification means for individually identifying one or more areas, comprising a mark formed by color around the area, a mark emitting light around the area, or a mark using the shape of the area itself ;
A field-of-view camera that is worn by the user and captures the range that the user is viewing;
An eye camera that is mounted on the user and detects the user's viewpoint position within the screen shot by the field-of-view camera;
Specify the region in which the user is gazing in the shooting screen of the visual field camera by the viewpoint position detected by the identification means and the eye camera ,
The coordinates of the viewpoint position of the user in the area where the user is gazing are specified by the position of the identification means and the coordinates of the viewpoint position of the user in the shooting screen of the visual field camera,
The user of the viewpoint position and drawing data even properly based on the coordinate position of the device specific data in the region where the user is gazing, means for identifying an object that the user is gazing,
A pointing device device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02402095A JP3787649B2 (en) | 1995-02-13 | 1995-02-13 | Pointing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02402095A JP3787649B2 (en) | 1995-02-13 | 1995-02-13 | Pointing device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1317694A Division JPH03179517A (en) | 1989-12-08 | 1989-12-08 | Pointing device and its input method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07253843A JPH07253843A (en) | 1995-10-03 |
JP3787649B2 true JP3787649B2 (en) | 2006-06-21 |
Family
ID=12126861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP02402095A Expired - Fee Related JP3787649B2 (en) | 1995-02-13 | 1995-02-13 | Pointing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3787649B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004258802A (en) | 2003-02-24 | 2004-09-16 | Fuji Xerox Co Ltd | Working space management device |
-
1995
- 1995-02-13 JP JP02402095A patent/JP3787649B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07253843A (en) | 1995-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11073901B2 (en) | Display device, control method for display device, and computer program | |
US6345111B1 (en) | Multi-modal interface apparatus and method | |
US5627914A (en) | Method and apparatus for processing graphically input equations | |
CN103092432B (en) | The trigger control method of man-machine interactive operation instruction and system and laser beam emitting device | |
US6215890B1 (en) | Hand gesture recognizing device | |
US5677993A (en) | Information processing apparatus using pointing input and speech input | |
KR101423536B1 (en) | System for constructiing mixed reality using print medium and method therefor | |
KR102326507B1 (en) | Method and system for providing extended reality service to operate industrial facilities | |
US6979087B2 (en) | Display system with interpretable pattern detection | |
US20090015553A1 (en) | Image displaying apparatus, image displaying method, and command inputting method | |
Toyama et al. | A mixed reality head-mounted text translation system using eye gaze input | |
US10234955B2 (en) | Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program | |
CN108027656B (en) | Input device, input method, and program | |
US6437794B1 (en) | Interactive image generation method and apparatus utilizing a determination of the visual point position of an operator | |
Yin et al. | Synchronous AR assembly assistance and monitoring system based on ego-centric vision | |
JP2010102215A (en) | Display device, image processing method and computer program | |
CN109784128A (en) | Mixed reality intelligent glasses with text and language process function | |
CN113380088A (en) | Interactive simulation training support system | |
CN113688290A (en) | Interactive electronic maintenance system for vehicle chassis | |
JP2000187553A (en) | Input device and head mount display for input device | |
CN110299138A (en) | A kind of augmented reality assembly technology instructs system and method | |
JP3787649B2 (en) | Pointing device | |
JPH10320109A (en) | Display device, enlarged display supporting method and voicing supporting method | |
JPH03179517A (en) | Pointing device and its input method | |
JPH1091325A (en) | Gaze detection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040319 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20040804 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20050520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060309 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |