JP3787649B2 - Pointing device - Google Patents

Pointing device Download PDF

Info

Publication number
JP3787649B2
JP3787649B2 JP02402095A JP2402095A JP3787649B2 JP 3787649 B2 JP3787649 B2 JP 3787649B2 JP 02402095 A JP02402095 A JP 02402095A JP 2402095 A JP2402095 A JP 2402095A JP 3787649 B2 JP3787649 B2 JP 3787649B2
Authority
JP
Japan
Prior art keywords
user
input
camera
display screen
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02402095A
Other languages
Japanese (ja)
Other versions
JPH07253843A (en
Inventor
幸治 大賀
節男 有田
中原  貢
哲男 伊藤
靖雄 西沢
扶美男 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP02402095A priority Critical patent/JP3787649B2/en
Publication of JPH07253843A publication Critical patent/JPH07253843A/en
Application granted granted Critical
Publication of JP3787649B2 publication Critical patent/JP3787649B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、ポインティングデバイス装置(以下、単にポインティングデバイスと称す)に係わり、特に、1つ以上存在する領域のうちから、ユーザが注視している領域を特定し、その領域内に図面データに基づき表示されている1つ以上の対象物の中から、注視位置対応の対象物が特定されるようにしたポインティングデバイスに関するものである。
【0002】
【従来の技術】
従来のポインティングデバイスとしては、特開昭60-85899号、あるいは電子情報通信学会論文誌A、J71−A巻、12号2192〜2197頁において論じられているものがある。この従来技術では、アイカメラあるいはアイカメラと視野カメラを用いてユーザの注視点を求めており、画面上のポインティングデバイスにも使用できるものである。この他の従来技術としては、例えば特開昭62-196723号に示されたものでは、表示画面周辺部に点光源を設け、視野カメラに写った点光源についての画像をもとに、ユーザの頭部の回転角度を検出し、アイカメラにより検出された眼球の位置を補正するようにしている。また、特開昭62-53630号および特開昭62-53631号に示されたものでは、測定空間内に特徴物を設置し、視野画像内での特徴物の位置をもとに、アイカメラからの視点情報を補正する。これらの発明に於いては、ユーザ位置の移動時にも、視点情報の補正が可能である。さらに、指差信号をポインティングに使用する技術として、特願昭60-99532号に記載のものが知られており、ユーザが移動しながらのポインティングが可能なものである。
【0003】
上記した従来技術の、特開昭60-85899号及び電子情報通信学会論文誌に示されたもの、及び特開昭62-196723号に示されたものは、眼球と頭部の移動する状況下で、ユーザの視点位置を求めることには有効であるが、ユーザの身体の位置が大きく移動するような場合には使用できない。また、特開昭62-53630号及び同62-53631号に示されたものは、初期の視野画像及び前回の視野画像を記憶しておき、それと最新の視野画像とから、ユーザの頭部位置を補正するものであるため、ユーザの動きが大きく、視野画像内から特徴物が一時的にはずれるような場合については、処理が複雑になるという問題がある。さらに、表示画面が複数個ある場合に、視点がどの表示画面のどの部分にあるかを特定することについての配慮がなされていない。さらに、特願昭60-99532号に示されたものは、スクリーンの周囲に多数の受光素子を配置する必要があり、特に大型の表示画面については簡便に製作できないという問題があった。
【0004】
本発明の目的は、1つ以上の領域各々に1以上の対象物が表示又は存在する場合、先ずユーザが注視している領域を特定し、その領域内から図面データを用いて注視位置対応の対象物を簡単に特定することができるポインティングデバイス装置を提供することにある。
【0005】
【課題を解決するための手段】
前記目的を達成するため本発明は、1つ以上存在する領域のうちからユーザが注視している領域を特定し、その領域内に図面データに基づき表示されている1以上の対象物の中から注視位置対応の対象物を特定するようにしたポインティングデバイス装置であって、1つ以上の領域を個々に識別するための識別手段と、ユーザに装着される視野カメラ及びアイカメラと、前記視野カメラのモニタ画面内におけるユーザの視点位置及び前記識別手段の位置に基づいて前記ユーザが注視している領域を特定し、前記ユーザが注視している領域内における前記ユーザの視点位置の座標を、前記視野カメラのモニタ画面内での前記識別手段の位置及びユーザの視点位置の座標により特定し、前記ユーザが注視している領域内における前記ユーザの視点位置及び図面データの座標位置に基づいて、ユーザが注視している対象物を特定する手段と、を備えたことを主な特徴とする。
【0006】
【作用】
本発明は、ユーザが移動しても、また、領域が複数ある場合でも、ユーザが何れの領域を注視しているかを、モニタ画面内におけるユーザの視点位置及び識別手段により容易に特定し、更に当該注視している領域内における1以上の対象物を注視しているかを図面データを用いて特定することができる
【0007】
【実施例】
以下、本発明を実施例により説明する。図1は本発明の一実施例を示すブロック図で、表示装置11の表示画面1001の周辺の4隅には、赤外線ランプ1101が設けられている。表示画面1001には、表示制御装置1201を介して表示図面データ1301の図面が表示される。ユーザ2401は、眼球の動きを検出するアイカメラ1401とユーザの正面の様子を撮影するための、小形カメラである視野カメラ(赤外線に対する感度のよいもの)1501、及び音声入力用のマイク1901を装着している。また他の入力機器としてキーボード1801が用意されている。カメラ信号処理装置1601は、アイカメラ1401と視野カメラ1501の信号を基に、表示画面1001内の視点の位置座標を求める。この信号を基に、対象物特定装置1701は、表示画面1001に表示中の表示画面データから、ユーザが注視している表示画面内の対象物を特定する。一方、入力解析装置2001では、入力解析用データ2101を用いて、マイク1901及びキーボード1801からの入力を解析する。この結果が入力信号総合処理装置2201に入力され、対象物特定装置1701からの注視対象物についての情報と合わせて、計算機2301に処理命令として出力される。
【0008】
図2は、カメラ信号処理装置1601の動作を示すフローチャートである。この装置では、常時周期的にこの処理を実行する。まず、視野カメラ1501及びアイカメラ1401からの信号を取り込み(ステップ9111)、次に視野カメラ1501の信号から、輝度レベルにもとづいて視野内、即ち視野カメラのモニタ画面内での赤外線ランプの位置座標を求める(ステップ9112)。ついで、アイカメラ1401の信号から、視野カメラ1501のモニタ画面内での視点の位置座標を求める(ステップ9113)。さらにモニタ画面内での赤外線ランプの位置座標及び視点位置座標から、実際の表示画面の赤外線ランプ位置などの情報を基に、透視変換などの通常の画像処理技術を用いて、表示画面1001上の視点の座標を求める(ステップ9114)。
【0009】
図3は、対象物特定装置1701の動作を示すフローチャートである。まずカメラ信号処理装置1601で検出された視点の座標を取り込み(ステップ9121)、この視点の座標をもとに、表示画面データを参照して視点位置に表示されている対象物を特定する(ステップ9122)。
【0010】
図4は、表示図面データ1301の一例を示す図で、表示物の名称とそれが表示されている表示画面1001上の座標から成っている。ただし座標は、表示物が表示されている領域を四角形で近似したときの、各頂点の座標である。なお、上記領域を多角形で近似することも可能であり、その場合にはその各頂点の個数に見合った座標データを用意する必要がある。
【0011】
次に、入力解析装置2001と入力信号総合処理装置2201の動作を説明する。これらの装置は、マイクあるいはキーボードからの入力があった場合にのみ動作する。
【0012】
図5は、入力解析装置2001の動作を示すフローチャートである。これはキーボード1801あるいはマイク1901からの入力文を解析して、処理命令、即ち関数と引数値に変換して出力するもので、入力文として、「アツリョク トレンド ヒョウジ。」がステップ101で入力された場合を例として動作を説明する。辞書202に記載された単語の品詞カテゴリと文法201とを参照して、入力文の形態素・構文解析が行われる。この結果、入力文が分割書きされ、各々の単語にそれぞれ意味カテゴリ及び意味が付加される。ここで、形態素・構文解析の手法としては、通常使用されている手法、例えば予測ボトムアップ法などを使用する。また文法は、文の構造に関する規則であり、例えば
S(文)→NP(名詞句) S(文)
は、左辺のSが右辺のNPとSにより構成されうるという規則を表すものである。また辞書には、各見出し語について、品詞カテゴリ、見出し語をかな漢字に変換した表示語、意味カテゴリ、及び意味の4つの情報を与えている。ただし助詞については品詞カテゴリと表示語の2つだけを与えている。なお、入力文に含まれる語の認定は、ワードプロセッサなどで通常用いられる最長一致法による辞書引きによっても、同様に実施できる。
【0013】
次に、命令内容の同定のための処理ステップ103を実行する。この処理では、構文解析の結果を取り込み、命令同定ルール203を用いて命令内容を同定する。ここで命令とは、例えばSHOW-SVAR(状態量の提示命令)などのようなものである。また命令同定ルールは、各々の命令に対してその命令を同定するための標準的な文パターンを与えたものである。命令同定では、図6で詳細に述べるように、入力文と各々の文パターンとのマッチングを順次試み、マッチングした文パターンに対応する命令を入力命令であるとする。図の例では、文パターン「¥<状態量>?提示+せよ」が入力文とマッチングし、入力命令がSHOW-SVARであるという同定結果が得られている。この処理では、文パターンを与えるために、いくつかの記号を用意している。「%」は入力文に助詞がある場合にのみマッチングに使用する語を表す記号であり、これにより対話文によく見られる助詞の省略に対応することが可能である。「+」は省略可能な語を表す記号で、体言止めなどに対応するためのものである。「?」は任意個の語を表す記号であり、これによって文パターンの設定を容易としている。さらに、「¥」は語の意味カテゴリとのマッチングをすることを表す。
【0014】
ここで命令内容同定部の詳細な処理内容を説明する。図6はそのフローチャートで、まず文パターン番号を1に設定する。またその文パターンについて、文パターン中の語の番号を表すiを文パターンの語の総数Iに設定する。さらに、入力文の語の番号を示すjを入力文の語の総数Jに設定する(ステップ401)。次にk番目の文パターンのi番目の語Piと入力文のj番の語Wjを持ってくる(ステップ402)。このPiとWjとについて以下に述べるマッチング処理を実施する。なお、始めはiはIに、jはJに設定されているので、入力文及び文パターンの文末から文頭に向かって、語の比較を実施することになる。
【0015】
マッチングの処理は、文パターンの語Piの形、つまり前述の記号の有無によって異なる(ステップ403)。まず、記号がついていない場合の処理を説明する。この場合には、PiとWjとを比較し(ステップ404)、これらが同じ場合には、iとjを1だけ減じる(ステップ405)。つまり比較する語を1つ前のものとする。この結果iが0となった場合(ステップ406)は、文パターンの語全てが入力文の語とマッチングした場合なので、その文パターンkに対応する命令名を、入力された命令内容であるとして出力する(ステップ410)。
【0016】
一方、iが1以上の場合(ステップ406)には、jについての判定を実施する(ステップ407)。この結果、jが1以上であれば、ステップ402からの処理を繰り返す。逆にjが0であれば、文パターンkと入力文とのマッチングが失敗したので、次の文パターン(k+1)とのマッチングの準備をする(ステップ408)。ついで文パターンがまだ残っていれば(ステップ409)、ステップ402からの処理を新しい文パターンについて実行する。一方、文パターンがなくなった時には、命令同定不可の旨を出力し処理を終了する(ステップ412)。
【0017】
Piに記号「¥」が付いている場合には、PiとWjの意味カテゴリを比較する(ステップ413)。その結果に応じて前述と同様の処理を実施する。
【0018】
Piに記号「%」がついている場合には、Wjの品詞カテゴリが助詞であるか否かを判定する(ステップ414)。その結果、助詞であればPiとWjを比較し(ステップ415)、結果に応じて前述と同様の処理を実施する。一方、Wjが助詞でない場合には、jを1減じ、jが1以上であれば(ステップ417)、ステップ402にもどる。一方、jが0であれば、入力文の語がなくなったので、文パターンkと入力とのマッチングは失敗したとして、次の文パターンについての処理、即ちステップ408からの処理を実施する。
【0019】
「Pi」に記号「+」がついている場合には、PiとWjとを比較し(ステップ418)、同じであればステップ405からの処理を実施する。一方、異なる場合には、iを1減じた後iが1以上であればステップ402に戻る。iが0になった場合には、文パターンkの語が全て(省略可能なものを除いて)入力文に含まれていたということなので、ステップ410に戻り、命令同定を終了する。
【0020】
Piが記号「?」である場合には、「?」の前の語Pi−1とWjを比較する(ステップ421)。この結果、語がマッチングすれば、iから1を減じて、次の語についてのマッチング処理をステップ405から実行する。一方、同じでなければjを1減じ、jが1以上であれば(ステップ424)、ステップ402から入力文の1つ前の語を用いてマッチング処理を実施する。jが0であれば、文パターンkとのマッチングは失敗したので、次の文パターンk+1とのマッチング処理、即ちステップ408からを実行する。
【0021】
以上に詳述した図5のステップ103の命令同定処理が終わると、次にステップ104で同定した命令の実行に必要な情報の取得のための処理を行う。即ち命令によっては、その実行のためにいくつかの情報が必要なので、その情報取得を制御するための方法として、必要な情報項目とその取得方法をフレーム形式のデータとして用意した。これを格フレームという。格フレームは命令ごとに定義しており、命令名称のフレームの各スロットに、その命令の実行に必要な情報の項目を与えている。図5の格フレーム204の例では、命令SHOW-SVARに対して「状態量」、「表示形態」、及び「場所」の3つの情報が必要であることが示されている。各スロットのファシット及び値には、その情報を得るのに必要なデータを与えている。VALUEファシットには、入力文から検索すべき語の意味カテゴリ名が、IF-NEEDEDファシットには、入力文中に必要な語がない場合に起動すべき関数の名称が与えられている。ここで、関数STACKは対話履歴スタックを参照する関数、関数ASKは質問者に情報の追加入力を要求する関数である。また、関数CAMERAは、対象物特定装置1701からの結果を使用するようにするためのものである。この関数が起動されると、対応する格の値として、?Placeを書き込む。
【0022】
ステップ104の処理の流れを図7のフローチャートに示す。まず命令名をフレーム名としてもつ格フレームを取り出す(ステップ501)。次にiを1に設定する(ステップ502)。この初期処理のあとに、第iスロットのVALUEファシットの値を読み、Viの値として設定する(ステップ503)。このViの値がnilでなければ(ステップ504)、入力文の中から意味カテゴリをもつ語を捜す(ステップ505)。該当する語が発見できれば(ステップ506)、得られた語を第iスロットの情報項目の値として設定し(ステップ507)、まだスロットが残っていれば(ステップ510)、iを1増やして(ステップ511)、次のスロットについての処理に移る。一方、ステップ506で語を発見できない場合、あるいはステップ504でViの値がnilの場合には、IF-NEEDEDファシットの値を読み、Niの値として設定する(ステップ508)。次いで、Niの関数を順次実行する。その結果、値が得られた場合には、それを第iスロットの情報項目の値として設定して(ステップ509)、次のスロットについての処理に移る。
【0023】
以上の動作を図5の入力の例について述べると、命令SHOW-SVARに対応する格フレームには、「状態量」、「表示形態」、及び「場所」の3つのスロットがある。「状態量」については、まずVALUEファシットの値として与えられている意味カテゴリ<状態量>をもつ語を入力文の中で検索する。今、入力文には、対応する語「圧力」が含まれている。これにより、「状態量」の値として「圧力」が設定される。同様に表示形態についても、入力文から、意味カテゴリ<表示形態>を持つ語として「トレンド」が得られ、値として設定される。「場所」については、入力文から、意味カテゴリ<Place>の語が検索されるが、今、入力文中に対応する語はない。そのため、IF-NEEDEDファシットの値が参照され、関数CAMERAが実行される。この結果「場所」の値として「?Place」が設定される。
【0024】
以上のようにして命令実行に必要な情報の取得が終わると、最後にステップ105の関数・引数への対応づけのための処理が実行される。この処理では、前の処理で得られた命令及び情報項目の値を、プログラムの関数と引数に対応づけて出力する。図5の入力の例では、SHOW-SVARと「表示形態」トレンドから、関数名が「トレンド表示」に設定される。また引数値としては、「圧力」及び「?Place」が設定される。
【0025】
図8は、入力信号総合処理装置2201の動作を示すフローチャートである。この装置ではまず、入力解析装置2001で定められた関数名と引数値とを読み込む(ステップ9151)。次に、引数の中に変数?Placeがあるか否かを判定する(ステップ9152)。この結果、変数がなければ、入力解析装置2001からの関数、引数値を処理命令として計算機に出力する(ステップ9153)。一方、変数がある場合には、対象物特定装置1701から、ユーザが注視している対象物を読み込む(ステップ9154)。更に、変数?Placeに対象物の名称を設定し、処理命令を完成させて計算機に出力する(ステップ9155)。
【0026】
以上説明したごとく、本実施例になる装置を使用すれば、ユーザの装着したアイカメラ及び視野カメラからの視点についての信号、及び表示画面の周辺部に設けられた赤外線ランプの画像についての信号を用いて、ユーザが注視している表示画面内の座標及びそこに表示されている対象物を求めることができる。これによって、簡便でかつ操作場所を限定されないポインティングが可能となる。また、音声、キーボードからの入力と、注視対象物についての情報を総合して、計算機への命令とすることができる。これらにより、ポインティング操作のみならず、計算機への入力作業の簡単化、作業性の向上などが実現できる。
【0027】
なお、以上に説明した実施例においては、表示画面の形状を与えるためのマークとして、表示画面の4隅に赤外線ランプを設置するものとしたが、これは種々の変形が可能である。図9はその一例であり、赤外線発光源2501〜2504から4つの漏洩ファイバの枠2701〜2704へ赤外線を送るようにし、さらに各赤外線発光源は点滅し、その点滅周期は各発光源で異なっている。このようなマークを使用する場合には、カメラ信号処理装置1601において、視野カメラの画像中のマークと視点についての信号から、視点がどのマークで囲まれた枠内にあるかを、視点を取りかこむマークの点滅周期から求める。その後、特定された枠内での視点の座標を求めるようにすれば、表示画面上の視点の座標を精度よく求められる。これは特に大画面表示装置のような表示装置を使用する場合に有効である。
【0028】
図10は、マークのもう1つの例を示す模式図である。1つの赤外線発光源2505からの赤外線は、スターカプラ2601、漏洩ファイバ2700、光ファイバ経由で点光源2801〜2804へ導かれる。表示画面1001は4分割されその各々で点光源の数が異なっている。このマークを使用すると、視点がどの分割領域にあるかを、漏洩ファイバからの光と、視点と同一分割領域内にある点光源の個数から判定する。それ以外の処理については、図9の例と同様である。本例によると、視点の座標精度を向上できる他、使用する赤外線光源の個数が1個でよいという効果がある。
【0029】
なお、これらの例では、表示画面1001をマークによって4分割したが、分割数を変えることは可能である。また、全表示画面についてマークを付けるのではなく、表示画面の一部のみにマークを付け、その部分のみポインティング可能な領域として使用することもできる。例えば、画面の一部を漏洩ファイバで囲み、視点がこの部分に入ったときのみ音声での入力を受け付けるようにし、音声入力のスイッチングに使用することができる。また、ここでは光源として赤外線光源を考えたが、これを他の波長の光源、例えば可視光の光源としても全く同様の機能が実現できる。
【0030】
図11は本発明の第2の実施例を示すブロック図で、表示盤2901には3個の表示画面1001〜1003が設置され、その周辺部にはそれぞれ赤、緑、青色のマーク3001〜3003が付けられている。各表示画面には、表示図面データ1302の図面が表示制御装置1202によって表示されている。ユーザ2401はアイカメラ1401と視野カメラ1501、1502、及び音声入力用マイク1901を装着し、またキーボード1801も用意されている。カメラ信号処理装置1602は、アイカメラ1401と視野カメラ1501、1502の信号をもとに、ユーザの視点がどの表示画面のどの座標にあるかを求める。この信号をもとに、対象物候補特定装置1702では、表示画面に表示されている図面の内で、ユーザが注視している対象物を求める。一方、入力解析装置2001では、入力解析用データ2101を用いて、マイク1901及びキーボード1801からの入力を解析する。この結果が入力信号総合処理装置2202に入力される。次いでこの装置で対象物候補と、対象物限定データ2203を用いて、ユーザの注視している対象物を特定し、入力解析装置2002からの信号と総合して、計算機2301に処理命令を出力する。これら各部の処理は、大筋では図1の場合と同様であるが、表示画面の個数とマークが異なっているので、その点での相違がある。以下、それらの詳細を説明する。
【0031】
図12はカメラ信号処理装置1602の動作を示すフローチャートである。まず視野カメラ1501、1502およびアイカメラ1401からの信号を取り込み(ステップ9211)、次に視野カメラのモニタの画面内で視点の位置座標を求める(ステップ9212)。次に視野カメラのモニタ画面内で視点を取りかこむマーク3001〜3003を特定し、その色を判別する(ステップ9213)。例えばマークの色が赤であると認識された場合には、視点が表示画面1001の中にあると特定される。次いで判別されたマークについて、マークの4隅の点の視野カメラのモニタ画面内での座標を求める(ステップ9214)。この位置座標及び視点の位置座標から、実際のマーク形状についての情報を用いて、表示画面上での視点の座標を求める(ステップ9215)。この処理は、通常の画像処理の手法により実施する。
【0032】
次いで、対象物候補特定装置1702で、視点があると特定された表示画面に表示されている図面についてのデータから、ユーザが注視している対象物の候補を求める。ここでの処理は、前述した図1の対象物特定装置1701での処理と同様である。但し、表示図面データの内容が異なり、同一の画面内の点に複数個の対象物を対応付けることを許している。つまり、対象物候補特定装置は、視点の座標から1つ以上の対象物候補を出力することになる。以下では、表示画面には原子力プラントの圧力容器の図面が表示されており、対象物候補として、気水分離器と蒸気ドームの2つが得られたものとする。
【0033】
次に、マイク1901あるいはキーボード1801からの入力を入力解析装置2001で解析する。これは図1のものと全く同じ処理を行う。そこで今、マイク1901から
「圧力トレンド示せ」
という入力があった場合を考えると、この入力が解析され、
トレンド表示(圧力、?Place)
という命令であると同定される。ここで、?Placeは場所を表す変数である。この同定された命令と先に求めた対象物の候補を取り込み、入力信号総合処理装置2202は、計算機2301への命令を作成する。
【0034】
図13は入力信号総合処理装置2202の動作を示すフローチャートである。この装置は、まず入力解析装置2001から関数名と引数値を読み込む(ステップ9221)。次に引数の中に変数?Placeがあるか否かを判定する(ステップ9222)。判定の結果、変数?Placeがなければ、入力解析装置2001からの関数、引数をそのまま処理命令として計算機2301に出力する(ステップ9223)。一方、変数がある場合には、対象物候補特定装置1702から、ユーザが注視している対象物候補を読み込む(ステップ9224)。今の場合、対象物候補として気水分離器と蒸気ドームの2つが得られる。次いで、特定の引数(今の場合は状態量、値は「圧力」)の値を基に、対象物限定データを検索する(ステップ9225)。
【0035】
ここで、対象物限定データ2203について説明する。図14は対象物限定データの一部の内容を示す図で、状態量とプラント内の部位との関係が与えられている。このデータは、例えばドライウエル、蒸気ドームなどについては圧力が計測されており、炉心などについては流量が計測されていることを表している。
【0036】
図13に戻って、ステップ9225でこのデータを検索した後、引数値(今の例では「圧力」)に対応する部位として対象物候補が有るかどうかを判定する(ステップ6226)。この結果、なければ場所についての入力をユーザに要求する(ステップ6229)。この要求に従い、ユーザからマイクなどでの入力があればそれを解析して、処理命令を完成する。一方、候補があった場合には、それが1つか否かを判定する(ステップ6227)。その結果、候補が2つ以上ある場合には、ユーザに選択を要求する(ステップ6230)。候補が1つの場合には、それを変数?Placeの値として設定し、命令を完成して計算機に出力する(ステップ6228)。今考えている例では、対象物の候補として、気水分離器と蒸気ドームの2つが得られたが、マイクからの入力を解析して得られた引数値「圧力」から対象物限定データの参照により、圧力が計測されている部位である蒸気ドームが選択される。その結果、命令
トレンド表示(圧力、蒸気ドーム)
を完成し、計算機2301に出力する。
【0037】
以上説明したごとく、本実施例になる装置を使用すれば、複数個の表示画面を用いるような場合に、ユーザの視点がどの表示画面のどの部分にあるかを特定することができる。従って多数の表示画面を使用するプラント運転などの場合での命令入力に有効である。なお、本実施例では、ユーザが1人の例を示しているが、複数人の場合にも同様の処理が可能である。
【0038】
図11の実施例では、表示画面1001〜1003を異なる色の枠で囲んでその識別を行うものであるが、これを別の方法によって行うようにした例を図15に示す。同図において、表示盤2901には3個の表示画面1001〜1003が設けられ、それぞれの周辺にはマーク3004が設けられている。このマークは赤外線あるいは可視光線の発光源、もしくはペンキなどの塗料で記入されたものである。このようにして、マークの個数によって表示画面を区別することができる。さらに、表示画面左右及び上下のマークの個数を変えることにより、視野カメラの画像にどの表示画面のどの部分が写っているのかを認識できる。また、マークの区別をその個数と配置だけでなく、色、光源強度、点滅周期やそれらの組合わせで行うようにすることもできる。このようなマークを使用することにより、ユーザの頭部が大きく回転した場合についても、画面の上下左右を簡単に判別することが可能となる。
【0039】
図16は本発明の第3の実施例になる装置の構成を示すブロック図である。ユーザ2401の帽子3301には矢印マーク3302がつけられ、モニタカメラ3101はこれをモニタする。表示画面特定装置3201は、モニターカメラ3101がとらえた矢印マーク3302の信号をもとに、ユーザが向いている方向にある表示画面を特定する。カメラ信号処理装置1603は、ユーザが装着したアイカメラ1401、視野カメラ1501の信号を基に、上の処理で特定された表示画面内での視点を求めて、計算機2301に入力する。
【0040】
ここで、表示画面1001〜1003の周辺部あるいはその内部にはマークをつけず、表示画面はその枠の形状と色をマークとして用いるものとする。この方法によれば、表示画面あるいはその内部にマークをつける必要がなく、予め存在するものをマークとして使用することができ、表示要求等の作成の手間を省力化できる。さらに、ユーザの動きを、帽子の矢印をモニタしてとらえ、ユーザが見ている表示画面の候補を絞ることができる。この方法は、第2の実施例などと併用可能であり、とくに表示画面の数が多い場合には、その特定の処理の高速化、簡単化に役立つ。
【0041】
なお、ここでは表示画面の枠の形状と色をマークとして使用したが、画像処理技術が進歩すれば、表示画面に表示された図面を認識し、ユーザの視点のある部分に表示されている対象物を直接特定することが可能である。
【0042】
図17は本発明の第4の実施例を示すものである。同図において、プラントの制御盤3501には、メータ3401〜3404及びスイッチ3601〜3604が設置されている。赤外線光源2506〜2512からの光は、光ファイバ3801〜3807によって分岐器3701〜3707に導かれている。この分岐器には漏洩ファイバ3901〜3907が接続され、このファイバはスイッチやメータを囲むように配置されている。赤外線発光源2506〜2512は、各々相異なる波長の光を発生している。
【0043】
一方、ユーザ2401の装着したアイカメラ1401及び視野カメラ1501は、信号送信装置4001及び信号受信装置4101を経由し、計算機4201にそのデータ入力部4202を介して取り込まれる。この信号は機器特定部4601、データ記録部4602、出力部4203を介して記憶装置4401に記憶される。機器特定部4601では、機器特定用データ4402を、入力部4207、出力部4208を介して利用する。一方、命令入力装置4301から、入力部4205を介して命令が入力されると、データ検索部4603が動作し、記憶装置4401から入力部4202を介して記録されたデータが読み出され、入力命令に沿った形態で出力部4206を介して出力装置4501に表示、印字、あるいはコピーされる。
【0044】
本実施例は、例えばプラント運転中の運転員の視点の動きを自動的に記録、処理するためのもので、起動されると図18の処理を周期的に実施する。まず、視野カメラ(赤外線カメラ)に写った漏洩ファイバの枠のうちのどの枠内にアイカメラからの視点が入っているかを特定する。この処理ステップ9301の詳細なフローチャートは図19に示されており、これは機器特定部4601で実行される。即ちまず、視野カメラ、アイカメラからの信号を取り込み(ステップ9311)、視野カメラのモニタ画面内での視点の位置座標を、アイカメラ信号から求める(ステップ9312)。次に視野カメラのモニタ画面内で視点を取りかこむ枠を特定する(ステップ9313)。次に特定した枠についての輝度情報から、枠の赤外線光源の点滅周期を求める(ステップ9314)。この点滅周期をもとに、機器特定用データを用いて枠内の機器個数を求める(ステップ9315)。その結果、特定された枠内に機器が1つだけの場合には(ステップ9316)、その機器を特定して処理を終了する(ステップ9317)。一方、枠内に複数個の機器がある場合、枠内での視点の座標を、図11の実施例のカメラ信号処理装置1602と同様の処理により求める(ステップ9318)。次に機器特定用データを用いて、視点の座標から機器を特定する(ステップ9319)。
【0045】
なお、ここで用いた機器特定用データの一部を図20に示す。このデータは、枠の赤外線光源の点滅周期ごとに、枠内機器の個数、機器名称を与えている。さらに枠内に複数個の機器がある場合には、各々の機器に対応する領域を定義するための、各領域を四角形で近似し、四角形の4つの頂点の座標を与える。ここで、各領域を定義する場合に、枠内を左右2領域にわけるときに分割点のx座標のみを与えるか、あるいは多角形や円などにより領域を定義することも同様に可能である。
【0046】
以上のようにして、図18のステップ9301により視点の入っている表示画面が特定されると、次にその時点の時刻と、運転員が見ているメータ、スイッチなどの名称などに係わる情報を、記憶装置4401に記憶する(ステップ9302)。
【0047】
一方、命令入力装置4301から表示命令が入力されたときには、図21の処理が起動され(ステップ9303)、記憶装置4401に記憶された運転員の視点の時間的な動作についての情報を、出力装置4501に表示あるいは他の形で出力する(ステップ9304)。この出力装置への出力は、命令入力装置からの要求があれば、データの処理と平行して、即ちモニタとして出力することが可能である。なお、本実施例になる装置では、漏洩ファイバを配置し、各々の点滅周期を変えることにより、運転員の注視している機器などを特定した。この特定は、前に述べた実施例で示した各種の方法によっても実施可能である。あるいは、スイッチ、メータの形状あるいはそれに付随して設置された銘板上の文字などの認識によっても、同様に実現できる。
【0048】
本実施例によれば、プラント運転中の運転員の視点の動きをモニタし、その注視している対象物名称あるいは番号などとともに記録できる。従って例えばメータを見る頻度、ある時間内での視点の動作範囲などの分析を、計算機を用いて容易に行え、制御盤の評価、設計などに生かすことができる。なお、本装置では視点の動作のみモニタしたが、マイク、音声認識装置を用いれば、運転員の発話の履歴についても同様に記録し、利用することが可能である。
【0049】
図22は本発明の第5の実施例を示すブロック図で、表示画面1001の周辺には赤外線光源2513を接続した漏洩ファイバ3908が配置されている。ユーザ2401は、赤外線投光器(指差レーザ)4701を持ち、あるいは指などに装着している。この投光器には、投光のオン、オフスイッチ4702が設けられている。モニタ用の赤外線カメラ3102は、表示画面1001の前方に固定設置され、その信号が指差位置特定装置5001を介して、計算機2301に入力される。さらに計算機に入力された指差位置は、表示制御装置1204を介して、指差マーカ4901として表示画面1001上に表示される。
【0050】
図23は本実施例になる装置での処理の概要を示すフローチャートである。まずモニタカメラの信号から、指差位置特定装置5001によって、指差レーザのレーザ光が、表示画面上にぶつかり反射する点の表示画面上の位置をステップ9401で求める。このステップ9401の詳細な内容は図24に示されており、まずモニタカメラ3102の信号を読み込み(ステップ2411)、この信号から投光器4701からの指差レーザ光の折れ曲がり点を検出し、その点のモニタ画面内での座標を求める(ステップ9412)。次いで漏洩ファイバ3908で作った枠の各辺を表す直線の式を、モニタ画面座標上で求める(ステップ9413)。次いで枠の各辺の式と、折れ曲がり点の座標から、実際の枠形状についての情報を用いて折れ曲がり点、即ちユーザが指差した点の表示画面上での座標を求める(ステップ9414)。この処理は、通常の画像処理の手法によって実施する。なお、この実施例では、赤外線光源と漏洩ファイバによって、表示画面のまわりに枠を作った。しかしモニタカメラは固定できるので、モニタ画面内での座標と表示画面上の座標の変換に必要な関係を予め用意しておけば、枠がない場合でも、同様の指差点特定処理を実施できる。
【0051】
次に、図23に戻って、ステップ9401で求めた座標を計算機2301に入力し、指差によるポインティング情報として利用する(ステップ9402)。さらに、表示制御装置1204にステップ9401で求めた座標を入力し、表示画面上に表示する(ステップ9403)。
【0052】
以上述べたように、本実施例になる装置によれば、指差信号をポインティングに使用できる。またスクリーンの周囲に多数の受光素子を配置する必要のある従来技術に対し、モニタカメラ、赤外線投光器、及び赤外線光源と漏洩ファイバによって装置を構成することが可能であり、画面の大型化に容易に対応できる。また本実施例では、表示画面が1つの場合を示したが、これが複数個ある場合についても、他の実施例で示したように、各表示画面ごとに赤外線光源の点滅周期を変える、可視光の利用、塗料によるマーク、あるいは表示画面の形状をマークとして利用する、などの方法によっても同様に実現できる。
【0053】
【発明の効果】
以上、説明したように、本発明によれば、ユーザが移動する場合でも、ユーザの眼球の動きについての情報を表示画面のポインティング、更には特定表示画面内での対象物のポインティングに使用でき、その非接触操作故に、操作場所が限定されないポインティングデバイスが実現され得るものとなっている。
【図面の簡単な説明】
【図1】本発明の第1の実施例の構成を示すブロック図である。
【図2】第1実施例の動作説明図である。
【図3】第1実施例の動作説明図である。
【図4】第1実施例の動作説明図である。
【図5】第1実施例の動作説明図である。
【図6】第1実施例の動作説明図である。
【図7】第1実施例の動作説明図である。
【図8】第1実施例の動作説明図である。
【図9】表示画面識別のための方法を示す図である。
【図10】表示画面識別のための方法を示す図である。
【図11】本発明の第2の実施例の構成を示すブロック図である。
【図12】第2実施例の動作説明図である。
【図13】第2実施例の動作説明図である。
【図14】第2実施例の動作説明図である。
【図15】第2の実施における表示画面識別のための方法を示す図である。
【図16】本発明の第3の実施例の構成を示すブロック図である。
【図17】本発明の第4の実施例の構成を示す図である。
【図18】第4実施例の動作説明図である。
【図19】第4実施例の動作説明図である。
【図20】第4実施例の動作説明図である。
【図21】第4実施例の動作説明図である。
【図22】本発明の第5の実施例の構成を示すブロック図である。
【図23】第5の実施例の動作説明図である。
【図24】第5の実施例の動作説明図である。
【符号の説明】
1001〜1003…表示画面、1101…赤外線ランプ、1301,1302…表示図面データ、1401…アイカメラ、1501,1502…視野カメラ、1601〜1603…カメラ信号処理装置、1701…対象物特定装置、1702…対象物候補特定装置、1801…キーボード、1901…マイク、2001…入力解析装置、2101…入力解析用データ、2201,2202…入力信号総合処理装置、2203…対象物限定データ、2301…計算機、2401…ユーザ、2700〜2704,3901〜3907…漏洩ファイバ、3001〜3004…マーク、3101,3102…モニタカメラ、3201…表示画面特定装置、3301…帽子、3302…矢印マーク、4201…計算機、4301…命令入力装置、4601…機器特定部、4701…赤外線投光器、4901…マーカ、5001…指差位置特定装置。
[0001]
[Industrial application fields]
The present invention relates to a pointing device apparatus (hereinafter simply referred to as a pointing device), and in particular, there are one or more.regionThe user is watching fromregionIdentify and itsregionThe present invention relates to a pointing device in which an object corresponding to a gaze position is specified from one or more objects displayed on the basis of drawing data.
[0002]
[Prior art]
Conventional pointing devices include those discussed in Japanese Patent Application Laid-Open No. 60-85899, or IEICE Transactions A, J71-A, No. 12, pages 2192-2197. In this prior art, a user's gazing point is obtained using an eye camera or an eye camera and a field of view camera, and can be used for a pointing device on a screen. As another prior art, for example, in the one disclosed in Japanese Patent Laid-Open No. 62-196723, a point light source is provided at the periphery of the display screen, and based on an image of the point light source reflected in the field of view camera, the user's The rotation angle of the head is detected, and the position of the eyeball detected by the eye camera is corrected. In addition, in the devices disclosed in Japanese Patent Laid-Open Nos. 62-53630 and 62-53631, an eye camera is installed based on the position of the feature in the field-of-view image by installing the feature in the measurement space. Correct the viewpoint information from. In these inventions, the viewpoint information can be corrected even when the user position is moved. Further, a technique described in Japanese Patent Application No. 60-99532 is known as a technique for using a pointing signal for pointing, and the user can perform pointing while moving.
[0003]
The above-mentioned prior arts disclosed in Japanese Patent Application Laid-Open No. Sho 60-85899 and the Journal of the Institute of Electronics, Information and Communication Engineers, and those shown in Japanese Patent Application Laid-Open No. Sho 62-196723 are subject to movement of the eyeball and head. Thus, it is effective for obtaining the viewpoint position of the user, but cannot be used when the position of the user's body moves greatly. JP-A-62-253630 and JP-A-62-253631 store the initial visual field image and the previous visual field image, and based on this and the latest visual field image, the user's head position is stored. Therefore, there is a problem that the process becomes complicated when the user's movement is large and the feature is temporarily deviated from the visual field image. Furthermore, when there are a plurality of display screens, no consideration is given to specifying which part of which display screen the viewpoint is on. Further, the device disclosed in Japanese Patent Application No. 60-99532 has a problem that it is necessary to arrange a large number of light receiving elements around the screen, and in particular, a large display screen cannot be easily manufactured.
[0004]
The object of the present invention is to provide one or moreregionOne or more objects are displayed on eachOr existFirst, the user is watchingAn area can be specified, and an object corresponding to the gaze position can be easily specified from the area using drawing data.pointing deviceapparatusIs to provide.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, the present invention includes one or more.regionThe user is watching fromregionIdentify and itsregionA pointing device device that identifies an object corresponding to a gaze position from one or more objects that are displayed based on drawing data within the pointing device.AreaThe user is gazing based on identification means for individually identifying, a field camera and an eye camera worn by the user, and a viewpoint position of the user in the monitor screen of the field camera and the position of the identification means Identify the area,The coordinates of the viewpoint position of the user in the area where the user is gazing is specified by the position of the identification means and the coordinates of the viewpoint position of the user in the monitor screen of the visual field camera,The user is watchingregionAnd a means for specifying an object being watched by the user based on the viewpoint position of the user and the coordinate position of the drawing data.
[0006]
[Action]
Even if the user moves or there are a plurality of areas, the present invention easily identifies which area the user is gazing by using the user's viewpoint position and identification means in the monitor screen, It is possible to specify using drawing data whether one or more objects in the region being watched are being watched..
[0007]
【Example】
Hereinafter, the present invention will be described with reference to examples. FIG. 1 is a block diagram showing an embodiment of the present invention, and infrared lamps 1101 are provided at the four corners around the display screen 1001 of the display device 11. On the display screen 1001, the drawing of the display drawing data 1301 is displayed via the display control device 1201. A user 2401 is equipped with an eye camera 1401 that detects the movement of the eyeball, a small-sized field of view camera (sensitive to infrared rays) 1501, and a microphone 1901 for voice input to capture the front view of the user is doing. A keyboard 1801 is prepared as another input device. The camera signal processing device 1601 obtains the position coordinates of the viewpoint in the display screen 1001 based on the signals from the eye camera 1401 and the field camera 1501. Based on this signal, the object specifying device 1701 specifies the object in the display screen that the user is watching from the display screen data being displayed on the display screen 1001. On the other hand, the input analysis device 2001 analyzes input from the microphone 1901 and the keyboard 1801 using the input analysis data 2101. This result is input to the input signal integrated processing device 2201, and is output to the computer 2301 as a processing command together with information on the watched object from the object specifying device 1701.
[0008]
FIG. 2 is a flowchart showing the operation of the camera signal processing device 1601. In this apparatus, this process is always performed periodically. First, the signals from the field camera 1501 and the eye camera 1401 are captured (step 9111), and then the position coordinates of the infrared lamp in the field of view based on the luminance level from the field camera 1501 signal, that is, the monitor screen of the field camera. Is obtained (step 9112). Next, the position coordinates of the viewpoint in the monitor screen of the visual field camera 1501 are obtained from the signal of the eye camera 1401 (step 9113). Furthermore, based on the information such as the infrared lamp position on the actual display screen from the position coordinates and the viewpoint position coordinates of the infrared lamp in the monitor screen, a normal image processing technique such as perspective transformation is used to display the display screen 1001. The coordinates of the viewpoint are obtained (step 9114).
[0009]
FIG. 3 is a flowchart showing the operation of the object specifying device 1701. First, the coordinates of the viewpoint detected by the camera signal processing device 1601 are captured (step 9121), and the object displayed at the viewpoint position is identified by referring to the display screen data based on the coordinates of the viewpoint (step 9121). 9122).
[0010]
FIG. 4 is a diagram showing an example of the display drawing data 1301 and includes a name of a display object and coordinates on the display screen 1001 on which the display object is displayed. However, the coordinates are the coordinates of each vertex when the area where the display object is displayed is approximated by a rectangle. It is also possible to approximate the region with a polygon. In this case, it is necessary to prepare coordinate data corresponding to the number of each vertex.
[0011]
Next, operations of the input analysis device 2001 and the input signal comprehensive processing device 2201 will be described. These devices operate only when there is input from a microphone or keyboard.
[0012]
FIG. 5 is a flowchart showing the operation of the input analysis apparatus 2001. This is to analyze an input sentence from the keyboard 1801 or the microphone 1901 and convert it into a processing instruction, that is, a function and an argument value, and output it. As an input sentence, “Attack trend display” is input in step 101. The operation will be described by taking the case as an example. The morpheme / syntax analysis of the input sentence is performed with reference to the part-of-speech category of words and the grammar 201 described in the dictionary 202. As a result, the input sentence is divided and written, and a semantic category and meaning are added to each word. Here, as a morpheme / syntactic analysis method, a commonly used method such as a prediction bottom-up method is used. Grammar is a rule about sentence structure.
S (sentence) → NP (noun phrase) S (sentence)
Represents the rule that S on the left side can be composed of NP and S on the right side. In addition, the dictionary provides four pieces of information for each headword: a part of speech category, a display word obtained by converting the headword into Kana-Kanji, a semantic category, and a meaning. However, as for particles, only two parts are given: part of speech category and display word. In addition, the recognition of the word contained in an input sentence can be similarly implemented also by the dictionary lookup by the longest match method normally used with a word processor etc.
[0013]
Next, the processing step 103 for identifying the instruction content is executed. In this process, the result of the syntax analysis is taken in and the instruction content is identified using the instruction identification rule 203. Here, the command is, for example, SHOW-SVAR (state quantity presentation command). The instruction identification rule gives a standard sentence pattern for identifying each instruction to each instruction. In the instruction identification, as will be described in detail with reference to FIG. 6, it is assumed that the matching between the input sentence and each sentence pattern is tried sequentially, and the instruction corresponding to the matched sentence pattern is the input instruction. In the example of the figure, the sentence pattern “¥ <state quantity>? Presentation + seyo” matches the input sentence, and the identification result that the input instruction is SHOW-SVAR is obtained. In this process, several symbols are prepared to give sentence patterns. “%” Is a symbol representing a word used for matching only when there is a particle in the input sentence, and can correspond to omission of a particle often seen in a dialogue sentence. “+” Is a symbol that represents an optional word, and is used to cope with body stop. “?” Is a symbol representing an arbitrary number of words, which makes it easy to set a sentence pattern. Further, “¥” represents matching with a semantic category of a word.
[0014]
Here, the detailed processing contents of the instruction content identification unit will be described. FIG. 6 is a flowchart of the process. First, the sentence pattern number is set to 1. For the sentence pattern, i indicating the word number in the sentence pattern is set to the total number I of words in the sentence pattern. Further, j indicating the word number of the input sentence is set to the total number J of words of the input sentence (step 401). Next, the i-th word Pi of the k-th sentence pattern and the j-th word Wj of the input sentence are brought (step 402). A matching process described below is performed on Pi and Wj. Since i is initially set to I and j is set to J, words are compared from the end of the input sentence and the sentence pattern toward the beginning of the sentence.
[0015]
The matching process differs depending on the shape of the word Pi of the sentence pattern, that is, the presence or absence of the aforementioned symbol (step 403). First, processing when no symbol is attached will be described. In this case, Pi and Wj are compared (step 404), and if they are the same, i and j are reduced by 1 (step 405). That is, the word to be compared is the previous one. When this result is 0 (step 406), since all the words of the sentence pattern match the words of the input sentence, it is assumed that the instruction name corresponding to the sentence pattern k is the input instruction content. Output (step 410).
[0016]
On the other hand, if i is 1 or more (step 406), the determination for j is performed (step 407). As a result, if j is 1 or more, the processing from step 402 is repeated. Conversely, if j is 0, matching between the sentence pattern k and the input sentence has failed, and preparation for matching with the next sentence pattern (k + 1) is made (step 408). If the sentence pattern still remains (step 409), the processing from step 402 is executed for the new sentence pattern. On the other hand, when there are no more sentence patterns, a message indicating that the instruction cannot be identified is output and the processing is terminated (step 412).
[0017]
If the symbol “¥” is attached to Pi, the semantic categories of Pi and Wj are compared (step 413). Depending on the result, the same processing as described above is performed.
[0018]
If the symbol “%” is attached to Pi, it is determined whether or not the part of speech category of Wj is a particle (step 414). As a result, if it is a particle, Pi and Wj are compared (step 415), and processing similar to that described above is performed according to the result. On the other hand, if Wj is not a particle, j is reduced by 1, and if j is 1 or more (step 417), the process returns to step 402. On the other hand, if j is 0, there are no more words in the input sentence, so that matching between the sentence pattern k and the input fails, and the process for the next sentence pattern, that is, the process from step 408 is performed.
[0019]
If “Pi” has a symbol “+”, Pi and Wj are compared (step 418). If they are the same, the processing from step 405 is executed. On the other hand, if they are different, after i is decreased by 1, if i is 1 or more, the process returns to step 402. When i becomes 0, it means that all the words of the sentence pattern k are included in the input sentence (except for those that can be omitted), so the process returns to step 410 and ends the instruction identification.
[0020]
If Pi is the symbol “?”, The words Pi−1 and Wj before “?” Are compared (step 421). If the word matches as a result, 1 is subtracted from i, and the matching process for the next word is executed from step 405. On the other hand, if j is not the same, j is decremented by 1 and if j is 1 or more (step 424), matching processing is performed using the word immediately before the input sentence from step 402. If j is 0, the matching with the sentence pattern k has failed, so the matching process with the next sentence pattern k + 1, that is, from step 408 is executed.
[0021]
When the instruction identification process in step 103 of FIG. 5 detailed above is completed, a process for acquiring information necessary for executing the instruction identified in step 104 is performed. That is, since some information is required for execution depending on the instruction, necessary information items and the acquisition method are prepared as frame format data as a method for controlling the acquisition of the information. This is called a case frame. The case frame is defined for each instruction, and an item of information necessary for executing the instruction is given to each slot of the instruction name frame. In the example of the case frame 204 in FIG. 5, it is indicated that three pieces of information “state quantity”, “display form”, and “location” are necessary for the instruction SHOW-SVAR. The data and data necessary to obtain the information are given to the face and value of each slot. The semantic category name of the word to be searched from the input sentence is given to the VALUE facade, and the name of the function to be activated when a necessary word is not present in the input sentence is given to the IF-NEEDED face. Here, the function STACK is a function that refers to the conversation history stack, and the function ASK is a function that requests an additional input of information from the questioner. The function CAMERA is for using the result from the object specifying device 1701. When this function is invoked, the corresponding case value is? Write a Place.
[0022]
The process flow of step 104 is shown in the flowchart of FIG. First, a case frame having an instruction name as a frame name is extracted (step 501). Next, i is set to 1 (step 502). After this initial processing, the value of the VALUE fact in the i-th slot is read and set as the value of Vi (step 503). If the value of Vi is not nil (step 504), the input sentence is searched for a word having a semantic category (step 505). If the corresponding word can be found (step 506), the obtained word is set as the value of the information item of the i-th slot (step 507). If there are still slots (step 510), i is increased by 1 ( Step 511), and moves to the processing for the next slot. On the other hand, if the word cannot be found in step 506, or if the value of Vi is nil in step 504, the value of the IF-NEEDED face is read and set as the value of Ni (step 508). Next, Ni functions are sequentially executed. As a result, if a value is obtained, it is set as the value of the information item of the i-th slot (step 509), and the process proceeds to the next slot.
[0023]
The above operation will be described with reference to the input example of FIG. 5. The case frame corresponding to the instruction SHOW-SVAR has three slots of “state quantity”, “display form”, and “location”. As for “state quantity”, first, a word having a semantic category <state quantity> given as a value of the VALUE facilit is searched in the input sentence. The input sentence now includes the corresponding word “pressure”. Thereby, “pressure” is set as the value of “state quantity”. Similarly, regarding the display form, “trend” is obtained as a word having a semantic category <display form> from the input sentence and set as a value. As for “place”, words in the semantic category <Place> are searched from the input sentence, but there is no corresponding word in the input sentence. Therefore, the value of the IF-NEEDED face is referred to and the function CAMERA is executed. As a result, “? Place” is set as the value of “place”.
[0024]
When the acquisition of information necessary for instruction execution is completed as described above, the process for associating with the function / argument in step 105 is finally executed. In this process, the value of the instruction and information item obtained in the previous process is output in association with the function and argument of the program. In the input example of FIG. 5, the function name is set to “trend display” from SHOW-SVAR and the “display form” trend. In addition, “pressure” and “? Place” are set as argument values.
[0025]
FIG. 8 is a flowchart showing the operation of the integrated input signal processing apparatus 2201. In this apparatus, first, a function name and an argument value determined by the input analysis apparatus 2001 are read (step 9151). Then the variable in the argument? It is determined whether or not there is a place (step 9152). As a result, if there is no variable, the function and argument values from the input analysis device 2001 are output to the computer as processing instructions (step 9153). On the other hand, if there is a variable, the object being watched by the user is read from the object specifying device 1701 (step 9154). Furthermore, variables? The name of the object is set in Place, and the processing instruction is completed and output to the computer (step 9155).
[0026]
As described above, if the apparatus according to the present embodiment is used, a signal about the viewpoint from the eye camera and the field-of-view camera worn by the user and a signal about the image of the infrared lamp provided in the peripheral portion of the display screen are transmitted. It is possible to obtain the coordinates in the display screen that the user is gazing at and the object displayed there. This makes it possible to perform pointing that is simple and does not limit the operation location. In addition, voice, input from the keyboard, and information on the object to be watched can be integrated into a command to the computer. As a result, not only the pointing operation but also simplification of the input work to the computer and improvement of workability can be realized.
[0027]
In the embodiment described above, infrared lamps are provided at the four corners of the display screen as marks for giving the shape of the display screen. However, various modifications can be made. FIG. 9 shows an example. Infrared light is sent from the infrared light emitting sources 2501 to 2504 to the four leaking fiber frames 2701 to 2704. Further, each infrared light emitting source blinks, and the blinking period varies depending on each light emitting source. Yes. When such a mark is used, the camera signal processing device 1601 takes a viewpoint from the mark and viewpoint signals in the image of the field-of-view camera to determine which mark the frame is surrounded by. Obtained from the blinking cycle of the clogging mark. Thereafter, if the coordinates of the viewpoint within the specified frame are obtained, the coordinates of the viewpoint on the display screen can be obtained with high accuracy. This is particularly effective when a display device such as a large screen display device is used.
[0028]
FIG. 10 is a schematic diagram showing another example of the mark. Infrared rays from one infrared light emitting source 2505 are guided to point light sources 2801 to 2804 via a star coupler 2601, a leakage fiber 2700, and an optical fiber. The display screen 1001 is divided into four parts, each of which has a different number of point light sources. When this mark is used, it is determined in which divided region the viewpoint is located from the light from the leaking fiber and the number of point light sources in the same divided region as the viewpoint. Other processes are the same as in the example of FIG. According to this example, the coordinate accuracy of the viewpoint can be improved and the number of infrared light sources used can be one.
[0029]
In these examples, the display screen 1001 is divided into four by marks, but the number of divisions can be changed. Further, instead of marking all the display screens, it is possible to mark only a part of the display screen and use only that part as an area that can be pointed. For example, a part of the screen can be surrounded by a leaking fiber so that voice input is accepted only when the viewpoint enters this part, and can be used for switching voice input. Although an infrared light source is considered here as a light source, the same function can be realized by using a light source of another wavelength, for example, a visible light source.
[0030]
FIG. 11 is a block diagram showing a second embodiment of the present invention. Three display screens 1001 to 1003 are installed on the display panel 2901, and red, green and blue marks 3001 to 3003 are provided on the periphery thereof. Is attached. On each display screen, the drawing of the display drawing data 1302 is displayed by the display control device 1202. A user 2401 wears an eye camera 1401, field-of-view cameras 1501 and 1502, a voice input microphone 1901, and a keyboard 1801. The camera signal processing device 1602 determines which coordinates on which display screen the user's viewpoint is based on the signals of the eye camera 1401 and the field of view cameras 1501 and 1502. Based on this signal, the target object specifying device 1702 obtains the target object being watched by the user in the drawings displayed on the display screen. On the other hand, the input analysis device 2001 analyzes input from the microphone 1901 and the keyboard 1801 using the input analysis data 2101. This result is input to the input signal general processing unit 2202. Next, the target object and the target limitation data 2203 are identified by this apparatus using the target object limitation data 2203, and the processing instruction is output to the computer 2301 in combination with the signal from the input analysis apparatus 2002. . The processing of each of these units is roughly the same as in the case of FIG. 1, but there is a difference in that point because the number of display screens and marks are different. Details thereof will be described below.
[0031]
FIG. 12 is a flowchart showing the operation of the camera signal processing device 1602. First, signals from the field-of-view cameras 1501 and 1502 and the eye camera 1401 are captured (step 9211), and then the position coordinates of the viewpoint are obtained on the monitor screen of the field-of-view camera (step 9212). Next, the marks 3001 to 3003 for which the viewpoint is set on the monitor screen of the field-of-view camera are specified, and the color is discriminated (step 9213). For example, when the mark color is recognized to be red, it is specified that the viewpoint is in the display screen 1001. Next, for the determined mark, the coordinates of the four corner points of the mark within the monitor screen of the visual field camera are obtained (step 9214). From the position coordinates and the position coordinates of the viewpoint, information on the actual mark shape is used to obtain the coordinates of the viewpoint on the display screen (step 9215). This processing is performed by a normal image processing method.
[0032]
Next, the object candidate specifying device 1702 obtains a candidate for the object being watched by the user from the data regarding the drawing displayed on the display screen specified as having a viewpoint. The processing here is the same as the processing in the object specifying device 1701 in FIG. 1 described above. However, the contents of the display drawing data are different, and a plurality of objects are allowed to be associated with points in the same screen. That is, the target object specifying device outputs one or more target object candidates from the coordinates of the viewpoint. In the following, it is assumed that a drawing of a pressure vessel of a nuclear power plant is displayed on the display screen, and two steam-water separators and a steam dome are obtained as object candidates.
[0033]
Next, the input from the microphone 1901 or the keyboard 1801 is analyzed by the input analysis device 2001. This performs exactly the same processing as in FIG. So now from Mike 1901
“Show the pressure trend”
When this input is considered, this input is analyzed,
Trend display (pressure,? Place)
Is identified. here,? Place is a variable representing a place. The input command comprehensive processing device 2202 takes in the identified command and the candidate of the object previously obtained, and creates a command for the computer 2301.
[0034]
FIG. 13 is a flowchart showing the operation of the input signal general processing unit 2202. This device first reads a function name and an argument value from the input analysis device 2001 (step 9221). Then the variable in the argument? It is determined whether or not there is a place (step 9222). As a result of judgment, variable? If there is no Place, the function and argument from the input analysis device 2001 are output as they are as processing instructions to the computer 2301 (Step 9223). On the other hand, if there is a variable, the object candidate being watched by the user is read from the object candidate specifying device 1702 (step 9224). In this case, two steam / water separators and steam domes are obtained as object candidates. Next, the object limited data is searched based on the value of a specific argument (in this case, the state quantity, the value is “pressure”) (step 9225).
[0035]
Here, the object limitation data 2203 will be described. FIG. 14 is a diagram showing the contents of a part of the object limitation data, and the relationship between the state quantity and the parts in the plant is given. This data indicates that, for example, pressure is measured for a dry well, a steam dome, and the flow rate is measured for a core and the like.
[0036]
Returning to FIG. 13, after this data is searched in step 9225, it is determined whether or not there is an object candidate corresponding to the argument value (“pressure” in this example) (step 6226). As a result, if not, the user is requested to input the location (step 6229). According to this request, if there is an input from the user with a microphone or the like, it is analyzed and a processing instruction is completed. On the other hand, if there is a candidate, it is determined whether or not there is one (step 6227). As a result, if there are two or more candidates, the user is requested to select (step 6230). If there is one candidate, is it a variable? Set as the value of Place, complete the instruction and output it to the computer (step 6228). In the example we are considering, we obtained two steam / water separators and steam domes as the object candidates. However, the object-limited data is obtained from the argument value “pressure” obtained by analyzing the input from the microphone. By reference, the steam dome, which is the part where the pressure is measured, is selected. As a result, the instruction
Trend display (pressure, steam dome)
Is output to the computer 2301.
[0037]
As described above, when the apparatus according to the present embodiment is used, when a plurality of display screens are used, it is possible to specify which part of which display screen the user's viewpoint is on. Therefore, it is effective for command input in the case of plant operation using a large number of display screens. In the present embodiment, an example in which the number of users is one is shown, but the same processing can be performed when there are a plurality of users.
[0038]
In the embodiment of FIG. 11, the display screens 1001 to 1003 are surrounded by different color frames for identification. FIG. 15 shows an example in which this is performed by another method. In the figure, a display board 2901 is provided with three display screens 1001 to 1003, and a mark 3004 is provided around each of them. This mark is written with an infrared or visible light source or paint such as paint. In this way, the display screen can be distinguished by the number of marks. Further, by changing the number of marks on the left and right and top and bottom of the display screen, it is possible to recognize which part of which display screen is reflected in the image of the visual field camera. Further, not only the number and arrangement of marks, but also the color, light source intensity, blinking cycle, and combinations thereof can be distinguished. By using such a mark, it is possible to easily determine the top, bottom, left, and right of the screen even when the user's head is greatly rotated.
[0039]
FIG. 16 is a block diagram showing the configuration of the apparatus according to the third embodiment of the present invention. An arrow mark 3302 is attached to the hat 3301 of the user 2401, and the monitor camera 3101 monitors this. The display screen specifying device 3201 specifies a display screen in the direction in which the user is facing based on the signal of the arrow mark 3302 captured by the monitor camera 3101. The camera signal processing device 1603 obtains the viewpoint in the display screen specified by the above processing based on the signals of the eye camera 1401 and the field of view camera 1501 worn by the user, and inputs them to the computer 2301.
[0040]
Here, the display screens 1001 to 1003 are not marked on the periphery or inside thereof, and the display screen uses the shape and color of the frame as marks. According to this method, it is not necessary to mark the display screen or the inside thereof, and a pre-existing one can be used as a mark, and labor for creating a display request or the like can be saved. Further, the user's movement can be monitored by monitoring a hat arrow to narrow down the display screen candidates that the user is viewing. This method can be used in combination with the second embodiment, and is particularly useful for speeding up and simplifying the specific processing when the number of display screens is large.
[0041]
Here, the shape and color of the frame of the display screen are used as marks. However, if the image processing technology advances, the object displayed on the part where the user's viewpoint is recognized by recognizing the drawing displayed on the display screen. It is possible to directly identify things.
[0042]
FIG. 17 shows a fourth embodiment of the present invention. In the figure, meters 3401 to 3404 and switches 3601 to 3604 are installed on a control panel 3501 of the plant. Light from the infrared light sources 2506 to 2512 is guided to branching devices 3701 to 3707 by optical fibers 3801 to 3807. Leakage fibers 3901 to 3907 are connected to this branching device, and this fiber is arranged so as to surround a switch and a meter. The infrared light emitting sources 2506 to 2512 generate light having different wavelengths.
[0043]
On the other hand, the eye camera 1401 and the field-of-view camera 1501 worn by the user 2401 are taken into the computer 4201 via the data input unit 4202 via the signal transmission device 4001 and the signal reception device 4101. This signal is stored in the storage device 4401 via the device specifying unit 4601, the data recording unit 4602, and the output unit 4203. The device specifying unit 4601 uses the device specifying data 4402 via the input unit 4207 and the output unit 4208. On the other hand, when a command is input from the command input device 4301 via the input unit 4205, the data search unit 4603 operates, and the recorded data is read from the storage device 4401 via the input unit 4202, and the input command Are displayed, printed, or copied on the output device 4501 via the output unit 4206.
[0044]
This embodiment is for automatically recording and processing, for example, the movement of the operator's viewpoint during plant operation. When activated, the processing of FIG. 18 is periodically performed. First, it is specified which of the leaked fiber frames captured by the field-of-view camera (infrared camera) contains the viewpoint from the eye camera. A detailed flowchart of this processing step 9301 is shown in FIG. 19, which is executed by the device specifying unit 4601. That is, first, signals from the field-of-view camera and eye camera are captured (step 9131), and the position coordinates of the viewpoint on the monitor screen of the field-of-view camera are obtained from the eye camera signal (step 9132). Next, a frame for capturing the viewpoint is specified on the monitor screen of the field-of-view camera (step 9133). Next, the blinking cycle of the infrared light source of the frame is obtained from the luminance information of the specified frame (step 9134). Based on this blinking cycle, the number of devices in the frame is obtained using the device specifying data (step 9315). As a result, when there is only one device within the specified frame (step 9316), the device is specified and the process is terminated (step 9317). On the other hand, when there are a plurality of devices in the frame, the coordinates of the viewpoint in the frame are obtained by the same processing as the camera signal processing device 1602 in the embodiment of FIG. 11 (step 9318). Next, the device is specified from the coordinates of the viewpoint using the device specifying data (step 9319).
[0045]
A part of the device specifying data used here is shown in FIG. This data gives the number of devices in the frame and the device name for each blinking cycle of the infrared light source of the frame. Further, when there are a plurality of devices in the frame, each region is approximated by a rectangle for defining a region corresponding to each device, and the coordinates of four vertices of the rectangle are given. Here, when defining each region, it is possible to provide only the x coordinate of the dividing point when dividing the frame into two left and right regions, or to define the region by a polygon, a circle, or the like.
[0046]
As described above, when the display screen in which the viewpoint is entered is specified in step 9301 in FIG. 18, the time at that time and information related to the name of the meter, switch, etc. that the operator is viewing are displayed next. And stored in the storage device 4401 (step 9302).
[0047]
On the other hand, when a display command is input from the command input device 4301, the processing of FIG. 21 is started (step 9303), and information about the temporal operation of the operator's viewpoint stored in the storage device 4401 is output to the output device. Displayed in 4501 or output in another form (step 9304). The output to the output device can be output in parallel with the data processing, that is, as a monitor if there is a request from the command input device. In addition, in the apparatus which becomes a present Example, the apparatus etc. which the operator watched were specified by arrange | positioning a leak fiber and changing each blinking period. This identification can also be performed by various methods shown in the above-described embodiments. Alternatively, it can be realized in the same manner by recognizing the shape of the switch or meter, or the letters on the nameplate installed therewith.
[0048]
According to the present embodiment, the movement of the viewpoint of the operator during plant operation can be monitored and recorded together with the name or number of the object being watched. Therefore, for example, the frequency of looking at the meter, the viewpoint operating range within a certain time, etc. can be easily analyzed using a computer, which can be utilized for the evaluation and design of the control panel. Although only the viewpoint movement is monitored in this apparatus, the utterance history of the operator can be recorded and used in the same manner by using a microphone and a voice recognition apparatus.
[0049]
FIG. 22 is a block diagram showing a fifth embodiment of the present invention, and a leakage fiber 3908 connected with an infrared light source 2513 is arranged around the display screen 1001. A user 2401 has an infrared projector (pointer laser) 4701 or wears it on a finger or the like. The light projector is provided with a light on / off switch 4702. The monitor infrared camera 3102 is fixedly installed in front of the display screen 1001, and its signal is input to the computer 2301 via the pointing position specifying device 5001. Further, the pointing position input to the computer is displayed on the display screen 1001 as a pointing marker 4901 via the display control device 1204.
[0050]
FIG. 23 is a flowchart showing an outline of processing in the apparatus according to the present embodiment. First, in step 9401, the position of the point on the display screen where the laser light of the finger pointing laser collides and reflects on the display screen is obtained from the monitor camera signal by the finger position specifying device 5001. The detailed contents of this step 9401 are shown in FIG. 24. First, the signal of the monitor camera 3102 is read (step 2411), the bending point of the pointing laser beam from the projector 4701 is detected from this signal, and the point of that point is detected. The coordinates in the monitor screen are obtained (step 9412). Next, a straight line expression representing each side of the frame made of the leaking fiber 3908 is obtained on the monitor screen coordinates (step 9413). Next, from the equation of each side of the frame and the coordinates of the bending point, the coordinates on the display screen of the bending point, that is, the point pointed by the user, are obtained using information about the actual frame shape (step 9414). This processing is performed by a normal image processing method. In this embodiment, a frame is formed around the display screen by an infrared light source and a leaking fiber. However, since the monitor camera can be fixed, a similar finger point identification process can be performed even when there is no frame if a relationship necessary for conversion between coordinates on the monitor screen and coordinates on the display screen is prepared in advance.
[0051]
Next, returning to FIG. 23, the coordinates obtained in step 9401 are input to the computer 2301 and used as pointing information by pointing (step 9402). Further, the coordinates obtained in step 9401 are input to the display control device 1204 and displayed on the display screen (step 9403).
[0052]
As described above, according to the apparatus of the present embodiment, the finger signal can be used for pointing. In contrast to the conventional technology that requires a large number of light receiving elements to be arranged around the screen, the device can be configured with a monitor camera, an infrared projector, and an infrared light source and a leakage fiber, which makes it easy to enlarge the screen. Yes. Further, in this embodiment, the case where there is one display screen is shown, but even when there are a plurality of display screens, as shown in the other embodiments, the flashing cycle of the infrared light source is changed for each display screen. It can be realized in the same manner by a method such as using the mark, using a paint mark, or using the shape of the display screen as a mark.
[0053]
【The invention's effect】
As described above, according to the present invention, even when the user moves, the information about the movement of the user's eyeball can be used for pointing the display screen, and further for pointing the target object within the specific display screen. Because of the non-contact operation, a pointing device that does not limit the operation location can be realized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.
FIG. 2 is an operation explanatory diagram of the first embodiment.
FIG. 3 is an operation explanatory diagram of the first embodiment.
FIG. 4 is an operation explanatory diagram of the first embodiment.
FIG. 5 is an operation explanatory diagram of the first embodiment.
FIG. 6 is an operation explanatory diagram of the first embodiment.
FIG. 7 is an operation explanatory diagram of the first embodiment.
FIG. 8 is an operation explanatory diagram of the first embodiment.
FIG. 9 is a diagram illustrating a method for identifying a display screen.
FIG. 10 is a diagram illustrating a method for identifying a display screen.
FIG. 11 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.
FIG. 12 is an operation explanatory diagram of the second embodiment.
FIG. 13 is an operation explanatory diagram of the second embodiment.
FIG. 14 is an operation explanatory diagram of the second embodiment.
FIG. 15 is a diagram showing a method for identifying a display screen in the second embodiment.
FIG. 16 is a block diagram showing a configuration of a third exemplary embodiment of the present invention.
FIG. 17 is a diagram showing a configuration of a fourth exemplary embodiment of the present invention.
FIG. 18 is an operation explanatory diagram of the fourth embodiment.
FIG. 19 is an operation explanatory diagram of the fourth embodiment.
FIG. 20 is an explanatory diagram of the operation of the fourth embodiment.
FIG. 21 is an operation explanatory diagram of the fourth embodiment.
FIG. 22 is a block diagram showing a configuration of a fifth exemplary embodiment of the present invention.
FIG. 23 is an operation explanatory diagram of the fifth embodiment.
FIG. 24 is an operation explanatory diagram of the fifth embodiment.
[Explanation of symbols]
1001 to 1003 ... Display screen, 1101 ... Infrared lamp, 1301 and 1302 ... Display drawing data, 1401 ... Eye camera, 1501 and 1502 ... Field of view camera, 1601 to 1603 ... Camera signal processing device, 1701 ... Object identification device, 1702 ... Object candidate identification device, 1801 ... keyboard, 1901 ... microphone, 2001 ... input analysis device, 2101 ... input analysis data, 2201, 2202 ... input signal comprehensive processing device, 2203 ... object limitation data, 2301 ... computer, 2401 ... User, 2700-2704, 3901-3907 ... Leaked fiber, 3001-3004 ... Mark, 3101,3102 ... Monitor camera, 3201 ... Display screen identification device, 3301 ... Cap, 3302 ... Arrow mark, 4201 ... Computer, 4301 ... Command input Device, 4601 ... device specifying unit, 4701 ... infrared projector, 4901 ... marker, 5001 ... finger pointing position specifying device.

Claims (4)

1つ以上存在する領域のうちからユーザが注視している領域を特定し、その領域内の1以上の対象物の中から注視位置対応の対象物を特定するようにしたポインティングデバイス装置であって、
前記領域周辺で色彩により形成するマーク、又は前記領域周辺で光を発光するマーク、又は領域の形状自体を利用したマークより成り、1つ以上の領域を個々に識別するための識別手段と
ユーザに装着され、ユーザが目視している範囲を撮影する視野カメラと、
ユーザに装着され、前記視野カメラで撮影した画面内でのユーザの視点位置を検出するアイカメラと、
前記視野カメラの撮影画面内における前記ユーザが注視している領域を、前記識別手段及びアイカメラで検出した視点位置により特定し、
前記ユーザが注視している領域内における前記ユーザの視点位置の座標を、前記視野カメラの撮影画面内での前記識別手段の位置及びユーザの視点位置の座標により特定し、
前記ユーザが注視している領域内における前記ユーザの視点位置及び図面データもしくは機器特定データの座標位置に基づいて、ユーザが注視している対象物を特定する手段と、
を備えたことを特徴とするポインティングデバイス装置。
A pointing device device that identifies a region in which a user is gazing from among one or more regions, and identifies a target corresponding to a gaze position from one or more objects in the region. ,
An identification means for individually identifying one or more areas, comprising a mark formed by color around the area, a mark emitting light around the area, or a mark using the shape of the area itself ;
A field-of-view camera that is worn by the user and captures the range that the user is viewing;
An eye camera that is mounted on the user and detects the user's viewpoint position within the screen shot by the field-of-view camera;
Specify the region in which the user is gazing in the shooting screen of the visual field camera by the viewpoint position detected by the identification means and the eye camera ,
The coordinates of the viewpoint position of the user in the area where the user is gazing are specified by the position of the identification means and the coordinates of the viewpoint position of the user in the shooting screen of the visual field camera,
The user of the viewpoint position and drawing data even properly based on the coordinate position of the device specific data in the region where the user is gazing, means for identifying an object that the user is gazing,
A pointing device device comprising:
前記特定された領域内における前記ユーザの視点位置を表示画面内にマーカにより表示することを特徴とする請求項1記載のポインティングデバイス装置。The pointing device apparatus according to claim 1, wherein the viewpoint position of the user in the specified area is displayed by a marker on a display screen . 前記前記識別手段が、マークの色彩又は個数又は発光波長又は点滅周期を変化させることにより、1つ以上の領域を識別することを特徴とする請求項1又は2記載のポインティングデバイス装置。  3. The pointing device apparatus according to claim 1, wherein the identification unit identifies one or more regions by changing a color or number of marks, a light emission wavelength, or a blinking cycle. 前記識別手段が、領域に付されている特定の図形又は特定の図形に付けたマークであることにより、1つ以上の領域を識別することを特徴とする請求項1又は2記載のポインティングデバイス装置。  3. The pointing device apparatus according to claim 1, wherein the identification unit identifies one or more areas by being a specific graphic attached to the area or a mark attached to the specific graphic. .
JP02402095A 1995-02-13 1995-02-13 Pointing device Expired - Fee Related JP3787649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02402095A JP3787649B2 (en) 1995-02-13 1995-02-13 Pointing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02402095A JP3787649B2 (en) 1995-02-13 1995-02-13 Pointing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP1317694A Division JPH03179517A (en) 1989-12-08 1989-12-08 Pointing device and its input method

Publications (2)

Publication Number Publication Date
JPH07253843A JPH07253843A (en) 1995-10-03
JP3787649B2 true JP3787649B2 (en) 2006-06-21

Family

ID=12126861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02402095A Expired - Fee Related JP3787649B2 (en) 1995-02-13 1995-02-13 Pointing device

Country Status (1)

Country Link
JP (1) JP3787649B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258802A (en) 2003-02-24 2004-09-16 Fuji Xerox Co Ltd Working space management device

Also Published As

Publication number Publication date
JPH07253843A (en) 1995-10-03

Similar Documents

Publication Publication Date Title
US11073901B2 (en) Display device, control method for display device, and computer program
US6345111B1 (en) Multi-modal interface apparatus and method
US5627914A (en) Method and apparatus for processing graphically input equations
CN103092432B (en) The trigger control method of man-machine interactive operation instruction and system and laser beam emitting device
US6215890B1 (en) Hand gesture recognizing device
US5677993A (en) Information processing apparatus using pointing input and speech input
KR101423536B1 (en) System for constructiing mixed reality using print medium and method therefor
KR102326507B1 (en) Method and system for providing extended reality service to operate industrial facilities
US6979087B2 (en) Display system with interpretable pattern detection
US20090015553A1 (en) Image displaying apparatus, image displaying method, and command inputting method
Toyama et al. A mixed reality head-mounted text translation system using eye gaze input
US10234955B2 (en) Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
CN108027656B (en) Input device, input method, and program
US6437794B1 (en) Interactive image generation method and apparatus utilizing a determination of the visual point position of an operator
Yin et al. Synchronous AR assembly assistance and monitoring system based on ego-centric vision
JP2010102215A (en) Display device, image processing method and computer program
CN109784128A (en) Mixed reality intelligent glasses with text and language process function
CN113380088A (en) Interactive simulation training support system
CN113688290A (en) Interactive electronic maintenance system for vehicle chassis
JP2000187553A (en) Input device and head mount display for input device
CN110299138A (en) A kind of augmented reality assembly technology instructs system and method
JP3787649B2 (en) Pointing device
JPH10320109A (en) Display device, enlarged display supporting method and voicing supporting method
JPH03179517A (en) Pointing device and its input method
JPH1091325A (en) Gaze detection system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040319

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040804

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060309

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees