JPH03179517A - ポインティングデバイス装置及び入力方法 - Google Patents

ポインティングデバイス装置及び入力方法

Info

Publication number
JPH03179517A
JPH03179517A JP1317694A JP31769489A JPH03179517A JP H03179517 A JPH03179517 A JP H03179517A JP 1317694 A JP1317694 A JP 1317694A JP 31769489 A JP31769489 A JP 31769489A JP H03179517 A JPH03179517 A JP H03179517A
Authority
JP
Japan
Prior art keywords
display screen
user
input
pointing device
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1317694A
Other languages
English (en)
Inventor
Koji Oga
幸治 大賀
Setsuo Arita
節男 有田
Mitsugi Nakahara
貢 中原
Tetsuo Ito
哲男 伊藤
Yasuo Nishizawa
西沢 靖雄
Fumio Murata
村田 扶美男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP1317694A priority Critical patent/JPH03179517A/ja
Publication of JPH03179517A publication Critical patent/JPH03179517A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ポインティングデバイス装置(以下、単にポ
インティングデバイスと称す)に係わり、とくに表示画
面上に表示された機器あるいは装置に人間の視点あるい
は光線をあてたときに、その機器あるいは装置を指定す
る信号を出力するポインティングデバイスに関する。
〔従来の技術〕
従来のポインティングデバイスとしては、特開昭60−
85899号、あるいは電子情報通信学会論文誌A、J
71−A巻、12号2192〜2197頁において論じ
られているものがあるにの従来技術では、アイカメラあ
るいはアイカメラと視野カメラを用いてユーザの注視点
を求めており、画面上のポインティングデバイスにも使
用できるものである。この他の従来技術としては、例え
ば特開昭62−196723号に示されたものでは、表
示画面周辺部に点光源を設け、視野カメラに写った点光
源についての画像をもとに、ユーザの頭部の回転角度を
検出し、アイカメラにより検出された眼球の位置を補正
するようにしている。また、特開昭62−53630号
および特開昭62−53631号に示されたものでは、
測定空間内に特徴物を設置し、視野画像内での特徴物の
位置をもとに、アイカメラからの視点情報を補正する。
これらの発明に於いては、ユーザ位置の移動時にも、視
点情報の補正が可能である。さらに、指差信号をボイン
ティングに使用する技術として。
特願昭60−99532号に記載のものが知られており
ユーザが移動しながらのボインティングが可能なもので
ある。
〔発明が解決しようとする課題〕 上記した従来技術の、特開昭60−85899号及び電
子情報通信学会論文誌に示されたもの、及び特開昭19
6723号に示されたものは、眼球と頭部の移動する状
況下で、ユーザの視点位置を求めることには有効である
が、ユーザの身体の位置が大きく移動するような場合に
は使用できない。また、特開昭62−53630号及び
同62−53631号に示されたものは、初期の視野画
像及び前回の視野画像を記憶しておき、それと最新の視
野画像とから、ユーザの頭部位置を補正するものである
ため、ユーザの動きが大きく、視野画像内から特徴物が
一時的にはずれるような場合については、処理が複雑に
なるという問題がある。さらに、表示画面が複数個ある
場合に、視点がどの表示画面のどの部分にあるかを特定
することについての配慮がなされていない。
さらに、特願昭60−99532号に示されたものは、
スクリーンの周囲に多数の受光素子を配置する必要があ
り、特に大型の表示画面については簡便に製作できない
という問題があった。
本発明の目的は、プラント運転の場合のように、ユーザ
が移動しながらの使用が可能で、また複数の表示画面が
ある場合にも使用可能な、簡便なポインティングデバイ
スを提供するにある。
〔課題を解決するための手段〕
上記の目的を達成するために1本発明になるポインティ
ングデバイスでは、表示画面もしくはその周辺部にマー
クを設けるか、あるいは表示画面自身の枠をマークとし
て用い、アイカメラからの視点についての情報と視野カ
メラでとらえた上記マークの情報とから表示画面上での
視点位置を特定するようにし、また指差によるポインテ
ィングデバイスの場合は、上記マーク及び指先などに付
けた発光具からの光をモニタカメラによりとりこみ、そ
れらの信号を基にユーザの指差した点を特定するように
した。
〔作 用〕
ユーザが移動しても、また複数の表示画面があっても、
表示画面の位置は視野カメラあるいはモニタカメラが表
示画面周辺のマークを検出することにより容易に検出で
きるから、アイカメラの視点あるいは指差による光点の
位置と表示画面位置とから、表示画面上のどの位置(に
あるもの)が指定されているかが特定できる。しかも上
記マークの設置やその検出は簡単に行え、特別な装置等
を必要としない。
〔実施例〕
以下、本発明を実施例により説明する。第工図は本発明
の一実施例を示すブロック図で、表示袋[11の表示画
面1001の周辺の4隅には、赤外線ランプ1101が
設けられている。表示画面1001には、表示制御装置
1201を介して表示図面データ1301の図面が表示
される。ユーザ2401は、眼球の動きを検出するアイ
カメラ1401とユーザの正面の様子を撮影するための
、小形カメラである視野カメラ(赤外線に対する感度の
よいもの) 1501.及び音声入力用のマイク190
1を装着している。また他の入力機器としてキーボード
1801が用意されている。
カメラ信号処理装置1601は、アイカメラ1401と
視野カメラ1501の信号を基に、表示画面1001内
の視点の位置座標を求める。この信号を基に、対象物特
定袋[1701は、表示画面1001に表示中の表示画
面データから、ユーザが注視している表示画面内の対象
物を特定する。一方、入力解析袋[2001では、入力
解析用データ2101を用いて、マイク1901及びキ
ーボード1801からの入力を解析する。この結果が入
力信号総合処理装置2201に入力され、対象物特定装
置l701からの注視対象物についての情報と合わせて
、計算機2301に処理命令として出力される。
第2図は、カメラ信号処理装置1601の動作を示すフ
ローチャートである。この装置では、常時周期的にこの
処理を実行する。まず、視野カメラ1501及びアイカ
メラ1401からの信号を取り込み(ステップ9111
)、次に視野カメラ1501の信号から、輝度レベルに
もとづいて視野内、即ち視野カメラのモニタ画面内での
赤外線ランプの位置座標を求める(ステップ9112)
。ついで、アイカメラ1401の信号から、視野カメラ
■501のモニタ画面内での視点の位置座標を求める(
ステップ9113)。
さらにモニタ画面内での赤外線ランプの位置座標及び視
点位置座標から、実際の表示画面の赤外線ランプ位置な
どの情報を基に、透視変換などの通常の画像処理技術を
用いて1表示画面1001上の視点の座標を求める(ス
テップ9114)。
第3図は、対象物特定装置■701の動作を示すフロー
チャートである。まずカメラ信号処理装置1601で検
出された視点の座標を取り込み(ステンプ9121)、
この視点の座標をもとに1表示画面データを参照して視
点位置に表示されている対象物を特定する(ステップ9
122)。
第4図は、表示図面データ1301の一例を示す図で、
表示物の名称とそれが表示されている表示画面1001
上の座標から成っている。ただし座標は、表示物が表示
されている領域を四角形で近似したときの、各頂点の座
標である。なお、上記領域を多角形で近似することも可
能であり、その場合にはその各頂点の個数に見合った座
標データを用意する必要がある。
次に、入力解析装置2001と入力信号総合処理袋[2
201の動作を説明する。これらの装置は、マイクある
いはキーボードからの入力があった場合にのみ動作する
。第5図は、入力解析装置2001の動作を示すフロー
チャートである。これはキーボード1801あるいはマ
イク1901からの入力文を解析して、処理命令、即ち
関数と引数値に変換して出力するもので、入力文として
、「アツリョク トレンド ヒョウジ。」がステップ1
01で入力された場合を例として動作を説明する。辞書
202に記載された単語の品詞カテゴリと文法201と
を参照して、入力文の形態素・構文解析が行われる。こ
の結果、入力文が分割書きされ、各々の単語にそれぞれ
意味カテゴリ及び意味が付加される。ここで。
形態素・構文解析の手法としては、通常使用されている
手法、例えば予測ボトムアップ法などを使用する。また
文法は、文の構造に関する規則であり、例えば S(文)→NP(名詞句)  S(文)は、左辺のSが
右辺のNPとSにより構成されうるという規則を表すも
のである。また辞書には、各見出し語について、品詞カ
テゴリ、見出し藷をかな漢字に変換した表示語、意味カ
テゴリ、及び意味の4つの情報を与えている。ただし助
詞については品詞カテゴリと表示語の2つだけを与えて
いる。なお、入力文に含まれる語の認定は、ワードプロ
セッサなどで通常用いられる最長−教法による辞書引き
によっても、同様に実施できる。
次に、命令内容の同定のための処理ステップ103を実
行する。この処理では、構文解析の結果を取り込み、命
令同定ルール203を用いて命令内容を同定する。ここ
で命令とは、例えばS 110 W −5VAR(状態
量の提示命令)などのようなものである。また命令同定
ルールは、各々の命令に対してその命令を同定するため
の標準的な文パターンを与えたものである。命令同定で
は、第6図で詳細に述べるように、入力文と各々の文パ
ターンとのマツチングを順次試み、マツチングした文パ
ターンに対応する命令を入力命令であるとする。図の例
では1文パターン「¥〈状態量〉? 提示+せよ」が入
力文とマツチングし、入力命令が5IIOW−5νAR
であるという同定結果が得られている。この処理では、
文パターンを与えるために、いくつかの記号を用意して
いる。「%」は入力文に助詞がある場合にのみマツチン
グに使用する語を表す記号であり、これにより対話文に
よく見られる助詞の省略に対応することが可能である。
「+」は省略可能な語を表す記号で、体言止めなどに対
応するためのものである。「?」は任意側のJhを表す
記号であり、これによって文パターンの設定を容易とし
ている。さらに、「¥」は語の意味カテゴリとのマツチ
ングをすることを表す。
ここで命令内容同定部の詳細な処理内容を説明する。第
6図はそのフローチャートで、まず文パターン番号を1
に設定する。またその文パターンについて1文パターン
中の語の番号を表すiを文パターンの語の総数Iに設定
する。さらに、入力文の語の番号を示すjを入力文の語
の総数Jに設定する(ステップ401)。次にに番目の
文パターンのi番目の語Piと入力文のj番の語Wjを
持ってくる(ステップ402)。このPiとWjとにつ
いて以下に述べるマツチング処理を実施する。なお、始
めはiは工に、jはJに設定されているので、入力文及
び文パターンの文末から文頭に向かって、語の比較を実
施することになる。
マツチングの処理は、文パターンの語Piの形、つまり
前述の記号の有無によって異なる(ステップ403)。
まず、記号がついていない場合の処理を説明する。この
場合には、PiとWjとを比較し(ステップ404)、
これらが同じ場合には、iとjを1だけ減じる(ステッ
プ405)。つまり比較する語を1つ前のものとする。
この結果iがOとなった場合(ステップ406)は、文
パターンの諸全てが入力文の語とマツチングした場合な
ので、その文パターンkに対応する命令名を、入力され
た命令内容であるとして出力する(ステップ410)。
−方、iが1以上の場合(ステップ406)には、jに
ついての判定を実施する(ステップ407)。この結果
、jが1以上であれば、ステップ402からの処理を繰
り返す。逆にjがOであれば、文パターンにと入力文と
のマツチングが失敗したので、次の文パターン(k+1
)とのマツチングの準備をする(ステップ408)。つ
いで文パターンがまだ残っていれば(ステップ409)
、ステップ402からの処理を新しい文パターンについ
て実行する。一方、文パターンがなくなった時には、命
令同定不可の旨を出力し処理を終了する(ステップ41
2)。
Piに記号「¥」が付いている場合には、PjとWjの
意味カテゴリを比較する(ステップ413)。
その結果に応じて前述と同様の処理を実施する。
Piに記号r%」がついている場合には、Wjの品詞カ
テゴリが助詞であるか否かを判定する(ステップ414
)。その結果、助詞であればPiとWjを比較しくステ
ップ415)、結果に応じて前述と同様の処理を実施す
る。一方、Wjが助詞でない場合には、jを工滅じ、j
が1以上であれば(ステップ417)、ステップ402
にもどる。一方、jがOであれば、入力文の語がなくな
ったので、文パターンにと入力とのマツチングは失敗し
たとして5次の文パターンについての処理、即ちステッ
プ408からの処理を実施する。
rPiJに記号「+」がついている場合には、PiとW
jとを比較しくステップ418)、同じであればステッ
プ405からの処理を実施する。一方、異なる場合には
、iをl減じた後iが1以上であればステップ402に
戻る。iがOになった場合には、文パターンにの語が全
て(省略可能なものを除いて)入力文に含まれていたと
いうことなので、ステップ410に戻り、命令同定を終
了する。
Piが記号r?」である場合には、「?」の前の語Pi
−1とWjを比較する(ステップ421)。この結果、
語がマツチングすれば、iから1を減じて、次の語につ
いてのマツチング処理をステップ405から実行する。
一方、同じでなければjを↓減じ、jが↓以上であれば
(ステップ424)、ステップ402から入力文の1つ
前の語を用いてマツチング処理を実施する。jがOであ
れば、文パターンにとのマツチングは失敗したので、次
の文パターンに+1とのマツチング処理、即ちステップ
408からを実行する。
以上に詳述した第5図ステップ103の命令同定処理が
終わると、次にステップ104で同定した命令の実行に
必要な情報の取得のための処理を行う。
即ち命令によっては、その実行のためにいくつかの情報
が必要むので、その情報取得を制御するための方法とし
て、必要な情報項目とその取得方法をフレーム形式のデ
ータとして用意した。これを格フレームという。格フレ
ームは命令ごとに定義しており、命令名称のフレームの
各スロットに、その命令の実行に必要な情報の項目を与
えている。
第5図の格7L/−ム204ノ例では、命令5l(OW
−3VARに対して「状態量」、「表示形態」、及び「
場所」の3つの情−報が必要であることが示されている
各スロットのファシット及び値には、その情報を得るの
に必要なデータを与えている。VALUEファシットに
は、入力文から検索すべき語の意味カテゴリ名が、IF
−NEEDEDファシットには、入力文中に必要な語が
ない場合に起動すべき関数の名称が与えられている。こ
こで、関数5TACKは対話履歴スタックを参照する関
数、関数ASKは質問者に情報の追加入力を要求する関
数である。また、関数CAMERAは、対象物特定装置
1701からの結果を使用するようにするためのもので
ある。この関数が起動されると、対応する格の値として
、? Placeを書き込む。
ステップ104の処理の流れを第7図のフローチャート
に示す。まず命令名をフレーム名としてもつ格フレーム
を取り出す(ステップ501)。次にiを1に設定する
(ステップ502)。この初期処理のあとに、第iスロ
ットのVALUEファシットの値を読み、Viの値とし
て設定する(ステップ5o3)。
このViの値がnilでなければ(ステップ5o4)、
入力文の中から意味カテゴリをもつ語を捜す(ステップ
505)。該当する語が発見できれば(ステップ506
)、得られた語を第iスロットの情報項目の値として設
定しくステップ507)、まだスロットが残っていれば
(ステップ51O)、iを1増やして(ステップ511
)、次のスロットについての処理に移る。
一方、ステップ506で語を発見できない場合、あるい
はステップ504でVlの値がnilの場合には。
IF−NEEDEDファシットの値を読み、Niの値と
して設定する(ステップ508)。次いで、Niの関数
を順次実行する。その結果、値が得られた場合には、そ
れを第iスロットの情報項目の値として設定して(ステ
ップ509)、次のスロットについての処理に移る。
以上の動作を第5図の入力の例について述べると、命令
5HOW−5VARに対応する格フレームには、F状態
量」、r表示形態」、及びr場所」の3つのスロットが
ある。「状態量」については、まずVALUEファシッ
トの値として与えられている意味カテゴリく状態量〉を
もつ語を入力文の中で検索する。今、入力文には、対応
する語「圧力」が含まれている。これにより、「状態量
」の値として「圧力」が設定される。同様に表示形態に
ついても、入力文から、意味カテゴリく表示形態〉を持
つ語として「トレンド」が得られ、値として設定される
。「場所」については、入力文から、意味カテゴリ(P
lace>の語が検索されるが、今、入力文中に対応す
る語はない。そのため、IF−NEEDEDファシット
の値が参照され、関数CAMERAが実行される。
この結果「場所」の値としてr ? Place」が設
定される。
以上のようにして命令実行に必要な情報の取得が終わる
と、最後にステップ105の関数・引数への対応づけの
ための処理が実行される。この処理では、前の処理で得
られた命令及び情報項目の値を、プログラムの関数と引
数に対応づけて出力する。第5図の入力の例では、5H
OII−5VARとr表示形態」トレンドから、関数名
が「トレンド表示」に設定される。また引数値としては
、「圧力」及びr? PlaceJ が設定される。
第8図は、入力信号総合処理装置220■の動作を示す
フローチャートである。この装置ではまず、入力解析装
置200Fで定められた関数名と引数値とを読み込む(
ステップ9151)。次に、引数の中に変数’7 Pl
aceがあるか否かを判定する(ステップ9152)。
この結果、変数がなければ、人力解析装置2001から
の関数、引数値を処理命令として計算機に出力する(ス
テップ9153)、一方、変数がある場合には、対象物
特定装置1701から、ユーザが注視している対象物を
読み込む(ステップ9154)。
更に、変数? Placeに対象物の名称を設定し、処
理命令を完成させて計算機に出力する(ステップ915
5)。
以上説明したごとく、本実施例になる装置を使用すれば
、ユーザの装着したアイカメラ及び視野カメラからの視
点についての信診、及び表示画面の周辺部に設けられた
赤外線ランプの画像についての信号を用いて、ユーザが
注視している表示画面内の座標及びそこに表示されてい
る対象物を求めることができる。これによって、簡便で
かつ操作場所を限定されないボインティングが可能とな
る。また、音声、キーボードからの人力と、注視対象物
についての情報を総合して、計算機への命令とすること
ができる。これらにより、ポインティング操作のみなら
ず、計算機への入力作業の簡単化、作業性の向上などが
実現できる。
なお1以上に説明した実施例においては、表示画面の形
状を与えるためのマークとして、表示画面の4隅に赤外
線ランプを設置するものとしたが。
これは種々の変形が可能である。第9図はその一例であ
り、赤外線発光源2501〜2504から4つの漏洩フ
ァイバの枠2701〜2704へ赤外線を送るようにし
、さらに各赤外線発光源は点滅し、その点滅周期は各発
光源で異なっている。このようなマークを使用する場合
には、カメラ信号処理装置1601において、視野カメ
ラの画像中のマークと視点についての信号から、視点が
どのマークで四まれた枠内にあるかを、視点を取りかこ
むマークの点滅周期から求める。その後、特定された枠
内での視点の座標を求めるようにすれば1表示画面上の
視点の座標を精度よく求められる。これは特に大画面表
示装置のような表示装置を使用する場合に有効である。
第1O図は、マークのもう1つの例を示す模式図である
。1つの赤外線発光源2505からの赤外線は、スター
カプラ2601.漏洩ファイバ2700、光フアイバ経
由で点光源2801〜2804へ導かれる。表示画面1
001は4分割されその各々で点光源の数が異なってい
る。このマークを使用すると、視点がどの分割領域にあ
るかを、漏洩ファイバからの光と、視点と同一分割領域
内にある点光源の個数から判定する。それ以外の処理に
ついては、第9図の例と同様である0本例によると、視
点の座標精度を向上できる他、使用する赤外線光源の個
数が1個でよいという効果がある。
なお、これらの例では、表示画面1001をマークによ
って4分割したが、分割数を変えることば可能である。
また、全表示画面についてマークを付けるのではなく1
表示画面の一部のみにマークを付け、その部分のみポイ
ンティング可能な領域として使用することもできる。例
えば5画面の一部を漏洩ファイバで囲み、視点がこの部
分に入ったときのみ音声での入力を受は付けるようにし
、音声入力のスイッチングに使用することができる。
また、ここでは光源として赤外線光源を考えたが、これ
を他の波長の光源、例えば可視光の光源としても全く同
様の機能が実現できる。
第11図は本発明の第二の実施例を示すブロック図で1
表示盤2901には3個の表示画面1001−1003
が設置され、その周辺部にはそれぞれ赤、緑、青色のマ
ーク3001〜3003が付けられている。各表示画面
には、表示図面データ1302の図面が表示制御装置1
202によって表示されている。ユーザ2401はアイ
カメラ1401と視野カメラ1501−1502、及び
音声入力用マイク1901を装着し、またキーボード1
801も用意されている。カメラ信号処理装置1602
は、アイカメラ1401と視野カメラ1501.150
2の信号をもとに、ユーザの視点がどの表示画面のどの
座標にあるかを求める。この信号をもとに、対象物候補
特定装置1702では1表示画面に表示されている図面
の内で、ユーザが注視している対象物を求める。一方、
入力解析装置2001では、入力解析用データ2101
を用いて、マイク1901及びキーボード1801から
の入力を解析する。この結果が入力信号総合処理装置2
202に入力される。次いでこの装置で対象物候補と、
対象物限定データ2203を用いて、ユーザの注視して
いる対象物を特定し、入力解析装置2002からの信号
と総合して、計算機2301に処理命令を出力する。こ
れら各部の処理は、大筋では第1図の場合と同様である
が、表示画面の個数とマークが異なっているので、その
点での相違がある。以下、それらの詳細を説明する。
第12図はカメラ信号処理装置1602の動作を示すフ
ローチャートである。まず視野カメラ1501゜150
2およびアイカメラ1401からの信号を取り込み(ス
テップ9211)、次に視野カメラのモニタの画面内で
視点の位置座標を求める(ステップ9212)。
次に視野カメラのモニタ画面内で視点を取りかこむマー
ク3001〜3003を特定し、その色を判別する(ス
テップ9213)。例えばマークの色が赤であると認識
された場合には、視点が表示画面1001の中にあると
特定される。次いで判別されたマークについて、マーク
の4隅の点の視野カメラのモニタ画面内での座標を求め
る(ステップ9214)。この位置座標及び視点の位置
座標から、実際のマーク形状についての情報を用いて1
表示画面上での視点の座標を求める(ステップ9215
)。この処理は。
通常の画像処理の手法により実施する。
次いで、対象物候補特定装置1702で、視点があると
特定された表示画面に表示されている図面についてのデ
ータから、ユーザが注視している対象物の候補を求める
。ここでの処理は、前述した第1図の対象物特定装置1
701での処理と同様である。
但し、表示図面データの内容が異なり、同一の画面内の
点に複数個の対象物を対応付けることを許している。つ
まり、対象物候補特定装置は、視点の座標から1つ以上
の対象物候補を出力することになる。以下では、表示画
面には原子カブラン1〜の圧力容器の図面が表示されて
おり、対象物候補として、気水分子lft L%と蒸気
ドームの2つが得られたものとする。
次に、マイク1901あるいはキーボード1801から
の入力を入力解析装置2001で解析する。これは第1
図のものと全く同じ処理を行う。そこで今、マイク19
01から 「圧カトレンド示せ」 という入力があった揚・合を考えると、この入力が解析
され、 トレンド表示(圧力、? Place)という命令であ
ると同定される。ここで、? Placeは場所を表す
変数である。この同定された命令と先に求めた対象物の
候補を取り込み、入力信号総合処理装置2202は、計
算機2301への命令を作成する。
第13図は入力信号総合処理装置2202の動作を示す
フローチャートである。この装置は、まず入力解析装置
2001から関数名と引数値を読み込む(ステップ92
21)。次に引数の中に変数? Plac6があるか否
かを判定する(ステップ9222)。判定の結果、変数
’7 Placeがなければ、入力解析装置2001か
らの関数、引数をそのまま処理命令として計算機230
1に出力する(ステップ9223)。一方、変数がある
場合には、対象物候補特定装置1702から、ユーザが
注視している対象物候補を読み込む(ステップ9224
)。今の場合、対象物候補として気水分離器と蒸気ドー
ムの2つが得られる。次いで、特定の引数(今の場合は
状態量、値は「圧力」)の値を基に、対象物限定データ
を検索する(ステップ9225)。
ここで、対象物限定データ2203について説明する。
第14図は対象物限定データの一部の内容を示す図で、
状態量とプラント内の部位との関係が与えられている。
このデータは1例えばドライウェル、蒸気ドームなどに
ついては圧力が計測されており、炉心などについては流
量が計測されていることを表している。
第13図に戻って、ステップ9225でこのデータを検
索した後、引数値(今の例では「圧力」)に対応する部
位として対象物候補が有るかどうかを判定する(ステッ
プ6226)。この結果、なければ場所についての入力
をユーザに要求する(ステップ6229)。この要求に
従い、ユーザからマイクなどでの入力があればそれを解
析して、処理命令を完成する。一方、候補があった場合
には、それが1つか否かを判定する(ステップ6227
)。その結果、候補が2つ以上ある場合には、ユーザに
選択を要求する(ステップ6230)6候補が1つの場
合には、それを変数? Placeの値として設定し、
命令を完威して計算機に出力する(ステップ6228)
。今考えている例では、対象物の候補として、気水分離
器と蒸気ドームの2つが得られたが、マイクからの入力
を解析して得られた引数値「圧力」から対象物限定デー
タの参照により、圧力が計測されている部位である蒸気
ドームが選択される。その結果、命令 トレンド表示(圧力、蒸気ドーム) を完威し、計算機2301に出力する。
以上説明したごとく、本実施例になる装置を使用すれば
、複数個の表示画面を用いるような場合に、ユーザの視
点がどの表示画面のどの部分にあるかを特定することが
できる。従って多数の表示画面を使用するプラント運転
などの場合での命令入力に有効である。なお、本実施例
では、ユーザが1人の例を示しているが、複数人の場合
にも同様の処理が可能である。
第11図の実施例では1表示画面1001〜1003を
異なる色の枠で囲んでその識別を行うものであるが、こ
れを別の方法によって行うようにした例を第15図に示
す、同図において、表示盤2901には3個の表示画面
1001〜1003が設けられ、それぞれの周辺にはマ
ーク3004が設けられている。このマークは赤外線あ
るいは可視光線の発光源、もしくはペンキなどの塗料で
記入されたものである。このようにして、マークの個数
によって表示画面を区別することができる。さらに、表
示画面左右及び上下のマークの個数を変えることにより
、視野カメラの画像にどの表示画面のどの部分が写って
いるのかを認識できる。また、マークの区別をその個数
と配置だけでなく、色、光源強度、点滅周期やそれらの
組合わせで行うようにすることもできる。
このようなマークを使用することにより、ユーザの頭部
が大きく回転した場合についても、画面の上下左右を簡
単に判別することが可能となる。
第16図は本発明の第3の実施例になる装置の構成を示
すブロック図である。ユーザ2401の帽子3301に
は矢印マーク3302がつけられ、モニタカメラ310
1はこれをモニタする。表示画面特定装置3201は、
モニターカメラ3101がとらえた矢印マーク3302
の信号をもとに、ユーザが向いている方向にある表示画
面を特定する。カメラ信号処理装置l603は、ユーザ
が装着したアイカメラ140L視野カメラ1501の信
号を基に、上の処理で特定された表示画面内での視点を
求めて、計算機2301に入力する。
ここで、表示画面1001〜1003の周辺部あるいは
その内部にはマークをつけず、表示画面はその枠の形状
と色をマークとして用いるものとする。この方法によれ
ば、表示画面あるいはその内部にマークをつける必要が
なく、予め存在するものをマークとして使用することが
でき、表示要求等の作成の手間を省力化できる。さらに
、ユーザの動きを、帽子の矢印をモニタしてとらえ、ユ
ーザが見ている表示画面の候補を絞ることができる。こ
の方法は、第2の実施例などと併用可能であり、とくに
表示画面の数が多い場合には、その特定の処理の高速化
、簡単化に役立つ。
なお、ここでは表示画面の枠の形状と色をマークとして
使用したが1画像処理技術が進歩すれば、表示画面に表
示された図面を認識し、ユーザの視点のある部分に表示
されている対象物を直接特定することが可能である。
第17図は本発明の第4の実施例を示すものである・同
図において、プラントの制御盤3501には、メータ3
401〜3404及びスイッチ3601〜3604が設
置されている。赤外線光源2506〜2512からの光
は、光ファイバ3801〜3807によって分岐器37
01〜3707に導かれている。この分岐器には漏洩フ
ァイバ3901〜3907が接続され、このファイバは
スイッチやメータを囲むように配置されている。赤外線
発光源2506〜2512は、各々相異なる波長の光を
発生している。
一方、ユーザ2401の装着したアイカメラ1401及
び視野カメラ1501は、信号送信装置4001及び信
号受信装置4101を経由し、計算機4201にそのデ
ータ入力部4202を介して取り込まれる。この信号は
機器特定部4601、データ記録部4602、出力部4
203を介して記憶装置4401に記憶される。機器特
定部4601では、機器特定用データ4402を、入力
部4207、出力部4208を介して利用する。一方、
命令入力装置4301から、入力部4205を介して命
令が入力されると、データ検索部4603が動作し、記
憶装置4401から入力部4202を介して記録された
データが読み出され、入力命令に沿った形態で出力部4
206を介して出力装置4501に表示、印字、あるい
はコピーされる。
本実施例は1例えばプラント運転中の運転員の視点の動
きを自動的に記録、処理するためのもので、起動される
と第18図の処理を周期的に実施する。まず、視野カメ
ラ(赤外線カメラ)に写った漏洩ファイバの枠のうちの
どの枠内にアイカメラからの視点が入っているかを特定
する。この処理ステップ9301の詳細なフローチャー
トは第19図に示されており、これは機器特定部460
1で実行される。即ちまず、視野カメラ、アイカメラか
らの信号を取り込み(ステップ9311)、視野カメラ
のモニタ画面内での視点の位置座標を、アイカメラ信号
から求める(ステップ9312)。次に視野カメラのモ
ニタ画面内で視点を取りかこむ枠を特定する(ステップ
9313)。次に特定した枠についての輝度情報から、
枠の赤外線光源の点滅周期を求める(ステップ9314
)。この点滅周期をもとに、機器特定用データを用いて
枠内の機器個数を求める(ステップ9315)。その結
果、特定された枠内に機器が1つだけの場合には(ステ
ップ9316)、その機器を特定して処理を終了する(
ステップ9317)。
一方、枠内に複数個の機器がある場合、枠内での視点の
座標を、第11図の実施例のカメラ信号処理装置160
2と同様の処理により求める(ステップ9318)。次
に機器特定用データを用いて、視点の座標から機器を特
定する(ステップ9319)。
なお、ここで用いた機器特定用データの一部を第20図
に示す。このデータは、枠の赤外線光源の点滅周期ごと
に、枠内機器の個数、機器名称を与えている。さらに枠
内に複数個の機器がある場合には、各々の機器に対応す
る領域を定義するための、各領域を四角形で近似し、四
角形の4つの頂点の座標を与える。ここで、各領域を定
義する場合に、枠内を左右2領域にわけるときに分割点
のX座標のみを与えるか、あるいは多角形や円などによ
り領域を定義することも同様に可能である。
以上のようにして、第18図のステップ9301により
視点の入っている表示画面が特定されると、次にその時
点の時刻と、運転員が見ているメータ、スイッチなどの
名称などに係わる情報を、記憶袋[4401に記憶する
(ステップ9302)。
一方、命令入力袋[4301から表示命令が入力された
ときには、第21図の処理が起動され(ステップ930
3)、記憶装置4401に記憶された運転員の視点の時
間的な動作についての情報を、出力装置4501に表示
あるいは他の形で出力する(ステップ9304)。この
出力装置への出力は、命令入力装置からの要求があれば
、データの処理と平行して、即ちモニタとして出力する
ことが可能である。なお、本実施例になる装置では、漏
洩ファイバを配置し、各々の点滅周期を変えることによ
り、運転員の注視している機器などを特定した。この特
定は、前に述べた実施例で示した各種の方法によっても
実施可能である。あるいは、スイッチ、メータの形状あ
るいはそれに付随して設置された銘板上の文字などの認
識によっても、同様に実現できる。
本実施例によれば、プラント運転中の運転員の視点の動
きをモニタし、その注視している対象物名称あるいは番
号などとともに記録できる。従って例えばメータを見る
頻度、ある時間内での視点の動作範囲などの分析を、計
算機を用いて容易に行え、制御盤の評′価、設計などに
生かすことができる。なお、本装置では視点の動作のみ
モニタしたが、マイク、音声認識装置を用いれば、運転
員の発話の履歴についても同様に記録し、利用すること
が可能である。
第22図は本発明の第5の実施例を示すブロック図で、
表示画面1001の周辺には赤外線光源2513を接続
した漏洩ファイバ3908が配置されている。ユーザ2
401は、赤外線投光器(指差レーザ) 4701を持
ち、あるいは指などに装着している。この投光器には、
投光のオン、オフスイッチ4702が設けられている。
モニタ用の赤外線カメラ3102は、表示画面1001
の前方に固定設置され、その信号が指差位置特定装置5
001を介して、計算機2301に入力される。さらに
計算機に入力された指差位置は、表示制御装置1204
を介して、指差マーカ4901として表示画面1001
上に表示される。
第23図は本実施例になる装置での処理の概要を示すフ
ローチャートである。まずモニタカメラの信号から、指
差位置特定装置5001によって、指差レーザのレーザ
光が、表示画面上にぶつかり反射する点の表示画面上の
位置をステップ9401で求める。このステップ940
■の詳細な内容は第24図に示されており、まずモニタ
カメラ3102の信号を読み込み(ステップ2411)
、この信号から投光器4701からの指差レーザ光の折
れ曲がり点を検出し、その点のモニタ画面内での座標を
求める(ステップ9412)。次いで漏洩ファイバ39
08で作った枠の各辺を表す直線の式を、モニタ画面座
標上で求める(ステップ9413)。次いで枠の各辺の
式と、折れ曲がり点の座標から、実際の枠形状について
の情報を用いて折れ曲がり点、即ちユーザが指差した点
の表示画面上での座標を求める(ステップ9414)。
この処理は、通常の画像処理の手法によって実施する。
なお、この実施例では、赤外線光源と漏洩ファイバによ
って、表示画面のまわりに枠を作った。しかしモニタカ
メラは固定できるので、モニタ画面内での座標と表示画
面上の座標の変換に必要な関係を予め用意しておけば、
枠がない場合でも、同様の指差点特定処理を実施できる
次に、第23図に戻って、ステップ9401で求めた座
標を計算機2301に入力し、指差によるポインティン
グ情報として利用する(ステップ9402)、さらに、
表示制御装置1204にステップ9401で求めた座標
を入力し、表示画面上に表示する(ステップ9403)
以上述べたように、本実施例になる装置によれば、指差
信号をポインティングに使用できる。またスクリーンの
周囲に多数の受光素子を配置する必要のある従来技術に
対し、モニタカメラ、赤外線投光器、及び赤外線光源と
漏洩ファイバによって装置を構成することが可能であり
1画面の大型化に容易に対応できる。また本実施例では
、表示画面が1つの場合を示したが、これが複数個ある
場合についても、他の実施例で示したように、各表示画
面ごとに赤外線光源の点滅周期を変える、可視光の利用
、塗料によるマーク、あるいは表示画面の形状をマーク
として利用する。などの方法によっても同様に実現でき
る。
〔発明の効果〕
以上に説明したごとく、本発明によれば、ユーザが移動
しながら作業するときでも、ユーザの眼球の動き、もし
くは指差についての情報を表示画面等のボインティング
に使用でき、操作場所を限定しないポインティングデバ
イスが実現できる。
また、音声入力などとの併用により、さらに入力の簡単
化1作業性の向上を図ることができる。また眼球の動き
から、ユーザが注視した対象物を特定し、時刻について
の情報とともに記録することが可能となり、プラント運
転員の行動分析、制御盤の評価データの取得が効率よく
行えるという効果がある。
【図面の簡単な説明】
第1図は本発明の第1の実施例の構成を示すブロック図
、第2図〜第8図は第1の実施例の動作説明図、第9図
及び第10図は表示画面識別のための別の方法を示す図
、第11図は本発明の第2の実施例の構成を示すブロッ
ク図、第12図〜第14図は第2の実施例の動作説明図
、第15図は第2の実施における表示画面識別のための
別の方法を示す図、第16図は本発明の第3の実施例の
構成を示すブロック図、第17図は本発明の第4の実施
例の構成を示す図、第18図〜第21図は第4の実施例
の動作説明図、第22図は本発明の第5の実施例の構成
を示すブロック図、第23図及び第24図は第5の実施
例の動作説明図である。 1001〜1003・・・表示画面、1101・・・赤
外線ランプ、1301、1302・・・表示図面データ
、1401・・・アイカメラ。 1501、1502・・・視野カメラ、1601〜16
03・・・カメラ信号処理装置、1701・・・対象物
特定装置、1702・・・対象物候補特定装置、180
1・・・キーボード、1901・・・マイク、2001
・・・入力解析装置、2101・・・入力解析用データ
、2201.2202・・・入力信号総合処理装置、2
203・・・対象物限定データ、2301・・・計算機
、2401・・・ユーザ、2700〜2704.390
1〜3907・・・漏洩ファイバ、3001〜3004
・・・マーク、3101.3102・・・モニタカメラ
、3201・・・表示画面特定装置、3301・・・帽
子、3302・・・矢印マーク、4201・・・計算機
、4301・・・命令入力装置、4601・・・機器特
定部、4701・・・赤外線投光器、 4901・・・
マーカ、5001・・・指差位置特定装置。

Claims (1)

  1. 【特許請求の範囲】 1、表示画面の一部もしくは周辺部に当該表示画面を識
    別するための識別手段を設けるとともに、ユーザの装着
    した視野カメラが捉えた上記識別手段の種類及び位置情
    報と、ユーザが装着したアイカメラの視点の位置情報と
    から、表示画面上の座標で見たユーザの視点位置を特定
    することを特徴とするポインティングデバイス装置。 2、表示画面の一部もしくは周辺部に当該表示画面を識
    別するための識別手段を設けるとともに、ユーザの装着
    した視野カメラが捉えた上記識別手段の種類及び位置情
    報と、ユーザが装着した投光器からの光が表示画面上に
    形成する光点の位置情報とから、表示画面上の座標で見
    たユーザの視点位置を特定することを特徴とするポイン
    ティングデバイス装置。 3、表示画面が複数個ある場合に、ユーザのいる位置あ
    るいはユーザの向いている方向を検出する手段を設け、
    該手段によってユーザが対向している表示画面を特定す
    る機能を付加したことを特徴とする請求項1あるいは2
    記載のポインティングデバイス装置。 4、前記特定されたユーザの視点もしくはユーザの指す
    光点位置を当該表示画面上の当該位置にマーカによって
    表示することを特徴とする請求項1、2あるいは3記載
    のポインティングデバイス装置。 5、前記識別手段は、表示画面周辺に塗料で形成した点
    状のマーク、あるいは可視光または赤外線を発光する点
    状のマークであることを特徴とする請求項1ないし4記
    載のポインティングデバイス装置。 6、前記点状のマークの個数、色又は発光波長、もしく
    は発光する点状マークの点滅周期により、複数の表示画
    面の区別、あるいは1つの表示画面の上下左右の識別を
    行うことを特徴とする請求項5記載のポインティングデ
    バイス装置。 7、前記識別手段は、表示画面周辺の形状自体、あるい
    は表示画面周辺に線状枠として設けた赤外光あるいは可
    視光の発光体であることを特徴とする請求項1ないし4
    記載のポインティングデバイス装置。 8、前記線状枠を構成する発光体をいくつかに分割した
    ときの各部分に対して、あるいは複数表示画面の各線状
    枠に対して発光の波長もしくは点滅周期により、複数の
    表示画面上の区別、あるいは1つの表示画面の上下左右
    の識別を行うことを特徴とする請求項7記載のポインテ
    ィングデバイス装置。 9、前記識別手段は、表示画面に表示されている特定の
    図形または特定の図形に付けたマークであることを特徴
    とする請求項1ないし4記載のポインティングデバイス
    装置。 10、請求項1ないし9のいずれか1つに記載のポイン
    ティングデバイス装置において、前記特定されたユーザ
    の視点もしくはユーザの指す光点位置に表示された物体
    を上記特定された位置と上記物体に関する画像データと
    から指定物体として特定するとともに、計算機が別に設
    けた入力手段からの処理命令を上記指定物体に対して実
    行することを特徴とする入力方法。 11、前記特定されたユーザの視点もしくはユーザの指
    す光点位置に表示された物体が複数個あるときはそれら
    を指定物体候補とし、他に用意した表示物体に関する情
    報及びユーザからの入力手段を介しての入力を参照して
    上記指定物体候補から前記指定物体を特定することを特
    徴とする請求項10記載の入力方法。 12、前記特定されたユーザの視点もしくはユーザの指
    す光点位置が表示画面上の予め指定された範囲にあると
    き、あるいは前記特定された指定物体が予め定められた
    物体群の1つであるときのみ、計算機が前記命令を実行
    することを特徴とする請求項10あるいは11記載の入
    力方法。 13、前記入力手段は、キーボード及びユーザの発声す
    る音声から命令をとりだす手段の一方または双方である
    ことを特徴とする請求項10ないし12記載の入力方法
JP1317694A 1989-12-08 1989-12-08 ポインティングデバイス装置及び入力方法 Pending JPH03179517A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1317694A JPH03179517A (ja) 1989-12-08 1989-12-08 ポインティングデバイス装置及び入力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1317694A JPH03179517A (ja) 1989-12-08 1989-12-08 ポインティングデバイス装置及び入力方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP02402095A Division JP3787649B2 (ja) 1995-02-13 1995-02-13 ポインティングデバイス装置

Publications (1)

Publication Number Publication Date
JPH03179517A true JPH03179517A (ja) 1991-08-05

Family

ID=18090983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1317694A Pending JPH03179517A (ja) 1989-12-08 1989-12-08 ポインティングデバイス装置及び入力方法

Country Status (1)

Country Link
JP (1) JPH03179517A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0421020A (ja) * 1990-05-14 1992-01-24 Hamamatsu Photonics Kk 情報処理装置
US5677993A (en) * 1992-08-31 1997-10-14 Hitachi, Ltd. Information processing apparatus using pointing input and speech input
US5712658A (en) * 1993-12-28 1998-01-27 Hitachi, Ltd. Information presentation apparatus and information display apparatus
US6952198B2 (en) 1999-07-06 2005-10-04 Hansen Karl C System and method for communication with enhanced optical pointer
JP4822643B2 (ja) * 1999-07-06 2011-11-24 ハンセン、カール、シー. 無線ポインタの光学トラッキングを備えるコンピュータ・プレゼンテーション・システムおよび方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60138628A (ja) * 1983-12-27 1985-07-23 Yamatake Honeywell Co Ltd 画面指示入力装置
JPS61156326A (ja) * 1984-12-28 1986-07-16 Toshiba Corp 座標入力装置
JPS6416191U (ja) * 1987-07-21 1989-01-26
JPS6441021A (en) * 1987-08-07 1989-02-13 Nippon Telegraph & Telephone Picture projection type indication detector

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60138628A (ja) * 1983-12-27 1985-07-23 Yamatake Honeywell Co Ltd 画面指示入力装置
JPS61156326A (ja) * 1984-12-28 1986-07-16 Toshiba Corp 座標入力装置
JPS6416191U (ja) * 1987-07-21 1989-01-26
JPS6441021A (en) * 1987-08-07 1989-02-13 Nippon Telegraph & Telephone Picture projection type indication detector

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0421020A (ja) * 1990-05-14 1992-01-24 Hamamatsu Photonics Kk 情報処理装置
US5677993A (en) * 1992-08-31 1997-10-14 Hitachi, Ltd. Information processing apparatus using pointing input and speech input
US5712658A (en) * 1993-12-28 1998-01-27 Hitachi, Ltd. Information presentation apparatus and information display apparatus
US5835078A (en) * 1993-12-28 1998-11-10 Hitachi, Ltd. Information presentation apparatus and information display apparatus
US6188388B1 (en) 1993-12-28 2001-02-13 Hitachi, Ltd. Information presentation apparatus and information display apparatus
US6952198B2 (en) 1999-07-06 2005-10-04 Hansen Karl C System and method for communication with enhanced optical pointer
JP4822643B2 (ja) * 1999-07-06 2011-11-24 ハンセン、カール、シー. 無線ポインタの光学トラッキングを備えるコンピュータ・プレゼンテーション・システムおよび方法

Similar Documents

Publication Publication Date Title
US20210182627A1 (en) Procedural language and content generation environment for use in augmented reality/mixed reality systems to support laboratory and related operations
KR101990284B1 (ko) 음성인식을 이용한 지능형 인지기술기반 증강현실시스템
US5677993A (en) Information processing apparatus using pointing input and speech input
US6091896A (en) Debugging optimized code using data change points
JPH07200160A (ja) 情報提供装置及び情報表示装置
WO2016157936A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JPH02277196A (ja) マンマシンシステム
JPH08263258A (ja) 入力装置、入力方法、情報処理システムおよび入力情報の管理方法
JPH06138815A (ja) 手話/単語変換システム
KR102326507B1 (ko) 산업설비 운영을 위한 확장현실 서비스 제공 방법 및 시스템
JP2002544584A (ja) 行動およびホストアプリケーションモデルを使用するソフトウェアアプリケーションにおいてダイナミックアシスタンスをするためのシステムおよび方法
US6437794B1 (en) Interactive image generation method and apparatus utilizing a determination of the visual point position of an operator
CN113380088A (zh) 一种交互式模拟培训保障系统
JPH03179517A (ja) ポインティングデバイス装置及び入力方法
Chowdhury et al. MIVA: Multimodal interactions for facilitating visual analysis with multiple coordinated views
CN106200900A (zh) 基于识别区域在视频中触发虚拟现实交互的方法及系统
NL2025739B1 (en) Artificial intelligence and augmented reality system and method
JP3787649B2 (ja) ポインティングデバイス装置
CN115273569A (zh) 一种智能光影引导系统
JPH0895707A (ja) コンピュータディスプレイシステム
US5551036A (en) Method and system for generating operation specification object information
JP3744418B2 (ja) 情報表示装置
JPH11191159A (ja) 画像出力装置およびそのプログラム記録媒体
US20240185534A1 (en) Mixed reality workflow generation
CN110047343B (zh) 一种vr模拟显微硬度计操作的方法