JPH02277196A - マンマシンシステム - Google Patents

マンマシンシステム

Info

Publication number
JPH02277196A
JPH02277196A JP1066216A JP6621689A JPH02277196A JP H02277196 A JPH02277196 A JP H02277196A JP 1066216 A JP1066216 A JP 1066216A JP 6621689 A JP6621689 A JP 6621689A JP H02277196 A JPH02277196 A JP H02277196A
Authority
JP
Japan
Prior art keywords
information
operator
attention
focus
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1066216A
Other languages
English (en)
Other versions
JP2845926B2 (ja
Inventor
Wataru Kitaura
北浦 渉
Hiroshi Ujita
氏田 博士
Mitsuko Fukuda
光子 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP1066216A priority Critical patent/JP2845926B2/ja
Priority to US07/495,919 priority patent/US5247433A/en
Priority to EP19900105241 priority patent/EP0393368A3/en
Publication of JPH02277196A publication Critical patent/JPH02277196A/ja
Application granted granted Critical
Publication of JP2845926B2 publication Critical patent/JP2845926B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S715/00Data processing: presentation processing of document, operator interface processing, and screen saver display processing
    • Y10S715/978Audio interaction as part of an operator interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Monitoring And Testing Of Nuclear Reactors (AREA)
  • Position Input By Displaying (AREA)
  • Alarm Systems (AREA)
  • Automatic Focus Adjustment (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、マンマシンシステムに係り、特に、プラント
の運転操作盤に適用するのに好適なマンマシンシステム
に関する。
〔従来の技術〕
プラント制御用計算機システム等に用いられるマンマシ
ンインタフェイスであるマンマシンシステムに音声情報
を取入れ、オペレータの特性と調和のとれた情報を提供
しようとする技術は、第19回r炉物理夏期セミナー」
テキスト(1987年)第117頁から第129頁に記
載の、運転員モデルを用いてオペレータの必要とする情
報を推定し、オペレータの理解を助ける情報提供できる
知的マンマシンシステムがある。
〔発明が解決しようとする課題〕
上記従来技術は、音声で表示の制御や質問応答機能を実
現しようとするものであるが、オペレータがプラント状
態を誤解していたり、注意の焦点が絞り切れずにいろい
ろな事を考えているような場合には、適切な情報が得ら
れない可能性がある。
さらに、無意識のうちに誤まった表現を行なってしまう
場合や1機器名称などを度忘れしてしまい抽象的な表現
を行なう場合もあり、上記問題が生じる可能性がある。
本発明の第1の目的は、オペレータが抽象的な表現をし
た場合にもオペレータが必要とする情報を適切に提供で
きるマンマシンシステムを提供することにある。
本発明の第2の目的は、オペレータの思考過程に沿った
情報をタイムリーに提供できるマンマシンシステムを提
供することにある。
本発明の第3の目的は、重要情報の見逃しを精度良くチ
ェックできるマンマシンシステムを提供することにある
本発明の第4の目的は、オペレータにとって都合の良い
情報出力装置に情報が提供できるマンマシンシステムを
提供することにある。
本発明の第5の目的は、重要情報の洩れのない提供情報
を作成できるマンマシンシステムを提供することにある
〔課題を解決するための手段〕
第1の目的を達成する本発明の第1の特徴は、被操作手
段を有する装置のある運転状態に対して注目すべき複数
の注意の焦点を含む第1オペレータモデルを作成する手
段と、第1オペレータモデルに含まれる注意の焦点うち
からオペレータが必要としている注意の焦点を、入力し
たオペレータが発生した音声情報及びこのオペレータの
視線情報を用いて推定する手段と、推定された注意の焦
点の情報を含むオペレータに対応する第2オペレータモ
デルを作成する手段と、第2オペレータモデルに含まれ
る推定された注意の焦点の情報及び被操作手段を有する
装置から得られた情報を用いて提供する情報を編集する
手段とを備えることにある。
本発明の第2の目的を達成する本発明の第2の特徴は、
音声情報及び前記視線情報を用いてオペレータの認知処
理活動の段階を推定する手段を備え、推定された認知処
理活動の段階に基づいて情報提供形態を決定する手段と
を備え、情報編集手段が決定された情報提供形態に基づ
いて提供情報を編集することにある。
第3の目的を達成する本発明の第3の特徴は、視線情報
に基づいて情報編集手段で編集された情報をオペレータ
が見たか否かをチェックし、見ない情報がある場合には
注意喚起信号を出力する手段を備えることにある。
第4の目的を達成する本発明の第4の特徴は、音声情報
及び視線情報を用いて情報提供装置を決定する手段と、
第2オペレータモデルに含まれる推定された注意の焦点
の情報及び被操作手段を有する装置から得られた情報を
用いて提供する情報を編集し、その提供する情報を前記
決定された情報提供装置に出力する手段とを備えること
にある。
第5の目的を達成する第5の特徴は、情報編集手段で得
られた情報と第2オペレータモデルに含まれた情報とを
比較し、後者の情報であって前者の情報に含まれていな
い情報があるか否かをチェックする手段を備え、前記後
者の情報のうち前記前者の情報に含まれていない情報が
ある場合には、情報編集手段による情報の編集を行うこ
とにある。
〔作用〕
本発明の第1の特徴によれば、第1オペレータモデルに
含まれる注意の焦点うちからオペレータが必要としてい
る注意の焦点を、入力したオペレータが発生した音声情
報及びこのオペレータの視線情報を用いて推定するので
、音声情報が抽象的であっても視線情報を併用すること
によってオペレータが必要としている注意の焦点を精度
良く推定できる。従って、この推定された注意の焦点の
情報及び被操作手段を有する装置から得られた情報を用
いて編集された提供情報は、オペレータが抽象的な表現
をした場合でもオペレータが必要とする適切な情報であ
る。
本発明の第2の特徴によれば、音声情報及び前記視線情
報を用いてオペレータの認知処理活動の段階を推定する
ことによってオペレータが今何を考えているかをより正
確に推定でき、この推定された認知処理活動の段階に基
づいて情報提供形態を決定することによってオペレータ
の思考過程にあった情報を適切に編集することができる
本発明の第3の特徴によれば、視線情報に基づいて情報
編集手段で編集された情報をオペレータが見たか否かを
チェックしているので、オペレータの重要情報の見逃し
を精度良くチェックすることができる。
本発明の第4の特徴によれば、音声情報及び視線情報を
用いて情報提供装置を決定し、提供する情報を決定され
た情報提供装置に出力するので、オペレータにとって情
報を入手しやすい都合の良い情報出力装置に情報を提供
できる。
本発明の第5の特徴によれば、情報編集手段で得られた
情報と第2オペレータモデルに含まれた情報とを比較し
、後者の情報であって前者の情報に含まれていない情報
があるか否かをチェックしているので、重要情報の洩れ
を簡単に確認できるので1重要情報の洩れのない提供情
報を作成できる。
〔実施例〕
本発明の好適な一実施例であるマンマシンシステムを以
下に説明する。本実施例は、プラント(例えば原子炉プ
ラント)の運転操作盤に適用したマンマシンシステムで
ある。
1はプラント、2は複数の表示装[(例えばデイスプレ
ィ)3及び音声出力装置4が設けられている運転操作盤
である。運転操作盤2は1図示されていないがプラント
に操作指令(または制御信号−)を出力するボタン、ス
イッチ等の操作を指示する手段を有している。
本実施例のマンマシンシステム14は、表示装置3.プ
ラント状態評価部5.眼球運動検出器6゜注視情報認識
部7.音声入力装置(例えばマイク)8、音声認識部9
.オペレータ状態推定部10゜情報編集部11及び記憶
装置12を備えている。
表示装置3は、運転操作盤2のそれと兼用している。マ
ンマシンシステム14の上記構成のうち。
眼球運動検出器6.音声入力装置8及び表示′3A口3
を除いた部分は、電子計算機にて構成される。
記憶装置12は、電子計算機の内部メモリ及び外部メモ
リのいずれを用いてもよい。更には、プラント状態評価
部5.注視情報認識部7.音声認識部9.オペレータ状
態推定部10及び情報編集部11をそれぞれマイクロプ
ロセッサにて構成することも可能である。信号処理部1
3は、プラント状態評価部5.注視情報認識部7.音声
認識部9゜オペレータ状態推定部10及び情報編集部1
1を含んでいる。
プラント状態評価部5は、iff!I定されたプラント
1のデータ及び信号を取込みプラント状態を評価する。
眼球運動検出器6は、オペレータの眼球運動を検出する
。注視情報認識部7は眼球運動検出器6から出力された
信号を分析し、オペレータが見ている方向、領域及び点
を認識する音声認識部9は、音声を認識するオペレータ
状態推定部10は、プラント状態評価部5、注視情報認
識部7及び音声認識部9の出力信号を入力し、オペレー
タの注視している情報、必要としている情報、及び意図
している内容などを推定する。情報編集部11は、プラ
ント状態評価部5及びオペレータ状態推定部10の出力
信号を入力し、情報を出力すべき装置(表示装置3.音
声出力装置4)の決定および提供情報の編集を行う。記
憶装置12は、上記の各部の処理において使用する知識
、データを格納している。
本実施例における処理内容を説明する。
第2図は、プラント状態評価部5の概略処理フローであ
る。ステップ100において、プラント1の測定された
プロセスデータを取込み、そのプロセスデータと該当す
るしきい値(各プロセスデータに予め設定されている警
報設定値など。−例を第3図に示す)と比較する。入力
したプロセスデータが正常な範囲の場合(ステップ10
1の判定がrn oJの場合)にはステップ100の処
理を続ける。もしそのプロセスデータの値がしきい値を
越えた場合(ステップ101の判定がrycsJの場合
)には、ステップ102の処理が行われ、その異常原因
の候補を探索する。次にステップ103の処理が行われ
、探索した異常原因候補を、オペレータが現在注意すべ
き注意の焦点として設定する。そして、設定された注意
の焦点と関連するパラメータ、及び機器などの情報を整
理し、その注意の焦点に対する理想的運転員(オペレー
タ)モデル(第5図)を作成する。理想的運転員モデル
は、後で詳細に説明する。なお、注意の焦点とは、運転
員が思考を集中すべき部分を意味する。
第3図及び第4図は、第2図の各処理において参照する
知識を示している。これらの知識は、記憶%首12に予
め格納しておく。第3図は、プロセスデータに関する知
識をまとめたものである。
値しきい値及び変化率しきい値に関するデータは、ステ
ップ100及び101の処理に用いられる。
例えば、値しきい値に関するデータは、[110≦Da
ta  A<130ならば正常」、及び「130≦Da
ta  A<150ならば事象EVOO5が発生」とい
う判断に用いられる。変化率しきい値は、DataAの
値の時間的変化率との比較で、プラント1の正常、異常
の判断に用いられるデータである。関連データは、D 
ataAと関係のあるデータのことである。第3図に示
す関連データは、Data  Aの計測点の上流側で計
測しているデータとしてrData  JIJ。
rData  J2Jがあることなどを示している。
この関連データは、Data  Aの計測器が故障して
いないかどうかを関連するデータとの関係からチェック
するために使用する。関連系統は。
Data  Aと関係がある系統を示している。
第4図は、原因事象及び波及事象の因果関係、それらの
事象に対応する運転方法などに関する知識を示している
。原因事象とは、例えば異常事象EVOO5(ΔΔ温度
上昇)を生起させる原因を意味している。第4図に示す
知識は、異常事象EVOO5の原因事象として事象Ev
101及びEV102等があることを示している。波及
事象は、異常事象EVOO5が生起した場合に、それに
よって生起するであろう事象を意味する。第4図に示す
知識は、波及事象として事象EVOl 1及びEVO1
2等があることを示している。確認項目は、異常事象E
VOO5が生起した際に確認すべき項目に関するデータ
である。運転方法は、発生した異常事象を押えるための
ものであり、プランドの状況を考慮して設定している。
ステップ100及び101の処理は第3図の値しきい値
2.変化率しきい値のデータを用いて行われる。ステッ
プ102の異常原因候補の探索は。
記憶装置i!12に記憶されている第4図に示す原因事
象のデータを検索することにより行われる。ステップ1
03の処理においては、第4図に示す名称、波及事象、
確認項目、運転方法及び関連機器などのデータが用いら
れる。
第5図はステップ103において作成される理想的運転
員モデルの例を示す。理想的運転員モデルは、現時点の
プラント状態において、オペレータとして、当然考える
べきこと、及び注目窓を払うべき項目を整理して構成し
たものであり、注意の焦点毎に対応して作成される。理
想的運転員モデルは、名称、パラメータ、計測器、系統
9機器。
確認項目及び運転方法のデータが含まれる。名称に対す
る値は、異常事象の名称(例えば弁漏洩)である。パラ
メータは圧力及び温度等の状態量のデータを値として有
する。計測器は該当する異常事象に関連してオペレータ
が見るべきメータ、表示装置の名称を示している。系統
及び機器は、該当する異常事象に関連するそれぞれの名
称を示す。
運転方法は、該当する異常事象に対応する運転方法のデ
ータを示している。このような理想的運転員モデルの各
項目のデータは、プラント1から」り定されたプロセス
データ及び第4図に示すデータ等を用いて作られる。理
想的運転員モデルの作成は、異常事象に対しての注意の
焦点の絞り込みが容易であり、オペレータがどこに注目
すればよいかの同定を早くできる。後述するステップ4
03におけるユーザモデル作成処理での1つの注意の焦
点の特定も、短時間に行える。なお、理想的運転員モデ
ルは、第2図の処理で示すように何らかの異常事象を検
知する毎に作成または更新される。
異常事象が発生した初期においてはプラント状態把握の
ため注目すべき項目が多くなるが、ある程度異常事象が
進展しプラント状態が把握できてくると注目すべき項目
が減少する。注目すべき項目の減少は、注意の焦点が絞
れたことを意味する。
注視情報認識部7の処理を第6図により、説明する。ス
テップ200において、眼球運動検出器6の出力である
オペレータの眼球の上下方向及び左右方向の動きを示す
信号を入力する。ステップ201は、入力信号を分析し
てオペレータの注視点を求め、オペレータが注視してい
る方向及び対象物(表示装置3、表示装置3に表示され
たデータ、及びメータ等)を特定する。さらに、ステッ
プ202では、オペレータが注視している対象物に対す
る注視時間を分析し、第7図に示すオペレータの注視点
に関する情報を作成する。第7図に示す一例(最上段の
データ)は、時刻toからτ0の時間、CRTlに表示
されている機器aを注視していたということを示してい
る。
音声認識部9は第8図に示す処理手順に基づいた処理を
実行する。まず音声入力装置8から入力されたオペレー
タの音声情報を入力する(ステップ300)、文の構成
に関する規則に基づいて入力した音声情報の構文解析を
行ない、文の各要素の文法的役割を明らかにする(ステ
ップ301)。
次に、単語の意味を考慮して、入力した音声情報の意味
を解析する(ステップ302)。ステップ301及び3
02の具体的な処理としては、特願平1−27475号
(平成元年2月8日出願)で「プラントのマンマシンイ
ンタフェース」の明細書6頁、9行から10頁、20行
及び20頁。
17行、及び第1図〜第6図に示された処理が実行され
る。
オペレータ状態推定部10で実行される処理を第9図に
基づいて説明する。注視情報認識部7で得られた注視点
の認識結果、音声認識部8で得られた音声情報の分析結
果、及びプラント状態評価部5で作成された理想的運転
員モデルのデータを入力する(ステップ400)。ステ
ップ400で人力したそれらのデータを用いて、音声情
報に含まれる省略された表現を補完するなどの処理を行
ない、音声情報の内容を理解する(ステップ401)。
ステップ402では、入力された音声情報及び注視点の
情報に基づいてオペレータが音声情報を発生した時点で
のオペレータの認知処理活動の該当する段階を推定する
。ステップ403において、オペレータが実際に注目し
ている注意の焦点を推定し、ユーザモデル(運転員モデ
ル)を作成する。
ステップ401の具体的な処理手順を第10図及び第1
1図に示す。第10図の処理を実行した後に、第11図
の処理が行われる。ステップ401の処理の中でまずス
テップ500の処理が行われる。音声情報の中から、パ
ラメータ及び系統名などのキーワードを抽出する(ステ
ップ500)。
抽出されたキーワードが、該当する異常事象に対応する
ユーザモデル内の情報に含まれているかを調べる(ステ
ップ501)。このユーザモデルは。
過去に作成されて記憶装置12にて記憶されている。ス
テップ501の処理を行うときに、該当する異常事象に
対応するユーザモデルが記憶装置12から検索されて使
用される。全回生じた異常事象が過去にユーザモデルを
作成したことのない異常事象であ・る場合には、該当す
るユーザモデルが存在しない。この場合、ステップ50
1はマツチングする情報がないと判定する。ステップ5
01の処理において、キーワードと完全に一致する情報
がない場合には、ある程度マツチングする情報を抽出す
る0例えば、入力した音声情報のr温度」という表現に
対して、[機rjix出口温度」 「機器X入口温度」
のような温度に関する情報を抽出する。ステップ501
は、マツチングする情報またはある程度マツチングする
情報がある場合にはマツチングする情報があると判定し
、それらのいずれの情報もない場合にはマツチングする
情報がないと判定する。マツチングする情報がある場合
にはステップ504の処理に、その情報がない場合には
ステップ502の処理に移行する。ステップ502は、
前述したキーワードと一致する情報が該当する異常事象
に対応する理想的運転員モデル内に含まれているか否か
を判定する。ステップ502も、ステップ501と同様
に、ある程度マツチングする情報の有無も判定する。ス
テップ502でマツチングする情報があると判定された
場合にはステップ504の処理に、その情報がないと判
定された場合にはステップ503の処理に移る。ステッ
プ503は、キーワードが理解できない旨のガイダンス
情報を1つの表示装置i!!3に出力する。このガイダ
ンス情報は、該当する表示装置3に表示される。ステッ
プ504は、マツチングする情報を該当するモデルより
抽出する。ステップ505では抽出した情報の数を調べ
、抽出された情報が1つであるか否かの判定が行われる
抽出された情報が1つの場合には、キーワードをその情
報に置換する(ステップ505)、抽出された情報が複
数存在した場合には、オペレータに確認を要請する情報
を該当する表示装置3に出力する(ステップ507)。
ステップ501〜507の処理は、ステップ500で抽
出されたすべてのキーワードに対して繰返し実行される
第11図に示す処理手順を説明する。ステップ600の
処理は、ステップ506または506の処理に引続いて
行われる。ステップ600において、入力した音声情報
から「あの」、「この」といった指示代名詞を抽出する
。ステップ601で指示代名詞が抽出されなかったと判
定された場合には、ステップ401の処理が終了してス
テップ402の処理に移る。ステップ601で指示代名
詞が抽出されたと判定された場合には、ステップ602
において、まず、オペレータが音声情報を発生した時点
においてオペレータが注視している対象物に関する情報
と関連のある情報を、ユーザモデル(ユーザモデルが存
在しない場合は理想的運転員モデル)に記述されている
情報よりキーワードとして抽出する。抽出したキーワー
ドに対して、指示代名詞との置換が可能かどうかを、音
声情報の単語の意味及び文の構文規則を考慮して分析す
る(ステップ603)、ステップ604は、抽出された
キーワードが1つであるか否かの判定を実行する。抽出
されたキーワードが一つの場合には、ステップ605に
おいて指示代名詞をキーワードに置換える。キーワード
が複数存在した場合または1つも存在しない場合には、
ステップ606においてユーザへの確認要請のガイダン
ス情報を表示装置3に出力する。ステップ602〜60
6の処理は、ステップ600で抽出されたすべての指示
代名詞に対して繰返し実行される。ステップ605また
は60Gの処理が終った後、ステップ402の処理が行
われる。
第12図は、オペレータの脳の内部で行われる情報処理
の過程(認知過程)に関して、ラスムラセンが提案した
モデルを示している。オペレータは、情報処理の必要性
を検知すると、lI!m及びシステム状態の同定などの
各処理を経て、実際の扱作を行なう。前述したステップ
402では、音声認識部9で得られた音声情報の分析結
果に基づいてオペレータが音声情報を発生した時点で、
認知処理活動のどの段階(第12図のモデルの項目A〜
Hのいずれの項目)の活動を行なっているかを推定する
。第13図は、オペレータの音声情報から認知処理活動
を推定する際の知識の例を示す。
I!1報の発生を確認した旨の表現、プロセスデータが
通常値からずれていることを検知した旨の表現をオペレ
ータが発話した場合には、オペレータの認知処理活動は
異常検知と推定する。また、プロセスデータの値、変化
状況に関する表現の発話の場合には、オペレータの認知
処理活動は観察とデータ収集と推定する。このように、
第13図に示す各認知処理活動を特徴づける表現に基づ
いて推定している。
前述のステップ403のユーザモデル作成の処理の詳細
を第14図に示す。ユーザモデルは、オペレータが実際
に注意を払っている項目及び注意の焦点で構成され、理
想的運転員モデルのデータ、及び注視情報認識部7及び
音声認識部9で得られたデータ等を用いて作成される。
ステップ700では、音声情報の入力の有無を判定する
。音声情報の入力があった場合には、第10図及び第1
1図の処理手順の実行で得られた「マツチングする情報
及びキーワード」から系統名9機器名などを示すキーワ
ードを抽出する(ステップ701)。次に、理想的運転
員モデルに含まれている複数の注意の焦点の中から、ス
テップ701で抽出したキーワードを有する注意の焦点
を検索する(ステップ702)。そして、検索された注
意の焦点が一つであるか否かを判定する(ステップ70
3)。その注意の焦点が1つであった場合には、その注
意の焦点に関するデータを含むユーザモデルを原案とす
る(ステップ704)。
その後、ステップ201で特定した対象物Xを入力する
(ステップ705)。特定した対象物Xのデータに基づ
いてオペレータが見ている機器、パラメータの情報を整
理する(ステップ711)。
ステップ712は、特定された対象物Xのデータ及び音
声情報の分析結果を反映してユーザモデルを作成、更新
すると共に、その作成、更新履歴を記録する。第15図
は、作成されたユーザモデルの一例を示している。この
ユーザモデルの項目のうち、名称から運転方法までの各
項目の値は、ステップ702で検索された注意の焦点の
各項目の値が用いられる。ユーザモデルの認知処理活動
の項目の値は、ステップ402で得られた認知処理活動
の推定結果を用いる。注視しているパラメータ及び機器
の値は、特定された対象物Xのデータである。音声情報
の項目の値は、ステップ401のステップ506で得ら
れたマツチングする情報及びステップ605で得られた
キーワードである。
なお、注視しているパラメータ、注視している機器及び
音声情報の項目に該当する情報は、オペレータが呪に注
目している情報である。この情報を得る第10図及び第
11図の処理手順に基づいて処理を行う手段は、オペレ
ータが注目している情報を推定する手段であるとも言え
る。ステップ703の判定がrnoJである、すなわち
ステジブ702で検索された注意の焦点が複数個であっ
たり、またはステップ700の判定がrnoJである場
合には、オペレータの目の動き、つまり注視点の情報を
利用する。ステップ706において、ステップ201で
特定された対象物Xのデータを入力する。更に、対象物
Xの注視時間を計測し積算する(ステップ707)。所
定時間(例えば、1分間)の間、注視点情報の分析を行
ったか否か、すなわちステップ706及び707の処理
を所定時間だけ繰返したか否かを判定する(ステップ7
08)。この判定によって、ステップ706〜708の
実行により、所定時間の間に対象物Xをどれ位の時間、
オペレータが見ていたかを分析したことになる。そして
、所定時間経過(ステップ708の判定がryesJに
なったとき)後に、ステップ709において、ステップ
707で求められた注視時間の積算結果に基づいて理想
的運転員モデルの各注意の焦点毎の注視時間を推定する
トータルの注視時間の最も大きい注意の焦点を用いて、
ユーザモデルの原案を作成する(ステップ710)。そ
の後、ステップ711の処理を行い、ステップ712の
処理に移る。ステップ712の処理は、ユーザモデルを
作成、更新すると共に、その作成、更新履歴を記憶装置
12に記録する。
ユーザモデルは、同じ異常事象であってもオペレータが
発する音声情報、オペレータの注視対象物及びプラント
状態力S変化したときに更新される。
ユーザモデルは、第15図に示すようにまた前述したよ
うに、該当する異常事象に対応する理想的運転員モデル
内から選択された1つの注意の焦点に関する情報(その
異常事象に対してオペレータが知るべき情報)とオペレ
ータから得られる情報(オペレータの現在の状態を示す
情報)を含んでいる。前述したステップ401の処理に
おけるマツチング情報の抽出に際して、第1段階として
ステップ501の判定に基づくユーザモデルからのマツ
チング情報の抽出を行うので、オペレータが発した音声
情報を短時間で理解することができる。これは、ユーザ
モデルは複数の注意の焦点に関する情報を有する理想的
運転員モデルと異って1つの注意の焦点に関する少ない
量の情報を有しているので、マツチング情報の有無の判
定及びこれの抽出が短時間に行えるからである。更に、
理想的運転員モデルに複数の注意の焦点が含まれている
場合には、オペレータが発した音声情報及びオペレータ
の注視点情報に基づいて理想的運転員モデルの中からオ
ペレータが必要とする1つの注意の焦点を精度良く推定
できる。これによって、異常事象にマツチしてしかもオ
ペレータが必要としている適切な情報の編集が情報編集
部11で容易に行える。理想的運転員モデルを作成した
後にユーザモデルを作成しているので、上記の情報編集
に必要なデータを容易に絞り込むことができる。
ユーザモデルは、現時点の異常事象に最もマツチした情
報であってオペレータが現に必要としている情報を集め
た一種の知識ベースである。
ユーザモデルは、マンマシンシステム14と対話してい
るオペレータが注目している情報を有しているため、シ
ステム側でユーザモデルを持つということはオペレータ
とシステムが同じ話題をもっていることになる。そのた
め、オペレータが抽象的な表現をした場合には、システ
ム側でそれが何を意味しているのかを理解することがで
きる。
例えば、人間が[水位は、どうなっている。」と質問し
た場合を考える。ユーザモデルの名称が「プラント重要
パラメータの監視」になっていた場合には、「原子炉水
位は、どうなっている。」と理解することができる。ま
た、ユーザモデルが「サプレッションプールの監視」に
対して作成さ九でいた場合には、rサプレッションプー
ル水位はどうなっている。」と理解することができる。
つまり、水位という抽象的な表現を、ユーザモデルを活
用することによって具体的な物理量に置き換えることが
できる。この処理をより正確に行なうために、前述した
ようにオペレータ人間の視線の情報を利用する。オペレ
ータの視線の情報を利用すると、「あれ」、「これ」な
どの抽象的な表現に対しても対応できる。
情報編集部11における処理手順を第16図に示す。ま
ず、オペレータ状態推定部1oで作成されたユーザモデ
ルのデータを入力する(ステップ800)、ステップ8
01において、ユーザモデルに格納されている音声情報
項目の内容、注視している機器の情報に基づいて必要な
情報を提供する装!t3を決定する。ステップ802で
は、ユーザモデルに含まれている認知処理活動の情報及
びオペレータの知覚特性を考慮して、提供情報の提示形
態を決定する。提示する提供情報を編集しくステップ8
03)、情報をどの装置に提供するかをオペレータに知
らせる告知情報を作成し出力する(ステップ804)。
この公知情報は、音声出力装置X14及び表示装置3の
いずれを用いてオぺレータに伝えられる。そして、ステ
ップ805において、編集した提供情報をステップ80
1で決定された情報提供装置に出力する。
第17図はステップ801の詳細な処理手順を示す、ま
ず、オペレータが表示装置3を見ているか否かが判定さ
れる(ステップ900)、ステップ900でryesJ
と判定された場合には、オペレータが見ている表示装置
3を情報提供装置として決定する(ステップ901)、
ステップ900でrnOJと判定された場合には、ステ
ップ902でオペレータの質問内容(音声情報)が、(
i)プロセスデータの値に関する質問、(3i)プロセ
スデータの変化状態に関する質問、及び(■)″M転操
作に関する質問のうちどの質問かを判定する。ステップ
902が(i)の質問であると判定した場合には、情報
提供装置として音声出力装置14が選択される(ステッ
プ903) 、 (iii)の質問であると判定された
場合には、情報提供装置として表示装置3及び音声出力
装置4が選択される(ステップ904)。ステップ90
3で(ii)の質問であると判定された場合には、ステ
ップ905の判定、すなわち該当するプロセスデータの
変化の有無を判定する。ステップ905の判定結果が「
プロセスデータが変化する」である場合にはステップ9
04の処理が、「プロセスデータが変化しない」の場合
にはステップ903の処理が実行される。このように、
ステップ801では、音声情報及びオペレータの眼の情
報に基づいて提供情報を提示すべき現時点で最適な情報
提供装置を選択することができる。
ステップ802での情報表示形態の決定に際しては、ユ
ーザモデル内のオペレータの認知処理活動に関するデー
タ、及びオペレータの知覚特性を考慮する0例えば、第
12図のモデルにおけるrH察」及び「システム状態の
同定」等の認知処理活動をオペレータが行っている状態
では系統構成の図形表示とし、「手順の選択」及び「手
順の実行」の認知処理活動を行っている状態ではフロー
チャート表示とする。特に本実施例では、前述したよう
に音声情報及び視線情報を用いてオペレータの認知処理
活動の段階を推定することによってオペレータが今何を
考えているかをより正確に推定でき、この推定された認
知処理の段階に基づいて情報提供形態を決定しているの
で1次に述べるステップ803でオペレータの思考過程
にあった情報を適切に提供できる。
ステップ803の提供情報の編集処理では、ユーザモデ
ルの情報、及びプラント状態評価部5から出力されるプ
ラント状態を示すデータ及びプロセスデータを用いて、
前述の情報表示形態に沿った提供情報の編集を行う。
オペレータは1表示装[3及び音声出力装置4より提供
された情報に基づいてプラントの操作対象機器に操作指
令(または制御指令)を出力するために運転操作盤2上
のスイッチ等を必要に応じて操作する。
本実施例は、音声情報だけでなくオペレータの視線の情
報も考慮しているので、オペレータが必要としている情
報を適切に提供できる。特にオペレータが発する音声が
抽象的な表現、及び省略した表現であっても、オペレー
タが要求するであろう情報を精度良く推定でき適切な情
報を提供できる。オペレータの認知処理活動の段階を推
定することによって、オペレータが必要としているその
段階にあった情報をタイムリーに提供できる。更には、
音声情報の内容、オペレータの視線情報。
プラント状態の評価結果に基づいて、情報の4示手段及
び提示形態を決定するため、オペレータに理解し易い形
で情報提供ができる。
本実施例は、火力プラント、原子カプラント。
化学プラント、その他のプラント等のプラントたけでな
く操作盤からの操作指令に基づいて操作される操作対象
機器を有する装置(例えば、船舶。
飛行機等)にも適用することができる。またプラント運
転訓練装置のようなシミュレータの操作にも適用できる
前述した実施例における情報編集部の他の実施例を以下
に説明する0本実施例の情報編集部は。
ステップ801及び802の処理を知識工学を利用して
行うものである1本実施例の情報編集部を用いたマンマ
シンシステムは、記憶装置12内に第18図及び第19
図に示すプロダクションルールで表現された知識を記憶
している。第18図の知識はステップ801で、第19
図の知識はステップ802で用いられる。ステップ80
1で情報提供装置を決定する際には、質問の種類、オペ
レータの視線の方向、プラント状態1人間の認知過程な
どを考慮して決定する。基本的には、視線の行っている
CRT (表示装置3)に情報を提示する。もし、視線
がCRTに行っていない場合には音声出力を利用するが
、第18図のルール(5)のようにプラン1〜状態によ
ってはCRTも併用している。またルール(6)のよう
に認知過程モデルにおける観察、同定、解釈などの処理
中でCRTを見る余裕がないような場合には、音声出力
を活用する。なお、第18図においては表示装置として
CRTLか述べていないが、大画面表示装置を利用する
こともできる。多くの人間が同時に見るべき情報は大画
面表示装置を利用した方が良いのは当然である。
第19図の知識を用いたステップ802の処理について
説明する。第19図のルール(1)〜(3)のように、
オペレータの認知過程によって、表示形態を変えること
により、オペレータの理解し易い形で情報を提供できる
。また、第19図のルール(4)、(5)のように表示
すべき情報の重要度によって表示形態も変化させること
ができる。
情報の重要度とは、理想的運転員モデルにおける注意の
焦点毎に付けた重要度であり、プラント状態、プラント
への影響の度合いなどを考慮して設定されるものである
。これにより、オペレータが重要な情報を見逃していた
場合の注意喚起機能が実現できる。第18図及び第19
図に示したように、質問の種類2人間の視線、認知過程
、プラント状態の評価結果に基づいて、情報の提示手段
提示形態を決定して情報を提示するため、使いかっての
良いマンマシンインタフェイスが実現できる。
第20図は、本発明の他の実施例であるマンマシンシス
テムを示している。本実施例は、第1図の実施例に対し
て、ITVカメラ14及び画像処理装置15を追加した
構成となっている。それ以外の構成は、第1図の実施例
と同じものである。
ITVカメラ14は、オペレータの動きをとらえ、画像
処理装置15に信号を送る。画像処理装置15は、入力
した画像信叶を処理してオペレータの立っている位置、
オペレータの顔の向き及び表情を分析する。これらのデ
ータはオペレータ状態推定部1Gに伝えられる。オペレ
ータの状態推定部16は、第1図のオペレータ状態推定
部7と同じ処理(第9〜11図および第14図に示す処
理)を行う他に、オペレータの立っている位置、顔の向
き2表情に基づいて、オペレータが注目している情報、
オペレータの心理状態などを推定し、オペレータの状態
をより正確に分析する。情報編集部11も、第1図の情
報編集部11とほとんど同じ処理を行なうが、本実施例
においては第21図の処理が可能となる。第21図の処
理手順は、第16図に示すステップ801に相当するも
のである0本実施例におけるステップ801の処理は、
第17図の処理手順の前段にステップ906及び907
を追加したものである。ステップ906では、オペレー
タの位置から表示装置が見えるかを判定する。表示装置
3が見えない位置にオペレータがいる場合には、情報提
供装置として音声出力装置4を選択する(ステップ90
7)。ステップ906の判定がrn oJである場合に
は、ステップ900以降の処理が実行される。
本実施例でも、第1図の実施例と同じ項目を有する理想
的運転員モデル及びユーザモデルが作成される。
本実施例は、前述の実施例と同じ効果が得られる。更に
操作盤裏側のように表示装置3の見えない場所にオペレ
ータが立っている場合には、音声出力装置を用いて必要
な情報を提供できる。更には、ステップ904で選択さ
れる表示装置に関しても、オペレータの立っている位置
に最も近い場所に設置されている表示装置3またはオペ
レータの顔の向いている方向に設置されている表示装置
3の選択も可能となる。特に1本実施例は、オペレータ
にとって情報を入手し易い都合のよい情報出力装置に情
報を提供できる。
以上の説明においては、ユーザモデルは、オペレータの
視線及び音声情報に基づき、理想的運転員モデルより抽
出して作成するようになっている。
しかしながら、オペレータの視線及び音声情報だけを分
析してユーザモデルを作成しても良い。このような場合
には、理想的運転員モデルとユーザモデルとを比較する
ことによって、オペレータが重要な情報を見逃していな
いか、誤まった方向に注意が向いていないかなどの確認
ができ、注意の喚起機能が強化できる。
次に述べる本発明の他の実施例であるマンマシンシステ
ムは、この注意の喚起機能を強化したものである。本実
施例のマンマシンシステムは、第1図の実施例とほとん
ど同じであり、異なる部分は情報編集部11に第22図
及び第23図に示す機能を負荷したものである。第22
図及び第23図に示す処理手順は、第16図のステップ
805の終了に引続いて行われる。まず第22図の処理
が行われる。ステップ803で編集された情報の中から
オペレータが注目すべき情報を抽出する(ステップ80
G)。これは、第15図に示したユーザモデルに含まれ
るパラメータ及び、運転方法などの情報から、ステップ
803で編集された情報を抽出することである。ステッ
プ806で、抽出した情報をオペレータが見たか否かを
オペレータの視線情報(注視情報認識部7より入力)を
調べる(ステップ807)。そして、ステップ809で
、見逃した情報の有無を判定する。見逃した情報があっ
た場合には、ステップ810の処理が行われ、注意を喚
起する信号を出力する。注意を喚起する信号は、該当す
る表示装置3に出力される。注意を喚起する信号・とし
ては、見逃した情報の部分の表示色を変える信号、その
部分を点滅表示させる信号及び音声による喚起信号など
がある。次に第23図の処理手順が実行される。この処
理は、第6図の処理によって表示された情報の他に、注
目すべき情報があった場合の処理である。まず、ステッ
プ811において、注目すべき情報が他にないかどうか
調べる。これは、第15図に示したユーザモデルに含ま
れるパラメータ及び、運転方法などの情報の中から、表
示されていない情報を抽出することである。そして、表
示されてなく、かつ注目すべき情報があった場合(ステ
ップ812で判定)には、ステップ802〜805にお
ける情報提供装置の決定、提供情報の編集、出力を行な
う。
本実施例は、第1図の実施例で行われる効果のほかに、
オペレータが表示された情報の中で注目すべき情報を見
なかった場合にその情報を見るように注意を喚起でき、
しかも重要情報の表示洩れの有無を容易にチェックでき
その表示洩れがあった場合にもそれを速やかに表示でき
る。特に、オペレータの視線情報に基づいてオペレータ
の情報の見逃しをチェックしているので、その見逃しを
精度良くチェックできる。
以上述べた各実施例は、プラント状態評価部5で作成さ
れた理想的運転員モデル、及び注視情報認識部7及び音
声認識部9で得られた情報をもとに自動的にユーザモデ
ルを作成するものである。
ユーザモデルの作成にオペレータの意志を直接反映させ
ることもできる。この実施例を第24図に示す。本実施
例のマンマシンシステムは、信号処理部13A入力装置
(キーボード)19を備えている。信号処理部13Aは
、プラント状態評価部5、情報編集部11及びオペレー
タ状態推定部16を含んでいる。プラント状態評価部5
は第2図の処理手順で作成した理想的運転員モデルを情
報編集部11に出力する。情報編集部11は、入力した
理想的運転員モデルに含まれる注意の焦点の情報を注意
の焦点毎に示した表示情報(第25図参照)を作成し、
該当する表示装置3へ出力する。この表示情報は、その
表示装置3に表示される。オペレータは、表示された注
意の焦点のうち必要とする注意の焦点を入力装置19で
指定すると共に注視しているパラメータ及び機器、オペ
レータ自身が第12図のモデルのどの部分の思考を行っ
ているのか等のユーザモデルを作成するのに必要なデー
タを入力装置19から入力する。オペレータ状態推定部
10は、入力装置19で入力されたデータ等を受取り、
第15図に示すユーザモデルであってオペレータによっ
て選択された注意の焦点の情報を含むユーザモデルを作
成する。情報編集部11は、第1図の実施例と同様にユ
ーザモデルを用いてオペレータに提示すべき情報を作成
する。
本実施例は、オペレータの意志を直接反映してユーザモ
デルを作成することができるので、オペレータが必要と
している情報を確実に提供できる。
理想的運転員モデル及びユーザモデルを用いることによ
って第1図の実施例で得られる効果も、本実施例で生じ
る。
〔発明の効果〕
本発明の第1の特徴によれば、オペレータが抽象的な表
現をした場合にもオペレータが必要とする情報を適切に
提供できる。
本発明の第2の特徴によれば、第1の特徴による効果と
共にオペレータの思考過程に沿った情報をタイムリーに
提供できる。
本発明の第3の特徴によれば、第1の特徴による効果と
共に重要情報の見逃しを精度良くチェックすることがで
きる。
本発明の第4の特徴によれば、オペレータにとって情報
を入手しやすい都合の良い情報出力装置に情報を提供で
きる。
本発明の第5の特徴によれば、第1の特徴による効果と
共に重要情報の洩れのない提供情報を作成することがで
きる。
【図面の簡単な説明】
第1図は本発明の好適な一実施例であるマンマシンシス
テムの構成図、第2図は第1図のプラント状態評価部で
実行される処理手順を示す説明図、第3図及び第4図は
プラント状態評価部で用いられる知識の説明図、第5図
はプランI・状態評価部で作成された理想的運転員モデ
ルの説明図、第6図は第1図の注視情報認識部で実行さ
れる処理手順を示す説明図、第7図は第6図の処理手順
で得られた注視対象、注視時間等のデータを示す説明図
、第8図は第1図の音声認識部で実行される処理手順を
示す説明図、第9図は第1図のオペレータ状態推定部で
実行される処理手順を示す説明図、第10図及び第11
図は第9図のステップ401の詳細な処理手順を示す説
明図、第12図はラスムラセンが提案したモデルの説明
図、第13図はオペレータの音声情報から認知処理活動
を推定する際に用いられる知識の説明図、第14図は第
9図のステップ403の詳細な処理手順を示す説明図、
第15図は第9図のステップ403で作成されたユーザ
モデルの説明図、第16図は第1図の情報編集部で実行
される処理手順の説明図、第17図は第16図のステッ
プ801の詳細な処理手順を示す説明図、第18図及び
第19図は本発明の他の実施例の情報編集部で用いられ
る知識の説明図、第20図及び第24図は本発明の他の
実施例であるマンマシンシステムの構成図、第21図は
第20図の情報編集部で実行される処理手順の一部を示
す説明図、第22図及び第23図は第20図の情報編集
部で第21図の処理手順の後に実行される処理手順の説
明図、第25図は第24図の実施例で表示装置に表示さ
れる画面データの一例を示す説明図である。 1・・・プラント、2・・・運転操作盤、3・・・表示
装置、4・・・音声出力装置、5・・・プラント状態評
価部、6・・・眼球運動検出器、7・・・注視情報認識
部、8・・・音声入力装置、9・・・音声認識部、10
・・・オペレータ状態推定部、11・・・情報編集部、
12・・記憶装置、13・・・信号処理部、14・・・
マンマシンシステム。

Claims (1)

  1. 【特許請求の範囲】 1、被操作手段を有する装置のある運転状態に対して注
    目すべき複数の注意の焦点を含む第1オペレータモデル
    を作成する手段と、前記第1オペレータモデルに含まれ
    る前記注意の焦点うちからオペレータが必要としている
    前記注意の焦点を、入力したオペレータが発生した音声
    情報及びこのオペレータの視線情報を用いて推定する手
    段と、前記推定された注意の焦点の情報を含む前記オペ
    レータに対応する第2オペレータモデルを作成する手段
    と、前記第2オペレータモデルに含まれる前記推定され
    た注意の焦点の情報及び前記被操作手段を有する装置か
    ら得られた情報を用いて提供する情報を編集する手段と
    を備えたことを特徴とするマンマシンシステム。 2、前記音声情報及び前記視線情報を用いてオペレータ
    の認知処理活動の段階を推定する手段を備え、前記推定
    された認知処理活動の段階に基づいて情報提供形態を決
    定する手段とを備え、前記情報編集手段が前記決定され
    た情報提供形態に基づいて前記提供情報を編集する手段
    である請求項1のマンマシンシステム。 3、前記視線情報に基づいて前記情報編集手段で編集さ
    れた情報をオペレータが見たか否かをチェックし、見な
    い情報がある場合には注意喚起信号を出力する手段を備
    えた請求項1のマンマシンシステム。 4、被操作手段を有する装置のある運転状態に対して注
    目すべき複数の注意の焦点を含む第1オペレータモデル
    を作成する手段と、前記第1オペレータモデルに含まれ
    る前記注意の焦点うちからオペレータが必要としている
    前記注意の焦点を、入力したオペレータが発生した音声
    情報及びこのオペレータの視線情報を用いて推定する手
    段と、前記推定された注意の焦点の情報を含む前記オペ
    レータに対応する第2オペレータモデルを作成する手段
    と、前記音声情報及び前記視線情報を用いて情報提供装
    置を決定する手段と、前記第2オペレータモデルに含ま
    れる前記推定された注意の焦点の情報及び前記被操作手
    段を有する装置から得られた情報を用いて提供する情報
    を編集し、その提供する情報を前記決定された情報提供
    装置に出力する手段とを備えたことを特徴とするマンマ
    シンシステム。 5、被操作手段を有する装置のある運転状態に対して注
    目すべき複数の注意の焦点を含む第1オペレータモデル
    を作成する手段と、前記第1オペレータモデルに含まれ
    る前記注意の焦点うちからオペレータが必要としている
    前記注意の焦点を、入力したオペレータが発生した音声
    情報及びこのオペレータの視線情報を用いて推定する手
    段と、前記音声情報及び前記視線情報に基づいてオペレ
    ータ注目している情報を推定する手段と、前記推定され
    た注意の焦点の情報、及び前記注目している情報を含む
    前記オペレータに対応する第2オペレータモデルを作成
    する手段と、前記第2オペレータモデルに含まれる前記
    各情報及び前記被操作手段を有する装置から得られた情
    報を用いて提供する情報を編集する手段とを備えたこと
    を特徴とするマンマシンシステム。 6、前記情報編集手段で得られた情報と前記第2オペレ
    ータモデルに含まれた情報とを比較し、後者の情報であ
    つて前者の情報に含まれていない情報があるか否かをチ
    ェックする手段を備え、前記後者の情報のうち前記前者
    の情報に含まれていない情報がある場合には、前記情報
    編集手段による情報の編集を行う請求項5のマンマシン
    システム。 7、被操作手段を有する装置のある運転状態に対して注
    目すべき複数の注意の焦点を含む第1オペレータモデル
    を作成する手段と、前記第1オペレータモデルに含まれ
    る前記注意の焦点うちからオペレータが必要としている
    前記注意の焦点を、入力したオペレータが発生した音声
    情報及びこのオペレータの視線情報を用いて推定する手
    段と、前記推定された注意の焦点の情報を含む前記オペ
    レータに対応する第2オペレータモデルを作成する手段
    と、前記第2オペレータモデルに含まれる前記推定され
    た注意の焦点の情報及び前記被操作手段を有する装置か
    ら得られた情報を用いて提供する情報を編集する手段と
    、前記情報編集手段で編集された情報を表示する表示手
    段と、音声出力手段と、オペレータを撮影するテレビカ
    メラと、前記テレビカメラから出力された映像信号に基
    づいてオペレータが前記表示手段の見える位置にいるか
    否かを判定し、オペレータが前記表示手段の見えない位
    置にいる場合には、前記編集された情報を前記音声出力
    手段に出力させる手段とを備えたことを特徴とするマン
    マシンシステム。 8、表示手段と、入力手段と、被操作手段を有する装置
    のある運転状態に対して注目すべき複数の注意の焦点を
    含む第1オペレータモデルを作成する手段と、前記第1
    オペレータモデルに含まれている前記注意の焦点の情報
    を前記表示手段に出力する手段と、前記表示手段に表示
    された前記注意の焦点であつて前記入力手段で指定され
    た前記注意の焦点の情報を含む前記オペレータに対応す
    る第2オペレータモデルを作成する手段と、前記第2オ
    ペレータモデルに含まれる前記推定された注意の焦点の
    情報及び前記被操作手段を有する装置から得られた情報
    を用いて提供する情報を編集する手段とを備えたことを
    特徴とするマンマシンシステム。 9、被操作手段を有する装置のある運転状態に対して注
    目すべき複数の注意の焦点を含む第1オペレータモデル
    を作成する手段と、前記第1オペレータモデルに含まれ
    る前記注意の焦点うちからオペレータが必要としている
    前記注意の焦点を、入力したオペレータが発生した音声
    情報及びこのオペレータの視線情報を用いて推定する手
    段と、前記推定された注意の焦点の情報を含む前記オペ
    レータに対応する第2オペレータモデルを作成する手段
    と、前記第2オペレータモデルに含まれる前記推定され
    た注意の焦点の情報及び前記被操作手段を有する装置か
    ら得られた情報を用いて表示する情報を編集する手段と
    を備えたことを特徴とする表示情報作成装置。 10、被操作手段を有する装置と、情報出力手段を有す
    る運転操作盤と、前記被操作手段を有する装置のある運
    転状態に対して注目すべき複数の注意の焦点を含む第1
    オペレータモデルを作成する手段と、前記第1オペレー
    タモデルに含まれる前記注意の焦点うちからオペレータ
    が必要としている前記注意の焦点を、入力したオペレー
    タが発生した音声情報及びこのオペレータの視線情報を
    用いて推定する手段と、前記推定された注意の焦点の情
    報を含む前記オペレータに対応する第2オペレータモデ
    ルを作成する手段と、前記第2オペレータモデルに含ま
    れる前記推定された注意の焦点の情報及び前記被操作手
    段を有する装置から得られた情報を用いて前記情報出力
    手段に提供する情報を編集する手段とを備えたことを特
    徴とする運転操作装置。
JP1066216A 1989-03-20 1989-03-20 マンマシンシステム Expired - Fee Related JP2845926B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP1066216A JP2845926B2 (ja) 1989-03-20 1989-03-20 マンマシンシステム
US07/495,919 US5247433A (en) 1989-03-20 1990-03-20 Man-machine system
EP19900105241 EP0393368A3 (en) 1989-03-20 1990-03-20 Man-machine interface system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1066216A JP2845926B2 (ja) 1989-03-20 1989-03-20 マンマシンシステム

Publications (2)

Publication Number Publication Date
JPH02277196A true JPH02277196A (ja) 1990-11-13
JP2845926B2 JP2845926B2 (ja) 1999-01-13

Family

ID=13309412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1066216A Expired - Fee Related JP2845926B2 (ja) 1989-03-20 1989-03-20 マンマシンシステム

Country Status (3)

Country Link
US (1) US5247433A (ja)
EP (1) EP0393368A3 (ja)
JP (1) JP2845926B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883093A (ja) * 1994-09-14 1996-03-26 Canon Inc 音声認識装置及び該装置を用いた情報処理装置
JP2012150787A (ja) * 2010-12-28 2012-08-09 Mitsubishi Electric Corp 監視制御システム
JP2012234549A (ja) * 2011-05-06 2012-11-29 Deckel Maho Pfronten Gmbh 工作物を取り扱い、組み立て、または機械加工するための自動化された機械を作動させるためのデバイス
JP2013105360A (ja) * 2011-11-15 2013-05-30 Mitsubishi Electric Corp 信号項目表の作成方法
KR101646720B1 (ko) * 2015-12-30 2016-08-08 주식회사 한빛파워 원자력 발전소 운전에 영향을 미치는 인적요소에 대한 분석 및 평가 시스템
JP2020119299A (ja) * 2019-01-24 2020-08-06 日立Geニュークリア・エナジー株式会社 プラント運転支援装置

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267277A (en) * 1989-11-02 1993-11-30 Combustion Engineering, Inc. Indicator system for advanced nuclear plant control complex
JP2947840B2 (ja) * 1989-12-22 1999-09-13 株式会社日立製作所 プラント運転監視装置
JP2865828B2 (ja) * 1990-08-22 1999-03-08 株式会社日立製作所 操作手順の表示方法及びその装置
JPH0719199B2 (ja) * 1991-08-21 1995-03-06 インターナショナル・ビジネス・マシーンズ・コーポレイション グラフィカル・ユーザ・インターフェースを備えたクライアント−サーバー型分散方式の工業プロセス制御システムにおける異常状態の表示方式
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6400996B1 (en) * 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
DE4201934A1 (de) * 1992-01-24 1993-07-29 Siemens Ag Gestik computer
US5452415A (en) * 1992-03-26 1995-09-19 Alcatel Network Systems, Inc. Method and system for automatically displaying and configuring a network monitoring system
JP3169036B2 (ja) * 1993-06-04 2001-05-21 株式会社日立製作所 プラント監視診断システム、プラント監視診断方法および非破壊検査診断方法
US5828992A (en) * 1995-12-11 1998-10-27 Unova Ip Corp. Automated control system with bilingual status display
DE59701490D1 (de) * 1996-02-06 2000-05-31 Siemens Ag System und Verfahren zur Überwachung einer technischen Anlage
US6078310A (en) * 1996-06-26 2000-06-20 Sun Microsystems, Inc. Eyetracked alert messages
EP0818726B1 (de) * 1996-07-12 2003-01-29 Siemens Aktiengesellschaft Anordnung und Verfahren zur Aktivierung und Deaktivierung einer rechnergestützten Anwendung
US6256046B1 (en) * 1997-04-18 2001-07-03 Compaq Computer Corporation Method and apparatus for visual sensing of humans for active public interfaces
US6720990B1 (en) * 1998-12-28 2004-04-13 Walker Digital, Llc Internet surveillance system and method
US6230062B1 (en) * 1999-01-08 2001-05-08 Voyan Technology Adaptation to unmeasured variables
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US6687836B1 (en) * 1999-11-26 2004-02-03 Hewlett-Packard Development Company, L.P. Method and apparatus which enable a computer user to verify whether they have correctly input their password into a computer
JP4087041B2 (ja) * 2000-04-07 2008-05-14 株式会社東芝 監視操作装置
US6885991B2 (en) * 2000-12-07 2005-04-26 United Parcel Service Of America, Inc. Telephony-based speech recognition for providing information for sorting mail and packages
US20020118215A1 (en) * 2001-02-23 2002-08-29 Brian Ball Method and system for providing block animation
JP4474814B2 (ja) * 2001-09-05 2010-06-09 三菱電機株式会社 監視システム
US7165226B2 (en) * 2002-08-23 2007-01-16 Siemens Aktiengesellschaft Multiple coupled browsers for an industrial workbench
DE10260305A1 (de) * 2002-12-20 2004-07-15 Siemens Ag HMI Einrichtung mit einem optischem Touch Screen
US7292723B2 (en) * 2003-02-26 2007-11-06 Walker Digital, Llc System for image analysis in a network that is structured with multiple layers and differentially weighted neurons
US20040186813A1 (en) * 2003-02-26 2004-09-23 Tedesco Daniel E. Image analysis method and apparatus in a network that is structured with multiple layers and differentially weighted neurons
US7508311B2 (en) * 2006-09-13 2009-03-24 Atomic Energy Council - Institute Of Nuclear Energy Research Radwaste warehouse area monitoring system
WO2010137165A1 (ja) * 2009-05-29 2010-12-02 新日本製鐵株式会社 技術管理装置及び技術管理方法
AU2010290068B2 (en) 2009-09-01 2015-04-30 Exxonmobil Upstream Research Company Method of using human physiological responses as inputs to hydrocarbon management decisions
JP5631098B2 (ja) * 2010-08-02 2014-11-26 三菱重工業株式会社 原子力プラントの運転監視装置
US9298182B2 (en) * 2011-12-15 2016-03-29 Xeonet Co., Ltd Method of displaying abnormal status in plant operation monitoring system
CN104678987A (zh) * 2013-12-31 2015-06-03 中国航空工业集团公司沈阳飞机设计研究所 一种基于语音交互的故障诊断方法
CN104392756B (zh) * 2014-10-08 2017-01-11 中国科学院合肥物质科学研究院 一种基于数字化仪控系统的反应堆动态联锁系统及方法
DE102015108909B4 (de) * 2015-06-05 2021-02-18 Infineon Technologies Ag Anordnung mehrerer Leistungshalbleiterchips und Verfahren zur Herstellung derselben
JP6707940B2 (ja) * 2016-03-25 2020-06-10 富士ゼロックス株式会社 情報処理装置及びプログラム
JP7132021B2 (ja) * 2018-08-07 2022-09-06 三菱重工業株式会社 通知装置、通知方法及びプログラム
CN111739526A (zh) * 2020-05-29 2020-10-02 中国核电工程有限公司 核电厂监控方法、系统、终端设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0055338A1 (en) * 1980-12-31 1982-07-07 International Business Machines Corporation Eye controlled user-machine communication
JPS61233810A (ja) * 1985-04-08 1986-10-18 Mitsubishi Electric Corp 音声入力を用いたプラント診断装置
ES2043654T3 (es) * 1986-05-05 1994-01-01 Westinghouse Electric Corp Sistema de monitorizacion y presentacion visual de arboles de estados.
JPS6332624A (ja) * 1986-07-28 1988-02-12 Canon Inc 情報処理装置
JPS6433199A (en) * 1986-10-31 1989-02-03 Kenji Matsumura Soap containing oolong
JPS63146111A (ja) * 1986-12-10 1988-06-18 Toshiba Corp 計算機システムの情報出力装置
US4957690A (en) * 1988-12-07 1990-09-18 General Electric Company System and method for monitoring and control of safety-related components of a nuclear power plant

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883093A (ja) * 1994-09-14 1996-03-26 Canon Inc 音声認識装置及び該装置を用いた情報処理装置
JP2012150787A (ja) * 2010-12-28 2012-08-09 Mitsubishi Electric Corp 監視制御システム
JP2012234549A (ja) * 2011-05-06 2012-11-29 Deckel Maho Pfronten Gmbh 工作物を取り扱い、組み立て、または機械加工するための自動化された機械を作動させるためのデバイス
JP2013105360A (ja) * 2011-11-15 2013-05-30 Mitsubishi Electric Corp 信号項目表の作成方法
KR101646720B1 (ko) * 2015-12-30 2016-08-08 주식회사 한빛파워 원자력 발전소 운전에 영향을 미치는 인적요소에 대한 분석 및 평가 시스템
JP2020119299A (ja) * 2019-01-24 2020-08-06 日立Geニュークリア・エナジー株式会社 プラント運転支援装置

Also Published As

Publication number Publication date
EP0393368A2 (en) 1990-10-24
EP0393368A3 (en) 1992-10-07
US5247433A (en) 1993-09-21
JP2845926B2 (ja) 1999-01-13

Similar Documents

Publication Publication Date Title
JPH02277196A (ja) マンマシンシステム
US10074402B2 (en) Recording and providing for display images of events associated with power equipment
US9263037B2 (en) Interactive manual, system and method for vehicles and other complex equipment
US7257531B2 (en) Speech to text system using controlled vocabulary indices
JP2973726B2 (ja) 情報処理装置
CN109801105A (zh) 基于人工智能的服务评分方法、装置、设备及存储介质
US10402924B2 (en) System and method for remote management and detection of client complications
US5855002A (en) Artificially intelligent natural language computational interface system for interfacing a human to a data processor having human-like responses
KR102161638B1 (ko) 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체
SG175712A1 (en) Methods and systems to identify code hierarchy bias in medical priority dispatch systems
WO2023221343A1 (zh) 电力成员违章画像和安全画像的安全隐患信息码生成方法
CN108766431A (zh) 一种基于语音识别的自动唤醒方法及电子设备
CN113287175A (zh) 互动式健康状态评估方法及其系统
CN117406689A (zh) 一种数据驱动与知识引导的故障诊断方法及系统
JP2002024470A (ja) ヒューマンエラー分析診断システムおよび記憶媒体
Shareghi Najar et al. Eye tracking and studying examples: how novices and advanced learners study SQL examples
JP2020173683A (ja) プラント監視制御システム、およびプラント監視制御方法
US20200135195A1 (en) Evaluation system, evaluation method, and program
Kim et al. Design and implementation of HuREX analysis supporting interface for HRA data extraction
CN113243917B (zh) 一种民航管制员的疲劳检测方法、装置、电子设备及介质
CA3203601A1 (en) Systems and methods for application accessibility testing with assistive learning
US8051026B2 (en) Rules collector system and method with user interaction
JPH04321133A (ja) 故障診断装置
JP2021086401A (ja) 管理装置及びプログラム
Dobbins et al. Cue-framing effects in source remembering: A memory misattribution model

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071030

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081030

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees