JP2000259233A - Device for monitoring and supporting plant operation - Google Patents

Device for monitoring and supporting plant operation

Info

Publication number
JP2000259233A
JP2000259233A JP6557099A JP6557099A JP2000259233A JP 2000259233 A JP2000259233 A JP 2000259233A JP 6557099 A JP6557099 A JP 6557099A JP 6557099 A JP6557099 A JP 6557099A JP 2000259233 A JP2000259233 A JP 2000259233A
Authority
JP
Japan
Prior art keywords
plant
image
itv
operator
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6557099A
Other languages
Japanese (ja)
Inventor
Masatoshi Endo
政利 遠藤
Shohei Misono
昇平 御園
Yoshiji Matsuura
由次 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP6557099A priority Critical patent/JP2000259233A/en
Publication of JP2000259233A publication Critical patent/JP2000259233A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate to educate an operator by displaying operation supporting images obtained by synthesizing ITV images of an ITV camera related to VR (virtual reality) images in a VR image that virtually displays a plant in a three-dimensional manner. SOLUTION: When a virtual plant display system 4 is started, a main controlling part 4a makes a memory in a VR displaying part 4g read all three- dimensional image data for VR images stored in a three-dimensional virtual plant database 4h. Next, the part 4a makes a communicating part 4b establish communication connection with an interface agent 1. When the agent 1 inputs a command to the part 4b here, the part 4a analyzes the contents of the command. Then, various operation support images are displayed on a CRT display 6 by controlling respective operations of the part 4b, a VR controlling part 4c, an ITV displaying part 4d, a message displaying part 4e and a video synthesizing part 4f as a result of this analytical result, that is, in accordance with the type of the command.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、プラントの運転状
態を把握して運転員の監視業務を支援するプラント運転
監視支援装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a plant operation monitoring support device for ascertaining the operation state of a plant and assisting a monitoring operation of an operator.

【0002】[0002]

【従来の技術】プラントの運転監視に係わる従来のヒュ
ーマンインタフェースは、以下のようなものである。す
なわち、運転員の操作入力は、ディスプレイ上のタッチ
パネルやマウス等を操作することによって行われ、運転
員に対するプラントの運転状態情報の提示は、CRTデ
ィスプレイに各種プロセス値を数値あるいはグラフィッ
クスとして表示することによって行われている。
2. Description of the Related Art A conventional human interface related to plant operation monitoring is as follows. That is, the operator's operation input is performed by operating a touch panel, a mouse, and the like on the display, and the plant operation state information is presented to the operator by displaying various process values as numerical values or graphics on a CRT display. It is done by that.

【0003】例えば、運転状態情報は、プラントを構成
する各種機器の接続系統を2次元グラフィックス画面と
してCRTディスプレイ上に表示し、かつ、この2次元
グラフィックス画面上の各機器のプロセス値を数値表示
することによって運転員に提示されている。従来では、
このような2次元グラフィックス画面が用途毎に多数設
けられており、運転員は、2次元グラフィックス画面を
自ら選択することによってプラントの運転状態を把握す
る。
[0003] For example, as operating state information, a connection system of various devices constituting a plant is displayed on a CRT display as a two-dimensional graphics screen, and the process value of each device on the two-dimensional graphics screen is represented by a numerical value. It is presented to the operator by displaying. Traditionally,
A large number of such two-dimensional graphics screens are provided for each application, and the operator grasps the operation state of the plant by selecting the two-dimensional graphics screen by himself / herself.

【0004】[0004]

【発明が解決しようとする課題】このような従来技術で
は、CRTディスプレイ上に2次元的にプラントの運転
状態が表示されるので、運転員は直感的にプラントの運
転状態を把握することが困難である。また、プラントを
構成する多数の機器について、2次元グラフィックス画
面を選択することによって各機器の運転状態を把握しな
ければならないため、プラントの運転状態を把握するた
めの操作が煩雑である。プラントの規模が大型化する
と、それを構成する機器数も増大するので、大規模プラ
ントでは、特に運転員の負荷は大きなものとなる。
In such a conventional technique, since the operation state of the plant is displayed two-dimensionally on the CRT display, it is difficult for the operator to intuitively grasp the operation state of the plant. It is. In addition, since the operating state of each device must be ascertained by selecting a two-dimensional graphics screen for many devices constituting the plant, the operation for ascertaining the operating state of the plant is complicated. When the scale of the plant is increased, the number of devices constituting the plant is also increased. Therefore, in a large-scale plant, the load on the operator becomes particularly large.

【0005】また、CRTディスプレイ上の各種プロセ
ス値の数値表示や2次元グラフィックス表示に基づいて
プラントの運転状態を判断する必要があるので、プラン
トの構成やプロセスに対する知識及びプラントの運転監
視についての経験が要求される。また、プラントを運転
操作するためには、多数の機器について操作方法を収得
する必要があるので、熟練を要する。したがって、従来
では、運転員を養成するための専門の設備(プラント運
転訓練シミュレータ)や教育カリキュラムを用意する必
要があった。
Further, since it is necessary to judge the operation state of the plant based on numerical display of various process values on the CRT display or two-dimensional graphic display, knowledge of the plant configuration and process and monitoring of plant operation are required. Experience is required. In addition, in order to operate and operate a plant, it is necessary to acquire an operation method for a large number of devices, so that skill is required. Therefore, conventionally, it has been necessary to prepare specialized equipment (plant operation training simulator) and training curriculum for training operators.

【0006】なお、このような従来のプラントの運転監
視に係わる既存のヒューマンインタフェースに対して、
本出願人は、特願平9−202002号、特願平9−2
31581号あるいは特願平10−263609号にお
いて、AI手法に基づく事例ベース推論技術を応用した
インタフェースエージェントを提案している。この「イ
ンタフェースエージェントは、事例ベース推論の手法を
用いることにより、現在のプラントの運転状態に類似す
る過去の運転事例を検出し、この過去の運転事例に基づ
いて現在のプラントの運転状態を類推判断して、プラン
ト運転支援用の音声メッセージを運転員に提供するもの
である。
In addition, the existing human interface related to the conventional plant operation monitoring is
The present applicant has filed Japanese Patent Application Nos. 9-202002, 9-2
Japanese Patent Application No. 31581 or Japanese Patent Application No. 10-263609 proposes an interface agent to which case-based reasoning technology based on the AI method is applied. This interface agent uses a case-based reasoning technique to detect past operating cases that are similar to the current plant operating state, and to determine the current plant operating state by analogy based on the past operating cases. Then, a voice message for plant operation support is provided to the operator.

【0007】本発明は、上述する問題点に鑑みてなされ
たもので、以下の点を目的とするものである。 (1)運転員の負荷をさらに低減する。 (2)運転員の養成を容易にする。
The present invention has been made in view of the above-mentioned problems, and has the following objects. (1) The load on the operator is further reduced. (2) To facilitate the training of operators.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明では、プラント運転監視支援装置に係わる第
1の手段として、プラントの運転状態を示す運転支援映
像を映像表示手段に表示してプラントの運転を監視する
運転員を支援するプラント運転監視支援装置において、
プラントを仮想的に3次元表示するVR(バーチャル・
リアリティ)映像内に該VR映像に関連するITVカメ
ラのITV映像を合成した運転支援映像を表示するとい
う手段を採用する。
In order to achieve the above object, according to the present invention, as a first means relating to a plant operation monitoring support apparatus, an operation support image indicating an operation state of a plant is displayed on an image display means. In a plant operation monitoring support device that supports an operator who monitors the operation of the plant by
VR (virtual
(Reality) A means for displaying a driving support image obtained by synthesizing an ITV image of an ITV camera related to the VR image in an image is adopted.

【0009】また、プラント運転監視支援装置に係わる
第2の手段として、上記第1の手段において、VR映像
の変化に応じてITV映像を切り替えるという手段を採
用する。
Further, as the second means relating to the plant operation monitoring support device, means for switching the ITV image in accordance with the change of the VR image in the first means is adopted.

【0010】プラント運転監視支援装置に係わる第3の
手段として、上記第1または第2の手段において、運転
支援映像の内容を音響報知する音響報知手段を具備する
という手段を採用する。
As the third means relating to the plant operation monitoring support apparatus, the above-mentioned first or second means is provided with an acoustic notifying means for notifying the contents of the driving support video by sound.

【0011】プラント運転監視支援装置に係わる第4の
手段として、上記第1〜第3いずれかの手段において、
現在のプラントの運転状態を過去のプラントの運転事例
に基づいて推論するインタフェースエージェントの推論
結果に基づいて運転支援映像を表示するという手段を採
用する。
As a fourth means relating to the plant operation monitoring support device, in any one of the above first to third means,
A means for displaying a driving support image based on the inference result of the interface agent that infers the current plant operation state based on past plant operation cases is employed.

【0012】プラント運転監視支援装置に係わる第5の
手段として、上記第4の手段において、インタフェース
エージェントによって音声認識された運転員の音声指示
に基づいて運転支援映像を切り替えるという手段を採用
する。
As a fifth means relating to the plant operation monitoring support apparatus, the above fourth means adopts means for switching the driving support video based on a voice instruction of an operator voice-recognized by the interface agent.

【0013】[0013]

【発明の実施の形態】以下、本発明に係わるプラント運
転監視支援装置の一実施形態について説明する。なお、
本実施形態は、上述したインタフェースエージェントを
リンクさせて構成したものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a plant operation monitoring support device according to the present invention will be described below. In addition,
In the present embodiment, the above-described interface agents are linked to each other.

【0014】 図1は、本実施形態におけるプラント運
転監視支援装置の全体構成図である。この図において、
符号Aは監視対象であるプラント、1はインタフェース
エージェント、2,7はスピーカ、3はマイク、4はバ
ーチャルプラント表示システム(プラント運転監視支援
装置)、5は入力装置(例えば、マウスやキーボード
等)、6はCRTディスプレイ(映像表示手段)であ
る。
FIG. 1 is an overall configuration diagram of a plant operation monitoring support device according to the present embodiment. In this figure,
Reference symbol A is a plant to be monitored, 1 is an interface agent, 2 and 7 are speakers, 3 is a microphone, 4 is a virtual plant display system (plant operation monitoring support device), and 5 is an input device (for example, a mouse or keyboard). , 6 are CRT displays (video display means).

【0015】インタフェースエージェント1は、マイク
3を介してプラントAの運転員から入力された音声指示
を音声認識してバーチャルプラント表示システム4に出
力すると共に、プラントAから取得され、かつプラント
Aの運転状態を示す各種データ(プラントデータ)に基
づく事例ベース推論によってプラントAの運転状態を推
論し、この推論結果に応じて、運転員を支援する各種の
音声メッセージをスピーカ2に出力するものである。
The interface agent 1 recognizes a voice instruction input from an operator of the plant A via the microphone 3 and outputs the voice instruction to the virtual plant display system 4, and is obtained from the plant A and operates the plant A. The operation state of the plant A is inferred by case-based inference based on various data indicating the state (plant data), and various voice messages for assisting the operator are output to the speaker 2 according to the inference result.

【0016】バーチャルプラント表示システム4は、上
記インタフェースエージェント1による事例ベース推論
の結果、プラントAに複数備えられたITVカメラ(工
業用監視カメラ)の映像(ITV映像)、及び上記入力
装置5の操作指示に基づいて運転員を支援する各種映像
(運転支援映像)を合成してCRTディスプレイ6に出
力するものである。
As a result of the case-based inference by the interface agent 1, the virtual plant display system 4 operates the images (ITV images) of the ITV cameras (industrial surveillance cameras) provided in the plant A and operates the input device 5. Various images (driving support images) for assisting the operator are synthesized based on the instruction and output to the CRT display 6.

【0017】このバーチャルプラント表示システム4
は、インタフェースエージェント1による事例ベース推
論の結果に基づいて生成したVR(バーチャル・リアリ
ティ)映像と文字メッセージ、及びプラントAから得ら
れたITV映像を組み合わせることにより、各種の運転
支援映像を合成する。また、バーチャルプラント表示シ
ステム4は、VR映像のリアリティをより向上させるた
めに、VR映像に関連する音響を生成してスピーカ7に
出力する。なお、入力装置5は、VR映像の操作指示及
びプラントAに対する特定の操作指示を入力するための
ものである。
This virtual plant display system 4
Synthesizes various driving support images by combining a VR (virtual reality) image generated based on the result of the case-based inference by the interface agent 1, a text message, and an ITV image obtained from the plant A. In addition, the virtual plant display system 4 generates sound related to the VR image and outputs the sound to the speaker 7 in order to further improve the reality of the VR image. The input device 5 is for inputting a VR video operation instruction and a specific operation instruction for the plant A.

【0018】図2は、上記インタフェースエージェント
1の機能構成を示すブロック図である。この図に示する
ように、インタフェースエージェント1は、言語変換シ
ステム1a、推論エンジン1b、照合ルール1c、事例
メモリ1d、データ収集部1e及び通信部1f等から構
成されている。
FIG. 2 is a block diagram showing a functional configuration of the interface agent 1. As shown in FIG. As shown in FIG. 1, the interface agent 1 includes a language conversion system 1a, an inference engine 1b, a matching rule 1c, a case memory 1d, a data collection unit 1e, a communication unit 1f, and the like.

【0019】言語変換システム1aは、運転員によって
マイク3に入力された音声指示を音声認識することによ
りコンピュータに読取可能な音声データに変換して推論
エンジン1bに出力すると共に、該推論エンジン1bか
ら入力された音声データを運転員が認識可能な音声メッ
セージに音声合成してスピーカ2に出力するものであ
る。
The language conversion system 1a recognizes a voice instruction input to the microphone 3 by a driver, converts the voice instruction into voice data readable by a computer, outputs the voice data to the inference engine 1b, and outputs the voice data from the inference engine 1b. The input voice data is voice-synthesized into a voice message recognizable by the operator and output to the speaker 2.

【0020】さらに詳説すると、この言語変換システム
1aは、運転員が発した音声指示から特定のキーワード
を抽出して認識するキーワードスポッティング音声認
識、及び過去に入力された運転員の音声指示を音声事例
データ(過去音声事例データ)として記憶し、この過去
音声事例データをいま入力された音声指示(現在音声事
例データ)と比較推論することにより、音声指示を認識
する事例ベース推論音声認識を組み合わせた音声認識を
行うものである。
More specifically, the language conversion system 1a extracts a keyword spotting voice by recognizing a specific keyword extracted from a voice instruction issued by an operator and recognizes the voice instruction of the operator input in the past. Speech combining case-based inference speech recognition that recognizes speech instructions by storing as past data (past speech example data) and comparing and inferring the past speech example data with the currently input speech instruction (current speech example data) Recognition.

【0021】データ収集部1eは、所定のサンプリング
時間毎にプラントAを構成する各種機器の計測データ及
び運転員のプラントAに対する操作指示(操作指示デー
タ)をプラントAから収集し、これらをプラントデータ
として推論エンジン1bに出力するものである。このプ
ラントデータは、サンプリング時間における計測データ
とそのときの操作指示データとで構成されるもので、サ
ンプリング時間におけるプラントAの運転状態を示す情
報である。
The data collecting section 1e collects, from the plant A, measurement data of various devices constituting the plant A and operation instructions (operation instruction data) of the operator for the plant A at predetermined sampling times. Is output to the inference engine 1b. This plant data is composed of measurement data at the sampling time and operation instruction data at that time, and is information indicating the operating state of the plant A at the sampling time.

【0022】推論エンジン1bは、上記プラントデータ
を現在の運転状態を示す運転事例データ(現在運転事例
データ)として事例メモリ1dに順次記憶させると共
に、照合ルール1cに基づいて上記現在運転事例データ
に類似する過去の運転事例データ(過去運転事例デー
タ)を事例メモリ1dから検索することにより、プラン
トの現在の運転状態を推論・判断するものである。
The inference engine 1b sequentially stores the plant data as operation case data (current operation case data) indicating the current operation state in the case memory 1d, and resembles the current operation case data based on the matching rule 1c. By retrieving past operation case data (past operation case data) from the case memory 1d, the current operation state of the plant is inferred and determined.

【0023】事例メモリ1dは、上記推論エンジン1b
から順次入力される現在運転事例データを過去運転事例
データ(時間の経過とともに過去のデータとなる)とし
て順次蓄積するものである。照合ルール1cは、事例ベ
ース推論の手法に基づいた現在運転事例データと過去運
転事例データとの照合手順、つまり現在運転事例データ
に類似する過去運転事例データの検索手順を規定するも
のである。
The case memory 1d stores the inference engine 1b
The current operation case data sequentially input from the above are sequentially accumulated as past operation case data (which becomes past data with the passage of time). The collation rule 1c defines a procedure for collating current driving case data with past driving case data based on a case-based reasoning method, that is, a procedure for searching for past driving case data similar to the current driving case data.

【0024】上記推論エンジン1bは、この照合ルール
1cに基づく事例ベース推論により、プラントAの現在
の運転状態を判断する。なお、推論エンジン1bによる
現在運転事例データの生成方法の詳細及び過去運転事例
データの検索の詳細については、上述した各出願に記載
されている。
The inference engine 1b determines the current operation state of the plant A by case-based inference based on the collation rule 1c. The details of the method of generating the current operation case data by the inference engine 1b and the details of the search of the past operation case data are described in the above-mentioned applications.

【0025】通信部1fは、推論エンジン1bと上記バ
ーチャルプラント表示システム4との通信を仲介するも
のであり、例えば推論エンジン1bの推論結果及び言語
変換システム1aの音声認識結果をコマンドとしてバー
チャルプラント表示システム4に出力する。
The communication section 1f mediates the communication between the inference engine 1b and the virtual plant display system 4. For example, a virtual plant display is performed using the inference result of the inference engine 1b and the speech recognition result of the language conversion system 1a as commands. Output to system 4.

【0026】また、本実施形態では、プラントAに対す
る特定の操作指示をインタフェースエージェント1を介
してバーチャルプラント表示システム4から入力できる
ように構成されている。通信部1fは、この操作指示を
バーチャルプラント表示システム4から受信すると推論
エンジン1bに出力する。そして、この操作指示は、推
論エンジン1b及びデータ収集部1eを介してプラント
Aに入力されるようになっている。
In the present embodiment, a specific operation instruction for the plant A can be input from the virtual plant display system 4 via the interface agent 1. When receiving the operation instruction from the virtual plant display system 4, the communication unit 1f outputs the operation instruction to the inference engine 1b. The operation instruction is input to the plant A via the inference engine 1b and the data collection unit 1e.

【0027】続いて、図3は、上記バーチャルプラント
表示システム4の機能構成を示すブロック図である。こ
の図に示すように、バーチャルプラント表示システム4
は、メイン制御部4a、通信部4b、VR制御部4c、
ITV表示部4d、メッセージ表示部4e、映像合成部
4f、VR表示部4g、3次元仮想プラントデータベー
ス4h、直接操作部4i、音響発生部4j及びITV合
成部4k等から構成されている。なお、音響発生部4j
は、上記スピーカ7と共に音響報知手段を構成するもの
である。
FIG. 3 is a block diagram showing a functional configuration of the virtual plant display system 4. As shown in FIG. As shown in this figure, the virtual plant display system 4
Are the main control unit 4a, the communication unit 4b, the VR control unit 4c,
It comprises an ITV display unit 4d, a message display unit 4e, a video synthesis unit 4f, a VR display unit 4g, a three-dimensional virtual plant database 4h, a direct operation unit 4i, a sound generation unit 4j, an ITV synthesis unit 4k, and the like. Note that the sound generator 4j
Constitutes an acoustic notification unit together with the speaker 7.

【0028】メイン制御部4aは、通信部4bを介して
インタフェースエージェント1から入力される各種コマ
ンド及び直接操作部4iを介して入力装置5から入力さ
れる操作指示に基づいて、通信部4b、VR制御部4
c、ITV表示部4d、メッセージ表示部4e及び映像
合成部4fの各動作を統括的に制御するものである。
The main control unit 4a, based on various commands input from the interface agent 1 via the communication unit 4b and operation instructions input from the input device 5 via the direct operation unit 4i, communicates with the communication unit 4b, VR Control unit 4
c, the operation of the ITV display unit 4d, the message display unit 4e, and the video synthesizing unit 4f is generally controlled.

【0029】通信部4bは、メイン制御部4aによる制
御の下にインタフェースエージェント1との通信を仲介
するものであり、上記各種コマンドをインタフェースエ
ージェント1から受信するとメイン制御部4aに出力
し、メイン制御部4aから入力装置5の操作指示が入力
されるとインタフェースエージェント1に出力する。
The communication section 4b mediates communication with the interface agent 1 under the control of the main control section 4a. When the above various commands are received from the interface agent 1, the communication section 4b outputs the commands to the main control section 4a. When an operation instruction of the input device 5 is input from the unit 4a, the operation instruction is output to the interface agent 1.

【0030】直接操作部4iは、上記入力装置5の操作
指示を受け付けてVR制御部4cに出力するものであ
る。VR制御部4cは、VR表示部4gによるVR映像
の生成を制御するものである。このVR制御部4cは、
上記メイン制御部4aから入力される制御情報及び直接
操作部4iから入力される入力装置5の操作指示に基づ
いてCRTディスプレイ6に表示すべきVR映像の変更
指示をVR表示部4gに出力する。
The direct operation unit 4i receives an operation instruction from the input device 5 and outputs the operation instruction to the VR control unit 4c. The VR control unit 4c controls generation of a VR video by the VR display unit 4g. This VR control unit 4c
Based on the control information input from the main control unit 4a and the operation instruction of the input device 5 input from the direct operation unit 4i, a VR video change instruction to be displayed on the CRT display 6 is output to the VR display unit 4g.

【0031】また、VR制御部4cは、音響発生部4j
によるスピーカ7への音響(VR映像に関連する音響)
の出力をも制御する。音響発生部4jは、VR映像に関
連する音響として、例えばVR映像中に表示された機器
の運転音あるいはVR映像が切り替わったことを運転員
に知らせる音声メッセージ等をスピーカ7に出力するも
のである。
The VR control unit 4c includes a sound generation unit 4j
To speaker 7 by sound (sound related to VR video)
Also controls the output of The sound generation unit 4j outputs, to the speaker 7, a sound related to the VR video, for example, a driving sound of a device displayed in the VR video or a voice message or the like notifying a driver that the VR video has been switched. .

【0032】ITV表示部4dは、メイン制御部4aに
よる制御の下に、複数のITVカメラの映像から何れか
を選択してを映像合成部4f及びITV合成部4kに出
力するものである。ITVカメラは、プラントAの要所
に複数備えられ、プラントAを構成する各種機器の動作
状態を常時撮影している。メッセージ表示部4eは、メ
イン制御部4aから入力されるメッセージ情報(例えば
テキストデータ)を映像情報に変換して映像合成部4f
に出力するものである。
The ITV display unit 4d selects one of the images of a plurality of ITV cameras and outputs the selected image to the image synthesizing unit 4f and the ITV synthesizing unit 4k under the control of the main control unit 4a. A plurality of ITV cameras are provided at key points of the plant A, and constantly photograph the operating states of various devices constituting the plant A. The message display unit 4e converts the message information (for example, text data) input from the main control unit 4a into video information, and converts the message information into video information.
Is output to

【0033】3次元仮想プラントデータベース4hは、
プラントAの構成機器の形状を示すVR映像用の各種3
次元画像データを蓄積するデータベースである。本実施
形態におけるVR映像は、例えば運転員がプラントA内
の各種機器の状態を確認しながら移動する状態を仮想空
間として3次元表示するウオークスルー映像である。
The three-dimensional virtual plant database 4h is
Various 3 for VR images showing the shapes of the components of plant A
This is a database that stores dimensional image data. The VR image according to the present embodiment is a walk-through image that three-dimensionally displays, as a virtual space, a state in which an operator moves while checking the state of various devices in the plant A, for example.

【0034】このようなウオークスルー映像は、プラン
トAの仮想空間における運転員の位置変化に準じて3次
元画像が変化するものである。したがって、ウオークス
ルー映像は、3次元仮想空間上の運転員の位置や視点に
応じて連続的に変化する3次元画像である。3次元仮想
プラントデータベース4hには、このようなウオークス
ルー映像の生成に必要なプラントAの構成機器の形状に
関する3次元画像データが蓄積されている。
In such a walk-through image, a three-dimensional image changes according to a change in the position of the operator in the virtual space of the plant A. Therefore, the walk-through image is a three-dimensional image that changes continuously according to the position and viewpoint of the driver in the three-dimensional virtual space. The three-dimensional virtual plant database 4h stores three-dimensional image data relating to the shapes of the components of the plant A necessary for generating such a walk-through image.

【0035】VR表示部4gは、3次元仮想プラントデ
ータベース4hから3次元画像データを読み込み、VR
制御部4cから入力されるVR映像の変更指示に基づい
てVR映像を生成して映像合成部4fに出力するもので
ある。また、VR表示部4gは、内部にITV融合部4
kを備えている。このITV融合部4gは、VR映像の
一部分に上記ITV映像をフレーム毎にテクスチャマッ
ピング(動的テクスチャマッピング)して映像合成部4
fに出力するものである。
The VR display unit 4g reads the three-dimensional image data from the three-dimensional virtual plant database 4h,
A VR video is generated based on a VR video change instruction input from the control unit 4c and output to the video synthesizing unit 4f. The VR display unit 4g is internally provided with the ITV fusion unit 4g.
k. The ITV fusion unit 4g performs texture mapping (dynamic texture mapping) of the ITV image on a part of the VR image for each frame.
f.

【0036】本バーチャルプラント表示システム4は、
上記ウオークスルー映像の他に、プラントAを構成する
各種機器の運転状態を個別に表示する各種VR映像をC
RTディスプレイ6に選択的に表示するように構成され
ている。VR表示部4gは、3次元仮想プラントデータ
ベース4hに蓄積された3次元画像データに基づいて、
これら各種VR映像を生成する。
The virtual plant display system 4 includes:
In addition to the walk-through images, various VR images that individually display the operating states of the various devices that make up the plant A are displayed as C.
It is configured to selectively display on the RT display 6. The VR display unit 4g, based on the three-dimensional image data stored in the three-dimensional virtual plant database 4h,
These various VR images are generated.

【0037】映像合成部4fは、上記メイン制御部4a
による制御の下に、ITV表示部4d、メッセージ表示
部4e及びVR表示部4gから入力された各種映像を合
成してCRTディスプレイ6に出力するものである。
The video synthesizing section 4f is provided with the main control section 4a.
Under the control of the above, various images input from the ITV display unit 4d, the message display unit 4e, and the VR display unit 4g are synthesized and output to the CRT display 6.

【0038】次に、このように構成されたプラント運転
監視支援装置の動作について詳しく説明する。なお、イ
ンタフェースエージェント1の動作については、上述し
た各出願に詳細が記載されているので、以下では概要を
説明する。
Next, the operation of the plant operation monitoring support apparatus configured as described above will be described in detail. Since the operation of the interface agent 1 is described in detail in each of the above-mentioned applications, the outline will be described below.

【0039】まず、通常連続運転されるプラントAに対
して、インタフェースエージェント1のデータ収集部1
eは、所定間隔のサンプル時間毎にプラントデータを取
得して推論エンジン1bに出力する。推論エンジン1b
は、このようにデータ収集部1eから定期的に入力され
るプラントデータを、既に事例メモリ1dに蓄積した過
去運転事例データとの類似度を示す距離空間にマッピン
グした後、現在運転事例データとして事例メモリ1dに
順次出力する。この結果、事例メモリ1dには、プラン
トAの運転経過に従って現在運転事例データが過去のプ
ラントAの運転状態を示す過去運転事例データとして順
次蓄積されることになる。
First, for the plant A that is normally operated continuously, the data collection unit 1 of the interface agent 1
“e” acquires plant data every sample time at a predetermined interval and outputs it to the inference engine 1b. Inference engine 1b
Maps the plant data periodically input from the data collection unit 1e into a metric space indicating the similarity to the past operation case data already stored in the case memory 1d, and then sets the case as the current operation case data. The data is sequentially output to the memory 1d. As a result, the current operation case data is sequentially stored in the case memory 1d as the past operation case data indicating the past operation state of the plant A according to the operation progress of the plant A.

【0040】推論エンジン1bは、このような事例メモ
リ1dへの現在運転事例データの蓄積と共に、照合ルー
ル1cに基づいて事例メモリ1dを検索することによ
り、現在運転事例データに類似する過去運転事例データ
が存在するか否かを検索する。例えば、過去の一定時間
幅に亘る1または複数の過去運転事例データと現在運転
事例データの全ての組み合わせについて、現在運転事例
データと各々の過去運転事例データの相互の距離がそれ
ぞれ算出され、その距離が最も小さい過去運転事例デー
タが現在運転事例データに最も類似した類似運転事例デ
ータとして検出される。
The inference engine 1b accumulates the current operation case data in the case memory 1d and searches the case memory 1d based on the matching rule 1c to obtain the past operation case data similar to the current operation case data. Search whether exists. For example, for all combinations of one or a plurality of past operation case data and the current operation case data over a predetermined time period in the past, the mutual distance between the current operation case data and each of the past operation case data is calculated, and the distance is calculated. Is detected as the similar driving case data most similar to the current driving case data.

【0041】このようにして類似運転事例データが検出
されると、推論エンジン1bは、当該類似運転事例デー
タに基づいてプラントAの現在の運転状態を推論し、そ
の推論結果に基づいてプラントAの運転状態を示すメッ
セージデータを生成する。例えば、類似運転事例データ
が過去においてプラントAを構成するある機器の異常時
のものである場合には、現在運転事例データはプラント
Aの異常状態を示していることになるので、推論エンジ
ン1bは、この旨を運転員に知らせるメッセージデータ
を生成する。
When the similar operation case data is detected in this way, the inference engine 1b infers the current operation state of the plant A based on the similar operation case data, and based on the inference result, the inference engine 1b of the plant A. Generate message data indicating the operating state. For example, if the similar operation case data is in the past when a certain device constituting the plant A is abnormal, the current operation case data indicates the abnormal state of the plant A, so the inference engine 1b Then, message data for notifying the operator of this fact is generated.

【0042】言語変換システム1aは、このメッセージ
データに基づいて音声メッセージを音声合成し、スピー
カ2に出力する。この結果、運転員は、音声メッセージ
によってプラントAの運転状態が異常状態にあることを
認識し、必要な処置を取ることができる。
The language conversion system 1 a synthesizes a voice message based on the message data and outputs the synthesized voice message to the speaker 2. As a result, the operator can recognize from the voice message that the operation state of the plant A is in an abnormal state, and can take necessary measures.

【0043】一方、上記推論エンジン1bによるプラン
トAの運転状態の推論結果及び言語変換システム1aに
おける運転員の音声指示の認識結果は、バーチャルプラ
ント表示システム4に対するコマンドとして、インタフ
ェースエージェント1からバーチャルプラント表示シス
テム4に送信される。推論エンジン1bが通信部1fを
介して上記コマンドをバーチャルプラント表示システム
4に送信させると、このコマンドは、バーチャルプラン
ト表示システム4の通信部4bを介してメイン制御部4
aに入力される。
On the other hand, the inference result of the operation state of the plant A by the inference engine 1b and the recognition result of the voice instruction of the operator in the language conversion system 1a are transmitted from the interface agent 1 to the virtual plant display system 4 as commands to the virtual plant display system 4. Sent to system 4. When the inference engine 1b transmits the command to the virtual plant display system 4 via the communication unit 1f, the command is transmitted to the main control unit 4 via the communication unit 4b of the virtual plant display system 4.
is input to a.

【0044】続いて、上記バーチャルプラント表示シス
テム4の詳細動作について、図4に示すフローチャート
を参照して説明する。
Next, the detailed operation of the virtual plant display system 4 will be described with reference to the flowchart shown in FIG.

【0045】まず、バーチャルプラント表示システム4
が起動すると、メイン制御部4aは、3次元仮想プラン
トデータベース4hに蓄積されている全てのVR映像用
3次元画像データをVR表示部4g内のメモリに読み込
ませる(ステップS1)。これによって、VR表示部4
gによるVR映像の生成を高速化することが可能であ
り、運転員によるVR映像の変更指示に対して速やかに
応答するVR映像を実現することができる。
First, the virtual plant display system 4
Is activated, the main control unit 4a causes all the VR image 3D image data stored in the 3D virtual plant database 4h to be read into the memory in the VR display unit 4g (step S1). Thereby, the VR display unit 4
It is possible to speed up the generation of the VR image by g, and to realize a VR image that responds promptly to a VR image change instruction from the operator.

【0046】このようなVR映像用3次元画像のメモリ
への読み込みが完了すると、メイン制御部4aは、通信
部4bにインタフェースエージェント1との通信接続を
確立させる(ステップS2)。通信部4bは、メイン制
御部4aの指示に従って、インタフェースエージェント
1の通信部1fとの間で通信接続を確立する。これ以
降、メイン制御部4a、つまり本バーチャルプラント表
示システム4は、上記コマンドが通信部4bを介してイ
ンタフェースエージェント1から入力されるか、あるい
は入力装置5から操作イベントの入力があるまで待機状
態となる。
When the reading of the VR video three-dimensional image into the memory is completed, the main control unit 4a causes the communication unit 4b to establish a communication connection with the interface agent 1 (step S2). The communication unit 4b establishes a communication connection with the communication unit 1f of the interface agent 1 according to an instruction from the main control unit 4a. Thereafter, the main control unit 4a, that is, the virtual plant display system 4 enters a standby state until the command is input from the interface agent 1 via the communication unit 4b or an operation event is input from the input device 5. Become.

【0047】ここで、インタフェースエージェント1か
ら通信部4bにコマンドが入力されると(ステップS
3)、メイン制御部4aは、このコマンドの内容を解析
する(ステップS4)。そして、この解析結果つまりコ
マンドの種類に応じて上記通信部4b、VR制御部4
c、ITV表示部4d、メッセージ表示部4e及び映像
合成部4fの各動作を制御することにより、CRTディ
スプレイ6に各種運転支援映像を表示させる(ステップ
S5)。
Here, when a command is input from the interface agent 1 to the communication unit 4b (step S
3), the main controller 4a analyzes the contents of this command (step S4). Then, the communication unit 4b and the VR control unit 4
c, various driving support images are displayed on the CRT display 6 by controlling the operations of the ITV display unit 4d, the message display unit 4e, and the image synthesizing unit 4f (step S5).

【0048】例えば、コマンドが推論エンジン1bの推
論結果に基づく特定機器の異常を示すものであった場
合、メイン制御部4aは、ステップS5において、当該
機器の異常を知らせるテキストデータをメッセージ表示
部4eに出力する。この結果、メッセージ表示部4e
は、テキストデータに基づいて文字メッセージ画像を生
成し、映像合成部4fを介してCRTディスプレイ6上
に表示させる。このとき、映像合成部4fは、メイン制
御部4aから入力された位置指定情報に基づいてCRT
ディスプレイ6上における表示メッセージの位置を設定
する。
For example, if the command indicates an abnormality of a specific device based on the inference result of the inference engine 1b, the main control unit 4a, in step S5, displays text data indicating the abnormality of the device in the message display unit 4e. Output to As a result, the message display unit 4e
Generates a character message image based on the text data, and displays it on the CRT display 6 via the video synthesizing unit 4f. At this time, the video synthesizing unit 4f performs CRT based on the position designation information input from the main control unit 4a.
The position of the display message on the display 6 is set.

【0049】また、上記と同様にしてコマンドが特定機
器の異常を示すものであった場合、メイン制御部4a
は、当該異常機器のITV映像を選択表示させる指示を
ITV表示部4dに出力する。この結果、ITV表示部
4dは、当該異常機器のITV映像を映像合成部4fを
介してCRTディスプレイ6上に表示させる。
In the same manner as above, if the command indicates an abnormality of a specific device, the main control unit 4a
Outputs an instruction to selectively display an ITV image of the abnormal device to the ITV display unit 4d. As a result, the ITV display unit 4d displays the ITV video of the abnormal device on the CRT display 6 via the video synthesis unit 4f.

【0050】さらに、メイン制御部4aは、VR制御部
4cを介してVR表示部4gに当該異常機器のVR映像
の生成出力を指示する。この結果、VR表示部4gは、
当該異常機器のVR映像を3次元仮想プラントデータベ
ース4hから先に読み込んだ3次元画像データに基づい
て生成し、映像合成部4fを介してCRTディスプレイ
6上に表示させる。この異常機器のVR映像は、当該異
常機器の異常状態を3次元シミュレーションしたVR映
像である。
Further, the main control section 4a instructs the VR display section 4g to generate and output a VR image of the abnormal device via the VR control section 4c. As a result, the VR display unit 4g
A VR image of the abnormal device is generated based on the three-dimensional image data previously read from the three-dimensional virtual plant database 4h, and is displayed on the CRT display 6 via the image synthesizing unit 4f. The VR image of the abnormal device is a VR image obtained by performing a three-dimensional simulation of the abnormal state of the abnormal device.

【0051】ここで、本実施形態のVR表示部4gは、
VR映像をCRTディスプレイ6上に表示する際、IT
V合成部4kを用いてITV表示部4dから入力された
当該異常機器のITV映像をVR映像内に合成する。す
なわち、ITV合成部4kは、3次元映像であるVR映
像内の特定面にITV映像をフレーム毎にテクスチャマ
ッピング(動的テクスチャマッピング)することによ
り、VR映像内にITV映像を合成する。
Here, the VR display unit 4g of the present embodiment is
When displaying VR video on the CRT display 6, the IT
Using the V synthesizing unit 4k, the ITV video of the abnormal device input from the ITV display unit 4d is synthesized into the VR video. That is, the ITV synthesizing unit 4k synthesizes the ITV video within the VR video by performing texture mapping (dynamic texture mapping) of the ITV video on a specific surface in the VR video which is a three-dimensional video for each frame.

【0052】より具体的には、例えば異常機器が「圧縮
機」であった場合、VR映像上で仮想的に3次元表示さ
れる圧縮機の特定面上に、当該圧縮機の実際の動作状況
を示すITV映像が表示される。この圧縮機のITV映
像は、フレーム単位で圧縮機の側面に動的テクスチャマ
ッピングされるので、通常のITV映像と同様にフレー
ム単位で変化する動画となる。
More specifically, for example, when the abnormal device is a “compressor”, the actual operation status of the compressor is displayed on a specific surface of the compressor which is virtually displayed three-dimensionally on the VR video. Is displayed. Since the ITV video of this compressor is dynamically texture-mapped on the side of the compressor in frame units, it becomes a moving image that changes in frame units in the same manner as a normal ITV video.

【0053】図5は、このようなVR映像による運転支
援映像を示す模式図である。この図に示すように、IT
V映像は、動的テクスチャマッピングによってVR映像
中に3次元表示される機器の特定面上に動画表示され
る。ここで、運転員は、入力装置5を操作することによ
って機器に対する位置や視点を変更することができる
が、ITV映像は特定面上に動的テクスチャマッピング
されるので、運転員が特定面を正面にして対峙(正対)
した場合に、ITV映像を最も良好に視認することがで
きる。
FIG. 5 is a schematic diagram showing such a driving assistance image based on the VR image. As shown in this figure, IT
The V image is displayed as a moving image on a specific surface of a device that is three-dimensionally displayed in the VR image by dynamic texture mapping. Here, the operator can change the position and the viewpoint with respect to the device by operating the input device 5, but since the ITV image is dynamically texture-mapped on the specific surface, the operator faces the specific surface in front. And confront (facing)
In this case, the ITV image can be most visually recognized.

【0054】このように、仮想的な圧縮機のVR映像内
に圧縮機の実際の動作状況を示すITV映像を動的テク
スチャマッピングして表示することにより、仮想的なV
R映像に対する運転員の過度の没入感を抑制することが
できると共に、プラントAの運転状態をより容易かつ正
確に把握することができる。
As described above, by displaying the ITV image indicating the actual operation state of the compressor in the VR image of the virtual compressor by dynamic texture mapping and displaying it, the virtual V
It is possible to suppress the operator's excessive immersion feeling in the R image, and to more easily and accurately grasp the operating state of the plant A.

【0055】なお、上記コマンドが言語変換システム1
aによって音声認識された運転支援映像の変更指示であ
った場合、メイン制御部4aは、ステップS5におい
て、CRTディスプレイ6上に変更指示に応じた運転支
援映像を表示させる。例えば、特定機器の状態を確認し
たい旨のコマンドが入力されると、メイン制御部4a
は、当該機器のITV映像を選択表示させる指示をIT
V表示部4dに出力して、当該機器のITV映像をCR
Tディスプレイ6上に表示させる。また、メイン制御部
4aは、VR制御部4cを介してVR表示部4gを制御
することにより、当該機器のVR映像をCRTディスプ
レイ6上に表示させる。
It should be noted that the above command is used in the language conversion system 1
If the instruction is a change instruction of the driving support image that is voice-recognized by a, the main control unit 4a causes the CRT display 6 to display the driving support image corresponding to the change instruction in step S5. For example, when a command to confirm the status of the specific device is input, the main control unit 4a
Sends an instruction to select and display the ITV video of the device.
V display unit 4d to output the ITV video of the
It is displayed on the T display 6. Further, the main control unit 4a controls the VR display unit 4g via the VR control unit 4c to display the VR video of the device on the CRT display 6.

【0056】一方、ステップS6において、VR映像の
変更指示に係わる操作イベントが入力装置5から直接操
作部4iに入力されると、該操作イベントは、直接操作
部4iからVR制御部4cを介してメイン制御部4aに
入力される。メイン制御部4aは、この操作イベントを
解析し(ステップS7)、その解析結果つまり操作イベ
ントの種類に応じたVR映像の表示をVR制御部4cに
指示する(ステップS8)。
On the other hand, in step S6, when an operation event relating to the VR video change instruction is input from the input device 5 directly to the operation unit 4i, the operation event is directly transmitted from the operation unit 4i via the VR control unit 4c. It is input to the main control unit 4a. The main control unit 4a analyzes the operation event (step S7), and instructs the VR control unit 4c to display a VR video according to the analysis result, that is, the type of the operation event (step S8).

【0057】VR制御部4cは、メイン制御部4aの指
示に従ったVR映像をVR表示部4gに生成させると共
に、このVR映像に対応する音響の出力指示を音響発生
部4jに出力する。この結果、VR表示部4gは、操作
イベントに応じた新たなVR映像を映像合成部4fに出
力し、CRTディスプレイ6に表示させる。また、音響
発生部4jは、CRTディスプレイ6に表示されたVR
映像に対応する音響をスピーカ7に出力する。
The VR control unit 4c causes the VR display unit 4g to generate a VR image according to the instruction of the main control unit 4a, and outputs an audio output instruction corresponding to the VR image to the sound generation unit 4j. As a result, the VR display unit 4g outputs a new VR video according to the operation event to the video synthesizing unit 4f and causes the CRT display 6 to display the new VR video. In addition, the sound generation unit 4j outputs the VR displayed on the CRT display 6.
The sound corresponding to the video is output to the speaker 7.

【0058】運転員は、入力装置5を操作することによ
ってウオークスルー映像上でプラントA内を仮想的に移
動することができる。所定方向への前進を指示する操作
イベントを入力装置5から入力すると、運転員は、ウオ
ークスルー映像上で自らが立脚する位置を変更すること
ができる。例えば、運転員が異常状態にある上記圧縮機
の前に到着した場合、音響発生部4jは、当該圧縮機の
異常運転音をスピーカ7に出力し、運転員の仮想体験を
よりリアルなものとする。
By operating the input device 5, the operator can virtually move in the plant A on the walk-through image. When an operation event for instructing advancing in a predetermined direction is input from the input device 5, the operator can change the position where he stands on the walk-through image. For example, when the operator arrives in front of the compressor in an abnormal state, the sound generation unit 4j outputs an abnormal operation sound of the compressor to the speaker 7 to make the virtual experience of the operator more realistic. I do.

【0059】また、上記ステップS6において、ウオー
クスルー映像上に表示された機器の操作に係わる操作イ
ベントが入力された場合、この操作イベントは、直接操
作部4i及びVR制御部4cを介してメイン制御部4a
に入力される。メイン制御部4aは、当該操作イベント
を通信部4bを介してインタフェースエージェント1に
送信する(機器操作処理:ステップS9)。そして、こ
の操作イベントは、インタフェースエージェント1の通
信部1f、推論エンジン1b及びデータ収集部1eを介
してプラントAに入力され、当該操作イベントに基づい
てウオークスルー映像上に表示された機器の運転が操作
される。
When an operation event relating to the operation of the device displayed on the walk-through image is input in step S6, the operation event is directly transmitted to the main control unit via the operation unit 4i and the VR control unit 4c. Part 4a
Is input to The main control unit 4a transmits the operation event to the interface agent 1 via the communication unit 4b (device operation processing: step S9). Then, this operation event is input to the plant A via the communication unit 1f, the inference engine 1b, and the data collection unit 1e of the interface agent 1, and based on the operation event, the operation of the device displayed on the walkthrough video is performed. Operated.

【0060】例えば、入力装置5からウオークスルー映
像上に表示された上記圧縮機の運転停止を指示する操作
イベントが入力されると、この操作イベントに基づいて
当該圧縮機の運転が停止される。または、特定機器の計
測データを取得したい旨の操作イベントを入力装置5か
ら入力すると、この操作イベントに基づいて当該特定機
器の計測データの数値がインタフェースエージェント1
を介してバーチャルプラント表示システム4に取り込ま
れてCRTディスプレイ6に表示される。
For example, when an operation event instructing to stop the operation of the compressor displayed on the walk-through image is input from the input device 5, the operation of the compressor is stopped based on the operation event. Alternatively, when an operation event indicating that measurement data of a specific device is to be obtained is input from the input device 5, the numerical value of the measurement data of the specific device is changed to the interface agent 1 based on the operation event.
And is displayed on the CRT display 6 via the virtual plant display system 4.

【0061】本実施形態によれば、事例ベース推論によ
るプラントAの運転状態の推論結果及び運転員による音
声指示の音声認識結果に基づいて運転支援映像をCRT
ディスプレイ6に表示させるので、運転員は、音声メッ
セージに基づく聴覚的なプラントAの運転状態の確認に
加えて、CRTディスプレイ6上に表示される運転支援
映像によって視覚的にプラントAの運転状態を確認する
ことかできる。したがって、プラントAの運転状態の確
認が容易であり、プラントの運転監視に係わる従来のヒ
ューマンインタフェースに比較して、運転員の負荷を大
幅に軽減することが可能である。
According to the present embodiment, the driving support image is displayed on the CRT based on the inference result of the operation state of the plant A by the case-based inference and the voice recognition result of the voice instruction by the operator.
Since the display is displayed on the display 6, the operator visually confirms the operating state of the plant A by the driving support image displayed on the CRT display 6 in addition to the auditory confirmation of the operating state of the plant A based on the voice message. You can check. Therefore, it is easy to confirm the operation state of the plant A, and it is possible to greatly reduce the load on the operator as compared with the conventional human interface related to plant operation monitoring.

【0062】また、運転支援映像がVR映像、ITV映
像あるいはメッセージの形態でCRTディスプレイ6上
に表示されるので、運転員は、プラントAの運転状態を
直感的かつ容易に把握することができる。また、音声認
識によって運転員の指示がインタフェースエージェント
1に入力されるので、運転員は、自らの意志を容易にイ
ンタフェースエージェント1に入力することができる。
したがって、これらによっても運転員の負荷を軽減する
ことが可能であると共に、従来程、運転員の熟練を必要
としないので、運転員の養成期間の短縮及び養成設備に
係わるコストの低減を図ることが可能である。
Since the driving support video is displayed on the CRT display 6 in the form of a VR video, an ITV video or a message, the operator can intuitively and easily grasp the operating state of the plant A. Further, since the instruction of the operator is input to the interface agent 1 by voice recognition, the operator can easily input his / her own intention to the interface agent 1.
Therefore, it is possible to reduce the load on the operator also by these methods, and to reduce the training period of the operator and the cost related to the training equipment, because the skill of the operator is not required as much as in the past. Is possible.

【0063】なお、上記実施形態は、インタフェースエ
ージェント1に音声認識された運転員の音声指示に基づ
いてプラントAを直接操作するようには構成されていな
い。これは、現行のプラントAの運転に対して並列的に
操作することを考慮したものである。
The above embodiment is not configured to directly operate the plant A based on the voice instruction of the operator whose voice has been recognized by the interface agent 1. This takes into account the fact that the current operation of the plant A is operated in parallel.

【0064】すなわち、本願発明は、プラントAの運転
に係わる次世代のヒューマンインタフェース技術を提供
するものであり、本願発明を実際のプラントAに適用し
ようとする場合、運転員が無理なく本願発明を使いこな
すためには、一定期間に亘って従来のヒューマンインタ
フェースとの併存が必要になる。この併存期間において
運転員が音声指示入力にある程度慣れた上で、実際のプ
ラントの操作を音声指示することにより、正確性を必要
とするプラントの操作を音声指示によって確実に行うこ
とができる。
That is, the present invention provides a next-generation human interface technology relating to the operation of the plant A. When applying the present invention to the actual plant A, the operator can easily understand the present invention. In order to make full use of it, it is necessary to coexist with a conventional human interface for a certain period. During this coexistence period, the operator is used to the voice instruction input to some extent, and then instructs the actual operation of the plant by voice, so that the operation of the plant requiring accuracy can be reliably performed by the audio instruction.

【0065】なお、本発明は、特定のプラントを対象と
したものではなく、複数の各種機器から構成された全て
のプラントの運転監視に適用可能なものである。
The present invention is not intended for a specific plant, but can be applied to operation monitoring of all plants composed of a plurality of various devices.

【0066】[0066]

【発明の効果】以上説明したように、本発明に係わるプ
ラント運転監視支援装置によれば、以下のような効果を
奏する。
As described above, the plant operation monitoring support device according to the present invention has the following effects.

【0067】(1)プラント運転監視支援装置に係わる
第1の手段として、プラントの運転状態を示す運転支援
映像を映像表示手段に表示してプラントの運転を監視す
る運転員を支援するプラント運転監視支援装置におい
て、プラントを仮想的に3次元表示するVR(バーチャ
ル・リアリティ)映像内に該VR映像に関連するITV
カメラのITV映像を合成した運転支援映像を表示する
ので、運転員は、このような運転支援映像によってプラ
ントの運転状態を正確かつ容易に判断することが可能で
あり、よって負荷を大幅に軽減することができる。
(1) As a first means relating to the plant operation monitoring support device, a plant operation monitor for displaying an operation support image indicating an operation state of the plant on a video display means to assist an operator who monitors the operation of the plant. In the support device, an ITV related to the VR image is included in a VR (virtual reality) image that virtually displays a plant in three dimensions.
Since the driving support video synthesized with the ITV video of the camera is displayed, the operator can accurately and easily determine the operation state of the plant by using such a driving support video, thereby greatly reducing the load. be able to.

【0068】(2)また、例えば運転支援映像をVR映
像のみから構成した場合、運転員は、VR映像に仮想空
間内に過度に没入して、現実と仮想空間との区別がつき
難い状況に陥ることが懸念される。これに対して、実際
のプラントの状況を示すITV映像をVR映像内に合成
することにより、仮想的なVR映像に対する運転員の過
度の没入感を抑制することができる。
(2) Also, for example, when the driving support video is composed only of the VR video, the driver may be excessively immersed in the VR video in the virtual space, making it difficult to distinguish between the real and the virtual space. There is a concern about falling. On the other hand, by synthesizing the ITV image indicating the actual situation of the plant in the VR image, it is possible to suppress the operator's excessive immersion in the virtual VR image.

【0069】(3)VR映像の変化に応じてITV映像
を切り替えるので、運転員は、VR映像中の自らの各位
置においてプラントを構成する各機器の状態を容易かつ
正確に把握することができる。
(3) Since the ITV image is switched according to the change of the VR image, the operator can easily and accurately grasp the state of each device constituting the plant at each position in the VR image. .

【0070】(4)運転支援映像の内容を音響報知する
音響報知手段を具備するので、運転員は、プラントの運
転状態をさらに直感的に把握することができる。
(4) Since the apparatus is provided with the sound notifying means for notifying the contents of the driving support image by sound, the operator can more intuitively grasp the operating state of the plant.

【0071】(5)現在のプラントの運転状態を過去の
プラントの運転事例に基づいて推論するインタフェース
エージェントの推論結果に基づいて運転支援映像を表示
するので、現在のプラントの運転状態に対して、的確な
運転支援映像が表示される。したがって、運転人のプラ
ントの運転監視作業の負荷をさらに軽減することができ
る。
(5) The operation support image is displayed based on the inference result of the interface agent which infers the current plant operation state based on past plant operation cases. An accurate driving support image is displayed. Therefore, the load of the operation monitoring work of the plant by the driver can be further reduced.

【0072】(6)インタフェースエージェントによっ
て音声認識された運転員の音声指示に基づいて運転支援
映像を切り替えるので、音声指示によって容易に運転支
援映像を変更することができる。すなわち、運転員の指
示入力が極めて容易かつ直感的であり、操作に熟練を必
要としないので、運転員の養成に時間を必要としないと
共に運転員の養成に係わるコストを低減することが可能
である。
(6) Since the driving assistance video is switched based on the voice instruction of the driver who has been voice-recognized by the interface agent, the driving assistance video can be easily changed by the voice instruction. That is, since the instruction input by the operator is extremely easy and intuitive, and the operation does not require skill, it is possible to reduce the time required for training the operator and reduce the cost associated with the training of the operator. is there.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態の全体構成図である。FIG. 1 is an overall configuration diagram of an embodiment of the present invention.

【図2】 本発明の一実施形態におけるインタフェース
エージェントの機能構成を示すブロック図である。
FIG. 2 is a block diagram showing a functional configuration of an interface agent according to an embodiment of the present invention.

【図3】 本発明の一実施形態の機能構成を示すブロッ
ク図である。
FIG. 3 is a block diagram showing a functional configuration of an embodiment of the present invention.

【図4】 本発明の一実施形態の動作を示すフローチャ
ートである。
FIG. 4 is a flowchart showing the operation of one embodiment of the present invention.

【図5】 本発明の一実施形態における運転支援映像の
一例を示す模式図である。
FIG. 5 is a schematic diagram illustrating an example of a driving support image according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

A……プラント 1……インタフェースエージェント 1a……言語変換システム 1b……推論エンジン 1c……照合ルール 1d……事例メモリ 1e……データ収集部 1f……通信部 2……スピーカ 3……マイク 4……バーチャルプラント表示システム 4a……メイン制御部 4b……通信部 4c……VR制御部 4d……ITV表示部 4e……メッセージ表示部 4f……映像合成部 4g……VR表示部 4h……3次元仮想プラントデータベース 4i……直接操作部 4j……音響発生部(音響報知手段) 4k……ITV合成部 5……入力装置 6……CRTディスプレイ(映像表示手段) 7……スピーカ(音響報知手段) A: Plant 1: Interface agent 1a: Language conversion system 1b: Inference engine 1c: Matching rule 1d: Case memory 1e: Data collection unit 1f: Communication unit 2: Speaker 3: Microphone 4 … Virtual plant display system 4a… main control unit 4b… communication unit 4c… VR control unit 4d… ITV display unit 4e… message display unit 4f… video synthesis unit 4g… VR display unit 4h… 3D virtual plant database 4i Direct operation unit 4j Sound generation unit (sound notification unit) 4k ITV synthesis unit 5 Input device 6 CRT display (video display unit) 7 Speaker (sound notification) means)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 松浦 由次 東京都江東区豊洲三丁目1番15号 石川島 播磨重工業株式会社東二テクニカルセンタ ー内 Fターム(参考) 5B050 AA03 EA19 EA28 FA02 FA10 5E501 AC02 AC16 BA05 CA03 CA08 CB02 CB09 CB14 CB15 DA17 EA21 FA15 FA27 FA32 FA36 FA42 FB34 5H223 AA01 DD09 EE06 FF03 FF06 9A001 HH03 HH17 HH23 LL09  ────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yuji Matsuura 3-1-1, Toyosu, Koto-ku, Tokyo Ishikawajima Harima Heavy Industries, Ltd. East Term Technical Center F term (reference) AC16 BA05 CA03 CA08 CB02 CB09 CB14 CB15 DA17 EA21 FA15 FA27 FA32 FA36 FA42 FB34 5H223 AA01 DD09 EE06 FF03 FF06 9A001 HH03 HH17 HH23 LL09

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 プラント(A)の運転状態を示す運転支
援映像を映像表示手段(6)に表示してプラントの運転
を監視する運転員を支援するプラント運転監視支援装置
であって、 プラントを仮想的に3次元表示するVR(バーチャル・
リアリティ)映像内に該VR映像に関連するITVカメ
ラのITV映像を合成した運転支援映像を表示すること
を特徴とするプラント運転監視支援装置。
1. A plant operation monitoring support device for displaying an operation support image indicating an operation state of a plant (A) on an image display means (6) to assist an operator monitoring operation of the plant. VR (virtual
(Reality) A plant operation monitoring support device characterized in that an operation support image obtained by synthesizing an ITV image of an ITV camera related to the VR image is displayed in the image.
【請求項2】 VR映像の変化に応じてITV映像を切
り替えることを特徴とする請求項1記載のプラント運転
監視支援装置。
2. The plant operation monitoring support device according to claim 1, wherein the ITV image is switched according to a change in the VR image.
【請求項3】 運転支援映像の内容を音響報知する音響
報知手段(4j,7)を具備することを特徴とする請求
項1または2記載のプラント運転監視支援装置。
3. The plant operation monitoring support device according to claim 1, further comprising an audio notifying unit (4j, 7) for notifying the contents of the driving support image by sound.
【請求項4】 現在のプラントの運転状態を過去のプラ
ントの運転事例に基づいて推論するインタフェースエー
ジェント(1)の推論結果に基づいて運転支援映像を表
示することを特徴とする請求項1〜3いずれかに記載の
プラント運転監視支援装置。
4. A driving support image is displayed based on an inference result of an interface agent (1) for inferring a current plant operation state based on past plant operation cases. The plant operation monitoring support device according to any one of the above.
【請求項5】 インタフェースエージェントによって音
声認識された運転員の音声指示に基づいて運転支援映像
を切り替えることを特徴とする請求項4記載のプラント
運転監視支援装置。
5. The plant operation monitoring support device according to claim 4, wherein the operation support video is switched based on a voice instruction of an operator voice-recognized by the interface agent.
JP6557099A 1999-03-11 1999-03-11 Device for monitoring and supporting plant operation Pending JP2000259233A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6557099A JP2000259233A (en) 1999-03-11 1999-03-11 Device for monitoring and supporting plant operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6557099A JP2000259233A (en) 1999-03-11 1999-03-11 Device for monitoring and supporting plant operation

Publications (1)

Publication Number Publication Date
JP2000259233A true JP2000259233A (en) 2000-09-22

Family

ID=13290814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6557099A Pending JP2000259233A (en) 1999-03-11 1999-03-11 Device for monitoring and supporting plant operation

Country Status (1)

Country Link
JP (1) JP2000259233A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163017A (en) * 2000-11-24 2002-06-07 Ishikawajima Harima Heavy Ind Co Ltd Support system for monitoring of plant operation
WO2004001677A1 (en) * 2002-06-20 2003-12-31 West Unitis Co., Ltd. Job guiding system
JP2012123826A (en) * 2004-05-04 2012-06-28 Fisher-Rosemount Systems Inc Scripted graphics in process environment

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744788A (en) * 1993-06-29 1995-02-14 Hitachi Ltd Method and device for monitoring video
JPH08101710A (en) * 1994-09-30 1996-04-16 Babcock Hitachi Kk Operation controller for plant
JPH08161031A (en) * 1994-12-07 1996-06-21 Meidensha Corp Monitor and control system
JPH0983997A (en) * 1995-09-12 1997-03-28 Osaka Gas Co Ltd Operation unit
JPH09212219A (en) * 1996-01-31 1997-08-15 Fuji Facom Corp Three-dimensional virtual model preparing device and monitor controller for controlled object
JPH09282125A (en) * 1996-04-09 1997-10-31 Fuji Electric Co Ltd Monitoring screen display method
JPH09297672A (en) * 1996-03-04 1997-11-18 Meidensha Corp Monitor screen display system
JPH10134273A (en) * 1996-10-31 1998-05-22 Matsushita Electric Works Ltd Building monitor control system
JPH1124735A (en) * 1997-06-27 1999-01-29 Mitsubishi Electric Corp Plant operation support system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744788A (en) * 1993-06-29 1995-02-14 Hitachi Ltd Method and device for monitoring video
JPH08101710A (en) * 1994-09-30 1996-04-16 Babcock Hitachi Kk Operation controller for plant
JPH08161031A (en) * 1994-12-07 1996-06-21 Meidensha Corp Monitor and control system
JPH0983997A (en) * 1995-09-12 1997-03-28 Osaka Gas Co Ltd Operation unit
JPH09212219A (en) * 1996-01-31 1997-08-15 Fuji Facom Corp Three-dimensional virtual model preparing device and monitor controller for controlled object
JPH09297672A (en) * 1996-03-04 1997-11-18 Meidensha Corp Monitor screen display system
JPH09282125A (en) * 1996-04-09 1997-10-31 Fuji Electric Co Ltd Monitoring screen display method
JPH10134273A (en) * 1996-10-31 1998-05-22 Matsushita Electric Works Ltd Building monitor control system
JPH1124735A (en) * 1997-06-27 1999-01-29 Mitsubishi Electric Corp Plant operation support system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163017A (en) * 2000-11-24 2002-06-07 Ishikawajima Harima Heavy Ind Co Ltd Support system for monitoring of plant operation
WO2004001677A1 (en) * 2002-06-20 2003-12-31 West Unitis Co., Ltd. Job guiding system
CN1313980C (en) * 2002-06-20 2007-05-02 韦斯特尤尼蒂斯株式会社 Job guiding system
JP2012123826A (en) * 2004-05-04 2012-06-28 Fisher-Rosemount Systems Inc Scripted graphics in process environment

Similar Documents

Publication Publication Date Title
EP3392181B1 (en) A holographic elevator assistance system
KR101990284B1 (en) Intelligent cognitive technology based augmented reality system using speech recognition
US7230582B1 (en) Wearable computer in a process control environment
US5835715A (en) Interactive theater and feature presentation system
JP5242597B2 (en) Instructor support system
CN107656505A (en) Use the methods, devices and systems of augmented reality equipment control man-machine collaboration
JP2016081359A (en) Information presentation device
JP2003295754A (en) Sign language teaching system and program for realizing the system
JP2000259233A (en) Device for monitoring and supporting plant operation
JP2000259243A (en) Plant operation monitoring support device
JP2001330450A (en) Automobile navigation system
JPH11328243A (en) Plant design support system
JP2000259236A (en) Plant operation monitoring support device
JP4483073B2 (en) Plant operation monitoring support device
JP2000259232A (en) Device for monitoring and supporting plant operation
Lewis et al. Usability of the remote console for virtual reality telerehabilitation: formative evaluation
JP2000259230A (en) Plant operation monitoring support device
JP2000259229A (en) Plant operation monitoring support device
JP2000259242A (en) Plant operation monitoring support device and method
JP2011143511A (en) User support system
CN110310537B (en) Gantry crane virtual hoisting training system and training method
JPH08234830A (en) Operation device
JPH0635657A (en) Method and device for displaying hypertext model
WO1996027988A1 (en) Proceedings supporting system
JP2003241640A (en) Network type welding observation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071009