JPH07160310A - Controller - Google Patents

Controller

Info

Publication number
JPH07160310A
JPH07160310A JP5340542A JP34054293A JPH07160310A JP H07160310 A JPH07160310 A JP H07160310A JP 5340542 A JP5340542 A JP 5340542A JP 34054293 A JP34054293 A JP 34054293A JP H07160310 A JPH07160310 A JP H07160310A
Authority
JP
Japan
Prior art keywords
virtual
control
information
user
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5340542A
Other languages
Japanese (ja)
Inventor
Takeshi Yokota
毅 横田
Setsuo Arita
節男 有田
Hideyuki Sato
英之 佐藤
Kazuhiko Ishii
一彦 石井
Shigeo Hashimoto
茂男 橋本
Kazushige Fujihira
一重 藤平
Shunsuke Utena
俊介 臺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP5340542A priority Critical patent/JPH07160310A/en
Publication of JPH07160310A publication Critical patent/JPH07160310A/en
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin

Abstract

PURPOSE:To change the shape, place, interface, etc., of the controller as a user demands and provide a controller for a large-scale device in a small space by providing a virtual control board generating device and a control information management device and controlling an object through a virtual control board. CONSTITUTION:This controller is equipped with the input/output interface 1, the virtual control board generating device 2, the control information management device 3, a plant information extraction device 4, and an equipment operation information output device 5 and further equipped with a control means management device 6, a virtual model operation device 7 for a controlled system itself, an information communication device 8 for other operators, and a robot 9. The virtual control board generating device 2 generates the virtual control board as a virtual space offering device. The control information management device 3 outputs a control signal based upon the operation signal of the virtual control board. Then, a control signal is generated by directly operating the virtual model for the controlled system itself, the object is controlled through the virtual control board, and the object is operated by the virtual model for the controlled system itself.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、各種制御装置、例えば
原子力発電プラント等を制御する制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to various control devices such as a control device for controlling a nuclear power plant.

【0002】[0002]

【従来の技術】従来、人間がいろいろな対象を制御する
ためには、スイッチ、レバー、ハンドル等の現実のハー
ドウェアを用いて対象を直接制御する方法が用いられて
いた。また、それに加え、対象との間に制御用の計算機
を介し、計算機上のスイッチ類をキーボード、マウス、
タッチパネル等を用いて制御する方式も近年用いられて
いる。さらに、最近は計算機上に仮想の空間を作成し、
人間があたかもその空間に入り込んだ感じで作業を行う
という人工現実間の技術を用いて、仮想空間上に制御す
る対象を構築し、それを直接操作することによって対象
の制御を行うという、例えば「人工現実感を利用した三
次元空間内作業用マンマシンインタフェース」(第4回
ヒューマンインタフェースシンポジウム論文集)に示さ
れる様な方法も提案されている。また、ロボットを顧客
の動きに連動させて、顧客には、遠隔地に展示された商
品の操作や外観の確認などを模擬的に体験させて、実際
に商品に接した状態と同様な満足感を与えるシステムが
特開平5−192067号公報に記載されている。
2. Description of the Related Art Conventionally, in order for a human to control various objects, a method of directly controlling the object using actual hardware such as a switch, a lever and a handle has been used. In addition to that, through the control computer with the target, the switches on the computer keyboard, mouse,
A method of controlling using a touch panel or the like has also been used in recent years. Furthermore, recently, I created a virtual space on a computer,
Using the technology of artificial reality that humans work as if they entered the space, we construct a target to be controlled in the virtual space and directly control it to control the target. A method as shown in "Man-machine interface for working in three-dimensional space using artificial reality" (4th Human Interface Symposium Proceedings) has also been proposed. In addition, by linking the robot to the movements of the customer, the customer can experience the operation of the product exhibited in a remote location and the appearance confirmation, and the same feeling of satisfaction as if the customer actually touched the product. A system for providing the above is described in Japanese Patent Laid-Open No. 5-192067.

【0003】[0003]

【発明が解決しようとする課題】上記従来例のうち、対
象を直接制御する方法は、制御対象が複雑なシステムと
なると、システム全体を統括的に制御しにくいという問
題点がある。この問題点を解決するために、対象との間
に制御用の計算機を介し、その計算機に接続された制御
用のスイッチ類や対象の状態表示用の計器等が設置され
た制御盤を用いて、対象の制御を行う方法が考案され
た。しかし、制御対象が大規模なシステムとなると、制
御盤だけでもその占めるスペースが大きくなり、対象を
制御するために広範囲の移動が必要となったり、対象の
制御のために複数の人間が必要になったり、制御対象全
体の状況が分かりにくくなる等の問題があった。そのた
め、制御盤として計算機上のソフトウェアのスイッチを
用いるタッチパネル方式や大画面を用いた情報提示方式
等が考案された。ソフトウェア上のスイッチを用いるこ
とによって制御盤の占めるスペースは小さくなったが、
従来使用してきた制御盤の形態と大きな違いがあるため
に、スイッチや計器の位置や操作方法が感覚的にわかり
にくい、また、ソフトウェアのスイッチではスイッチ類
を操作したという実感が得られない、あるいは、例え
ば、流量を増加させる等といった操作の場合には、実際
の装置を用いて制御する場合はスイッチを制御したい量
だけ回すといったワンアクションの操作ですむが、タッ
チパネルを用いた場合は機器の選択と制御量の入力とい
う2段階の操作となってしまう等の問題点がある。上記
の問題点を解決するために、人工現実感の手法を応用し
た制御盤を作成することを考えた。人工現実感を用いて
対象の制御を行う方法としては上記従来例で示したよう
な方法が従来用いられている。しかし、上記の方法は制
御対象自体を直接制御する方式であり、制御盤を用いた
制御に適用するには不十分である。また、上記公報に記
載された技術は、商品つまり対象自体を直接操作又は確
認する方式であり、対象を仮想化するものでなく、商品
を実物より小さくすることができない。そのため商品の
占めるスペースを縮小化することができない。本発明の
目的は、オペレータと制御対象との間に計算機を介し、
人工現実感の技術を用いた仮想の制御盤を用いて対象の
制御を行う方法を実現すること、及び、仮想の制御盤を
用いる方法と制御対象の仮想モデルを直接操作する方法
を組み合わせた制御方法を実現することにある。
Among the above-mentioned conventional examples, the method of directly controlling an object has a problem that it is difficult to control the entire system when the object to be controlled is a complicated system. In order to solve this problem, a control computer is installed between the target and a control panel connected to the computer and equipped with control switches and instruments for displaying the target status. , A method of controlling an object was devised. However, when the control target is a large-scale system, the space occupied by the control panel alone becomes large, and a wide range of movement is required to control the target, or multiple people are required to control the target. There was a problem that it became difficult to understand the situation of the whole controlled object. Therefore, a touch panel method that uses software switches on a computer as a control panel, an information presentation method that uses a large screen, and the like have been devised. Although the space occupied by the control panel has been reduced by using the switch on the software,
There is a big difference from the form of the control panel used conventionally, so it is difficult to intuitively understand the positions and operating methods of the switches and instruments, and the software switches do not give the feeling of operating the switches, or For example, in the case of an operation such as increasing the flow rate, when controlling using an actual device, one-action operation such as turning the switch by the amount you want to control is required, but when using the touch panel, selecting the device There is a problem that it becomes a two-step operation of inputting the control amount. In order to solve the above problems, we considered creating a control panel that applies the method of artificial reality. As a method of controlling an object using artificial reality, the method shown in the above-mentioned conventional example is conventionally used. However, the above method is a method of directly controlling the controlled object itself, and is insufficient to be applied to control using a control panel. Further, the technique described in the above publication is a method of directly operating or confirming a product, that is, a target itself, does not virtualize the target, and the product cannot be made smaller than the actual product. Therefore, the space occupied by products cannot be reduced. An object of the present invention is to connect a computer between an operator and a controlled object,
Realization of a method of controlling an object using a virtual control panel using the technology of artificial reality, and control that combines a method of using a virtual control panel and a method of directly operating a virtual model of a control object To realize the method.

【0004】[0004]

【課題を解決するための手段】上記目的は、仮想の制御
盤を形成するための手段と、仮想の制御盤の情報より対
象を制御するための信号を作成するための手段と、制御
対象自体の仮想モデルを直接操作して制御信号を作成す
る手段とを設け、仮想の制御盤で対象の制御を行い、ま
た、制御対象自身の仮想モデルで対象の操作を行うこと
によって、達成される。
The above-mentioned object is to provide means for forming a virtual control board, means for producing a signal for controlling an object from information of the virtual control board, and the controlled object itself. And a means for creating a control signal by directly operating the virtual model, controlling the target with the virtual control panel, and operating the target with the virtual model of the control target itself.

【0005】[0005]

【作用】本発明は、制御装置の形状、場所、インタフェ
ース等を装置の使用者の要求に応じて変更したり、広い
スペースを必要とするような大規模な装置の制御装置を
実際には小さなスペース上で同様の操作感覚で実現でき
る、等という作用を有する。
According to the present invention, the shape, location, interface, etc. of the control device can be changed according to the requirements of the user of the device, or a control device for a large-scale device which requires a large space can be made small in practice. It has the effect that it can be realized with the same operation feeling in a space.

【0006】[0006]

【実施例】以下、本発明の実施例を図面を用いて説明す
る。図1〜図35は、本発明を原子力発電プラントの制
御装置に適用した例を示す。図1は、本発明の一実施例
のシステムの基本構成を示す。本システムは、基本的に
入出力インタフェース(1)、仮想制御盤作成装置
(2)、制御情報管理装置(3)、プラント情報抽出装
置(4)、機器操作情報出力装置(5)から構成され
る。ここで、図1に示したシステムは、本発明を実施す
るために必要不可欠なもののみで構成された最も基本的
なシステムである。そこで、本発明を説明するための実
施例として、図2に示すような、ある程度拡張機能を付
けたものを用いる。図2のシステムは、図1のシステム
の構成に加え、制御手段管理装置(6)、制御対象自体
の仮想モデル操作装置(7)、他の運転員との情報通信
装置(8)、ロボット(9)を有する。
Embodiments of the present invention will be described below with reference to the drawings. 1 to 35 show an example in which the present invention is applied to a control device for a nuclear power plant. FIG. 1 shows the basic configuration of a system according to an embodiment of the present invention. This system is basically composed of an input / output interface (1), a virtual control panel creation device (2), a control information management device (3), a plant information extraction device (4), and an equipment operation information output device (5). It Here, the system shown in FIG. 1 is the most basic system composed of only those essential for carrying out the present invention. Therefore, as an embodiment for explaining the present invention, a device having an expansion function as shown in FIG. 2 is used. In addition to the configuration of the system of FIG. 1, the system of FIG. 2 includes a control means management device (6), a virtual model operating device (7) of the controlled object itself, an information communication device (8) with other operators, a robot ( 9).

【0007】以下に各装置を詳細に説明する。まず、入
出力インタフェース(1)について詳細に説明する。入
出力インタフェース(1)の詳細構成を図3に示す。本
システムでは、運転員と制御手段管理装置(6)との入
出力インタフェース(1)として、動作入力装置(1−
1)、情報提供装置(1−2)、操作用実空間縮小装置
(1−3)を有する。以下、これら3つの装置について
詳細に説明する。
Each device will be described in detail below. First, the input / output interface (1) will be described in detail. A detailed configuration of the input / output interface (1) is shown in FIG. In this system, the motion input device (1-) is used as the input / output interface (1) between the operator and the control means management device (6).
1), an information providing device (1-2), and an operation real space reduction device (1-3). Hereinafter, these three devices will be described in detail.

【0008】動作入力装置(1−1)の詳細構成を図4
に示す。本システムでは運転員の動作入力装置(1−
1)として、以下に示すものを用いる。まず、図5に示
すように運転員の頭部、背中上部、右手の甲部、左手の
甲部、右足の甲部、左足の甲部の計6ヶ所に磁気センサ
(1−1−1)を取付ける。磁気センサ(1−1−1)
は図6のような直交コイルからなる。磁気センサ(1−
1−1)とは別に設置してある磁界発生装置(1−1−
2)から発生する磁界によって、磁気センサ(1−1−
1)に発生する電流値の大きさを電流値測定装置(1−
1−3)で測定し、そのデータを基に磁気センサ(1−
1−1)の磁界発生装置(1−1−2)からの相対的な
3次元位置と方向を位置と方向の計算装置(1−1−
4)を用いて計算する(マクダネル.ダグラス、日本パ
テントNo.95474/84)。このセンサを上述の
6ヶ所に取付けることにより、それぞれの場所の3次元
上の位置と方向を検出する。また、運転者の体の図5に
示した場所に、曲げによって光の透過率が減少する光フ
ァイバー(1−1−5)を図7のようにループ上に貼り
付ける。そして、これらの光ファイバー(1−1−5)
に光入力装置(1−1−6)から光を入力し、光ファイ
バー(1−1−5)を通過して出てきた光を出力光測定
装置(1−1−7)で測定する。この時、光ファイバー
(1−1−5)を設置した関節が曲がっていると、入力
光は曲げ角に応じた割合で減衰されて出力される。この
入力光に対する出力光の減衰率を減衰率判定装置(1−
1−8)で測定し、そのデータを用いて、光ファイバー
(1−1−5)を設置した各関節の関節角を関節角計算
装置(1−1−9)で計算する(VPL社パテント)。
さらに、図5に示したように運転員の瞳孔の位置を測定
する装置(1−1−10)や、音声の入力を行う装置
(1−1−11)も取付ける。この装置を用いることに
よって、仮想空間内で運転員が見ているものの同定や音
声による指示、入力、会話等が行える。以上の装置を用
いることによって、システム使用者の姿勢や体の位置や
向き、手や足の位置や手の指の姿勢、運転員の見ている
ものや運転員が話している事を入力することができる。
動作入力装置(1−1)としては、上に示したものの他
にも、体の各関節にストレインゲージを設置し、そのス
トレインゲージの抵抗率の変化から曲げ角を測定する方
法、体の各関節に実際の関節の曲げに連動して動く外骨
格式の装置を設置し、その装置の曲げ角から実際の曲げ
角を測定する方法、筋肉を流れる電流を測定して姿勢を
検出する方法、脳波を直接入力し、それを分析すること
によって全ての動作の入力を行う方法等がある。
FIG. 4 shows the detailed structure of the motion input device (1-1).
Shown in. In this system, the operation input device (1-
The following is used as 1). First, as shown in FIG. 5, magnetic sensors (1-1-1) are attached to the operator's head, upper back, back of the right hand, back of the left hand, back of the right foot, and back of the left foot. . Magnetic sensor (1-1-1)
Consists of orthogonal coils as shown in FIG. Magnetic sensor (1-
Magnetic field generator (1-1-) installed separately from 1-1)
2) The magnetic field generated by the magnetic sensor (1-1-
1) the magnitude of the current value generated in the current value measuring device (1-
1-3), and the magnetic sensor (1-
The relative three-dimensional position and direction from the magnetic field generator (1-1-2) of 1-1) is calculated as a position and direction calculator (1-1-).
4)) (McDonnell Douglas, Japan Patent No. 95474/84). By mounting this sensor at the above-mentioned six locations, the three-dimensional position and direction of each location can be detected. Further, an optical fiber (1-1-5) whose light transmittance is reduced by bending is attached on the loop at the place shown in FIG. 5 of the driver's body as shown in FIG. And these optical fibers (1-1-5)
The light is input from the optical input device (1-1-6) to the optical input device (1-1-6), and the light emitted through the optical fiber (1-1-5) is measured by the output light measuring device (1-1-7). At this time, if the joint in which the optical fiber (1-1-5) is installed is bent, the input light is attenuated and output at a rate according to the bending angle. The attenuation factor determination device (1-
1-8), and using the data, calculate the joint angle of each joint in which the optical fiber (1-1-5) is installed by the joint angle calculator (1-1-9) (VPL patent). .
Further, as shown in FIG. 5, a device (1-1-10) for measuring the position of the operator's pupil and a device (1-1-11) for inputting voice are attached. By using this device, it is possible to identify what the operator is looking at in the virtual space, to give instructions by voice, input, and have a conversation. By using the above devices, input the posture of the system user, the position and orientation of the body, the position of the hands and feet, the posture of the fingers of the hand, what the operator sees and what the operator is talking about. be able to.
As the motion input device (1-1), in addition to the above-described devices, a strain gauge is installed at each joint of the body, and a bending angle is measured from a change in resistivity of the strain gauge. An exoskeleton device that moves according to the actual bending of the joint is installed in the joint, the actual bending angle is measured from the bending angle of the device, the method of detecting the posture by measuring the current flowing through the muscle, the electroencephalogram There is a method of inputting all the motions by directly inputting and analyzing it.

【0009】次に、情報提供装置(1−2)の詳細構成
を図8に示す。本システムでは運転員への情報提供装置
として、以下のようなものを用いる。まず、映像提示装
置(1−2−1)として運転員の頭部に装着し、両眼に
別々の映像を高精細の液晶ディスプレイを用いて表示す
る図9のような装置を用いる。本装置は、後部にバラン
サーが入っており、装着時の違和感をなくすように作ら
れている。また、ディスプレイ装置としては、この他に
プラズマ式ディスプレィ、ブラウン管式ディスプレィ等
を用いることも可能である。また、音声出力装置(1−
2−2)として図9のように映像提示装置にヘッドホン
を組み合わせて用いる。また、接触感の提示を行うため
に、接触感提示装置(1−2−3)を用いる。接触感提
示装置(1−2−3)の詳細構成を図10に示す。本装
置では、制御手段管理装置(6)から運転員の体が仮想
空間上でなんらかの物体に接触しているという情報が出
力された場合に、その情報を接触位置判定装置(1−2
−3−1)に入力し、判定方法のデータベース(1−2
−3−2)を用いることによって、仮想空間上の運転員
と制御対象の座標から物体が運転員の体のどの部分に接
触しているのかを判定する。そして、対応突起制御信号
出力装置(1−2−3−3)より、物体が接触している
と判定された部分の突起に制御信号を出力する。この信
号に応じて、接触感提供用突起(1−2−3−4)が突
出し、運転員に接触感を与える。本装置で用いる接触感
提供用突起(1−2−3−4)の概観を図11に示す。
また、接触感提供時に、突起に冷温感を持たせることに
より、運転員への冷温感の提示を行うこともできる。さ
らに、物体を把持している感覚を与えるために、関節角
制御装置(1−2−4)を用いる。関節角制御装置(1
−2−4)の詳細構成を図12に示す。本装置では、制
御手段管理装置(6)から運転員が仮想空間上でなんら
かの物体を把持しているという情報が出力された場合
に、その情報を接触関節判定装置(1−2−4−1)に
入力し、判定方法のデータベース(1−2−4−2)を
用いることによって、仮想空間上の運転員と制御対象の
座標から物体が運転員の体のどの関節に接触しているの
かを判定する。そして、把持している物体の大きさか
ら、対応する関節の曲げ量をどの程度制限すれば良いか
を関節角制限量計算装置(1−2−4−3)を用いて計
算する。そして、その計算結果に応じて対応する関節の
曲げ角を制限するために、運転員の各関節に図13のよ
うに設置したエアーチューブ(1−2−4−5)にどの
程度空気を送り込むかを、エアーチューブ制御信号計算
装置(1−2−4−4)を用いて計算する。この信号に
応じてエアーチューブ(1−2−4−5)が膨らみ、対
応する関節の曲げ角を制限する。以上に示した装置(1
−2−3)と装置(1−2−4)を用いることによっ
て、仮想空間で物を触っているような感覚を提示した
り、レバー等を掴んでいるような感覚を提示することが
できる。
Next, FIG. 8 shows a detailed configuration of the information providing apparatus (1-2). In this system, the following devices are used as an information providing device for operators. First, as the image presentation device (1-2-1), a device as shown in FIG. 9 is used, which is attached to the head of a driver and displays different images for both eyes using a high-definition liquid crystal display. This device has a balancer in the rear part and is made to eliminate discomfort when worn. Further, as the display device, it is also possible to use a plasma type display, a cathode ray tube type display or the like. In addition, the audio output device (1-
As 2-2), a headphone is used in combination with the video presentation device as shown in FIG. Further, in order to present the touch feeling, the touch feeling presentation device (1-2-3) is used. FIG. 10 shows a detailed configuration of the touch feeling presentation device (1-2-3). In the present device, when the control means management device (6) outputs information that the operator's body is in contact with any object in the virtual space, the information is used as the contact position determination device (1-2.
3-1), and enter the database (1-2
-3-2) is used to determine which part of the operator's body the object is in contact with, based on the coordinates of the operator and the control target in the virtual space. Then, the corresponding projection control signal output device (1-2-3-3) outputs a control signal to the projection of the portion determined to be in contact with the object. In response to this signal, the contact feeling providing protrusion (1-2-3-4) projects to give the operator a contact feeling. FIG. 11 shows an overview of the protrusions (1-2-3-4) for providing a feeling of touch used in this device.
Further, when the contact feeling is provided, it is possible to present the cool feeling to the driver by giving the projection a cool feeling. Further, the joint angle control device (1-2-4) is used in order to give a feeling of grasping an object. Joint angle control device (1
-2-4) shows the detailed configuration of FIG. In this device, when the control means management device (6) outputs information that the operator is gripping some object in the virtual space, the information is used as the contact joint determination device (1-2-4-1). ) And using the determination method database (1-2-4-2), which joint of the operator's body the object is in contact with based on the coordinates of the operator and the controlled object in the virtual space. To judge. Then, how much the bending amount of the corresponding joint should be limited is calculated from the size of the grasped object using the joint angle limiting amount calculation device (1-2-4-3). Then, in order to limit the bending angle of the corresponding joint according to the calculation result, how much air is sent to the air tube (1-2-4-5) installed in each joint of the operator as shown in FIG. Is calculated using an air tube control signal calculation device (1-2-4-4). In response to this signal, the air tube (1-2-4-5) swells and limits the bending angle of the corresponding joint. The device (1
-2-3) and the device (1-2-4), it is possible to present a feeling of touching an object in a virtual space or a feeling of grasping a lever or the like. .

【0010】次に、操作用実空間縮小装置(1−3)の
詳細構成を図14に示す。本装置では、制御手段管理装
置(6)から出力される運転員の移動の方向と移動量の
信号を移動方向判定装置(1−3−1)と移動量判定装
置(1−3−2)に入力する。そして、それらの信号を
基に、方向制御信号出力装置(1−3−3)と位置移動
制御信号出力装置(1−3−4)で仮想空間上の運転員
の動きを実空間上では打ち消すように、運転員が存在す
る実空間の床に図15に示すように設置してあるベルト
コンベア(1−3−5)とモータ(1−3−6)を仮想
空間の運転員の動きとは逆方向に動かす。本装置を用い
ることによって、プラントの操作のために必要な実空間
の広さを小さくすることができる。また、実空間の移動
量を小さくするためには、ここに示した方法の他に、運
転員の各関節の動きに抵抗を加え、実際に動く範囲を縮
小化する、運転員の体を空中で支持して操作を行わせ
る、運転員が椅子に座った状態で移動方向を自由に指示
する、筋電流もしくは脳波を用いることによって実際は
動いていなくとも動いているように感じさせながら操作
を行わせる、等と言った方法を用いることもできる。
Next, FIG. 14 shows a detailed configuration of the operation real space reducing apparatus (1-3). In this device, the signals of the movement direction and the movement amount of the operator outputted from the control means management device (6) are used as the movement direction determination device (1-3-1) and the movement amount determination device (1-3-2). To enter. Then, based on these signals, the direction control signal output device (1-3-3) and the position movement control signal output device (1-3-4) cancel the movement of the operator in the virtual space in the real space. As described above, the belt conveyor (1-3-5) and the motor (1-3-6) installed as shown in FIG. Move in the opposite direction. By using this device, the size of the real space required for operating the plant can be reduced. In addition, in order to reduce the amount of movement in the real space, in addition to the method shown here, resistance is added to the movements of each joint of the operator to reduce the actual movement range. To support the operation by the operator, freely indicate the direction of movement while the operator is sitting in the chair, and use the muscle current or EEG to perform the operation while feeling as if it is moving It is also possible to use a method such as "set".

【0011】次に、制御手段管理装置(6)について詳
細に説明する。制御手段管理装置(6)の詳細構成を図
16に示す。まず、入力方法選択装置(6−1)におい
て、操作の入力方法を選択する。本システムでは操作の
入力方法としては、「仮想の制御盤を用いるもの」、
「制御対象を仮想空間上で直接操作するもの」の2つの
パターンがある。入力方法選択装置(6−1)の詳細構
造を図17に示す。本装置では入力方法選択要求認識装
置(6−1−1)で運転員の通常操作入力の中から入力
方法選択の要求を抽出する。この場合の運転員からの要
求は、音声信号で「入力方法選択」と入力することによ
って行われる。そして、上記の要求をシステムが認識し
た場合は、メニュー表示装置(6−1−2)がデータベ
ース(6−1−3)のデータを用いて入力方法選択の図
18に示すようなメニューを運転員の側の仮想空間上に
出現させる。そして、運転員は音声で希望する入力方式
を読み上げたり、仮想空間上のメニューの該当部分に触
れたり、メニューの希望項目を見ながら音声で「OK」
と入力したりすることによって入力方法の選択を行う。
この選択結果は選択結果判定装置(6−1−4)で判定
され、その情報は、入力情報管理装置(6−2)、提供
情報管理装置(6−3)、実空間縮小用情報管理装置
(6−4)に出力される。そして、入出力インタフェー
ス(1)からの入力信号は、入力情報管理装置(6−
2)に入力され、入力方法選択装置(6−1)の選択結
果に応じて制御対象自体の仮想モデル操作装置(7)と
仮想制御盤作成装置(2)のどちらかに出力される。ま
た、制御対象自体の仮想モデル操作装置(7)と仮想制
御盤作成装置(2)から出力された情報は、その情報の
内容に応じて提供情報管理装置(6−3)と実空間縮小
用情報管理装置(6−4)に入力され、入力方法選択装
置(6−1)の選択結果に応じて、選択された入力方法
からの情報が入出力インタフェース(1)に出力され
る。
Next, the control means management device (6) will be described in detail. FIG. 16 shows the detailed configuration of the control means management device (6). First, in the input method selection device (6-1), an operation input method is selected. In this system, as the operation input method, "using a virtual control panel",
There are two patterns: "a control object is directly operated in a virtual space". FIG. 17 shows the detailed structure of the input method selection device (6-1). In this apparatus, the input method selection request recognition device (6-1-1) extracts the input method selection request from the normal operation input of the operator. The request from the operator in this case is made by inputting "select input method" by a voice signal. When the system recognizes the above request, the menu display device (6-1-2) uses the data in the database (6-1-3) to drive the menu as shown in FIG. 18 for selecting the input method. It appears in the virtual space on the side of the member. Then, the operator reads aloud the desired input method, touches the corresponding part of the menu in the virtual space, and sees the desired item on the menu by voice, "OK".
Input method is selected by inputting.
The selection result is judged by the selection result judgment device (6-1-4), and the information thereof is the input information management device (6-2), the provided information management device (6-3), the real space reduction information management device. It is output to (6-4). The input signal from the input / output interface (1) is input to the input information management device (6-
2) and is output to either the virtual model operating device (7) of the controlled object itself or the virtual control panel creating device (2) according to the selection result of the input method selection device (6-1). In addition, the information output from the virtual model operating device (7) of the controlled object itself and the virtual control panel creating device (2) is used for reducing the real space according to the provided information management device (6-3) according to the content of the information. Information is input to the information management device (6-4), and information from the selected input method is output to the input / output interface (1) according to the selection result of the input method selection device (6-1).

【0012】次に、仮想制御盤作成装置(2)について
詳細に説明する。仮想制御盤作成装置(2)の詳細構成
を図19に示す。仮想制御盤作成装置(2)では、仮想
空間上の制御盤と運転員の座標をそれぞれ仮想制御盤座
標管理装置(2−1)と仮想運転員座標管理装置(2−
2)を用いて管理している。つまり、装置(2−2)で
は仮想空間上の運転員の位置や全ての関節の座標と手や
足等の向きが記録されており、装置(2−1)では仮想
空間上の全ての制御盤の大きさ、位置、向き等や全ての
機器や計器の座標が記録されている。そして、仮想空間
上の運転員の指の座標が機器や計器を動作させるような
動きをした場合には、操作判定装置(2−3)におい
て、その機器や計器が操作されたものと判定し、その情
報を制御情報管理装置(3)と制御手段管理装置(6)
に出力する。その場合の詳細な判定方法を図20のフロ
ーチャートに示す。まず、運転員の手の座標から50c
m(この数値は任意に設定)以内に機器(例えば、スイ
ッチ)が存在するか否かを判定する。運転員の指が機器
に触っていれば、”運転員は機器に触っている”という
情報を出力する。続いて、前回のサンプリング時と機器
の状態が変化しているか否かを判定し、機器、例えばス
イッチが前回のonから今回のoffに変化していれ
ば、運転員の指と機器の座標関係より操作内容を同定す
る。そして、”運転員が機器を操作している”という情
報を出力する。本装置では、運転員が機器を操作したと
いう情報だけではなく、図20に示すように運転員の手
足や体が制御盤や機器や計器に触れているかも同時に判
定する。この情報を用いることによって、入出力インタ
フェース(1)では運転員に接触感を提示することがで
きる。そして、装置(2−1)と装置(2−2)の情報
を基に、仮想制御盤映像作成装置(2−4)を用いて運
転員の視点から見た仮想制御盤のコンピュータグラフィ
ック(CG)映像を作成し、それを制御手段管理装置
(6)に出力する。その時、運転員が過去30分以内に
操作した機器を色を変えて表示する。さらに、運転員の
視点に入る運転員自身の手や体のCG映像や、他の運転
員の作業状況のCG映像を仮想運転員映像作成装置(2
−5)を用いて作成し、装置(2−4)の映像と合成す
る。本装置を用いて作業を行う場合の映像の例を図21
に示す。図21には、原子炉の炉心状態(2−4−
1)、スイッチ(2−4−2)、レバー(2−4−
3)、レバー操作表示灯(2−4−4)、グラフ(2−
4−5)、トレンドグラフ(2−4−6)、運転員の手
(2−5−1)が表示されている。さらに、運転員が後
述の方法で情報を要求した場合には、その情報を運転員
要求情報映像作成装置(2−7)を用いて作成し、運転
員の側の仮想空間上に図22のように表示する。図22
では、運転員はトレンドグラフ(2−7−1)の表示を
要求したことを示す。さらに、本システムでは上述のよ
うに仮想空間上の手を用いて実際に操作を行うような操
作方法以外に、運転員要求入力装置(2−6)を用い
て、音声を用いた操作入力、注視点を用いた操作入力
や、仮想空間の機能変更、運転員が必要な情報の要求等
を行うことも可能である。運転員要求入力装置(2−
6)の詳細構成を図23に示す。本装置では、まず、特
殊入力選択認識装置(2−6−1)を用いることによっ
て、制御手段管理装置(6)から入力される情報のう
ち、通常の操作入力以外の入力(設定変更用メニュー呼
び出し、音声入力、注視点入力、機器操作以外の動作入
力、必要情報要求)が行われたか否かを判定する。具体
的には運転員が「メニュー出して」、「HPCI起動し
て」、「SR弁の情報見たい」等という音声入力や、あ
る機器を見ながら「この情報出して」という注視点入力
と音声入力の組み合わせや、ある機器を指定したあと、
右手の親指のみを立て、それを自分の方に向けることに
より、ある機器を自分の側に移動させるといった動作入
力等がこれにあたる。この時、これらの入力が通常の動
作や会話なのか、特殊入力なのかを判定するために、運
転員の動作や会話の履歴をデータベース(2−6−2)
で管理し、そのデータを分析することによってその判断
を行う。そして、特殊入力の内容が設定変更のメニュー
を出すことである場合には、メニュー表示装置(2−6
−3)を用いて運転員の側の仮想空間上に図24のよう
なメニューを表示する。そして、このメニューに対する
対応も含めた運転員の特殊入力を、音声入力認識装置
(2−6−4)と注視点入力装置(2−6−5)と動作
入力装置(2−6−6)で認識する。そして、運転員の
要求を、場合によっては前述のデータベース(2−6−
2)を利用することによって、入力情報認識装置(2−
6−7)を用いて同定する。そして、その結果が機器の
操作に関するものである場合には操作判定装置(2−
3)に情報を出力し、情報の要求の場合には制御情報管
理装置(3)に情報を出力し、仮想空間の設定変更要求
の場合には、それぞれ仮想運転員位置変更装置(2−
8)、仮想制御盤形状変更装置(2−9)、仮想制御盤
位置変更装置(2−10)へ情報を出力する。仮想運転
員位置変更装置(2−8)では、仮想空間上の運転員の
座標を運転員の要求に応じて瞬時に変更する。移動先の
指定は「主盤の前に移動」、「前方に10メートル移
動」、「当直長の前に移動」というように音声で指定す
る方法、主盤を見ながら「移動」と音声入力して移動す
る、注視点と音声を組み合わせた方法、等がある。この
とき、仮想空間上の運転員は、制御盤や壁等を通り抜け
て移動したり、空中に浮かんだまま静止したりすること
も可能である。仮想制御盤形状変更装置(2−9)で
は、仮想空間上の制御盤や機器の形状、大きさ、色、機
能を変更する。具体的には各機器や計器、及び制御盤の
大きさを実物の約10倍程度のものとしたり、各種のス
イッチ類でレバー式のものは、例えば図25に示すよう
に操作しやすい形状に変更したり、各機器、計器の色も
CGに合わせたものに変更したり、情報提示方法等の各
機能も仮想空間に合わせたものに変更する。そして、各
運転員毎に仮想制御盤のデータを記録することによって
各運転員の好みに応じた制御盤を実現する。この時の機
器、計器の変更方法を図26のフローチャートに示す。
図26において、運転員が機器や計器の形状変更を音声
入力すると、システムから”変更したい機器に触ってく
ださい”との音声出力される。運転員が変更したい機器
に触れると、”大きさ”、”色”、”形状””、機能”
等のメニューが表示され、運転員はこのメニューを選択
して、機器、計器を変更する。仮想制御盤位置変更装置
(2−10)では、仮想空間上の制御盤や機器の位置や
向きを変更したり、一時的に制御盤や機器を仮想空間上
から消去する。変更方法としては、位置変更モードに入
り、実際に仮想空間上で移動させたい物体を持ち、移動
させ、位置変更モードを終了するという方法や、「主盤
を近くに移動して」というように音声で指定する、等と
いう方法がある。
Next, the virtual control panel creation device (2) will be described in detail. FIG. 19 shows the detailed configuration of the virtual control panel creation device (2). In the virtual control panel creation device (2), the coordinates of the control panel and the operator in the virtual space are respectively assigned to the virtual control panel coordinate management device (2-1) and the virtual operator coordinate management device (2-
2) is used for management. That is, the device (2-2) records the position of the operator in the virtual space, the coordinates of all joints, and the directions of the hands, feet, etc., and the device (2-1) controls all the controls in the virtual space. The size, position, orientation, etc. of the panel and the coordinates of all devices and instruments are recorded. Then, when the coordinates of the operator's finger in the virtual space move so as to operate the device or instrument, the operation determination device (2-3) determines that the device or instrument has been operated. , The control information management device (3) and control means management device (6)
Output to. A detailed determination method in that case is shown in the flowchart of FIG. First, 50c from the coordinates of the operator's hand
It is determined whether or not there is a device (for example, a switch) within m (this numerical value is set arbitrarily). If the operator's finger touches the device, the information "the operator is touching the device" is output. Next, it is determined whether or not the state of the device has changed from that at the time of the previous sampling, and if the device, for example, the switch has changed from the previous on to the current off, the coordinate relationship between the operator's finger and the device. Identify the operation details. Then, the information "the operator is operating the device" is output. In this device, not only the information that the operator has operated the device but also the limbs and body of the operator touching the control panel, the device, and the instrument as shown in FIG. 20 are simultaneously determined. By using this information, the input / output interface (1) can present a sense of touch to the operator. Then, based on the information of the device (2-1) and the device (2-2), the computer graphic (CG of the virtual control panel viewed from the operator's point of view by using the virtual control panel image creating device (2-4). ) Create a video and output it to the control means management device (6). At that time, the device operated by the operator within the past 30 minutes is displayed in different colors. Further, a virtual operator image creation device (2) is used to generate a CG image of the operator's own hand or body that enters the operator's viewpoint and a CG image of the work situation of another operator.
-5), and synthesize with the image of the device (2-4). FIG. 21 shows an example of an image when performing work using this device.
Shown in. FIG. 21 shows the reactor core state (2-4-
1), switch (2-4-2), lever (2-4-
3), lever operation indicator light (2-4-4), graph (2-
4-5), the trend graph (2-4-6), and the operator's hand (2-5-1) are displayed. Furthermore, when the operator requests information by the method described below, the information is created using the operator request information image creation device (2-7), and the information is created in the virtual space on the operator's side as shown in FIG. To display. FIG. 22
Then, it indicates that the operator has requested the display of the trend graph (2-7-1). Furthermore, in this system, in addition to the operation method of actually performing an operation using the hand in the virtual space as described above, operation input using voice using the operator request input device (2-6), It is also possible to perform an operation input using the point of gaze, change the function of the virtual space, and request information required by the operator. Operator request input device (2-
The detailed configuration of 6) is shown in FIG. In this device, first, by using the special input selection recognition device (2-6-1), among the information input from the control means management device (6), inputs other than normal operation input (setting change menu) It is determined whether or not a call, a voice input, a gazing point input, a motion input other than device operation, and a required information request) have been performed. Specifically, the operator inputs voices such as "put out a menu", "start HPCI", "I want to see information of SR valve", etc. After specifying the combination of voice input and a certain device,
This is the operation input, such as moving a certain device to your side by raising only your right thumb and pointing it toward yourself. At this time, in order to determine whether these inputs are normal actions or conversations or special inputs, the history of the actions and conversations of the operator is stored in the database (2-6-2).
Management, and make that judgment by analyzing the data. If the content of the special input is to issue a menu for changing the setting, the menu display device (2-6
-3) is used to display a menu as shown in FIG. 24 in the virtual space on the operator's side. Then, the operator's special input including correspondence to this menu is performed by the voice input recognition device (2-6-4), the gazing point input device (2-6-5), and the motion input device (2-6-6). Recognize with. Then, in some cases, the operator's request is sent to the above-mentioned database (2-6-
2), the input information recognition device (2-
6-7) for identification. When the result is related to the operation of the device, the operation determination device (2-
3), information is output to the control information management device (3) in the case of a request for information, and virtual operator position changing device (2-) in the case of a setting change request of the virtual space.
8), information is output to the virtual control panel shape changing device (2-9) and the virtual control panel position changing device (2-10). The virtual operator position changing device (2-8) instantly changes the operator's coordinates in the virtual space in response to the operator's request. The destination is specified by voice such as "Move in front of main board", "Move 10 meters forward", "Move in front of shift manager", voice input "Move" while watching main board Then, there is a method of combining the gazing point and the voice, and so on. At this time, the operator in the virtual space can move through a control panel, a wall, or the like, or can stand still while floating in the air. The virtual control panel shape changing device (2-9) changes the shape, size, color, and function of the control panel and equipment in the virtual space. Specifically, the size of each device, instrument, and control panel should be about 10 times the size of the actual product, and the lever type of various switches should have a shape that is easy to operate, for example, as shown in FIG. The color of each device or instrument is changed to match the CG, and each function such as the information presentation method is changed to match the virtual space. Then, by recording the data of the virtual control panel for each operator, the control panel according to the preference of each operator is realized. FIG. 26 is a flow chart showing the method of changing the equipment and instrument at this time.
In FIG. 26, when the operator voice-inputs a change in the shape of a device or instrument, the system outputs a voice message "Please touch the device you want to change". When the operator touches the equipment to change, "size", "color", "shape", and function "
A menu such as is displayed, and the operator selects this menu to change the equipment and instruments. The virtual control panel position changing device (2-10) changes the position or orientation of the control panel or device in the virtual space, or temporarily erases the control panel or device from the virtual space. As a change method, you can enter the position change mode, hold the object you want to actually move in the virtual space, move it, and end the position change mode, such as "move the main board closer" There is a method such as specifying by voice.

【0013】次に制御情報管理装置(3)について詳細
に説明する。制御情報管理装置(3)の詳細構成を図2
7に示す。本システムでは、仮想制御盤作成装置(2)
より得られる操作情報を操作情報入力装置(3−1)に
入力し、その操作情報をプラント制御情報作成装置(3
−2)を用いてプラント制御信号に変換し、それを機器
操作情報出力装置(5)に出力する。さらに、本装置で
は、運転員要求入力装置(3−3)を用いて仮想制御盤
作成装置(2)から得られる運転員の要求を認識し、そ
の要求を基に運転員要求情報抽出装置(3−4)を用い
てプラント情報抽出装置(4)から求まるプラント情報
のうち、運転員が要求しているものを抽出し、それを仮
想制御盤作成装置(2)に出力する。また、運転員座標
管理装置(3−5)から求まる運転員の仮想空間上の座
標や、運転員要求入力装置(3−3)から求まる運転員
の発話データや、操作情報入力装置(3−1)より求ま
る運転員の操作状況を他の運転員との情報通信装置
(8)を介して他の運転員の使用しているシステムのデ
ータベースに送り、他の運転員の情報を他の運転員との
情報通信装置(8)を介し、他の仮想運転員の座標管理
装置(3−6)、他の運転員の操作状況管理装置(3−
7)、他の運転員の会話入力装置(3−8)を用いて入
力するし、同じ対象を制御している他の運転員の状態を
仮想空間上にCGで表示したり、他の運転員が使用中の
機器を色を変えて表示したり、他の運転員が使用した機
器を色を変えて表示したり、他の運転員と会話を行った
りする。
Next, the control information management device (3) will be described in detail. The detailed configuration of the control information management device (3) is shown in FIG.
7 shows. In this system, a virtual control panel creation device (2)
The operation information thus obtained is input to the operation information input device (3-1), and the operation information is input to the plant control information creation device (3
-2) is used to convert into a plant control signal, which is output to the equipment operation information output device (5). Furthermore, in the present device, the operator request input device (3-3) is used to recognize the operator request obtained from the virtual control panel creation device (2), and the operator request information extraction device ( 3-4), the plant information obtained by the plant information extracting device (4) is extracted from the plant information requested by the operator and is output to the virtual control panel creating device (2). Further, the coordinates of the operator in the virtual space obtained from the operator coordinate management device (3-5), the utterance data of the operator obtained from the operator request input device (3-3), and the operation information input device (3- The operation status of the operator obtained from 1) is sent to the database of the system used by the other operator via the information communication device (8) with the other operator, and the information of the other operator is sent to the other operation. The coordinate management device (3-6) of another virtual operator and the operation status management device (3-) of another operator via the information communication device (8) with the operator.
7) Inputting using the conversation input device (3-8) of another operator, displaying the state of another operator who controls the same target in CG in the virtual space, or another operation The worker changes the color of the device being used, displays the device used by another operator in a different color, and has a conversation with another operator.

【0014】次に、制御対象自体の仮想モデル操作装置
(7)について詳細に説明する。制御対象自体の仮想モ
デル操作装置(7)の詳細構成を図28に示す。本操作
方式では、制御対象自体(バルブや配管等)を仮想空間
上に構築し、それを運転員が仮想空間上で操作(バルブ
を回す、配管を交換する等)すると、実際にプラントの
対応する現場にいるロボットが運転員と同じ動作を行
い、対象の制御を行う。具体的には、仮想運転員座標管
理装置(7−1)と仮想制御対象座標管理装置(7−
2)を用いることによって、仮想空間上の運転員と制御
対象の座標を管理する。そして、仮想空間上の運転員の
手や指等の座標と制御対象の座標を比較することによっ
て対象制御情報作成装置(7−3)を用いて実際にロボ
ットを制御するための情報を作成する。詳細な情報作成
方法のフローチャートを図29に示す。図29におい
て、運転員の体や手足の座標から制御するための制御信
号を作制する。つぎに、機器が運転員の手の座標から5
0cm(任意に設定)以内に存在するか否かを判定す
る。機器が50cm以内に存在すれば、続いて運転員の
指が機器に触っているか否かを判定る。運転員の指が機
器に触っていれば、”運転員は機器に触っている”とい
う情報を出力する。ここでは、制御信号を作成する以外
に、運転員の指が機器を触っているか否かを判定するこ
とによって、運転員に対して接触感を提供することも可
能である。また、仮想運転員映像作成装置(7−4)と
仮想制御対象映像作成装置(7−5)を用いることによ
って、運転員の視点から見た仮想空間の図30に示すよ
うなCG映像を作成し、制御手段管理装置(6)に出力
する。図30には、運転員の手(7−4−1)、バルブ
(7−5−1)、パイプ(7−5−2)、制御ボックス
(7−5−3)、トレンドグラフ(7−5−4)が表示
されている。さらに、本装置では、仮想運転員位置移動
装置(7−6)を用い、運転員の仮想空間上の位置を一
瞬のうちに移動したりする。この時、瞬時に移動できる
のは実際のプラントにロボットがいる場所だけであり、
運転員の位置移動が要求された場合には、その時点で他
の運転員が使用していないロボットがいる場所が候補と
して与えられ、そのうちのどれかを選択することによっ
て瞬間的な移動を行う。また、プラント内の移動を行う
場合、ロボットの移動形態は人間の移動形態と全く同じ
ではないため、人間がその動作で直接ロボットを移動さ
せるのは運転員への負担が大きい。そのため、プラント
内で移動を行う場合には、ロボットの移動形態に合うよ
うな仮想的な乗り物(ロボットがタイヤ移動式ならば仮
想バイク、ロボットが4本足移動ならば仮想の馬、等)
に乗っている感じで移動を行う。そのため、仮想的な乗
り物管理装置(7−7)と仮想的な乗り物座標管理装置
(7−8)を用い、仮想空間上に仮想の乗り物を構築
し、それを用いて仮想空間上に設定されたプラントの中
を移動する。その場合、例えば図31に示す仮想バイク
を用いる場合の移動は、ハンドル(7−7−1)による
移動方向決定やアクセル(7−7−2)によるスピード
調節、その他後進スイッチ(7−7−3)による後進の
指定、等で行う。これらの操作機器、スイッチやプラン
ト全体像の中で今自分がどこにいるかを示すレーダー
(7−7−4)は、図31に示すように仮想バイクのコ
ンソール(7−7−5)上に配置されている。図31の
(7−7−6)はブレーキ、(7−7−7)はスピード
メータを示す。これらの仮想的な乗り物の状況は、仮想
的な乗り物映像作成装置(7−9)を用いることによっ
て、CGで表現され、装置(7−5)で作成された映像
に重ねあわせて表示される。
Next, the virtual model operating device (7) of the controlled object itself will be described in detail. FIG. 28 shows the detailed configuration of the virtual model operating device (7) of the controlled object itself. In this operation method, the control target itself (valves, piping, etc.) is constructed in a virtual space, and when an operator operates it in the virtual space (turns valves, replaces piping, etc.), the plant actually responds. The robot in the field performs the same operation as the operator and controls the target. Specifically, the virtual operator coordinate management device (7-1) and the virtual control target coordinate management device (7-
2) is used to manage the coordinates of the operator and the controlled object in the virtual space. Then, the information for actually controlling the robot is created by using the target control information creation device (7-3) by comparing the coordinates of the operator's hand or finger in the virtual space with the coordinates of the control target. . FIG. 29 shows a flowchart of the detailed information creating method. In FIG. 29, a control signal for controlling from the coordinates of the operator's body and limbs is created. Next, the device is 5 from the coordinates of the operator's hand.
It is determined whether or not it exists within 0 cm (arbitrarily set). If the device is within 50 cm, then it is determined whether the operator's finger is touching the device. If the operator's finger touches the device, the information "the operator is touching the device" is output. Here, in addition to creating the control signal, it is also possible to provide a touch feeling to the operator by determining whether or not the operator's finger touches the device. Further, by using the virtual operator image creating device (7-4) and the virtual control target image creating device (7-5), a CG image as shown in FIG. 30 of the virtual space viewed from the operator's viewpoint is created. And outputs it to the control means management device (6). In FIG. 30, the operator's hand (7-4-1), valve (7-5-1), pipe (7-5-2), control box (7-5-3), trend graph (7-). 5-4) is displayed. Further, the present apparatus uses the virtual operator position moving device (7-6) to move the position of the operator in the virtual space in an instant. At this time, only the place where the robot is in the actual plant can move instantly,
When the position movement of the operator is requested, the location of the robot that is not used by other operators at that time is given as a candidate, and by selecting one of them, the instantaneous movement is performed. . Further, when the robot moves inside the plant, the movement form of the robot is not exactly the same as the movement form of the human, and therefore it is a heavy burden on the operator to directly move the robot by the movement of the human. Therefore, when moving within the plant, a virtual vehicle that fits the movement form of the robot (a virtual motorcycle if the robot is a tire moving type, a virtual horse if the robot moves four legs, etc.)
Move as if you were riding. Therefore, a virtual vehicle is managed in the virtual space by using the virtual vehicle management device (7-7) and the virtual vehicle coordinate management device (7-8), and is set in the virtual space using the virtual vehicle. Move through the plant. In that case, for example, when using the virtual motorcycle shown in FIG. 31, movement is determined by the handle (7-7-1), speed is adjusted by the accelerator (7-7-2), and other reverse switches (7-7-) are used. 3) Specify the reverse drive, etc. These operating devices, switches, and the radar (7-7-4) that shows where you are in the entire plant image are placed on the virtual bike console (7-7-5) as shown in FIG. Has been done. In FIG. 31, (7-7-6) is a brake, and (7-7-7) is a speedometer. The situation of these virtual vehicles is expressed by CG by using the virtual vehicle image creating device (7-9) and is displayed by being superimposed on the image created by the device (7-5). .

【0015】次に、プラント情報抽出装置(4)につい
て詳細に説明する。プラント情報抽出装置(4)の詳細
構成を図32に示す。プラントの現在の状況は、常にプ
ラント情報データベース(4−5)に記録されている。
プラント情報データベース(4−5)の情報としては、
プラントの全ての計測信号と全ての機器の操作状況が記
録される。まず、全ての計測信号は0.1秒毎に計測信
号監視装置(4−1)でサンプリングされ、それらの計
測信号のうち、前回のサンプリング時よりも1%以上の
変化があった計測信号が計測信号抽出装置(4−2)で
抽出され、そのデータのみがプラント情報データベース
において書き換えられ、特に要求の無い限りはそのデー
タのみが制御情報管理装置(3)と制御対象自体の仮想
モデル操作装置(7)に出力される。また、全ての機器
の操作状況は0.1秒毎に操作状況監視装置(4−3)
でサンプリングされ、それらの機器のうち、前回のサン
プリング時に対して新たに操作された機器が操作状況抽
出装置(4−4)で抽出され、そのデータのみがプラン
ト情報データベースにおいて書き換えられ、、特に要求
の無い限りはそのデータのみが制御情報管理装置(3)
と制御対象自体の仮想モデル操作装置(7)に出力され
る。また、プラント映像入力装置(4−6)において、
プラントの各所に設置してあるITVからの映像が入力
され、それが制御情報管理装置(3)に出力される。
Next, the plant information extracting device (4) will be described in detail. FIG. 32 shows the detailed configuration of the plant information extraction device (4). The current status of the plant is always recorded in the plant information database (4-5).
As the information of the plant information database (4-5),
All measurement signals of the plant and operating status of all equipment are recorded. First, all the measurement signals are sampled by the measurement signal monitoring device (4-1) every 0.1 seconds, and among those measurement signals, the measurement signal that has changed by 1% or more from the time of the previous sampling is Only the data extracted by the measurement signal extraction device (4-2) is rewritten in the plant information database. Unless otherwise specified, only the data is the control information management device (3) and the virtual model operation device of the control target itself. It is output to (7). In addition, the operation status of all devices is monitored every 0.1 seconds by the operation status monitoring device (4-3).
The equipment newly sampled by the operation status extraction device (4-4) after being sampled by the operation status extraction device (4-4) is rewritten in the plant information database, and is particularly requested. Unless there is, only that data is control information management device (3)
Is output to the virtual model operating device (7) of the controlled object itself. In the plant image input device (4-6),
Video from ITVs installed at various places in the plant is input and output to the control information management device (3).

【0016】次に、機器操作情報出力装置(5)につい
て詳細に説明する。機器操作情報出力装置(5)の詳細
構成を図33に示す。本装置は、制御情報管理装置
(3)と制御対象自体の仮想モデル操作装置(7)から
出力された対象制御信号を、まず異常作業チェック装置
(5−1)に入力する。異常作業チェック装置の詳細構
成を図34に示す。本装置では、制御情報管理装置
(3)と制御対象自体の仮想モデル操作装置(7)から
出力された対象制御信号が制御信号入力装置(5−1−
1)により入力される。そして、その信号が制御信号チ
ェック装置(5−1−2)でプラント操作方法に関する
データベース(5−1−3)のデータと、プラント情報
抽出装置(4)から得られるプラントの情報を用いて、
現在のプラントの状態に対して行っても良い操作か否か
を判定する。この結果、行うべきではない操作と判定さ
れた場合には、判定した理由と共にその情報を制御情報
管理装置(3)と制御対象自体の仮想モデル操作装置
(7)に戻し、その旨を運転員に表示する。上記の判定
は、プラントの状態を代表的ないくつかのパターンに分
け、それぞれのパターン毎に操作してはいけない機器を
設定しておき、それに該当するか否かをチェックするこ
とによって行う。次に、操作結果予測装置(5−2)で
チェックを行う。操作結果予測装置(5−2)の詳細構
成を図35に示す。本装置では、制御信号入力装置(5
−2−1)で異常作業チェック装置(5−1)の情報を
入力し、その情報とシミュレータ用データベース(5−
2−2)のデータとプラント情報抽出装置(4)から得
られる現在のプラントのデータを用いることによって、
シミュレータ実行装置(5−2−3)で、この制御信号
をプラントに入力した場合にどのような状態になるかの
シミュレーションを瞬時に行う。そして、そのシミュレ
ーション結果を、判定方法のデータベース(5−2−
4)のデータを用いて、シミュレーション結果判定装置
(5−2−5)で判定する。そして、上記の制御信号が
プラントに対して悪影響を与えないと判定された場合に
は、その信号を制御信号判定装置(5−2−6)に出力
し、悪影響を与えると予想されるような場合には、判定
した理由と共にその情報を制御情報管理装置(3)と制
御対象自体の仮想モデル操作装置(7)に戻し、その旨
を運転員に表示する。そして、制御信号判定装置(5−
2−6)では、その制御信号の種類に応じて、制御信号
をプラント制御信号出力装置(5−3)とロボット制御
信号出力装置(5−4)のどちらかに出力する。
Next, the device operation information output device (5) will be described in detail. The detailed configuration of the device operation information output device (5) is shown in FIG. This apparatus first inputs the target control signal output from the control information management apparatus (3) and the virtual model operating apparatus (7) of the controlled object itself to the abnormal work check apparatus (5-1). FIG. 34 shows the detailed configuration of the abnormal work check device. In this device, the target control signal output from the control information management device (3) and the virtual model operating device (7) of the controlled object itself is the control signal input device (5-1-).
Input by 1). Then, the signal is used by the control signal check device (5-1-2) using the data of the database (5-1-3) regarding the plant operation method and the plant information obtained from the plant information extraction device (4),
It is determined whether or not the operation can be performed on the current plant state. As a result, when it is determined that the operation is not to be performed, the information is returned to the control information management device (3) and the virtual model operation device (7) of the control target itself together with the reason for the determination, and the operator is notified to that effect. To display. The above determination is performed by dividing the state of the plant into some typical patterns, setting devices that should not be operated for each pattern, and checking whether or not they correspond. Next, the operation result prediction device (5-2) makes a check. The detailed configuration of the operation result prediction device (5-2) is shown in FIG. In this device, the control signal input device (5
-2-1), input the information of abnormal work check device (5-1), and the information and simulator database (5-
By using the data of 2-2) and the data of the current plant obtained from the plant information extraction device (4),
The simulator execution device (5-2-3) instantaneously simulates what state the control signal will be in when input to the plant. Then, the simulation result is compared with the database of the determination method (5-2
Using the data of 4), the simulation result determination device (5-2-5) determines. When it is determined that the control signal does not adversely affect the plant, the signal is output to the control signal determination device (5-2-6), and it is expected that the control signal will be adversely affected. In this case, the information is returned to the control information management device (3) and the virtual model operating device (7) of the controlled object itself together with the reason for the determination, and the fact is displayed to the operator. Then, the control signal determination device (5-
In 2-6), the control signal is output to either the plant control signal output device (5-3) or the robot control signal output device (5-4) according to the type of the control signal.

【0017】次に、他の運転員との情報通信装置(8)
について詳細に説明する。本装置では、運転員の情報と
して、どの仮想空間にいるか、仮想空間内における位置
と姿勢、操作の状態、会話の状態、運転員の個人情報
(名前、所属等)等を情報ネットワークを用いてやり取
りする。また、このネットワークを用いて、遠隔地から
プラントの制御を行う。
Next, an information communication device (8) with another operator.
Will be described in detail. In this device, as information of the operator, which virtual space, position and posture in the virtual space, operation state, conversation state, personal information (name, affiliation, etc.) of the operator, etc. are used by using an information network. Interact. Moreover, the plant is controlled from a remote place by using this network.

【0018】本発明は、ここで述べたような原子力発電
プラントの制御だけではなく、他の分野にも適用可能で
ある。具体的には、火力発電プラントや水力発電プラン
ト、化学プラント、鉄鋼プラント等といった他の大規模
プラントの制御、また、ロケットや惑星探査機器の制御
等がある。
The present invention is applicable not only to the control of a nuclear power plant as described here, but also to other fields. Specifically, it includes control of other large-scale plants such as a thermal power plant, a hydroelectric power plant, a chemical plant, a steel plant, etc., as well as control of rockets and planetary exploration equipment.

【0019】[0019]

【発明の効果】以上説明したように、本発明によれば、
制御装置の形状、場所、インタフェース等を装置の使用
者の要求に応じて変更したり、小さなスペースでも大き
な制御装置と同様の操作感覚を提供することによって、
装置の使用者にとってより効果的な作業支援や制御装置
の占めるスペースの縮小化等という効果が得られる。
As described above, according to the present invention,
By changing the shape, location, interface, etc. of the control device according to the demands of the user of the device, and providing the same operation feeling as a large control device in a small space,
It is possible to obtain more effective work support for the user of the apparatus and reduction of the space occupied by the control apparatus.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の基本的構成を示す。FIG. 1 shows a basic configuration of an embodiment of the present invention.

【図2】本発明の一実施例の構成を示す。FIG. 2 shows a configuration of an embodiment of the present invention.

【図3】入出力インタフェースの詳細構成を示す。FIG. 3 shows a detailed configuration of an input / output interface.

【図4】動作入力装置の詳細構成を示す。FIG. 4 shows a detailed configuration of a motion input device.

【図5】動作入力装置の設置方法を説明する図である。FIG. 5 is a diagram illustrating a method of installing a motion input device.

【図6】磁気センサの構造を示す。FIG. 6 shows a structure of a magnetic sensor.

【図7】光ファイバーを用いた曲げ角の測定方法を説明
する図である。
FIG. 7 is a diagram illustrating a method of measuring a bending angle using an optical fiber.

【図8】情報提供装置の詳細構成を示す。FIG. 8 shows a detailed configuration of an information providing device.

【図9】映像提示装置の構造を示す。FIG. 9 shows a structure of a video presentation device.

【図10】接触感提示装置の詳細構成を示す。FIG. 10 shows a detailed configuration of a touch feeling presentation device.

【図11】接触感提示装置の構造を示す。FIG. 11 shows a structure of a touch feeling presentation device.

【図12】関節角制限装置の詳細構成を示す。FIG. 12 shows a detailed configuration of a joint angle limiting device.

【図13】関節曲げ角制限装置の構造を示す。FIG. 13 shows a structure of a joint bending angle limiting device.

【図14】操作用実空間縮小装置の詳細構成を示す。FIG. 14 shows a detailed configuration of a real space reducing apparatus for operation.

【図15】操作用実空間縮小装置の構造を示す。FIG. 15 shows a structure of an operation real space reduction device.

【図16】制御手段管理装置の詳細構成を示す。FIG. 16 shows a detailed configuration of a control means management device.

【図17】入力方法選択装置の詳細構成を示す。FIG. 17 shows a detailed configuration of an input method selection device.

【図18】入力方法選択メニューの表示例を示す。FIG. 18 shows a display example of an input method selection menu.

【図19】仮想制御盤作成装置の詳細構成を示す。FIG. 19 shows a detailed configuration of a virtual control panel creation device.

【図20】操作判定方法のフローチャートを示す。FIG. 20 shows a flowchart of an operation determination method.

【図21】仮想制御盤を用いた操作の画面例を示す。FIG. 21 shows a screen example of an operation using a virtual control panel.

【図22】運転員要求情報の表示例を示す。FIG. 22 shows a display example of operator request information.

【図23】運転員要求入力装置の詳細構成を示す。FIG. 23 shows a detailed configuration of an operator request input device.

【図24】設定変更メニューの表示例を示す。FIG. 24 shows a display example of a setting change menu.

【図25】レバー形状の変更例を示す。FIG. 25 shows an example of changing the shape of the lever.

【図26】機器、計器の変更方法のフローチャートを示
す。
FIG. 26 shows a flowchart of a method for changing equipment and instruments.

【図27】制御情報管理装置の詳細構造を示す。FIG. 27 shows a detailed structure of a control information management device.

【図28】制御対象自体の仮想モデル操作装置の詳細構
成を示す。
FIG. 28 shows a detailed configuration of a virtual model operating device of a control target itself.

【図29】対象制御情報作成方法のフローチャートを示
す。
FIG. 29 shows a flowchart of a target control information creation method.

【図30】機器直接操作の画面例を示す。FIG. 30 shows a screen example of a direct device operation.

【図31】仮想バイクの操作パネルを示す。FIG. 31 shows an operation panel of the virtual bike.

【図32】プラント情報抽出装置の詳細構造を示す。FIG. 32 shows a detailed structure of the plant information extraction device.

【図33】機器操作情報出力装置の詳細構成を示す。FIG. 33 shows a detailed configuration of a device operation information output device.

【図34】異常作業チェック装置の詳細構成を示す。FIG. 34 shows a detailed configuration of an abnormal work check device.

【図35】操作結果予測装置の詳細構成を示す。FIG. 35 shows a detailed configuration of the operation result prediction device.

【符号の説明】[Explanation of symbols]

1 入出力インタフェース 2 仮想制御盤作成装置 3 制御情報管理装置 4 プラント情報抽出装置 5 機器操作情報出力装置 6 制御手段管理装置 7 制御対象自体の仮想モデル操作装置 8 他の運転員との情報通信装置 9 ロボット 1 I / O interface 2 Virtual control panel creation device 3 Control information management device 4 Plant information extraction device 5 Equipment operation information output device 6 Control means management device 7 Virtual model operation device of control target itself 8 Information communication device with other operators 9 robots

───────────────────────────────────────────────────── フロントページの続き (72)発明者 石井 一彦 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場 (72)発明者 橋本 茂男 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場 (72)発明者 藤平 一重 茨城県日立市幸町三丁目1番1号 株式会 社日立製作所日立工場内 (72)発明者 臺 俊介 茨城県日立市幸町三丁目1番1号 株式会 社日立製作所日立工場内 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Kazuhiko Ishii 5-2-1 Omika-cho, Hitachi City, Ibaraki Hitachi Ltd. Omika Plant, Ltd. (72) Inventor Shigeo Hashimoto 5-2-1 Omika-cho, Hitachi City, Ibaraki Prefecture No. 1 Omika Plant, Hitachi, Ltd. (72) Inventor, Hitoshi Fujihira 3-1-1, Sachimachi, Hitachi City, Ibaraki Prefecture Hitachi Co., Ltd., Hitachi, Ltd. (72) Shunsuke Tai, Sankocho, Hitachi City, Ibaraki Prefecture No. 1-1 No. 1 Hitachi Ltd. Hitachi factory

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】 入出力インタフェースと、仮想空間提供
装置と、プラント情報抽出装置と、機器操作情報出力装
置からなる制御装置であって、仮想空間提供装置として
仮想の制御盤を作成する仮想制御盤作成装置(第1装
置)及び仮想制御盤の操作信号に基づく制御信号を出力
する制御情報管理装置(第2装置)を有し、仮想の制御
盤で対象の制御を行うことを特徴とする制御装置。
1. A control device comprising an input / output interface, a virtual space providing device, a plant information extracting device, and a device operation information output device, and a virtual control panel for creating a virtual control panel as the virtual space providing device. A control characterized by having a creation device (first device) and a control information management device (second device) that outputs a control signal based on an operation signal of a virtual control panel, and performing control of a target with a virtual control panel. apparatus.
【請求項2】 入出力インタフェースと、仮想空間提供
装置と、プラント情報抽出装置と、機器操作情報出力装
置からなる制御装置であって、仮想空間提供装置とし
て、第1装置、第2装置及び制御対象自身の仮想モデル
を操作することによって制御信号を出力する制御対象自
体の仮想モデル操作装置(第3装置)を有し、仮想の制
御盤で対象の制御を行い、また、制御対象自身の仮想モ
デルで対象の操作を行うことを特徴とする制御装置。
2. A control device comprising an input / output interface, a virtual space providing device, a plant information extracting device, and a device operation information outputting device, wherein the virtual space providing device is a first device, a second device and a control device. It has a virtual model operating device (third device) of the control target itself that outputs a control signal by operating the virtual model of the target itself, and controls the target with a virtual control panel. A control device characterized by performing a target operation on a model.
【請求項3】 請求項2において、第1装置または第3
装置のいずれかを選択し、選択結果に応じて前記各装置
の情報を認識する制御手段管理装置を備えることを特徴
とする制御装置。
3. The first device or the third device according to claim 2.
A control device comprising a control means management device that selects any one of the devices and recognizes information of each device according to a selection result.
【請求項4】 請求項1、請求項2または請求項3にお
いて、第1装置は、仮想空間上に仮想の制御盤を構築す
る手段と、仮想の制御盤の情報を使用者に提供する手段
と、仮想の制御盤を操作するための手段を有することを
特徴とする制御装置。
4. The first device according to claim 1, claim 2, or claim 3, wherein the first device constructs a virtual control panel in a virtual space, and means for providing information of the virtual control panel to a user. And a control device having means for operating a virtual control panel.
【請求項5】 請求項1、請求項2または請求項3にお
いて、第2装置は、仮想の制御盤の操作情報を入力する
手段と、操作情報を基に対象を制御するための制御信号
を作成し、対象の制御信号を出力する手段と、対象の情
報を入力する手段と、入力された情報から仮想の制御盤
に表示するための表示情報を出力する手段を有すること
を特徴とする制御装置。
5. The apparatus according to claim 1, 2 or 3, wherein the second device includes means for inputting operation information of the virtual control panel, and a control signal for controlling an object based on the operation information. Control having a means for creating and outputting a control signal of a target, a means for inputting target information, and a means for outputting display information to be displayed on a virtual control panel from the input information apparatus.
【請求項6】 請求項1、請求項2または請求項3にお
いて、第2装置は、複数の使用者がそれぞれの仮想的な
空間を用いて同一の対象の制御を行っていることを認識
する手段と、ある使用者が操作中の機器を他の使用者が
操作しようとすると、その機器が現在使用中であること
を表示するための手段を有することを特徴とする制御装
置。
6. The apparatus according to claim 1, claim 2 or claim 3, wherein the second device recognizes that a plurality of users control the same target using respective virtual spaces. A control device comprising means and means for displaying that the device is currently in use when another user tries to operate the device being operated by one user.
【請求項7】 請求項1、請求項2または請求項3にお
いて、第2装置は、制御対象を同時に使用している他の
使用者の様子を仮想的な空間上に表示するための手段を
有することを特徴とする制御装置。
7. The device according to claim 1, 2, or 3, wherein the second device has means for displaying a state of another user who is simultaneously using the control target in a virtual space. A control device having.
【請求項8】 請求項1、請求項2または請求項3にお
いて、第2装置は、制御対象を同時に使用している他の
使用者との会話を行うための手段を有することを特徴と
する制御装置。
8. The device according to claim 1, 2, or 3, wherein the second device has means for having a conversation with another user who is using the controlled object at the same time. Control device.
【請求項9】 請求項2または請求項3において、第3
装置は、仮想空間上に制御対象自身の仮想モデルと仮想
使用者を構築する手段と、前記仮想モデルと仮想使用者
の情報を使用者に提供する手段と、仮想使用者によって
前記仮想モデルを操作するための手段を備えることを特
徴とする制御装置。
9. The method according to claim 2 or claim 3,
The apparatus comprises means for constructing a virtual model of the controlled object itself and a virtual user in a virtual space, means for providing the virtual model and information of the virtual user to the user, and operation of the virtual model by the virtual user. A control device comprising means for performing.
【請求項10】 請求項9において、第3装置に、仮想
空間上に仮想的な乗り物を構築する手段を設け、使用者
が仮想的な空間内を仮想的な乗り物に乗って自由に動き
回り、対象を直接操作することを特徴とする制御装置。
10. The device according to claim 9, wherein the third device is provided with means for constructing a virtual vehicle in the virtual space, and the user freely moves around in the virtual space while riding on the virtual vehicle. A control device characterized by directly operating an object.
【請求項11】 請求項1、請求項2または請求項3に
おいて、第1装置もしくは第3装置が提供する仮想的な
空間内の仮想の物体の全部もしくは一部の大きさ、形
状、色、機能を変更するための手段を有することを特徴
とする制御装置。
11. The size, shape, color of all or part of a virtual object in a virtual space provided by the first device or the third device according to claim 1, claim 2, or claim 3. A control device having means for changing a function.
【請求項12】 請求項1、請求項2または請求項3に
おいて、第1装置もしくは第3装置が提供する仮想的な
空間内の操作盤、操作機器、計器等を仮想空間上で移動
するための手段を有することを特徴とする制御装置。
12. The moving panel, operating device, instrument, etc. in the virtual space provided by the first device or the third device according to claim 1, 2 or 3 for moving in the virtual space. A control device comprising:
【請求項13】 請求項1、請求項2または請求項3に
おいて、第1装置もしくは第3装置が提供する仮想的な
空間内の操作盤、操作機器、計器等の向きを仮想空間上
で変更するための手段を有することを特徴とする制御装
置。
13. The method according to claim 1, 2, or 3, wherein the orientation of an operation panel, an operating device, an instrument, etc. in a virtual space provided by the first device or the third device is changed in the virtual space. A control device comprising means for performing.
【請求項14】 請求項1、請求項2または請求項3に
おいて、第1装置もしくは第3装置が提供する仮想的な
空間内の操作盤、操作機器、計器等の表示を仮想空間上
から消去するための手段を有することを特徴とする制御
装置。
14. The display according to claim 1, 2 or 3, wherein the display of the operation panel, operation device, instrument, etc. in the virtual space provided by the first device or the third device is erased from the virtual space. A control device comprising means for performing.
【請求項15】 請求項1、請求項2または請求項3に
おいて、使用者の要求を入力する手段と、その要求に応
じて必要な情報を第1装置もしくは第3装置が提供する
仮想的な空間上に表示するための手段を有することを特
徴とする制御装置。
15. The virtual device according to claim 1, claim 2 or claim 3, wherein the first device or the third device provides a means for inputting a user's request and necessary information according to the request. A control device having means for displaying in space.
【請求項16】 請求項1、請求項2または請求項3に
おいて、制御対象の実空間の映像を入力する手段と、そ
の映像を第1装置もしくは第3装置が提供する仮想的な
空間上に表示するための手段を有することを特徴とする
制御装置。
16. The means for inputting an image of a real space to be controlled and the image on a virtual space provided by the first device or the third device according to claim 1, claim 2, or claim 3. A control device having means for displaying.
【請求項17】 請求項1、請求項2または請求項3に
おいて、第1装置もしくは第3装置が提供する仮想的な
空間上に仮想使用者が操作した機器や計器の大きさ、形
状、色等を変えて表示するための手段を有することを特
徴とする制御装置。
17. The size, shape, and color of a device or instrument operated by a virtual user in a virtual space provided by the first device or the third device according to claim 1, claim 2, or claim 3. A control device having means for changing the display and the like.
【請求項18】 請求項1、請求項2または請求項3に
おいて、入出力インタフェースは、使用者の動作を入力
する手段を有し、該手段として、体の各関節の回転軸の
主な回転方向の外側の円周上に曲げによって光が減衰す
るような光ケーブルをその関節上で往復するように設置
し、関節を曲げた時に光ケーブルの復路側から出てきた
光の、往路側から入力した光に対する減衰率より曲げ角
を測定する手段、体の各関節にストレインゲージを設置
し、そのストレンゲージの抵抗率の変化から曲げ角を測
定する手段、体の各関節に実際の関節の曲げに連動して
動く外骨格式の手段を設置し、その手段の曲げ角から実
際の関節の曲げ角を測定する手段、体の各所に磁気セン
サを設置し、そのセンサの情報から体の各所の位置と方
向を検出する手段、体の関節を動かす各筋肉を流れる筋
電流を測定することによって関節の曲げ角を推定する手
段、使用者の脳波を分析することによって体の姿勢を推
定する手段、使用者の瞳孔の位置を測定する手段、使用
者の音声を入力する手段、のうち少なくとも1つ以上を
用いることを特徴とする制御装置。
18. The input / output interface according to claim 1, wherein the input / output interface has means for inputting a motion of a user, and as the means, main rotation of a rotation axis of each joint of the body is performed. An optical cable that attenuates light by bending on the outer circumference of the direction was installed so as to reciprocate on the joint, and the light emitted from the return side of the optical cable when the joint was bent was input from the outward side. A means to measure the bending angle from the attenuation rate against light, a strain gauge is installed at each joint of the body, a means to measure the bending angle from the change in the resistivity of the strain gauge, and to the actual bending of each joint of the body An exoskeleton type means that moves in conjunction is installed, a means for measuring the actual bending angle of the joint from the bending angle of that means, magnetic sensors are installed in various parts of the body, and the position of each part of the body is determined from the information of the sensor. Means for detecting direction, A means to estimate the bending angle of the joint by measuring the muscle current flowing through each muscle that moves the joints of the body, a means to estimate the posture of the body by analyzing the electroencephalogram of the user, and the position of the pupil of the user At least one of the means for inputting and the means for inputting the voice of the user is used.
【請求項19】 請求項1、請求項2または請求項3に
おいて、入出力インタフェースは、使用者に対して情報
を提供する手段を有し、該手段として、使用者の視野を
覆うように設置された画像提示手段、使用者の両目に別
々にその視野を覆うように設置された画像提示手段、音
声出力手段、体の各関節の動きを制限する手段、体の皮
膚に接触感を与える手段、体の皮膚に温感と冷感を与え
る手段、のうち少なくとも1つ以上を用いることを特徴
とする制御装置。
19. The input / output interface according to claim 1, claim 2 or claim 3, wherein the input / output interface has means for providing information to the user, and is installed as the means so as to cover the field of view of the user. Image presenting means, image presenting means installed so as to separately cover the visual fields of both eyes of the user, audio output means, means for limiting the movement of each joint of the body, means for giving a feeling of contact to the skin of the body A control device characterized by using at least one or more of means for giving a warm feeling and a cold feeling to the skin of the body.
【請求項20】 請求項1、請求項2または請求項3に
おいて、入出力インタフェースは、制御用の実空間の広
さを小さくするための手段を有し、該手段として、仮想
空間の使用者の移動量を打ち消すように、使用者が実際
に移動した方向と逆方向に床を移動させる手段、使用者
の各関節の動きに抵抗を加え、実際に動く範囲を縮小化
する手段、使用者の体を空中で支持する手段、使用者が
椅子に座った状態で移動方向を自由に指示する手段、筋
肉を流れる電流や脳波を用いることによって実際には動
いていなくとも動いているように感じさせながら操作を
行わせる手段、のうち少なくとも1つ以上を用いること
を特徴とする制御装置。
20. The input / output interface according to claim 1, 2, or 3, wherein the input / output interface has means for reducing the size of the real space for control, and the user of the virtual space serves as the means. The means to move the floor in the direction opposite to the direction in which the user actually moved so as to cancel the amount of movement of the user, the means to add resistance to the movement of each joint of the user, and to reduce the actual movement range, the user To support the body in the air, to indicate the direction of movement while the user is sitting in a chair, and to feel as if they are actually moving by using electric currents and brain waves flowing through muscles A control device characterized by using at least one or more of means for performing an operation while operating.
【請求項21】 請求項1、請求項2または請求項3に
おいて、機器操作情報出力装置は、制御対象の現在の情
報を用いて、制御対象を操作してよいか否かを判定する
手段と、操作すべきでないと判明したした場合には、そ
の操作を拒否する手段と、その旨を表示するための手段
を有することを特徴とする制御装置。
21. The device operation information output device according to claim 1, wherein the device operation information output device uses the current information of the control target to determine whether or not the control target can be operated. A control device comprising means for rejecting the operation when it is determined that the operation should not be performed, and means for displaying that effect.
【請求項22】 請求項1、請求項2または請求項3に
おいて、機器操作情報出力装置は、ある操作を行うこと
によって現在制御中の制御対象が将来どうなるかをシミ
ュレートする手段と、その結果制御対象に悪影響を及ぼ
す操作だと判明した場合には、その操作を拒否する手段
と、その旨を表示するための手段を有することを特徴と
する制御装置。
22. The device operation information output device according to claim 1, claim 2 or claim 3, and means for simulating what will happen to the controlled object currently under control by performing a certain operation, and the result thereof. A control device comprising means for rejecting an operation when it is determined that the operation adversely affects the controlled object, and means for displaying that effect.
【請求項23】 請求項1、請求項2または請求項3に
おいて、プラント情報抽出装置は、制御対象の情報を抽
出する時に、前回の抽出時と比較して変化があった情報
のみを抽出する手段を有することを特徴とする制御装
置。
23. The plant information extracting device according to claim 1, claim 2, or claim 3, when extracting information of a control target, extracts only information that has changed as compared with the time of the previous extraction. A control device comprising means.
【請求項24】 請求項1、請求項2または請求項3に
おいて、遠隔地より制御対象の制御を行うための装置を
備えることを特徴とする制御装置。
24. The control device according to claim 1, 2 or 3, further comprising a device for controlling a controlled object from a remote place.
JP5340542A 1993-12-08 1993-12-08 Controller Pending JPH07160310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5340542A JPH07160310A (en) 1993-12-08 1993-12-08 Controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5340542A JPH07160310A (en) 1993-12-08 1993-12-08 Controller

Publications (1)

Publication Number Publication Date
JPH07160310A true JPH07160310A (en) 1995-06-23

Family

ID=18337984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5340542A Pending JPH07160310A (en) 1993-12-08 1993-12-08 Controller

Country Status (1)

Country Link
JP (1) JPH07160310A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184584A (en) * 1997-12-19 1999-07-09 Nippon Telegr & Teleph Corp <Ntt> Virtual reality terminal
JP2013506516A (en) * 2009-10-05 2013-02-28 キーラー・リミテッド Improvement of ophthalmic equipment and improvement on ophthalmic equipment
JP2014009963A (en) * 2012-06-27 2014-01-20 Saginomiya Seisakusho Inc Test device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184584A (en) * 1997-12-19 1999-07-09 Nippon Telegr & Teleph Corp <Ntt> Virtual reality terminal
JP2013506516A (en) * 2009-10-05 2013-02-28 キーラー・リミテッド Improvement of ophthalmic equipment and improvement on ophthalmic equipment
US9517010B2 (en) 2009-10-05 2016-12-13 Keelner Limited Ophthalmic instruments
JP2014009963A (en) * 2012-06-27 2014-01-20 Saginomiya Seisakusho Inc Test device

Similar Documents

Publication Publication Date Title
Boman International survey: Virtual-environment research
Dani et al. Creation of concept shape designs via a virtual reality interface
Gobbetti Virtual reality: past, present and future
US5590268A (en) System and method for evaluating a workspace represented by a three-dimensional model
Zheng et al. Virtual reality
Brooks Jr et al. Research directions in virtual environments
Jacob et al. Interaction styles and input/output devices
Jacoby et al. Using virtual menus in a virtual environment
CA2675999C (en) System and method for the interactive display of data in a motion capture environment
Kok et al. A multimodal virtual reality interface for 3D interaction with VTK
JP3391648B2 (en) Equipment operability evaluation support device
Bowman Principles for the design of performance-oriented interaction techniques
EP0743589B1 (en) Interactive image generation method and apparatus
CN112527112B (en) Visual man-machine interaction method for multichannel immersion type flow field
Balaguer et al. Virtual environments
Kahaner Japanese activities in virtual reality
Akahane et al. Two-handed multi-finger string-based haptic interface SPIDAR-8
JP4109745B2 (en) Object moving arrangement apparatus and method in three-dimensional space display system
JPH07160310A (en) Controller
Dani et al. COVIRDS: a conceptual virtual design system
JPH11328243A (en) Plant design support system
Thalmann et al. Virtual reality software and technology
JP3310086B2 (en) Work environment evaluation device and work environment evaluation method
Burdea et al. Virtual reality graphics simulation with force feedback
Chen A virtual environment system for the comparative study of dome and hmd