JPH0688373A - Sewage disposing facility group managing system - Google Patents
Sewage disposing facility group managing systemInfo
- Publication number
- JPH0688373A JPH0688373A JP4240360A JP24036092A JPH0688373A JP H0688373 A JPH0688373 A JP H0688373A JP 4240360 A JP4240360 A JP 4240360A JP 24036092 A JP24036092 A JP 24036092A JP H0688373 A JPH0688373 A JP H0688373A
- Authority
- JP
- Japan
- Prior art keywords
- information
- processing
- image
- plant
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02W—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
- Y02W10/00—Technologies for wastewater treatment
- Y02W10/10—Biological treatment of water, waste water, or sewage
Landscapes
- Sewage (AREA)
- Activated Sludge Processes (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、遠隔地に分散する複数
のポンプ場や処理場から得られる映像情報を含むプロセ
ス情報を統合的に管理し、これらの施設に運転操作情報
を適切に出力する下水処理施設群の遠隔管理システムに
関する。The present invention integrally manages process information including video information obtained from a plurality of pumping stations and processing plants dispersed in remote areas, and outputs driving operation information to these facilities appropriately. It relates to a remote management system for sewage treatment facilities.
【0002】[0002]
【従来の技術】下水道は、1つの処理場に対して複数の
中継ポンプ場(以下、単にポンプ場と称す)を構成単位
とする処理区域を設定し、経営管理している。大都市で
はこのような処理区域を複数管轄して下水道事業を進め
ている。このような大規模な下水道システムを安全に運
転し、各施設を効率的に運用するには関連する情報を有
効に利用でき、かつ、適切なマンマシンを持った運転監
視システムが不可欠である。プラントはオペレータの監
視,判断,操作の3つの作業により運転管理されてい
る。運転監視システムはオペレータの作業を効率的に行
えるようなマンマシンを備えておく必要がある。このた
めには、(1)広域に分散している各種プラント情報を
統合的に利用し、プラント状態を迅速にかつ正確に把握
できる監視と、(2)診断材料や根拠となる情報を素早
く参照してオペレータを支援できる判断と、(3)オペ
レータが正確かつ迅速に実行でき、さらに操作対象や操
作結果が直感的に分かる操作、を可能とするマンマシン
環境が必要である。2. Description of the Related Art In sewerage, a treatment area having a plurality of relay pump stations (hereinafter simply referred to as pump stations) as constituent units is set for one treatment station and is managed. In large cities, sewerage projects are being carried out under the jurisdiction of multiple such treatment areas. In order to safely operate such a large-scale sewer system and operate each facility efficiently, an operation monitoring system that can effectively use relevant information and has an appropriate man-machine is indispensable. The plant is operated and managed by the three tasks of operator monitoring, judgment, and operation. The operation monitoring system needs to be equipped with man-machines that can efficiently perform the work of the operator. For this purpose, (1) integrated use of various plant information distributed over a wide area to monitor the plant status quickly and accurately, and (2) quick reference to diagnostic materials and underlying information Therefore, a man-machine environment is required that enables the operator to make a decision and (3) the operator can perform the operation accurately and quickly and can intuitively understand the operation target and the operation result.
【0003】従来の運転監視システムは、水温や流量,
水質などを検知する各種センサーからのデータと、プラ
ント各所に配置されたテレビカメラからの映像やマイク
からの音声を用いてプラントが監視されている。各種セ
ンサーからのデータはグラフィックディスプレイなどに
様々な形態で表示される。トレンドグラフやバーグラ
フ,相関特性グラフが多く利用され、また、直接数値で
表示する場合もある。一方、カメラ映像は、グラフィッ
クディスプレイとは別な専用のモニターに、カメラで捉
えた映像を直接静止画像あるいは動画像として表示され
ることが多い。プラント内には、数台から数十台のテレ
ビカメラを設置しているのが一般的で、オペレータはカ
メラを切り換えたり、カメラの方向やレンズを選択しな
がらプラントの各所を監視している。音声もまた、マイ
クの切り換え操作し、スピーカから流れる現場音で各種
の設備機器を監視している。The conventional operation monitoring system is
The plant is monitored using data from various sensors that detect water quality and the like, as well as images from TV cameras and voices from microphones arranged in various parts of the plant. Data from various sensors are displayed in various forms on a graphic display or the like. Trend graphs, bar graphs, and correlation characteristic graphs are often used, and they may be displayed directly as numerical values. On the other hand, the camera image is often displayed as a still image or a moving image directly on the image captured by the camera on a dedicated monitor different from the graphic display. Generally, several to several tens of television cameras are installed in the plant, and the operator monitors the various parts of the plant while switching the cameras and selecting the camera direction and the lens. With regard to voice, the operation of switching microphones is also monitored, and various equipment is monitored by the on-site sound played from the speaker.
【0004】これらのプラント情報はプラントデータ,
映像情報,音声情報毎に管理され、表示画面を変更しな
がら各々の管理情報を個別にアクセスして、あるいは複
数の表示装置を用いてプラント状態を診断し、異常を判
断している。この診断結果に基づいて、オペレータが操
作盤上のボタンやレバーを操作する、あるいはグラフィ
ックディスプレイとタッチパネルやマウスなどのポイン
ティングディバイスと組合わせて、画面上のメニューや
図形を選択操作してプラントを管理している。 《引例文献:下水道協会誌Vol.29 No.340 PP
18−23(1992−2)》These plant information are plant data,
It is managed for each video information and audio information, each management information is individually accessed while changing the display screen, or the plant state is diagnosed by using a plurality of display devices to judge the abnormality. Based on this diagnosis result, the operator operates the buttons and levers on the operation panel, or combines the graphic display with a pointing device such as a touch panel or mouse to select the menus and figures on the screen to manage the plant. is doing. << Reference: Sewer Association Vol. 29 No. 340 PP
18-23 (1992-2) >>
【0005】[0005]
【発明が解決しようとする課題】上述の従来技術には下
記の問題があった。The above-mentioned prior art has the following problems.
【0006】(1)映像や音声は現場状況を再現してい
るもので、異常状態を監視,診断するにはオペレータが
連続的に観察する必要が有り、負担が大きい。言い換え
れば、現状のカメラ映像や音声情報の利用頻度が低い。(1) The video and audio reproduce the situation at the site, and it is necessary for the operator to continuously observe in order to monitor and diagnose the abnormal state, which is a heavy burden. In other words, the current frequency of using camera images and audio information is low.
【0007】(2)映像や音声情報から異常状態を監
視,診断するにはエキスパートが必要で、今後高齢化,
人口減少の社会的傾向において上記判断をできるオペレ
ータの確保が困難となる。(2) Experts are needed to monitor and diagnose abnormal conditions from video and audio information, and the aging of the future
It becomes difficult to secure an operator who can make the above judgment in the social tendency of population decrease.
【0008】(3)各種情報を参照する画面、及び操作
するための画面、または装置とが別になっており、複数
情報を同時に、同一場所で相互参照して監視,判断,操
作を行うことができず、また、全体の装置も大きくな
る。(3) A screen for referring to various kinds of information and a screen for operating or a device are separate from each other, and it is possible to monitor, judge and operate by simultaneously referencing a plurality of information at the same place. This is not possible, and the entire device becomes large.
【0009】(4)処理区域内のプラント状態、及び処
理区域の監視手順が分からない。また、監視するには順
序立てて手順を実行する必要が有り、多大な時間を要
す。(4) The plant condition in the treatment area and the procedure for monitoring the treatment area are unknown. Further, it is necessary to execute the procedure in order to monitor, and it takes a lot of time.
【0010】(5)異常時の対策は、その現場まで行っ
て行わなければならず、種々のデータを対策時に参照す
ることができず、適切な対応ができない。(5) Countermeasures against abnormalities must be taken to the site, and various data cannot be referred to during countermeasures, and appropriate measures cannot be taken.
【0011】本発明は上記従来技術の問題点に対処した
もので、その目的とするところは処理区域あるいは複数
の処理区域を統合的に管理し、各プラント及び設備機器
を効率的に運用する下水処理施設群管理システムを提供
することにある。The present invention addresses the above-mentioned problems of the prior art. The purpose of the present invention is to manage the treatment area or a plurality of treatment areas in an integrated manner and efficiently operate each plant and equipment. To provide a processing facility group management system.
【0012】[0012]
【課題を解決するための手段】本発明は上記目的を達成
するために、処理区域及び管理区域内に縦横に張りめぐ
された管渠と、区域内で互いに分散設置されている複数
のポンプ場と、それらのポンプ場からの流入下水を処理
する終末処理場などの処理施設から各種計測データ,映
像及び音響情報を得るための伝送手段と、処理区域及び
管理区域全体の処理施設配置とその流れ表示図、処理施
設の設備配置と流れ表示図を管理画面上で選択する手段
と、処理施設の設備配置と流れ表示図が表示されている
画面上の特定のオブジェクトを選択する手段と、選択さ
れたオブジェクトに関連する計測データ,映像を同一の
画面上に表示する手段並びに音響情報を近接する音響機
器に出力する手段と、グラフィックスと合成された映像
表示画面上のオブジェクトを選択する手段と、指定され
たオブジェクトに定義されている所定の処理を実行する
手段と、実行された処理結果を画面上に表示する手段
と、画面上のオブジェクト選択に基づいて処理施設の設
備を直接操作する手段を具備することを基本とする。In order to achieve the above-mentioned object, the present invention aims to achieve the above-mentioned object. In the treatment area and the management area, pipes stretched vertically and horizontally, and a plurality of pump stations distributed in the area. And the transmission means for obtaining various measurement data, video and audio information from the treatment facilities such as terminal treatment plants that treat the inflowing sewage from those pump stations, and the arrangement and flow of the treatment facilities in the entire treatment area and management area. A means for selecting the display diagram, the equipment layout of the processing facility and the flow display chart on the management screen, and a means for selecting a specific object on the screen where the equipment layout of the processing facility and the flow display chart are displayed. The measurement data related to the object, the means for displaying the image on the same screen, the means for outputting the acoustic information to the nearby audio equipment, and the object on the image display screen combined with the graphics. Object, a means for executing a predetermined process defined for the specified object, a means for displaying the executed process result on the screen, and a process facility based on the object selection on the screen. It is basically equipped with means for directly operating the equipment.
【0013】処理実行手段は、映像情報を画像処理して
定められた監視を行う手段と、音響情報を波形解析して
設備診断する手段と、さらに気象情報や、地形及び土質
データに基づく処理区域あるいは管理区域の降雨量や降
雨分布、管渠への流入状態を予測する手段と、この予測
結果や計測データ、画像処理情報を利用して処理施設の
運転シミュレーションを実行する手段と、各種設備や機
器類の保守計画をサポートする手段と、プラントの運転
や計測器の異常診断を支援する手段、及びこれらの処理
実行手段の状況を画面上に表示する手段、画面表示結果
を参照して処理施設の設備や機器を遠隔操作する手段か
ら構成される。The processing execution means includes means for performing predetermined monitoring by performing image processing on video information, means for performing equipment diagnosis by waveform analysis of acoustic information, and processing areas based on weather information, topographical and soil data. Alternatively, a means for predicting rainfall amount, rainfall distribution, inflow condition into the pipe in the management area, means for executing operation simulation of the processing facility using the prediction result, measurement data, and image processing information, various equipment, Means for supporting maintenance plans for equipment, means for supporting plant operation and diagnostics for measuring instruments, means for displaying the status of these processing execution means on the screen, and processing facilities referring to the screen display results It is composed of means for remote control of the equipment and devices.
【0014】[0014]
【作用】処理施設の配置とその流れ、及び特定施設の設
備配置と流れ図を選択する手段、オブジェクトを選択す
る手段、選択したオブジェクトを操作する手段は同一の
画面上で実行でき、複数情報を同時に同一場所で利用で
き、オペレータに負担を低減することができる。選択手
段は、マウスでピックするのみで、手順を追うことなく
誰もが簡単に監視操作を実行できる。[Operation] Arrangement of processing facilities and its flow, and means for selecting equipment arrangement and flow charts for specific facilities, means for selecting objects, and means for operating selected objects can be executed on the same screen, and multiple pieces of information can be simultaneously recorded. It can be used in the same place and the burden on the operator can be reduced. Anyone can easily carry out the monitoring operation simply by picking with a mouse as the selecting means, without following the procedure.
【0015】画面上には監視操作の対象なるカメラ映像
が直接映しだされており、また、近傍の音響機器から同
時に集音された音響が出力され、これらの映像と音響を
反映した操作を行うことができ、オペレータは実際に現
場にいるような臨場感を持った感覚で遠隔操作でき、そ
の操作結果もリアルタイムで把握できる。このように、
カメラ映像及び音響信号は、直接利用することができる
が、さらに画像処理手段や音響波形解析手段で情報処理
することにより、正確な監視とプラント設備や機器の診
断を確実に行うことができる。例えば、画像処理情報は
従来センサでは計測困難な浮遊物状態や微生物状態,破
損個所などの設備状態を正確に監視することができる。
また、グラフィック用に用意したオブジェクトの位置,
形状,大きさなどのデータと画像処理情報を照合し、現
在のカメラ位置,方向,角度を調節することができる。
この調節により、グラフィックスのオブジェクトと映像
中のオブジェクトが一致し、画面上からの直接操作の誤
動作を無くし、高精度で、信頼性の高い遠隔監視操作を
可能とする。音響波形の処理情報は、レベル分けした周
波数範囲の信号強度を解析することにより、人間では検
知できない僅かな変化も把握でき、設備機器の異常を早
期に検出でき、迅速な対策支援を行うことができるとと
もに予防保全の効果もある。映像や音響から直接プラン
ト状態や設備機器の診断を行うには経験豊かなオペレー
タが要求されるが、これらの画像処理情報や音響処理情
報を用いることにより熟練オペレータに匹敵する監視診
断が行える。A camera image to be monitored is directly displayed on the screen, and the sound collected at the same time is output from a nearby audio device, and an operation reflecting the image and the sound is performed. The operator can perform remote operation with the sensation of being in a real-life situation, and can also grasp the operation result in real time. in this way,
The camera image and the acoustic signal can be directly used, but by further processing the information by the image processing means and the acoustic waveform analysis means, accurate monitoring and diagnosis of plant equipment and equipment can be surely performed. For example, the image processing information can accurately monitor the state of equipment such as the state of suspended solids, the state of microorganisms, and the damaged portion, which are difficult to measure with conventional sensors.
Also, the position of the object prepared for the graphic,
The current camera position, direction, and angle can be adjusted by collating data such as shape and size with image processing information.
By this adjustment, the graphic object and the object in the image match, the malfunction of the direct operation on the screen is eliminated, and the remote monitoring operation with high accuracy and reliability is enabled. By analyzing the signal strength in the frequency range divided into levels, the processing information of the acoustic waveform can detect even slight changes that cannot be detected by humans, can detect abnormalities in equipment and equipment early, and can provide quick countermeasure support. It is possible and has the effect of preventive maintenance. An experienced operator is required to directly diagnose the plant condition and equipment from video and audio, but by using these image processing information and audio processing information, monitoring diagnosis comparable to a skilled operator can be performed.
【0016】さらに、気象情報や、地形,土質などの地
理情報を用いて区域全体の降雨分布を予測し、その情報
と各管渠情報に基づいた正確な流入量による処理施設の
運転シミュレーションを実行することができる。シミュ
レーション結果を映像と同一画面に表示することによ
り、シミュレーション結果を見ながら設備機器を操作す
ることができ、運転操作の間違いを防止することができ
る。Furthermore, the rainfall distribution of the entire area is predicted by using the weather information, geographical information such as topography and soil quality, and the operation simulation of the treatment facility is executed by the accurate inflow based on the information and each pipe information. can do. By displaying the simulation result on the same screen as the video, it is possible to operate the equipment while watching the simulation result and prevent mistakes in driving operation.
【0017】[0017]
【実施例】本発明の一実施例を、以下図面を用いて詳細
に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail below with reference to the drawings.
【0018】図1は、本実施例の全体構成を示すもの
で、10は家庭やビル及び工場から排出される下水を一
時集水して排出する複数のポンプ場10A〜10Nから
なるポンプ場群で、20はポンプ場群10からの排出下
水あるいは家庭等から直接流入した下水を処理する複数
の終末処理場20A〜20Nからなる処理場群、30は
家庭等とポンプ場群10、ポンプ場群10と処理場群2
0、あるいは家庭等と処理場群20を結ぶ複数の管渠3
0A〜30Nからなる管渠群、50はグラフィックスや
映像を表示する表示手段となるディスプレイ、52はデ
ィスプレイ50の入力手段であるポインティングデバイ
ス(PD)の1種であるマウス、54は音響を出力する
ためのスピーカ、60はオペレータが施設やプラントの
監視及び運転操作を行うためのマンマシンを提供するマ
ンマシンサーバ、65は複数の映像信号及び複数の音響
信号から1つの映像信号及び音響信号を選択するための
スイッチャ、70はスイッチャ65で選択された映像信
号や音響信号をマンマシンサーバ60からの指令に基づ
いて処理を行うための信号処理装置、80は管理区域の
地図情報を格納するディジタルマップベース、82は施
設やプラントの監視及び運転操作を行うための知識を格
納する知識ベース、84は各種プラントに設置された各
種センサの時系列情報や解析処理された情報を格納する
プラントデータベース、86は信号処理装置70で得ら
れた映像処理情報やその解析処理された情報を格納する
映像情報データベース、88は信号処理装置70で得ら
れた音響処理情報やその解析処理された情報を格納する
音響情報データベース、90はプラント内の機器制御,
センサ情報の収集や処理,プラントの運転状態を解析・
診断するための計算機、92はシステム外の施設やプラ
ントと相互に情報を送受信する通信インターフェイス、
94は計算機90とマンマシンサーバ60、各種データ
ベースやインターフェイス、及びその他の端末や計算機
類、さらに制御対象である各種機器や各種センサとを接
続する光ファイバなどで構築されたローカルエリアネッ
トワーク(以下LANと称す)、である。FIG. 1 shows the overall construction of this embodiment. 10 is a pump station group consisting of a plurality of pump stations 10A to 10N for temporarily collecting and discharging sewage discharged from homes, buildings and factories. 20 is a treatment plant group consisting of a plurality of terminal treatment plants 20A to 20N for treating the sewage discharged from the pumping plant group 10 or the sewage that has flowed in directly from a household, 30 is a household and the pumping plant group 10, and a pumping plant group 10 and treatment plant group 2
0 or a plurality of pipes 3 connecting homes and the like to the treatment plant group 20
A group of pipes consisting of 0A to 30N, 50 is a display which is a display means for displaying graphics and images, 52 is a mouse which is one type of pointing device (PD) which is an input means of the display 50, and 54 is a sound output A speaker for performing the operation, 60 is a man-machine server that provides a man-machine for the operator to monitor and operate facilities and plants, and 65 is a video signal and an audio signal from a plurality of video signals and audio signals. A switcher for selection, 70 is a signal processing device for processing the video signal or audio signal selected by the switcher 65 based on a command from the man-machine server 60, and 80 is a digital device for storing map information of the management area. Map base, 82 is a knowledge base that stores knowledge for monitoring and operating facilities and plants Reference numeral 84 is a plant database that stores time-series information of various sensors installed in various plants and analysis processed information, and 86 is a video that stores video processing information obtained by the signal processing device 70 and analysis processed information thereof. An information database, 88 is an acoustic information database that stores acoustic processing information obtained by the signal processing device 70 and information obtained by analysis processing thereof, 90 is equipment control in the plant,
Collection and processing of sensor information, analysis of plant operating status
A computer for diagnosis, 92 is a communication interface for exchanging information with facilities and plants outside the system,
Reference numeral 94 denotes a local area network (hereinafter LAN) constructed by an optical fiber connecting the computer 90 and the man-machine server 60, various databases and interfaces, other terminals and computers, and various devices and various sensors to be controlled. It is called).
【0019】下水道は、1つの終末処理場に対して複数
のポンプ場を構成単位とする処理区域を設定し、経営管
理している。さらに、処理区域毎あるいは複数の処理区
域毎に汚泥処理プラントを設置している。大都市ではこ
のような処理区域を複数管轄した管理区域を統合して下
水道事業を進めている。図1ではポンプ場群10,処理
場群20、及び管渠群30を図示している。ポンプ場群
10の各種ポンプ場10A〜10N、例えばポンプ場1
0Aは流入管渠101,沈砂池102,ポンプ103の
施設が有り、ゲート弁110,スクリーン111,排出
ポンプ112が設置されている。121,122,13
0はポンプ場の各所に置かれ被制御物あるいは監視対象
となる被写体を撮像し、入力するための産業用テレビカ
メラ(以下単にカメラと呼ぶ)、131,132,140は
計算機90からの指令に従って、それぞれのカメラ12
1,122,130の向きやレンズを制御するためのコ
ントローラ、141,142,150はそれぞれカメラ
121,122,130に取り付けられたマイク、16
0,162,164はポンプ場10A各部の状態を知る
ための水位計や流量計,臭気濃度計などの各種センサ、
170,172,174は操作量検出機構を持ち、計算
機90の指令に従ってポンプ場10A内の各機器11
0,111,112を制御する調節装置である。調節装
置170,172,174で検出された現在の操作量、
例えばゲート弁110の弁開度、スクリーン111の移
送速度,排出ポンプ112の回転数や稼働台数、あるい
は電圧や電流量などは各種センサデータと共にプラント
情報としてプラントデータベース84に入力される。1
80はカメラ121,122,130の映像信号、マイ
ク141,142,150の音響信号、や各種プラント
センサ160,162,164のデータの送信、及びコ
ントローラ131,132,140や調節装置170,
172,174の制御信号を受信する通信インターフェ
イスである。ポンプ場10B〜10Nもポンプ場10A
と同様の施設及び機器構成でそれぞれ通信インターフェ
イス180B〜180Nを介して入力信号や出力信号が
送受信される。The sewer system is managed by setting a treatment area having a plurality of pump stations as constituent units for one terminal treatment plant. Furthermore, sludge treatment plants are installed in each treatment area or in each of a plurality of treatment areas. In large cities, the sewerage business is being promoted by integrating the management areas that have jurisdiction over such treatment areas. In FIG. 1, a pumping station group 10, a processing plant group 20, and a pipe group 30 are illustrated. Various pump stations 10A to 10N of the pump station group 10, for example, the pump station 1
OA has facilities of an inflow pipe 101, a sand basin 102, and a pump 103, and a gate valve 110, a screen 111, and a discharge pump 112 are installed. 121, 122, 13
0 is an industrial television camera (hereinafter simply referred to as a camera) that is placed at various places in the pumping station to image and input a controlled object or a subject to be monitored, and 131, 132, and 140 are in accordance with instructions from the computer 90. , Each camera 12
1, 122 and 130 are controllers for controlling the orientations and lenses, 141, 142 and 150 are microphones attached to the cameras 121, 122 and 130, and 16
0, 162, 164 are various sensors such as a water level meter, a flow meter, and an odor concentration meter for knowing the state of each part of the pump station 10A,
170, 172, 174 have an operation amount detection mechanism, and each device 11 in the pumping station 10A according to a command from the computer 90.
It is an adjusting device for controlling 0, 111, 112. The current operation amount detected by the adjusting devices 170, 172, 174,
For example, the valve opening degree of the gate valve 110, the transfer speed of the screen 111, the rotation speed and operating number of the discharge pump 112, the voltage and current amount, and the like are input to the plant database 84 as plant information together with various sensor data. 1
Reference numeral 80 denotes transmission of video signals of the cameras 121, 122, 130, acoustic signals of the microphones 141, 142, 150, data of various plant sensors 160, 162, 164, and controllers 131, 132, 140 and adjustment devices 170,
A communication interface for receiving control signals 172 and 174. Pump stations 10B-10N are also pump stations 10A
Input signals and output signals are transmitted and received via the communication interfaces 180B to 180N in the same facility and device configuration as described above.
【0020】処理場群20の終末処理場20A〜20
N、例えば処理場20Aは最初沈殿池201,生物反応
槽202,最終沈殿池203などの施設が有り、汚泥引
き抜きポンプ210,ブロワ211,返送ポンプ212
が設置されている。221,222,230は処理場の
各所に置かれ被制御物あるいは監視対象となる被写体を
撮像し、入力するためのカメラ、231,232,24
0は計算機90からの指令に従って、それぞれのカメラ
221,222,230の向きやレンズを制御するため
のコントローラ、241,242,250はそれぞれカ
メラ221,222,230に取り付けられたマイク、
260,261,262,263,264,265,2
66は終末処理場20Aの水質状態を知るための水温
計,pH計,溶存酸素濃度計,酸化還元電位計,各種イ
オン濃度計,各種溶解性物質濃度計,各種浮遊性物質濃
度計、及び流量計や臭気濃度計などの各種センサ、27
0,272,274は操作量検出機構を持ち、計算機9
0の指令に従って処理場20A内の各機器210,21
1,212を制御する調節装置である。調節装置27
0,272,274で検出された現在の操作量、例えば
汚泥引き抜きポンプ210の移送量や稼働台数、ブロワ
211の送風量,回転数や稼働台数,返送ポンプ212
の移送量や稼働台数、あるいはこれらの機器の電圧や電
流量などは各種センサデータと共にプラント情報として
プラントデータベース84に入力される。290は微生
物などの浮遊性物質を観察できる顕微鏡の機能を持った
水中カメラ、292は水中カメラ290の照明強度やレ
ンズ、観察対象液交換機構を制御するためのコントロー
ラ、280はカメラ221,222,230,290映像
信号、マイク241,242,250の音響信号、や各
種プラントセンサー260,261,262,263,
264,265,266及び調節装置270,272,2
74で検出されたデータの送信、並びにコントローラ2
31,232240,292や調節装置270,27
2,274の制御信号を受信する通信インターフェイス
である。処理場20B〜20Nも処理場20Aと同様の
施設及び機器構成でそれぞれ通信インターフェイス28
0B〜280Nを介して入力信号や出力信号が送受信さ
れる。Terminal treatment plants 20A to 20 of the treatment plant group 20
N, for example, the treatment plant 20A has facilities such as a first settling tank 201, a biological reaction tank 202, a final settling tank 203, a sludge drawing pump 210, a blower 211, and a return pump 212.
Is installed. Reference numerals 221, 222, and 230 denote cameras, 231, 232, and 24, which are placed at various places in the processing plant to image and input a controlled object or a subject to be monitored.
0 is a controller for controlling the orientations and lenses of the cameras 221, 222, 230 according to the command from the computer 90, 241, 242, 250 are microphones attached to the cameras 221, 222, 230, respectively.
260,261,262,263,264,265,2
Reference numeral 66 is a water thermometer, a pH meter, a dissolved oxygen concentration meter, a redox potentiometer, various ion concentration meters, various soluble substance concentration meters, various floating substance concentration meters, and a flow rate for knowing the water quality condition of the terminal treatment plant 20A. Various sensors such as meter and odor concentration meter, 27
0, 272, 274 have a manipulated variable detection mechanism,
According to the command of 0, each equipment 210, 21 in the processing plant 20A
It is an adjusting device for controlling 1, 212. Adjusting device 27
0, 272, 274, the current operation amount, for example, the transfer amount and operating number of the sludge extraction pump 210, the air flow rate of the blower 211, the rotation number and operating number, the return pump 212.
The transfer amount, the number of operating units, or the voltage or current amount of these devices are input to the plant database 84 as plant information together with various sensor data. 290 is an underwater camera having a microscope function for observing floating substances such as microorganisms, 292 is a controller for controlling the illumination intensity and lens of the underwater camera 290, and an observation target liquid exchange mechanism, 280 is cameras 221, 222, 230,290 video signals, acoustic signals of microphones 241,242,250, and various plant sensors 260,261,262,263,
264, 265, 266 and adjusting devices 270, 272, 2
Transmission of data detected by 74, and controller 2
31, 232240, 292 and adjusting devices 270, 27
It is a communication interface that receives 2,274 control signals. Each of the treatment plants 20B to 20N has the same facility and equipment configuration as the treatment plant 20A and has a communication interface 28.
Input signals and output signals are transmitted and received via 0B to 280N.
【0021】管渠群30の管渠30A〜30Nは管渠の
合流点、マンホール、観察調査指定個所、あるいは管渠
を利用して設置されたLAN用ケーブルの観測調査指定
個所などが監視対象となる。321,322は管渠30
Aに配置され、被制御物あるいは監視対象となる被写体
を撮像し、入力するためのカメラ、331,332は計
算機90からの指令に従って、それぞれのカメラ32
1,322の向きやレンズを制御するためのコントロー
ラ、341,342はそれぞれカメラ321,322に
取り付けられたマイク、362,364は管渠30Aの
状態を把握するための水位計や臭気濃度計などのセンサ
で、センサデータはプラント情報としてプラントデータ
ベース84に入力される。94′は管渠30Aを通って
いるLAN用などのケーブル、94″はケーブル同士の接
続や信号増幅器を内蔵した中間接続器である。380は
カメラ321,322の映像信号、マイク341,342
の音響信号、やセンサ362,364のデータの送信、
並びにコントローラ331、332の制御信号を受信す
る通信インターフェイスである。管渠30B〜30Nも管渠
30Aと同様の施設及び機器構成でそれぞれ通信インタ
ーフェイス380B〜380Nを介して入力信号や出力信号
が送受信される。The conduits 30A to 30N of the conduit group 30 are to be monitored at the confluence of the conduits, manholes, designated points for observation and survey, or designated points for observation and survey of LAN cables installed using the conduit. Become. 321 and 322 are pipes 30
Cameras 331 and 332 arranged at A for imaging and inputting a controlled object or a subject to be monitored, and cameras 331 and 332 in accordance with instructions from the computer 90.
1, 322 are controllers for controlling the directions and lenses, 341, 342 are microphones attached to the cameras 321, 322, and 362, 364 are water level meters and odor concentration meters for grasping the state of the culvert 30A. Sensor data is input to the plant database 84 as plant information. Reference numeral 94 'is a cable for LAN or the like that passes through the conduit 30A, and 94 "is an intermediate connector that connects the cables and has a built-in signal amplifier. Reference numeral 380 is a video signal of the cameras 321, 322 and microphones 341, 342.
Of the acoustic signal of, and the data of the sensors 362 and 364,
And a communication interface for receiving control signals of the controllers 331 and 332. The pipes 30B to 30N also have the same facility and device configuration as the pipe 30A, and input and output signals are transmitted and received through the communication interfaces 380B to 380N, respectively.
【0022】PDの1種であるマウス52でディスプレ
イ50上の任意の位置をピック(釦を押す)すると、押
された位置座標がマンマシンサーバ60に報告される。
マウス52の操作は、1回ピックする,2回ピック
する,ドラッグするの3種類を用いることができる。
2回ピックは同じ釦を連続に2回、あるいは複数の釦が
あるマウス52である場合は左右の釦を押す。ドラッグ
は釦を押したままマウス52を移動することを意味す
る。このマウス52の操作状況もマンマシンサーバ60
に報告される。これにより、オペレータはディスプレイ
50上に表示された内容を指で触る感覚で指定すること
ができる。本実施例では、PDとしてマウスを用いた
が、他のディバイス、例えば感圧タッチパネル,タブレ
ット,ライトペン,アイトラッカ,ジェスチャ入力装
置,キ−ボ−ドを用いても良い。When an arbitrary position on the display 50 is picked (the button is pressed) with the mouse 52, which is one type of PD, the pressed position coordinates are reported to the man-machine server 60.
The mouse 52 can be operated in three types: one pick, two picks, and a drag.
To pick twice, press the same button twice in succession, or if the mouse 52 has multiple buttons, press the left and right buttons. Drag means to move the mouse 52 while pressing the button. The operation status of the mouse 52 is also the man-machine server 60.
To be reported to. As a result, the operator can specify the content displayed on the display 50 with the feeling of touching with a finger. Although the mouse is used as the PD in this embodiment, other devices such as a pressure sensitive touch panel, a tablet, a light pen, an eye tracker, a gesture input device, and a keyboard may be used.
【0023】カメラ121,122,130,221,
222,230,290,321,322からの複数映
像は、スイッチャ65で1つに選択され、マンマシンサ
ーバ60を介してディスプレイ50上に表示される。マ
ンマシンサーバ60はRS232Cなどの通信ポートを介して
スイッチャ65を制御し、所望のカメラからの映像を選
択する。本実施例では、映像を選択すると同時に、マイ
ク141,142,150,241,242,250,
341,342からの音響信号も選択される。なお、カ
メラ290の映像が選択された場合、音響信号は選択さ
れない。選択された音響信号はスピーカ54から出力さ
れる。このように、カメラを選択すると、それに付随す
るマイクの音響信号が自動的に切り替わるが、カメラと
マイクの選択を独立に行うこともできる。マンマシンサ
ーバ60はカメラの映像にグラフィックスを合成するこ
とができる。また、マンマシンサーバ60はLAN94
を介して計算機90に操作指令を送り、コントローラ1
31,132,140,231,232,240,29
2,331,332からカメラの向きやレンズの制御,
カメラ290の照明強度やレンズ,観察対象液交換機構
の制御を指定する。The cameras 121, 122, 130, 221,
A plurality of videos from 222, 230, 290, 321, 322 are selected as one by the switcher 65 and displayed on the display 50 via the man-machine server 60. The man-machine server 60 controls the switcher 65 via a communication port such as RS232C to select a video from a desired camera. In this embodiment, at the same time as selecting an image, the microphones 141, 142, 150, 241, 242, 250,
Acoustic signals from 341 and 342 are also selected. When the image of the camera 290 is selected, the audio signal is not selected. The selected acoustic signal is output from the speaker 54. In this way, when the camera is selected, the acoustic signal of the microphone accompanying it is automatically switched, but the camera and the microphone can be selected independently. The man-machine server 60 can combine graphics with the image of the camera. Further, the man-machine server 60 is a LAN 94
An operation command is sent to the computer 90 via the controller 1
31, 132, 140, 231, 232, 240, 29
2,331,332 to control camera direction and lens,
The illumination intensity of the camera 290, the lens, and the control of the observation target liquid exchange mechanism are designated.
【0024】さらに、マンマシンサーバ60はオペレー
タの指令に従って、スイッチャ65で選択された映像や
音響信号を信号処理装置70に入力して画像処理や波形
処理を実行させる。また、マンマシンサーバ60は、計
算機90を介してセンサ160,162,164,26
0,261,262,263,264,265,26
6,362,364からのデータ入力、映像情報データ
ベース86や音響情報データベース88へ信号処理装置
70からの画像情報や波形情報を入力したり、ディジタ
ルマップベース80,知識ベース82,プラントデータ
ベース86,映像情報データベース86や音響情報デー
タベース88に記憶された情報及び通信インターフェイ
ス92からの外部情報を参照してプラント運転状態の解
析・診断を実行させたり、調節装置170,172,1
74,270,272,274などを遠隔操作する。マ
ンマシンサーバ60は調節装置に操作指令を送ることに
よって、プラント内の各種機器の動作や機能を制御す
る。Further, the man-machine server 60 inputs the video and audio signals selected by the switcher 65 to the signal processing device 70 in accordance with a command from the operator to execute image processing and waveform processing. Further, the man-machine server 60 uses the computer 90 to detect the sensors 160, 162, 164, 26.
0,261,262,263,264,265,26
6, 362, 364, image information database 86 and acoustic information database 88, image information and waveform information from the signal processing device 70, digital map base 80, knowledge base 82, plant database 86, video By referring to the information stored in the information database 86 or the acoustic information database 88 and the external information from the communication interface 92, the analysis / diagnosis of the plant operating state is executed, and the adjusting devices 170, 172, 1
Remotely operate 74, 270, 272, 274 and the like. The man-machine server 60 controls the operations and functions of various devices in the plant by sending operation commands to the adjusting device.
【0025】図2を用いて、マンマシンサーバ60の構
成と機能を説明する。図2において、601はCPU、
602は主記憶装置、603は補助記憶装置、604は
マウス52,スイッチャ65,スピーカ54,信号処理
装置70などを接続するためのI/O、605は信号処
理装置70で生成された画像データを格納する2値画像
フレームバッファ、606はCPU601で生成された
表示データを格納するグラフィックス用フレームバッフ
ァ、607は入力されたアナログの映像情報をディジタ
ル化するA/D変換器、608はA/D変換器607の
出力であるディジタル化された映像情報を記憶するビデ
オ用フレームバッファ、610はディジタルマップベー
ス80から呼びこまれた地図情報の一部を格納する地図
情報用フレームバッファ、611は通信インターフェイ
ス92を介して獲得された気象情報や河川情報に基づい
て管理区域の降雨分布及び河川水位や浸水あるいは洪水
の状況や予測結果をグラフィックス化した表示データを
格納する管理区域用フレームバッファ、612は2値画
像フレームバッファ605,グラフィックス用フレーム
バッファ606,ビデオ用フレームバッファ608,地
図情報用フレームバッファ610,管理区域用フレーム
バッファ611の内容を合成してディスプレイ50に表
示するブレンド回路である。The configuration and function of the man-machine server 60 will be described with reference to FIG. In FIG. 2, 601 is a CPU,
Reference numeral 602 is a main storage device, 603 is an auxiliary storage device, 604 is I / O for connecting the mouse 52, the switcher 65, the speaker 54, the signal processing device 70, and the like, and 605 is image data generated by the signal processing device 70. A binary image frame buffer to be stored, 606 is a graphics frame buffer for storing display data generated by the CPU 601, 607 is an A / D converter for digitizing the input analog video information, and 608 is an A / D A video frame buffer for storing the digitized video information output from the converter 607, 610 for a map information frame buffer for storing a part of the map information called from the digital map base 80, and 611 for a communication interface. Rainfall in the controlled area based on weather information and river information obtained through 92 A frame buffer for a management area for storing display data which is a graphic representation of the situation of cloth and river water level, inundation or flood and prediction results, 612 is a binary image frame buffer 605, a graphics frame buffer 606, and a video frame buffer 608. , A blend circuit for combining the contents of the map information frame buffer 610 and the management area frame buffer 611 and displaying them on the display 50.
【0026】カメラから入力した映像情報はマンマシン
サーバ60で生成したグラフィックスと合成した後、デ
ィスプレイ50に表示する。また、ディスプレイ50に
はグラフィックス同士を重ねて表示することができる。
2値画像フレームバッファ605,グラフィックス用フ
レームバッファ606,地図情報用フレームバッファ6
10、及び管理区域用フレームバッファ611には、類
似する物体や同一結果毎、あるいはディスプレイ50上
の各画素に対応するR,G,B各色のデータを持つ。さ
らに、ビデオ用フレームバッファ608内の映像情報と
各種グラフィック表示データとの合成方法を指定する表
示指定値aを各フレームバッファ605〜611に持た
せ、合成の仕方をディスプレイ50の各画素毎に指定す
る。ブレンド回路612は、基本となるフレームバッフ
ァ内の1つの画素の色情報gと、合成あるいは重ね表示
されるフレームバッファのgに対応する色情報vとを合
成した結果の色情報dをディスプレイ50の各画素に与
え、表示する。Video information input from the camera is displayed on the display 50 after being combined with the graphics generated by the man-machine server 60. Further, the display 50 can display graphics on top of each other.
Binary image frame buffer 605, graphics frame buffer 606, map information frame buffer 6
10 and the management area frame buffer 611 have data for each similar object or each same result, or R, G, B colors corresponding to each pixel on the display 50. Further, each frame buffer 605 to 611 is provided with a display designation value a for designating a method of synthesizing the video information in the video frame buffer 608 and various graphic display data, and a method of synthesizing is designated for each pixel of the display 50. To do. The blending circuit 612 combines the color information d of one pixel in the basic frame buffer and the color information v corresponding to g of the frame buffer to be combined or overlaid with each other to obtain color information d of the display 50. It is given to each pixel and displayed.
【0027】d=f(g,v,a) 各フレームバッファはダブルバッファ構成にし、ディス
プレイ50に表示するバッファを随時選択できる。ディ
スプレイ50に表示されているバッファを表バッファ、
表示されていないバッファを裏バッファとし、表バッフ
ァと裏バッファの切り替えは瞬時にできる。また、裏バ
ッファにグラフィックスを描画し、描画が終了した時点
で裏バッファを表バッファに切り替えることにより描画
時のチラツキを少なくできる。これらのバッファの内容
をCPU601から随時読み書きできる。D = f (g, v, a) Each frame buffer has a double buffer structure, and the buffer displayed on the display 50 can be selected at any time. The buffer displayed on the display 50 is a table buffer,
The buffer that is not displayed is the back buffer, and you can instantly switch between the front and back buffers. Further, it is possible to reduce flicker during drawing by drawing graphics in the back buffer and switching the back buffer to the front buffer when the drawing is completed. The contents of these buffers can be read and written from the CPU 601 at any time.
【0028】図3にディスプレイ50の表示画面構成の
一例を示す。図3において、500はディスプレイ50
の表示画面、501はシステム全体に関するコマンドを
指定するためのメニュー領域、502は管理区域全体、
及び処理区域の全体や各部分の構成図,構造図,設計図
面などをグラフィックス用フレームバッファ606の内
容を表示する図面表示領域、503は2値画像フレーム
バッファ605,ビデオ用フレームバッファ608,地
図情報用フレームバッファ610、及び管理区域用フレ
ームバッファ611の内容を表示する処理画面表示領
域、504はセンサからのデータ,プラントに関する様
々な資料やデータ、及び管理区域や処理区域に関する様
々な資料やデータを表示するデータ表示領域、505は
メニュー領域501のコマンド指定,図面表示領域50
2のオブジェクト指定,処理画面表示領域503のオブ
ジェクト指定、及びデータ表示領域504の表示データ
指定に対するオペレータへのガイダンスを表示するガイ
ダンス情報表示領域である。図4〜図8は図面表示領域
502の表示形態の一例である。図4において、401
は図面表示メニュー、A,B,C,Dは終末処理場、
E,Dは汚泥処理場、英字に添字はポンプ場、R1及び
2は河川で、402及び402′はオペレータが指定し
た画面上のオブジェクトである。オブジェクト指定は終
末処理場,汚泥処理場,ポンプ場,河川を直接指定でき
るが、図面表示メニュー400でも指定できる。図面表
示メニュー400で区域指定402を選択すると各終末
処理場の領域が点滅あるいは色変化し、施設指定403
を選択すると各施設の領域が点滅あるいは色変化して選
択指定を待つ。なお、現在表示されている画面が一目で
分かり、次回の選択ミスを防ぐために現メニュー401
を識別し、さらに、区域指定402を選定した場合、そ
の処理区域全体を点滅あるいは色変化させても良い。現
在の表示画面である管轄全体401をポインティングし
て選択ミスした場合は、警報音あるいはガイダンス情報
表示領域505にその旨を表示することができる。図5
は、図4で区域指定402並びに終末処理場Aを選択し
た結果を示す。管轄内の終末処理場Aが受け持っている
処理区域の拡大図が表示される。図面表示メニュー41
0で施設指定413を選択すると各施設の領域が点滅あ
るいは色変化して選択指定を待つ。現在の表示画面であ
る区域指定412が色変化しており、管轄全体411を
選択すると図4の画面に戻る。この画面内の施設を選択
すると、その施設の詳細構成や構造図が表示される。図
6は図5で施設指定413並びにポンプ場a3を選定、
図7は終末処理場Aを選定、図8は管渠Ka1を選定した
結果である。各画面には、画面メニュー420,43
0,440、現在の画面名称426,436,446、
関連する設備名称427,437,447、プラント構成
428,438,448などが表示される。画面メニュー
420,430,440は選定施設に関連のある情報選
定コマンド領域420A,430A、440Aと、戻り
画面選定コマンド領域420B,430B,440Bが
ある。図6において、情報選定コマンド領域420Aの
映像が選択されると設備名称427やプラント構成42
8領域で、カメラの被写体となっている位置、あるいは
カメラが設置されている設備や機器が点滅あるいは色変
化して選択指定を待つ。オペレータが設備名称427や
プラント構成428領域内のオブジェクトを選択する
と、そのオブジェクトに関連する映像やセンサ情報が処
理画面表示領域503やデータ表示領域504に表示さ
れる。例えば、オブジェクトとして、ポンプ429が選
択された場合、そのカメラから入力された映像が処理画
面表示領域503に、ポンプ429に関連するセンサと
して稼働時間や吐出量、水位が定義されている場合に
は、これまでの時間変化を示すトレンドグラフがデータ
表示領域504に表示される。なお、オブジェクトは選
択されたことをオペレータが確認できるように、強調表
示される。また、オブジェクトに関連するセンサとして
マイクが定義されている場合は、処理画面表示領域50
3にオブジェクト429の映像を表示すると共に、スピー
カ54からオブジェクト429の周囲の音が出力され
る。スピーカ54からの音響出力は、情報選定コマンド
領域420Aの音響を選択することにより、出力させたり止
めたりすることができ、オペレータの判断で音響を聞く
ことができる。また、画面メニュー420で戻り画面選
定コマンド領域420Bのいずれかが選択されると、図
4あるいは図5の内容が表示される。画面名称426を
表示しておくことにより、オペレータが指定施設を間違
うことなく操作対象とすることができる。FIG. 3 shows an example of the display screen structure of the display 50. In FIG. 3, 500 is a display 50.
Display screen, 501 is a menu area for specifying commands relating to the entire system, 502 is the entire management area,
And a drawing display area for displaying the contents of the graphics frame buffer 606 such as a configuration diagram, a structural diagram, and a design drawing of the entire processing area and each part, 503 is a binary image frame buffer 605, a video frame buffer 608, and a map A processing screen display area for displaying the contents of the information frame buffer 610 and the management area frame buffer 611, 504 is data from the sensor, various materials and data regarding the plant, and various materials and data regarding the management area and the processing area. , A data display area 505, command designation of the menu area 501, drawing display area 50
2 is a guidance information display area for displaying guidance to an operator regarding object designation of No. 2, object designation of processing screen display area 503, and designation of display data of data display area 504. 4 to 8 are examples of display forms of the drawing display area 502. In FIG. 4, 401
Is the drawing display menu, A, B, C, D are the final disposal sites,
E and D are sludge treatment plants, alphabetical letters are pump stations, R1 and 2 are rivers, and 402 and 402 'are on-screen objects designated by the operator. As for the object designation, the terminal treatment plant, the sludge treatment plant, the pump station and the river can be designated directly, but they can also be designated by the drawing display menu 400. When the area designation 402 is selected in the drawing display menu 400, the area of each terminal treatment plant blinks or changes color, and the facility designation 403
When you select, the area of each facility blinks or changes color and waits for selection. Note that the currently displayed screen can be seen at a glance, and the current menu 401
When the area designation 402 is selected, the entire processing area may be blinked or changed in color. If the user makes a selection mistake by pointing the entire jurisdiction 401 which is the current display screen, it can be displayed in the warning sound or the guidance information display area 505. Figure 5
4 shows the result of selecting the area designation 402 and the terminal treatment plant A in FIG. An enlarged view of the treatment area handled by the terminal treatment plant A within the jurisdiction is displayed. Drawing display menu 41
When the facility designation 413 is selected with 0, the area of each facility blinks or changes color and waits for selection designation. The area designation 412 which is the current display screen is changed in color, and when the whole jurisdiction 411 is selected, the screen returns to the screen of FIG. When you select a facility on this screen, the detailed configuration and structure diagram of that facility are displayed. Fig. 6 shows facility designation 413 and pump station a3 in Fig. 5,
Fig. 7 shows the result of selecting the terminal treatment plant A and Fig. 8 shows the result of selecting the pipe Ka1. Each screen has a screen menu 420, 43
0,440, current screen name 426,436,446,
Related equipment names 427, 437, 447, plant configurations 428, 438, 448, etc. are displayed. The screen menus 420, 430, 440 include information selection command areas 420A, 430A, 440A related to the selected facility and return screen selection command areas 420B, 430B, 440B. In FIG. 6, when the image in the information selection command area 420A is selected, the equipment name 427 and the plant configuration 42 are selected.
In eight areas, the position of the subject of the camera, or the equipment or device in which the camera is installed blinks or changes color, and waits for selection and designation. When the operator selects an object in the equipment name 427 or plant configuration 428 area, video and sensor information related to the object are displayed in the processing screen display area 503 and the data display area 504. For example, when the pump 429 is selected as the object, when the image input from the camera has the operating time, the discharge amount, and the water level defined as the sensors related to the pump 429 in the processing screen display area 503, A trend graph showing the change with time is displayed in the data display area 504. The object is highlighted so that the operator can confirm that it has been selected. If a microphone is defined as a sensor associated with the object, the processing screen display area 50
3, the image of the object 429 is displayed, and the sound around the object 429 is output from the speaker 54. The sound output from the speaker 54 can be output or stopped by selecting the sound in the information selection command area 420A, and the sound can be heard at the operator's discretion. When any of the return screen selection command areas 420B is selected on the screen menu 420, the contents of FIG. 4 or 5 are displayed. By displaying the screen name 426, the operator can make the designated facility an operation target without making a mistake.
【0029】図9に、オブジェクト429が図面表示領
域502上で指定されたときのディスプレイ50表示画
面の一表示形態を示す。図面表示領域502にポンプ場
a3の詳細構成、処理画面表示領域503にオブジェク
ト429の映像、データ表示領域504にオブジェクト
429に関連する稼働時間や吐出量、水位のトレンドグ
ラフが表示されている。図10に、処理画面表示領域5
03の拡大図と、施設内に配置されたオブジェクトの全
体429′との対応関係を示す。図10において、オブ
ジェクト429は全体429′の一部であり、462〜
470は現在表示している映像を撮影しているカメラ1
30のカメラワークを設定するためのメニュー、472
は映像内の指定可能なオブジェクトを明示するためのメ
ニュー、474は指定オブジェクトに関連する音響を選
択するためのメニュー、476及び478は対象とする
オブジェクトにカメラが複数台設置されている場合にカ
メラ映像を切り替えるためのメニューである。メニュー
462はカメラ130の向きを左右上下に変えるための
メニュー、464はカメラ130のレンズを制御して映
像をズームインするためのメニュー、466はカメラ1
30のレンズを制御して映像をズームアウトするための
メニュー、468はカメラワークを前回の状態に設定し
なおすためのメニュー、470は最初のカメラワークに
設定しなおすためのメニューである。また、474は現
在表示されている映像内で指定したオブジェクトを遠隔
操作し、そのオブジェクトと異なる場所に設置されてい
る機器が操作対象となる場合に、オブジェクト操作とそ
れに伴う機器音を選択するものである。例えば、ポンプ
とその操作盤の設置位置は通常離れており、ポンプ周囲
に設置されたマイクと操作盤付近に設置されたマイクを
切り替えることにより、操作盤の操作音及びポンプの駆
動停止音を聞くことができる。FIG. 9 shows one display form of the display screen of the display 50 when the object 429 is designated on the drawing display area 502. A detailed configuration of the pumping station a3 is displayed in the drawing display area 502, an image of the object 429 is displayed in the processing screen display area 503, and a trend graph of the operating time, the discharge amount, and the water level related to the object 429 is displayed in the data display area 504. In FIG. 10, the processing screen display area 5
The correspondence between the enlarged view of 03 and the entire object 429 'arranged in the facility is shown. In FIG. 10, the object 429 is a part of the whole 429 ′, and
470 is the camera 1 that is currently shooting the image being displayed
Menu 472 for setting 30 camera works
Is a menu for clearly designating an object that can be designated in the image, 474 is a menu for selecting a sound related to the designated object, and 476 and 478 are cameras when a plurality of cameras are installed in the target object. This is a menu for switching images. The menu 462 is a menu for changing the orientation of the camera 130 to the left, right, up, and down, 464 is a menu for controlling the lens of the camera 130 to zoom in the image, and 466 is the camera 1.
A menu for controlling the lens of 30 to zoom out the image, 468 is a menu for resetting the camera work to the previous state, and 470 is a menu for resetting the camera work for the first time. Reference numeral 474 is for remotely controlling an object designated in the currently displayed video and selecting an object operation and a device sound accompanying it when a device installed in a different place from the object is an operation target. Is. For example, the pump and its operation panel are usually installed far apart from each other, and the operation sound of the operation panel and the drive stop sound of the pump can be heard by switching between the microphone installed around the pump and the microphone installed near the operation panel. be able to.
【0030】図10において、480は現在の映像及び
音響名称の表示領域、482〜496はオブジェクト429に
付随する、あるいは周辺にある各種オブジェクトであ
る。482〜486は各ポンプの電源電圧を示すメー
タ、488はポンプの吐出量を示すメータ、490〜4
92はポンプの電源を入れるための釦、493〜495
はポンプの電源を切るための釦、496は吐出量を調整
するスライダ方式のツマミである。釦490〜495及
びツマミ496は実際に手動で操作できる操作器である
と共に、マンマシンサーバ60からの操作指令によって
遠隔操作もできる操作器である。処理画面表示領域50
3の任意のオブジェクトをマウス52でピックすると、
ピックされたオブジェクトが見易くなるように映像の真
中に位置させ、また、ズームインされるようにカメラワ
ーク及びレンズ制御を実行することができる。このよう
な機能により、オペレータは単に画面上でオブジェクト
を指定するのみで、そのオブジェクトの内容をより鮮明
に見ることができ、カメラワーク遠隔操作の煩雑さを解
消できる。このカメラワーク自動調節は、オペレータが
規定時間以上ピックし続けると実行され、マウス52釦
から指を離すと元の映像に戻る。In FIG. 10, reference numeral 480 is a display area for the current video and audio names, and 482 to 496 are various objects attached to or around the object 429. 482 to 486 are meters showing the power supply voltage of each pump, 488 is a meter showing the discharge amount of the pumps, 490 to 4
92 is a button for turning on the power of the pump, 493 to 495
Is a button for turning off the power of the pump, and 496 is a slider type knob for adjusting the discharge amount. Buttons 490 to 495 and knob 496 are operating devices that can be actually operated manually, and can also be operated remotely by an operation command from man-machine server 60. Processing screen display area 50
If you pick any object of 3 with the mouse 52,
It is possible to position the picked object in the middle of the image for easy viewing, and to perform camera work and lens control so that it is zoomed in. With such a function, the operator can simply view the contents of the object by simply designating the object on the screen, and the complexity of remote control of camera work can be eliminated. This automatic camera work adjustment is executed when the operator continues to pick for a prescribed time or longer, and when the mouse 52 button is released, the original image is restored.
【0031】メニュー領域501の一例を図11に示
す。このメニュー領域501のコマンドの1つである直
接操作501Aを選択することにより、遠隔操作が可能
な操作器を画面上から制御できる。例えば、直接操作5
01Aを選択すると、操作可能な操作器の外挿矩形が明
示される。この操作可能な操作器の明示は、輪郭を強調
して表示、あるいは操作器部分の色を変化させてもよ
い。図12は外挿矩形で表示した例で、電源関係の釦4
90〜495及びツマミ496が外挿矩形で明示され、
直接操作可能な操作器とわかる。図12の処理画面表示
領域503上で電源入力釦491をマウス52で2回ピ
ックすると、マンマシンサーバ60から計算機90を介
して遠隔にある電源入力釦491を操作するアクチュエ
ータに、電源入力釦491を押し下げるという操作指令
が送られ、遠隔の現場にある電源入力釦491が実際に
押し下げられる。電源入力釦491が投入され、その結
果として電圧メータ484の針が振れる状態をカメラ1
30により処理画面表示領域503に映しだされる。こ
のときの現場における釦491の投入音、あるいは釦4
91の操作対象となるポンプの駆動音がマイクを介して
スピーカ54から出力される。これによって、オペレー
タはディスプレイ50の画面上で、実際に現場で電源入
力釦491を操作し、ポンプを駆動させたような感覚を
得ることができる。また、処理画面表示領域503上で
マウス52のドラッグによってツマミ496をスライド
操作することができる。処理画面表示領域503上でツ
マミ496が表示されている位置を2回ピックし、さら
にマウス52の釦を押し続けながらマウス52を目的位
置まで移動させて釦を離す。マウス52の移動に合わせ
て、映像に映しだされているツマミ496も動く。この
動きを、マンマシンサーバ60は計算機90を介して遠
隔にあるツマミ496を制御するアクチュエータに指令
を出し、ツマミ496を実際に動かす。これによって、
オペレータはツマミ496を実際に動かしているような
感覚を得る。これらの一連の操作でミスした場合、例え
ば、遠隔操作ができない操作器などを指定した場合は、
操作ミスしたことをガイダンス情報表示領域505に表
示する。上記実施例では、操作可能な操作器、すなわ
ち、オブジェクトの明示を輪郭強調、あるいは色変化さ
せたが、他にも様々な表示方法が考えられる。図13
に、テキストを入力して、そのテキストが表示されてい
る映像から対象なるオブジェクトを探索する例を示す。
図13において、498は映像に合成表示されたグラフ
ィックス、452はテキスト探索を実行する探索シー
ト、454は探索名称により適合する別の映像を探索す
るための次メニュー、456は探索を終了するための終
了メニュー、458は探索名称に入力するためのテキス
ト入力領域である。メニュー領域501で直接操作50
1A、及び探索501Hを選択すると、探索シート45
2が処理画面表示領域503上に表示される。テキスト
入力領域458にキーボードから探索名称となるテキス
トを入力してリターンキーを押すと、探索が開始され
る。マンマシンサーバ60は探索名称を含む事物を映す
カメラを探索し、探索したカメラからの映像を処理画面
表示領域503に表示する。映像内の探索名称に適合す
る部分にはグラフィックス498を合成表示し、探索名
称に適合する部分を明示する。これによって、オペレー
タは言葉を介して監視したいオブジェクトを映しだすこ
とができ、また、カメラ切り替えや遠隔操作をすること
なく監視対象を迅速に見つけることができる。本実施例
では、探索名称の入力にキーボードを用いたが、音声認
識装置や手書き文字認識装置などの入力手段を用いても
良い。FIG. 11 shows an example of the menu area 501. By selecting the direct operation 501A, which is one of the commands in the menu area 501, it is possible to control an operation device capable of remote operation from the screen. For example, direct operation 5
When 01A is selected, the extrapolation rectangle of the operable operating device is specified. To indicate the operable operating device, the outline may be emphasized and displayed, or the color of the operating device portion may be changed. FIG. 12 shows an example in which the extrapolation rectangle is displayed.
90 to 495 and the knob 496 are clearly shown in the extrapolated rectangle,
It can be understood as an operating device that can be operated directly. When the power input button 491 is picked up twice with the mouse 52 on the processing screen display area 503 of FIG. 12, the actuator that operates the power input button 491 remote from the man-machine server 60 via the computer 90 causes the power input button 491 to operate. An operation command to push down is sent, and the power input button 491 at the remote site is actually pushed down. When the power input button 491 is turned on and as a result the needle of the voltage meter 484 swings, the camera 1
It is displayed on the processing screen display area 503 by 30. At this time, the sound of the button 491 at the spot or the button 4
The drive sound of the pump 91 to be operated is output from the speaker 54 via the microphone. As a result, the operator can obtain a feeling as if the operator actually operated the power input button 491 on the screen of the display 50 to drive the pump. Further, the knob 496 can be slid on the processing screen display area 503 by dragging the mouse 52. The position where the knob 496 is displayed on the processing screen display area 503 is picked twice, and the mouse 52 is moved to the target position while continuing to press the button of the mouse 52, and the button is released. As the mouse 52 moves, the knob 496 displayed in the image also moves. The man-machine server 60 issues a command to the actuator for controlling the remote knob 496 via the computer 90 to actually move the knob 496. by this,
The operator feels as if he or she is actually moving the knob 496. If you make a mistake in these series of operations, for example, if you specify an operation device that cannot be operated remotely,
The operation information is displayed in the guidance information display area 505. In the above-described embodiment, the operable operating device, that is, the outline of the object is highlighted or the color is changed, but various other display methods are possible. FIG.
An example of inputting a text and searching for a target object from a video in which the text is displayed is shown in FIG.
In FIG. 13, reference numeral 498 is a graphic composited and displayed on a video, 452 is a search sheet for executing a text search, 454 is a next menu for searching for another video more suitable for the search name, and 456 is for ending the search. Is a text input area for inputting a search name. Direct operation 50 in the menu area 501
When 1A and search 501H are selected, the search sheet 45
2 is displayed on the processing screen display area 503. The search is started by inputting a search name text in the text input area 458 from the keyboard and pressing the return key. The man-machine server 60 searches for a camera that reflects an object including the search name, and displays an image from the searched camera in the processing screen display area 503. A graphic 498 is composite-displayed on a portion matching the search name in the video, and the portion matching the search name is clearly indicated. With this, the operator can project the object to be monitored through words, and can quickly find the monitoring target without switching the camera or performing remote control. In this embodiment, the keyboard is used to input the search name, but an input means such as a voice recognition device or a handwritten character recognition device may be used.
【0032】上記本実施例の実現方法を以下に示す。上
述した本実施例の主たる機能は、映像内のオブジェクト
を指定し、そのオブジェクトに基づいた動作を実行する
ことにある。この機能を実現するプログラムの流れを図
14に示す。処理画面表示領域503上でマウス52の
釦が押されると、その押された位置(イベント位置と呼
ぶ)に映っているオブジェクトを同定する(ステップ1
000)。オブジェクトが同定された、すなわち、イベ
ント位置にオブジェクトが存在する場合(ステップ10
10)、そのオブジェクトに対応して定義されている動
作を実行する(ステップ1020)。イベント位置に映
っているオブジェクトは、撮影対象のモデルとカメラ情
報を参照して同定する。撮影対象のモデルは、撮影対象
となっているオブジェクトの形状や位置に関するデータ
である。カメラ情報は、撮影対象のオブジェクトをどの
ように撮影しているか、すなわちカメラの位置,方向,
角度などのデータである。撮影対象のモデルの方法に
は、撮影対象の形状や位置を3次元座標系で定義した3
次元モデルや、特定のカメラワークごとに2次元座標系
(ディスプレイ平面)でオブジェクトの形状や位置を定
義する2次元モデル、などがある。3次元モデルにはプ
ラントの設計や配置に利用されているCADのデータを
応用すれば容易に作成可能である。本実施例では、2次
元モデルに基づいてオブジェクトを同定している。カメ
ラによって撮影された映像と、2次元モデルとの対応関
係を説明する。2次元モデルでは、カメラによる映像が
世界座標系から平面座標系に投影された後のオブジェク
トの形状や位置を定義する。カメラの方向,角度が変わ
れば、平面座標系に投影されたオブジェクトの形状や位
置が変化する。したがって、2次元モデルでは、個々の
カメラワークごとにオブジェクトの形状や位置のデータ
を持つ必要がある。本実施例ではオブジェクトを矩形領
域でモデル化、すなわち或るカメラワークにおけるオブ
ジェクトを、平面座標系における矩形領域の位置と大き
さによって表現している。もちろん、多角形や自由曲線
など他の図形、あるいはオブジェクトの輪郭を捉えてモ
デル化してもよい。カメラワークと2次元モデルとの対
応関係は、個々のカメラワークごとにオブジェクトが含
まれる矩形領域を設定した2次元モデルを作成し、カメ
ラワークが変化してもオブジェクトが対応付けができる
ようにしている。この場合、各カメラとそのカメラワー
クに対応するカメラの位置,方向,角度などのデータを
格納するデータテーブルと、オブジェクトの形状や位置
のデータを格納するデータテーブルを予め作成し、連動
利用する。また、マンマシンサーバ60はこのカメラワ
ークデータをカメラ制御用アクチュエータに送り、カメ
ラを遠隔操作する。A method for realizing the above-mentioned embodiment will be described below. The main function of the present embodiment described above is to specify an object in a video and execute an operation based on the object. FIG. 14 shows the flow of a program that realizes this function. When the button of the mouse 52 is pressed on the processing screen display area 503, the object displayed at the pressed position (called an event position) is identified (step 1
000). If the object is identified, ie, the object exists at the event location (step 10
10) The operation defined corresponding to the object is executed (step 1020). The object shown in the event position is identified by referring to the model of the object to be photographed and the camera information. The model to be photographed is data regarding the shape and position of the object to be photographed. The camera information indicates how the object being photographed is photographed, that is, the position, direction, and
Data such as angles. The model of the object to be photographed is defined by a 3D coordinate system that defines the shape and position of the object to be photographed.
There are a two-dimensional model and a two-dimensional model that defines the shape and position of an object in a two-dimensional coordinate system (display plane) for each specific camera work. The three-dimensional model can be easily created by applying CAD data used for plant design and layout. In this embodiment, the object is identified based on the two-dimensional model. The correspondence between the image captured by the camera and the two-dimensional model will be described. The two-dimensional model defines the shape and position of the object after the image captured by the camera is projected from the world coordinate system to the plane coordinate system. If the direction and angle of the camera change, the shape and position of the object projected on the plane coordinate system changes. Therefore, in the two-dimensional model, it is necessary to have data on the shape and position of the object for each camera work. In this embodiment, the object is modeled in a rectangular area, that is, the object in a certain camera work is represented by the position and size of the rectangular area in the plane coordinate system. Of course, other shapes such as polygons and free-form curves, or the outline of the object may be captured and modeled. Regarding the correspondence between the camerawork and the two-dimensional model, a two-dimensional model in which a rectangular area including an object is set is created for each camerawork so that the objects can be associated with each other even when the camerawork changes. There is. In this case, a data table that stores data such as the position, direction, and angle of each camera and the camera corresponding to the camera work, and a data table that stores the shape and position data of the object are created in advance and are used interlockingly. Further, the man-machine server 60 sends this camera work data to the camera control actuator to remotely operate the camera.
【0033】メニュー領域501の選択コマンドには、
操作器の直接操作コマンド501Aの他に、映像処理5
01B,音響処理501C,運転支援501D,予防保
全支援501E,管理区域及び各施設のシミュレーショ
ン501F,501Gなどがある。処理画面表示領域5
03上で映像処理501B、あるいは音響処理501Cが選
択されると、マンマシンサーバ60からの操作指令によ
って信号処理装置70に、スイッチャ65から映像信号
あるいは音響信号が出力され、映像処理や音響処理が実
行される。図15に信号処理装置70の一実施例を示
す。信号処理装置70は画像処理装置72と波形解析装
置74から構成され、映像処理コマンド501Bの選択
により画像処理装置72,音響処理コマンド501Cに
より波形解析装置74が動作する。図16に画像処理装
置72の一実施例を示す。図16において、722は主
記憶装置、721は主記憶装置722に格納されている
プログラムを実行し、画像処理装置72全体を制御する
CPU、723は画像処理実行プログラムと画像処理結
果が格納される補助記憶装置、724は濃淡画像や2値
化画像を複数枚格納できる画像メモリ、725は画像メ
モリ724内の濃淡画像及び2値化画像を対象に各種画
像処理を高速で実施する画像処理プロセッサ、726は
スイッチャ65からの映像信号の受信、及びマンマシン
サーバ60や、計算機90を介して映像情報データベー
ス86への画像処理情報の送信などを行う通信インター
フェイスである。画像処理装置72にはポンプ場,終末
処理場,管渠等に配置されたカメラからの映像がマンマ
シンサーバ60とスイッチャ65に選択され、通信イン
ターフェイス726を介して入力される。カメラからの
映像は、輝度(明るさ)に応じた濃淡情報を持つ濃淡画像
である。画像処理プロセッサ725では、この輝度に着
目して、特定輝度レベルより高い領域を“0”、低い領
域を“1”にする2値化処理を基本とする処理を実行
し、最終的に得られた2値化画像を画像メモリ724
に、その2値化画像の特徴量から求めた映像処理情報を
補助記憶装置723に格納する。画像メモリ724の2
値化画像はマンマシンサーバ60の2値画像フレームバ
ッファ605に、補助記憶装置723の映像処理情報は
映像情報データベース86に送信格納される。マンマシ
ンサーバ60の2値画像フレームバッファ605に格納
された2値化画像は、ブレンド回路612で、単独ある
いは他のグラフィックスや映像と合成されてディスプレ
イ50画面上の処理画面表示領域503に表示される。
2値化画像の単独表示は、図6及び図8において設備名
称領域427でプラント状態を選択し、さらに、プラン
ト構成領域428で選択されたオブジェクトの中で画像
処理によって検出量を計測することが定義されている映
像を対象とする。検出量の計測を定義するオブジェクト
として、ポンプ場ではゲート弁110の開度,水位L,
スクリーン111付近の浮遊物量とその大きさ,侵入者
の有無,機器類の過熱状態(カメラに赤外線カメラを用
い、その映像を画像処理することにより計測する)、機
器類の過熱による発生煙の有無(時間が相違する映像を
画像処理し、処理画像同士を差分することにより計測す
る)である。終末処理場では沈殿池の浮遊物状態,処理
水の色,生物反応槽の発泡状態や微生物相の種類やその
量などで、管渠では水位や流入物質の量とその大きさな
どである。2値化画像と他のグラフィックスや映像とを
合成して表示する場合、2値化画像と、その画像を得た
カメラワークのオブジェクトデータとを対比させて、カ
メラの位置,方向,角度など微調整することができる。
図17にオブジェクトデータと2値化画像との対応関係
を示す。オブジェクト429を対象としたときのオブジ
ェクトデータを左図に、2値化画像を右図に示す。これ
らの各オブジェクトの照合は、例えばパターンマッチン
グ法や、その形状と大きさが類似している任意のオブジ
ェクトと認識物体とを選定する個別照合法を用いること
ができる。カメラの微調整は、それらの座標系のズレを
CPU601で検出し、その検出量をマンマシンサーバ60か
ら計算機90を介して対象としているカメラ130のア
クチュエータ140に制御指令を出すことにより行う。The selection command of the menu area 501 includes
In addition to the direct operation command 501A of the operation device, image processing 5
01B, sound processing 501C, driving support 501D, preventive maintenance support 501E, management area and each facility simulation 501F, 501G. Processing screen display area 5
When the video processing 501B or the audio processing 501C is selected on 03, the video signal or the audio signal is output from the switcher 65 to the signal processing device 70 by the operation command from the man-machine server 60, and the video processing or the audio processing is performed. To be executed. FIG. 15 shows an embodiment of the signal processing device 70. The signal processing device 70 is composed of an image processing device 72 and a waveform analysis device 74. The image processing device 72 is operated by selecting the video processing command 501B, and the waveform analysis device 74 is operated by the sound processing command 501C. FIG. 16 shows an embodiment of the image processing device 72. In FIG. 16, 722 is a main storage device, 721 is a CPU that executes a program stored in the main storage device 722 and controls the image processing device 72 as a whole, and 723 is an image processing execution program and an image processing result. An auxiliary storage device, 724 is an image memory capable of storing a plurality of grayscale images and binarized images, and 725 is an image processor for performing various image processing at high speed on the grayscale images and binarized images in the image memory 724, A communication interface 726 receives a video signal from the switcher 65 and sends image processing information to the video information database 86 via the man-machine server 60 and the computer 90. In the image processing device 72, the images from the cameras arranged in the pumping station, the terminal treatment plant, the conduit, etc. are selected by the man-machine server 60 and the switcher 65 and input via the communication interface 726. The image from the camera is a grayscale image having grayscale information according to the brightness (brightness). Focusing on this brightness, the image processor 725 executes a process based on a binarization process in which an area higher than the specific brightness level is “0” and a lower area is “1”, and finally obtained. Image binarized image 724
Then, the video processing information obtained from the feature amount of the binarized image is stored in the auxiliary storage device 723. Image memory 724-2
The binarized image frame buffer 605 of the man-machine server 60 stores the binarized image, and the video information database 86 stores the video processing information of the auxiliary storage device 723. The binarized image stored in the binarized image frame buffer 605 of the man-machine server 60 is displayed in the processing screen display area 503 on the screen of the display 50 by the blend circuit 612 alone or in combination with other graphics or video. To be done.
In the single display of the binarized image, the plant state can be selected in the equipment name area 427 in FIGS. 6 and 8, and the detection amount can be measured by image processing in the object selected in the plant configuration area 428. Target the defined video. At the pumping station, the opening degree of the gate valve 110, the water level L,
The amount and size of floating matter near the screen 111, the presence or absence of intruders, the overheated state of equipment (measured by image processing of the image using an infrared camera), the presence or absence of smoke generated by overheating of equipment (Measurement is performed by performing image processing on videos with different times and subtracting processed images from each other). In the terminal treatment plant, it is the floating state of the sedimentation basin, the color of the treated water, the foaming state of the biological reaction tank, the type and amount of microbial flora, and the like in the culvert, the water level and the amount and size of influent substances. When a binary image and other graphics or video are combined and displayed, the binary image and the object data of the camerawork that obtained the image are compared to determine the position, direction, angle, etc. of the camera. Can be fine-tuned.
FIG. 17 shows the correspondence between the object data and the binarized image. Object data for the object 429 is shown in the left figure, and a binarized image is shown in the right figure. For matching each of these objects, for example, a pattern matching method or an individual matching method for selecting a recognition object and an arbitrary object whose shape and size are similar can be used. Fine adjustment of the camera can be done by shifting the coordinate system.
This is detected by the CPU 601 and the detected amount is sent from the man-machine server 60 via the computer 90 to the control command to the actuator 140 of the target camera 130.
【0034】メニュー領域501で音響処理コマンド5
01Cが選択されると波形解析装置74が動作する。波
形解析装置74は計算機であり、新たな計算機を用いて
もよいが、マンマシンサーバ60内のCPU601や計
算機90を代用することもできる。図18に波形解析装
置74の一実施例を示す。図18において、741は音
響信号を取り込むデータベース、742は音響データベ
ース741の音響信号の中から一定期間の特定周波数の
信号を取り出す周波数選択手段、743は周波数選択手
段742からの音響信号の時系列変化を解析する波形解
析手段、744は波形解析手段743で参照される過去
の波形事例を記憶したデータベース、745は波形解析
手段743で解析された結果に基づき音響の異常を診断
する音響異常診断手段、746は音響異常診断手段74
5で診断された異常が過去に経験された異常かを判定す
る異常判定手段である。図10の音響選択メニュー474
で選択された音響信号は、スイッチャ65を介して音響
データベース741に格納される。周波数選択手段74
2は、音響データベース741に格納された音響信号を
一定時間ごとに取り込み、波形解析手段743に出力す
る。このとき、周波数に複数のバンド範囲を設定し、各
バンド範囲ごとに音響信号レベルの時系列変化を出力し
てもよい。なお、音響データベース741の前に周波数
選択手段742を設け、各バンド範囲ごとに音響信号レ
ベルを時系列的に整理格納することもできる。波形解析
手段743は、ニューラルネットモデルや推論機構など
によって実現することできる。波形データベース744
は機器類及びバンド範囲ごとに正常な音響波形と、異常
状態に対応した複数個の音響波形が保存されている。波
形解析手段743をニューラルネットで実現する方法に
ついて簡単に説明する。ニューラルネットモデルの基本
は脳を構成する神経細胞(ニューロン)で、このニュー
ロンを基本構成要素とするネットワーク型のモデルあ
る。モデルは複数のものが提案されているが、本実施例
ではニューロンを階層的に結合させた階層型のモデル
(別名、Rumelhart型モデル)を使用する。このモデル
は、図19に示すように、入力層,中間層,出力層から
なる3層構造である。このニューロンの基本動作は、以
下に示す数式で表現される。In the menu area 501, the sound processing command 5
When 01C is selected, the waveform analysis device 74 operates. The waveform analysis device 74 is a computer, and a new computer may be used, but the CPU 601 in the man-machine server 60 or the computer 90 may be used instead. FIG. 18 shows an embodiment of the waveform analysis device 74. In FIG. 18, 741 is a database for capturing acoustic signals, 742 is frequency selecting means for extracting a signal of a specific frequency for a certain period from the acoustic signals in the acoustic database 741, and 743 is time-series change of acoustic signals from the frequency selecting means 742. , 744 is a database storing past waveform examples referred to by the waveform analyzing means 743, 745 is an acoustic abnormality diagnosing means for diagnosing acoustic abnormality based on the result analyzed by the waveform analyzing means 743, 746 is an acoustic abnormality diagnosis means 74
The abnormality determining means determines whether the abnormality diagnosed in 5 is an abnormality that has been experienced in the past. Sound selection menu 474 in FIG.
The acoustic signal selected in step 1 is stored in the acoustic database 741 via the switcher 65. Frequency selection means 74
2 captures the acoustic signal stored in the acoustic database 741 at regular intervals and outputs it to the waveform analysis unit 743. At this time, a plurality of band ranges may be set for the frequency, and a time-series change of the acoustic signal level may be output for each band range. It is also possible to provide frequency selection means 742 in front of the acoustic database 741 and arrange and store acoustic signal levels in time series for each band range. The waveform analysis unit 743 can be realized by a neural network model, an inference mechanism, or the like. Waveform database 744
Stores a normal acoustic waveform for each device and band range and a plurality of acoustic waveforms corresponding to an abnormal state. A method of realizing the waveform analysis means 743 with a neural network will be briefly described. The basis of the neural net model is the nerve cells (neurons) that make up the brain, and there is a network type model with these neurons as the basic constituent elements. Although a plurality of models have been proposed, in this embodiment, a hierarchical model in which neurons are connected in a hierarchical manner (also known as Rumelhart model) is used. As shown in FIG. 19, this model has a three-layer structure including an input layer, an intermediate layer, and an output layer. The basic operation of this neuron is expressed by the following mathematical formula.
【0035】[0035]
【数1】 [Equation 1]
【0036】[0036]
【数2】 [Equation 2]
【0037】[0037]
【数3】 [Equation 3]
【0038】但し、 yT:ニューロンTの出力信号 uT:ニューロンTへの入力の積和 wT,i:ニューロンTとニューロンI間の重み係数 xi:ニューロンIからの入力信号 f:シグモイド関数 θ:シグモイド関数にしきい値 あるニューロンから着目したニューロンへの信号は、両
者の結合強度(重み係数)wT,iが乗ぜられ、重み付き入
力信号wT,i・xiの総和uT があるしきい値θを越えた
ときに、そのニューロンは興奮して出力信号yT を出
す。このときの出力信号特性を決定するのがシグモイド
関数fである。波形データベース744に保存していた
正常な音響波形と、異常状態に対応した複数個の音響波
形を各々入力層とし、出力層のニューロン数を異常状態
数プラス1に設定して、出力値を演算しておく。この出
力値が正常及び異常原因に対して出力層のどのニューロ
ンで最大となるかを求め、ニューロンナンバーと異常原
因及び正常の関係をパターン化しておく。これらの関係
は波形データベース744あるいは音響異常診断手段7
45に記憶しておく。波形解析手段743では周波数選
択手段742から出力された音響信号を上述の方法で、
出力層各ニューロンからの出力値を演算する。音響異常
診断手段745ではこの出力値と予め求めたパターンと
照合して、正常か異常か、及び異常の原因診断する。こ
の診断の一例を図20に示す。図20では、出力層ニュ
ーロンナンバーに対応した異常原因と正常が規定されて
おり、現在の音響信号から4番目の出力層ニューロンの
出力値が最大となったことにより、異常原因Dと診断さ
れる。この診断結果はマンマシンサーバ60に送信さ
れ、ディスプレイ50のガイダンス情報表示領域505
に表示する。また、同結果は音響情報データベース88
にも履歴情報として格納される。さらに、例えば、図2
0に示す情報を処理画面表示領域503に表示すること
もできる。異常判定手段746は、音響異常診断手段7
45での診断結果が異常及び正常とも診断されなかった
場合に、新たな異常現象と判定してガイダンス情報表示
領域505に表示するとともに、オペレータの判断に基
づきこの内容を異常現象に追加し、新たなニューロンナ
ンバーと異常原因及び正常の関係を求め、波形データベ
ース744に保存する。Where y T : output signal of neuron T u T : sum of products of inputs to neuron T w T , i : weighting coefficient between neurons T and I x i : input signal from neuron I f: sigmoid Function θ: A signal from a neuron having a threshold value to a sigmoid function to a focused neuron is multiplied by a coupling strength (weighting coefficient) w T , i of the two to obtain a sum u T of the weighted input signals w T , i · x i. When a certain threshold θ is exceeded, the neuron is excited and outputs the output signal y T. The sigmoid function f determines the output signal characteristic at this time. A normal acoustic waveform stored in the waveform database 744 and a plurality of acoustic waveforms corresponding to abnormal states are used as input layers, and the number of neurons in the output layer is set to the number of abnormal states plus 1 to calculate the output value. I'll do it. It is determined which neuron in the output layer the output value becomes maximum with respect to the normal and abnormal causes, and the relationship between the neuron number and the abnormal cause and the normal is patterned. These relationships are related to the waveform database 744 or the acoustic abnormality diagnosis means 7
It is stored in 45. In the waveform analysis means 743, the acoustic signal output from the frequency selection means 742 is processed by the above-mentioned method.
Output layer The output value from each neuron is calculated. The acoustic abnormality diagnosing means 745 collates this output value with a previously obtained pattern to diagnose whether it is normal or abnormal and the cause of the abnormality. An example of this diagnosis is shown in FIG. In FIG. 20, the cause of abnormality and the normality corresponding to the output layer neuron number are defined, and the cause of abnormality is diagnosed when the output value of the fourth output layer neuron from the current acoustic signal becomes maximum. . This diagnosis result is transmitted to the man-machine server 60, and the guidance information display area 505 of the display 50 is displayed.
To display. In addition, the result is the acoustic information database 88.
Is also stored as history information. Further, for example, in FIG.
The information indicated by 0 can be displayed in the processing screen display area 503. The abnormality determining means 746 is the acoustic abnormality diagnosing means 7
When the diagnosis result in 45 is neither abnormal nor normal, it is judged as a new abnormal phenomenon and displayed in the guidance information display area 505, and this content is added to the abnormal phenomenon based on the operator's judgment. The relationship between various neuron numbers, causes of abnormalities, and normality is obtained and stored in the waveform database 744.
【0039】メニュー領域501で各施設シミュレーシ
ョンコマンド501Gを選択すると、処理画面表示領域
503に表示されている施設の状態シミュレーションを
実行することができる。ポンプ場が対象である場合、プ
ラント情報データベース84に格納されているポンプ場
水位計160、複数管渠に配置された水位計362な
ど、の計測データ、及び後述する降雨量予測結果などに
基づく流入量予測シミュレーション、この流入量予測結
果に基づくポンプ台数及び吐出量制御シミュレーション
を計算機90で実行できる。シミュレーション結果であ
る流入量予測量,ポンプ場水位,ポンプ稼働台数、及び
吐出量をマンマシンサーバ60の補助記憶装置603を
介してディスプレイ50のデータ表示領域504に表示
する。オペレータは、このシミュレーション結果を監視
しながら、ディスプレイ50画面上の処理画面表示領域
503に映しだされているポンプ電源490〜492や
吐出量調整ツマミ496を直接操作し、ポンプ場の遠隔
監視制御が行える。終末処理場の場合、プラント情報デ
ータベース84に格納されている各種水質濃度や微生物
濃度,映像情報データベース86に格納されている水中
カメラ290からの映像を画像処理装置72でを介して
計測した微生物相の種類やその量,流入及び返送流量,
空気流量を用いて有機物濃度や窒素及びリン濃度の除去
シミュレーションや、プラント系内の微生物量管理シミ
ュレーション、最終沈殿池203における微生物沈降シ
ミュレーションが実行できる。シミュレーション結果
は、データ表示領域504に表示され、ポンプ場と同様
に、シミュレーション結果を監視しながら微生物量や空
気流量をディスプレイ50画面上で遠隔操作できる。When each facility simulation command 501G is selected in the menu area 501, the facility state simulation displayed in the processing screen display area 503 can be executed. When the pumping station is the target, the inflow based on the measurement data of the pumping station water level gauge 160 stored in the plant information database 84, the water level gauges 362 arranged in a plurality of drains, and the rainfall prediction result described later. The computer 90 can execute the volume prediction simulation and the simulation of the number of pumps and the discharge volume control based on the inflow volume prediction result. The simulation result, the predicted inflow amount, the pump station water level, the number of pumps in operation, and the discharge amount are displayed in the data display area 504 of the display 50 via the auxiliary storage device 603 of the man-machine server 60. While monitoring the simulation result, the operator directly operates the pump power supplies 490 to 492 and the discharge rate adjusting knob 496 shown in the processing screen display area 503 on the screen of the display 50, and the remote monitoring control of the pump station is performed. You can do it. In the case of the terminal treatment plant, various water quality concentrations and microbial concentrations stored in the plant information database 84, and microbial flora measured through the image processing device 72 from the underwater camera 290 stored in the image information database 86. Type and quantity, inflow and return flow rate,
Using the air flow rate, it is possible to carry out a simulation of removal of organic matter concentration and nitrogen and phosphorus concentration, a simulation of microbial quantity control in the plant system, and a microbial sedimentation simulation in the final settling tank 203. The simulation result is displayed in the data display area 504, and like the pump station, the amount of microorganisms and the air flow rate can be remotely controlled on the screen of the display 50 while monitoring the simulation result.
【0040】メニュー領域501で管理区域シミュレー
ションコマンド501Fを選択すると、管理区域あるい
は処理区域の降雨量及び降雨分布の予測をシミュレーシ
ョンできる。これらの予測は管理区域あるいは処理区域
に配置された雨量レーダの計測情報を通信インタフェイ
ス92を介して計算機90に入力し、実行する。管理区
域あるいは処理区域の選択は、図面表示領域502で表
示されているグラフィックスに対応させることができ
る。すなわち、管轄全体が表示されているときに管理区
域シミュレーションコマンド501Fが選択された場合
は、管理区域を対象とするシミュレーションを実行す
る。区域指定によるグラフィックスが表示されている場
合は、処理区域を対象とするシミュレーションを実行す
る。このシミュレーション結果と、ディジタルマップベ
ース80に格納されている管理区域あるいは処理区域の
地図情報をマンマシンサーバ60の地図情報用フレーム
バッファ610に送信し、格納する。シミュレーション
結果と地図情報は地図情報用フレームバッファ610で
各画素ごとに色情報が与えられ、処理画面表示領域503
に重ね表示される。このとき、色情報は降雨量を配慮し
て、配色する。オペレータは、この降雨分布を監視しな
がら、図面表示領域502のオブジェクトをマウス52
でピックすると、選択されたオブジェクトに予め定義さ
れたシミュレーションを実行することができる。例え
ば、河川が選択されたときは河川水位予測シミュレーシ
ョン、ポンプ場が選択されたときは選択ポンプ場までの
降雨量流達シミュレーションやこのシミュレーション結
果に基づくポンプ先行運転並びにタイミング制御シミュ
レーション、終末処理場が選択されたときは選択処理場
までの流入水流達シミュレーションや簡易放流ポンプ先
行運転制御シミュレーションが定義され、実行できる。
また、管渠を選択することもでき、管渠水位予測による
マンホールからの溢流量シミュレーションを実行でき
る。これらのシミュレーションには地形勾配や地面土質
を考慮して実行できる。地形勾配や地面土質情報はディ
ジタルマップベース80に格納される。さらに、これら
のシミュレーション結果は、補助記憶装置603を介し
てディスプレイ50のデータ表示領域504に表示さ
れ、処理画面表示領域503の表示内容を映像関係に切
り換えることにより、遠隔監視制御が可能となる。By selecting the management area simulation command 501F in the menu area 501, it is possible to simulate the prediction of the rainfall amount and the rainfall distribution in the management area or the processing area. These predictions are executed by inputting the measurement information of the rainfall radar arranged in the management area or the processing area to the computer 90 via the communication interface 92. The selection of the management area or the processing area can be made to correspond to the graphics displayed in the drawing display area 502. That is, when the management area simulation command 501F is selected while the entire jurisdiction is displayed, the simulation for the management area is executed. When the graphics by the area designation are displayed, the simulation for the processing area is executed. The simulation result and the map information of the management area or the processing area stored in the digital map base 80 are transmitted to and stored in the map information frame buffer 610 of the man-machine server 60. The simulation result and the map information are given color information for each pixel in the map information frame buffer 610, and the processed screen display area 503 is displayed.
Is overlaid on. At this time, the color information is colored in consideration of the amount of rainfall. The operator monitors the rainfall distribution while hovering over the object in the drawing display area 502 with the mouse 52.
Pick at to run a predefined simulation on the selected object. For example, when a river is selected, the river water level prediction simulation, when the pump station is selected, the rainfall flow simulation to the selected pump station, the pump preceding operation and timing control simulation based on this simulation result, and the terminal treatment plant are performed. When selected, inflow water flow simulation to the selected treatment plant and simple discharge pump advanced operation control simulation can be defined and executed.
In addition, it is possible to select a conduit, and it is possible to carry out a simulation of overflow from a manhole by predicting the conduit water level. These simulations can be performed considering the topographic gradient and ground soil quality. Topographic gradient and ground soil information are stored in the digital map base 80. Further, these simulation results are displayed in the data display area 504 of the display 50 via the auxiliary storage device 603, and by switching the display content of the processing screen display area 503 to a video relationship, remote monitoring control becomes possible.
【0041】メニュー領域501で予防保全支援コマン
ド501Eを選択すると、ポンプ,ブロワや弁などの機
器類,自家発電,受変電や計装設備,計算機システム、
及びカメラや水質計器などの監視設備の仕様や図面等を
検索し、保守点検や交換時期,リプレース計画等を支援
できる。図面関係の情報はディジタルマップベース80
に格納し、設備やシステム仕様はフレーム形式で知識ベ
ース82に格納する。また、ディジタルマップベース8
0には下水管の配置図面を、その埋設履歴や仕様を知識
ベース82に保存できる。これらの情報は、図面表示領
域502あるいは処理画面表示領域503のオブジェク
トをマウス52でピックすると、選択されたオブジェク
トに定義されている仕様あるいは図面情報が呼び出さ
れ、参照することができる。これらの情報は、図面表示
領域502に表示することを原則とするが、必要に応じ
て他の領域や画面全体に表示することもできる。呼出し
情報が図面の場合、頁スクロールと位置スクロール機能
を持たせることにより、使い勝手のよいマンマシンとす
ることができる。また、保守点検や交換履歴及び仕様等
の情報が複数画面になる場合は、頁スクロール機能を持
たせる。これらのスクロール機能は、表示領域内に配置
する。また、終了メニューを準備し、終了を選択するこ
とにより、オブジェクト選択時の画面に戻る。さらに、
保守点検や交換周期のルールを知識ベース82に格納
し、このルールと履歴情報から選択されたオブジェクト
の保守点検や交換時期を求め、ガイダンス表示領域50
5にその結果を明示することができる。When the preventive maintenance support command 501E is selected in the menu area 501, equipment such as pumps, blowers and valves, in-house power generation, power reception and transformation, instrumentation equipment, computer systems,
Also, it is possible to search for specifications and drawings of monitoring equipment such as cameras and water quality meters, and support maintenance and inspection, replacement timing, replacement plans, etc. Digital map base 80 for drawing related information
The equipment and system specifications are stored in the knowledge base 82 in a frame format. Also, the digital map base 8
In 0, a layout drawing of the sewer pipe, its buried history and specifications can be stored in the knowledge base 82. When the object in the drawing display area 502 or the processing screen display area 503 is picked up with the mouse 52, the specification or drawing information defined in the selected object can be called and referred to for these information. In principle, these pieces of information are displayed in the drawing display area 502, but they can be displayed in other areas or the entire screen as necessary. When the calling information is a drawing, a man-machine with good usability can be provided by providing page scrolling and position scrolling functions. In addition, when information such as maintenance and inspection, replacement history, and specifications is displayed on multiple screens, a page scroll function is provided. These scroll functions are arranged in the display area. Also, by preparing an end menu and selecting end, the screen for selecting an object is returned. further,
The rules of maintenance and inspection and replacement cycle are stored in the knowledge base 82, and the maintenance and inspection and replacement timing of the selected object is obtained from this rule and history information, and the guidance display area 50 is displayed.
The result can be specified in 5.
【0042】メニュー領域501で運転支援コマンド5
01Dを選択すると、プラント運転支援や計測器の異常
診断などを実行できる。プラント運転支援は、プラント
情報データベース84,映像情報データベース86,音
響情報データベース88の各種情報と知識ベース82に
格納している運転ルールを呼出し、計算機90で実行す
る。運転ルールはオペレータの経験知識や普遍的な知識
をクリスプ,ファジィタイプで表現される。また、上述
のニューラルネットワークを用いて、プラント計測情
報,画像処理情報,音響情報の履歴情報から相互の因果
関係を求めて、上記運転ルールと照合し、新たな知識と
判断された知識をクリスプ,ファジィ手法で表現し、追
加ルールとすることができる。プラント運転支援とし
て、ポンプ場では水位変化や流入量予測結果に基づくポ
ンプ台数制御や駆動タイミング制御、浮遊物体の量や大
きさに基づくスクリーンの移送速度や強制排除、並びに
スクリーン破損状態の診断による運転支援を行う。終末
処理場では、水質状態や微生物状態から送風量や汚泥引
き抜き量及び返送量の良否を推論し、操作量を支援す
る。これらの推論結果、及び原因と対策手段をマンマシ
ンサーバ60に送信し、ガイダンス表示領域505に表
示する。オペレータは、この表示結果を参照しながら、
ディスプレイ50画面上の処理画面表示領域503に映
しだされている映像から遠隔操作できる。計測器の異常
診断はプラント情報データベース84の計測情報を呼出
し、時系列変化の上下限,経験管理範囲,変動幅,変化
の微分値などをルール化し、さらに、滞留時間を考慮し
た同種計器の併発チェックなどから異常状態を判断す
る。判断結果は、運転支援と同様に、ガイダンス表示領
域505に表示する。オペレータは、この表示結果に基
づいて関係先に対策指令を出すことができる。In the menu area 501, the driving support command 5
When 01D is selected, it is possible to execute plant operation support, measuring device abnormality diagnosis, and the like. The plant operation support is executed by the computer 90 by calling various information of the plant information database 84, the video information database 86, the acoustic information database 88 and the operation rules stored in the knowledge base 82. The operation rules are expressed as crisp and fuzzy types based on the experience and universal knowledge of operators. Further, by using the neural network described above, the mutual causal relationship is obtained from the history information of the plant measurement information, the image processing information, and the acoustic information, the result is collated with the above operation rule, and the knowledge determined as new knowledge is crisped. It can be expressed by a fuzzy method and used as an additional rule. As a plant operation support, at the pumping station, control of the number of pumps and drive timing control based on the result of water level change and inflow prediction, screen transfer speed and forced exclusion based on the amount and size of floating objects, and operation by diagnosing screen damage state Provide assistance. At the terminal treatment plant, the amount of air blown, the amount of sludge drawn out, and the amount of returned air are inferred from the water quality state and the microbial state to support the operation amount. These inference results, causes and countermeasures are transmitted to the man-machine server 60 and displayed in the guidance display area 505. The operator refers to this display result,
The remote control can be performed from the image displayed in the processing screen display area 503 on the screen of the display 50. The abnormality diagnosis of the measuring instrument calls the measurement information of the plant information database 84, and rules such as the upper and lower limits of the time series change, the empirical management range, the fluctuation range, the differential value of the change, and the simultaneous occurrence of the same type instrument considering the residence time. Judge the abnormal state by checking. The determination result is displayed in the guidance display area 505, similarly to the driving support. The operator can issue a countermeasure command to the related parties based on the display result.
【0043】上記実施例では、管理区域の施設を対等に
取扱い、一括して監視する方式としているが、処理区域
ごとに監視し、さらに、複数の処理区域の各種情報を光
ファイバ等の伝送手段で中央の監視システムで必要とす
る情報を送信する分散型方式とすることもできる。In the above-mentioned embodiment, the facilities in the controlled area are treated equally and are monitored collectively. However, it is monitored for each processing area, and further, various information of a plurality of processing areas is transmitted by an optical fiber transmission means. It can also be a decentralized method of transmitting information required by the central monitoring system.
【0044】また、本発明は、下水道システムを対象に
説明したが、これ以外のシステム、例えば上水道や水圏
監視浄化システム、及び発電プラント,化学プラント,
鉄鋼プラントなど大規模なプラントにも適用できる。Further, although the present invention has been described for a sewer system, other systems such as a water supply and a hydrosphere monitoring and purification system, a power plant, a chemical plant,
It can also be applied to large-scale plants such as steel plants.
【0045】[0045]
【発明の効果】本発明によれば、広域に分散している下
水処理施設の計測,映像,音響などの各種情報と、気象
情報や地理情報を統合的に管理し、運用することによ
り、 (1)遠隔地において、オペレータが臨場感を持って遠
隔操作ができ、巡回監視操作の負担を軽減できる。EFFECTS OF THE INVENTION According to the present invention, various information such as measurement, image and sound of sewage treatment facilities dispersed over a wide area and weather information and geographical information are integratedly managed and operated. 1) In a remote place, the operator can perform remote operation with a sense of realism, and the burden of patrol monitoring operation can be reduced.
【0046】(2)映像と音響信号を情報処理し、その
情報を用いることにより熟練オペレータに匹敵する施設
状態や設備機器の監視,診断が行える。また、グラフィ
ック用のオブジェクトデータと画像処理結果を照合して
カメラを制御することにより、画面上から実行する遠隔
操作の制御精度を向上できる。(2) By processing information of video and audio signals and using the information, it is possible to monitor and diagnose facility conditions and equipment comparable to a skilled operator. Further, by controlling the camera by collating the graphic object data with the image processing result, it is possible to improve the control accuracy of the remote operation executed from the screen.
【0047】(3)監視対象とする区域や処理施設を自
由に選択でき、さらに、指示された設備機器に関連する
計測,映像,音響情報の異種情報を素早く相互参照で
き、現場の状況を総合的に監視判断できる。(3) Areas and processing facilities to be monitored can be freely selected, and further, heterogeneous information such as measurement, video, and acoustic information related to the designated equipment can be quickly referred to each other to comprehensively understand the situation at the site. Can be monitored and judged.
【0048】(4)運転シミュレーションの結果を映像
と同一画面に表示することにより、シミュレーション結
果を参照しながら遠隔操作ができ、誤動作や運転ミスを
防止できる。(4) By displaying the result of the driving simulation on the same screen as the video, remote operation can be performed while referring to the simulation result, and malfunctions and driving mistakes can be prevented.
【0049】(5)映像あるいはグラフィック図面のオ
ブジェクトと実行メニューの選択により、定義された実
行処理内容が実施され、実行結果が表示される。これに
より、オペレータは手順に紛らわされることなく、目的
とする監視を容易に行うことができる。(5) The defined execution process contents are executed by selecting the object of the image or the graphic drawing and the execution menu, and the execution result is displayed. As a result, the operator can easily perform the desired monitoring without being confused by the procedure.
【0050】の少なくとも1つを達成できる効果があ
る。There is an effect that at least one of the above can be achieved.
【図1】本発明による下水処理施設群管理システムの全
体構成を示す一実施例。FIG. 1 is an embodiment showing an overall configuration of a sewage treatment facility group management system according to the present invention.
【図2】マンマシンサーバのハードウェアを示す構成
図。FIG. 2 is a configuration diagram showing hardware of a man-machine server.
【図3】本発明におけるディスプレイの表示画面の一例
を説明する構成図。FIG. 3 is a configuration diagram illustrating an example of a display screen of a display according to the present invention.
【図4】図面表示領域の管理区域全体の施設配置と流れ
を表示した画面表示形態の一例。FIG. 4 is an example of a screen display form that displays the facility arrangement and flow of the entire management area of the drawing display area.
【図5】図面表示領域の処理区域の施設配置と流れを表
示した画面表示形態例。FIG. 5 is an example of a screen display form that displays the facility arrangement and flow in the processing area of the drawing display area.
【図6】ポンプ場を対象とした画面表示領域の画面表示
形態例。FIG. 6 is an example of a screen display form of a screen display area for a pumping station.
【図7】終末処理場を対象とした画面表示領域の画面表
示形態例。FIG. 7 is an example of a screen display form of a screen display area for a terminal treatment plant.
【図8】管渠を対象とした画面表示領域の画面表示形態
例。FIG. 8 is an example of a screen display form of a screen display area for a pipe.
【図9】ポンプ場を対象としたディスプレイの表示画面
の一例を説明する構成図。FIG. 9 is a configuration diagram illustrating an example of a display screen of a display targeting a pumping station.
【図10】処理画面表示領域の映像表示形態と現場との
対応例を説明する構成図。FIG. 10 is a configuration diagram illustrating an example of correspondence between a video display mode of a processing screen display area and a site.
【図11】メニュー領域の構成と選択機能項目を説明す
る図。FIG. 11 is a diagram illustrating a configuration of a menu area and selected function items.
【図12】処理画面表示領域での操作可能なオブジェク
トの明示例を示す図。FIG. 12 is a diagram showing an example of clearly indicating operable objects in a processing screen display area.
【図13】探索による映像探索の一例を示す図。FIG. 13 is a diagram showing an example of a video search by search.
【図14】本発明におけるオブジェクト同定処理の手順
を示す図。FIG. 14 is a diagram showing a procedure of object identification processing according to the present invention.
【図15】信号処理装置の構成を示す図。FIG. 15 is a diagram showing a configuration of a signal processing device.
【図16】画像処理装置のハードウェアを示す構成図。FIG. 16 is a configuration diagram showing hardware of an image processing apparatus.
【図17】オブジェクトデータと2値画像の対応関係を
説明する図。FIG. 17 is a diagram illustrating a correspondence relationship between object data and a binary image.
【図18】音響波形処理装置の処理手順を説明する図。FIG. 18 is a diagram illustrating a processing procedure of the acoustic waveform processing device.
【図19】音響波形処理装置の波形解析手段の一例を説
明する図。FIG. 19 is a diagram illustrating an example of a waveform analysis unit of the acoustic waveform processing device.
【図20】音響異常手段の一例を説明する図。FIG. 20 is a diagram illustrating an example of acoustic abnormality means.
10…ポンプ場群、20…処理場群、30…管渠群、5
0…ディスプレイ、52…マウス、54…スピーカ、6
0…マンマシンサーバ、65…スイッチャ、80…ディ
ジタルマップベース、82…知識ベース、84…プラン
ト情報データベース、86…映像情報データベース、8
8…音響情報データベース、90…計算機、130…ビ
デオカメラ、140…カメラコントローラ、150…マ
イク、501…メニュー領域、502…画面表示領域、
503…処理画面表示領域、504…データ表示領域、
505…ガイダンス情報表示領域。10 ... Pumping station group, 20 ... Treatment station group, 30 ... Pipeway group, 5
0 ... Display, 52 ... Mouse, 54 ... Speaker, 6
0 ... Man-machine server, 65 ... Switcher, 80 ... Digital map base, 82 ... Knowledge base, 84 ... Plant information database, 86 ... Video information database, 8
8 ... Acoustic information database, 90 ... Calculator, 130 ... Video camera, 140 ... Camera controller, 150 ... Microphone, 501 ... Menu area, 502 ... Screen display area,
503 ... Processing screen display area, 504 ... Data display area,
505 ... Guidance information display area.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 依田 幹雄 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 (72)発明者 原 直樹 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 (72)発明者 呉 文智 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 (72)発明者 矢萩 捷夫 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 大淵 美砂子 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 早稲田 邦夫 東京都千代田区神田駿河台四丁目6番地 株式会社日立製作所内 (72)発明者 浜田 亘曼 東京都千代田区神田駿河台四丁目6番地 株式会社日立製作所内 (72)発明者 嶋内 繁行 東京都千代田区神田駿河台四丁目6番地 株式会社日立製作所内 (72)発明者 大場 雅博 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Mikio Yoda 5-2-1 Omika-cho, Hitachi City, Ibaraki Prefecture Hitachi Ltd. Omika Factory (72) Naoki Hara 5-chome, Omika-cho, Hitachi City, Ibaraki Prefecture No. 1 Incorporated company Hitachi Ltd. Omika Plant (72) Inventor Fumichi Kure 52-1 Omika-cho, Hitachi City, Hitachi City, Ibaraki Prefecture Incorporated Hitachi Ltd. Omika Plant (72) Inventor Yasuo Yahagi Kuji, Hitachi City, Ibaraki Prefecture 4026, Machi, Hitachi Research Laboratory, Hitachi Ltd. (72) Misako Obuchi, 4026, Kujimachi, Hitachi City, Hitachi, Ibaraki Prefecture, Hitachi Research Laboratory, Hitachi Ltd. (72) Kunio Waseda, 4-6, Kanda Surugadai, Chiyoda-ku, Tokyo Address Hitachi, Ltd. (72) Inventor, Watanabe Hamada, 4-6, Kanda Surugadai, Chiyoda-ku, Tokyo Hitachi, Ltd. (72) Inventor Shigeyuki Shimauchi 4-6 Kanda Surugadai, Chiyoda-ku, Tokyo Hitachi, Ltd. (72) Inventor Masahiro Oba 1099, Ozenji, Aso-ku, Kawasaki-shi, Kanagawa Incorporated company Hitachi Systems Development Research In-house
Claims (11)
を表示する手段と、 処理区域内の処理施設を指定する手段と、 指定された処理施設の設備配置と流れを表示する手段
と、 処理施設の設備あるいは流れを指定する手段と、 指定された設備あるいは流れのビデオ映像を表示する手
段と、 ビデオ映像内の被写体を指定する手段と、 指定された被写体に基づいて決められた処理を実行する
手段とを有することを特徴とする下水処理施設群管理シ
ステム。1. A means for displaying the arrangement and flow of treatment facilities dispersed in the treatment area, a means for designating the treatment facility in the treatment area, and a means for displaying the equipment arrangement and flow of the designated treatment facility. The means to specify the equipment or flow of the processing facility, the means to display the video image of the specified equipment or flow, the means to specify the subject in the video image, and the processing decided based on the specified subject. A sewage treatment facility group management system comprising: means for executing.
処理実行結果を同一の表示手段に表示することを特徴と
する下水処理施設群管理システム。2. The processing facility and the arrangement and flow of the facility, the video image according to claim 1,
A system for managing a group of sewage treatment facilities, characterized in that the results of treatment are displayed on the same display means.
数値及び文字情報に基づいて実行されることを特徴とす
る下水処理施設群管理システム。3. The image processing apparatus according to claim 1, wherein the processing execution means obtains an image, a sound, an odor,
A sewage treatment facility group management system characterized by being executed based on numerical and character information.
して求めた情報を用いることを特徴とする下水処理施設
群管理システム。4. The sewage treatment facility group management system according to claim 3, wherein the processing execution means uses information obtained by image processing of video and waveform analysis of sound.
どの地理情報に基づいて実行されることを特徴とする下
水処理施設群管理システム。5. The sewage treatment facility group management system according to claim 1, wherein the treatment executing means is executed based on weather information including a treatment area and geographical information such as topography and soil quality.
理情報に基づいて流入量予測を実行することを特徴とす
る下水処理施設群管理システム。6. The sewage treatment facility group management system according to claim 5, wherein the processing execution means executes inflow prediction based on numerical information, image information, weather information, and geographical information.
て施設の設備機器及び水処理状態の良否を診断し、運転
のガイダンスを表示することを特徴とする下水処理施設
群管理システム。7. The processing execution means according to claim 1, wherein the quality of the equipment and water treatment state of the facility is diagnosed based on the numerical information, the image information, and the acoustic information, and the operation guidance is displayed. Sewage treatment facility group management system.
する下水処理施設群管理システム。8. The sewage treatment facility group management system according to claim 1, wherein the treatment facilities are a sewage treatment plant and a pumping station.
ングと台数を制御する運転シミュレーションであること
を特徴とする下水処理施設群管理システム。9. The sewage treatment facility group management system according to claim 1, 5 or 8, wherein the processing execution means is an operation simulation for controlling the operation timing and the number of pumps based on the inflow prediction.
ス情報,シミュレーション情報を前記表示手段に同時に
表示することを特徴とする下水処理施設群管理システ
ム。10. The sewage treatment facility group according to claim 4, wherein the processing information, the prediction information, the guidance information, and the simulation information obtained by the processing execution means are simultaneously displayed on the display means. Management system.
情報に基づいて施設及び設備の異常を診断することを特
徴とする下水処理施設群管理システム。11. The sewage treatment facility group management system according to claim 1, wherein the processing execution means diagnoses an abnormality of the facility and the equipment based on the operation history information and the operation knowledge information stored in advance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4240360A JPH0688373A (en) | 1992-09-09 | 1992-09-09 | Sewage disposing facility group managing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4240360A JPH0688373A (en) | 1992-09-09 | 1992-09-09 | Sewage disposing facility group managing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0688373A true JPH0688373A (en) | 1994-03-29 |
Family
ID=17058337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4240360A Pending JPH0688373A (en) | 1992-09-09 | 1992-09-09 | Sewage disposing facility group managing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0688373A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100395265B1 (en) * | 2000-08-22 | 2003-08-21 | (주)유니엔텍 | An integrated operating method for infrastructure and therefor process system |
KR100414809B1 (en) * | 2000-09-13 | 2004-01-13 | 산요덴키가부시키가이샤 | Sewage management system |
KR100431512B1 (en) * | 1999-01-06 | 2004-05-14 | 한국정수공업 주식회사 | Remote Monitoring Control System For Water Treatment Plants |
JP2004339752A (en) * | 2003-05-14 | 2004-12-02 | Kajima Corp | Flood damage analysis system |
JP2005177651A (en) * | 2003-12-22 | 2005-07-07 | Hitachi Ltd | Discharged material controlling device, its program, its recording medium, its system and wastewater treatment system |
JPWO2005068379A1 (en) * | 2004-01-13 | 2007-08-23 | 伊藤忠林業株式会社 | Wastewater purification system |
JP2008186401A (en) * | 2007-01-31 | 2008-08-14 | Tokyo Metropolis | Database management system and database management method |
WO2008114368A1 (en) * | 2007-03-16 | 2008-09-25 | Fujitsu Limited | Information selection method, its system, monitoring device, and data collection device |
JP2015230303A (en) * | 2014-06-06 | 2015-12-21 | 林正祥 | Waste water diagnosis system, waste water diagnosis device, and waste water diagnosis data processing method |
JP2018010490A (en) * | 2016-07-13 | 2018-01-18 | 株式会社東芝 | Display controller, display control method and display control program |
JP2018178405A (en) * | 2017-04-05 | 2018-11-15 | 株式会社日立製作所 | Control device and control program for sewage treatment plant |
JP2019096255A (en) * | 2017-11-28 | 2019-06-20 | 株式会社明電舎 | Water level prediction device in sewer pipe, water level prediction method in sewer pipe, and water level prediction program in sewer pipe |
CN111045378A (en) * | 2019-11-25 | 2020-04-21 | 青岛卓岩信息技术有限公司 | Automatic control system for treating sewage from tall rocks |
JP2020135220A (en) * | 2019-02-15 | 2020-08-31 | 住友重機械エンバイロメント株式会社 | Method for managing plant equipment and follow-up device for plant equipment |
GB2582803A (en) * | 2019-04-03 | 2020-10-07 | J Murphy & Sons Ltd | System and method for monitoring a wastewater treatment works |
CN113003619A (en) * | 2019-12-19 | 2021-06-22 | 株式会社晓林 | IOT-based system |
CN118052456A (en) * | 2024-04-11 | 2024-05-17 | 四川省铁路建设有限公司 | Method and device for determining detection strategy for treated sewage |
-
1992
- 1992-09-09 JP JP4240360A patent/JPH0688373A/en active Pending
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100431512B1 (en) * | 1999-01-06 | 2004-05-14 | 한국정수공업 주식회사 | Remote Monitoring Control System For Water Treatment Plants |
KR100395265B1 (en) * | 2000-08-22 | 2003-08-21 | (주)유니엔텍 | An integrated operating method for infrastructure and therefor process system |
KR100414809B1 (en) * | 2000-09-13 | 2004-01-13 | 산요덴키가부시키가이샤 | Sewage management system |
JP2004339752A (en) * | 2003-05-14 | 2004-12-02 | Kajima Corp | Flood damage analysis system |
JP2005177651A (en) * | 2003-12-22 | 2005-07-07 | Hitachi Ltd | Discharged material controlling device, its program, its recording medium, its system and wastewater treatment system |
JPWO2005068379A1 (en) * | 2004-01-13 | 2007-08-23 | 伊藤忠林業株式会社 | Wastewater purification system |
JP2008186401A (en) * | 2007-01-31 | 2008-08-14 | Tokyo Metropolis | Database management system and database management method |
WO2008114368A1 (en) * | 2007-03-16 | 2008-09-25 | Fujitsu Limited | Information selection method, its system, monitoring device, and data collection device |
JPWO2008114368A1 (en) * | 2007-03-16 | 2010-06-24 | 富士通株式会社 | Information selection method, system thereof, monitoring device, and data accumulation device |
JP4531112B2 (en) * | 2007-03-16 | 2010-08-25 | 富士通株式会社 | Information selection method, system thereof, monitoring device, and data accumulation device |
JP2015230303A (en) * | 2014-06-06 | 2015-12-21 | 林正祥 | Waste water diagnosis system, waste water diagnosis device, and waste water diagnosis data processing method |
JP2018010490A (en) * | 2016-07-13 | 2018-01-18 | 株式会社東芝 | Display controller, display control method and display control program |
JP2018178405A (en) * | 2017-04-05 | 2018-11-15 | 株式会社日立製作所 | Control device and control program for sewage treatment plant |
JP2019096255A (en) * | 2017-11-28 | 2019-06-20 | 株式会社明電舎 | Water level prediction device in sewer pipe, water level prediction method in sewer pipe, and water level prediction program in sewer pipe |
JP2021182408A (en) * | 2017-11-28 | 2021-11-25 | 株式会社明電舎 | Method for predicting water level in sewage pipe sewer |
JP2020135220A (en) * | 2019-02-15 | 2020-08-31 | 住友重機械エンバイロメント株式会社 | Method for managing plant equipment and follow-up device for plant equipment |
GB2582803A (en) * | 2019-04-03 | 2020-10-07 | J Murphy & Sons Ltd | System and method for monitoring a wastewater treatment works |
GB2582803B (en) * | 2019-04-03 | 2023-07-12 | J Murphy & Sons Ltd | System and method for monitoring a wastewater treatment works |
CN111045378A (en) * | 2019-11-25 | 2020-04-21 | 青岛卓岩信息技术有限公司 | Automatic control system for treating sewage from tall rocks |
CN113003619A (en) * | 2019-12-19 | 2021-06-22 | 株式会社晓林 | IOT-based system |
CN118052456A (en) * | 2024-04-11 | 2024-05-17 | 四川省铁路建设有限公司 | Method and device for determining detection strategy for treated sewage |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0688373A (en) | Sewage disposing facility group managing system | |
JP7488250B2 (en) | Systems and methods for projecting and displaying acoustic data - Patents.com | |
US5832183A (en) | Information recognition system and control system using same | |
JP6348504B2 (en) | Biological sample split screen display and system and method for capturing the records | |
CN1774679B (en) | Process control system and method for configuring a process control system | |
CN109195751A (en) | System and method for the configurable operations based on the robot for distinguishing class | |
CN114636424B (en) | Substation inspection path planning method based on wearable equipment | |
US20100315416A1 (en) | Computer implemented method and system for remote inspection of an industrial process | |
US20060241793A1 (en) | Human-machine interface for a control system | |
KR102536774B1 (en) | Dam sluice discharge simulation system and method using 3D digital twin dam model | |
FR2669752A1 (en) | PROCESS CONTROL SYSTEM AND METHOD OF DISPLAYING WINDOWS FOR SUCH A SYSTEM. | |
JP2007249997A (en) | Method and system for monitoring industrial process | |
DE112018007754T9 (en) | Information processing apparatus, information processing system, method and program | |
EP3738006A1 (en) | System for power plant management and device for building 3d virtual model of power plant | |
CN111125290A (en) | Intelligent river patrol method and device based on river growth system and storage medium | |
Shehab et al. | Automated detection and classification of infiltration in sewer pipes | |
JPH07192184A (en) | Drawing management device and plant monitor device | |
CN117094660A (en) | Construction monitoring method and system based on digital twin technology | |
CN116789016B (en) | Method and equipment for monitoring operation hidden danger of intelligent building site tower crane | |
CN101681164A (en) | A computer implemented method to display technical data for monitoring an industrial installation | |
WO2019073615A1 (en) | Worksite image assessment device and worksite image assessment program | |
KR102541215B1 (en) | Underwater living thing monitoring device and method using Virtual Reality | |
CN106154984A (en) | Data handling system, data processing method and electric power management system | |
CN113326626B (en) | User-oriented system modeling simulation platform and method | |
CN110494862A (en) | Sequence generating device and its control method |