JPH0579951A - Monitoring system - Google Patents

Monitoring system

Info

Publication number
JPH0579951A
JPH0579951A JP3238277A JP23827791A JPH0579951A JP H0579951 A JPH0579951 A JP H0579951A JP 3238277 A JP3238277 A JP 3238277A JP 23827791 A JP23827791 A JP 23827791A JP H0579951 A JPH0579951 A JP H0579951A
Authority
JP
Japan
Prior art keywords
data
video
monitoring system
measurement data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3238277A
Other languages
Japanese (ja)
Other versions
JP2970964B2 (en
Inventor
Masayasu Futagawa
正康 二川
Masayuki Tani
谷  正之
Kimiya Yamatari
公也 山足
Koichiro Tanikoshi
浩一郎 谷越
Shinya Tanifuji
真也 谷藤
Atsuhiko Nishikawa
敦彦 西川
敦彦 ▲ひろ▼田
Atsuhiko Hirota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP3238277A priority Critical patent/JP2970964B2/en
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to DE4290947T priority patent/DE4290947T1/de
Priority to KR1019920703137A priority patent/KR100318330B1/en
Priority to DE4290947A priority patent/DE4290947B4/en
Priority to PCT/JP1992/000434 priority patent/WO1992017875A1/en
Publication of JPH0579951A publication Critical patent/JPH0579951A/en
Priority to US08/328,566 priority patent/US6335722B1/en
Priority to KR1019997005176A priority patent/KR100257593B1/en
Application granted granted Critical
Publication of JP2970964B2 publication Critical patent/JP2970964B2/en
Priority to US09/845,838 priority patent/US6965376B2/en
Priority to US10/875,336 priority patent/US20040227739A1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • Y04S10/54

Landscapes

  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Alarm Systems (AREA)

Abstract

PURPOSE:To synchronously display not only the process data but also the image and voice data during reproduction in a process control monitoring system. CONSTITUTION:A data base 104 storing the process measurement data and an image/voice record section 108 recording at least one of the sound data and the image data are provided, the measurement data, sound data, and image data are correspondingly stored, the data base 104 reproduces the measurement data, and the image/voice record section 108 reproduces at least one of the sound data and the image data. A work station 103 synchronizing the image/ voice record section 108 and the data base 104, a display 111 outputting the measurement data and the image data, and a speaker 112 outputting the sound data are provided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は発電プラント、化学プラ
ント、病院、鉄鋼、鉄道、上下水道管理等を監視、制御
するシステムにおいて得られたプロセスデータ、ITVカ
メラや音声マイクからの映像、音情報を記録し、異常時
等解析が必要な際に、映像、音、及びプロセスデータを
互いに関連づけ表示するシステムに関する。
BACKGROUND OF THE INVENTION The present invention relates to process data obtained in a system for monitoring and controlling power plants, chemical plants, hospitals, steel, railways, water and sewage management, images from ITV cameras and audio microphones, and sound information. The present invention relates to a system for recording and displaying video, sound, and process data in association with each other when an analysis is required such as an abnormality.

【0002】[0002]

【従来の技術】一般に、プロセス制御監視システム等の
監視システムにおいては、中央管理室にモニター装置を
設置し、プロセス側にITVカメラを設置してプロセスの
様子をそのカメラによって撮られた映像をモニターに表
示することによりプロセスの状況を視覚的に監視する方
法が採られている。この映像、音はビデオテープなどの
記録媒体に記録されている。この映像、音は、異常時な
どに巻き戻し、再生が行なわれる。
2. Description of the Related Art Generally, in a monitoring system such as a process control monitoring system, a monitor device is installed in a central control room, an ITV camera is installed on the process side, and the state of the process is monitored by an image taken by the camera. The method of visually monitoring the process status is adopted by displaying on. The image and sound are recorded on a recording medium such as a video tape. The video and sound are rewound and played back in the event of an abnormality.

【0003】一方、プロセスから時事刻々と送られてく
るプロセスデータ(測定デ−タ)は中央管理室のモニタ
ーやメーター類に表示されると共に、システム内のデー
タベースに蓄えられ、異常時や解析が必要な時にはデー
タベースから引き出せるようになっている。このシステ
ムについては特開昭60−93518号公報のプラント
運転履歴表示方式で紹介されている。
On the other hand, the process data (measurement data) sent from the process every moment is displayed on the monitor and meters of the central control room, and is also stored in the database in the system to analyze abnormalities and analysis. It can be retrieved from the database when needed. This system is introduced in the plant operation history display system of JP-A-60-93518.

【0004】しかし、映像情報や音情報とプロセスデー
タとは記録する媒体が異なっているためか、従来、再生
あるいは解析する際には、別々に再生あるいは解析しな
ければならなかった。例えば、プラント上で異常が発生
した場合は、それを計器が検出してブザーがなる。その
後プロセス全体図で対応する機器を探してその原因と対
応策を決め、処置を施す。ここでその原因と故障機器の
推定には、多くの関連するデータ、映像が必要のため非
常に労力を必要とした。ビデオを用いた解析において
は、あらかじめビデオを見て異常の起こる付近を探した
後、プロセスデータでその付近を調べる方法が用いられ
たり、プロセスデータで異常時点を見つけた後、そこま
でビデオを巻き戻して再生する方法が用いられている。
However, since the recording mediums for the image information and sound information and the process data are different, it has conventionally been necessary to separately reproduce or analyze when reproducing or analyzing. For example, when an abnormality occurs on the plant, the instrument detects it and a buzzer sounds. Then, in the overall process diagram, find the corresponding device, determine the cause and countermeasure, and take action. It took a lot of effort to estimate the cause and the faulty device because many related data and images were needed. In analysis using video, a method of looking at the video in advance to find the vicinity of the abnormality and then examining the vicinity in the process data, or after finding the abnormal point in the process data, wind the video up to that point. The method of returning and reproducing is used.

【0005】しかし一般に、プラント等を監視するITV
カメラは複数あり、そこからの映像が複数のビデオに記
録されているため、異常時等、解析時に各カメラからの
映像を関連付けて見るためにはそれらのビデオすべてを
希望するところまで巻き戻し再生する等、操作員の負担
が大きかった。
However, in general, an ITV for monitoring a plant or the like
Since there are multiple cameras and the images from them are recorded in multiple videos, in order to view the images from each camera in association with each other during analysis, such as during abnormal conditions, rewind all of those videos to the desired location and play them back. The burden on the operator was heavy.

【0006】一方、データベースから希望のデータを、
このような映像情報を用いずにうまく引き出すことは難
しく、多くの場合、膨大な量の情報をプリンタで出力し
た後、その解析に操作員があたっていた。
On the other hand, desired data from the database is
It is difficult to properly extract the image information without using such image information, and in many cases, after outputting a huge amount of information with a printer, an operator had to analyze it.

【0007】[0007]

【発明が解決しようとする課題】従来のシステムは以下
のような問題点があった。
The conventional system has the following problems.

【0008】(1) 映像、音情報を再生する際にプロセ
スデータを同時に参照できなかったため、せっかく映像
から情報を得てもその後のプロセスデータの検索に手間
と時間がかかる。
(1) Since the process data cannot be referred to at the same time when the video and sound information is reproduced, even if the information is obtained from the video, it is troublesome and time-consuming to retrieve the process data thereafter.

【0009】(2) プロセスデータをトレンドグラフ等
に表示し、操作員が映像を参照したい時点がわかって
も、映像を表示するためには手間と時間がかかった。こ
のため迅速な現場の実際の状況把握が出来なかった。
(2) Even if the operator displays the process data on a trend graph and knows when the operator wants to refer to the image, it takes time and effort to display the image. For this reason, it was not possible to quickly grasp the actual situation at the site.

【0010】(3) 異常値等プロセスデータの探索を行
なった場合でも、そのプロセスデータに関する映像を表
示するのに手間がかかる。
(3) Even when a process data such as an abnormal value is searched for, it takes a lot of time to display the image related to the process data.

【0011】(4) 記録されたプロセスデータを表示す
る際に、特に記録された多くのデータを早送りで表示す
ると計算機に多くの負担がかかった。
(4) When displaying the recorded process data, particularly when displaying a large amount of the recorded data in fast-forward, a heavy load was placed on the computer.

【0012】(5) データの表示方法に制限があったた
め詳しく見たい、飛ばして見たいと言った要求には対応
できなかった。特に詳しく見て解析する場合は、関連す
る映像や音もスロー再生で参照すれば、より解析に役立
つがこの機能はない。
(5) Due to the limitation of the data display method, it was not possible to meet the demand for detailed and skipped requests. When analyzing in detail, if the related video and sound are also referred to in slow playback, it is more useful for analysis, but this function does not exist.

【0013】(6) プロセスの運転を決定する重要な要
素として、操作員の操作命令があるが、これらが再生さ
れないため、何の操作でプロセスの状態が変わったか、
わからなかった。
(6) An important factor that determines the operation of the process is an operation command from an operator. Since these are not reproduced, what operation changed the process state,
I did not understand.

【0014】(7) 操作員が操作した命令を覚えていて
もその命令を探索することができなかったため、結局プ
ロセスデータ等を解析して操作命令をした時点を推測せ
ねばならなかった。
(7) Even if the operator memorized the command operated, the command could not be searched. Therefore, it was necessary to analyze the process data and the like to estimate the time when the command was issued.

【0015】(8) プロセスデータと映像情報の関連づ
けがないため、たとえ映像上で異常が発見された場合に
も、その映像が何を映しているもので、そこから何のデ
ータを出力しているかは、訓練を積んだベテランのみが
わかるのであって、そうでない者にはデータがどのプロ
セス装置と関係するかわからなかった。
(8) Since there is no relation between the process data and the video information, even if an abnormality is found on the video, what is displayed in that video and what data is output from that video It is only known to trained veterans, and to those who do not know which process equipment the data relates to.

【0016】(9) 映像を表示する場所とプロセスデー
タを表示する場所が分立していたため操作員が視線を動
かさねばならず刻々と変わるデータ、映像を同時に見れ
なかった。
(9) Since the place for displaying the image and the place for displaying the process data were separated, the operator had to move his or her line of sight and could not see the ever-changing data and the image.

【0017】(10) 従来用いられるビデオテープは映像
データの迅速なアクセス等の点で、その再生能力に問題
があった。一方、光ディスクを用いれば迅速なアクセス
は可能であるが、映像データが非常に大きくなってしま
うため記録するためには大容量のディスクが必要であっ
た。
(10) The conventionally used video tape has a problem in its reproducing ability in terms of quick access to image data. On the other hand, if an optical disk is used, quick access is possible, but since the video data becomes very large, a large capacity disk is required for recording.

【0018】本発明においては、測定デ−タと、映像ま
たは音とを同期して再生できる監視システムを提供する
ことを目的とする。
It is an object of the present invention to provide a monitoring system capable of reproducing measurement data and video or sound in synchronization with each other.

【0019】[0019]

【課題を解決するための手段】上記目的を達成するため
に、監視対象物に関する測定デ−タを記憶している第1
の記憶手段と、監視対象物に関する音デ−タ及び映像デ
−タのうち少なくとも一方を記憶している第2の記憶手
段とを有し、上記測定デ−タと、上記音デ−タ及び映像
デ−タとは、対応付けのための情報とともに記憶されて
いる監視システムにおいて、上記測定デ−タを再生する
第1の再生手段と、上記音デ−タ及び映像デ−タのうち
少なくとも一方を再生する第2の再生手段と、第2の再
生手段に、第1の再生手段を対応付けの情報により同期
させる制御部と、上記測定デ−タを出力する第1の出力
手段と、上記音デ−タを出力する出力手段及び映像デ−
タを出力する出力手段のうち少なくとも一方を有する第
2の出力手段とを有することとしたものである。
In order to achieve the above-mentioned object, a first storage means for storing measurement data relating to an object to be monitored.
Storage means, and second storage means for storing at least one of sound data and video data relating to the monitored object, the measurement data, the sound data, and The video data is, in a surveillance system stored together with information for associating, first reproduction means for reproducing the measurement data, and at least the sound data and the video data. Second reproducing means for reproducing one side, a control section for synchronizing the first reproducing means with the second reproducing means based on the correspondence information, and a first outputting means for outputting the measurement data. Outputting means for outputting the sound data and video data
A second output means having at least one of the output means for outputting the data.

【0020】[0020]

【作用】監視対象物に関する測定デ−タを記憶している
第1の記憶手段と、監視対象物に関する音デ−タ及び映
像デ−タのうち少なくとも一方を記憶している第2の記
憶手段とを有し、上記測定デ−タと、上記音デ−タ及び
映像デ−タとは、対応付けて記憶されている監視システ
ムにおいて、第1の再生手段は、上記測定デ−タを再生
する。第2の再生手段は、上記音デ−タ及び映像デ−タ
のうち少なくとも一方を再生する。制御部は、第2の再
生手段に第1の再生手段を対応付けの情報により同期さ
せる。第1の出力手段は、上記測定デ−タを出力する。
第2の出力手段は、上記音デ−タ及び映像デ−タのうち
少なくとも一方を出力する。こうして、上記測定デ−タ
を映像又は音の再生に同期して出力する。
The first storage means for storing the measurement data on the monitored object and the second storage means for storing at least one of the sound data and the video data on the monitored object. In the surveillance system in which the measurement data and the sound data and the video data are stored in association with each other, the first reproducing means reproduces the measurement data. To do. The second reproducing means reproduces at least one of the sound data and the video data. The control unit synchronizes the first reproducing means with the second reproducing means by the information of the correspondence. The first output means outputs the measurement data.
The second output means outputs at least one of the sound data and the video data. In this way, the measurement data is output in synchronization with the reproduction of the image or sound.

【発明の詳細
な説 【0021】明】
Detailed Description of the Invention

【0022】[0022]

【実施例】本発明の実施例を以下図1から図31を用い
て述べる。
Embodiments of the present invention will be described below with reference to FIGS. 1 to 31.

【0023】図1は本実施例のプラント制御監視システ
ムの構成を表わす。工場の現場における監視対象物であ
る装置(以下単に制御対象装置と呼ぶ)101は、各時
刻での運転状況を示すプロセスデータをケーブル135
を通して、第1の入力手段である制御用計算機102に
送る。制御用計算機102ではプロセスデータを分析
し、制御対象装置101に制御信号をケーブル136を
通して送る。また、ケーブル137を通してLAN12
0にプロセスデータを流し、ケーブル138を通してL
AN120から流れてくる操作員命令を受け取り、処理
する。以上のように、制御用計算機102の主な機能は
プロセスデータの収集、プロセスデータのLANへの出
力、操作員命令のLANからの入力、制御対象装置10
1へのプロセス制御信号の出力である。
FIG. 1 shows the configuration of the plant control and monitoring system of this embodiment. A device (hereinafter, simply referred to as a control target device) 101, which is a monitoring target at a factory site, sends process data indicating an operation status at each time to a cable 135.
Through the control computer 102, which is the first input means. The control computer 102 analyzes the process data and sends a control signal to the controlled device 101 through the cable 136. In addition, the LAN 12 through the cable 137
Flow the process data to 0 and pass L through cable 138.
It receives an operator command from the AN 120 and processes it. As described above, the main functions of the control computer 102 are collection of process data, output of process data to the LAN, input of operator commands from the LAN, and control target device 10.
1 is the output of the process control signal.

【0024】LAN120は、Ethernet等のケ
ーブルで、操作員命令、プロセスデータ等の信号を流
す。LAN120は、制御用計算機102からの出力用
ケーブル137、制御用計算機102への入力用ケーブ
ル138、データベース104からの出力用ケーブル1
43、デ−タベ−ス104への入力用ケーブル144、
ワークステーション103からの出力用ケーブル14
0、ワークステーション103への入力用ケーブル13
9で、各機器と接続している。
The LAN 120 is a cable such as Ethernet for transmitting signals such as operator commands and process data. The LAN 120 includes an output cable 137 from the control computer 102, an input cable 138 to the control computer 102, and an output cable 1 from the database 104.
43, an input cable 144 to the data base 104,
Output cable 14 from workstation 103
0, input cable 13 to workstation 103
At 9, the device is connected.

【0025】第1、第3の記憶手段および第1の再生手
段であるデータベース104はLAN120に流れてい
るプロセスデータ等をケーブル144を通して受け取
り、内部に持っている時計が出力する時刻tとともに記
録する。また、ケーブル144を通してデータ読みだし
の命令が入力された際には、読みだし指定を受けたデー
タをケーブル143を通してLAN120に送る。
The database 104, which is the first and third storage means and the first reproducing means, receives the process data and the like flowing in the LAN 120 through the cable 144 and records them together with the time t output by the internal clock. .. Further, when a data read command is input through the cable 144, the data designated to be read is sent to the LAN 120 through the cable 143.

【0026】複数台のITVカメラ110は、制御信号を
入力することでパン、チルト、ズーム等の遠隔操作がで
きるカメラ制御装置、及びカメラと共に動く音声マイク
が取付けられている。カメラ110は制御対象装置10
1の映像、音声をケーブル130、131を通して、ス
イッチャ109に送る。スイッチャ109は、ワークス
テーション103から入力するカメラ制御信号をケーブ
ル132を通してカメラ110に送る。ITVカメラ11
0は、第2の入力手段である。
A plurality of ITV cameras 110 are equipped with a camera control device capable of remotely controlling pan, tilt, zoom, etc. by inputting a control signal, and a voice microphone that moves together with the cameras. The camera 110 is the control target device 10.
The video and audio of No. 1 are sent to the switcher 109 through the cables 130 and 131. The switcher 109 sends a camera control signal input from the workstation 103 to the camera 110 through the cable 132. ITV camera 11
0 is a second input means.

【0027】第2の記憶手段および第2の再生手段であ
る映像音声記録部108は、光ディスク等のランダムア
クセスが可能なものを用いる。ビデオテープの様なもの
でもよいがこの場合はデータの探索が逐次的であるた
め、データの探索及び表示の時間がかかる。ITVカメラ
110からの全ての映像、音声はスイッチャ109をス
ルーアウトしてケーブル133から入力される。また制
御部であるワークステーション103がスイッチャ10
9を通してケーブル145で読みだし命令を入力した場
合は、指定された映像、音声情報をケーブル134を通
してスイッチャ109に出力する。
As the video / audio recording section 108 which is the second storage means and the second reproducing means, a random accessable one such as an optical disk is used. It may be something like a video tape, but in this case the data search is sequential, so it takes time to search and display the data. All video and audio from the ITV camera 110 are input through the cable 133 through the switcher 109. Further, the workstation 103, which is the control unit, is the switcher 10
When a read command is input through the cable 145 through the cable 9, the specified video and audio information is output to the switcher 109 through the cable 134.

【0028】スイッチャ109は、入力する複数の映
像、音声をワークステーション103にケーブル141
を通して送る際の映像音声切り替えスイッチであると共
に、ワークステーション103からケーブル142を通
して出力するカメラ制御信号、記録映像呼び出し信号
を、カメラ110、映像音声記録部108に送る際の信
号送信先切り替えスイッチである。
The switcher 109 sends a plurality of input video and audio signals to the workstation 103 via a cable 141.
Is a video / audio changeover switch for sending through the cable, and a signal transmission destination changeover switch for sending a camera control signal and a recorded video calling signal output from the workstation 103 through the cable 142 to the camera 110 and the video / audio recording unit 108. ..

【0029】ワークステーション103は、操作員への
出力手段として第1、第3の出力手段である表示用ディ
スプレイ111、スピーカー112、操作員からの入力
手段(測定デ−タ出力指定手段、選択対象を選択する手
段、測定デ−タの探索値を指定する手段)としてキーボ
ード106、マウス105およびタッチパネル107等
の入力デバイスと接続している。また、ケーブル13
9、140でLAN120と、ケーブル141、142
でスイッチャ109と接続する。ワークステーション1
03は、ケーブル139から入力するプロセスデータを
処理し表示画面を作成して、ケーブル141から入力す
る映像データと共にディスプレイ111に表示する。一
方、ケーブル141で入力する音声データはスピーカー
112で出力する。スピーカー112と表示用ディスプ
レイ111とは、第2の出力手段である。また、操作員
からのキーボード106によるキー入力やマウス105
およびタッチパネル107等入力デバイスからの入力は
ワークステーション103内で処理され、制御対象装置
101の制御コードとしてケーブル140で出力した
り、映像、音声の切り替えスイッチャ109への切り替
え命令や、カメラ110の制御コード、映像、音声記録
部108への呼び出しコードとして、ケーブル142で
出力する。
The work station 103 has first and third output means for display 111, a speaker 112, and input means (measurement data output designating means, selection target) from the operator as output means to the operator. Is connected to an input device such as a keyboard 106, a mouse 105, and a touch panel 107 as a means for selecting () and a means for designating a search value of measurement data). Also, the cable 13
LAN 140 and cables 141 and 142 at 9 and 140
To connect to the switcher 109. Workstation 1
03 processes the process data input from the cable 139 to create a display screen, and displays it on the display 111 together with the video data input from the cable 141. On the other hand, the audio data input by the cable 141 is output by the speaker 112. The speaker 112 and the display for display 111 are second output means. In addition, a key input from the operator via the keyboard 106 and a mouse 105
Input from the input device such as the touch panel 107 is processed in the workstation 103, and is output as a control code of the control target device 101 through the cable 140, a switching instruction to the video / audio switching switcher 109, and control of the camera 110. It is output by the cable 142 as a calling code to the code, video and audio recording unit 108.

【0030】操作員はディスプレイ111上に表示され
た映像、文字、グラフィックスで示されるシステムの状
況を監視し、必要な操作、および命令をマウス105、
キ−ボ−ド106、タッチパネル107を用いて行な
う。以下説明上、操作員からの入力デバイスとしては、
タッチパネル107を用いる。もちろん他のデバイスで
も構わない。
The operator monitors the system status indicated by the images, characters and graphics displayed on the display 111, and performs necessary operations and commands on the mouse 105,
This is performed using the keyboard 106 and the touch panel 107. In the explanation below, as an input device from the operator,
The touch panel 107 is used. Of course, other devices are also acceptable.

【0031】つぎに図2においてワークステーション1
03の内部構造を示す。201はCPU、202は主記
憶、203はIO、204はディスプレイ111にプロ
セスデータを表示するためのグラフィックス画面フレー
ムバッファ、205は入力したビデオ信号をデジタル信
号に換えるディジタイザ、206はビデオ用フレームバ
ッファ、207はグラフィックス画面と映像とをブレン
ドするブレンド回路である。
Next, referring to FIG.
The internal structure of 03 is shown. 201 is a CPU, 202 is a main memory, 203 is an IO, 204 is a graphics screen frame buffer for displaying process data on the display 111, 205 is a digitizer for converting an input video signal into a digital signal, and 206 is a video frame buffer. 207 are blending circuits for blending the graphics screen and the video.

【0032】図3において映像、音声記録部108の構
成を示す。ワークステーション103からの各種命令を
受け取り処理すると共に記録、再生の命令を出すCPU
301、映像のバッファリング等に用いる主記憶30
2、ITVカメラ110からの信号をデジタル化すると共
に、デジタル信号をワークステーション103へ送るア
ナログ信号に変えるAD/DA変換器303、映像音声
記録読みだし部304とからなる。
FIG. 3 shows the structure of the video / audio recording unit 108. A CPU that receives various commands from the workstation 103, processes them, and issues recording and reproducing commands.
301, main memory 30 used for video buffering, etc.
2. An AD / DA converter 303 for converting a digital signal from the ITV camera 110 into an analog signal to be sent to the workstation 103 and a video / audio recording / reading unit 304.

【0033】図4はプロセス制御監視システムにおける
ディスプレイ画面を表している。ディスプレイ画面は、
プロセス全体構成図401と、おもにITVカメラからの
映像を表示する動画像表示領域402と、制御対象装置
101からのプロセスデータを表示するトレンドグラフ
403と、時計406、スイッチ、ヘルプ情報等を表示
するワーク領域404と、プロセスデータ表示用メータ
ー405と、メニュー領域407とからなる。メニュー
領域407内には、カメラ切り替えボタン408、映像
内、プロセスデータ内における選択対象指定ボタン40
9、監視モードと再生モードの切り替え、標準再生、ス
ロー再生の切り替えボタン410、簡単なエディター呼
び出し、又は表示するグラフの選択ボタン411、表示
するデータの選択ボタン412、およびヘルプボタン4
13等を表示する。ここで制御対象装置101からのプ
ロセスデータを表示するものとして、他に、データ表
や、スケーラー等があってもよい。またディスプレイ上
には上に挙げたデータ表示手段が複数個あってもよい。
FIG. 4 shows a display screen in the process control monitoring system. The display screen is
An overall process configuration diagram 401, a moving image display area 402 that mainly displays video from an ITV camera, a trend graph 403 that displays process data from the control target device 101, a clock 406, switches, help information, etc. are displayed. It comprises a work area 404, a process data display meter 405, and a menu area 407. In the menu area 407, a camera switch button 408, a selection target designation button 40 in the image and process data
9, switching between monitoring mode and playback mode, standard playback / slow playback switching button 410, simple editor call or graph selection button 411, data selection button 412 to be displayed, and help button 4
13 is displayed. Here, as the device for displaying the process data from the controlled device 101, there may be a data table, a scaler, or the like. Further, there may be a plurality of the data display means mentioned above on the display.

【0034】図5はプロセスデータを表示するトレンド
グラフ403をより詳細に表したものである。トレンド
グラフ403はデータ表示部501、データ項目表示部
502、時刻カーソル503、時間軸504、データ値
カーソル505、時間軸移動ボタン506、507から
なる。
FIG. 5 shows the trend graph 403 displaying the process data in more detail. The trend graph 403 includes a data display unit 501, a data item display unit 502, a time cursor 503, a time axis 504, a data value cursor 505, and time axis movement buttons 506 and 507.

【0035】プロセスデータはデータ表示部501にグ
ラフとして表示されるとともに、データ項目表示部50
2にその名前を表示する。データ、およびその名前の対
応は線の太さ、および色または線の種類で行う。
The process data is displayed as a graph on the data display section 501 and the data item display section 50.
The name is displayed on 2. Correspondence between data and its name is performed by line thickness and color or line type.

【0036】時刻カーソル503は現在ディスプレイ上
に表示しているすべてのデータ(例えばメーター405
の示しているデータ値、映像402、時計406の時
刻、トレンドグラフ403の時刻カ−ソル503上の
点)の生成または記録した時刻を時間軸504を用いて
表す。すなわち、トレンドグラフ403の時刻カ−ソル
503は、現在表示しているデータの記録した時刻を表
す時刻表示手段である。
The time cursor 503 is used to display all the data currently displayed on the display (for example, the meter 405).
Of the data value, the image 402, the time of the clock 406, the point on the time cursor 503 of the trend graph 403) generated or recorded are represented using the time axis 504. That is, the time cursor 503 of the trend graph 403 is a time display unit that represents the time when the data currently displayed is recorded.

【0037】時間軸504は表示すべきデータの発生し
た時刻が、現在表示している時間軸504内にない場合
には、表示している時刻の値が右方向(時間を戻す方
向、以下逆方向と呼ぶ)または左方向(時間を進ませる
方向、以下正方向と呼ぶ)に移動することにより、時間
軸504内にその時刻の値を表示する。また時間軸50
4は拡大、縮小が可能で、区間を指定して拡大、縮小す
ることができる。これによって詳しく見たい区間は時間
軸504の拡大を行ない、そうでない区間は縮小を行な
うことができる。
If the time at which the data to be displayed occurs is not within the time axis 504 currently being displayed, the time axis 504 indicates that the value of the time being displayed is in the right direction (the direction in which the time is returned, hereinafter the reverse direction). The value of the time is displayed in the time axis 504 by moving in the left direction (the direction in which time is advanced, hereinafter referred to as the forward direction). Also time axis 50
4 can be enlarged or reduced, and can be enlarged or reduced by designating a section. As a result, the time axis 504 can be expanded in the section to be viewed in detail, and the section other than that can be reduced.

【0038】時間軸移動ボタン507は時間軸504に
表示している時刻の値を右方向に移動させ、表示してい
る時刻より前の時刻を表示する。一方、ボタン508
は、左方向に移動させ、表示している時刻より後の時刻
を表示する。
The time axis move button 507 moves the value of the time displayed on the time axis 504 to the right and displays the time before the displayed time. On the other hand, button 508
Moves to the left to display the time after the displayed time.

【0039】データ値カーソル505は、プロセスデー
タの探索を行なうものである。探索したいプロセスデー
タを選択した後、データ値カーソルを探索値に持って行
くと、時間軸504及び時刻カーソル503が移動し
て、選択したデータが探索値をとる時点に時刻カ−ソル
503が来るようになる。
The data value cursor 505 is used to search for process data. When the data value cursor is moved to the search value after selecting the process data to be searched, the time axis 504 and the time cursor 503 move, and the time cursor 503 comes at the time when the selected data takes the search value. Like

【0040】以下の実施例では、プロセスデータをディ
スプレイに表示するデータ表示手段としてもっぱらトレ
ンドグラフを用いることにする。もちろんトレンドグラ
フ以外のデータ表示手段でもよい。
In the following embodiments, the trend graph will be used exclusively as the data display means for displaying the process data on the display. Of course, data display means other than the trend graph may be used.

【0041】本発明のプロセス監視システムにおいては
以下の機能がある。
The process monitoring system of the present invention has the following functions.

【0042】(1) 記録した映像を再生する操作で、映
像、音声を再生するだけでなく、その映像が撮られた時
点のプロセスデータを呼び出し、表示する。
(1) By the operation of reproducing the recorded video, not only the video and audio are reproduced, but also the process data at the time when the video is taken is called and displayed.

【0043】(2) トレンドグラフの時刻カ−ソル50
3等時刻表示手段を用いて時刻を指定することにより、
そのデータが記録された時点の映像及び音声と、その時
点でのプロセスデータを呼び出し、表示する。
(2) Trend graph time cursor 50
By specifying the time using the 3rd time display means,
The video and audio at the time when the data was recorded and the process data at that time are called and displayed.

【0044】(3) プロセスデータ、及びその探索値を
指定することにより、そのデータの探索を行い、そのデ
ータを呼び出し、表示すると共に、そのデータが記録さ
れた時点の映像と、その時点での他のプロセスデータを
呼び出し、表示する。
(3) By designating process data and its search value, the data is searched, the data is called and displayed, and at the same time, the image at the time when the data was recorded and the image at that time. Call and display other process data.

【0045】(4) 記録した映像を再生する際に、その
再生速度によりプロセスデータの時間に対する表示頻度
が変わる。
(4) When the recorded video is played back, the display frequency with respect to the time of the process data changes depending on the playback speed.

【0046】(5) プロセスデータの時刻に関する表示
頻度をあらかじめ指定することで、映像再生時にその表
示頻度に合わせた映像、音声の再生速度を決定し、再
生、表示する。
(5) By pre-designating the display frequency relating to the time of the process data, the playback speed of the video and audio that matches the display frequency is determined, and played back and displayed.

【0047】(6) 操作員から操作情報を記録し、映像
再生の際に操作員の操作も再生する。
(6) The operation information is recorded by the operator, and the operation of the operator is also reproduced when the image is reproduced.

【0048】(7) 操作員から操作情報を記録し、操作
員の操作データを指定することにより、その操作を探索
し、操作が行われた時点の映像、およびプロセスデータ
を呼び出し、表示する。
(7) By recording the operation information from the operator and designating the operation data of the operator, the operation is searched for, and the image at the time of the operation and the process data are called and displayed.

【0049】(8) 映像内に操作員がタッチパネルを用
いて選択できる選択対象を定義しておき、映像再生時に
それを操作員が選択することにより、関連するプロセス
データを表示する。
(8) A selection target which the operator can select using a touch panel is defined in the image, and the operator selects it when the image is reproduced to display the related process data.

【0050】(9) 映像内に操作員がタッチパネルを用
いて選択できる選択対象を定義しておき、映像再生時に
それを操作員が選択することにより、関連するプロセス
データを強調表示する。
(9) A selection target that can be selected by the operator using the touch panel is defined in the image, and the operator selects it when the image is reproduced, thereby highlighting the related process data.

【0051】(10) 映像内に操作員がタッチパネルを用
いて選択できる選択対象を定義しておき、映像再生時に
それを操作員が選択することにより、関連するプロセス
データに関する選択メニューを表示し、そのメニューか
ら一項目を選択した場合、選択された項目のプロセスデ
ータを表示する。
(10) In the video, an operator defines a selection target that can be selected by using the touch panel, and the operator selects the selection target at the time of reproducing the video to display a selection menu related to related process data. When one item is selected from the menu, the process data of the selected item is displayed.

【0052】(11) 映像内に操作員がタッチパネルを用
いて選択できる選択対象を定義しておき、映像再生時に
それを操作員が選択することにより、関連するプロセス
データを映像内の選択対象上に表示する。
(11) A selection target that can be selected by the operator using the touch panel is defined in the video, and the operator selects the selection target at the time of playing the video to display the related process data on the selection target in the video. To display.

【0053】(12) 映像内に操作員がタッチパネルを用
いて選択できる選択対象を定義しておき、映像再生時に
それを操作員が選択することにより、関連するプロセス
データを映像上にコンピューターグラフィックスで重ね
て表示する。
(12) A selection target that the operator can select using the touch panel is defined in the video, and the operator selects the selection target at the time of playing the video to display the related process data on the video by computer graphics. Overlay with.

【0054】(13) 映像内に操作員がタッチパネルを用
いて選択できる選択対象を定義しておき、映像再生時に
それを操作員が選択することにより、関連する映像内の
他の選択対象を強調表示する。
(13) A selection target that can be selected by the operator using the touch panel is defined in the video, and the operator selects the selection target at the time of reproducing the video to emphasize other selection targets in the related video. indicate.

【0055】(14) 映像内に操作員がタッチパネルを用
いて選択できる選択対象を定義しておき、映像再生時に
それを操作員が選択することにより、その選択対象の付
加情報を表示する。
(14) A selection target that can be selected by the operator using the touch panel is defined in the video, and the additional information of the selection target is displayed by the selection of the selection target when the video is reproduced.

【0056】(15) 映像内に選択対象を定義しておき、
映像再生時にプロセスデータを操作員が選択することに
より、選択したプロセスデータに関連する映像に切り替
わると共に、映像内の選択対象を表示する。
(15) A selection target is defined in the image,
When the operator selects the process data at the time of playing the video, the video is switched to the video related to the selected process data and the selection target in the video is displayed.

【0057】(16) 映像内に選択対象を定義しておき、
映像再生時にプロセスデータを操作員が選択することに
より、選択したプロセスデータに関連する映像に切り替
わると共に、映像内の選択対象を表示しそのデータ値を
選択対象上に重ねて表示する。
(16) Define the selection target in the video,
When the operator selects the process data at the time of playing the video, the video is switched to the video related to the selected process data, and the selection target in the video is displayed and the data value thereof is displayed over the selection target.

【0058】(17) 映像内に選択対象を定義しておき、
映像再生時にプロセスデータを操作員が選択することに
より、選択したプロセスデータに関連する映像に切り替
わると共に、映像内の選択対象を表示しそのデータ値を
コンピューターグラフィックスで重ねて表示する。
(17) A selection target is defined in the image,
When the operator selects the process data at the time of playing the video, the video is switched to the video related to the selected process data, and the selection target in the video is displayed and the data value is displayed by computer graphics in an overlapping manner.

【0059】以下、記録されたプロセスデータ、映像デ
ータ、音声データの再生について上記機能を詳しく説明
する。
Hereinafter, the above-mentioned functions for reproducing the recorded process data, video data and audio data will be described in detail.

【0060】図1から図11を用いて機能1を説明す
る。モード切替ボタン410をタッチパネルを用いて選
択する事により記録情報標準再生モードになる。再生を
しているときは、再生で使われているのとは別の光ディ
スクに記録を行なう。この時、図4に示されるように、
ワーク領域404にビデオコントローラー603が表示
される。図7に示されるように、ビデオコントローラー
は順方向2倍速再生ボタン705、順方向標準速度再生
ボタン704、逆方向2倍速再生ボタン701、逆方向
標準速度再生ボタン702、および映像停止ボタン70
3を持つ。また、モード切替ボタン410でスローモー
ド再生を選択すれば、逆方向2倍速ボタン、順方向2倍
速ボタンの代わりに逆方向1/2倍速再生ボタン70
6、順方向1/2倍速ボタン再生ボタン707を表示す
る。ただし、ここで標準速度で再生するとは映像、音声
を記録した時と同じ速度で再生することであり、順方向
とは、時間が進む方向である。従って例えば逆方向2倍
速再生とは、時間の進む方向とは逆方向に記録したとき
の2倍の速度で再生する、という意味である。ここで
は、記録情報を再生する際に再生モードに標準とスロー
を設けたが、このように分けなくても良い。
The function 1 will be described with reference to FIGS. 1 to 11. By selecting the mode switching button 410 using the touch panel, the recorded information standard reproduction mode is set. During playback, recording is performed on an optical disc different from the one used for playback. At this time, as shown in FIG.
The video controller 603 is displayed in the work area 404. As shown in FIG. 7, the video controller includes a forward double speed playback button 705, a forward normal speed playback button 704, a backward double speed playback button 701, a backward normal speed playback button 702, and a video stop button 70.
Have 3. If slow mode reproduction is selected with the mode switching button 410, the reverse 1/2 speed reproduction button 70 is used instead of the reverse 2 speed button or the forward 2 speed button.
6. Display the forward 1/2 speed button play button 707. However, here, the reproduction at the standard speed means the reproduction at the same speed as when the video and audio are recorded, and the forward direction means the direction in which the time advances. Therefore, for example, reverse double speed reproduction means that reproduction is performed at a speed twice as high as that when recording is performed in the direction opposite to the direction in which time advances. Here, the standard mode and the slow mode are provided in the reproduction mode when reproducing the recorded information, but it is not necessary to divide them in this way.

【0061】順方向標準速度再生ボタン704をタッチ
パネルで押すことにより、順方向、標準速度で映像デー
タおよび音声データが再生され、映像表示部402に表
示される。この時、この映像にあわせてトレンドグラフ
内の時刻カーソル503が移動し、表示している映像が
記録された時刻におけるプロセスデータが時刻カーソル
503上に来るようにする。時刻カーソル503はある
一定のところまで来ると、プロセスデータをデータベー
ス104から呼び出し、時間軸504に表示している時
刻値が左方向(または右方向)に移動することにより、
現在時間軸504上にない新たな時刻のプロセスデータ
を表示する。この他にメーター405等、他のプロセス
データ表示部も映像が撮られたときにそのデータがとっ
ていた値を映像が表示されると共に次々に表示する。以
上のように映像を再生する操作で映像、音声が再生する
だけでなく、その映像が撮られた時点のプロセスデータ
を呼び出し表示する。
By pressing the forward standard speed reproduction button 704 on the touch panel, the video data and the audio data are reproduced at the normal speed at the forward direction and displayed on the video display unit 402. At this time, the time cursor 503 in the trend graph is moved in accordance with this video so that the process data at the time when the displayed video is recorded comes to the time cursor 503. When the time cursor 503 reaches a certain position, the process data is called from the database 104, and the time value displayed on the time axis 504 moves leftward (or rightward),
Process data at a new time not on the current time axis 504 is displayed. In addition to this, other process data display units, such as the meter 405, display the values that the data had when the image was taken, as well as the image. As described above, not only the video and audio are reproduced by the operation of reproducing the video, but also the process data at the time when the video is captured is called and displayed.

【0062】これにより映像を見ながらその時点におけ
るプロセスデータを参照することができる。また他の再
生ボタンを用いることで映像情報の早送り、逆再生、ス
ロー再生等をプロセスデータを参照しながら行なうこと
が出来、運転状況の診断、制御指令を出すための補助、
異常時点の発見、解析等に役立つ。
With this, it is possible to refer to the process data at that time while watching the image. Also, by using other play buttons, fast forward, reverse play, slow play, etc. of video information can be performed with reference to process data, and assistance for diagnosing operating conditions and issuing control commands,
Useful for finding and analyzing abnormal points.

【0063】次に本実施例の実現方法について示す。Next, a method for realizing this embodiment will be described.

【0064】まず、本実施例のプロセスデータおよび映
像、音声データのデータ構造および記録方法を示す。図
8においてデータ800は制御装置101から制御用計
算機に送られるプロセスデータの構造を表わす。一般に
一つのケーブルで複数の種類のデータを入力するので、
プロセスデータの始まりを示すヘッダ801、データの
種類802、データ数803、及びプロセスデータであ
るデ−タ804から806までのような構成になる。制
御用計算機102は、各ケーブルから入ってくるこの形
式の複数個のデータをLAN120に流す。データベー
ス104では流れてきたプロセスデータを分解し、デ−
タベ−ス104内にある時計の時刻tと共にデータ82
0の構造をもつ配列に記録する。ここで、821はデー
タインデックス、822はデータ名、823は時刻、8
24はプロセスデータである。このようにデ−タベ−ス
104は、プロセスデータの種類に対応するテーブルを
持ち、そのテーブルの要素である配列の最終要素の後に
最新のデータを時刻tと共に記録する。
First, the data structure and recording method of the process data, video and audio data of this embodiment will be described. In FIG. 8, data 800 represents the structure of process data sent from the control device 101 to the control computer. Generally, since one cable inputs multiple types of data,
It has a structure such as a header 801, which indicates the beginning of process data, a data type 802, a data number 803, and data 804 to 806 which are process data. The control computer 102 sends a plurality of data of this format coming from each cable to the LAN 120. The database 104 decomposes the flowed process data and
The data 82 together with the time t of the clock in the base 104
Record in an array with a structure of 0s. Here, 821 is a data index, 822 is a data name, 823 is a time, 8
24 is process data. Thus, the database 104 has a table corresponding to the type of process data, and records the latest data together with the time t after the last element of the array which is the element of the table.

【0065】一方ワークステーション103からプロセ
スデータのブロック呼び出しの命令がデータベース10
4に入力した場合は、図8のデータ810に示す構造を
持つデータを103に送る。ここでプロセスデータの始
まりを示すヘッダ811、データの種類812、データ
数813、及びプロセスデータであるデ−タ814から
816まで、及びデータ814の時刻データ817、デ
ータ815の時刻データ818、データ816で時刻デ
ータ819で構成される。もちろん、ブロック呼び出し
命令の種類により、このデータの長さ、時刻データの間
隔等は異なる。
On the other hand, the process data block calling instruction from the workstation 103 is sent to the database 10.
4 is input, the data having the structure shown in the data 810 of FIG. 8 is sent to 103. Here, a header 811 indicating the beginning of the process data, a data type 812, the number of data 813, process data data 814 to 816, time data 817 of the data 814, time data 818 of the data 815, and data 816. Is composed of time data 819. Of course, the length of this data, the interval of time data, etc. differ depending on the type of block call instruction.

【0066】次に映像、音声データの記録について示
す。まず記録する映像音声データの構造は830の通り
である。一般に複数個のカメラからの映像データを記録
するので、映像音声データのインデックス831(ディ
スクNO.)とデータ名832(カメラNO.またはボ
イラNO.等)を有する。834は音声の記録された時
刻、833は音声情報、835は映像の記録された時
刻、836は映像情報である。ここで図のように、映
像、音声を別々に記録しないで、一緒に記録してもよ
い。一緒に記録する場合は時刻情報を共有することにな
る。
Next, recording of video and audio data will be described. The structure of video / audio data to be recorded is 830. Generally, since video data from a plurality of cameras is recorded, the video / audio data has an index 831 (disk No.) and a data name 832 (camera No. or boiler No.). 834 is the time when the sound is recorded, 833 is the sound information, 835 is the time when the video is recorded, and 836 is the video information. Here, as shown in the figure, the video and audio may not be recorded separately, but may be recorded together. When recording together, time information will be shared.

【0067】以上の様な映像、音声データに記録、及び
それを再生する方法を図9を用いて述べる。本発明にお
いては、映像記録に関してまず901から903に示さ
れる3段階からなる手順をワークステーション103内
のCPU201において実行する。この手順が実行され
た後、904で記録開始となる。映像記録においては、
システムの立ち上げ時や、再生モードを終了し記録モー
ドに戻る時等で、最初に全映像画面の記録を行ない、以
下は905で示す通り、記録条件を満たした場合にのみ
906で映像を記録する。音声情報に関しては、映像情
報に比べて比較的記録に必要な容量が小さいので随時記
録することにする。以下、専ら、映像情報の記録及び再
生について述べる。
A method for recording and reproducing the above video and audio data will be described with reference to FIG. In the present invention, the procedure of three steps shown in 901 to 903 for video recording is first executed by the CPU 201 in the workstation 103. After this procedure is executed, recording starts at 904. In video recording,
When the system is started up or when the playback mode is ended and the mode is returned to the recording mode, the entire video screen is first recorded, and as shown at 905 below, the video is recorded at 906 only when the recording conditions are satisfied. To do. As for audio information, the capacity required for recording is relatively smaller than that of video information, so recording will be performed at any time. Hereinafter, recording and reproduction of video information will be described exclusively.

【0068】映像記録対象決定手順901では、記録す
べき対象をどこにするかを決める。具体的には以下の方
法のいずれかである。
In the video recording target determination procedure 901, the target to be recorded is determined. Specifically, it is one of the following methods.

【0069】(1) カメラ映像画面の全てを記録対象と
する。実現方法はカメラからの映像信号をすべてを記録
対象とする。
(1) All the camera image screens are recorded. The realization method is to record all video signals from the camera.

【0070】(2) プロセスデータを出力する部分、動
く部分、変化する部分等を含む領域をあらかじめ指定し
ておき、その領域のみを記録対象とする。データ840
は、映像データ836のこの場合のデータ構造である。
データ840の要素は、記録対象とする画像データ84
6、およびその位置情報、即ち、その撮影された画像デ
ータの座標値841、842、画像データの大きさ(画
面の空間的大きさ)843、844、およびそれ以前で
最も近い全画面データを記録した時刻(又はインデック
ス)845からなる。実現方法は、ITVカメラが、ズー
ム、チルド、パン等を行う際には、全画面を記録する。
そのようなカメラ動作の後、カメラが停止したら、映像
データ836をワークステーション103に送り、画像
解析を行い、記録対象を含む領域を確定する。この領域
は簡単のため、例えば長方形の様なものでよい。この領
域が決定したら、その領域の座標値、大きさ等の位置情
報を映像、音声記録部108に送り、以下CPU301
がカメラから送られてくる画像からこの領域のみを取り
出し記録する。以後再びカメラ動作が行われるまで、こ
の領域のみを記録する様にする。再生時においては時刻
845の映像データを呼び出し記録したデータ846と
をCPU301がブレンドすることにより、全画面を生
成する。
(2) An area including a portion for outputting process data, a moving portion, a changing portion, etc. is designated in advance, and only that area is to be recorded. Data 84
Is the data structure of the video data 836 in this case.
The elements of the data 840 are the image data 84 to be recorded.
6, and its position information, that is, the coordinate values 841 and 842 of the captured image data, the image data size (spatial size of the screen) 843 and 844, and the closest full screen data before that are recorded. The time (or index) 845 when The realization method is that the ITV camera records the entire screen when zooming, chilling, panning, etc.
When the camera stops after such a camera operation, the video data 836 is sent to the workstation 103, image analysis is performed, and the area including the recording target is determined. This area may be rectangular, for example, for simplicity. When this area is determined, positional information such as the coordinate value and size of the area is sent to the video / audio recording unit 108, and the CPU 301
Takes only this area from the image sent from the camera and records it. After that, only this area is recorded until the camera operation is performed again. During reproduction, the CPU 301 blends the video data at time 845 with the recorded data 846 to generate a full screen.

【0071】映像記録条件決定手順902では、映像を
記録する条件を決定する。具体的には以下の条件のいず
れかである。
In the video recording condition determination procedure 902, the conditions for recording the video are determined. Specifically, it is one of the following conditions.

【0072】(1) 定められた時間間隔で記録する。こ
れはワークステーション103、または映像、音声記録
手段108内のCPU201、301にクロックを持
つ。前者の場合は一定の時間毎に記録する命令を映像、
音声記録部108に送る。後者の場合は記録開始の命令
のみが映像、音声記録部108に送られ以下CPU30
1が記録時刻を管理する。
(1) Record at a set time interval. This has a clock in the workstation 103 or the CPU 201, 301 in the video / audio recording means 108. In the case of the former, a video recording command to record at regular intervals,
It is sent to the voice recording unit 108. In the latter case, only the recording start command is sent to the video / audio recording unit 108, and the CPU 30
1 manages the recording time.

【0073】(2) 各カメラからの映像において、前画
面との差分がある敷居値以上になったら記録する。これ
は映像、音声記録部108内の主記憶302上に記憶し
た画面の映像情報と現時点における映像情報との差分値
をCPU301で計算し、その値によって記録命令を映
像、音声読み出し部304に送る。
(2) The video from each camera is recorded when the difference from the previous screen exceeds a certain threshold value. This is because the CPU 301 calculates the difference value between the video information of the screen stored in the main memory 302 in the video / audio recording unit 108 and the current video information, and sends a recording command to the video / audio reading unit 304 according to the calculated value. ..

【0074】(3) 各プロセスデータがそのデータ固有
のある一定の値を越えたら記録する。これはワークステ
ーション103に入ってくるプロセスデータをCPU2
01で処理し、特に異常があるデータに関する映像を撮
っているカメラの映像を記録するよう、映像音声記録部
108に命令する。
(3) If each process data exceeds a certain value peculiar to the data, it is recorded. This is the process data coming into the workstation 103 to the CPU2.
The video / audio recording unit 108 is instructed to record the image of the camera taking the image regarding the abnormal data.

【0075】(4) 各プロセスデータが前のデータとの
差分がそのデータ固有のある一定の値を越えたら記録す
る。実現方法は(3)と同様である。
(4) Record each process data when the difference from the previous data exceeds a certain value peculiar to the data. The implementation method is the same as in (3).

【0076】(5) 各プロセスデータの重み付き平均、
即ち重みを wi (wi ≧ 0 )、各プロセスデータを di と
して e = Σwi * di がある一定の値を越えたら記録する。実現方法は(3)
と同じである。
(5) Weighted average of each process data,
That is, if the weight is wi (wi ≧ 0) and each process data is di, then e = Σwi * di is recorded when it exceeds a certain value. Realization method is (3)
Is the same as.

【0077】(5) 定められた時間間隔で記録し以上の
条件のいずれかの状態になったらより短い時間間隔で記
録し条件を満たさなくなったら元の時間間隔に直す。
(5) Recording is performed at a predetermined time interval, and when any of the above conditions is satisfied, recording is performed at a shorter time interval, and when the condition is not satisfied, the original time interval is restored.

【0078】映像記録方法決定903では記録方法を決
定する。具体的には以下の方法のいずれかである。
In the video recording method determination 903, the recording method is determined. Specifically, it is one of the following methods.

【0079】(1) ITVカメラからの映像情報をそのまま
記憶する。
(1) The video information from the ITV camera is stored as it is.

【0080】(2) 前画面との差分を記録していく。こ
れは主記憶部302にバッファリングした映像と現在の
映像との差分をCPU301でとる。再生時においては
全記録対象を記録してある時点から現時点までの差分を
加減算することで記録対象の映像を作成する。
(2) The difference from the previous screen is recorded. In this, the CPU 301 takes the difference between the video image buffered in the main storage unit 302 and the current video image. At the time of reproduction, a video to be recorded is created by adding / subtracting the difference from the time when all the recording targets are recorded to the present time.

【0081】以上のように記録された映像データの時刻
tにおける表示は、図10に示す手順で行なう。手順1
001で映像データのインデックス821及び、時刻t
の指定をする。ここで映像インデックスの指定はワーク
ステーション103により行なわれ、時刻tの指定はワ
ークステーション103による場合と映像、音声記録部
108内のCPU301による場合とがある。映像、音
声記録読み出し部304は、手順1002及び1003
に示されるように時刻tにおける映像が記録されてない
場合には、時刻tより以前に記録されたtにもっとも近
い時点sの映像データを読みだす。手順1004で映像
データが映像情報をそのまま記録したものであればそれ
を使う。一方、差分を記録したものであれば、手順10
05で時刻tにもっとも近く、かつ差分値でない映像情
報を読みだし映像、音声記録部108内の主記憶302
に記録し、手順1006でそこからの差分をとって映像
を作成する。映像が、カメラ画像すべてである場合は表
示する。そうでない場合は1008で背景と合成した後
表示する。
The display of the video data recorded as described above at time t is performed according to the procedure shown in FIG. Step 1
At 001, the video data index 821 and time t
Is specified. Here, the video index is specified by the workstation 103, and the time t is specified by the workstation 103 or by the CPU 301 in the video / audio recording unit 108. The video / audio recording / reading unit 304 uses steps 1002 and 1003.
If the image at time t is not recorded as shown in FIG. 3, the image data at time s closest to t recorded before time t is read. If the video data is the video information recorded as it is in step 1004, it is used. On the other hand, if the difference is recorded, the procedure 10
At 05, the video information that is closest to the time t and is not the difference value is read out, and the main memory 302 in the video / audio recording unit 108 is read.
In step 1006, and the difference from that is taken in step 1006 to create a video. If the video is the entire camera image, display it. If not, it is displayed after being combined with the background in 1008.

【0082】映像、音声記録部108内のCPU301
は、ワークステーション103から再生方向、速度を指
定した再生命令が送られると次式で内部に持つ表示時刻
データtを進ませる。
CPU 301 in video / audio recording section 108
When a playback command specifying a playback direction and speed is sent from the workstation 103, the display time data t internally held is advanced by the following equation.

【0083】t = t + a*w ここで w は標準再生速度における映像読みだし速度、
aは再生方向が順方向の時は正で、逆方向の時は負で、
2倍速の時は絶対値が2であり、標準速のときは1であ
る係数である。再生時の映像表示は、順方向再生の場合
は時刻データ835をこの時刻データtが越えたときワ
ークステーション103に映像データ836を送り、逆
方向再生の場合はこの時刻データtが835の次の時刻
データを下回ったとき映像データ836を送る。ワーク
ステーション103から表示中の映像の生成時刻の要求
があった場合はこの時刻tを103に送る。
T = t + a * w where w is the video reading speed at the standard playback speed,
a is positive when the playback direction is forward, negative when it is backward,
The coefficient has an absolute value of 2 at double speed and 1 at standard speed. In the video display during reproduction, when the time data 835 exceeds the time data 835 in the case of forward reproduction, the video data 836 is sent to the workstation 103, and in the case of reverse reproduction, this time data t is next to 835. When it is less than the time data, the video data 836 is sent. When the workstation 103 requests the generation time of the image being displayed, this time t is sent to 103.

【0084】以上の記録、再生方式のもとに、図11は
第一の機能を実現するための処理手順である。手順11
01においてメニューで再生モードが選択される。この
時ワークステーション103は図6の603で示される
コントロールボタンを表示する。処理1102におい
て、ワークステーション103は、タッチパネル等のポ
インティングデバイスによる入力信号を処理し、その入
力位置を調べることによってボタンの種類の検出を行
う。この時、そのボタンが押されたことを示すために図
6で示されるように押されたボタンの色を変えてディス
プレイ上に再表示すると共に、再生方向、および速度を
決定する。処理1103においては、決定した方向、速
度をもとに、次に表示するプロセスデータの生成された
時刻tを決定する。
FIG. 11 shows a processing procedure for realizing the first function based on the above recording / reproducing system. Step 11
In 01, the reproduction mode is selected from the menu. At this time, the workstation 103 displays the control button indicated by 603 in FIG. In process 1102, the workstation 103 processes an input signal from a pointing device such as a touch panel and detects the type of button by checking the input position. At this time, in order to show that the button has been pressed, the color of the pressed button is changed as shown in FIG. 6 to be displayed again on the display, and the reproduction direction and speed are determined. In process 1103, the time t at which the process data to be displayed next is generated is determined based on the determined direction and speed.

【0085】具体的には次のような2通りの方法であ
る。
Specifically, there are the following two methods.

【0086】(1)映像、音声記録部108に表示中の
映像、音声の記録した時刻tを問い合わせる。
(1) Inquire about the time t at which the video and audio recorded on the video / audio recording unit 108 is recorded.

【0087】(2)次式で表す時刻tを次の表示すべき
時刻とする。
(2) The time t represented by the following equation is set as the time to be displayed next.

【0088】t = t + a*v ここでv は現在表示しているすべてのデータを一回ずつ
書き換える時間、aは再生方向が順方向の時は正で、逆
方向の時は負で、2倍速の時は絶対値が2であり、標準
速のときは1である係数である。ただしデータを書き換
える時間は計算機の他の負荷で変って来るので、(1)
の方法も併用する。これを用いることで、ワークステー
ション103が表示にかかる時間分の映像、音声情報の
進む時間だけ、次の表示情報の時刻を進めることができ
る。
T = t + a * v Here, v is the time for rewriting all the data currently being displayed once, a is positive when the reproduction direction is the forward direction, and negative when the reproduction direction is the reverse direction, The coefficient has an absolute value of 2 at double speed and 1 at standard speed. However, the time to rewrite the data changes depending on the other load of the computer, so (1)
The method of is also used together. By using this, it is possible to advance the time of the next display information by the advance time of the video and audio information for the time required for the workstation 103 to display.

【0089】処理1104においては時刻tにおける表
示すべきプロセスデータがワークステーション103内
にバッファリングされているデータで十分か判断し十分
な場合はそれらを表示する。ただし十分な場合とは、時
刻tにおけるプロセスデータがバッファリングされてい
るか、または時刻tにおけるデータはないがその前後の
データがバッファリングされている場合である。前後の
データのみバッファリングされているときは、もっとも
tに近いデータで代用するか前後のデータを線形に補間
することでデータを作成する。十分でない場合には処理
1105において、ワークステーション103は、表示
速度、方向を基にデ−タベ−ス104から表示データと
して読み込むデータの範囲を決定し、処理1106で、
表示するプロセスデータの種類と読み込むデータの範囲
をLANを通じてデータベース104に送り、デ−タベ
−ス104から要求されたプロセスデータがワークステ
ーション103に送られる。処理1107においては、
映像、音声情報を表示あるいは出力し、処理1108に
おいてはワークステーション103では送られてきたそ
れぞれのプロセスデータをトレンドグラフやメーターと
いうように、主記憶202に記録してある個々のプロセ
スデータの表示の仕方で映像情報、音声情報と共に、表
示する。次に図1から図5および図12を用いて第2の
機能について述べる。時刻カーソル503は、タッチパ
ネル107を用いてカーソル503上を指で押さえたま
ま左右に動かすことにより、カ−ソル503が左右に動
くようになっている。この時、図12に示されるよう
に、直接トレンドグラフ403内の時刻カーソル503
を参照したい時点に動かすことにより、他のトレンドグ
ラフ403内の時刻カーソル1201が、時刻カーソル
503が指し示す時刻に移動し、時刻カーソル503で
決定される時刻の映像を呼び出し映像表示領域402に
表示する。またこの時、図2におけるメーター405等
も時刻カーソル503が指し示す時刻のデータを表示す
る。もちろん現在トレンドグラフ403の時間軸に表示
されてない時刻の指定も時間軸移動ボタン506、50
7等を用いることで行なえる。以上のように表示されて
いるプロセスデータの参照したい所を指定することで、
そのデータが記録された時点の映像と、その時点での他
のプロセスデータを参照することができる。これにより
操作員がプロセスデータ等を参照したい時点をトレンド
グラフ403等を見て直接指定することで映像の表示が
可能となる。
In the process 1104, it is judged whether the process data to be displayed at the time t is the data buffered in the workstation 103, and if they are sufficient, they are displayed. However, the case of being sufficient is the case where the process data at time t is buffered, or the data at time t is not present but the data before and after that is buffered. When only the data before and after is buffered, the data closest to t is substituted or data is created by linearly interpolating the data before and after. If not enough, in process 1105, the workstation 103 determines the range of data to be read as display data from the data base 104 based on the display speed and direction, and in process 1106,
The type of process data to be displayed and the range of data to be read are sent to the database 104 via the LAN, and the process data requested by the database 104 is sent to the workstation 103. In process 1107,
Video or audio information is displayed or output, and in process 1108, each process data sent by the workstation 103 is displayed as a trend graph or a meter to display individual process data recorded in the main memory 202. It is displayed together with the video information and audio information by the way. Next, the second function will be described with reference to FIGS. 1 to 5 and 12. The time cursor 503 is moved left and right by moving the cursor 503 left and right while pressing the cursor 503 with a finger using the touch panel 107. At this time, as shown in FIG. 12, the time cursor 503 directly in the trend graph 403 is displayed.
By moving the time cursor 1201 in another trend graph 403 to the time pointed by the time cursor 503, the video at the time determined by the time cursor 503 is displayed in the call video display area 402. .. At this time, the meter 405 and the like in FIG. 2 also display the data of the time pointed by the time cursor 503. Of course, it is also possible to specify a time that is not currently displayed on the time axis of the trend graph 403 by moving the time axis movement buttons 506, 50.
It can be done by using 7. By specifying the place to refer to the process data displayed as above,
The video at the time when the data was recorded and other process data at that time can be referred to. As a result, the operator can directly display the time when he / she wants to refer to the process data by looking at the trend graph 403 and the like to display the image.

【0090】これにより、プロセスデータの参照により
具体的な現場の様子を参照することが出来る。
As a result, it is possible to refer to a specific state of the site by referring to the process data.

【0091】以下にこの実施例の実現方法を図13を用
いて述べる。図11のアルゴリズムとは、処理1301
で時刻カーソルの指す時刻tを検出することと、処理1
302の時刻tが既にワークステーション103内にバ
ッファリングされているかの判定のみが異なる。処理1
301においてはタッチパネル等のポインティングデバ
イスによる入力信号の座標値をワークステーション10
3内のCPU201が処理し、時刻カ−ソル503をそ
の座標上に再描画すると共に、時刻カ−ソル503のさ
す時刻tを座標値から割り出す。もし時刻tのデータが
ワークステーション103内にバッファリングされてな
い場合には以下実施例1における手順1105、110
6を行ない、以下手順1106、1107でデータ、映
像、音声を表示する。
A method for realizing this embodiment will be described below with reference to FIG. The algorithm of FIG. 11 is processing 1301.
To detect the time t pointed by the time cursor, and process 1
The only difference is that the time t 302 is already buffered in the workstation 103. Processing 1
In 301, the coordinate value of the input signal from a pointing device such as a touch panel is displayed on the workstation 10.
The CPU 201 in 3 performs processing to redraw the time cursor 503 on the coordinates, and at the same time, the time t indicated by the time cursor 503 is calculated from the coordinate value. If the data at time t is not buffered in the workstation 103, steps 1105 and 110 in the first embodiment will be described below.
6, and data, video, and audio are displayed in steps 1106 and 1107 below.

【0092】第3の機能について述べる。図14に示さ
れるように、タッチパネル107を用いてトレンドグラ
フ403内のデータ項目表示部内のデータ項目1401
を選択した後に、データ値カーソル505を探索をした
い値に持っていき探索値を決定する。この時、選択され
たデータがデータ値カーソル505の示す値をとる時点
に時刻カ−ソル503が移動し、他のトレンドグラフ4
03においてもその時点に時刻カーソル1402が移動
し、その時点の映像が映像表示部402に表示される。
またこの時、図4におけるメーター405等も時刻カ−
ソル503が指し示す時刻のデータを表示する。ここで
検索は時間軸に対して逆方向に一回のみ行われる。さら
に検索したい場合は時間軸移動ボタン506を押すこと
でさらに逆方向に検索が行われる。一方、順方向に検索
する場合にはボタン507を押すことで順方向に検索が
なされる。以上のように表示されているプロセスデータ
において、値を探索すると、探索結果が表示され、その
表示されたデータが記録された時点の映像と、その時点
での他のプロセスデータを参照することができる。
The third function will be described. As shown in FIG. 14, a data item 1401 in the data item display section in the trend graph 403 is displayed using the touch panel 107.
After selecting, the data value cursor 505 is moved to the value to be searched and the search value is determined. At this time, the time cursor 503 moves to the time when the selected data takes the value indicated by the data value cursor 505, and another trend graph 4
Also in 03, the time cursor 1402 moves to that point and the image at that point is displayed on the image display unit 402.
At this time, the meter 405 in FIG.
The data at the time pointed by the sol 503 is displayed. Here, the search is performed only once in the opposite direction with respect to the time axis. When further searching is desired, the time axis moving button 506 is pressed to search in the opposite direction. On the other hand, when searching in the forward direction, the button 507 is pressed to perform the search in the forward direction. When a value is searched for in the process data displayed as above, the search result is displayed, and it is possible to refer to the video at the time when the displayed data was recorded and other process data at that time. it can.

【0093】以下にこの実施例の実現方法を図15で述
べる。処理1501においてはタッチパネル107等の
ポインティングデバイスによる入力信号の座標値をワー
クステーション103が処理し、データ項目表示部50
2において探索対象に選択されたデータ、制御値カーソ
ル505によって示された探索値を決定する。次に処理
1502において探索の方向、即ち時間軸に対し順方向
探索、または逆方向探索を決定する。これは、例えば、
基本的には逆方向探索が一回行われ、さらに時間軸移動
ボタンの順方向のボタン507が押されたときには順方
向に探索を時間軸移動ボタンの逆方向ボタン506が押
されたときは更に逆方向へ探索を行なう、とする。この
ボタンが押されたかの判断はワークステーション103
が行なう。処理1503においては、データベース10
4に探索対象、探索値、現在表示しているデータ作成時
刻、探索方向等を含んだ探索命令を出し、手順1504
において最初に発見できた探索値と表示時刻を決定す
る。以下実施例1の手順1104から1109までと同
じであるので省略する。
A method for realizing this embodiment will be described below with reference to FIG. In process 1501, the workstation 103 processes the coordinate value of the input signal from the pointing device such as the touch panel 107, and the data item display unit 50.
The data selected as the search target in 2 and the search value indicated by the control value cursor 505 are determined. Next, in process 1502, a search direction, that is, a forward search or a backward search with respect to the time axis is determined. This is, for example,
Basically, the backward search is performed once, and when the forward button 507 of the time axis movement button is further pressed, the search is performed in the forward direction and further when the backward button 506 of the time axis movement button is pressed. It is assumed that the search is performed in the opposite direction. The workstation 103 determines whether this button has been pressed.
Will do. In the process 1503, the database 10
In step 1504, a search command including the search target, search value, data creation time currently displayed, search direction, etc. is issued to step 4.
In the first step, the search value and the display time that were found first are determined. Since the following steps 1104 to 1109 of the first embodiment are the same, description thereof will be omitted.

【0094】この機能によりあるプロセスデータが一定
値を取る条件での、他のプロセスデータ値と映像情報を
用いた比較、分析等や、極くまれにしか起こらない異常
値等の呼び出しが可能となる。
With this function, it is possible to compare and analyze other process data values with video information, and to call out abnormal values that occur very rarely, under the condition that a certain process data takes a constant value. Become.

【0095】第4の機能に対する実施例を図16、1
7、18で述べる。図16では映像情報を再生する際に
順方向2倍速ボタン705を選択した場合に、トレンド
グラフ403内の時間軸504が2倍の範囲の時間を表
示し、現在表示してあったプロセスデータは新しい時間
軸にあわせて再表示されるとともに、表示されてなかっ
たデータはデータベースから読みだされ時間軸にあわせ
て表示される。次に、映像表示部402に標準速度の2
倍の速度で映像が表示され、時刻カーソル503が移動
する。このように2倍速再生時には、トレンドグラフ4
03内に、より長い時間のデータを表示することが可能
となり、データの時間による変化を概観することができ
る。このような表示はデータの検索において便利であ
る。
Embodiments for the fourth function are shown in FIGS.
This will be described in 7 and 18. In FIG. 16, when the forward double speed button 705 is selected when the video information is reproduced, the time axis 504 in the trend graph 403 displays the time in the double range, and the currently displayed process data is It is redisplayed according to the new time axis, and the data that was not displayed is read from the database and displayed according to the time axis. Next, the video display unit 402 displays the standard speed of 2
The image is displayed at double speed, and the time cursor 503 moves. In this way, during double speed playback, the trend graph 4
It is possible to display the data of a longer time in 03, and it is possible to overview the change of the data with time. Such a display is convenient for data retrieval.

【0096】一方図17においては、1/2倍速度再生
ボタン707を選択した場合に、時間軸504が標準速
度の時の半分の範囲の時間を表示する。このとき、より
詳しくデータを表示することが出来るので、標準速度の
時には表示されなかったデータをデータベースから読み
込みすでにあったデータと併せて再表示する。即ち映像
を再生する際に、再生する速度によって、プロセスデー
タの呼び出し方、表示方法を変える。これによって、再
生速度を速くする場合は、長い時間のデータをトレンド
グラフ403に表示できるのでデータの探索、概観等が
容易になる。また、プロセスデータを呼び出す際に再生
速度が速いと呼び出すデータの生成時刻の間隔が大きく
なるが、この表示を用いることでの呼び出しの荒さが目
立たなくなる。一方、再生スピードを遅くする場合は、
データを詳しく表示することができる。したがって詳し
く解析したいような時点では、映像をスロー再生するだ
けで、詳しくプロセスデータを表示できる。
On the other hand, in FIG. 17, when the 1/2 speed playback button 707 is selected, the time in the range half the time when the time axis 504 is the standard speed is displayed. At this time, since the data can be displayed in more detail, the data that was not displayed at the standard speed is read from the database and is redisplayed together with the existing data. That is, when the video is played back, the method of calling the process data and the display method are changed depending on the playback speed. As a result, when the reproduction speed is increased, data for a long time can be displayed on the trend graph 403, which facilitates data search, overview, and the like. Further, when the reproduction speed is fast when calling the process data, the interval of the generation time of the called data becomes large, but the roughness of the calling becomes inconspicuous by using this display. On the other hand, if you want to slow down the playback speed,
Data can be displayed in detail. Therefore, when detailed analysis is desired, the process data can be displayed in detail only by slow-playing the video.

【0097】これにより、再生速度によってプロセスデ
ータの時間に対する表示頻度を変えるので計算機の負荷
をある程度抑えることが出来る。
As a result, the display frequency of the process data with respect to the time is changed depending on the reproduction speed, so that the load on the computer can be suppressed to some extent.

【0098】この実施例の実現方法を図18を用いて述
べる。手順1102においては操作員からの入力により
映像情報、音声情報を再生する方向、スピードを決定す
る。手順1801ではワークステーション103におい
て、決定された速度に基づきプロセスデータの表示方
法、呼び出し方法の決定を行う。表示方法は、トレンド
グラフ403等における時間軸表示単位、即ち、どのく
らいの間隔で時間を刻むか、を決め、呼び出し方法は、
呼び出すブロック内におけるデータ間の時間間隔、およ
び一回の呼び出しブロックにおける時間の長さを決定す
る。手順1104においてバッファリングされているデ
ータでは不十分な場合は、手順1105においてこの決
定した時間間隔、および時間長さをコード化しデータベ
ースに送る。データベースでは手順1105で送られて
きたコードに基づき、時間間隔、時間長さ分のブロック
データを読みだしワークステーション103に送る。以
下、ワークステーションでは決められた表示方法に基づ
きデータ表示を行う。この部分は前記実施例の手順11
04から1109までと同じであるので省略する。
A method of realizing this embodiment will be described with reference to FIG. In step 1102, the direction and speed at which the video information and audio information are reproduced are determined by the input from the operator. In step 1801, the workstation 103 determines the process data display method and the call method based on the determined speed. The display method determines the time axis display unit in the trend graph 403, etc., that is, how often the time is cut, and the calling method is
Determine the time interval between data within the calling block and the length of time in a single calling block. If the data buffered in step 1104 is insufficient, then in step 1105 the determined time interval and time length are coded and sent to the database. Based on the code sent in step 1105, the database reads the block data for the time interval and the time length and sends it to the workstation 103. Hereinafter, the workstation displays data based on the determined display method. This part corresponds to step 11 of the above embodiment.
Since it is the same as 04 to 1109, it is omitted.

【0099】第5の機能を述べる。図19においてはプ
ロセスデータの表示の仕方として、トレンドグラフ40
3の時間軸の区間1901では、時間軸504を1/2
に縮小化し、区間1902ではそのままで、区間190
3では2倍に拡大したものである。このとき、表示する
プロセスデータの生成時刻の間隔は区間1901では区
間1902の2倍に、区間1903では区間1902の
1/2倍になる。したがって、区間1901では前実施
例におけるちょうど2倍速再生の時と同じ表示に、区間
1902では標準速度再生と同じ表示に、区間1903
では1/2倍速度再生と同じ表示になっている。この場
合に、ビデオコントローラー603で標準順方向再生を
ボタン704を用いて行なえば、映像を映像表示領域4
02に、時刻カ−ソル503が区間1901にある場合
には2倍速で、区間1902にある場合には標準速度
で、区間1903にある場合には1/2倍速で表示す
る。即ち、プロセスデータの表示の方法を予め設定して
おくことで、再生する際に、映像再生時の速度をその表
示方法にあわせて設定し、その速度で再生を行なう。
The fifth function will be described. In FIG. 19, a trend graph 40 is displayed as a method of displaying process data.
In the section 1901 of the time axis of 3, the time axis 504 is 1/2
To the section 190 and the section 190
In No. 3, it is doubled. At this time, the interval between the generation times of the process data to be displayed is twice as long as the section 1902 in the section 1901 and ½ as long as the section 1902 in the section 1903. Therefore, in the section 1901, the same display as in the case of the double speed reproduction in the previous embodiment is displayed, in the section 1902, the same display as the standard speed reproduction is displayed, and in the section 1903.
Shows the same display as 1/2 speed playback. In this case, if the standard forward playback is performed by the video controller 603 using the button 704, the video is displayed in the video display area 4
02, it is displayed at double speed when the time cursor 503 is in the section 1901, at standard speed when it is in the section 1902, and at half speed when it is in the section 1903. That is, by setting the method of displaying the process data in advance, when reproducing, the speed at the time of reproducing the image is set according to the display method, and the reproduction is performed at that speed.

【0100】これにより、操作員が表示するデータの表
示方法を指定できるだけでなくデータを詳しく見たいと
ころは映像をゆっくりと、データを飛ばしてみたいとこ
ろは映像を飛ばして再生することができる。
As a result, not only can the operator specify the display method of the data to be displayed, but the image can be played back slowly when the data is desired to be viewed in detail and at the point where the data is desired to be skipped.

【0101】この実施例の実現方法について図20で述
べる。手順2001で操作員からの入力により、縮小、
拡大すべき時間軸の区間を指定する。手順2002でそ
の区間に対して操作員は、拡大、縮小のいずれかを選択
する。これらの指定、選択は例えばメニューで行なって
もよいし、この例のようにタッチパネル等で区間を指定
した後その区間の端点をつかんで区間を延び縮みさせて
行なうこともできる。この時、手順2003で時間軸を
再表示すると共に、必要ならばデータベースからブロッ
ク呼び出しを行ない、プロセスデータを再表示する。こ
の時各区間の再生速度をワークステーション103は決
定し、主記憶202に記憶しておく。次に再生が開始さ
れ、手順1103で、表示時刻tが決められる。この時
刻tを含む区間をCPU201で決定した後、もし、そ
れまでの区間と違う区間であれば、手順2004で映
像、音声記録部108に再生速度、方向等の再生命令を
送る。以下、前記実施例の手順1104から1109と
同様である。
A method for realizing this embodiment will be described with reference to FIG. In step 2001, input from the operator reduces the size,
Specify the time axis section to be expanded. In step 2002, the operator selects either enlargement or reduction for the section. These designations and selections may be performed by, for example, a menu, or by designating a section using a touch panel or the like and then grasping an end point of the section and extending or contracting the section. At this time, in step 2003, the time axis is displayed again, and if necessary, a block is called from the database to display the process data again. At this time, the workstation 103 determines the reproduction speed of each section and stores it in the main memory 202. Next, reproduction is started, and the display time t is determined in step 1103. After the CPU 201 determines the section including the time t, if it is a section different from the previous section, in step 2004, a reproduction command such as a reproduction speed and a direction is transmitted to the video / audio recording unit 108. Hereinafter, the steps 1104 to 1109 of the above-described embodiment are the same.

【0102】第6の機能について述べる。図21におい
ては、映像情報を再生する際に、プロセスデータのみで
なく操作員からの操作情報も併せて再生する。このとき
その時点でディスプレイ上に表示してあった映像、プロ
セスデータが表示されるとともに、マウスカーソル21
01等で示される操作員の入力が再生、表示される。こ
の時、2102で示されるように映像表示領域402に
表示する映像を新たに選択することにより、操作員の操
作により起こり、かつ記録した時点では見れなかった映
像情報を参照することができる。また、同様の操作で表
示していなかったプロセスデータ等も表示することがで
きる。これによって、例えば操作員の操作ミス等で起こ
る異常を素早く発見することができる。また制御操作の
教育にも大きな効果を上げることが出来る。
The sixth function will be described. In FIG. 21, when the video information is reproduced, not only the process data but also the operation information from the operator is reproduced. At this time, the video and process data displayed on the display at that time are displayed and the mouse cursor 21
The operator's input indicated by 01 or the like is reproduced and displayed. At this time, by newly selecting the image to be displayed in the image display area 402 as indicated by 2102, it is possible to refer to the image information which is caused by the operation of the operator and which cannot be seen at the time of recording. Further, it is possible to display process data and the like which were not displayed by the same operation. As a result, for example, an abnormality caused by an operation error of the operator can be found quickly. In addition, the control operation education can be greatly enhanced.

【0103】また、操作員の操作情報を再生し、プロセ
ス運転状況変化が、操作員の操作命令によるものか、が
わかる。またこのような操作命令を記録、再生すること
で、操作手順の説明に使えたり、教育用のシステム、操
作員の操作状況の監視を行なうことが出来る。
Further, the operation information of the operator is reproduced, and it is possible to know whether the process operation status change is due to the operation instruction of the operator. Further, by recording and reproducing such an operation command, it can be used for explaining the operation procedure, and can be used to monitor the operation system of the educational system and the operator.

【0104】第7の機能は、探索したい操作員からの操
作情報を入力し、入力された操作情報を探索し、その時
点での操作情報と映像情報、音声情報とプロセスデータ
が呼び出され表示される。これによって、情報の探索を
操作員が行った操作を目印にして行える。
The seventh function is to input the operation information from the operator who wants to search, to search the input operation information, and to call and display the operation information and video information, the voice information and the process data at that time. It Thereby, the information search can be performed by using the operation performed by the operator as a mark.

【0105】従って、操作員の操作命令を検索すること
ができるので、操作員の操作によって生じたプロセスデ
ータの変化、映像の変化を検索できる。
Therefore, since it is possible to retrieve the operation command of the operator, it is possible to retrieve the change of the process data and the change of the image caused by the operation of the operator.

【0106】以上2つの実施例の実現方法を以下に述べ
る。図8において、データ850はデータベース104
に記録する画面情報を示したものである。画面情報85
0は、時刻851、動画表示領域202に表示する映像
を撮るカメラ名852、トレンドグラフ403に表示す
るプロセスデータ名853から855まで、メーター4
05や他のデータ表示手段に表示しているデータ名85
6等からなる。このデータは操作員が動画像表示領域4
02に表示する映像を切り替えたり、トレンドグラフ4
03に表示するデータを変更、追加、削除したときワー
クステーション103がデータベース104に送る。
A method for realizing the above two embodiments will be described below. In FIG. 8, the data 850 is the database 104.
The screen information to be recorded in FIG. Screen information 85
0 indicates a time 851, a camera name 852 that captures an image displayed in the moving image display area 202, process data names 853 to 855 displayed on the trend graph 403, and a meter 4
05 and other data display means 85
It consists of 6 mag. This data is displayed by the operator in the moving image display area 4
02 The video displayed on 02 and the trend graph 4
When the data displayed in 03 is changed, added, or deleted, the workstation 103 sends it to the database 104.

【0107】操作員から入力される操作データのデータ
構造は図8のプロセスデータのデータ構造820と同じ
である。ただしプロセスデータ値824の代りに操作デ
ータとして入力した操作命令(ポインティングデバイス
を用いて操作員が入力した座標値をワークステーション
103が処理して生成した命令)を入れる。このデータ
も操作命令があった時点でワークステーション103が
このデータをデータベース104に送る。
The data structure of the operation data input by the operator is the same as the data structure 820 of the process data in FIG. However, instead of the process data value 824, an operation command input as operation data (a command generated by the workstation 103 processing the coordinate value input by the operator using a pointing device) is entered. The workstation 103 also sends this data to the database 104 when an operation command is issued.

【0108】再生に関しては、図11で示したアルゴリ
ズムと同じである。ただし手順1108において、プロ
セスデータは表示するデータを表示時刻tの最も近い時
刻のデータ値か、前後のデータを補間することでデータ
を作成していたが、操作員操作データの実行は、順方向
再生の時は表示時刻tが操作データの記録時刻を越えた
とき、逆方向再生の場合は操作データの記録時刻を下回
ったときとする。また時刻851に記録した画面情報デ
ータの内容を表示するのは、順方向再生の時は表示時刻
tが時刻851以上になったとき、逆方向再生の場合は
時刻857以下になったときとする。
Reproduction is the same as the algorithm shown in FIG. However, in step 1108, the process data was created by interpolating the data to be displayed with the data value at the time closest to the display time t, or by interpolating the preceding and following data, but the operator operation data is executed in the forward direction. In the case of reproduction, the display time t is over the recording time of the operation data, and in the case of backward reproduction, it is below the recording time of the operation data. Further, the content of the screen information data recorded at time 851 is displayed when the display time t becomes 851 or more in the forward reproduction, and when the display time t becomes 857 or less in the reverse reproduction. ..

【0109】検索に関しては図15で示したアルゴリズ
ムと同一である。ただし、手順1504で表示時刻tを
決定した後、手順1106でt以前のtに最も近い画面
情報データをまず呼びだし、その後表示すべきプロセス
データを決定しプロセスデータを呼び出す。
The search is the same as the algorithm shown in FIG. However, after the display time t is determined in step 1504, the screen information data closest to t before t is first called in step 1106, then the process data to be displayed is determined and the process data is called.

【0110】以下の実施例は上記すべての実施例におい
て、映像、音声、プロセスデータを再生する際に、映
像、およびプロセスデータの関連表示についてのもので
ある。
The following embodiments relate to the related display of video and process data when reproducing video, audio and process data in all the above embodiments.

【0111】第8の機能は、図22において動画像表示
領域402に表示してあるボイラーの窓を選択対象22
01と定義しておき、これを選択すると、その選択対象
が選択されたことを示すグラフィックスが表示され、さ
らにそこから生成されるプロセスデータ名2202がト
レンドグラフ403内のプロセスデータ項目に表示さ
れ、プロセスデータ2203がグラフで表示される。以
上のように映像内の選択対象を、ポインティグデバイス
を用いて選択することにより関連するプロセスデータを
表示する。ここでもちろん、選択対象がボイラーの窓で
なくても、あらかじめ選択対象として、制御用計算機内
に登録してあればよい。またトレンドグラフ403にデ
ータを表示する以外にメーター405等に表示すること
もできるが、以下簡単のためトレンドグラフ403にデ
ータを表示する場合のみ示す。
The eighth function is to select the window of the boiler displayed in the moving image display area 402 in FIG.
01 is defined, and when this is selected, a graphic indicating that the selection target is selected is displayed, and the process data name 2202 generated therefrom is displayed in the process data item in the trend graph 403. , Process data 2203 is displayed in a graph. As described above, by selecting the selection target in the image using the pointing device, the related process data is displayed. Here, of course, even if the selection target is not the window of the boiler, it may be registered in the control computer as the selection target in advance. In addition to displaying the data on the trend graph 403, the data can be displayed on the meter 405 or the like, but for simplicity, only the case of displaying the data on the trend graph 403 will be shown.

【0112】第9の機能は、図23において動画像表示
領域402に表示してあるボイラーの上方パイプを選択
対象2301と定義し、これを選択すると、その選択対
象が選択されたことを示すグラフィックスが表示され、
その選択対象に関連するプロセスデータ2302が既に
トレンドグラフ403に表示してある蒸気圧である場合
に、プロセスデータ項目の蒸気圧2302がハイライト
するとともに、グラフ2303がハイライトして操作員
によって選択された選択対象の関連データであることを
示す。即ち選択された映像内の選択対象に関するデータ
がすでに表示されている場合はデータがハイライト等す
ることで選択されたことを示す。
The ninth function is to define the upper pipe of the boiler displayed in the moving image display area 402 in FIG. 23 as the selection target 2301, and when this is selected, a graphic indicating that the selection target has been selected. Is displayed,
When the process data 2302 related to the selection target is the vapor pressure already displayed in the trend graph 403, the vapor pressure 2302 of the process data item is highlighted and the graph 2303 is highlighted and selected by the operator. It indicates that the data is related data of the selected selection target. That is, when the data regarding the selection target in the selected video is already displayed, the data is highlighted to indicate that the selection has been made.

【0113】第10の機能は、図24において動画像表
示領域402に表示してあるボイラーの左方パイプを選
択対象2401と定義し、これを選択すると、それが選
択されたことを示すグラフィックスが表示され、その選
択対象に関連するプロセスデータが複数個ある場合に、
動画像内の選択対象のすぐ脇にプロセスデータを項目と
する選択メニュー2402が表示され、その中から参照
したいプロセスデータをポインティングデバイスを用い
て選択することで、トレンドグラフ403内にデータを
表示する。即ち選択された映像内の選択対象に関連する
データが複数個ある場合は選択メニューを表示し、操作
員が参照したいデータを選択することが出来る。
The tenth function is to define the left pipe of the boiler displayed in the moving image display area 402 in FIG. 24 as the selection target 2401. When this is selected, a graphic indicating that it has been selected is displayed. Is displayed, and if there are multiple process data related to the selection target,
A selection menu 2402 having process data as an item is displayed right next to the selection target in the moving image, and the process data to be referred to is selected from the selection menu using a pointing device to display the data in the trend graph 403. .. That is, when there are a plurality of data related to the selection target in the selected video, the selection menu is displayed so that the operator can select the data to be referred to.

【0114】第11の機能は、図25においては動画像
表示領域402に表示してあるボイラーの本体を選択対
象と定義し、これを選択すると、その選択対象が選択さ
れたことを示すグラフィックス2501が表示され、そ
れに関連するプロセスデータ2502から2504を、
動画像のそれぞれのデータが関係するところに重ねて表
示する。即ち映像内の選択対象を、ポインティグデバイ
スを用いて選択することにより関連するプロセスデータ
が映像内の関連する場所に表示される。
In the eleventh function, the main body of the boiler displayed in the moving image display area 402 in FIG. 25 is defined as a selection target, and when this is selected, a graphic showing that the selection target is selected. 2501 is displayed, and process data 2502 to 2504 related to it are displayed.
It is displayed by superimposing where each data of the moving image is related. That is, by selecting the selection target in the image using the pointing device, the related process data is displayed at the related location in the image.

【0115】第12の機能は、図26においては動画像
表示領域402に表示してあるボイラー内の全体を選択
対象と定義し、これを選択すると、それが選択されたこ
とを示すグラフィックス2601が表示され、その選択
対象に関連する温度分布データを呼び出し、コンピュー
ターグラフィックス2602で映像に重ねて表示する。
映像内の選択対象を、ポインティグデバイスを用いて選
択することによりその選択対象上に、プロセスデータを
コンピューターグラフィックスで表示したものが重ねら
れる。
In the twelfth function, the whole of the boiler displayed in the moving image display area 402 in FIG. 26 is defined as a selection target, and when this is selected, graphics 2601 showing that it has been selected. Is displayed, and the temperature distribution data related to the selected object is called up and displayed on the image by computer graphics 2602.
By selecting the selection target in the image using the pointing device, the process data displayed by computer graphics is overlaid on the selection target.

【0116】第13の機能は、図27においては動画像
表示領域402に表示してあるボイラー全体を選択対象
と定義し、これを選択すると、その選択対象が選択され
たことを示すグラフィックス2701が表示されるとと
もに、その選択対象と関係深い燃料供給部にグラフィッ
クス2702が表示される。即ち映像内の選択対象を、
ポインティグデバイスを用いて選択することによりその
選択対象と関連のある映像内の選択対象を表示する。
In the thirteenth function, the entire boiler displayed in the moving image display area 402 in FIG. 27 is defined as the selection target, and when this is selected, the graphics 2701 indicating that the selection target is selected. Is displayed, and the graphics 2702 is displayed in the fuel supply unit that is closely related to the selection target. That is, the selection target in the image is
By using the pointing device to make a selection, the selection target in the video that is related to the selection target is displayed.

【0117】第14の機能は、図28においては動画像
表示領域402に表示してあるボイラー全体を選択対象
と定義し、これを選択すると、その選択対象が選択され
たことを示すグラフィックス2801が表示されるとと
もに、その選択対象に関する制御方法、メンテナンス情
報等の付加情報2802がデータベースから読みださ
れ、映像上に表示される。即ち、映像内の選択対象を、
ポインティグデバイスを用いて選択することによりその
選択対象の操作法、制御方法、メンテナンス情報等の付
加情報が表示される。
In the fourteenth function, the entire boiler displayed in the moving image display area 402 in FIG. 28 is defined as a selection target, and when this is selected, graphics 2801 indicating that the selection target is selected. Is displayed, and additional information 2802 such as the control method and maintenance information regarding the selection target is read from the database and displayed on the video. That is, the selection target in the image is
By selecting using the pointing device, additional information such as the operation method, control method, and maintenance information of the selection target is displayed.

【0118】この様に、機能8から機能14により、プ
ロセスデータと映像情報内に映っている装置との関連づ
けが出来、プロセスデータによる映像内の関連する装置
への参照や映像内の装置によるプロセスデータへの参照
ができる。これにより、例えば訓練を積んだ操作員でな
くても、映像とデータを見ることにより装置の簡単な操
作、監視を行なうことが出来る。
As described above, with the functions 8 to 14, the process data and the device shown in the image information can be associated with each other, and the process data can refer to the related device in the image or the process by the device in the image. You can refer to the data. Thus, for example, even a trained operator can easily operate and monitor the device by viewing the image and data.

【0119】次にプロセスデータを用いて映像内に情報
を表示することを示す。
Next, the process data is used to display information in the image.

【0120】第15の機能は、図29においては、トレ
ンドグラフ403内のプロセスデータ項目2302を選
択することにより、そのプロセスデータ項目2302が
ハイライトすることにより、そのプロセスデータが選択
されたことを示し、さらに映像表示領域402内にその
プロセスデータに関連する選択対象が存在することを示
すグラフィックス2301が表示される。即ち、プロセ
スデータが映像内でどの選択対象と関連があるかを示す
グラフィックスが表示される。第16の機能は、図30
においては、トレンドグラフ403内のプロセスデータ
項目2302を選択することにより、映像402内にそ
のプロセスデータが関連する選択対象にプロセスデータ
3001を重ねて表示する。
In FIG. 29, the fifteenth function is to select the process data item 2302 in the trend graph 403. By highlighting the process data item 2302, the process data item is selected. Further, graphics 2301 indicating that there is a selection target related to the process data in the image display area 402 is displayed. That is, a graphic showing which selection target the process data is related to in the image is displayed. The 16th function is shown in FIG.
In (1), by selecting the process data item 2302 in the trend graph 403, the process data 3001 is displayed in the image 402 in a superimposed manner on the selection target to which the process data is related.

【0121】第17の機能は、図31においては、トレ
ンドグラフ403内のプロセスデータ項目2302を選
択することにより、映像402内にそのプロセスデータ
が関連する選択対象にプロセスデータをコンピューター
グラフィックス3101で重ねて表示する。
The seventeenth function, in FIG. 31, is to select the process data item 2302 in the trend graph 403 to display the process data in the image 402 in the computer graphics 3101 as a selection target to which the process data is related. Overlap and display.

【0122】以上の機能8から16の実施例に関しその
実現方法を図32を用いて説明する。ワークステーショ
ン103内に監視対象とする制御対象装置3201の形
状モデルを記録する。この形状モデルの一部を、操作員
からの入力を受ける選択対象として定義する。この形状
モデルはCADモデル等の3次元データや、プロセスの
設計図、あるいは操作員がカメラ110からの映像を見
て定義した単なる矩形領域でもよい。この選択対象の映
像内における位置、大きさを決定するために、ITVカメ
ラ110から画角情報、垂直角情報、水平角情報をデー
タベース104に時刻とともに記録する。あるいはITV
カメラに送るカメラ制御コマンドとITVカメラの初期設
定から画角情報、垂直角情報、水平角情報をワークステ
ーション103内のCPU201で算出し、結果をデー
タベース104に送り、時刻とともに記録する。ITVカ
メラや制御対象装置は移動しないのでカメラの初期位
置、記録するカメラ情報、形状モデルを組み合わせるこ
とにより画像内における選択対象の位置、大きさを知る
ことが出来る。
A method of realizing the above-described embodiments of the functions 8 to 16 will be described with reference to FIG. The shape model of the controlled device 3201 to be monitored is recorded in the workstation 103. A part of this shape model is defined as a selection target that receives an input from an operator. This shape model may be three-dimensional data such as a CAD model, a process design drawing, or a simple rectangular area defined by the operator looking at the image from the camera 110. In order to determine the position and size in the image to be selected, the ITV camera 110 records the angle of view information, the vertical angle information, and the horizontal angle information in the database 104 together with the time. Or ITV
The CPU 201 in the workstation 103 calculates the angle of view information, vertical angle information, and horizontal angle information from the camera control command sent to the camera and the initial setting of the ITV camera, and sends the result to the database 104 and records it together with the time. Since the ITV camera and control target device do not move, the position and size of the selection target in the image can be known by combining the initial position of the camera, the camera information to be recorded, and the shape model.

【0123】プロセス装置3201を映すITVカメラ1
10は、その垂直角情報3211、および水平角情報3
212およびズーム値を与えることにより、画像320
2から3204を作成する。ここで、それぞれの画像に
映される装置3201の像はズーム値により3205、
3206、3207となる。それぞれのズーム値に合わ
せて計算機内部の選択対象のスケーリングを行なう。こ
こで、選択領域として単なる矩形領域を用いた場合に
は、画像3202に対応する選択対象は3208であ
り、画像3203に対しては3209、画像3204に
対しては3210である。スケーリングは全て線形であ
るため容易に行なうことが出来る。
ITV camera 1 showing process device 3201
10 is the vertical angle information 3211 and the horizontal angle information 3
By giving 212 and the zoom value, the image 320
Create 2 to 3204. Here, the image of the device 3201 displayed in each image is 3205 depending on the zoom value,
3206 and 3207. Scaling of the selection target inside the computer is performed according to each zoom value. Here, when a simple rectangular area is used as the selection area, the selection target corresponding to the image 3202 is 3208, the image 3203 is 3209, and the image 3204 is 3210. All scaling is linear and can be done easily.

【0124】このように定義した選択対象に対し、操作
員からの選択があった場合や、他の選択対象からなんら
かのメッセージコマンドが送られたときには、選択対象
を表示する、関連データを出す等の動作を起動するよう
に定義しておく。
When an operator makes a selection with respect to the selection object defined in this way, or when some message command is sent from another selection object, the selection object is displayed, relevant data is output, or the like. Define to activate the action.

【0125】この選択対象のデータ構造は図8のデータ
860で示す。861、862は選択対象の大きさ、8
63、864は位置、865は操作員に選択された時起
動する動作、あるいは動作テーブルへのポインター等を
入れ、866には関連するテキスト情報等を入れる。こ
れによって映像内の装置とプロセスデータや関連情報と
を対応づけすることが出来る。また映像内の装置同士の
関連づけを行なうことも出来る。さらにプロセスデータ
や選択対象を単に表示するだけでなく、選択された場合
はあらかじめ定義した命令を実行することも可能であ
る。
The data structure of this selection target is shown by the data 860 in FIG. 861 and 862 are the size of the selection target, 8
63 and 864 are positions, 865 is a motion to be activated when selected by an operator, or a pointer to a motion table is input, and 866 is related text information or the like. This makes it possible to associate the device in the video with the process data and related information. It is also possible to associate devices in the video. Further, it is possible not only to simply display the process data and the selection target, but also to execute a pre-defined instruction when selected.

【0126】この様に、映像内の装置上にプロセスデー
タを表示することが出来、操作員は視線を動かさずに動
画像、プロセスデータを見ることが出来る。また、これ
をコンピューターグラフィックスで表示してやることに
より、操作員に直感的なデータ値の判断をさせる。さら
に、映像内における背景等、随時記録する必要のないも
のや、映像記録時刻の条件を設定することでむだに映像
を記録することを回避できる。こうして、映像、音声、
プロセスデータを同期させて再生することにより、より
わかりやすいプロセスの状況把握と迅速な異常発見が可
能になる。また操作員が参照したいプロセスデータを映
像上で選択したり、参照したい映像を直接プロセスデー
タ表示部上で選択することにより、より直接的に操作が
可能となり、プロセスの監視性、操作性、確実性を高め
る。さらに映像データを用いたプロセスデータの検索や
プロセスデータを用いた映像データの検索が実現でき
る。
In this way, the process data can be displayed on the device in the image, and the operator can see the moving image and the process data without moving the line of sight. Also, by displaying this in computer graphics, the operator can intuitively judge the data value. Furthermore, it is possible to avoid unnecessary recording of an image by setting a condition such as a background in the image that does not need to be recorded at any time or a condition of the image recording time. In this way, video, audio,
By synchronizing and reproducing the process data, it becomes possible to understand the process status more easily and quickly detect an abnormality. By selecting the process data that the operator wants to refer to on the video or directly selecting the video to refer to on the process data display, more direct operation becomes possible, and process monitoring, operability, and reliability are ensured. Enhance sex. Further, it is possible to realize a process data search using video data and a video data search using process data.

【0127】以上をまとめるとつぎのような効果があ
る。
Summarizing the above, the following effects can be obtained.

【0128】(1)プロセスデータ値設定の際のプレビ
ュー 操作員がプロセスデータをある値に設定する際にそのプ
ロセスがどのようになるかを過去のデータから映像、プ
ロセスデータを検索表示することでプレビューすること
ができる。
(1) Preview when setting process data value By searching and displaying video and process data from past data, it is possible to see what the process will look like when the operator sets the process data to a certain value. Can be previewed.

【0129】(2)運転監視における比較 監視しているプロセスの運転状況を記録してある運転状
況を写した映像、音声、プロセスデータと比較すること
によりプロセスの状況を把握することができる。
(2) Comparison in Operation Monitoring The operation status of the process being monitored is recorded, and the operation status of the process can be grasped by comparing the operation status with video, audio, and process data.

【0130】(3)プロセスデータ設定値の決定 あるプロセスデータ値を希望する値に設定するためには
関連するデータ値も設定する必要がある。このように複
数のデータ値の設定が必要な際、過去のデータ及び映
像、音声を参照することにより操作員に設定値の決定の
指針を与えることができる。
(3) Determination of process data set value In order to set a certain process data value to a desired value, it is necessary to also set a related data value. In this way, when it is necessary to set a plurality of data values, it is possible to give the operator a guideline for determining the set values by referring to past data and video and audio.

【0131】(4)異常時点の探索、分析 異常時点の探索と、故障箇所の検出を、過去のプロセス
データと映像、音声との同期再生を用いることによりよ
り有効に行なうことができる。
(4) Search and analysis of abnormal time point The search for an abnormal time point and the detection of a failure point can be carried out more effectively by using the synchronous reproduction of the past process data and video and audio.

【0132】(5)教育用シミュレータ 操作員の操作手順の再生によって教育用シミュレータと
して用いることができる。
(5) Educational simulator It can be used as an educational simulator by reproducing the operating procedure of the operator.

【0133】なお、本実施例では、測定デ−タと、映像
または音デ−タとの同期を取るために時間を記録するこ
ととしたが、本発明は、これに限られるものではなく、
例えば、測定デ−タと映像デ−タ等に一連番号を付して
おいて、この一連番号をキ−として測定デ−タと、映像
または音デ−タとの同期を取ることとしても良い。
In this embodiment, the time is recorded in order to synchronize the measurement data with the video or sound data, but the present invention is not limited to this.
For example, a serial number may be attached to the measurement data and the video data and the serial number may be used as a key to synchronize the measurement data with the video or sound data. .

【0134】なお、映像デ−タまたは音デ−タの再生に
関して、上記の実施例では、再生のスピ−ドを破約する
ことまたは遅くすることを述べたが、本発明は、これに
限られるものでは無く、再生の仕方として、静止(一時
停止)をさせることとしても良い。この時に、静止のさ
せ方として、オペレ−タの操作による方法または、アラ
−ムを記録しておいて、アラ−ムの発生した時点で停止
することとしても良い。この時は、事故の原因解析を行
なう時等に事故の発生時点の画面をすばやく検索するこ
とができるというメリットがある。
Regarding the reproduction of the video data or the sound data, it has been described in the above embodiment that the speed of reproduction is canceled or delayed, but the present invention is not limited to this. However, it may be stopped (temporarily stopped) as a reproducing method instead of being stopped. At this time, as a method of stopping the operation, a method by operating an operator or recording an alarm and stopping at the time when the alarm is generated may be performed. At this time, there is an advantage that the screen at the time of occurrence of the accident can be quickly searched for when analyzing the cause of the accident.

【0135】さらに、本発明は、上記のようなITVカメ
ラによる動画のみを対象とするものではなく、スチ−ル
カメラによる静止画を取り扱うこともできる。
Furthermore, the present invention is not limited to the moving image by the ITV camera as described above, and can also handle the still image by the still camera.

【0136】[0136]

【発明の効果】上記の様に本発明により、測定デ−タ
と、映像または音とを同期して再生できる監視システム
を提供できる。
As described above, according to the present invention, it is possible to provide the monitoring system capable of reproducing the measurement data and the image or the sound in synchronization with each other.

【図面の簡単な説明】[Brief description of drawings]

【図1】システム構成図である。FIG. 1 is a system configuration diagram.

【図2】ワークステーションの構成図である。FIG. 2 is a configuration diagram of a workstation.

【図3】映像音声記録部の構成図である。FIG. 3 is a configuration diagram of a video / audio recording unit.

【図4】ディスプレイ表示画面の一例の説明図である。FIG. 4 is an explanatory diagram of an example of a display screen.

【図5】ディスプレイに表示するトレンドグラフの一例
の説明図である。
FIG. 5 is an explanatory diagram of an example of a trend graph displayed on a display.

【図6】本発明の実施例におけるディスプレイ表示の説
明図である。
FIG. 6 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図7】映像、音声の再生方向、速度を決定するビデオ
コントローラーの説明図である。
FIG. 7 is an explanatory diagram of a video controller that determines the reproduction direction and speed of video and audio.

【図8】本実施例で使用するプロセスデータ、映像デー
タ等のデータ構造の説明図である。
FIG. 8 is an explanatory diagram of a data structure of process data, video data, and the like used in this embodiment.

【図9】映像音声記録部に映像、音声を記録するフロ−
チャ−トである。
FIG. 9 is a flowchart for recording video and audio in the video / audio recording unit.
It's a chart.

【図10】記録した映像を表示するフロ−チャ−トであ
る。
FIG. 10 is a flowchart for displaying a recorded image.

【図11】本発明の実施例を実現するフロ−チャ−トで
ある。
FIG. 11 is a flowchart for realizing an embodiment of the present invention.

【図12】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 12 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図13】本発明の実施例を実現するフロ−チャ−トで
ある。
FIG. 13 is a flow chart for realizing an embodiment of the present invention.

【図14】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 14 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図15】本発明の実施例を実現するフロ−チャ−トで
ある。
FIG. 15 is a flow chart for realizing an embodiment of the present invention.

【図16】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 16 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図17】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 17 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図18】本発明の実施例を実現するフロ−チャ−トで
ある。
FIG. 18 is a flowchart for realizing an embodiment of the present invention.

【図19】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 19 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図20】本発明の実施例を実現するフロ−チャ−トで
ある。
FIG. 20 is a flowchart for realizing an embodiment of the present invention.

【図21】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 21 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図22】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 22 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図23】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 23 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図24】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 24 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図25】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 25 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図26】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 26 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図27】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 27 is an explanatory diagram of a display display in the example of the present invention.

【図28】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 28 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図29】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 29 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図30】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 30 is an explanatory diagram of a display on the display according to the embodiment of the present invention.

【図31】本発明の実施例におけるディスプレイ表示の
説明図である。
FIG. 31 is an explanatory diagram of a display display in the example of the present invention.

【図32】本発明の実施例における制御部内での選択対
象の決定方法の説明図である。
FIG. 32 is an explanatory diagram of a method of determining a selection target in the control unit according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

101…制御対象装置、102…制御用計算機、103
…ワークステーション、104…データベース、108
…映像音声記録部、109…スイッチャ、110…ITV
カメラ、402…動画像表示領域、403…トレンドグ
ラフ、502…データ項目表示部、503…時刻カーソ
ル、504…時間軸。
101 ... Control target device, 102 ... Control computer, 103
... workstation, 104 ... database, 108
… Video and audio recorder, 109… Switcher, 110… ITV
Cameras, 402 ... Moving image display area, 403 ... Trend graph, 502 ... Data item display section, 503 ... Time cursor, 504 ... Time axis.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 谷越 浩一郎 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 谷藤 真也 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 西川 敦彦 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 (72)発明者 ▲ひろ▼田 敦彦 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 ─────────────────────────────────────────────────── ─── Continued front page (72) Inventor Koichiro Tanikoshi 4026 Kuji Town, Hitachi City, Hitachi, Ibaraki Prefecture Hitachi Research Laboratory, Ltd. (72) Shinya Tanifuji 4026 Kuji Town, Hitachi City, Ibaraki Prefecture Hitachi, Ltd. Hitachi, Ltd. (72) Inventor Atsuhiko Nishikawa 5-2-1 Omika-cho, Hitachi City, Ibaraki Hitachi Ltd. Omika Plant, Hitachi, Ltd. (72) Inventor ▲ Hiro ▼ Atsuhiko Ta, 5-chome, Omika-cho, Ibaraki Prefecture No. 1 stock company Hitachi Ltd. Omika factory

Claims (28)

【特許請求の範囲】[Claims] 【請求項1】監視対象物に関する測定デ−タを記憶して
いる第1の記憶手段と、監視対象物に関する音デ−タ及
び映像デ−タのうち少なくとも一方を記憶している第2
の記憶手段とを有し、上記測定デ−タと、上記音デ−タ
及び映像デ−タとは、対応付けのための情報とともに記
憶されている監視システムであって、 上記測定デ−タを再生する第1の再生手段と、 上記音デ−タ及び映像デ−タのうち少なくとも一方を再
生する再生手段(第2の再生手段)と、 第2の再生手段に、第1の再生手段を対応付けの情報に
より同期させる制御部と、 上記測定デ−タを出力する第1の出力手段と、 上記音デ−タを出力する出力手段及び映像デ−タを出力
する出力手段のうち少なくとも一方を有する第2の出力
手段とを有し、 上記測定デ−タを映像又は音の再生に同期して出力する
ことを特徴とする監視システム。
1. A first storage means for storing measurement data on a monitored object, and a second storage means for storing at least one of sound data and video data on the monitored object.
Is a monitoring system in which the measurement data and the sound data and the video data are stored together with information for associating with each other. A first reproducing means for reproducing the audio data, a reproducing means (second reproducing means) for reproducing at least one of the sound data and the video data, a second reproducing means, and a first reproducing means. At least among the output means for outputting the sound data and the output means for outputting the video data. A second output means having one of them, and outputs the measurement data in synchronism with reproduction of video or sound.
【請求項2】請求項1記載の監視システムにおいて、 上記音デ−タ及び映像デ−タのうち少なくとも一方の再
生方向または再生速度を指定する手段を有し、 上記第2の再生手段は、指定された再生方向、再生速度
で再生することを特徴とする監視システム。
2. The monitoring system according to claim 1, further comprising means for designating a reproduction direction or a reproduction speed of at least one of the sound data and the video data, and the second reproduction means. A monitoring system characterized by reproducing in a specified reproduction direction and reproduction speed.
【請求項3】請求項1または2記載の監視システムにお
いて、 監視対象物に関する測定デ−タを受付ける第1の入力手
段と、 監視対象物に関する音デ−タを受付ける入力手段及び映
像デ−タを受付ける入力手段のうち少なくとも一方を有
する第2の入力手段とを有することを特徴とする監視シ
ステム。
3. The monitoring system according to claim 1 or 2, wherein first input means for receiving measurement data on the monitored object, input means for receiving sound data on the monitored object, and video data. And a second input unit having at least one of the input units for receiving the monitoring system.
【請求項4】請求項1、2または3記載の監視システム
において、 上記第1の出力手段は、上記測定データを表示すること
を特徴とする監視システム。
4. The monitoring system according to claim 1, 2 or 3, wherein the first output means displays the measurement data.
【請求項5】請求項1、2、3または4記載の監視シス
テムにおいて、 上記第1の出力手段は、時刻表示を行なうことを特徴と
する監視システム。
5. The monitoring system according to claim 1, 2, 3 or 4, wherein the first output means displays a time.
【請求項6】請求項1記載の監視システムにおいて、 出力すべき測定データと時刻を指定する測定データ出力
指定手段を有し、 上記制御部は、出力指定された測定データが記録された
時点に最も近い時点の映像または音声を出力するように
第1の出力手段に対して指示することを特徴とする監視
システム。
6. The monitoring system according to claim 1, further comprising measurement data output designating means for designating measurement data to be output and time, wherein the control unit is provided at a time point when the designated measurement data is recorded. A monitoring system characterized by instructing the first output means to output the video or audio at the closest point.
【請求項7】請求項6記載の監視システムにおいて、 上記第1の出力手段は、測定デ−タを時間軸を有するト
レンドグラフとして表示し、 上記測定データ出力指定手段は、トレンドグラフに表示
している時間軸を利用して時刻を指定し、 上記第1の出力手段は、指定した時刻における測定デー
タを表示することを特徴とする監視システム。
7. The monitoring system according to claim 6, wherein the first output means displays the measurement data as a trend graph having a time axis, and the measurement data output designating means displays the trend graph. The monitoring system is characterized in that the time is designated by using the time axis, and the first output means displays the measurement data at the designated time.
【請求項8】請求項6または7記載の監視システムにお
いて、 上記測定データ出力指定手段は、測定データの探索値を
受付け、 上記制御部は、指定した測定データがその探索値を取っ
た時刻を探索し、 上記第1の出力手段は、その時刻と、その時刻のデータ
値を出力することを特徴とする監視システム。
8. The monitoring system according to claim 6 or 7, wherein the measurement data output designating means receives a search value of the measurement data, and the control section sets a time when the designated measurement data takes the search value. The monitoring system is characterized in that the first output means for searching outputs the time and the data value at the time.
【請求項9】請求項2、3、4、5、6、7または8記
載の監視システムにおいて、 上記制御部は、映像または音の再生速度にあわせて測定
データの表示頻度を決定し、 映像または音の再生に同期して、測定データを決定した
表示頻度で表示することを特徴とする測定監視制御シス
テム。
9. The monitoring system according to claim 2, 3, 4, 5, 6, 7 or 8, wherein the control unit determines the display frequency of the measurement data according to the reproduction speed of the image or sound, Alternatively, the measurement monitoring control system is characterized in that the measurement data is displayed at a determined display frequency in synchronization with the reproduction of sound.
【請求項10】請求項6、7、8または9記載の監視シ
ステムにおいて、 上記測定データ出力指定手段は、測定データの表示頻度
を受付け、 上記第1の出力手段は、指定された表示頻度に従って測
定データを表示し、 上記制御部は、指定した表示頻度から再生速度を決定
し、 上記第1の出力手段は、決定した速度で映像、音を出力
することを特徴とする監視システム。
10. The monitoring system according to claim 6, 7, 8 or 9, wherein said measurement data output designating means receives the display frequency of the measurement data, and said first output means follows the designated display frequency. A monitoring system, wherein the measurement data is displayed, the control unit determines a reproduction speed from a designated display frequency, and the first output unit outputs video and sound at the determined speed.
【請求項11】請求項7、8、9または10記載の監視
システムにおいて、 上記測定データ出力指定手段は、トレンドグラフの時間
軸の区間の指定と、その区間において縮小、拡大の指定
とを受付け、 上記制御部は、縮小した区間では速く、拡大した区間で
は遅く、その時間軸表示にあわせて映像、音の再生速度
を決定することを特徴とする監視システム。
11. The monitoring system according to claim 7, 8, 9 or 10, wherein said measurement data output designating means accepts designation of a time axis section of a trend graph and designation of reduction or enlargement in that section. The monitoring system is characterized in that the control section is fast in a reduced section and slow in an enlarged section, and determines the reproduction speed of video and sound according to the time axis display.
【請求項12】請求項1記載の監視システムにおいて、 操作員の操作入力情報を記憶する第3の記憶手段と、 映像、または音の再生に同期して操作員の操作入力情報
を出力する第3の出力手段とを有することを特徴とする
監視システム。
12. The monitoring system according to claim 1, wherein the third storage means stores the operation input information of the operator, and the operation input information of the operator is output in synchronization with the reproduction of the image or sound. 3. A monitoring system having three output means.
【請求項13】請求項12記載の監視システムにおい
て、 操作入力情報の指定を受付ける手段を有し、 上記制御部は、指定した操作が入力した時刻と、その時
刻に最も近い映像、音を探索し、 上記第3の出力手段は、その時刻と、その操作入力情報
を出力し、 上記第2の出力手段は、映像、音を表示することを特徴
とする監視システム。
13. The monitoring system according to claim 12, further comprising means for accepting designation of operation input information, wherein the control unit searches for a time when the designated operation is input and a video and sound closest to the time. The third output means outputs the time and its operation input information, and the second output means displays a video and a sound.
【請求項14】請求項1記載の監視システムにおいて、 選択対象となりうる映像内の監視対象物に関する情報
と、その監視対象物と測定データとの関連付けの情報と
を記憶している記憶手段と、 上記選択対象を選択する手段とを有し、 上記制御部は、記憶されている監視対象物の情報と関連
付けの情報により、選択された選択対象に関連する測定
データを選択し、 上記第1の出力手段は、関連する測定データを表示する
ことを特徴とする監視システム。
14. The monitoring system according to claim 1, further comprising: a storage unit that stores information about a monitored object in the video that can be selected and information about the association between the monitored object and the measurement data. And a means for selecting the selection target, wherein the control unit selects the measurement data related to the selected selection target based on the stored information of the monitoring target object and the association information, A monitoring system, wherein the output means displays relevant measurement data.
【請求項15】請求項1記載の監視システムにおいて、 選択対象と測定データとの関連付けの情報を記憶してい
る記憶手段と、 測定データの一つを選択する手段を有し、 上記制御部は、関連付けの情報により、選択された測定
データに関連する選択対象を選択し、 上記第2の出力手段は、選択された選択対象を表示する
ことを特徴とする監視システム。
15. The monitoring system according to claim 1, further comprising a storage unit that stores information about association between a selection target and measurement data, and a unit that selects one of the measurement data. The monitoring system is characterized in that a selection target related to the selected measurement data is selected according to the association information, and the second output means displays the selected selection target.
【請求項16】請求項14記載の監視システムにおい
て、選択対象に関連する測定データが複数個ある場合
に、 上記第2の出力手段は、選択対象の近傍に関連測定デー
タ選択メニューを表示し、 上記メニューから少なくとも一つの項目の指定を受付け
る手段と、 受付けた測定データを表示する手段とを有することを特
徴とする監視システム。
16. The monitoring system according to claim 14, wherein when there is a plurality of measurement data related to the selection target, the second output means displays a related measurement data selection menu in the vicinity of the selection target, A monitoring system comprising means for accepting designation of at least one item from the menu and means for displaying the accepted measurement data.
【請求項17】請求項14記載の監視システムにおい
て、 上記第2の出力手段は、選択対象に関連する測定データ
をトレンドグラフ内に表示することを特徴とする監視シ
ステム。
17. The monitoring system according to claim 14, wherein the second output means displays the measurement data related to the selection target in a trend graph.
【請求項18】請求項14記載の監視システムにおい
て、 上記第2の出力手段は、選択対象に関連する少なくとも
1つの測定データを選択対象の近傍に、表示することを
特徴とする監視システム。
18. The monitoring system according to claim 14, wherein the second output means displays at least one measurement data related to the selection target near the selection target.
【請求項19】請求項14記載の監視システムにおい
て、 上記第2の出力手段は、選択対象に関連する測定データ
をグラフィックスで表現し、映像に重ねて表示すること
を特徴とする監視システム。
19. The monitoring system according to claim 14, wherein the second output means displays the measurement data related to the selection target in graphics and displays the measurement data in an overlapping manner on the image.
【請求項20】請求項1記載の監視システムにおいて、 選択対象となりうる映像内の監視対象物に関する情報
と、その監視対象物と関連のある監視対象物との関連付
けの情報とを記憶している記憶手段と、 映像再生時に映像内の上記選択対象を選択する手段とを
有し、 上記制御部は、記憶されている監視対象物の情報と関連
付けの情報により、選択された選択対象に関連する選択
対象を選択し、 上記第2の出力手段は、映像上にその選択対象が選択さ
れたことを示し、その選択対象に関連する少なくとも一
つの映像内の選択対象を表示することを特徴とする監視
システム。
20. The surveillance system according to claim 1, wherein information regarding a surveillance target in a video that can be selected and information relating to a surveillance target related to the surveillance target are stored. The control unit has a storage unit and a unit that selects the selection target in the video when the video is played back, and the control unit relates to the selected selection target based on the information of the stored monitoring target information and the association information. A selection target is selected, and the second output means indicates that the selection target has been selected on the video, and displays the selection target in at least one video related to the selection target. Monitoring system.
【請求項21】請求項1記載の監視システムにおいて、 選択対象となりうる映像内の監視対象物に関する情報
と、その監視対象物と関連のある付加情報との関連付け
の情報とを記憶している記憶手段と、 映像再生時に映像内の上記選択対象を選択する手段とを
有し、 上記制御部は、記憶されている監視対象物の情報と関連
付けの情報により、選択された選択対象に関連する選択
対象を選択し、 上記第2の出力手段は、映像上にその選択対象が選択さ
れたことを示し、その選択対象に関連する付加情報を表
示することを特徴とする監視システム。
21. The storage system according to claim 1, wherein information about a monitoring target object in a video that can be selected and information about association with additional information related to the monitoring target object are stored. And a means for selecting the selection target in the video when the video is played back, and the control unit selects the selection target related to the selected selection target by the stored information of the monitored target and the association information. A monitoring system, wherein a target is selected, and the second output means indicates on the video that the selection target has been selected and displays additional information related to the selection target.
【請求項22】請求項15記載の監視システムにおい
て、 上記第2の出力手段は、トレンドグラフ内に測定データ
を表示し、 表示されたデータ項目を選択する手段を有し、 上記第2の出力手段は、そのデータに関連する選択対象
が映像内で選択されたことを示す表示を行なうことを特
徴とする監視システム。
22. The monitoring system according to claim 15, wherein the second output means has means for displaying measurement data in a trend graph and selecting the displayed data item. The monitoring system is characterized in that the means provides a display indicating that the selection target related to the data has been selected in the image.
【請求項23】請求項15記載の監視システムにおい
て、 上記第2の出力手段は、トレンドグラフ内に測定データ
を表示し、 表示されたデータ項目を選択する手段を有し、 上記制御部は、そのデータに関連する選択対象が映像内
にない場合には、関連する選択対象が存在する映像に切
り替え、 上記第2の出力手段は、そのデータに関連する選択対象
が映像内で選択されたことを示す表示を行なうことを特
徴とする監視システム。
23. The monitoring system according to claim 15, wherein the second output means has means for displaying measurement data in a trend graph and selecting the displayed data item, and the control section is When the selection target related to the data is not in the video, the selection target related to the data is switched to the video in which the selection target related to the data is selected in the video. A monitoring system characterized by displaying.
【請求項24】請求項1記載の監視システムにおいて、 画像内における記録対象の指定、どの時点で記録するか
を定める記録条件の指定、得られた画像データの記録方
式の指定を受付ける手段を有し、 上記制御部は、記録対象の指定、記録条件の指定、記録
方式の指定により上記第2の記憶手段を制御することを
特徴とする監視システム。
24. The monitoring system according to claim 1, further comprising means for accepting designation of a recording target in an image, designation of a recording condition for determining when to record, and designation of a recording method of obtained image data. The monitoring system is characterized in that the control unit controls the second storage means by specifying a recording target, a recording condition, and a recording method.
【請求項25】請求項24記載の監視システムにおい
て、 記録対象をあらかじめ指定する手段を有し、 上記受付ける手段は、あらかじめ指定された記録対象の
み対象とすることを特徴とする監視システム。
25. The monitoring system according to claim 24, further comprising means for designating a recording target in advance, and said accepting means targeting only the recording target designated in advance.
【請求項26】請求項24記載の監視システムにおい
て、 上記記録条件は、前画面との差分がある閾値をこえたら
記録するものであることを特徴とする監視システム。
26. The monitoring system according to claim 24, wherein the recording condition is to record when a difference from the previous screen exceeds a certain threshold value.
【請求項27】請求項24記載の監視システムにおい
て、 上記記録条件は、測定データの値がそれぞれあらかじめ
決められた敷居値を越えたら記録するものであることを
特徴とする監視システム。
27. The monitoring system according to claim 24, wherein the recording condition is to record when the value of the measurement data exceeds a predetermined threshold value.
【請求項28】請求項24記載の監視システムにおい
て、 上記記録条件を、各測定データの前データとの差分値が
それぞれに決められた敷居値を越えたら記録するもので
あることを特徴とする監視システム。
28. The monitoring system according to claim 24, wherein the recording condition is recorded when the difference value between each measurement data and the previous data exceeds a threshold value determined for each. Monitoring system.
JP3238277A 1991-04-08 1991-09-18 Monitoring device Expired - Fee Related JP2970964B2 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP3238277A JP2970964B2 (en) 1991-09-18 1991-09-18 Monitoring device
KR1019920703137A KR100318330B1 (en) 1991-04-08 1992-04-08 Monitoring device
DE4290947A DE4290947B4 (en) 1991-04-08 1992-04-08 Interactive video based operation method and device
PCT/JP1992/000434 WO1992017875A1 (en) 1991-04-08 1992-04-08 Method and apparatus for image or data processing, and monitoring method and apparatus using the same
DE4290947T DE4290947T1 (en) 1991-04-08 1992-04-08
US08/328,566 US6335722B1 (en) 1991-04-08 1994-10-24 Video or information processing method and processing apparatus, and monitoring method and monitoring apparatus using the same
KR1019997005176A KR100257593B1 (en) 1991-04-08 1999-06-10 An interactive live video image operating apparatus and operating method and video image developing apparatus
US09/845,838 US6965376B2 (en) 1991-04-08 2001-05-01 Video or information processing method and processing apparatus, and monitoring method and monitoring apparatus using the same
US10/875,336 US20040227739A1 (en) 1991-04-08 2004-06-25 Video or information processing method and processing apparatus, and monitoring method and monitoring apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3238277A JP2970964B2 (en) 1991-09-18 1991-09-18 Monitoring device

Publications (2)

Publication Number Publication Date
JPH0579951A true JPH0579951A (en) 1993-03-30
JP2970964B2 JP2970964B2 (en) 1999-11-02

Family

ID=17027802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3238277A Expired - Fee Related JP2970964B2 (en) 1991-04-08 1991-09-18 Monitoring device

Country Status (1)

Country Link
JP (1) JP2970964B2 (en)

Cited By (151)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06288796A (en) * 1993-03-31 1994-10-18 Mitsubishi Kasei Corp Decentralized facility control and diagnostic system
JPH06337767A (en) * 1993-05-27 1994-12-06 Yokogawa Electric Corp Plant monitor device
JPH07219618A (en) * 1994-01-28 1995-08-18 Kawasaki Steel Corp Method for testing production control system
JPH085521A (en) * 1994-06-16 1996-01-12 East Japan Railway Co Travelling inspection apparatus and display method for travelling inspection
JPH0868673A (en) * 1994-08-31 1996-03-12 Toshiba Corp Method for monitoring state of machine based on distributed measurement data
JPH08166260A (en) * 1994-12-12 1996-06-25 Hioki Ee Corp Method for displaying data for measuring instrument
JPH08226830A (en) * 1995-02-21 1996-09-03 Toshiba Corp Plant monitoring apparatus
JPH08304274A (en) * 1995-04-28 1996-11-22 Jasco Corp Spectrophotometer
JPH10111149A (en) * 1996-10-04 1998-04-28 Yokogawa Electric Corp Data recorder
JPH10207530A (en) * 1997-01-21 1998-08-07 Hitachi Ltd Recording information display system and its method
KR19990012455A (en) * 1997-07-29 1999-02-25 이대원 Integrated control system for process control
JPH11103263A (en) * 1997-09-26 1999-04-13 Dowa Mining Co Ltd Communication equipment/measuring instrument provided with simple input device
JPH11327628A (en) * 1998-05-14 1999-11-26 Hitachi Ltd Facility management system
JP2000040185A (en) * 1998-07-24 2000-02-08 Kawasaki Steel Corp Crime preventive monitor device
JP2001027585A (en) * 1999-07-14 2001-01-30 Hitachi Ltd Vibration monitoring method for rotary body and its device
JP2001042929A (en) * 1999-05-21 2001-02-16 Hitachi Ltd Device and method for monitoring plant operation
JP2001216590A (en) * 2000-01-31 2001-08-10 Toshiba Corp Effluent alarm control table and display table of telemeter
JP2002132336A (en) * 2000-10-24 2002-05-10 Toshiba Corp Plant operation supporting device
JP2003256035A (en) * 2002-02-27 2003-09-10 Toshiba Corp Plant monitoring device
JP2004133621A (en) * 2002-10-09 2004-04-30 Sumitomo Chem Co Ltd Device and program for presenting equipment relationship and computer readable recording medium storing this program
JP2004199444A (en) * 2002-12-19 2004-07-15 Toshiba Corp Plant monitoring device
JP2005148967A (en) * 2003-11-13 2005-06-09 Yokogawa Electric Corp Operation support device
JP2006518894A (en) * 2003-02-26 2006-08-17 エンベディッド・テクノロジーズ・コーポレイション・プロプライエタリー・リミテッド Process control system and method for configuring a process control system
JP2009180860A (en) * 2008-01-30 2009-08-13 Yokogawa Electric Corp Process-related data display device and process-related data display method
JP2009250792A (en) * 2008-04-07 2009-10-29 Hitachi Kokusai Electric Inc Data inspection system
JP2010503332A (en) * 2006-09-06 2010-01-28 アップル インコーポレイテッド Voicemail manager for portable multifunction devices
JP2010072739A (en) * 2008-09-16 2010-04-02 Shinano Kenshi Co Ltd Data collection device
JP2010071687A (en) * 2008-09-16 2010-04-02 Shinano Kenshi Co Ltd Program for analysis of moving image data
JP2010271289A (en) * 2009-05-25 2010-12-02 Yokogawa Electric Corp Waveform display apparatus and waveform display method
CN102281432A (en) * 2010-06-09 2011-12-14 株式会社日立制作所 Monitoring device and system for manufacturing shop, monitoring device and system for rolling shop, and monitoring method for rolling shop
WO2012140715A1 (en) * 2011-04-11 2012-10-18 東芝三菱電機産業システム株式会社 Data synchronization and reproduction device, data synchronization and reproduction method, and data synchronization control program
WO2013136406A1 (en) * 2012-03-12 2013-09-19 東芝三菱電機産業システム株式会社 Synchronized data playback apparatus, synchronized data playback method, and data synchronization control program
JP2014149703A (en) * 2013-02-01 2014-08-21 Mitsubishi Electric Corp Monitoring control system
US8892446B2 (en) 2010-01-18 2014-11-18 Apple Inc. Service orchestration for intelligent automated assistant
US8977584B2 (en) 2010-01-25 2015-03-10 Newvaluexchange Global Ai Llp Apparatuses, methods and systems for a digital conversation management platform
JP2015060612A (en) * 2013-09-19 2015-03-30 株式会社デンソー Information processing apparatus
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
JP6113370B1 (en) * 2016-01-22 2017-04-12 三菱電機株式会社 Storage device, control device, display device, and storage method
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
JP2017111571A (en) * 2015-12-15 2017-06-22 オムロン株式会社 Control device, monitoring system, control program, and recording medium
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
JP2018136716A (en) * 2017-02-21 2018-08-30 メタウォーター株式会社 Information processing device, program, and control method
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
WO2018173213A1 (en) * 2017-03-23 2018-09-27 東芝三菱電機産業システム株式会社 Analysis assistance device for iron and steel plant
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
JP2019152967A (en) * 2018-03-01 2019-09-12 オムロン株式会社 Measuring system and method thereof
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
JP2020102130A (en) * 2018-12-25 2020-07-02 東芝三菱電機産業システム株式会社 Data collection and reproduction system
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
CN111538289A (en) * 2019-02-06 2020-08-14 发那科株式会社 Information processing apparatus and program recording medium
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10791216B2 (en) 2013-08-06 2020-09-29 Apple Inc. Auto-activating smart responses based on activities from remote devices
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US11188048B2 (en) 2018-10-23 2021-11-30 Keyence Corporation Programmable logic controller and main unit
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
CN111538289B (en) * 2019-02-06 2024-07-09 发那科株式会社 Information processing device and program recording medium

Cited By (210)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06288796A (en) * 1993-03-31 1994-10-18 Mitsubishi Kasei Corp Decentralized facility control and diagnostic system
JPH06337767A (en) * 1993-05-27 1994-12-06 Yokogawa Electric Corp Plant monitor device
JPH07219618A (en) * 1994-01-28 1995-08-18 Kawasaki Steel Corp Method for testing production control system
JPH085521A (en) * 1994-06-16 1996-01-12 East Japan Railway Co Travelling inspection apparatus and display method for travelling inspection
JPH0868673A (en) * 1994-08-31 1996-03-12 Toshiba Corp Method for monitoring state of machine based on distributed measurement data
JPH08166260A (en) * 1994-12-12 1996-06-25 Hioki Ee Corp Method for displaying data for measuring instrument
JPH08226830A (en) * 1995-02-21 1996-09-03 Toshiba Corp Plant monitoring apparatus
JPH08304274A (en) * 1995-04-28 1996-11-22 Jasco Corp Spectrophotometer
JPH10111149A (en) * 1996-10-04 1998-04-28 Yokogawa Electric Corp Data recorder
JPH10207530A (en) * 1997-01-21 1998-08-07 Hitachi Ltd Recording information display system and its method
KR19990012455A (en) * 1997-07-29 1999-02-25 이대원 Integrated control system for process control
JPH11103263A (en) * 1997-09-26 1999-04-13 Dowa Mining Co Ltd Communication equipment/measuring instrument provided with simple input device
JPH11327628A (en) * 1998-05-14 1999-11-26 Hitachi Ltd Facility management system
JP2000040185A (en) * 1998-07-24 2000-02-08 Kawasaki Steel Corp Crime preventive monitor device
JP2001042929A (en) * 1999-05-21 2001-02-16 Hitachi Ltd Device and method for monitoring plant operation
JP2001027585A (en) * 1999-07-14 2001-01-30 Hitachi Ltd Vibration monitoring method for rotary body and its device
JP2001216590A (en) * 2000-01-31 2001-08-10 Toshiba Corp Effluent alarm control table and display table of telemeter
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
JP2002132336A (en) * 2000-10-24 2002-05-10 Toshiba Corp Plant operation supporting device
JP2003256035A (en) * 2002-02-27 2003-09-10 Toshiba Corp Plant monitoring device
JP2004133621A (en) * 2002-10-09 2004-04-30 Sumitomo Chem Co Ltd Device and program for presenting equipment relationship and computer readable recording medium storing this program
JP2004199444A (en) * 2002-12-19 2004-07-15 Toshiba Corp Plant monitoring device
JP2006518894A (en) * 2003-02-26 2006-08-17 エンベディッド・テクノロジーズ・コーポレイション・プロプライエタリー・リミテッド Process control system and method for configuring a process control system
JP2005148967A (en) * 2003-11-13 2005-06-09 Yokogawa Electric Corp Operation support device
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
JP2013128296A (en) * 2006-09-06 2013-06-27 Apple Inc Voicemail manager for portable multifunction device
JP2017201821A (en) * 2006-09-06 2017-11-09 アップル インコーポレイテッド Voicemail manager for portable multifunction device
US10732834B2 (en) 2006-09-06 2020-08-04 Apple Inc. Voicemail manager for portable multifunction device
US11449223B2 (en) 2006-09-06 2022-09-20 Apple Inc. Voicemail manager for portable multifunction device
JP2010503332A (en) * 2006-09-06 2010-01-28 アップル インコーポレイテッド Voicemail manager for portable multifunction devices
US9117447B2 (en) 2006-09-08 2015-08-25 Apple Inc. Using event alert text as input to an automated assistant
US8942986B2 (en) 2006-09-08 2015-01-27 Apple Inc. Determining user intent based on ontologies of domains
US8930191B2 (en) 2006-09-08 2015-01-06 Apple Inc. Paraphrasing of user requests and results by automated digital assistant
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US10381016B2 (en) 2008-01-03 2019-08-13 Apple Inc. Methods and apparatus for altering audio output signals
JP2009180860A (en) * 2008-01-30 2009-08-13 Yokogawa Electric Corp Process-related data display device and process-related data display method
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
JP2009250792A (en) * 2008-04-07 2009-10-29 Hitachi Kokusai Electric Inc Data inspection system
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US10108612B2 (en) 2008-07-31 2018-10-23 Apple Inc. Mobile device having human language translation capability with positional feedback
JP2010072739A (en) * 2008-09-16 2010-04-02 Shinano Kenshi Co Ltd Data collection device
JP2010071687A (en) * 2008-09-16 2010-04-02 Shinano Kenshi Co Ltd Program for analysis of moving image data
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
JP2010271289A (en) * 2009-05-25 2010-12-02 Yokogawa Electric Corp Waveform display apparatus and waveform display method
US10475446B2 (en) 2009-06-05 2019-11-12 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8903716B2 (en) 2010-01-18 2014-12-02 Apple Inc. Personalized vocabulary for digital assistant
US8892446B2 (en) 2010-01-18 2014-11-18 Apple Inc. Service orchestration for intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US9548050B2 (en) 2010-01-18 2017-01-17 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9431028B2 (en) 2010-01-25 2016-08-30 Newvaluexchange Ltd Apparatuses, methods and systems for a digital conversation management platform
US11410053B2 (en) 2010-01-25 2022-08-09 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US8977584B2 (en) 2010-01-25 2015-03-10 Newvaluexchange Global Ai Llp Apparatuses, methods and systems for a digital conversation management platform
US10984327B2 (en) 2010-01-25 2021-04-20 New Valuexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10984326B2 (en) 2010-01-25 2021-04-20 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10607140B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US9424861B2 (en) 2010-01-25 2016-08-23 Newvaluexchange Ltd Apparatuses, methods and systems for a digital conversation management platform
US9424862B2 (en) 2010-01-25 2016-08-23 Newvaluexchange Ltd Apparatuses, methods and systems for a digital conversation management platform
US10607141B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
CN102281432A (en) * 2010-06-09 2011-12-14 株式会社日立制作所 Monitoring device and system for manufacturing shop, monitoring device and system for rolling shop, and monitoring method for rolling shop
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
JPWO2012140715A1 (en) * 2011-04-11 2014-07-28 東芝三菱電機産業システム株式会社 Data synchronous reproduction apparatus, data synchronous reproduction method, and data synchronous control program
JP5478776B2 (en) * 2011-04-11 2014-04-23 東芝三菱電機産業システム株式会社 Data synchronous reproduction apparatus, data synchronous reproduction method, and data synchronous control program
WO2012140715A1 (en) * 2011-04-11 2012-10-18 東芝三菱電機産業システム株式会社 Data synchronization and reproduction device, data synchronization and reproduction method, and data synchronization control program
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US11120372B2 (en) 2011-06-03 2021-09-14 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
JPWO2013136406A1 (en) * 2012-03-12 2015-07-30 東芝三菱電機産業システム株式会社 Data synchronous reproduction apparatus, data synchronous reproduction method, and data synchronous control program
WO2013136406A1 (en) * 2012-03-12 2013-09-19 東芝三菱電機産業システム株式会社 Synchronized data playback apparatus, synchronized data playback method, and data synchronization control program
US9384784B2 (en) 2012-03-12 2016-07-05 Toshiba Mitsubishi-Electric Industrial Systems Corporation Data synchronous reproduction apparatus, data synchronous reproduction method, and data synchronization control program
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
JP2014149703A (en) * 2013-02-01 2014-08-21 Mitsubishi Electric Corp Monitoring control system
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10978090B2 (en) 2013-02-07 2021-04-13 Apple Inc. Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10657961B2 (en) 2013-06-08 2020-05-19 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
US10791216B2 (en) 2013-08-06 2020-09-29 Apple Inc. Auto-activating smart responses based on activities from remote devices
JP2015060612A (en) * 2013-09-19 2015-03-30 株式会社デンソー Information processing apparatus
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10083690B2 (en) 2014-05-30 2018-09-25 Apple Inc. Better resolution when referencing to concepts
US10497365B2 (en) 2014-05-30 2019-12-03 Apple Inc. Multi-command single utterance input method
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US11257504B2 (en) 2014-05-30 2022-02-22 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10431204B2 (en) 2014-09-11 2019-10-01 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US11556230B2 (en) 2014-12-02 2023-01-17 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US11087759B2 (en) 2015-03-08 2021-08-10 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10311871B2 (en) 2015-03-08 2019-06-04 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
JP2017111571A (en) * 2015-12-15 2017-06-22 オムロン株式会社 Control device, monitoring system, control program, and recording medium
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP6113370B1 (en) * 2016-01-22 2017-04-12 三菱電機株式会社 Storage device, control device, display device, and storage method
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11069347B2 (en) 2016-06-08 2021-07-20 Apple Inc. Intelligent automated assistant for media exploration
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
JP2018136716A (en) * 2017-02-21 2018-08-30 メタウォーター株式会社 Information processing device, program, and control method
JPWO2018173213A1 (en) * 2017-03-23 2019-11-07 東芝三菱電機産業システム株式会社 Steel plant analysis support equipment
CN110402420A (en) * 2017-03-23 2019-11-01 东芝三菱电机产业系统株式会社 The analysis assisting system of steel plant
WO2018173213A1 (en) * 2017-03-23 2018-09-27 東芝三菱電機産業システム株式会社 Analysis assistance device for iron and steel plant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11307023B2 (en) 2018-03-01 2022-04-19 Omron Corporation Measurement system and method thereof
JP2019152967A (en) * 2018-03-01 2019-09-12 オムロン株式会社 Measuring system and method thereof
US11188048B2 (en) 2018-10-23 2021-11-30 Keyence Corporation Programmable logic controller and main unit
JP2020102130A (en) * 2018-12-25 2020-07-02 東芝三菱電機産業システム株式会社 Data collection and reproduction system
US11314224B2 (en) 2019-02-06 2022-04-26 Fanuc Corporation Information processing device and program recording medium
CN111538289A (en) * 2019-02-06 2020-08-14 发那科株式会社 Information processing apparatus and program recording medium
JP2020126526A (en) * 2019-02-06 2020-08-20 ファナック株式会社 Information processing unit and program
CN111538289B (en) * 2019-02-06 2024-07-09 发那科株式会社 Information processing device and program recording medium

Also Published As

Publication number Publication date
JP2970964B2 (en) 1999-11-02

Similar Documents

Publication Publication Date Title
JPH0579951A (en) Monitoring system
US6335722B1 (en) Video or information processing method and processing apparatus, and monitoring method and monitoring apparatus using the same
US6353461B1 (en) Multiple camera video assist control system
US6778223B2 (en) Image display apparatus and method
JPS59135680A (en) Viewer for video edition
JP3927608B2 (en) Moving image display device and moving image storage device
US6297856B1 (en) Apparatus and system for reading data from a dynamic image data file
JP2005267279A (en) Information processing system and information processing method, and computer program
JP3372096B2 (en) Image information access device
JP2002152721A (en) Video display method and device for video recording and reproducing device
JP4881568B2 (en) Surveillance camera system
JP2008152584A (en) Display image control device and display method thereof, and content display device and display method thereof
JP2002344897A (en) Video display device
JPH04196987A (en) Moving picture access device and moving picture link editing device
JP2004266623A (en) Monitoring camera management system
JP3238205B2 (en) Screen tagging method and device
JP3558813B2 (en) Video surveillance system
JP3369797B2 (en) Surveillance image recording and playback device
JP3441200B2 (en) Plant monitoring equipment
JP3216810B2 (en) Video data display system
JPH0969008A (en) Operation state monitor device
JP2001216019A (en) Process monitoring device
JP2009152834A (en) Image playback apparatus
JPH0756622A (en) Monitoring control system
JPH05120354A (en) Video tape retrieval device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070827

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080827

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080827

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090827

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100827

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100827

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110827

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees