JPH0520560A - Fire point detecting device - Google Patents

Fire point detecting device

Info

Publication number
JPH0520560A
JPH0520560A JP17498991A JP17498991A JPH0520560A JP H0520560 A JPH0520560 A JP H0520560A JP 17498991 A JP17498991 A JP 17498991A JP 17498991 A JP17498991 A JP 17498991A JP H0520560 A JPH0520560 A JP H0520560A
Authority
JP
Japan
Prior art keywords
fire
image
matrix
fire point
ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP17498991A
Other languages
Japanese (ja)
Other versions
JP3035377B2 (en
Inventor
Hiromitsu Ishii
弘允 石井
Takashi Ono
隆 小野
Kiyoshi Watanabe
洌 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hochiki Corp
Original Assignee
Hochiki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hochiki Corp filed Critical Hochiki Corp
Priority to JP3174989A priority Critical patent/JP3035377B2/en
Publication of JPH0520560A publication Critical patent/JPH0520560A/en
Application granted granted Critical
Publication of JP3035377B2 publication Critical patent/JP3035377B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To correctly perform the distance measurement, etc., by specifying the same fire point which can be seen from two television cameras even at the time of the fire source caught as a surface on a screen while this is the device to detect the fire point (one point in the fire source) in a warning area by using the image of the fire image-picked up with two color television cameras. CONSTITUTION:R, G and B components of an image image-picked up by two color television cameras 10a and 10b at the time of fire occurrence are extracted and stored 46 and 48, and further, the ratio of two components of the R, G and B components is calculated 52. Continuously, with each picture element of two images as an attention picture element, a matrix is applied 54 in the sequence, the sum of the square error of the picture element included in the matrix applied for two images is calculated 56 as a parameter to show similarity, the matrix having the minimum value in the sum of the square error obtained concerning the whole combination of the matrix applied for two images is selected 58 as the strongest similarity and based on the position of the central picture element of two selected matrixes and the scanning angle of a television camera, the fire point is decided 60.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、2台のカラーテレビカ
メラで撮像された火災の画像を用いて警戒区域の中の火
災点(火源の中の一点)を検出する火災点検出装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fire point detecting device for detecting a fire point (one point in a fire source) in a warning area by using a fire image taken by two color television cameras. .

【0002】[0002]

【従来の技術】従来、テレビカメラを用いた火災監視装
置としては、テレビカメラにより監視エリアを監視し、
火災が生じた際にテレビカメラからの映像信号によって
火源までの距離と方向を検出し、消火ノズルを制御する
ものが知られている(特開平1−268572号)。
2. Description of the Related Art Conventionally, as a fire monitoring device using a TV camera, a TV camera monitors a monitoring area,
It is known that the fire extinguishing nozzle is controlled by detecting the distance and direction to the fire source by a video signal from a television camera when a fire occurs (Japanese Patent Laid-Open No. 1-268572).

【0003】この場合の火源までの距離の検出は、所定
レベルを越える輝度信号の位置を火点として検出し、水
平及び垂直同期信号の立上がりから火点検出位置までの
パルス数を計数し、1パルス当りの距離を予め決めてお
くことで、パルス計数値から距離を求めている。しか
し、このような画像処理による火源までの距離の検出で
は、精度が悪いことから、大空間の構造物にあっては図
7に示すように、2台のテレビカメラ1a、1bを設置
し、火源2をテレビカメラ1a、1bで捕えた時の走査
角α1、α2と設置間距離Lとに基づき、三角測量の原
理に従って例えばテレビカメラ1の中間に設置した消火
ノズル3から火源2までの距離Xを求めるようにしてい
る。
In detecting the distance to the fire source in this case, the position of the luminance signal exceeding a predetermined level is detected as a fire point, and the number of pulses from the rise of the horizontal and vertical synchronizing signals to the fire point detection position is counted, By previously determining the distance per pulse, the distance is obtained from the pulse count value. However, since detection of the distance to the fire source by such image processing is inaccurate, two TV cameras 1a and 1b are installed in a large space structure as shown in FIG. Based on the scanning angles α1 and α2 and the installation distance L when the fire source 2 is captured by the TV cameras 1a and 1b, the fire source 2 is supplied from the fire extinguishing nozzle 3 installed in the middle of the TV camera 1 according to the principle of triangulation. The distance X to is calculated.

【0004】[0004]

【発明が解決しようとする課題】ところで、このような
2台のテレビカメラを用いた三角測量の原理に基づく距
離の測定にあっては、大空間構造物を対象としたために
テレビカメラ1から火源2までの距離が十分に長く、テ
レビカメラ1の画面上では火源2を点として捕えること
ができるため精度よく距離を測定できる。
By the way, in the distance measurement based on the principle of triangulation using such two TV cameras, since the target is a large space structure, the TV camera 1 fires. Since the distance to the source 2 is sufficiently long and the fire source 2 can be captured as a point on the screen of the television camera 1, the distance can be accurately measured.

【0005】しかしながら、通常の室内等の小空間での
火災監視にあっては、テレビカメラからの監視距離が近
いため、図8に示すように火源2は画面上で面として捕
えられることとなり、テレビカメラ1a,1bから見た
火源2の位置がP,Qと異なり、その結果、三角測量の
原理で距離を求めると火源2より遠いR点までの距離を
求めてしまうこととなり、距離の測定誤差が大きくなる
問題があった。
However, in a normal fire monitoring in a small space such as a room, since the monitoring distance from the television camera is short, the fire source 2 is caught as a surface on the screen as shown in FIG. , The position of the fire source 2 viewed from the television cameras 1a and 1b is different from P and Q, and as a result, if the distance is obtained by the principle of triangulation, the distance to the R point farther than the fire source 2 will be obtained. There was a problem that the measurement error of the distance became large.

【0006】本発明は、このような従来の問題点に鑑み
てなされたもので、画面上で面として捕えられる火源で
あっても2台のテレビカメラに共通な火災点を特定して
距離測定等を正確にできる火災点検出装置を提供するこ
とを目的とする。
The present invention has been made in view of the above-mentioned problems of the prior art. Even if a fire source is caught as a surface on the screen, a fire point common to two TV cameras is specified and the distance is set. It is an object of the present invention to provide a fire point detection device capable of accurate measurement and the like.

【0007】[0007]

【課題を解決するための手段】この目的を達成するため
本発明は次のように構成する。尚、実施例図面中の符号
を併せて示す。即ち、本発明の火災点検出装置は、監視
区域を撮像する第1及び第2のカラーテレビカメラ10
a,10bと、第1及び第2のカラーテレビカメラ10
a,10bを水平及び垂直方向に走査する走査機構(1
2,14,24,26)と、火災発生時に第1及び第2
のカラーテレビカメラ10a,10bで撮像された第1
及び第2画像62,64の画素毎のR、G、及びB成分
を抽出して記憶する画像メモリ46,48と、画像メモ
リ46,48に格納された第1画像62及び第2画像6
4のR、G、B成分を用いて各画素毎に2つの成分の比
を算出する比率演算部52と、第1画像62及び第2画
像64の各画素を注目画素として予め定めた画素数n
(例えばn=8)のマトリクスA,Bを順番に適用する
マトリクス走査を行うマトリクス走査部54と、第1画
像62を走査するマトリクスAに含まれる複数画素の比
率演算部52による成分比と第2画像64を走査するマ
トリクスBに含まれる複数画素の比率演算部52による
成分比の2乗誤差の総和を算出する2乗誤差演算部56
と、第1画像62と第2画像64の全ての画素を注目画
素として適用したマトリクスA,Bの全ての組合せにつ
いて2乗誤差演算部56で得られた成分比の2乗誤差e
ijの中の最小値を選択する最小値選択部58と、第1及
び第2のカラーテレビカメラ1a,1bの走査角情報
(α、β1,β2)と最小値選択部58で選択された最
小値を与える第1画像62及び第2画像64に適用した
マトリクスの中心画素Aij、Bijに基づいて火災点を決
定する火災点決定部60とを設けたことを特徴とする。
To achieve this object, the present invention is constructed as follows. The reference numerals in the drawings of the embodiments are also shown. That is, the fire point detection device according to the present invention includes the first and second color television cameras 10 for imaging the surveillance area.
a, 10b and first and second color television cameras 10
Scanning mechanism for scanning a and 10b in the horizontal and vertical directions (1
2, 14, 24, 26) and the first and second when a fire occurs
First imaged by color television cameras 10a, 10b
And image memories 46 and 48 for extracting and storing R, G, and B components for each pixel of the second images 62 and 64, and the first image 62 and the second image 6 stored in the image memories 46 and 48.
A ratio calculation unit 52 that calculates the ratio of two components for each pixel using the R, G, and B components of 4, and the number of pixels determined in advance as each pixel of the first image 62 and the second image 64 n
A matrix scanning unit 54 that performs matrix scanning in which (for example, n = 8) matrices A and B are sequentially applied, and a component ratio by a ratio calculation unit 52 of a plurality of pixels included in the matrix A that scans the first image 62 A square error calculator 56 that calculates the sum of the square errors of the component ratios by the ratio calculator 52 of a plurality of pixels included in the matrix B that scans the two images 64.
And the squared error e of the component ratios obtained by the squared error calculator 56 for all combinations of the matrices A and B in which all the pixels of the first image 62 and the second image 64 are applied as the target pixel.
The minimum value selection unit 58 that selects the minimum value in ij , the scanning angle information (α, β1, β2) of the first and second color television cameras 1a and 1b, and the minimum value selected by the minimum value selection unit 58. A fire point determination unit 60 that determines a fire point based on the center pixels A ij and B ij of the matrix applied to the first image 62 and the second image 64 that give values is provided.

【0008】ここで比率演算部54は、B成分とR成分
の比率(B/R)又はG成分とR成分との比率(G/
R)を演算する。また2乗誤差演算部56は、第1画面
62に適用したマトリクスAに含まれるn個の画素の成
分比率をμn 、第2画面64に適用したマトリクスBに
含まれるn個の画素の成分比率をεn とするとき、2つ
のマトリクスA,B間の2乗誤差の総和eijを、
Here, the ratio calculator 54 calculates the ratio of the B component to the R component (B / R) or the ratio of the G component to the R component (G / R).
R) is calculated. In addition, the square error calculation unit 56 sets the component ratio of n pixels included in the matrix A applied to the first screen 62 to μ n , and the component ratio of n pixels included in the matrix B applied to the second screen 64. When the ratio is ε n , the total sum of squared errors e ij between the two matrices A and B is

【0009】[0009]

【数2】 [Equation 2]

【0010】として算出する。更にまた、火災点を決定
する際の演算を簡単にするため、火災検出時に走査機構
を制御して第1及び第2のテレビカメラ10a,10b
の画面中心に火源の画像がくるようにセンタリングした
後に画像メモリ46,48に画像データを記憶する。
It is calculated as Furthermore, in order to simplify the calculation when determining the fire point, the scanning mechanism is controlled when a fire is detected to control the first and second television cameras 10a and 10b.
After centering so that the image of the fire source comes to the center of the screen, the image data is stored in the image memories 46 and 48.

【0011】また比率演算部52以降の演算負荷を低減
するため、画像メモリ46,48に記憶された画像の中
から火源を含む所定範囲の画像を切出して処理すること
が望ましい。更に、処理速度を優先する場合には、第1
画面62及び第2画面64の処理対象となる画素の単位
を、所定数毎にブロック化したブロック画素を1単位と
して処理するようにしてもよい。
Further, in order to reduce the calculation load on and after the ratio calculation section 52, it is desirable to cut out and process a predetermined range of images including the fire source from the images stored in the image memories 46 and 48. Further, when the processing speed is prioritized, the first
The pixels of the screen 62 and the second screen 64 to be processed may be processed with a block pixel, which is a block of a predetermined number, as one unit.

【0012】[0012]

【作用】このような構成を備えた本発明の火災点検出装
置によれば次の作用が得られる。本発明の基本原理は、
2台のテレビカメラで捕えた火源の画像の各々に例えば
3×3マトリクスを適用し、2つのマトリクスに含まれ
る画素の類似度を比較し、類似度の一番強いマトリクス
の注目画素(中心画素)を2つの画像で共通な火災点と
して決定する。
According to the fire spot detecting device of the present invention having such a structure, the following actions can be obtained. The basic principle of the present invention is
For example, a 3 × 3 matrix is applied to each of the images of the fire source captured by two TV cameras, the similarities of the pixels included in the two matrices are compared, and the pixel of interest (center of Pixel) is determined as a common fire point in the two images.

【0013】このマトリクスの適用による類似度の比較
に本発明にあっては、画素のR、G、B成分の比率とし
て、比率B/R又はG/Rを使用する。また類似度を示
すパラメータとしては、比較する2つのマトリクスの成
分比の2乗誤差の総和を導入し、この2乗誤差が最小値
となる各画像のマトリクスの適用部分が一番強い類似、
即ち炎の画像が一致した部分と判定して、このマトリク
スの中の注目画素(中心画素)を2台のカラーテレビカ
メラが見た火源上の同じ点を示す火災点として決定す
る。
In the present invention, the ratio B / R or G / R is used as the ratio of the R, G and B components of the pixel for the comparison of the similarities by applying this matrix. As the parameter indicating the similarity, the sum of the squared errors of the component ratios of the two matrices to be compared is introduced, and the applied portion of the matrix of each image having the smallest squared error has the strongest similarity,
That is, it is determined that the flame images match each other, and the pixel of interest (center pixel) in this matrix is determined as a fire point indicating the same point on the fire source viewed by the two color television cameras.

【0014】このように2台のカラーテレビカメラから
見た火災点が同一点となることで、画面上で面として捕
えられる火源であっても、正確に火点位置を特定して例
えば火源までの距離を測定することができる。
Since the fire points viewed from the two color television cameras are the same point in this way, even if the fire source is caught as a surface on the screen, the fire point position can be accurately specified and the fire point, for example, can be fired. The distance to the source can be measured.

【0015】[0015]

【実施例】図1は本発明の一実施例を示した実施例構成
図である。図1において、10aは第1のテレビカメラ
であり、また10bは第2のテレビカメラである。テレ
ビカメラ10a,10bは図8に示したと同様、警戒区
域を監視できるように所定設置間隔Lを隔てて設置され
ている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram of an embodiment showing one embodiment of the present invention. In FIG. 1, 10a is a first television camera, and 10b is a second television camera. As shown in FIG. 8, the television cameras 10a and 10b are installed at a predetermined installation interval L so that the warning area can be monitored.

【0016】カラーテレビカメラ10aには水平回動モ
ータ12と垂直回動モータ14を備えた走査機構が設け
られ、テレビカメラ10aの光軸を監視領域の適宜の位
置に向けることができるようにしている。水平回動モー
タ12は駆動回路16により駆動され、また垂直回動モ
ータ14は駆動回路18により駆動される。更に、水平
回動モータ12によるカラーテレビカメラ10aの水平
走査角は水平走査角センサ20により検出され、また垂
直回動モータ14によるカラーテレビカメラ10aの垂
直走査角は垂直走査角センサ22により検出される。
The color television camera 10a is provided with a scanning mechanism having a horizontal rotation motor 12 and a vertical rotation motor 14 so that the optical axis of the television camera 10a can be directed to an appropriate position in the monitoring area. There is. The horizontal rotation motor 12 is driven by a drive circuit 16, and the vertical rotation motor 14 is driven by a drive circuit 18. Further, the horizontal scanning angle of the color television camera 10a by the horizontal rotation motor 12 is detected by the horizontal scanning angle sensor 20, and the vertical scanning angle of the color television camera 10a by the vertical rotation motor 14 is detected by the vertical scanning angle sensor 22. It

【0017】カラーテレビカメラ10bについても同様
に、水平回動モータ24及び垂直回動モータ26を備え
た走査機構駆動回路28,30、水平走査角センサ32
及び垂直走査角センサ34が設けられる。40は本発明
の火災位置検出処理を実行するマイクロプロセッサ(以
下「MPU」という)であり、内部に示す各回路部の機
能をプログラム制御により実現する。
Similarly, for the color television camera 10b, the scanning mechanism drive circuits 28 and 30 having the horizontal rotation motor 24 and the vertical rotation motor 26, and the horizontal scanning angle sensor 32 are provided.
And a vertical scanning angle sensor 34 are provided. Reference numeral 40 is a microprocessor (hereinafter referred to as “MPU”) that executes the fire position detection processing of the present invention, and realizes the functions of the circuit units shown inside by program control.

【0018】まずMPU40には走査制御部42と走査
角検出部44が設けられる。走査制御部42は通常監視
状態にあっては、警戒区域全体を見渡せる所定方向にカ
ラーテレビカメラ10a,10bを位置決めしており、
火災が検出されると、例えばカラーテレビカメラ10
a,10bから得られる画像の中の火源位置、即ち炎を
示す輝度信号を使用して火源位置が画面の中心にくるよ
うにカラーテレビカメラ10a,10bをセンタリング
させる。
First, the MPU 40 is provided with a scan controller 42 and a scan angle detector 44. In the normal monitoring state, the scanning control unit 42 positions the color television cameras 10a and 10b in a predetermined direction overlooking the entire warning area,
When a fire is detected, for example, the color TV camera 10
The color television cameras 10a and 10b are centered so that the position of the fire source in the image obtained from a, 10b, that is, the brightness signal indicating the flame is located at the center of the screen.

【0019】走査角検出部44はカラーテレビカメラ1
0a,10bに設けた水平走査角センサ20,32及び
垂直走査角センサ22,34からの角度検出信号を入力
し、例えば水平走査角α1,α2に基づいて火災点に対
するテレビカメラの交差角αを算出して出力し、また垂
直走査角β1,β2についてはそのまま出力する。カラ
ーテレビカメラ10a,10bからの画像信号は火災検
出時に画像メモリ46,48のそれぞれに読み込まれ
る。画像メモリ46,48はカラーテレビカメラ10
a,10bからRGB毎に1画面分の画像信号が得られ
ることからR、G、B、更に輝度の各成分を格納した4
枚のフレームメモリで構成される。
The scanning angle detector 44 is the color television camera 1.
The angle detection signals from the horizontal scanning angle sensors 20, 32 and the vertical scanning angle sensors 22, 34 provided in 0a, 10b are input, and the intersection angle α of the television camera with respect to the fire point is determined based on the horizontal scanning angles α1, α2, for example. It is calculated and output, and the vertical scanning angles β1 and β2 are output as they are. Image signals from the color television cameras 10a and 10b are read into the image memories 46 and 48, respectively, when a fire is detected. The image memories 46 and 48 are color television cameras 10.
Since an image signal for one screen is obtained for each RGB from a, 10b, R, G, B, and luminance components 4 are stored.
It consists of one frame memory.

【0020】画像メモリ46,48に続いては画像切出
し部50が設けられる。画像切出し部50は火災検出に
伴って画像メモリ46,48に格納された各画像の中の
火源を含む所定範囲の画像を火災位置検出のための処理
画像として切り出して比率演算部52に与える。比率演
算部52は画像切出し部50で切り出された切出し画像
を対象にR、G、B成分の成分比を演算する。この実施
例にあっては、B成分とR成分の比率B/Rを演算す
る。比率演算部52で演算する比率はB/R以外にG成
分とR成分の比率G/Rを求めてもよい。
An image cutout unit 50 is provided following the image memories 46 and 48. The image cutout unit 50 cuts out an image in a predetermined range including the fire source in each image stored in the image memories 46 and 48 in response to the detection of a fire as a processed image for detecting a fire position, and gives the cutout image to the ratio calculation unit 52. . The ratio calculation unit 52 calculates the component ratio of the R, G, and B components for the cutout image cut out by the image cutout unit 50. In this embodiment, the ratio B / R of the B component and the R component is calculated. The ratio calculated by the ratio calculation unit 52 may be the ratio G / R of the G component and the R component other than B / R.

【0021】比率演算部52に続いてはマトリクス走査
部54が設けられる。マトリクス走査部54は画像切出
し部50によるカラーテレビカメラ10a,10bの各
切出し画像に対し、例えば3×3のマトリクスを画素毎
に適用する。マトリクス走査部54で2つの切出し画像
の中の特定の画素を注目画素としてそれぞれマトリクス
が適用されると、2乗誤差演算部56において2つのマ
トリクス間の類似度を表わす各マトリクス構成画素毎の
2乗誤差の総和がB/R比を用いて演算される。
A matrix scanning unit 54 is provided subsequent to the ratio calculation unit 52. The matrix scanning unit 54 applies, for example, a 3 × 3 matrix to each pixel for each clipped image of the color television cameras 10a and 10b by the image clipping unit 50. When the matrix is applied in the matrix scanning unit 54 with specific pixels in the two cutout images as the target pixel, the square error calculation unit 56 expresses the similarity between the two matrices by 2 for each matrix constituent pixel. The sum of power errors is calculated using the B / R ratio.

【0022】マトリクス走査部54と2乗誤差演算部5
6による処理はカラーテレビカメラ10a,10bから
得られた2つの切出し画像の画素毎に適用されるマトリ
クスの全ての組合せについて求められる。2乗誤差演算
部56に続いては最小値選択部58が設けられ、2乗誤
差演算部56で算出された2つの画像の全ての画素に対
するマトリクスの適用による組合せで求められた2乗誤
差の総和の中から最も類似度の高いものとして最小値を
選択する。
The matrix scanning section 54 and the square error computing section 5
The processing by 6 is obtained for all combinations of matrices applied to each pixel of the two cutout images obtained from the color television cameras 10a and 10b. A minimum value selection unit 58 is provided subsequent to the squared error calculation unit 56, and the squared error of the squared error calculated by applying the matrix to all the pixels of the two images calculated by the squared error calculation unit 56 is calculated. The minimum value is selected as the one with the highest degree of similarity from the total sum.

【0023】最小値選択部58に続いては火災点決定部
60が設けられ、最小値選択部58で選択された最小値
となる2乗誤差の総和を与える2つの画像のマトリクス
の注目画素、即ちマトリクスの中心画素の位置を2つの
カラーテレビカメラ10a,10bから火源を見たとき
の同じに見える火災点として決定し、更に走査角検出部
44から得られた走査角α,β1,β2を使用して、例
えば三角測量に従ってカラーテレビカメラ10a,10
bから決定した火災点等の距離等を算出する。
A fire point determination unit 60 is provided subsequent to the minimum value selection unit 58, and a pixel of interest in a matrix of two images that gives the sum of squared errors that are the minimum values selected by the minimum value selection unit 58, That is, the position of the central pixel of the matrix is determined as a fire point that looks the same when the fire source is viewed from the two color television cameras 10a and 10b, and the scanning angles α, β1, β2 obtained from the scanning angle detection unit 44 are determined. , For example, according to triangulation, color television cameras 10a, 10
Calculate distances such as fire points determined from b.

【0024】図2は図1のMPU40による火災検出処
理を示したフローチャートである。図2において、まず
ステップS1(以下「ステップ」は省略)において火災
の有無を監視しており、火災が検出されるとS2以降の
処理に進む。まずS2で例えばカラーテレビカメラ10
a,10bから得られる画像の中の輝度信号に基づいて
火源が画面中心となるように図3(1)に示すようにセ
ンタリングを行い、画像メモリ46,48にカラーテレ
ビカメラ10a,10bで捉えられた火源2の画像をR
GB成分に分けて記憶する。
FIG. 2 is a flow chart showing the fire detection processing by the MPU 40 of FIG. In FIG. 2, first, the presence or absence of a fire is monitored in step S1 (hereinafter “step” is omitted), and when a fire is detected, the process proceeds to S2 and subsequent steps. First, in S2, for example, the color television camera 10
Based on the luminance signal in the image obtained from a, 10b, centering is performed as shown in FIG. 3 (1) so that the fire source is in the center of the screen, and the image is stored in the image memories 46, 48 by the color television cameras 10a, 10b. The captured image of fire source 2 is R
The GB component is stored separately.

【0025】続いてS3に進み、図3(2)の第1画像
62及び第2画像64に示すように、火源2を含む所定
範囲の画像を切り出し、切出し画像に含まれる各画素毎
に、例えば成分比率B/Rを求める。続いてS4に進
み、第1切出し画像62−1に3×3のマトリクスAを
適用し、マトリクスAを構成する9つの成分(a0 ,a
1 ,・・・a8 )に対応する画素Aij毎の比率B/Rを
(μ0 ,μ1 ,・・・μ8 )として求める。
Next, in S3, as shown in the first image 62 and the second image 64 of FIG. 3 (2), an image of a predetermined range including the fire source 2 is cut out, and for each pixel included in the cut out image. , For example, the component ratio B / R is obtained. Then, the procedure proceeds to S4, in which the 3 × 3 matrix A is applied to the first cut-out image 62-1 and the nine components (a 0, a
The ratio B / R for each pixel A ij corresponding to 1, ... A8) is obtained as (μ0, μ1, ... μ8).

【0026】第1切出し画像62−1に適用されるマト
リクスAは図3(4)に取り出して示すように、縦×横
=3×3の合計9個のマトリクス成分a0〜a8 を持
ち、中央のマトリクス成分a4 を第1切出し画像62−
1の中の処理対象とする斜線で示す注目画素Aijに適用
する。そして切出し画像62−1に適用したマトリクス
Aのマトリクス成分a0 〜a8 に対応する画素のもつB
/R比を(μ0 〜μ8 )として抽出する。
The matrix A applied to the first cut-out image 62-1 has a total of nine matrix components a0 to a8 of length × width = 3 × 3, as shown in FIG. The matrix component a4 of the first cutout image 62-
It is applied to the target pixel A ij indicated by the slanted line which is the processing target in 1. The pixel B corresponding to the matrix components a0 to a8 of the matrix A applied to the cut-out image 62-1 has B
The / R ratio is extracted as (μ0 to μ8).

【0027】図3にあっては、第1切出し画像62−1
の任意の注目画素Aijに対しマトリクスAを適用した状
態を示すが、マトリクスAは図4に示すように各画素に
対し順番に適用されるマトリクス走査を行う。図4
(a)は第1切出し画像62−1を示したもので、画像
を構成する各画素はAijで表わされる。ここでiは行方
向の画素番号であり、0〜nの値をもつ。またjは列方
向の画素番号であり、0〜mの値をもつ。最大値n及び
mの大きさは切出し画像の大きさにより適宜に決められ
る。
In FIG. 3, the first cutout image 62-1 is displayed.
The state in which the matrix A is applied to an arbitrary pixel of interest A ij is shown. The matrix A performs matrix scanning sequentially applied to each pixel as shown in FIG. Figure 4
(A) shows the first cutout image 62-1 and each pixel forming the image is represented by A ij . Here, i is a pixel number in the row direction and has a value of 0 to n. Further, j is a pixel number in the column direction and has a value of 0 to m. The sizes of the maximum values n and m are appropriately determined according to the size of the cutout image.

【0028】この図4(a)に示す第1切出し画像62
−1に対し最初は図4(b)に示すようにAij=A00
なる左上隅の画素にマトリクスAの中心成分a4 が一致
するように適用する。このような画素A00に対するマト
リクスAの適用で対応するB/R比として(μ0 〜μ8
)が求められたならば、次にマトリクスAを右側に1
つシフトして次の画素A10を注目画素としてマトリクス
Aを適用してB/R比を求める。以下同様に、最後の画
素Anmまでマトリクスを適用してB/R比を求める。
The first cutout image 62 shown in FIG.
-1 is applied so that the central component a4 of the matrix A coincides with the pixel at the upper left corner where A ij = A 00 as shown in FIG. 4 (b). By applying the matrix A to such a pixel A 00 , the corresponding B / R ratio (μ 0 to μ 8
) Is obtained, then the matrix A is moved to the right by 1
And the next pixel A 10 is used as the pixel of interest to apply the matrix A to obtain the B / R ratio. Similarly, the matrix is applied to the last pixel A nm to obtain the B / R ratio.

【0029】再び図2を参照するに、次にS5で図3
(3)に示す第2切出し画像64−1を対象に同じく3
×3のマトリクスBを適用し、マトリクスBの構成要素
(b0,b1 ,・・・b8 )に対応する画素BijのB/
R比を(ε0 ,ε1 ,・・・ε8 )として求める。この
マトリクスBも図3(4)に取り出して示すように縦横
が3×3で合計9個の成分b0 〜b8 で構成される。ま
た、第2切出し画像64−1についても図4に示したと
同様にして全ての画素B00〜BnmについてマトリクスB
を適用してB/R比を求める。
Referring again to FIG. 2, next in S5, as shown in FIG.
The same applies to the second cutout image 64-1 shown in (3).
By applying the matrix B of × 3, B / of the pixel B ij corresponding to the constituent elements (b0, b1, ... b8) of the matrix B
The R ratio is calculated as (ε0, ε1, ... ε8). This matrix B is also composed of a total of nine components b0 to b8 with a length and width of 3 × 3, as shown in FIG. 3 (4). Also, for the second cut-out image 64-1, the matrix B for all the pixels B 00 to B nm is performed in the same manner as shown in FIG.
To determine the B / R ratio.

【0030】このようにしてS4,S5で第1及び第2
の切出し画像62−1,64−1に対するマトリクスの
適用でB/R比が求められたならば、S6においてマト
リクスAを適用した注目画素AijのB/R比に対するマ
トリクスBを適用した画素B ij毎のB/R比の2乗誤差
の総和を求める。即ち、S4,S5の処理により図3
(5)に示すように全ての注目画素AijとBijに対する
各マトリクスA,Bの適用によりB/R比(μ0 〜μ8
)及び(ε0 〜ε8 )が求められたことから、(6)
に示すようにマトリクスA,Bの各成分a0 〜a8 とb
0 〜b8 毎に2乗誤差K0 〜K8 を求める。
In this way, the first and second S4 and S5 are performed.
Of the cutout images 62-1 and 64-1
If the B / R ratio is found in the application, in S6
Target pixel A to which lix A is appliedijThe B / R ratio of
Pixel B to which Trix B is applied ijSquare error of B / R ratio for each
Find the sum of. That is, by the processing of S4 and S5 shown in FIG.
As shown in (5), all the target pixels AijAnd BijAgainst
By applying each matrix A and B, the B / R ratio (μ0 to μ8
 ) And (ε0 to ε8) were obtained, (6)
As shown in, the components a0 to a8 and b of the matrices A and B are
Squared errors K0 to K8 are obtained for each 0 to b8.

【0031】即ち、マトリクスAの成分an におけるB
/R比をμn 、マトリクスBの同じマトリクス成分bn
におけるB/R比をεn とすると、一般式として2乗誤
差は次式で与えられる。
That is, B in the component a n of the matrix A
/ R ratio is μ n , the same matrix component b n of matrix B
Assuming that the B / R ratio at is ε n , the square error is given by the following equation as a general equation.

【0032】[0032]

【数3】 [Equation 3]

【0033】この実施例にあってはマトリクスA,Bは
3×3の9つの成分であり、n=0〜8となることから
次式のようにそれぞれの2乗誤差が求められる。
In this embodiment, the matrices A and B are 9 elements of 3 × 3, and since n = 0 to 8, the respective squared errors are obtained by the following equation.

【0034】[0034]

【数4】 [Equation 4]

【0035】そして図3(7)に示すように、次式に従
って2乗誤差の総和eijを求める。
Then, as shown in FIG. 3 (7), the sum of squared errors e ij is obtained according to the following equation.

【0036】[0036]

【数5】 [Equation 5]

【0037】再び図2を参照するに、S6で2乗誤差の
総和が第1切出し画像62−1に適用したマトリクスA
と第2切出し画像64−1に適用したマトリクスBの全
ての組合せについて算出されたならば、S7で最も強い
類似度を示す2乗誤差eijの最小値を求める。最終的に
S8でこのときのカラーテレビカメラ10a,10bに
ついて走査角検出部44で求められた走査角α,β1,
β2と、S7で選択された最小値となる2乗誤差の総和
ijが求められたマトリクスAとBの中心成分a4 ,b
4 に対応する注目画素Aij及びBijの座標を用いて、火
災点を決定する。これは図3(7)(8)及び(9)に
示す処理である。
Referring again to FIG. 2, the matrix A in which the sum of squared errors is applied to the first cut-out image 62-1 in S6.
If all combinations of the matrix B applied to the second cut-out image 64-1 are calculated, the minimum value of the square error e ij indicating the strongest similarity is obtained in S7. Finally, in S8, the scanning angles α, β1, obtained by the scanning angle detection unit 44 for the color television cameras 10a, 10b at this time are determined.
The central components a4 and b of the matrices A and B from which β2 and the total sum e ij of the squared errors which are the minimum values selected in S7 are obtained.
The fire point is determined using the coordinates of the target pixels A ij and B ij corresponding to 4. This is the process shown in FIGS. 3 (7), (8) and (9).

【0038】S8で火災点として決定された画素Aij
びBijは、図3の(3)のマトリクスA,Bの中の斜線
で示す中央の画素であり、切出し画像62−1,64−
1上では異なった位置となっているが、図3(1)の火
源2においてはカラーテレビカメラ10a,10bから
見た同じ点である。図5は本発明による火災位置の検出
状態を平面的に示したもので、広がりをもつ火源2に対
し第1及び第2のカラーテレビカメラ10a,10bが
図示のように位置している。
The pixels A ij and B ij determined as the fire points in S8 are the central pixels indicated by diagonal lines in the matrices A and B of (3) in FIG. 3, and the cutout images 62-1 and 64-
Although it is in a different position on Fig. 1, it is the same point when viewed from the color television cameras 10a and 10b in the fire source 2 of Fig. 3 (1). FIG. 5 is a plan view showing a detected state of the fire position according to the present invention, in which the first and second color television cameras 10a and 10b are positioned with respect to the spread fire source 2 as shown.

【0039】本発明の火災位置の検出処理が行われない
場合には、テレビカメラ10a,10bを火源2に指向
させたときの火災点はP,Qとなり、火源2より遠いR
点を火災点として判定する。これに対し本発明にあって
は、図2及び図3に示した処理により火源2上の一点S
が火災点として判定され、火源2までの距離を2つのテ
レビカメラから見た同じS点として認識することで距離
を正確に検出できる。
When the fire position detection processing of the present invention is not performed, the fire points when the TV cameras 10a and 10b are directed to the fire source 2 are P and Q, and the fire point is farther from the fire source 2.
Judge the point as a fire point. On the other hand, in the present invention, one point S on the fire source 2 is processed by the processing shown in FIGS.
Is determined as a fire point and the distance to the fire source 2 is recognized as the same S point viewed from two TV cameras, so that the distance can be accurately detected.

【0040】具体的な判定した火災点Sまでの距離の測
定は、テレビカメラ10a,10bの光軸を火源2上の
判定された同じ火災点Sに指向させ、この状態での走査
角αとカメラ設置間隔Lに基づいて測定すればよい。よ
り具体的には図3(3)に示す火災点と判定された画素
ij及びBijがカラーテレビカメラ10a,10bの画
面62,64の中心に位置するようにカラーテレビカメ
ラ10a,10bを走査すると、図5に示す火災点Sに
カラーテレビカメラ10a,10bを指向させた状態を
作り出すことができる。
To measure the distance to the determined fire point S, the optical axes of the television cameras 10a and 10b are directed to the same determined fire point S on the fire source 2, and the scanning angle α in this state is measured. And the camera installation interval L may be used for the measurement. More specifically, the color television cameras 10a and 10b are set so that the pixels A ij and B ij determined to be the fire points shown in FIG. 3C are located at the centers of the screens 62 and 64 of the color television cameras 10a and 10b. By scanning, it is possible to create a state in which the color television cameras 10a and 10b are directed to the fire point S shown in FIG.

【0041】図6は本発明の処理対象となる画像の画素
構成の他の実施例を示した説明図である。即ち、前述し
た実施例にあっては切出し画像62−1,64−1の1
画素毎にマトリクスA,Bを適用して処理を行っていた
が、図6の実施例にあっては、例えば4×4の16画素
で1つの画素ブロックBLijを構成し、この画素ブロッ
クBLijで構成される切出し画像に対し同様にマトリク
スを適用して成分比の2乗誤差の総和を求める。
FIG. 6 is an explanatory view showing another embodiment of the pixel configuration of an image to be processed according to the present invention. That is, in the above-described embodiment, one of the cutout images 62-1 and 64-1 is used.
The processing is performed by applying the matrices A and B for each pixel, but in the embodiment of FIG. 6, for example, one pixel block BL ij is constituted by 4 × 4 16 pixels, and this pixel block BL The matrix is similarly applied to the cutout image constituted by ij to obtain the sum of squared errors of the component ratio.

【0042】ここで、画素ブロックBijについての成分
比は、1つの画素ブロックBLijを構成する例えば16
個の画素の総和あるいは平均値を使用すればよい。この
図6に示す画素のブロック化により処理対象となる画素
数を減らし、より高速な火災位置の決定処理を行うこと
ができる。勿論、位置検出精度を高めるためには画素毎
に処理することが望ましい。
Here, the component ratio for the pixel block B ij constitutes, for example, one pixel block BL ij , for example, 16
The sum or average value of the individual pixels may be used. By dividing the pixels shown in FIG. 6 into blocks, the number of pixels to be processed can be reduced, and a faster fire position determination process can be performed. Of course, it is desirable to process each pixel in order to improve the position detection accuracy.

【0043】[0043]

【発明の効果】以上説明してきたように、本発明によれ
ば、従来の輝度信号のみによって決定している火災位置
に比べカラー画像を構成するR、G、B成分の中の2つ
の成分比から求めた類似度により火源上で同じ位置とな
る2つの画面の対応点を火災点として決定しているた
め、画面上で面として捉えられる火源であっても2つの
テレビカメラにより正確に火災点を特定し、例えば火災
点までの距離を正確に測定して、より効率的な消火制御
を行うことができる。
As described above, according to the present invention, the ratio of two components among the R, G and B components forming a color image is compared with the conventional fire position determined only by the luminance signal. Since the corresponding points on the two screens that are at the same position on the fire source are determined as the fire points based on the similarity calculated from, even if the fire source can be seen as a surface on the screen, the two TV cameras accurately It is possible to specify a fire point, accurately measure the distance to the fire point, and perform more efficient fire extinguishing control.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例構成図FIG. 1 is a configuration diagram of an embodiment of the present invention.

【図2】本発明の検出処理を示したフローチャートFIG. 2 is a flowchart showing a detection process of the present invention.

【図3】本発明の処理内容を示した説明図FIG. 3 is an explanatory diagram showing the processing contents of the present invention.

【図4】本発明における切出し画像に対するマトリクス
の適用走査を示した説明図
FIG. 4 is an explanatory diagram showing application scanning of a matrix for a cutout image according to the present invention.

【図5】本発明による火災点の決定を平面的に示した説
明図
FIG. 5 is an explanatory view showing the determination of a fire point according to the present invention in a plan view.

【図6】本発明で処理する切出し画像における画素をブ
ロック化した説明図
FIG. 6 is an explanatory diagram in which pixels in a cutout image processed by the present invention are divided into blocks.

【図7】従来の大空間における2台のテレビカメラを用
いた火源監視の説明図
FIG. 7 is an explanatory diagram of fire source monitoring using two TV cameras in a conventional large space.

【図8】従来の小空間における2台のテレビカメラによ
る火源監視の問題を示した説明図
FIG. 8 is an explanatory view showing a problem of fire source monitoring by two TV cameras in a conventional small space.

【符号の説明】[Explanation of symbols]

10a:第1のカラーテレビカメラ 10b:第2のカラーテレビカメラ 12,24:水平回動モータ 14,26:垂直回動モータ 16,18,28,30:駆動回路 20,32:水平走査角センサ 22,34:垂直走査角センサ 40:マイクロプロセッサ(MPU) 42:走査制御部 44:走査角検出部 46,48:画像メモリ 50:画像切出し部 52:比率演算部 54:マトリクス走査部 56:2乗誤差演算部 58:最小値選択部 60:火災点決定部 62:第1画像 64:第2画像 10a: First color television camera 10b: second color TV camera 12, 24: Horizontal rotation motor 14, 26: Vertical rotation motor 16, 18, 28, 30: drive circuit 20, 32: Horizontal scanning angle sensor 22, 34: Vertical scan angle sensor 40: Microprocessor (MPU) 42: Scan control unit 44: Scanning angle detector 46, 48: image memory 50: Image cutout section 52: Ratio calculation unit 54: Matrix scanning unit 56: Square error calculator 58: Minimum value selection section 60: Fire point determination unit 62: First image 64: Second image

フロントページの続き (72)発明者 渡辺 洌 東京都品川区上大崎2丁目10番43号 ホー チキ株式会社内Continued front page    (72) Inventor Taku Watanabe             2-1043 Kamiosaki, Shinagawa-ku, Tokyo Ho             Chiki Co., Ltd.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】監視区域を撮像する第1及び第2のカラー
テレビカメラと、 該第1及び第2のカラーテレビカメラを水平及び垂直方
向に走査する走査機構と、 火災発生時に前記第1及び第2のカラーテレビカメラで
撮像された第1及び第2画像の画素毎のR、G、及びB
成分を抽出して記憶する画像メモリと、 該画像メモリに格納された第1及び第2画像のR、G、
B成分を用いて各画素毎に2つの成分の比率を算出する
比率演算部と、 前記第1及び第2の画像の各画素を注目画素として予め
定めた画素数(n)のマトリクスを順番に適用するマト
リクス走査を行うマトリクス走査部と、 第1画像を走査する前記マトリクスに含まれる複数画素
の前記比率演算部による成分比と第2画像を走査するマ
トリクスに含まれる複数画素の前記比率演算部による成
分比の2乗誤差の総和を算出する2乗誤差演算部と、 第1画像と第2画像の全ての画素を注目画素として適用
したマトリクスの全ての組合せについて前記2乗誤差演
算部で得られた成分比の2乗誤差の総和の中の最小値を
選択する最小値選択部と、 前記第1及び第2のカラーテレビカメラの走査角情報と
前記最小値選択部で選択された最小値を与える第1及び
第2画像に適用したマトリクスの中心画素の位置に基づ
いて火災点を決定する火災点決定部と、 を設けたことを特徴とする火災点検出装置。
1. A first and a second color television camera for imaging a surveillance area, a scanning mechanism for scanning the first and the second color television camera in horizontal and vertical directions, and the first and the second when a fire occurs. R, G, and B for each pixel of the first and second images captured by the second color television camera
An image memory for extracting and storing components, and R, G of the first and second images stored in the image memory,
A ratio calculation unit that calculates the ratio of two components for each pixel using the B component, and a matrix of a predetermined number (n) of pixels, in which each pixel of the first and second images is a target pixel, in order. A matrix scanning unit that performs a matrix scan to be applied, and a component calculation ratio of a plurality of pixels included in the matrix that scans a first image and the ratio calculation unit that includes a plurality of pixels included in a matrix that scans a second image The square error calculator calculates the sum of the squared errors of the component ratios by, and the square error calculator calculates all combinations of the matrix in which all the pixels of the first image and the second image are applied as the target pixels. A minimum value selecting section for selecting a minimum value in the sum of squared errors of the obtained component ratios; scan angle information of the first and second color television cameras, and a minimum value selected by the minimum value selecting section. give A fire point detection device, comprising: a fire point determination unit that determines a fire point based on a position of a central pixel of a matrix applied to the first and second images.
【請求項2】請求項1記載の火災点検出装置に於いて、 前記比率演算手段は、B成分とR成分の比(B/R)又
はG成分とR成分との比(G/R)を演算することを特
徴とする火災点検出装置。
2. The fire point detection device according to claim 1, wherein the ratio calculation means is a ratio of B component and R component (B / R) or a ratio of G component and R component (G / R). A fire point detection device characterized by calculating.
【請求項3】請求項1記載の火災点検出装置に於いて、 前記2乗誤差演算部は、第1画面に適用したマトリクス
に含まれるn個の画素の成分比率をμn 、第2画面に適
用したマトリクスに含まれるn個の画素の成分比率をε
n とするとき、2つのマトリクス間の2乗誤差の総和e
ijを、 【数1】 として算出することを特徴とする火災点検出装置。
3. The fire point detection device according to claim 1, wherein the squared error calculator calculates the component ratio of n pixels included in the matrix applied to the first screen as μ n , and the second screen as the second screen. The component ratio of n pixels included in the matrix applied to
Let n be the sum of squared errors between the two matrices e
ij is given by Fire point detection device characterized by calculating as.
【請求項4】請求項1記載の火災点検出装置に於いて、 火災検出時に前記走査機構を制御して前記第1及び第2
のテレビカメラの画面中心に火源の画像がくるようにセ
ンタリングした後に前記画像メモリに画像データを記憶
することを特徴とする火災点検出装置。
4. The fire point detection device according to claim 1, wherein when the fire is detected, the scanning mechanism is controlled to control the first and second fire mechanisms.
The fire point detection device, which stores image data in the image memory after centering the image of the fire source at the center of the screen of the television camera.
【請求項5】請求項1記載の火災点検出装置に於いて、 前記画像メモリに記憶された画像の中から火源を含む所
定範囲の画像を切出して処理することを特徴とする火災
点検出装置。
5. The fire point detection device according to claim 1, wherein an image in a predetermined range including a fire source is cut out from the images stored in the image memory and processed. apparatus.
【請求項6】請求項1記載の火災点検出装置に於いて、 前記第1画面及び第2画面の処理対象となる画素の単位
を、所定数毎にブロック化したブロック画素を1単位と
して処理することを特徴とする火災点検出装置。
6. The fire point detection device according to claim 1, wherein the unit of pixels to be processed on the first screen and the second screen is a block pixel obtained by blocking every predetermined number of pixels. Fire point detection device characterized by being.
JP3174989A 1991-07-16 1991-07-16 Fire point detector Expired - Fee Related JP3035377B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3174989A JP3035377B2 (en) 1991-07-16 1991-07-16 Fire point detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3174989A JP3035377B2 (en) 1991-07-16 1991-07-16 Fire point detector

Publications (2)

Publication Number Publication Date
JPH0520560A true JPH0520560A (en) 1993-01-29
JP3035377B2 JP3035377B2 (en) 2000-04-24

Family

ID=15988274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3174989A Expired - Fee Related JP3035377B2 (en) 1991-07-16 1991-07-16 Fire point detector

Country Status (1)

Country Link
JP (1) JP3035377B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134571A (en) * 1997-10-29 1999-05-21 Nagoya Denki Kogyo Kk Method and device for fire detection
GB2390675A (en) * 2002-07-10 2004-01-14 Univ Greenwich Flame characteristic monitor using digitising image camera
CN108520615A (en) * 2018-04-20 2018-09-11 芜湖岭上信息科技有限公司 A kind of fire identification system and method based on image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134571A (en) * 1997-10-29 1999-05-21 Nagoya Denki Kogyo Kk Method and device for fire detection
GB2390675A (en) * 2002-07-10 2004-01-14 Univ Greenwich Flame characteristic monitor using digitising image camera
CN108520615A (en) * 2018-04-20 2018-09-11 芜湖岭上信息科技有限公司 A kind of fire identification system and method based on image

Also Published As

Publication number Publication date
JP3035377B2 (en) 2000-04-24

Similar Documents

Publication Publication Date Title
CA2078374A1 (en) Method for displaying defect and apparatus therefor
JP2001145718A (en) Ball trajectory measuring device
JP2001194576A (en) Range-finding device and camera equipped therewith
JPH0520560A (en) Fire point detecting device
JP3796356B2 (en) Camera control apparatus, method, and computer-readable storage medium
US6002431A (en) Video correction apparatus for camcorder
JP2805897B2 (en) Image quality inspection equipment
JPH11161875A (en) Method for monitoring image
CN113840137A (en) Verification method and system for mobile detection sensitivity of network camera
US20190279477A1 (en) Monitoring system and information processing apparatus
JPH057363A (en) Picture monitoring device
JPH055609A (en) Cubic recognition method of image
JP2733958B2 (en) Long sheet defect inspection equipment
KR970012877A (en) Cathode ray tube screen inspection adjusting device and method
JP2000262659A (en) Measuring instrument of ball trajectory
JPH01315884A (en) Pattern tracking method
KR100278989B1 (en) Closed Circuit Monitoring Apparatus and Method
JPH09161066A (en) Image processor
JPH04200084A (en) Image monitor device
JPH03160309A (en) Image quality testing apparatus
JPH09172629A (en) Burglar monitoring device
JP3313898B2 (en) Fire detector
JP3008049B2 (en) Defect inspection device
KR20010076041A (en) Appratus and method for inspecting screen quality
JPH09190533A (en) Vehicle detecting device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080218

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20090218

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100218

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20110218

LAPS Cancellation because of no payment of annual fees