JP2000076568A - Fire detecting device - Google Patents

Fire detecting device

Info

Publication number
JP2000076568A
JP2000076568A JP10245368A JP24536898A JP2000076568A JP 2000076568 A JP2000076568 A JP 2000076568A JP 10245368 A JP10245368 A JP 10245368A JP 24536898 A JP24536898 A JP 24536898A JP 2000076568 A JP2000076568 A JP 2000076568A
Authority
JP
Japan
Prior art keywords
fire
fire source
flame
image
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10245368A
Other languages
Japanese (ja)
Other versions
JP3827128B2 (en
Inventor
Masahiko Nemoto
雅彦 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hochiki Corp
Original Assignee
Hochiki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hochiki Corp filed Critical Hochiki Corp
Priority to JP24536898A priority Critical patent/JP3827128B2/en
Publication of JP2000076568A publication Critical patent/JP2000076568A/en
Application granted granted Critical
Publication of JP3827128B2 publication Critical patent/JP3827128B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Fire-Detection Mechanisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To surely detect a fire source by distinguishing flame in a monitored image from flame reflection. SOLUTION: Two or more cameras 1a, 1b, 1c,... are arranged at two or more places to photograph monitored areas. An image detecting processing part 8 detects a fire source position from two or more flame images included in respective monitored images photographed by the two or more cameras 1a, 1b, 1c,... based on the principle of triangulation and only when the fire source position detected by the part 8 exists within a preliminarily set monitored range, a fire deciding part 9 decides as the fire source due to a fire.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラの監視画像
から炎画像を抽出して火災による火源を検出する火災検
出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fire detecting apparatus for detecting a fire source by extracting a flame image from a monitoring image of a camera.

【0002】[0002]

【従来の技術】従来、CCDカメラや二次元アレイ等の
二次元撮像装置をもつ火災検出装置が知られている。
2. Description of the Related Art Conventionally, a fire detecting device having a two-dimensional image pickup device such as a CCD camera or a two-dimensional array has been known.

【0003】このような火災検出装置にあっては、例え
ばCCDカメラ撮影した監視画像をメモリに記憶し、記
憶した監視画像の中の所定輝度を画素領域を炎領域と判
断して抽出し、抽出した炎領域を火災による火源と判断
している。
In such a fire detection device, for example, a monitoring image captured by a CCD camera is stored in a memory, and a predetermined luminance in the stored monitoring image is extracted by judging a pixel region as a flame region and extracting the luminance. The determined flame area is determined to be the source of fire.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の火災検出装置においては、火源の間近にある
壁や床等の面に炎の反射光が反射した場合、火源か反射
なのかという区別が難しいという問題がある。
However, in such a conventional fire detection device, if the reflected light of the flame is reflected on a wall or floor close to the fire source, whether the light is from the fire source or the reflection. Is difficult to distinguish.

【0005】炎とその他の光源を区別するためには、炎
の特徴と言われるCO2 の共鳴放射で発生する4.3μ
m付近の波長だけを通すバンドパスフィルタを使う方法
がある。光の反射の場合、物体から反射される光は、放
射光が直接反射した鏡面反射成分と、物体表面で一旦吸
収された後、放射される拡散反射成分に分けられる。拡
散反射成分は物体の材質を表わすスペクトル分布を示す
ため、バンドパスフィルタで区別することができる。
In order to distinguish a flame from other light sources, 4.3 μm generated by the resonance radiation of CO 2, which is a feature of the flame, is used.
There is a method of using a bandpass filter that passes only wavelengths near m. In the case of light reflection, light reflected from an object is divided into a specular reflection component in which radiated light is directly reflected and a diffuse reflection component emitted once after being absorbed on the object surface. Since the diffuse reflection component has a spectral distribution indicating the material of the object, it can be distinguished by a bandpass filter.

【0006】しかし、鏡面反射成分は光源光と同じスペ
クトル分布を持つため、反射面の角度が浅くなればなる
ほど鏡面反射成分が多くなり、炎と炎の反射はバンドパ
スフィルタでは区別が付かなくなる。
However, since the specular reflection component has the same spectral distribution as that of the light from the light source, the specular reflection component increases as the angle of the reflection surface becomes smaller, and the flame and the reflection of the flame cannot be distinguished by the bandpass filter.

【0007】また鏡面反射成分の一部が偏光になるとい
う性質を使用して直線偏光フィルタをレンズ前面に付
け、反射光の偏光と偏光フィルタの角度が合えば、鏡面
反射成分の偏光部分を除去することができる。しかし、
床面と壁面の反射では偏光方向が異なり、同時に除去す
ることができなかった。
[0007] A linear polarization filter is attached to the front surface of the lens using the property that a part of the specular reflection component becomes polarized. If the angle of the polarization of the reflected light and the angle of the polarization filter match, the polarization portion of the specular reflection component is removed. can do. But,
The direction of polarization was different between the floor surface and the wall surface and could not be removed at the same time.

【0008】本発明は、このような問題点に鑑みてなさ
れたもので、監視画像に含まれる炎と炎の反射を区別し
て火源を確実に検出する火災検出装置を提供することを
目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide a fire detection device that reliably detects a fire source by distinguishing between flames and the reflection of the flames contained in a monitoring image. I do.

【0009】[0009]

【課題を解決するための手段】この目的を達成するため
本発明は次のように構成する。
In order to achieve this object, the present invention is configured as follows.

【0010】本発明の火災検出装置は、異なる2以上の
地点に配置され、監視範囲の画像を撮影する2台以上の
カメラと、2台以上のカメラで撮影した監視画像の各々
に含まれる2台以上の火源画像から三角測量の原理に基
づいて火源位置を検出する画像処理部と、監視範囲を区
画する床面、壁面等の境界位置を予め設定し、画像処理
部で検出した火源位置が前記設定境界位置の内側の場合
に火災よる火源と判定し、前記設定境界範囲を超えてい
る場合は反射による火源として処理対象から除外する火
災判定部とで構成される。
[0010] The fire detection device of the present invention is disposed at two or more different points and has two or more cameras for capturing images of a monitoring range, and two or more cameras included in each of the monitoring images captured by the two or more cameras. An image processing unit that detects the position of the fire source based on the principle of triangulation from images of more than one fire source, and a boundary position such as a floor surface or a wall surface that divides the monitoring range is set in advance, and the image processing unit detects the fire position. When the source position is inside the set boundary position, it is determined as a fire source due to a fire, and when the source position is outside the set boundary range, the fire determination unit is excluded as a fire source due to reflection from the processing target.

【0011】このような本発明の火災検出装置によれ
ば、監視画像から三角測量の原理に基づいて求めた火源
位置につき、監視範囲内のものだけを火源と判断するこ
とで、床や壁等で反射した炎を火源と誤って判断するこ
とを確実に防止する。
According to such a fire detecting apparatus of the present invention, only a fire source located within a monitoring range is determined as a fire source for a fire source position obtained from a monitoring image based on the principle of triangulation, so that a floor or a wall can be detected. In this way, it is possible to prevent the flame reflected by the above from being erroneously determined as a fire source.

【0012】本発明の別の形態にあっては、異なる2以
上の地点に配置され、監視範囲にある火源の監視画像を
撮影する2台以上のカメラと、監視範囲の火源位置に向
けてスポット光を照射するスポット光投影部と、2台以
上のカメラで撮影した監視画像の各々に含まれる2以上
の火源画像から三角測量の原理に基づいて火源位置を検
出する画像処理部と、画像処理部で検出した火源位置に
スポット光投影部からスポット光を照射した状態で、2
台以上のカメラで撮影した監視画像の炎画像とスポット
光画像の位置が一致している場合に火災による火源と判
定し、位置がずれている場合に反射による火源と判定し
て処理対象から除外することを特徴とする火災判定部と
で構成する。
According to another aspect of the present invention, two or more cameras are disposed at two or more different points and capture monitoring images of a fire source in a monitoring range, and are directed to a fire source position in the monitoring range. A spot light projection unit for irradiating a spot light, and an image processing unit for detecting a fire source position based on the principle of triangulation from two or more fire source images included in each of monitoring images captured by two or more cameras. In the state where the spot light is irradiated from the spot light projection unit to the fire source position detected by the image processing unit, 2
If the position of the flame image and the spot light image of the monitoring image taken by more than one camera match, it is determined as a fire source due to fire, and if the position is shifted, it is determined as a fire source due to reflection, and the processing target And a fire determination unit characterized by being excluded from

【0013】この場合にも、監視範囲内のものだけを火
源と判断することで、床や壁等で反射した炎を火源と誤
って判断することを確実に防止する。
In this case as well, by judging only a fire source within the monitoring range as a fire source, it is possible to reliably prevent a flame reflected on a floor or a wall from being erroneously judged as a fire source.

【0014】更に本発明の別の形態にあっては、異なる
2以上の地点に配置され、監視範囲にある火源の監視画
像を撮影する2台以上のカメラと、2台以上のカメラ側
に配置され、監視範囲に存在する物体までの距離を測定
する測距部と、2台以上のカメラで撮影した監視画像の
各々に含まれる2以上の火源画像から三角測量の原理に
基づいて火源位置を検出する画像処理部と、画像処理部
で検出した火源位置に測距装置を指向させて距離を測定
し、画像処理部の測定距離と測距装置の測定距離とが一
致した場合は火災による火源と判定し、一致しない場合
は反射による火源として処理対象から除外する火災判定
部とで構成する。
According to still another aspect of the present invention, two or more cameras are provided at two or more different points and capture monitoring images of a fire source within a monitoring range. Based on the principle of triangulation, based on the principle of triangulation, a ranging unit that is arranged and measures the distance to an object present in the monitoring range, and from two or more fire source images included in each of the monitoring images captured by two or more cameras. When the distance is measured by directing the distance measuring device to the image processing unit that detects the source position and the fire source position detected by the image processing unit, and the measured distance of the image processing unit matches the measured distance of the distance measuring device. Is determined as a fire source due to a fire, and if they do not match, a fire determination unit is excluded as a fire source due to reflection from the processing target.

【0015】この場合にも、距離の測距に基づき火源と
判断することで、床や壁等で反射した炎を火源と誤って
判断することを確実に防止する。
Also in this case, by judging a fire source based on the distance measurement, it is possible to reliably prevent a flame reflected on a floor or a wall from being erroneously judged as a fire source.

【0016】[0016]

【発明の実施の形態】図1は本発明の火災検出装置の第
1実施形態であり、三角測量の原理に基づいて監視画像
に含まれる炎画像の位置を検出し、火災による炎か反射
による炎かを判断するようにしたことを特徴とする。
FIG. 1 shows a first embodiment of a fire detection device according to the present invention. The fire detection device detects the position of a flame image included in a monitoring image based on the principle of triangulation, and detects the position of a flame or reflection caused by a fire. It is characterized by judging whether it is a flame.

【0017】図1において、第1実施形態の火災検出装
置は、左側カメラ1、右側カメラ2、左画像メモリ6、
右画像メモリ7、画像処理部8及び火災判定部9で構成
される。左側カメラ1及び右側カメラ2はそれぞれ監視
範囲10L,10Rを持ち、監視空間の検出対象物であ
る炎3を監視している。
In FIG. 1, a fire detection device according to a first embodiment includes a left camera 1, a right camera 2, a left image memory 6,
It comprises a right image memory 7, an image processing unit 8, and a fire determination unit 9. The left camera 1 and the right camera 2 have monitoring ranges 10L and 10R, respectively, and monitor the flame 3 as a detection target in the monitoring space.

【0018】この左側カメラ1と右側カメラ2は図2の
ように、監視区画に対しカメラ光軸1a,2aが平行又
は交差するように配置されており、このカメラ光軸1
a,2aの相対関係を保ったまま、左側カメラ1及び右
側カメラ2を監視空間に向けてそれぞれの監視範囲10
L,10Rの画像を撮影する。
As shown in FIG. 2, the left camera 1 and the right camera 2 are arranged so that the camera optical axes 1a and 2a are parallel or intersect with the monitoring section.
The left camera 1 and the right camera 2 are directed toward the monitoring space while maintaining the relative relationship between
Images of L and 10R are taken.

【0019】図2の監視空間は壁4aと床4bで区画さ
れており、この監視空間で火災が発生して炎3が存在し
ている。また火災による炎3に相対する壁4aには壁面
反射炎5aが映っている。また床4bにも炎4による床
面反射炎5bが映っている。このため、左側カメラ1及
び右側カメラ2で監視空間を撮影した場合には、それぞ
れの監視画像に炎3、壁面反射炎5a及び床面反射炎5
bの3つの炎画像が含まれることになる。
The monitoring space shown in FIG. 2 is divided by a wall 4a and a floor 4b. A fire occurs in this monitoring space, and a flame 3 exists. A wall reflection flame 5a is reflected on the wall 4a facing the flame 3 due to the fire. Also, a floor reflection flame 5b due to the flame 4 is reflected on the floor 4b. Therefore, when the surveillance space is photographed by the left camera 1 and the right camera 2, the flame 3, the wall reflection flame 5a, and the floor reflection flame 5
The three flame images b are included.

【0020】図1の左側カメラ1及び右側カメラ2で同
時に撮影された監視範囲10L,10Rの監視画像は、
左画像メモリ6及び右画像メモリ7のそれぞれに書き込
まれた後、画像処理部8により読み出され、各監視画像
に含まれる一対の火源画像から三角測量の原理に基づい
て火源位置を検出する。
The monitoring images of the monitoring ranges 10L and 10R taken simultaneously by the left camera 1 and the right camera 2 in FIG.
After being written into each of the left image memory 6 and the right image memory 7, it is read by the image processing unit 8, and the position of the fire source is detected based on the principle of triangulation from a pair of fire source images included in each monitoring image. I do.

【0021】画像処理部8で検出される火源位置は、図
2の場合には、炎3、壁面反射炎5a及び床面反射炎5
bの3つの火源位置が検出される。画像処理部8で検出
された1または複数の火源画像の位置は、火災判定部9
に与えられる。火災判定部9には、図2の監視空間にお
ける壁4aや床4b等の境界位置の座標情報が予め設定
されており、画像処理部8で検出した火源位置が予め設
定した壁4aや床4bの設定境界位置の内側にある場合
は、火災による火源と判定する。これに対し検出した火
源位置が設定した境界の範囲を超えている場合には、反
射による火源として処理対象から除外する。
In FIG. 2, the positions of the fire sources detected by the image processing unit 8 are the flame 3, the wall reflection flame 5a, and the floor reflection flame 5a.
The three fire source positions b are detected. The position of one or more fire source images detected by the image processing unit 8 is determined by the fire determination unit 9.
Given to. In the fire determination unit 9, coordinate information of a boundary position such as the wall 4 a or the floor 4 b in the monitoring space of FIG. 2 is set in advance, and the fire source position detected by the image processing unit 8 is set in advance on the wall 4 a or the floor. If it is inside the set boundary position of 4b, it is determined that the fire is caused by a fire. On the other hand, when the detected fire source position exceeds the set boundary range, it is excluded from the processing target as a fire source due to reflection.

【0022】図3は、図1の画像処理部8による三角測
量の原理を用いた火源位置の検出処理の説明図である。
図3において、図1の左側カメラ1の撮像面に対応する
カメラ位置をF1、右側カメラ2の撮像面に対応するカ
メラ位置をF2とすると、このカメラ位置F1,F2の
間隔は例えば距離dと予め定まっている。
FIG. 3 is an explanatory diagram of a process of detecting the position of a fire source using the principle of triangulation by the image processing unit 8 of FIG.
In FIG. 3, if the camera position corresponding to the imaging surface of the left camera 1 in FIG. 1 is F1 and the camera position corresponding to the imaging surface of the right camera 2 is F2, the interval between the camera positions F1 and F2 is, for example, the distance d. It is predetermined.

【0023】このカメラ位置F1,F2から配置された
カメラ光軸1a,2aによって撮影した左画像11Lと
右画像11Rの中に、火災による炎の火源位置Pの火源
画像P1,P2が図示の位置に映っていたとする。この
場合、実際の監視空間における火源位置Pは、カメラ位
置F1と左画像11L上の火源位置P1を結んだ直線の
延長線と、カメラ位置F2と右画像11R上の火源位置
P2を結んだ直線の延長線上の交点として与えられる。
このため、三角測量の原理により火源位置Pの三次元座
標(X,Y,Z)を求めることができる。
In the left image 11L and the right image 11R taken by the camera optical axes 1a and 2a arranged from the camera positions F1 and F2, fire source images P1 and P2 of a fire source position P of a flame due to a fire are shown. Suppose that it was reflected in the position of. In this case, the fire source position P in the actual monitoring space is defined by an extension of a straight line connecting the camera position F1 and the fire source position P1 on the left image 11L, the camera position F2 and the fire source position P2 on the right image 11R. It is given as an intersection on the extension of the connected straight line.
Therefore, the three-dimensional coordinates (X, Y, Z) of the fire source position P can be obtained based on the principle of triangulation.

【0024】ここで説明を簡単にするため、カメラ光軸
1a,2aが完全に平行であり、カメラ位置F1,F2
の上下方向の座標位置zが同じであったとすると、左画
像11Lの火源位置P1の座標は(x1,y1)とな
り、また右画像11Rの火源位置P2の座標は(x2,
y2)となる。またカメラ位置F1,F2の左画像11
L,右画像11Rに対する焦点距離をfとする。この場
合、監視空間の火源位置Pの三次元座標(X,Y,Z)
の値は次式で与えられる。
For the sake of simplicity, the camera optical axes 1a and 2a are completely parallel and the camera positions F1 and F2
Is the same, the coordinates of the fire source position P1 in the left image 11L are (x1, y1), and the coordinates of the fire source position P2 in the right image 11R are (x2,
y2). The left image 11 of the camera positions F1 and F2
L, the focal length for the right image 11R is f. In this case, the three-dimensional coordinates (X, Y, Z) of the fire source position P in the monitoring space
Is given by the following equation.

【0025】[0025]

【数1】 図4は、図1の火災判定部9による図2の炎3と壁面反
射炎5aを区別するための判別処理の説明図である。即
ち、図4は図2を平面的に見ており、図3の三角測量の
原理に基づく火源位置P(X,Y,Z)の検出結果か
ら、左側カメラ1及び右側カメラ2の光軸方向での炎3
及び壁面反射炎5aの距離はZとなっている。
(Equation 1) FIG. 4 is an explanatory diagram of a discrimination process for distinguishing the flame 3 of FIG. 2 from the wall reflection flame 5a by the fire determination unit 9 of FIG. That is, FIG. 4 is a plan view of FIG. 2, and the optical axis of the left camera 1 and the right camera 2 is obtained from the detection result of the fire source position P (X, Y, Z) based on the triangulation principle of FIG. Flame in direction 3
And the distance between the wall reflection flame 5a is Z.

【0026】ここで監視空間の壁4aの位置が例えば左
側カメラ1のカメラ光軸1aを基準としたX軸方向の距
離として設定されていたとすると、カメラ光軸1aから
壁面4aまでの設定境界距離はXthとなっている。そ
こで、炎3の三角測量に基づく火源位置座標に基づき、
カメラ光軸1aからのX軸方向の距離X0を求め、また
壁面反射炎5aについて三角測量の原理に基づいて検出
している火源位置から同じくカメラ光軸1aに対するX
軸方向の距離Xrを求める。
Assuming that the position of the wall 4a in the monitoring space is set as a distance in the X-axis direction with respect to the camera optical axis 1a of the left camera 1, for example, a set boundary distance from the camera optical axis 1a to the wall surface 4a. Is Xth. Therefore, based on the fire source position coordinates based on the triangulation of the flame 3,
The distance X0 in the X-axis direction from the camera optical axis 1a is obtained, and the X-axis relative to the camera optical axis 1a is determined from the fire source position detected on the wall reflection flame 5a based on the principle of triangulation.
Obtain the axial distance Xr.

【0027】このようにして求めた炎3の距離X0及び
壁面反射炎5aの距離Xrを、予め設定した壁4aの設
定境界距離Xthと比較する。炎3の距離X0は壁4a
の設定境界距離Xthより小さいことから、炎3は監視
空間にあることが分かる。これに対し壁面反射炎5aの
距離Xrは壁4aの設定境界距離Xthを超えており、
監視範囲の外に存在していることが分かる。
The distance X0 of the flame 3 and the distance Xr of the wall reflecting flame 5a thus determined are compared with a preset boundary distance Xth of the wall 4a. The distance X0 of the flame 3 is the wall 4a
Is smaller than the set boundary distance Xth, it is understood that the flame 3 is in the monitoring space. On the other hand, the distance Xr of the wall reflecting flame 5a exceeds the set boundary distance Xth of the wall 4a,
It can be seen that it exists outside the monitoring range.

【0028】このように監視範囲の外に炎が存在するこ
とがないため、距離Xrとなった炎5aは反射による炎
として処理対象から除外し、炎3に対してのみ火災によ
る炎と判断して処理を行う。
As described above, since there is no flame outside the monitoring range, the flame 5a having the distance Xr is excluded from the processing target as the flame due to the reflection, and only the flame 3 is determined to be a fire flame. Process.

【0029】図5は、図2の監視空間における炎3と床
面反射炎5bを区別するための図1の火災判定部9によ
る判定処理の説明図である。図5においても、図3の三
角測量の原理に基づいて、火源3に加え床4bの床面反
射炎5bについて火源位置が検出されている。
FIG. 5 is an explanatory diagram of a judgment process by the fire judgment unit 9 of FIG. 1 for distinguishing the flame 3 and the floor reflection flame 5b in the monitoring space of FIG. In FIG. 5 as well, based on the principle of triangulation in FIG. 3, the fire source position is detected for the floor reflection flame 5b of the floor 4b in addition to the fire source 3.

【0030】図1の火災判定部9にあっては、例えば側
面から見た左側カメラ1及び右側カメラ2の光軸1a,
2aを基準に、床4bまでの距離を設定境界距離Yth
として予め登録している。この状態で炎3及び床面反射
炎5bの火源位置が検出できたならば、カメラ光軸1
a,2aを基準に炎3までの距離Y0と床面反射炎5b
までの距離Yrを検出し、それぞれ予め設定した床4b
までの設定境界距離Ythと比較する。
In the fire judging section 9 shown in FIG. 1, for example, the optical axes 1a and 1a of the left camera 1 and the right camera 2 viewed from the side.
Based on 2a, set the distance to floor 4b Set boundary distance Yth
Is registered in advance. In this state, if the fire source positions of the flame 3 and the floor reflection flame 5b can be detected, the camera optical axis 1
The distance Y0 to flame 3 and the floor reflection flame 5b based on a and 2a
The distance Yr to the floor 4 b
Is compared with the set boundary distance Yth.

【0031】この場合、炎3までの距離Y0は設定境界
距離Ythより小さいことから、炎3は監視範囲にある
火災による炎であると判定できる。これに対し炎5bの
距離Yrは設定境界距離Ythを超えており、床4bの
下に存在することになる。このような設定境界距離Yt
hを超える位置の炎5bは、火災による炎ではなく床4
bによる床面反射炎5bであることから、これを処理対
象から除外する。
In this case, since the distance Y0 to the flame 3 is smaller than the set boundary distance Yth, it can be determined that the flame 3 is a flame caused by a fire in the monitoring range. On the other hand, the distance Yr of the flame 5b exceeds the set boundary distance Yth, and exists below the floor 4b. Such a set boundary distance Yt
h, the flame 5b above the floor 4
Since this is the floor reflection flame 5b due to b, it is excluded from the processing target.

【0032】次に図6,図7のフローチャートを参照し
て図1の第1実施形態の火災検出処理を説明する。ここ
で図6のステップS1から図7のステップS10までが
図1の画像処理部8による火源位置の検出処理であり、
図7のステップS11〜S14が図1の火災判定部9に
よる火災判定処理である。
Next, the fire detection process of the first embodiment of FIG. 1 will be described with reference to the flowcharts of FIGS. Here, steps S1 in FIG. 6 to step S10 in FIG. 7 are the process of detecting the position of the fire source by the image processing unit 8 in FIG.
Steps S11 to S14 in FIG. 7 correspond to a fire determination process by the fire determination unit 9 in FIG.

【0033】まず図6のステップS1で、例えば右側カ
メラ2で撮影されて右画像メモリ7に記憶された右画像
を画像処理部8に取り込み、ステップS2で火源の可能
性のある画素を1(白画素)とし、火源の可能性のない
画素を0(黒画素)とする。続いてステップS3で火源
の可能性ありとして1にセットされた画素の領域を画素
のオブジェクトとし、オブジェクトごとに固有の番号を
つけるラベリングを行う。
First, in step S1 of FIG. 6, for example, the right image photographed by the right camera 2 and stored in the right image memory 7 is taken into the image processing section 8, and in step S2, a pixel which may be a fire source is set to 1 (White pixel), and a pixel having no possibility of a fire source is set to 0 (black pixel). Subsequently, in step S3, a region of a pixel set to 1 as a possibility of a fire source is set as a pixel object, and labeling for assigning a unique number to each object is performed.

【0034】図8は図6のステップS1〜S3の処理画
像である。まず図8(A)が例えば右画像の読取りで得
られた元画像であり、炎画像12a、壁面反射炎画像1
2b及び床面反射炎画像12cの3つが映っている。こ
の図8(A)の元画像に対し、各画素単位に火災による
火源の可能性ありで1(白画素)をセットし、火源の可
能性なしのときには0(黒画素)をセットして、図8
(B)の二値化画像とする。
FIG. 8 is a processed image in steps S1 to S3 of FIG. First, FIG. 8A shows an original image obtained by reading the right image, for example, and includes a flame image 12a and a wall reflection flame image 1
2b and the floor reflection image 12c are shown. In the original image of FIG. 8 (A), 1 (white pixel) is set for each pixel in the possibility of a fire source due to a fire, and 0 (black pixel) is set in the case of no possibility of a fire source. FIG.
(B) is a binarized image.

【0035】この二値化画像を生成する際の火源の可能
性の判定は、例えばカメラとして赤外線カメラを使用し
ている場合には、予め定めておいた温度以上の画素につ
いて火災の可能性ありとすればよい。また通常のカメラ
の場合には、炎の放射光により輝度が高いことから、所
定輝度以上の画素を火災の可能性ありと判定すればよ
い。
In the case where an infrared camera is used as a camera, the possibility of a fire is determined for a pixel having a temperature equal to or higher than a predetermined temperature, for example. You have to. In the case of a normal camera, since the luminance is high due to the emitted light of the flame, pixels having a luminance equal to or higher than a predetermined luminance may be determined as having a possibility of fire.

【0036】この場合、炎特有の特徴であるゆらぎ、移
動の有無、重心移動等を捉えて火災の可能性ありの判定
を行うことで判定精度を高めることができる。更にカラ
ーカメラの場合には、輝度に加えて火災時の炎の色を判
定すればよい。即ち、火災時の炎の色は通常赤色(拡散
炎)であることから、例えばカラー画像がRGBデータ
であった場合には、赤となるRGB成分の画素を火災の
可能性ありと判定して1(白画素)をセットすればよ
い。
In this case, it is possible to enhance the accuracy of the determination by determining the possibility of a fire by capturing the fluctuation, the presence / absence of the movement, the movement of the center of gravity, and the like, which are characteristics unique to the flame. Further, in the case of a color camera, the color of the flame at the time of fire may be determined in addition to the luminance. That is, since the color of the flame at the time of a fire is usually red (diffusion flame), for example, if the color image is RGB data, it is determined that a pixel of the RGB component that becomes red is likely to have a fire. What is necessary is just to set 1 (white pixel).

【0037】図8(B)のような二値化により、1で埋
められた二値化画像13a,13bが火源画像と認識で
きる。続いて図8(C)のように、図8(B)の二値化
画像13a,13bについて火源の可能性ありとして1
(白画素)にセットされた二値化画像13a,13bに
ついて、オブジェクト1,2,3としてラベリングした
ラベリング画像14a,14b,14cを生成する。
By the binarization as shown in FIG. 8B, the binarized images 13a and 13b filled with 1 can be recognized as fire source images. Subsequently, as shown in FIG. 8C, the binarized images 13a and 13b in FIG.
For the binarized images 13a and 13b set to (white pixels), labeling images 14a, 14b, and 14c are generated as objects 1, 2, and 3, respectively.

【0038】このような取込画像に対する二値化とラベ
リングは、図6のステップS4〜S6において、左画像
についても同様にして行う。続いてラベリングが済んだ
右画面及び左画面について1つのオブジェクトに着目
し、ステップS8で右画像について着目したオブジェク
トの右重心の計測を行い、またステップS9で左画像に
ついて注目したオブジェクトの左重心の計測を行う。
Such binarization and labeling of the captured image are similarly performed on the left image in steps S4 to S6 in FIG. Subsequently, one object is focused on the right screen and the left screen on which labeling has been completed, the right center of gravity of the object focused on the right image is measured in step S8, and the left center of gravity of the object focused on the left image is measured in step S9. Perform measurement.

【0039】このステップS8,S9によって、注目し
たオブジェクトの火源位置が特定される。即ち、図3の
左画像11L,右画像11Rにおける画像上の火源位置
P1,P2の座標位置が求められる。続いてステップS
3で、図3に示す三角測量の原理に基づき、監視範囲の
火源位置Pの三次元位置を算出する。
In steps S8 and S9, the position of the fire source of the object of interest is specified. That is, the coordinate positions of the fire source positions P1 and P2 on the images in the left image 11L and the right image 11R in FIG. 3 are obtained. Then step S
In 3, the three-dimensional position of the fire source position P in the monitoring range is calculated based on the principle of triangulation shown in FIG.

【0040】次にステップS11に進み、例えば図4,
図5に示したように、予め設定した壁4aや床4bに対
する設定境界距離Xth,Ythとの比較で監視範囲内
か否か判別する。監視範囲内であればステップS12に
進み、現在処理対象としているオブジェクトは火災によ
る火源と判定する。
Next, the process proceeds to step S11, for example, as shown in FIG.
As shown in FIG. 5, it is determined whether or not the distance is within the monitoring range by comparison with preset boundary distances Xth and Yth for the wall 4a and the floor 4b which are set in advance. If it is within the monitoring range, the process proceeds to step S12, and the object to be processed at present is determined to be a fire source due to a fire.

【0041】ステップS11で監視範囲になければ、ス
テップS13に進み、全てのオブジェクトの判定が終了
したか否かチェックし、終了していなければステップS
7に戻り、次のオブジェクトについて重心計測を行って
三次元位置を求め、ステップS11で監視範囲か否か判
定する。
If it is not within the monitoring range in step S11, the process proceeds to step S13, where it is checked whether or not all the objects have been judged.
7, the center of gravity of the next object is measured to determine the three-dimensional position, and it is determined in step S11 whether or not the object is within the monitoring range.

【0042】このため、処理対象となるオブジェクトが
監視範囲内にあれば直ちに火災判定が行われる。また火
源の可能性のあるオブジェクトが実際には火災によるも
のでなかった場合には、ステップS13でオブジェクト
が監視範囲内になく且つ全てのオブジェクトの判定が終
了した段階で、ステップS4で非火災の判定が行われ
る。
Therefore, if the object to be processed is within the monitoring range, a fire determination is immediately made. If the object that may be a fire source is not actually caused by a fire, the object is not within the monitoring range in step S13, and when all objects have been determined, the non-fire is determined in step S4. Is determined.

【0043】図9は本発明による火災検出装置の第2実
施形態のブロック図である。この第2実施形態にあって
は、監視画像から判定した火源位置にスポット光を照射
し、スポット光を照射した画像の状態から、火災による
炎か炎の反射画像かを判定するようにしたことを特徴と
する。
FIG. 9 is a block diagram of a second embodiment of the fire detecting device according to the present invention. In the second embodiment, a spot light is applied to the fire source position determined from the monitoring image, and it is determined from the state of the image irradiated with the spot light whether it is a flame due to a fire or a reflection image of the flame. It is characterized by the following.

【0044】図9において、左側カメラ1、右側カメラ
2、左画像メモリ6、右画像メモリ7は図1の実施形態
と同じであるが、第2実施形態にあっては更に、スポッ
ト光投影部15、投影制御部16、左画像処理部17、
右画像処理部18及び定部19を設けている。左画像処
理部17と右画像処理部18は、図1の画像処理部8と
同様、三角測量の原理に基づいて火源位置を検出する。
即ち、図6及び図7のステップS1〜SS10と同じ処
理により、火源位置が検出される。
In FIG. 9, the left camera 1, the right camera 2, the left image memory 6, and the right image memory 7 are the same as those in the embodiment of FIG. 1, but in the second embodiment, a spot light projection unit is further provided. 15, a projection control unit 16, a left image processing unit 17,
A right image processing unit 18 and a fixed unit 19 are provided. The left image processing unit 17 and the right image processing unit 18 detect a fire source position based on the principle of triangulation, similarly to the image processing unit 8 of FIG.
That is, the fire source position is detected by the same processing as steps S1 to SS10 in FIGS. 6 and 7.

【0045】スポット光投影部15は、図10の平面図
のように、例えばカメラ光軸が平行配置された左側カメ
ラ1と右側カメラ2のうちの左側カメラ1の上部に旋回
自在に配置されている。このスポット光投影部15は例
えばレーザ発射装置であり、その指向方向を制御するこ
とで例えば監視範囲の火源3の位置にスポット光20を
照射できるようにしている。
As shown in the plan view of FIG. 10, the spot light projection unit 15 is rotatably disposed above, for example, the left camera 1 of the left camera 1 and the right camera 2 in which the camera optical axes are arranged in parallel. I have. The spot light projection unit 15 is, for example, a laser emitting device, and can control the direction of its directivity so that the spot light 20 can be applied to, for example, the position of the fire source 3 in the monitoring range.

【0046】このスポット光投影部15を用いた図10
の炎3と、例えば壁4aに映った壁面反射炎5aとの判
別処理は次のようになる。まず図9の左画像処理部17
は、左側カメラ1で撮影した監視範囲10Lの画像を左
画像メモリ6から取り込み、左画面上での炎3及び壁面
反射炎5aの位置を三角測量の原理に基づき検出する。
FIG. 10 using this spot light projection unit 15
The process of discriminating the flame 3 from the flame 4a reflected on the wall 4a is as follows. First, the left image processing unit 17 in FIG.
Captures the image of the monitoring range 10L taken by the left camera 1 from the left image memory 6, and detects the positions of the flame 3 and the wall reflection flame 5a on the left screen based on the principle of triangulation.

【0047】左側カメラ1の撮影画像から炎3及び壁面
反射炎5aの位置が検出できたならば、炎3に向けてス
ポット光投影部15の光軸を光軸15aに指向させて、
炎3にスポット光20を照射する。この炎3に対するス
ポット光20の照射状態で左側カメラ1及び右側カメラ
2により撮影した画像を取り込むと、図11(A)
(B)のようになる。
When the positions of the flame 3 and the wall reflection flame 5a can be detected from the image captured by the left camera 1, the optical axis of the spotlight projection unit 15 is directed toward the flame 3 toward the optical axis 15a.
The flame 3 is irradiated with a spot light 20. When images taken by the left camera 1 and the right camera 2 in a state where the spot light 20 is irradiated to the flame 3 are captured, FIG.
(B).

【0048】図11(A)の左画像26Lには炎画像2
7Lと壁面反射炎画像28Lが映っており、炎画像27
Lにはスポット光投影部15で照射したスポット光30
Lの輝点が映っている。図11(B)の右画像26Rに
も炎画像27Rと壁面反射炎画像28Rが映っており、
炎画像27Rにはスポット光投影部15から照射したス
ポット光30Rの輝点が映っている。
The flame image 2 is included in the left image 26L of FIG.
7L and the wall reflection flame image 28L are reflected, and the flame image 27
L is the spot light 30 irradiated by the spot light projection unit 15
The bright spot of L is reflected. The flame image 27R and the wall reflection flame image 28R are also reflected in the right image 26R of FIG.
The bright spot of the spot light 30R emitted from the spot light projection unit 15 is reflected in the flame image 27R.

【0049】次に図10でスポット光投影部15の光軸
を光軸15bのように壁面反射炎5aに指向制御してビ
ームスポットを照射する。しかしながら、光軸15bに
よるスポット光の照射は、壁4aに当たってスポット光
23となる。この光軸15bによるスポット光の照射状
態で左側カメラ1及び右側カメラ2で撮影した画像を取
り込むと、図12(A)(B)のようになる。
Next, in FIG. 10, the beam axis is directed by controlling the direction of the optical axis of the spot light projection unit 15 to the wall surface reflection flame 5a like the optical axis 15b. However, the irradiation of the spot light by the optical axis 15b impinges on the wall 4a and becomes the spot light 23. When images captured by the left camera 1 and the right camera 2 are captured in a state where the spot light is irradiated by the optical axis 15b, the images are as shown in FIGS.

【0050】まず図12(A)の左画像26Lにあって
は、スポット光投影部15からの光軸15bの一直線上
に壁面反射炎5aと壁4aに当たったスポット光23が
位置することから、壁面反射炎画像28Lの部分にスポ
ット光31Lの輝点が映っている。
First, in the left image 26L of FIG. 12 (A), since the wall reflection flame 5a and the spot light 23 hitting the wall 4a are located on a straight line of the optical axis 15b from the spot light projection unit 15. The bright spot of the spot light 31L is reflected in the portion of the wall reflection image 28L.

【0051】これに対し図12(B)の右画像26Rに
あっては、図10のように、右側カメラ2から壁面反射
炎5aを見た光軸25と壁4aに当たっているスポット
光23を見た光軸24にずれがある。このため図12
(B)の右画像では、壁面反射炎画像28Rの左側のず
れた位置にスポット光31Rの輝点が映っている。
On the other hand, in the right image 26R of FIG. 12B, as shown in FIG. 10, the optical axis 25 of the wall-side reflection flame 5a viewed from the right camera 2 and the spot light 23 hitting the wall 4a are viewed. The optical axis 24 is shifted. Therefore, FIG.
In the right image of (B), the bright spot of the spot light 31R is reflected at a position shifted to the left side of the wall reflection flame image 28R.

【0052】したがって、図11(A)(B)のよう
に、左右画面26L,26Rの同じ炎画像27L,27
Rにスポット光30L,30Rが一致している場合は、
監視範囲に実際に存在する炎と判別する。
Therefore, as shown in FIGS. 11A and 11B, the same flame images 27L, 27R on the left and right screens 26L, 26R.
When the spot lights 30L and 30R coincide with R,
It is determined that the flame actually exists in the monitoring range.

【0053】これに対し図12(A)(B)のように、
左右画面26Lの炎画像28Lにスポット光30Lが一
致し、右画面26Rの同じ炎画像28Rからスポット光
31Rがずれている場合には、ずれを起こした炎画像2
8Rは火災による炎ではなく、壁面反射による炎である
ことが判別でき、処理対象から除外することができる。
On the other hand, as shown in FIGS.
If the spot light 30L matches the flame image 28L on the left and right screens 26L and the spot light 31R is displaced from the same flame image 28R on the right screen 26R, the displaced flame image 2
8R can be discriminated as not a flame due to a fire but a flame due to wall reflection, and can be excluded from the processing target.

【0054】ここで図10は、図2の監視空間において
平面的に見た炎3と壁面反射炎5aについてのスポット
光の照射による判別を例にとっているが、炎3と床面反
射炎5bについても同様に、各炎位置を検出して順次ス
ポット光を照射してその画像を見ることで、炎画像から
ずれた位置にスポット光が映っている場合にその炎画像
を反射によるものと判別して処理対象から除外すればよ
い。
FIG. 10 exemplifies the discrimination of the flame 3 and the wall reflection flame 5a in the monitoring space of FIG. 2 by spot light irradiation as an example. Similarly, by detecting each flame position, sequentially irradiating the spot light and viewing the image, if the spot light is reflected at a position shifted from the flame image, it is determined that the flame image is due to reflection. May be excluded from the processing target.

【0055】図13は本発明による火災検出装置の第3
実施形態であり、図9の第2実施形態におけるスポット
光の投影の代わりにレーザ測距を行うようにしたことを
特徴とする。
FIG. 13 shows a third example of the fire detecting device according to the present invention.
This embodiment is characterized in that laser distance measurement is performed instead of projection of spot light in the second embodiment of FIG.

【0056】図13において、左側カメラ1、右側カメ
ラ2、左画像メモリ6、右画像メモリ7は左画像処理部
17及び右画像処理部18は図9の第2実施形態と同じ
であるが、スポット光投影機能に代えてレーザ測距部3
2、測距制御部33、更にレーザ測距に対応した火災判
定部34を設けている。
In FIG. 13, the left camera 1, right camera 2, left image memory 6, and right image memory 7 are the same as the left image processing unit 17 and right image processing unit 18 in the second embodiment shown in FIG. Laser distance measuring unit 3 instead of spot light projection function
2. A distance measurement control unit 33 and a fire determination unit 34 corresponding to laser distance measurement are provided.

【0057】左画像処理部17と右画像処理部18は、
図1の画像処理部8と同様、三角測量の原理に基づいて
火源位置を検出する。即ち、図6及び図7のステップS
1〜SS10と同じ処理により、火源位置が検出され
る。 レーザ測距部32はレーザ光を対象物に照射し、
その伝播時間により距離を直接検出する。このレーザ測
距部32は、例えば図14の監視空間に対する平面図の
ように、カメラ光軸が平行配置された左側カメラ1,右
側カメラ2の設置側に三次元的に旋回自在に配置されて
いる。
The left image processing unit 17 and the right image processing unit 18
Similar to the image processing unit 8 in FIG. 1, the position of the fire source is detected based on the principle of triangulation. That is, step S in FIGS.
The fire source position is detected by the same processing as in 1 to SS10. The laser distance measuring unit 32 irradiates the object with laser light,
The distance is directly detected based on the propagation time. The laser distance measuring unit 32 is three-dimensionally rotatable on the installation side of the left camera 1 and the right camera 2 in which the camera optical axes are arranged in parallel, as shown in, for example, a plan view of the monitoring space in FIG. I have.

【0058】このレーザ測距部32を使用した炎とその
反射炎を区別する判別処理を説明すると次のようにな
る。まず左画像処理部17及び右画像処理部18は、左
側カメラ1及び右側カメラ2で撮影して左画像メモリ6
及び右画像メモリ7に記憶した左画像及び右画像を取り
込み、図8のような二値化及びラベリングを行った後に
重心位置を求め、図2の三角測量の原理に基づきそれぞ
れの火源位置を検出している。
The discriminating process for discriminating a flame using the laser distance measuring section 32 and its reflected flame will be described as follows. First, the left image processing unit 17 and the right image processing unit 18 take images with the left camera 1 and the right camera 2 and
Then, the left image and the right image stored in the right image memory 7 are fetched, and after performing binarization and labeling as shown in FIG. 8, the position of the center of gravity is determined. Based on the principle of triangulation in FIG. Detected.

【0059】このようにして、各画像について火源位置
が得られたならば、この火源位置情報は測距制御部33
に与えられ、火源位置ごとにレーザ測距部32を指向制
御し、火源までの距離を測定する。即ち図14にあって
は、まずレーザ測距部32を光軸35のように炎3に指
向させ、炎3までの距離L1を測定する。続いて壁面反
射炎5aに光軸36を指向させて距離を測距する。この
場合、レーザ測距部32の光軸36は壁4aに点38で
当たり、測定距離L2は壁面反射炎5aまでの距離L2
より短くなる。
When the fire source position is obtained for each image, the fire source position information is stored in the distance measurement control unit 33.
The laser distance measuring unit 32 is directionally controlled for each fire source position to measure the distance to the fire source. That is, in FIG. 14, first, the laser distance measuring unit 32 is directed to the flame 3 like the optical axis 35, and the distance L1 to the flame 3 is measured. Subsequently, the optical axis 36 is directed to the wall reflection flame 5a to measure the distance. In this case, the optical axis 36 of the laser distance measuring unit 32 hits the wall 4a at the point 38, and the measured distance L2 is the distance L2 to the wall reflecting flame 5a.
Shorter.

【0060】レーザ測距部32による炎3及び壁面反射
炎5aの測定距離L1,L2は火災判定部34に与えら
れ、左画像処理部17及び右画像処理部18で三角測量
の原理で求めた火源位置から算出されるレーザ測距部3
2との算出距離と比較される。この場合、レーザ測距距
離と三角測量による検出位置で求めた距離は、炎3につ
いては一致するが壁面反射炎5aについては不一致とな
り、不一致となった火源を火災によらず反射によるもの
として処理対象から除外する。
The measurement distances L1 and L2 of the flame 3 and the wall reflection flame 5a by the laser distance measuring unit 32 are given to the fire judging unit 34, and are obtained by the left image processing unit 17 and the right image processing unit 18 based on the principle of triangulation. Laser distance measuring unit 3 calculated from fire source position
2 is compared with the calculated distance. In this case, the distance measured by the laser ranging distance and the detection position obtained by the triangulation are the same for the flame 3 but are not the same for the wall reflecting flame 5a, and the mismatched fire source is assumed to be caused by reflection without using a fire. Exclude from processing.

【0061】このレーザ測距は図2の監視空間における
平面的に見た炎3と壁面反射炎5aの判別を例にとって
いるが、炎3と床面反射炎5bについても同様に処理す
ることで、床面反射炎5bを処理対象から除外すること
ができる。
This laser distance measurement is based on the example of discriminating the flame 3 and the wall reflection flame 5a as viewed in a plane in the monitoring space of FIG. 2, but the flame 3 and the floor reflection flame 5b are processed in the same manner. The floor reflection flame 5b can be excluded from the processing target.

【0062】図15は本発明の第4の実施形態である。
この第4実施形態は、3台以上のカメラ1a,1b,1
c,1d,・・・を採用したことを特徴とする。例えば
図1〜図8の第1実施形態について、3台のカメラ1
a,1b,1cを設置した場合には、カメラ1aとカメ
ラ1bで取り込んだ画像を画像処理部8で処理し、その
結果にカメラ1cの画像を画像処理部8に取り込んで火
災判定部9で火災位置を判定する。この場合の判定は、
図1〜図8の第1実施形態で述べたような方法で可能で
ある。
FIG. 15 shows a fourth embodiment of the present invention.
In the fourth embodiment, three or more cameras 1a, 1b, 1
, 1d,... are adopted. For example, in the first embodiment shown in FIGS.
When a, 1b, and 1c are installed, the images captured by the cameras 1a and 1b are processed by the image processing unit 8, and the image of the camera 1c is captured by the image processing unit 8, and the result is determined by the fire determination unit 9. Determine the location of the fire. The judgment in this case is
This is possible by the method described in the first embodiment of FIGS.

【0063】この場合、カメラ1a,1b,1cを3次
元に配置すれば立体像が得られる。また、炎3を囲むよ
うに配置することにより隈無く画像を見ることが出来
る。
In this case, a three-dimensional image can be obtained by arranging the cameras 1a, 1b, 1c three-dimensionally. Further, by arranging the flame 3 so as to surround it, an image can be viewed without fail.

【0064】次にカメラが4台、5台と増しても上記3
台の場合と同じ方法を採用して火災位置を判定すること
が可能である。
Next, even if the number of cameras is increased to four or five, the above three
It is possible to determine the fire position by using the same method as in the case of the stand.

【0065】また、カメラを偶数台配置した場合、例え
ばカメラ1a〜1dの4台を例にとれば、カメラ1aと
カメラ1bで画像処理し、カメラ1cとカメラ1dとで
画像処理し、各々の画像処理した結果で更に画像処理す
ることで火災判定してもよい。
When an even number of cameras are arranged, for example, taking four cameras 1a to 1d as examples, image processing is performed by the cameras 1a and 1b, and image processing is performed by the cameras 1c and 1d. A fire determination may be made by further performing image processing on the result of the image processing.

【0066】次に図9〜図12の第2実施形態で図15
のようにカメラを3台以上設置した場合は、スポット光
投影部15を付けたカメラを基準に画像処理することに
なる。例えばカメラ1a〜1cの3台を設置して、スポ
ット光投影部15をカメラ1bに付けた場合は、まずカ
メラ1aとカメラ1bで画像処理を実施し、次にカメラ
1bとカメラ1cとで画像処理をして火災判定を実施す
れば良い。
Next, in the second embodiment shown in FIGS.
When three or more cameras are installed as described above, image processing is performed based on the camera provided with the spotlight projection unit 15. For example, when three cameras 1a to 1c are installed and the spot light projection unit 15 is attached to the camera 1b, first, image processing is performed by the camera 1a and the camera 1b, and then image processing is performed by the camera 1b and the camera 1c. What is necessary is just to process and make a fire judgment.

【0067】更にカメラ1a〜1dの4台が設置されて
いる場合は、同じくスポット光投影部15をカメラ1b
に取り付けておいて、カメラ1a〜1cの3台の画像処
理結果に加えて、カメラ1bとカメラ1dの画像処理を
した結果により火災判定を実施する。以下カメラが5台
以上でも同じように処理する。
Further, when four cameras 1a to 1d are installed, the spot light projection unit 15 is also connected to the camera 1b.
And a fire determination is performed based on the result of the image processing of the cameras 1b and 1d in addition to the image processing results of the three cameras 1a to 1c. Hereinafter, the same processing is performed for five or more cameras.

【0068】他の方法として、カメラの設置台数が偶数
の場合は、一対のカメラごとにスポット光投影部15を
取り付け、図9〜図12の第2実施形態のように一対の
カメラごとに画像処理を実施し、その各々の結果を総合
して火災判定を実施しても良い。
As another method, when the number of cameras installed is an even number, a spotlight projection unit 15 is attached to each pair of cameras, and an image is formed for each pair of cameras as in the second embodiment of FIGS. The processing may be performed, and the fire determination may be performed by integrating the respective results.

【0069】図13,図14の第3実施形態について図
15のようにカメラを3台以上設置した場合も、上記の
第2実施形態でカメラを3台以上設置した場合につい
て、スポット光投影部15に代えてレーザ測距部32を
採用することで、同様な方法で火災位置を判定すること
ができる。
In the third embodiment shown in FIGS. 13 and 14, when three or more cameras are installed as shown in FIG. 15, even when three or more cameras are installed in the second embodiment, the spotlight projection unit is used. By employing the laser distance measuring unit 32 instead of 15, the fire position can be determined in a similar manner.

【0070】尚、本発明の火災検出装置は、監視範囲に
固定設置してもよいし、移動可能に設置してもよい。
The fire detecting device of the present invention may be fixedly installed in the monitoring range or may be installed movably.

【0071】[0071]

【発明の効果】以上説明してきたように本発明によれ
ば、光軸が実質的に平行配置された2台以上のカメラの
監視画像から三角測量の原理に基づき火源位置を求め、
予め定めた監視範囲との比較、スポット光の照射、ある
いはレーザ測距等により、監視範囲内のものだけを火源
と判断するようにしたことで、壁や床等で反射した炎を
火源と誤って判断することを確実に防止でき、火源位置
の検出に基づく消火等の火災検出に伴う対応処理を適切
且つ確実に行うことができる。
As described above, according to the present invention, the position of a fire source is obtained based on the principle of triangulation from monitoring images of two or more cameras whose optical axes are arranged substantially in parallel.
By judging only those within the monitoring range as fire sources by comparing with a predetermined monitoring range, irradiating spot light, or laser ranging, etc., flames reflected on walls and floors etc. It is possible to reliably prevent the erroneous determination of a fire, and to appropriately and reliably perform a response process associated with fire detection such as fire extinguishing based on detection of a fire source position.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態のブロック図FIG. 1 is a block diagram of a first embodiment of the present invention.

【図2】図1の監視範囲に対するカメラ配置の説明図FIG. 2 is an explanatory diagram of a camera arrangement with respect to a monitoring range in FIG. 1;

【図3】図1の画像処理部による炎画像の位置検出の説
明図
FIG. 3 is an explanatory diagram of position detection of a flame image by the image processing unit in FIG. 1;

【図4】図1の火災判定部による壁の炎反射に対する判
定処理の説明図
FIG. 4 is an explanatory diagram of determination processing for flame reflection on a wall by the fire determination unit in FIG. 1;

【図5】図1の火災判定部による床の炎反射に対する判
定処理の説明図
FIG. 5 is an explanatory diagram of a determination process for flame reflection on the floor by the fire determination unit in FIG. 1;

【図6】図1の火災検出処理のフローチャートFIG. 6 is a flowchart of a fire detection process of FIG. 1;

【図7】図6に続く図1の火災検出処理のフローチャー
FIG. 7 is a flowchart of the fire detection process of FIG. 1 following FIG. 6;

【図8】図1の画像処理部による元画像、二値化画像及
びラベリング画像の説明図
FIG. 8 is an explanatory diagram of an original image, a binarized image, and a labeling image by the image processing unit in FIG. 1;

【図9】スポット光照射を用いた本発明の第2実施形態
のブロック図
FIG. 9 is a block diagram of a second embodiment of the present invention using spot light irradiation.

【図10】スポット光の照射による炎と炎の反射を区別
する処理の説明図
FIG. 10 is an explanatory diagram of a process for distinguishing a flame and a reflection of the flame by irradiation of a spot light.

【図11】図10で炎にスポット光を照射した時の監視
画像の説明図
FIG. 11 is an explanatory diagram of a monitoring image when a spot light is applied to the flame in FIG.

【図12】図11で炎の反射にスポット光を照射した時
の監視画像の説明図
FIG. 12 is an explanatory diagram of a monitoring image when a reflection of a flame is irradiated with a spot light in FIG. 11;

【図13】レーザ測距を用いた本発明の第3実施形態の
ブロック図
FIG. 13 is a block diagram of a third embodiment of the present invention using laser ranging.

【図14】図13で炎及び炎の反射をレーザ測距した時
の説明図
FIG. 14 is an explanatory diagram when the distance between the flame and the reflection of the flame is measured by laser in FIG. 13;

【図15】本発明の第4実施形態のブロック図FIG. 15 is a block diagram of a fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1:左側カメラ 1a〜1d:カメラ 2:右側カメラ 3:炎 4a:壁 4b:床 5a:壁面反射炎 5b:床反射炎 6:左画像メモリ 7:右画像メモリ 8:画像処理部 9,19,34:火災判定部 10L,10R:監視範囲 11L:左画像 11R:右画像 12a,27L,27R:炎画像 12b,28L,28R:壁面反射炎画像 12c:床面反射炎画像 13a,13b:二値化画像 14a〜14b:ラベリング画像 15:スポット光投影部 16:投影制御部 17:左画像処理部 18:右画像処理部 20,22:光ビーム 21,23:スポット光 24,25:カメラ光軸 30L,30R,31L,31R:スポット光画像 32:レーザ測距部 33:測距制御部 35,36:レーザビーム 37,38:測距位置 1: Left camera 1a to 1d: Camera 2: Right camera 3: Flame 4a: Wall 4b: Floor 5a: Wall reflective flame 5b: Floor reflective flame 6: Left image memory 7: Right image memory 8: Image processing unit 9, 19 , 34: fire determination unit 10L, 10R: monitoring range 11L: left image 11R: right image 12a, 27L, 27R: flame image 12b, 28L, 28R: wall reflection flame image 12c: floor reflection flame image 13a, 13b: two Valued images 14a to 14b: labeling image 15: spot light projection unit 16: projection control unit 17: left image processing unit 18: right image processing unit 20, 22: light beam 21, 23: spot light 24, 25: camera light Axis 30L, 30R, 31L, 31R: Spot light image 32: Laser distance measuring unit 33: Distance measuring control unit 35, 36: Laser beam 37, 38: Distance measuring position

フロントページの続き Fターム(参考) 2F065 AA04 AA06 AA07 AA11 AA17 CC00 DD08 DD12 FF01 FF04 FF09 FF11 FF23 GG04 HH04 JJ03 JJ05 JJ26 QQ04 QQ24 QQ28 QQ31 QQ38 5C085 AA13 AB08 BA36 CA08 DA17 FA20 Continued on front page F-term (reference) 2F065 AA04 AA06 AA07 AA11 AA17 CC00 DD08 DD12 FF01 FF04 FF09 FF11 FF23 GG04 HH04 JJ03 JJ05 JJ26 QQ04 QQ24 QQ28 QQ31 QQ38 5C085 AA13 AB08 BA36 CA08 DA17 FA

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】異なる2以上の地点に配置され、監視範囲
の画像を撮影する2台以上のカメラと、 前記2台以上のカメラで撮影した監視画像の各々に含ま
れる2以上の火源画像から三角測量の原理に基づいて火
源位置を検出する画像処理部と、 前記監視範囲を区画する床面、壁面等の境界位置を予め
設定し、前記画像処理部で検出した火源位置が前記設定
境界位置の内側の場合に火災よる火源と判定し、前記設
定境界範囲を超えている場合は反射による火源として処
理対象から除外する火災判定部と、を備えたことを特徴
する火災検出装置。
1. Two or more cameras arranged at two or more different points and capturing images of a monitoring range, and two or more fire source images included in each of the monitoring images captured by the two or more cameras From the image processing unit that detects the position of the fire source based on the principle of triangulation from the floor surface that divides the monitoring range, the boundary position such as a wall surface is set in advance, the fire source position detected by the image processing unit is the A fire determination unit that determines a fire source due to a fire when the position is inside the set boundary position, and excludes a fire source from the processing target as a fire source due to reflection when the distance exceeds the set boundary range. apparatus.
【請求項2】異なる2以上の地点に配置され、監視範囲
にある火源の監視画像を撮影する2台以上のカメラと、 前記監視範囲の火源位置に向けてスポット光を照射する
スポット光投影部と、 前記2台以上のカメラで撮影した監視画像の各々に含ま
れる2以上の火源画像から三角測量の原理に基づいて火
源位置を検出する画像処理部と、 前記画像処理部で検出した火源位置に前記スポット光投
影部からスポット光を照射した状態で、前記2台以上の
カメラで撮影した監視画像の炎画像とスポット光画像の
位置が一致している場合に火災による火源と判定し、位
置がずれている場合に反射による火源と判定して処理対
象から除外することを特徴とする火災判定部と、を備え
たことを特徴する火災検出装置。
2. Two or more cameras arranged at two or more different points and capturing a monitoring image of a fire source in a monitoring range, and a spot light for irradiating a spot light toward a fire source position in the monitoring range. A projection unit, an image processing unit that detects a fire source position based on the principle of triangulation from two or more fire source images included in each of the monitoring images captured by the two or more cameras, and the image processing unit In a state where the detected light source position is irradiated with spot light from the spot light projecting unit, if the flame image of the monitoring image captured by the two or more cameras and the position of the spot light image match, the fire caused by the fire A fire determining unit that determines a fire source due to reflection when the position is shifted, and excludes the fire source from the processing target when the position is shifted.
【請求項3】異なる2以上の地点に配置され、監視範囲
にある火源の監視画像を撮影する2台以上のカメラと、 前記2台以上のカメラ側に配置され、範囲範囲に存在す
る物体までの距離を測定する測距部と、 前記2台以上のカメラで撮影した監視画像の各々に含ま
れる2以上の火源画像から三角測量の原理に基づいて火
源位置を検出する画像処理部と、 前記画像処理部で検出した火源位置に前記測距装置を指
向させて距離を測定し、該測定距離が前記画像処理部の
測定距離と一致する場合は火災による火源と判定し、一
致しない場合は反射による火源として処理対象から除外
する火災判定部と、を備えたことを特徴する火災検出装
置。
3. Two or more cameras which are arranged at two or more different points and capture monitoring images of a fire source in a monitoring range, and objects which are arranged on the two or more cameras and exist in the range. A distance measuring unit that measures a distance to the image processing unit; and an image processing unit that detects a fire source position based on the principle of triangulation from two or more fire source images included in each of the monitoring images captured by the two or more cameras. And, the distance is measured by directing the distance measuring device to the fire source position detected by the image processing unit, and when the measured distance matches the measurement distance of the image processing unit, it is determined that the fire source due to fire, And a fire determination unit that excludes from the processing target as a fire source due to reflection when they do not match.
JP24536898A 1998-08-31 1998-08-31 Fire detection equipment Expired - Fee Related JP3827128B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24536898A JP3827128B2 (en) 1998-08-31 1998-08-31 Fire detection equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24536898A JP3827128B2 (en) 1998-08-31 1998-08-31 Fire detection equipment

Publications (2)

Publication Number Publication Date
JP2000076568A true JP2000076568A (en) 2000-03-14
JP3827128B2 JP3827128B2 (en) 2006-09-27

Family

ID=17132634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24536898A Expired - Fee Related JP3827128B2 (en) 1998-08-31 1998-08-31 Fire detection equipment

Country Status (1)

Country Link
JP (1) JP3827128B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2360355B (en) * 2000-03-15 2004-09-22 Graviner Ltd Kidde Image detection
KR100716306B1 (en) 2006-11-14 2007-05-08 주식회사 지.피 코리아 System to monitoring forest fire
WO2019026518A1 (en) * 2017-08-04 2019-02-07 モリタ宮田工業株式会社 Fire identification device
CN111060016A (en) * 2019-12-30 2020-04-24 西安赛隆金属材料有限责任公司 Device for detecting flame length of plasma arc and control method
JP2020094916A (en) * 2018-12-13 2020-06-18 深田工業株式会社 Abnormality detector
JP7438738B2 (en) 2019-12-11 2024-02-27 東芝インフラシステムズ株式会社 information processing equipment

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2360355B (en) * 2000-03-15 2004-09-22 Graviner Ltd Kidde Image detection
KR100716306B1 (en) 2006-11-14 2007-05-08 주식회사 지.피 코리아 System to monitoring forest fire
WO2019026518A1 (en) * 2017-08-04 2019-02-07 モリタ宮田工業株式会社 Fire identification device
JP2020094916A (en) * 2018-12-13 2020-06-18 深田工業株式会社 Abnormality detector
JP7292701B2 (en) 2018-12-13 2023-06-19 深田工業株式会社 anomaly detector
JP7438738B2 (en) 2019-12-11 2024-02-27 東芝インフラシステムズ株式会社 information processing equipment
CN111060016A (en) * 2019-12-30 2020-04-24 西安赛隆金属材料有限责任公司 Device for detecting flame length of plasma arc and control method
CN111060016B (en) * 2019-12-30 2021-08-13 西安赛隆金属材料有限责任公司 Device for detecting flame length of plasma arc and control method

Also Published As

Publication number Publication date
JP3827128B2 (en) 2006-09-27

Similar Documents

Publication Publication Date Title
US10705027B2 (en) Surface defect detecting method and surface defect detecting apparatus
JP6447637B2 (en) Surface defect detection apparatus, surface defect detection method, and steel material manufacturing method
JP6394514B2 (en) Surface defect detection method, surface defect detection apparatus, and steel material manufacturing method
CN105473927B (en) For the apparatus and method for the machine for ensureing automatically working
JP6706664B2 (en) Method and system for monitoring powder bed additive manufacturing of parts
JP6646339B2 (en) Surface defect detection method, surface defect detection device, and steel material manufacturing method
JP6279060B1 (en) Laser sensor and measuring method
JP2005024463A (en) Stereo wide visual field image processing apparatus
JP2006010392A (en) Through hole measuring system, method, and through hole measuring program
JP2005148010A (en) Method and device for detecting shape and darkness of analyte
JP2000076568A (en) Fire detecting device
JP6387909B2 (en) Surface defect detection method, surface defect detection apparatus, and steel material manufacturing method
JP2002324260A (en) Method and device for identifying coin
JPH10154284A (en) Smoke sensing system
JP3372014B2 (en) Missing parts inspection equipment for engine external parts
JP4151571B2 (en) In-vehicle obstacle detection device
JPH03186706A (en) Three-dimensional shape dimension measuring instrument
JP2008164338A (en) Position sensor
KR101769310B1 (en) System and method for determining existence of car
JPH08233747A (en) Method and apparatus for inspecting defect
CA2536411C (en) Multiple axis multipoint non-contact measurement system
JP4038878B2 (en) Fire detection device using image processing
KR102400007B1 (en) Surveillance camera system inculding lidar sensor
JPS636679A (en) Method for detecting tilt of wire
KR102279074B1 (en) A quality evaluation system and its method of laser welding

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060629

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090714

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110714

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120714

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130714

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees