JP3682631B2 - Fire detection equipment - Google Patents
Fire detection equipment Download PDFInfo
- Publication number
- JP3682631B2 JP3682631B2 JP14143296A JP14143296A JP3682631B2 JP 3682631 B2 JP3682631 B2 JP 3682631B2 JP 14143296 A JP14143296 A JP 14143296A JP 14143296 A JP14143296 A JP 14143296A JP 3682631 B2 JP3682631 B2 JP 3682631B2
- Authority
- JP
- Japan
- Prior art keywords
- fire
- image
- area
- component
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 13
- 230000015654 memory Effects 0.000 claims description 53
- 238000000605 extraction Methods 0.000 claims description 24
- 238000012544 monitoring process Methods 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 6
- 238000000034 method Methods 0.000 description 14
- DGAQECJNVWCQMB-PUAWFVPOSA-M Ilexoside XXIX Chemical compound C[C@@H]1CC[C@@]2(CC[C@@]3(C(=CC[C@H]4[C@]3(CC[C@@H]5[C@@]4(CC[C@@H](C5(C)C)OS(=O)(=O)[O-])C)C)[C@@H]2[C@]1(C)O)C)C(=O)O[C@H]6[C@@H]([C@H]([C@@H]([C@H](O6)CO)O)O)O.[Na+] DGAQECJNVWCQMB-PUAWFVPOSA-M 0.000 description 6
- 229910052708 sodium Inorganic materials 0.000 description 6
- 239000011734 sodium Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 210000002837 heart atrium Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Fire Alarms (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は画像処理を使用した火災検出装置に関するものである。
【0002】
【従来の技術】
監視領域に監視カメラを設置し、そのカメラによって撮影された画像を画像処理装置を利用して火災を検出する方法には例えば次のようなものがある。まず画像処理装置に通常時の監視領域を撮影した画像を記憶させておき、監視カメラによって撮影された画像を、その通常時に撮影された画像と差分処理することで、通常時と異なる領域、つまり変化のあった領域のみをとらえる。次にその変化領域が所定の明度を有するものであればその領域を火災領域としてとらえるものである。
【0003】
【発明が解決しようとする課題】
この従来の方法では、差分処理用の背景画像といわれる画像を記憶しておく必要があるが、通常背景画像は明るさの変化などを考慮して時刻単位で画像を格納しておく必要があるため1枚ではなく、画像処理装置としてメモリの容量の負担が大きくなってしまう。また明度だけで火災か否かの判断を行うと、監視領域内に車両が入ってきた場合、車両のヘッドランプ等のランプ類も火災領域として認識してしまい誤報を起こす。そこで本発明は、メモリの負担が少なく、光源により誤報を起こさない火災検出装置を得ることを目的とする。
【0004】
【課題を解決するための手段】
本発明に係わる火災検出装置は、監視領域を撮影し、R、G、Bのカラー成分信号でなるカラー画像信号を出力する撮影手段と、該撮影手段により撮影された画像を格納するための画像メモリとを備え、該画像メモリに格納された画像を処理することにより火災を検出する火災検出装置において、所定の明るさを有する領域から、火災と人工光源を区別できるように設定された所定値を記憶した記憶手段と、画像メモリに格納された画像から、前記カラー成分信号のうちR成分とG成分を画素毎に比較して小さい値の成分を出力する最小値演算部と、該最小値演算部の出力信号が前記所定値を越える領域を火災領域として抽出する火災領域抽出部とを備えたことを特徴とするものである。
火災検出装置。
【0006】
【発明の実施の形態】
実施形態1
以下、本発明の第1の実施形態を説明する。図1は本発明を示すブロック図で、1は撮影手段としての監視カメラであり、例えばCCDカメラなどが使用され、所定のサンプリング周期で監視領域を撮影するものである。監視カメラ1は例えばNTSC方式に従ったR(赤)、G(緑)、B(青)のカラー成分信号でなるカラー画像信号を出力するものである。この監視カメラ1は例えば監視領域としてのトンネル内に監視区域全体を見渡せる位置に設置され、トンネル内で発生する火災を監視し、撮影した画像内に火災の領域があるか否かは後述する画像処理部で検出する。
【0007】
図2は、監視カメラ1により撮影された画像を示す図面で、この図からもわかるように監視カメラ1は車両Cが走り去って行く方向を映すように、例えばトンネル内の側壁上部に設置されている。これは、車両Cのヘッドライトが監視カメラ1に入射するのを防止するためで、このように設置することで画像処理する際にヘッドランプが火災領域として捕らえられることがなくなる。
【0008】
2はアナログデジタル変換器で、監視カメラ1から得られたカラー画像、即ちRGB信号のそれぞれを画素単位で多階調のデジタル信号に変換するものである。3はデジタル化された映像信号を記憶する画像メモリで、R成分フレームメモリ3R、G成分フレームメモリ3G、B成分フレームメモリ3Bからなり、監視カメラ1で撮影された画像の1画面分を格納するものである。画像メモリ3R、3G、3Bは複数の画像を格納できるように複数個で構成され、一番古い画像を削除しながら、順次新しい画像を更新格納していく。
【0009】
4は最小値演算部(最小値フィルタとも呼ばれる)で、R成分フレームメモリ3RとG成分フレームメモリ3Gに格納されたカラー成分信号のR成分とG成分を同一画素毎に比較して小さい値の成分(の輝度値)を出力する。6は最小値演算部の出力信号を所定値で二値化処理し、所定値を越える領域を火災領域として抽出する火災領域抽出部である。つまり火災領域を「1」、画像のそれ以外の部分(所定値未満の部分)を「0」で表す。この所定値は、所定の明るさを有する領域から、火災と人工光源を区別できるように設定された値である。7は火災領域抽出部6によって二値化された画像を格納するための二値化メモリで、画像メモリ3と同様に複数個で構成され、画像メモリ3からの最新の画像を順次格納する。
【0010】
11は対応判別手段、12は外接矩形作成手段、13は火災特徴量演算手段、14は火災判定手段であり、これらについては後で詳しく説明する。なお最小値演算部4、火災領域抽出部6が火災領域抽出手段の一例で、画像から、明るさなどを基に火災と思われる領域を抽出するものである。また最小値演算部4、火災領域抽出部6、対応判別手段11、外接矩形作成手段12、火災特徴量演算手段13及び火災判定手段14をまとめて画像を処理する画像処理部8と呼ぶ。この画像処理部8は、記憶手段としてのROM21や一次記憶手段としてのRAM22及び演算手段としてのMPU(マイクロプロセッサ)23により構成されており、画像処理部8における各種演算処理などは、ROM21に格納されたプログラムに基づいてMPU23により行われ、この際、演算された値はRAM22に格納される。またROM21は二値化処理をする際の所定値などが記憶されている。
【0011】
次に火災検出の原理を簡単に説明する。今、監視カメラ1が撮影した画像には、図2に示すように、所定の明るさを有する領域として3つの明度を有するもの、車両C、照明用のナトリウム灯N、火災時の炎Fが映し出されている。なお図中のCTは車両Cのテールランプ(ポジションランプを含む)を示す。表1に車両CのテールランプCT、ナトリウム灯N、炎Fこれら3つのカラー成分信号の一例を255階調にて表す。
【0012】
【表1】
【0013】
このようにRGB成分であらわすと、炎FはR成分、G成分の値(輝度値)が共に高く、テールランプやナトリウム灯などの人工光源は3つの成分のうち、R成分のみが大きい値をもつことがわかる。つまりR成分とG成分が共に大きい領域(画素)を抽出することで、監視画像から人工光源を省いて火災の領域のみを抽出することが可能となる。この原理を踏まえて、以下に本発明の動作について説明する。
【0014】
監視カメラ1によって撮影された監視領域の画像は、カラー画像信号がアナログデジタル変換器2によってデジタル化された後、画像メモリ3に格納される。つまりRGB信号のそれぞれがA/D変換された後に、R成分フレームメモリ3R、G成分フレームメモリ3G、B成分フレームメモリ3Bに書き込まれる。画像メモリ3に格納された画像は画素単位で、全ての画像領域にわたって、最小値演算部4によって最小値演算がなされるが、ここでは特に車両Cの上記カラー成分で表せられるテールランプCTの領域部分が画像処理される場合について説明する。
【0015】
最小値演算部4が、R成分フレームメモリ3RとG成分フレームメモリ3Gに格納されたカラー成分信号のR成分とG成分を同一画素毎に比較して小さい値の成分を出力する。即ち、テールランプCTの領域はRが160、Gが75なので小さい値をもつG成分が出力される。次にその出力された値を基に火災領域抽出部6により二値化処理が行われる。ここで二値化を行う閾値としての所定値が例えば180に設定されていると、最小値演算部4から出力された値は75であるので、その領域は「0」(黒レベル)とされる。なおナトリウム灯Nの領域も同様に最小値演算及び火災領域抽出部6による二値化処理が行われると、その領域は「0」となる。
【0016】
次に火災時の炎Fの場合について説明する。炎FもテールランプCTやナトリウム灯Nと同様にR成分とG成分では、G成分の方が小さいので(R成分が小さい場合もある)、最小値演算部4からはG成分の値が出力される。次に火災領域抽出部6により二値化処理が行われるが、炎FのG成分は210であり、所定値180よりも大きいので、その領域は「1」になる。なお明るい領域ほど255階調で表せられる数値は大きくなるので、車両Cの本体部分などの光を発しない領域は、最小値演算部4の結果がいかなる場合でも、火災領域抽出部6の二値化処理の段階で全て「0」になる。図3は二値化メモリ7に格納された画像処理(最小値演算、二値化処理)後の画像で、この図からも明らかなように、画像メモリ3に格納された画像(原画像)から、火災領域のみを抽出して表示させることが可能となる。
【0017】
なお先に火災検出の原理で説明したように、画像メモリ3からR成分とG成分が共に大きい領域(画素)を抽出することで、火災領域のみを抽出できる。つまり最小値演算部4の代わりに、R成分フレームメモリ3Rに格納されたカラー成分信号のうちR成分が所定値を越える領域を抽出するR領域抽出部と、G成分フレームメモリ3Gに格納されたカラー成分信号のうちG成分が所定値を越える領域を抽出するG領域抽出部を設け、R領域抽出部によって抽出された領域と、G領域抽出部によって抽出された領域の重なりあう領域を火災領域として抽出する火災領域抽出部を更に設けても画像メモリ3から火災領域を抽出することができる。この場合、R領域抽出部、G領域抽出部及び火災領域抽出部が火災領域抽出手段の一例となる。
【0018】
この場合、R成分フレームメモリにおいて画素単位に所定値、例えば180を越える画素を探す処理工程、G成分フレームメモリにおいて画素単位に所定値、例えば180を越える画素を探す処理工程、またそれぞれ抽出された画素同士が重なりあう画素を探す処理工程の3つの処理工程が必要となるが、最小値演算部3を使用すればR、Gの両成分を比較する処理工程と、所定値で二値化する処理工程の2つの処理工程ですむので、いち早く火災領域を検出することが可能となる。しかも単純に2つの値を比較して、その結果だけを出力するものなので、加算、乗算などの演算をする必要もないのでMPU23の処理の負担が少なくてすむ。
【0019】
なお図2に示す車両Cの後部に後続車両のヘッドライトの光が強くあたってる場合には、車両Cの後ろガラスが鏡面反射を起こし、細い横長の光を放つ領域が発生する。この領域は、最小値演算及び二値化処理を行っても、抽出される恐れがある。そこで現画像のエッジ画像を抽出するエッジ処理部を設け、二値化処理後の二値化画像からこのエッジ画像を差分処理するようにすれば、二値化画像のエッジを削ることができる。つまり二値化画像の抽出領域は、回りが削られ、一回り小さい領域となるので、ある程度の幅(大きさ)を持つ領域のみが残り、幅の小さい領域は、全て削除されてしまう。よってガラスの鏡面反射により発生した細長い形状の領域は、このような処理をすることで領域そのものをなくすことが可能となる。
【0020】
実施形態2
ところで、トンネルの幅が狭く、双方向の車線があり、監視カメラ方向に向かって走る車両を撮影しなけらばならない場合、車両前部に黄色いフォグランプ(又は黄色のハロゲンランプ)などがあると、これが誤報要因となる。つまり本発明の火災検出原理は、R、Gが共に大きい領域を抽出するもので、これは色にして言い換えると黄色から白色にわたる色の範囲を抽出するものであるから、車両前部に黄色い発光体があると、それを火災領域として抽出してしまう恐れがある。
【0021】
そこで、この実施形態2では、実施形態1において抽出された領域の特徴を数値化することで、より精度(認識度)の高い火災検出を行う。つまり最小値演算と二値化処理という2つの工程により一次的な火災領域の抽出を行い、外接矩形作成手段12、火災特徴量演算手段、火災判定手段14により抽出された火災領域が火災時の炎らしい挙動を示すかどうか、二次的な火災検出を行って、その領域が実火災であるのかどうかを判定する。
【0022】
図1において、11は対応判別手段で、監視カメラ1により周期的に撮影された画像に火災領域が連続してある場合、つまり二値化メモリ7に火災領域が連続して格納される場合に、ある時間の前後にわたる火災領域同士の対応関係、即ち同じ炎により抽出された領域なのかどうかを判別するもので、言い換えると監視領域内に所定時間に渡って火災領域があるかどうかを判別するものである。
【0023】
12は外接矩形作成手段で、二値化メモリ7に格納された火災領域を外接する最小の矩形で囲み、矩形の対角(例えば左上、右下)の隅の画素の座標(フィレ値)から矩形の高さdyと矩形の幅dx(フィレ径)を演算して、その高さと幅の比{dx/dy}の値を求めてRAM22に格納する(図3参照)。13は火災特徴量演算手段、14は火災判定手段で、二値化メモリ7に格納された火災領域がある時間内にわたって存在し、対応判別手段11により連続して例えば7回程度、火災領域の対応関係がとれた場合、つまりその領域が同じ炎(又は光源)によって抽出されているものと判断された場合、その火災領域が本当の火災領域であるかどうかの判定を行うものである。具体的には火災特徴量演算手段13は、外接矩形作成手段12により演算され、RAM22に格納された7個の{dx/dy}から、最大値と最小値を選び次式に示す火災特徴量を演算する。また火災判定手段は15は、演算された火災特徴量の値と所定値(1.3〜1.5)の大小関係を調べ、火災特徴量の値の方が大きい場合に火災であると判定し、図示しない表示部や音響部から火災の発生を警報するものである。
【0024】
火災特徴量=max{dx/dy}/min{dx/dy}……式1
監視領域内で火災が発生すると、実施形態1に記載のように二値化メモリ7に火災領域が抽出される。この時、時間的に連続して二値化メモリ7に火災領域が格納されると、対応判別手段11が火災領域同士の対応関係をとる。この対応関係をとる方法は、いくつか有り、例えば二値化メモリ7に格納された、撮影時間(周期)の連続する火災領域を重ねあわせ、その重なり具合が所定値以上の場合に対応有りと判断する方法。また撮影時間(周期)の連続する火災領域の一方の重心座標が他方の火災領域内に入っていれば対応有りと判断する方法などが有り、これらは監視対象物が炎のように全体的な移動量の少ないものの場合に有効で、車両のランプ類が火災領域抽出手段により一次的に火災領域として抽出されてしまっても、車両の移動量は大きいので、領域同士の対応関係がとられることはない。また二値化メモリ7に格納された火災領域は、外接矩形作成手段12により外接する最小の矩形で囲まれ、矩形の高さと幅の比{dx/dy}の値が演算され、その値はRAM22に一時的に格納される。
【0025】
監視カメラ1により撮影される画像に所定の明るさをもつ領域が、所定時間に渡ってあり、二値化メモリ7に格納された火災領域が連続して、例えば7回程度対応関係があるものと対応判別手段11が判断する時、火災特徴量演算手段13が式1を用いてRAM22に格納された{dx/dy}の7回分のデータから{dx/dy}の最大値と最小値の比(火災特徴量)を演算する。二値化メモリ7に格納された火災領域が本当の火災である場合、時間の経過に伴いその領域は変化していくはずである。また火災が進展しなくても、炎は激しい高さ方向の変化をもつ。このためある時間内にわたって何回か{dx/dy}の値を演算すると、それらの値は大きくばらつき、最大値と最小値の比をとると、概ね1.4程度を越える。一方、火災領域がヘッドライトなどの光源である場合、車両が移動して撮影される位置が例え異なっても、形状は変化しないから{dx/dy}の値は、ある時間内にわたって、一定であり、式1のように最大値と最小値の比をとっても、その値はかぎりなく1に近く、所定値1.3を越すことはない。火災判定手段14はこの火災特徴量が所定値よりも大きい場合には、火災領域は本当の火災であると判断し、図示しない表示部や音響部から火災の発生を警報する。
【0026】
上述したように監視領域内を、ある程度の速度で車両が走っていれば、火災領域抽出手段がその車両のランプ類を火災領域として抽出したとしても、対応判別手段11により火災領域の対応関係がとられることはない。しかし、この車両がトンネル内で停止又はほとんど動かないような場合には、移動量が小さいので火災領域として対応関係がとられることになるが、火災特徴量演算手段13を設けて、抽出された火災領域が火災らしい挙動を示すかどうかを調べることで、上記のように停止中の車両のランプ類などにより抽出された領域を火災と判定するのを防止できる。
【0027】
ここで実施形態1、実施形態2の動作説明を図4のフローチャートを用いて説明する。まずステップ1(以下ステップをSと略す。)で、監視カメラ1が撮影した画像を画像メモリ3に取り込む。画像メモリ3に取り込まれた画像は、最小値演算部4によりRフレームメモリ3RとGフレームメモリ3Gを画素毎に比較して、RGのうち小さい輝度値をもつものが出力される(S3)。その出力された輝度値を所定値で二値化処理して(S5)、所定値以上の領域を抽出する。この抽出領域は、光を放つ光源がある領域となる。
【0028】
S7で所定値以上の領域、つまり抽出すべき領域があるか否かを判断し、ここで無い場合は新たな画像を取り込むためにS1に戻るが、抽出領域があるならば、外接矩形作成手段12がその抽出した領域の外接矩形を作成し、そしてフィレ径の比{dx/dy}を演算し、その演算値をRAM22に格納しておく。またS11でこの抽出された領域が前回サンプリングした(取り込んだ)画像における抽出領域と対応関係があるかを対応判別手段11により判別する。対応関係がない場合には新たに発生した領域と認識し、ラベリングを行い(抽出領域に番号をつける)、S1に戻る。
【0029】
また対応判別手段11により対応関係がとれた場合には、S13に進んで、所定回に渡って対応関係がとられたかどうかを判断する。例えばまだ2回しか対応関係がとられていなければ、S1に戻り、所定回、例えば7回対応関係がとれた場合にはS15に進んで、火災特徴量演算手段13が式1に基づく火災特徴量を演算する。そしてS17で演算した特徴量が所定値よりも大きいと火災判定手段14が判断したらS19にて火災警報を行う。また所定値以下の場合にはS1に戻る。
【0030】
なお火災特徴量は、数回のデータにおける{dx/dy}の最大値と最小値の比から求めたが、所定時間内にわたる外接矩形の高さと幅の比の変化量から演算してもよい。つまり{dx/dy}の値を演算する度に、前回の{dx/dy}の値との差を絶対値で求めていき、所定回演算した時に、その差を加算した値が所定値よりも大きければ本当の火災領域であると判断するようにしてもよい。また監視領域は球場、アトリウムといった大空間でもよい。
【0031】
【発明の効果】
R成分とG成分が共に大きい領域を火災領域として画像から抽出することで、G成分の低いナトリウム灯やテールランプなどの人工光源を省いて炎の領域だけを抽出することができる。また、画像処理部における画素を走査する時間を短くでき、いち早く火災を検出することが可能となる。
【図面の簡単な説明】
【図1】本発明のシステムブロック図である。
【図2】監視カメラにより映される画像の一例である(原画像)。
【図3】二値化メモリに格納された画像処理後の画像の一例である。
【図4】本発明の動作を説明するためのフローチャートである。
【符号の説明】
1 監視カメラ、 2 アナログデジタル変換器、 3 画像メモリ、
3R R成分フレームメモリ、 3G G成分フレームメモリ、
3B B成分フレームメモリ、 4 最小値演算部、 6 火災領域抽出部
7 二値化メモリ、 8 画像処理部、 11 対応判別手段、
12 外接矩形作成手段、13 火災特徴量演算手段、14 火災判定手段、
21 ROM、 22 RAM、 23 MPU、[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a fire detection apparatus using image processing.
[0002]
[Prior art]
For example, there are the following methods for installing a surveillance camera in the surveillance area and detecting an image captured by the camera using an image processing apparatus. First, the image processing device stores an image obtained by capturing a normal monitoring area, and the image captured by the monitoring camera is subjected to differential processing with the image captured at the normal time, that is, an area different from the normal time, that is, Only capture areas that have changed. Next, if the change area has a predetermined brightness, the area is regarded as a fire area.
[0003]
[Problems to be solved by the invention]
In this conventional method, it is necessary to store an image referred to as a background image for differential processing. However, a normal background image needs to store images in units of time in consideration of changes in brightness. Therefore, the load of the memory capacity becomes large as an image processing apparatus instead of one sheet. Further, if it is determined whether or not the fire is based only on the brightness, when a vehicle enters the monitoring area, lamps such as the headlamps of the vehicle are also recognized as the fire area, and a false alarm is generated. Accordingly, an object of the present invention is to obtain a fire detection device that has a small memory load and does not cause false alarms due to a light source.
[0004]
[Means for Solving the Problems]
The fire detection apparatus according to the present invention is an image capturing means for capturing an image of a monitoring area and outputting a color image signal composed of R, G, B color component signals, and an image for storing an image captured by the image capturing means. And a predetermined value set so that a fire and an artificial light source can be distinguished from an area having a predetermined brightness in a fire detection device that detects a fire by processing an image stored in the image memory. And a minimum value calculation unit for comparing the R component and G component of the color component signal for each pixel from the image stored in the image memory, and outputting a small value component, and the minimum value And a fire area extraction unit that extracts a region where the output signal of the calculation unit exceeds the predetermined value as a fire area.
Fire detection device.
[0006]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a first embodiment of the present invention will be described. FIG. 1 is a block diagram showing the present invention.
[0007]
FIG. 2 is a drawing showing an image photographed by the
[0008]
An analog-
[0009]
[0010]
[0011]
Next, the principle of fire detection will be briefly described. Now, as shown in FIG. 2, the image taken by the
[0012]
[Table 1]
[0013]
In this way, when expressed in terms of RGB components, the flame F has both high R component and G component values (luminance values), and an artificial light source such as a tail lamp or sodium lamp has only a large R component value among the three components. I understand that. That is, by extracting a region (pixel) where both the R component and the G component are large, it is possible to extract only the fire region from the monitoring image without the artificial light source. Based on this principle, the operation of the present invention will be described below.
[0014]
The image of the monitoring area captured by the
[0015]
The minimum
[0016]
Next, the case of the flame F at the time of a fire is demonstrated. Similarly to the tail lamp CT and the sodium lamp N, the flame F is smaller in the G component in the R component and the G component (the R component may be smaller), so the value of the G component is output from the minimum
[0017]
As described above in the principle of fire detection, by extracting an area (pixel) having both a large R component and G component from the
[0018]
In this case, the processing step for searching for a pixel exceeding a predetermined value, for example, 180, in the R component frame memory, the processing step for searching for a pixel exceeding a predetermined value, for example, 180, for each pixel in the G component frame memory, and the extracted Three processing steps of searching for pixels where pixels overlap each other are required, but if the minimum
[0019]
In addition, when the light of the headlight of the following vehicle is shining on the rear part of the vehicle C shown in FIG. 2, the rear glass of the vehicle C causes a specular reflection, and a region where a thin horizontally long light is emitted is generated. This area may be extracted even if the minimum value calculation and binarization processing are performed. Therefore, if an edge processing unit for extracting an edge image of the current image is provided and the edge image is subjected to differential processing from the binarized image after the binarization processing, the edge of the binarized image can be cut. That is, the extraction region of the binarized image is trimmed and becomes a region that is slightly smaller. Therefore, only a region having a certain width (size) remains, and all regions having a small width are deleted. Accordingly, the long and narrow region generated by the specular reflection of the glass can be eliminated by performing such processing.
[0020]
By the way, if the tunnel is narrow, there are two-way lanes, and you have to shoot a vehicle that runs in the direction of the surveillance camera, there is a yellow fog lamp (or yellow halogen lamp) in the front of the vehicle, This becomes a false alarm factor. In other words, the fire detection principle of the present invention is to extract a region where both R and G are large. In other words, this is to extract a range of colors ranging from yellow to white. If there is a body, it may be extracted as a fire area.
[0021]
Therefore, in the second embodiment, fire detection with higher accuracy (recognition degree) is performed by digitizing the features of the region extracted in the first embodiment. In other words, the primary fire area is extracted by two processes of the minimum value calculation and the binarization process, and the fire area extracted by the circumscribed rectangle creating means 12, the fire feature amount calculating means, and the
[0022]
In FIG. 1,
[0023]
A circumscribed rectangle creating means 12 encloses the fire area stored in the
[0024]
Fire feature amount = max {dx / dy} / min {dx / dy}
When a fire occurs in the monitoring area, the fire area is extracted to the
[0025]
An area having a predetermined brightness in an image captured by the
[0026]
As described above, if the vehicle is traveling in the monitoring area at a certain speed, even if the fire area extracting means extracts the lamps of the vehicle as the fire area, the
[0027]
Here, the operation of the first and second embodiments will be described with reference to the flowchart of FIG. First, in step 1 (hereinafter, step is abbreviated as S), an image taken by the
[0028]
In S7, it is determined whether or not there is an area equal to or greater than a predetermined value, that is, an area to be extracted. If not, the process returns to S1 to capture a new image. 12 creates a circumscribed rectangle of the extracted area, calculates a fillet diameter ratio {dx / dy}, and stores the calculated value in the
[0029]
If the correspondence is determined by the
[0030]
The fire feature amount is obtained from the ratio between the maximum value and the minimum value of {dx / dy} in several times of data, but may be calculated from the amount of change in the ratio between the height and width of the circumscribed rectangle within a predetermined time. . That is, every time the value of {dx / dy} is calculated, the difference from the previous value of {dx / dy} is obtained as an absolute value, and when the calculation is performed a predetermined number of times, the value obtained by adding the difference is greater than the predetermined value. May be determined to be a real fire area. The monitoring area may be a large space such as a stadium or an atrium.
[0031]
【The invention's effect】
By extracting a region where both the R component and the G component are large from the image as a fire region, it is possible to extract only the flame region while omitting an artificial light source such as a sodium lamp or a tail lamp having a low G component. In addition, the time for scanning the pixels in the image processing unit can be shortened, and a fire can be detected quickly.
[Brief description of the drawings]
FIG. 1 is a system block diagram of the present invention.
FIG. 2 is an example of an image projected by a surveillance camera (original image).
FIG. 3 is an example of an image after image processing stored in a binarized memory.
FIG. 4 is a flowchart for explaining the operation of the present invention.
[Explanation of symbols]
1 surveillance camera, 2 analog-digital converter, 3 image memory,
3R R component frame memory, 3G G component frame memory,
3B B component frame memory, 4 minimum value calculation unit, 6 fire
12 circumscribed rectangle creating means, 13 fire feature quantity calculating means, 14 fire determining means,
21 ROM, 22 RAM, 23 MPU,
Claims (1)
所定の明るさを有する領域から、火災と人工光源を区別できるように設定された所定値を記憶した記憶手段と、
前記画像メモリに格納された画像から、前記カラー成分信号のうちR成分とG成分を画素毎に比較して小さい値の成分を出力する最小値演算部と、
該最小値演算部の出力信号が前記所定値を越える領域を火災領域として抽出する火災領域抽出部とを備えたことを特徴とする火災検出装置。An image capturing unit that captures an image of a monitoring area and outputs a color image signal composed of R, G, and B color component signals, and an image memory for storing an image captured by the image capturing unit are provided in the image memory. In a fire detection device that detects fire by processing stored images,
Storage means for storing a predetermined value set so that a fire and an artificial light source can be distinguished from an area having a predetermined brightness;
A minimum value calculation unit that outputs a component having a small value by comparing the R component and the G component of the color component signal for each pixel from the image stored in the image memory ;
A fire detection device comprising: a fire region extraction unit that extracts a region where an output signal of the minimum value calculation unit exceeds the predetermined value as a fire region .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14143296A JP3682631B2 (en) | 1996-06-04 | 1996-06-04 | Fire detection equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14143296A JP3682631B2 (en) | 1996-06-04 | 1996-06-04 | Fire detection equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09326090A JPH09326090A (en) | 1997-12-16 |
JP3682631B2 true JP3682631B2 (en) | 2005-08-10 |
Family
ID=15291841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14143296A Expired - Fee Related JP3682631B2 (en) | 1996-06-04 | 1996-06-04 | Fire detection equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3682631B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100782036B1 (en) * | 2005-08-01 | 2007-12-04 | 이현종 | Apparatus and method for detecting fire using image processing |
KR101416800B1 (en) * | 2014-03-20 | 2014-07-10 | 이어도 | Fire alarm system and method using mobile device |
KR101592383B1 (en) * | 2014-10-15 | 2016-02-11 | 공주대학교 산학협력단 | Flame detection method based on color image using temperature distribution characteristics of flame |
CN118338140B (en) * | 2024-06-13 | 2024-08-16 | 安徽大学 | High-temperature intelligent industrial television system |
-
1996
- 1996-06-04 JP JP14143296A patent/JP3682631B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09326090A (en) | 1997-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3481397B2 (en) | Fire detector | |
JP3965614B2 (en) | Fire detection device | |
JP3827426B2 (en) | Fire detection equipment | |
JP2006262242A (en) | Image signal processing apparatus | |
JP4656977B2 (en) | Sensing device | |
JP3368084B2 (en) | Fire detector | |
JP3682631B2 (en) | Fire detection equipment | |
JP2000137877A (en) | Fire detecting device | |
JP3134845B2 (en) | Apparatus and method for extracting object in moving image | |
JP2000331262A (en) | Fire ceneration position detection device | |
JPH10269471A (en) | Fire detector | |
JP3626824B2 (en) | Fire detection equipment | |
JP3688086B2 (en) | Fire detection equipment | |
JP2020030751A (en) | Object detection device, object detection method, and object detection program | |
JPS62147888A (en) | Picture monitoring system | |
JP3690695B2 (en) | Fire detection equipment | |
JPH10269468A (en) | Fire detector | |
JP3385475B2 (en) | Image monitoring device | |
JPH10261189A (en) | Vehicle detector | |
JPH10275279A (en) | Fire detection device | |
JPH10134278A (en) | Fire detector | |
JPH0512440A (en) | Edge detector | |
JPH10162264A (en) | Fire detector | |
JPH0546732A (en) | Detector for number of persons | |
JP7262412B2 (en) | Image processing device and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050512 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090603 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100603 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110603 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110603 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120603 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |