JP4331308B2 - Fire detection method and fire detection device by image processing - Google Patents

Fire detection method and fire detection device by image processing Download PDF

Info

Publication number
JP4331308B2
JP4331308B2 JP07674299A JP7674299A JP4331308B2 JP 4331308 B2 JP4331308 B2 JP 4331308B2 JP 07674299 A JP07674299 A JP 07674299A JP 7674299 A JP7674299 A JP 7674299A JP 4331308 B2 JP4331308 B2 JP 4331308B2
Authority
JP
Japan
Prior art keywords
flame
color
image
fire
coordinate position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP07674299A
Other languages
Japanese (ja)
Other versions
JP2000268270A (en
Inventor
英明 山岸
順一 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOHGO SECURITY SERVICES CO.,LTD.
Original Assignee
SOHGO SECURITY SERVICES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOHGO SECURITY SERVICES CO.,LTD. filed Critical SOHGO SECURITY SERVICES CO.,LTD.
Priority to JP07674299A priority Critical patent/JP4331308B2/en
Publication of JP2000268270A publication Critical patent/JP2000268270A/en
Application granted granted Critical
Publication of JP4331308B2 publication Critical patent/JP4331308B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measurement Of Length, Angles, Or The Like Using Electric Or Magnetic Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Fire-Detection Mechanisms (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はカメラで撮像された画像を処理することにより火災を自動検知する画像処理による火災検知方法及び装置に関する。
【0002】
【従来の技術】
従来の画像処理により広範囲のエリアを監視する火災検知方法には、一定時間における画像の特定領域の輝度信号の加算値をフーリエ変換し周波数特性(炎の揺らぎ)を調べることにより火災を検出するものや、CCDカメラに赤外線フィルタを装着して得られる赤外画像の時間的な面積分散率、自己相関係数、増加率を計算することにより火災を検知するものがある。
【0003】
【発明が解決しようとする課題】
しかし上述方法では炎が小さい初期火災で距離が十分ある場合、揺らぎや輝度変化は観測されにくく、また人工光(例えば懐中電灯、回転灯など)と区別しにくいといったことから、ある程度の火災規模になるまで検知できなかった。また、風により、炎の大きさや形が大きく変化したり、煽られて見た目の面積が小さくなった場合、炎の成長度合いを検出パラメータにしにくいという問題があった。
【0004】
そこで本発明は上述の問題点に鑑みて提案されたもので、炎の時間的な大きさや形の変動や距離に影響されにくく、人工光との区別も可能な火災炎検知方法を提供することにある。
【0005】
【発明を解決するための手段】
本発明は、火災炎の形の変動に注目し、炎画像を処理して得られる変動特徴量により火災炎かどうかを判別するにあたり、画像内における炎色領域の迅速な検出と判別処理の負担の軽減を目的としてカラー画像を用い、また、火災炎の変化や非炎に影響されない信頼性の高い判別を可能とするように、以下のステップで画像処理を行う。
(1)カラーカメラから得られるRGBカラー画像を各画素毎にHSV表色系に変換するステップ
(2)HSV表色系内に予め定めた領域に変換されるRGBカラー画像の画素を抽出して炎色領域を得るステップ
(3)前記炎色領域に応じて得られる楕円の重心座標位置および長軸の長さを求め、該楕円の長軸の長さと予め設定した基準長との倍率により、重心座標位置を中心にして当該炎色領域を拡大または縮小し大きさについて正規化するステップ
(4)前記正規化された炎色領域についてエッジ抽出を行うことにより輪郭データを得るステップ
(5)前記輪郭データの重心座標位置を求め、該重心座標位置を中心として輪郭データについて水平に対する角度(θ)と重心からの距離(r)とにより輪郭データを極座標変換するステップ
(6)前記一連のステップを、所定時間内に取り込む複数のRGBカラー画像について行うことによって得られる角度(θ)一時間(t)一距離(r)のデータをフーリエ変換するステップ
(7)前記フーリエ変換した結果から直流成分を除去することによって得られる周波数成分データにより火災炎を検知するステップ
【0006】
【発明の実施の形態】
以下、本発明の実施の形態について図面を用いて詳細に説明する。
本実施例では、カラーカメラにより撮像した画像を処理することにより火災を自動的に検知する火災炎検知方法及び火災炎検知装置ついて説明する。
図1に本発明の実施例のブロック構成図を示す。本実施例の構成は監視領域を撮像するカラーカメラ100、カラーカメラ100により撮像された画像を取り込んで処理し画像中の火災炎を自動検出する画像処理部200からなる。カラーカメラ100は監視領域の画像を画像信号として画像処理部200に供給する。
【0007】
画像処理部200は、カラーカメラ100により撮像された画像をRGBカラー画像として一時的に保存するRGBカラー画像記憶部202、RGBカラー画像記憶部202から得られる画像を処理することによって火災炎が存在するかどうかを判断する演算処理部201、演算処理部201での処理のフローにおける各ステップの出力結果を一時的に保存するためのワーク領域としての画像記憶部203、一定時間間隔で取り込まれるRGBカラー画像に対する毎回の出力結果としての極座標変換結果を所定時間蓄積するr(θ,t)記憶部204により構成される。
【0008】
画像処理部200は、マイクロコンピュータ等よりなり、演算処理部201において、後述する処理フローにおける各ステップにより順次、炎色領域、正規化画像、輪郭画像を作成し、画像記憶部203の内容を順に書き換え、輪郭画像の極座標変換結果については、r(θ,t)記憶部204に蓄積する。そして所定時間(T)の間にr(θ,t)記憶部204に蓄積されたr(θ,t)をフーリエ変換し、その結果から直流成分を除去して得られる周波数成分の分布により火災炎かどうかを判別する。なお、これらの処理を実行するためのプログラムは画像処理部200のプログラム記憶部205に格納されるが、このプログラム記憶部205は、演算処理部201の内部メモリとしてもよいし、また、別途設けた記憶装置に装着するハードディスクやフレキシブルディスクのような記録媒体に格納することもできる。
【0009】
図2に本発明の一実施例の火災炎検知装置の画像処理部200が行う火災炎検知処理のフローチャートを、図3乃至13に各ステップでの処理動作の説明図を示す。
まず、RGBカラー画像記憶部202ではカラーカメラ100から監視領域の画像をアナログまたはディジタルの画像信号として取り込み、画像信号がアナログの場合は図示しないA/D変換器でディジタル信号(RGBカラー画象)に変換する(s1)。次に、演算処理部201は前記画像中の炎色と思われる領域を単純な範囲指定(パラメータ)で設定するために前記RGBカラー画像の各画素をH(色相)S(彩度) (明度)表色系に変換する(s2)。
【0010】
なお、RGB表色系を色彩で表現するものとして本実施例ではHSV表色系を用いたが、XYZ表色系やマンセル表色系、YIQ表色系などを用いてもよい。
〔RGB表色系のHSV表色系への変換〕
RGB表色系からHSV表色系への変換は下記の数式を用いて行うことができる。
【0011】
RGB表色系における3要素の値をそれぞれR,G,B(0≦R,G,B≦1)とする。
V=mx
【0012】
【数1】

Figure 0004331308
【0013】
Sが0の場合はHも0とする。それ以外の場合は、
【0014】
【数2】
Figure 0004331308
【0015】
Hが負ならば、360°を加える。ただし、
【0016】
【数3】
Figure 0004331308
【0017】
上記の式によりRGB表色系をHSV表色系に変換することができる。なお、HSV表色系は図3に示すような円筒状の座標系に変換され、角度が色相、半径が彩度、高さが明度で表される。
次に、s2でHSV表色系に変換された各画素において、演算処理部201は図3の炎色判定領域1に示されるようなHSV表色系内に予め設けた領域に変換されるRGBカラー画像の画素を抽出して炎色領域を得て、画像記憶部203に保存する(s3)。図4に懐中電灯、図5に新聞紙を、それぞれ、燃焼させた場合の炎色領域抽出前(a)と抽出後(b)のイメージを示す。
【0018】
次に、画像記憶部203に保存した炎色領域を演算処理部201において、炎色領域データー点一点のモーメントが釣り合う座標を計算することにより、図6に示すような炎色領域の重心座標位置(Gx,y )、および楕円長軸の長さLa が求められる。該La は以降の処理で炎色領域の大きさをほぼ一定にして扱うために用意した基準長Lと比較し、拡大縮小率L/La を求める。そして該拡大縮小率L/La を用いて炎色領域の重心座標を中心にして拡大または縮小することにより大きさについて正規化を行い画像記憶部203に格納する(s4)。これにより、炎の大きさについて正規化することができ、規模の大小、距離の遠近に関わらず火災炎をほぼ同じ大きさで扱うことができる。
【0019】
〔重心座標の計算式〕
画像構成画素(本発明では炎色領域構成画素または輪郭構成画素)について、水平方向座標値をx、垂直方向座標値をy 、座標(x,y )における画像構成画素の輝度値をgとして画素をg(x,y )で表現する。重心座標位置においてg(x,y )に関する0次モーメントをm00,1次モーメントをm10,m01,2次モーメントをm20,m11,m02とし、それらを次式により求める。
【0020】
【数4】
Figure 0004331308
【0021】
次に、画像構成画素にあてはめられる楕円の重心座標位置G(Xg ,Yg )と主軸の長さLを次式で求める。
【0022】
【数5】
Figure 0004331308
【0023】
ここで、
【0024】
【数6】
Figure 0004331308
【0025】
また、M20,M11,M02は重心Gの周りの2次モーメントであり、次式により計算される。
【0026】
【数7】
Figure 0004331308
【0027】
上記の式により重心座標位置(Gx ,Gy )および楕円長紬の長さLa が求められる。
次に、演算処理部201は、画像記憶部203に保存した正規化炎色領域のエッジ抽出を行うことにより該正規化炎色領域の輪郭画像を作成して画像記憶部203に保存し(s5)、該輪郭画像の輪郭データについて一点一点のモーメントが釣り合う座標を計算することによって、輪郭データの重心座標位置を求める(s6)。輪郭データの重心座標位置の計算は上述炎色領域における重心座標計算と同様なのでここでは省略する。
【0028】
[エッジ抽出計算方法]
輪郭データは、一般には画像の雑音除去、エッジ抽出、2値化の処理過程を順に行うことによって得られる結果を指し、雑音除去のために平滑化やメディアン(中央値)フィルタなどが用いられ、エッジ検出にはSobel オペレータやForsenオペレータなど、そしてエッジ検出結果を適当な閾値で2値化することにより輪郭データが作成される。このように数通りかの組み合わせが考えられ、どの方法を組合せても良い。本実施例では一般によく用いられる雑音除去とエッジ検出を同時に行える効率の良い下記数式によって表されるMarr−Hildrethオペレータによるエッジ検出および零交差法による2値化によって輪郭データを作成する。なお、零交差法とはプラスからマイナスヘ、あるいはマイナスからプラスヘ変化するとき、0と交差する点をエッジとして抽出する方法である。
【0029】
【数8】
Figure 0004331308
【0030】
上記の式により炎色領域の輪郭が求められる。
次に、演算処理部201は図7に示すようにs6により求めた輪郭データの重心座標位置G を中心として、輪郭データの一点一点について水平に対する角度(θ)と重心からの距離(r )を0から2πの範囲で求めることにより(s7)、図8に示すような極座標変換結果を得、r(θ,t )記憶部204に保存する。この時半径方向の最も外側にある輪郭データを輪郭とし、輪郭データがない場合は距離を0とする。
【0031】
以上のs1〜s7を所定時間(T)繰り返すことにより(s8)、図9に示すような角度(θ)−時間(t)−距離(r)の多重極座標変換結果r(θ,t )を得る(s9)。本実施例では角度分解能を360/256〔deg〕、撮影時間を約8秒としており、画像の取り込みは通常のビデオレートとした場合の例について述べている。ここで、図10に懐中電灯を揺らした場合、図11に新聞紙を燃焼した場合のr(θ,t )を示す。ここでは、縦軸を時間t、横紬を角度θ、距離rは濃度値(黒〜白)に変換した結果を表しており、r値が大きいほど明るく(白)なっている。なお、撮影時間は画像のフレーム数としてもよい。
【0032】
次に、演算処理部201はs9により得られたr(θ,t )についてフーリエ変換(一般に用いられているFFT)を行い、その結果から直流成分を除去する(s10)。図12に懐中電灯を揺らした場合、図13に新聞紙の燃焼の場合についての直流成分を除去後のフーリエ変換結果の鳥瞰図を示す。
s10により得られたフーリエ変換結果により、火災炎の場合は低周波領域に成分が集まり、一方、人工光の場合には中心(直流成分位置)から更に遠い位置に周波数成分が発生することが分かる。これにより、図12および図13の太線の内側の低周波領域に周波数成分が集まり、かつ、太線の外側に周波数成分がほとんど得られない場合に火災炎を検知できる(s11)。具体的には、図12または図13の太線内側における成分検出量をD1 、検出量が十分かどうかを判断する閾値をσ1 、太線外側での成分検出量をDh としてD1 >σ1 かつ(D1 /Dh )>σQ の場合にのみ火災炎を検知したと判断する。ここで、σQ は太線内側での成分検出量D1 と太線外側での成分検出量Dh との比の値が所定値を越えるかどうかを判断する閾値である。これら変数について、σ1 は、非炎領域も含めた画像の大きさ(縦方向画素数×横方向画素数)と、正規化炎色領域作成時において基準の長さとして用いたLによって適正値が異なることから、システムの仕様(メモリ量など)の都合により決定すればよい。本実施例では、σ1 の値として320を用いた。
【0033】
また、σQ は、炎らしさの値(D1 /Dh )を最終的に炎と判定するための値であり、このσQ の値を小さく設定した場合は炎色対象に反応しやすくなる反面、誤報が発生しやすくなり、σQ の値を大きく設定した場合は人工光などとの判別精度が高く、誤報を排除できる反面、炎信号が十分でない監視場面には反応しにくいという結果になる。このことから、σQ は、炎色対象への反応の程度と誤報排除とについて、どちらをどの程度重視するかによって決められる。また、このσQ は、システムの仕様(メモリ量など)の都合により決定されるσ1 の値に合わせて適切な値を設定すればよい。本実施例ではσQ の値として5を用いた。一方、太線の位置、すなわち中央からの半径については、極座標変換における角度分解能およびFFTで扱うデータの大きさ(縦方向データ数×横方向データ数)によって異なるためシステムの仕様(メモリ量など)の都合により決定すればよい。本実施例では、太線の半径の値として9を用いた。
【0034】
【発明の効果】
従来の画像処理による火災検知では炎が小さい初期火災で距離が十分ある場合、揺らぎや輝度変化は観測されにくく、また、人工光と区別しにくいといったことから、ある程度の火災規模になるまで検知結果としての確からしさは十分ではなかったが、本発明は、炎色領域の大きさの正規化および演算処理により人工光と区別するようにしているため、有用性の高い火災検知が可能となる。
【0035】
また、従来は、風により炎の大きさや形が大きく変化したり、煽られて見た目の面積が小さくなった場合、炎の成長度合いを検出パラメータにしにくいという問題があったが、本発明では輪郭形状の変動に関する周波数成分の分布を扱うことにより上述問題を解決することができる。
以上のように、本発明によれば、懐中電灯や回転灯、太陽光反射などを火災と認識する誤報を排除するとともに屋内、屋外を問わず、使用範囲の広い火災炎自動監視を可能とする。
【図面の簡単な説明】
【図1】本発明の実施例の構成のブロック図を示す。
【図2】本発明の一実施例である火災炎検知処理のフローチャートを示す。
【図3】H(色相)S(彩度) (明度)表色系における炎色判定領域の図を示す。
【図4】懐中電灯における炎色領域の抽出前と抽出後のイメージを示す。
【図5】新聞紙燃焼時における炎色領域の抽出前と抽出後のイメージを示す。
【図6】炎色領域の大きさを正規化する際に求める値を示す図である。
【図7】炎色領域の輪郭の極座標変換の説明図である。
【図8】炎色領域の輪郭の極座標変換結果を示す図である。
【図9】多重極座標変換結果r(θ,t)を示す図である。
【図10】懐中電灯を揺らした場合のr(θ,t)を示す図である。
【図11】新聞紙を燃焼した場合のr(θ,t)を示す図である。
【図12】懐中電灯を揺らした場合のフーリエ変換結果の鳥瞰図を示す図である。
【図13】新聞紙を燃焼した場合のフーリエ変換結果の鳥瞰図を示す図である。
【符号の説明】
100 カラーカメラ
200 画像処理部
201 演算処理部
201A プログラム記憶部
202 RGBカラー画像記憶部
203 画像記憶部
204 r(θ,t)記憶部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a fire detection method and apparatus by image processing for automatically detecting a fire by processing an image captured by a camera.
[0002]
[Prior art]
The conventional fire detection method for monitoring a wide area by image processing is to detect fire by Fourier transforming the sum of luminance signals in a specific area of an image over a certain period of time and examining the frequency characteristics (flame fluctuation). In addition, there is one that detects a fire by calculating a temporal area dispersion rate, an autocorrelation coefficient, and an increase rate of an infrared image obtained by attaching an infrared filter to a CCD camera.
[0003]
[Problems to be solved by the invention]
However, in the case of the above method, if the fire is small and the distance is sufficient, fluctuations and brightness changes are difficult to observe, and it is difficult to distinguish them from artificial light (for example, flashlights, rotating lights, etc.). It was not detected until. In addition, when the size or shape of the flame changes greatly due to the wind, or when the area of the appearance is reduced by being beaten, there is a problem that it is difficult to use the degree of flame growth as a detection parameter.
[0004]
Therefore, the present invention has been proposed in view of the above-described problems, and provides a fire flame detection method that is not easily affected by fluctuations in the temporal size, shape, and distance of a flame and that can be distinguished from artificial light. It is in.
[0005]
[Means for Solving the Invention]
The present invention pays attention to the variation of the shape of the fire flame, and when determining whether it is a fire flame or not based on the variation feature amount obtained by processing the flame image, the burden of rapid detection and discrimination processing of the flame color area in the image In order to reduce this, a color image is used, and image processing is performed in the following steps so as to enable highly reliable discrimination that is not affected by changes in fire flame or non-flame.
(1) Step of converting an RGB color image obtained from a color camera into an HSV color system for each pixel (2) Extracting RGB color image pixels to be converted into a predetermined area in the HSV color system Step 3 of obtaining a flame color area (3) Obtaining the barycentric coordinate position and the length of the major axis of the ellipse obtained according to the flame color area, and by multiplying the length of the major axis of the ellipse with a preset reference length, (4) obtaining contour data by performing edge extraction on the normalized flame color region; (5) enlarging or reducing the flame color region around the center of gravity coordinate position and normalizing the flame size region; A step of obtaining a center-of-gravity coordinate position of the contour data, and converting the contour data into polar coordinates based on the angle (θ) with respect to the horizontal and the distance (r) from the center of gravity with respect to the center-of-gravity coordinate position 6) Step of Fourier transforming data of angle (θ), one hour (t), one distance (r) obtained by performing the series of steps on a plurality of RGB color images captured within a predetermined time (7) The Fourier A step of detecting a fire flame from frequency component data obtained by removing a direct current component from the converted result.
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In this embodiment, a fire flame detection method and a fire flame detection device for automatically detecting a fire by processing an image captured by a color camera will be described.
FIG. 1 shows a block diagram of an embodiment of the present invention. The configuration of this embodiment includes a color camera 100 that captures a monitoring area, and an image processing unit 200 that captures and processes an image captured by the color camera 100 and automatically detects a fire flame in the image. The color camera 100 supplies the image of the monitoring area to the image processing unit 200 as an image signal.
[0007]
The image processing unit 200 temporarily stores an image captured by the color camera 100 as an RGB color image, and an image obtained from the RGB color image storage unit 202 is processed to process a fire flame. An arithmetic processing unit 201 for determining whether or not to perform, an image storage unit 203 as a work area for temporarily storing the output result of each step in the processing flow in the arithmetic processing unit 201, RGB captured at regular time intervals It is configured by an r (θ, t) storage unit 204 that accumulates polar coordinate conversion results as output results for each color image for a predetermined time.
[0008]
The image processing unit 200 includes a microcomputer or the like, and the arithmetic processing unit 201 sequentially creates a flame color region, a normalized image, and a contour image by each step in the processing flow described later, and sequentially stores the contents of the image storage unit 203. The results of rewriting and polar coordinate conversion of the contour image are stored in the r (θ, t) storage unit 204. Then, r (θ, t) accumulated in the r (θ, t) storage unit 204 during a predetermined time (T) is Fourier-transformed, and a direct current component is removed from the result. Determine if it is a flame. A program for executing these processes is stored in the program storage unit 205 of the image processing unit 200. The program storage unit 205 may be an internal memory of the arithmetic processing unit 201, or may be provided separately. It can also be stored in a recording medium such as a hard disk or a flexible disk mounted on the storage device.
[0009]
FIG. 2 is a flowchart of fire flame detection processing performed by the image processing unit 200 of the fire flame detection apparatus according to an embodiment of the present invention, and FIGS. 3 to 13 are explanatory diagrams of processing operations in each step.
First, the RGB color image storage unit 202 captures an image of the monitoring area from the color camera 100 as an analog or digital image signal. If the image signal is analog, an A / D converter (not shown) converts the digital signal (RGB color image). (S1). Next, the arithmetic processing unit 201 sets each pixel of the RGB color image to H (hue) S (saturation) (lightness) in order to set an area considered to be a flame color in the image by simple range designation (parameter). ) Convert to the color system (s2).
[0010]
In this embodiment, the HSV color system is used to express the RGB color system with colors, but an XYZ color system, Munsell color system, YIQ color system, or the like may be used.
[Conversion of RGB color system to HSV color system]
Conversion from the RGB color system to the HSV color system can be performed using the following mathematical formula.
[0011]
The values of the three elements in the RGB color system are R, G, B (0 ≦ R, G, B ≦ 1), respectively.
V = mx
[0012]
[Expression 1]
Figure 0004331308
[0013]
When S is 0, H is also 0. Otherwise,
[0014]
[Expression 2]
Figure 0004331308
[0015]
If H is negative, add 360 °. However,
[0016]
[Equation 3]
Figure 0004331308
[0017]
The RGB color system can be converted into the HSV color system by the above formula. The HSV color system is converted into a cylindrical coordinate system as shown in FIG. 3, where the angle is represented by hue, the radius is chroma, and the height is lightness.
Next, in each pixel converted to the HSV color system in s2, the arithmetic processing unit 201 converts the RGB converted into an area provided in advance in the HSV color system as shown in the flame color determination area 1 of FIG. Pixels of the color image are extracted to obtain a flame color area, and stored in the image storage unit 203 (s3). FIG. 4 shows a flashlight, and FIG. 5 shows images before (a) and after (b) extraction of the flame-colored region when the newspaper is burned.
[0018]
Next, the calculation processing unit 201 calculates the coordinates at which the moment of one point of the flame color area data is balanced with respect to the flame color area stored in the image storage unit 203, whereby the barycentric coordinate position of the flame color area as shown in FIG. (G x, G y ) and the ellipse major axis length La are determined. The L a is compared with a reference length L that is prepared to handle in a substantially constant size of the flame region in the subsequent processing to determine the scaling factor L / L a. And stored in the image storage unit 203 normalizes the size by enlarging or reducing in the center of gravity coordinates of the flame region with the enlarged reduction ratio L / L a (s4). Thereby, it is possible to normalize the size of the flame, and it is possible to handle the fire flame with almost the same size regardless of the size and distance.
[0019]
[Calculation formula for barycentric coordinates]
For an image component pixel (in the present invention, a flame color region component pixel or a contour component pixel), the horizontal coordinate value is x, the vertical coordinate value is y, and the luminance value of the image component pixel at the coordinate (x, y) is g. Is expressed by g (x, y). G (x, y) at the center of gravity coordinates the zero-order moment about m 00, 1 moment of m 10, m 01, the secondary moment and m 20, m 11, m 02 , ask them the following equation.
[0020]
[Expression 4]
Figure 0004331308
[0021]
Next, the center-of-gravity coordinate position G (X g , Y g ) of the ellipse applied to the image constituent pixels and the length L of the principal axis are obtained by the following equations.
[0022]
[Equation 5]
Figure 0004331308
[0023]
here,
[0024]
[Formula 6]
Figure 0004331308
[0025]
M 20 , M 11 , and M 02 are second moments around the center of gravity G, and are calculated by the following equations.
[0026]
[Expression 7]
Figure 0004331308
[0027]
Barycentric coordinates by the above formula (G x, G y) and a length L a of the ellipse length tsumugi is obtained.
Next, the arithmetic processing unit 201 performs edge extraction of the normalized flame color region stored in the image storage unit 203 to create a contour image of the normalized flame color region and stores it in the image storage unit 203 (s5). ), The coordinates of the barycentric coordinates of the contour data are obtained by calculating the coordinates in which the moments of each point balance the contour data of the contour image (s6). The calculation of the center-of-gravity coordinate position of the contour data is the same as the calculation of the center-of-gravity coordinate in the flame color region described above, and is omitted here.
[0028]
[Edge extraction calculation method]
Contour data generally refers to the result obtained by sequentially performing image denoising, edge extraction, and binarization processes, and smoothing and median (median) filters are used for noise removal. For edge detection, contour data is created by binarizing the edge detection result with an appropriate threshold, such as the Sobel operator and Forsen operator. Several combinations are conceivable as described above, and any method may be combined. In this embodiment, contour data is created by edge detection by the Marr-Hildreth operator and binarization by the zero-crossing method expressed by the following efficient mathematical expression that can perform noise removal and edge detection that are commonly used at the same time. The zero crossing method is a method of extracting a point that intersects 0 as an edge when changing from plus to minus or from minus to plus.
[0029]
[Equation 8]
Figure 0004331308
[0030]
The outline of the flame area is obtained by the above formula.
Next, as shown in FIG. 7, the arithmetic processing unit 201 is centered on the centroid coordinate position G 1 of the contour data obtained in s6, and the angle (θ) with respect to the horizontal and the distance from the centroid (r ) In the range of 0 to 2π (s7), a polar coordinate conversion result as shown in FIG. 8 is obtained and stored in the r (θ, t) storage unit 204. At this time, the outermost contour data in the radial direction is set as the contour, and the distance is set to 0 when there is no contour data.
[0031]
By repeating the above s1 to s7 for a predetermined time (T) (s8), a multipolar coordinate conversion result r (θ, t) of angle (θ) −time (t) −distance (r) as shown in FIG. 9 is obtained. Obtain (s9). In the present embodiment, an example is described in which the angular resolution is 360/256 [deg], the shooting time is about 8 seconds, and the image is captured at a normal video rate. Here, FIG. 10 shows r (θ, t) when the flashlight is shaken, and FIG. 11 shows when newspaper is burned. Here, the vertical axis represents time t, the horizontal axis represents the angle θ, and the distance r represents the result of conversion into a density value (black to white). The larger the r value, the brighter (white). Note that the shooting time may be the number of frames of an image.
[0032]
Next, the arithmetic processing unit 201 performs a Fourier transform (FFT generally used) on r (θ, t) obtained in s9, and removes a DC component from the result (s10). FIG. 12 shows a bird's-eye view of the Fourier transform result after removing the direct current component for the case of newspaper burning when FIG.
From the Fourier transform result obtained by s10, it is understood that components are collected in the low frequency region in the case of fire flames, while frequency components are generated at positions farther from the center (DC component position) in the case of artificial light. . Thereby, when a frequency component collects in the low frequency region inside the thick line in FIG. 12 and FIG. 13 and almost no frequency component is obtained outside the thick line, a fire flame can be detected (s11). Specifically, D 1 > σ, where D 1 is the component detection amount inside the thick line in FIG. 12 or 13, σ 1 is the threshold value for determining whether the detection amount is sufficient, and D h is the component detection amount outside the thick line. is determined to have detected the fire flame only if 1 and (D 1 / D h)> σ Q. Here, σ Q is a threshold value for determining whether or not the value of the ratio between the component detection amount D 1 inside the thick line and the component detection amount D h outside the thick line exceeds a predetermined value. For these variables, σ 1 is an appropriate value depending on the size of the image including the non-flame area (the number of pixels in the vertical direction × the number of pixels in the horizontal direction) and L used as the reference length when creating the normalized flame color area. Therefore, it may be determined according to the system specifications (memory amount, etc.). In this embodiment, 320 is used as the value of σ 1 .
[0033]
Also, σ Q is a value for finally determining the flame-like value (D 1 / D h ) as a flame, and when this σ Q value is set small, it becomes easy to react to a flame color target. On the other hand, false alarms are likely to occur, and if the value of σ Q is set large, the discrimination accuracy from artificial light etc. is high, and while false alarms can be eliminated, it is difficult to react to monitoring scenes where the flame signal is insufficient. Become. From this, σ Q is determined by how much importance is given to the degree of reaction to the flame target and the elimination of false alarms. In addition, this σ Q may be set to an appropriate value in accordance with the value of σ 1 determined by the convenience of the system specifications (memory amount and the like). In this embodiment, 5 is used as the value of σ Q. On the other hand, the position of the thick line, that is, the radius from the center, differs depending on the angular resolution in polar coordinate conversion and the size of data handled by FFT (the number of data in the vertical direction x the number of data in the horizontal direction). It may be determined by convenience. In this embodiment, 9 is used as the value of the radius of the thick line.
[0034]
【The invention's effect】
In conventional fire detection using image processing, if the fire is small and the distance is sufficient, fluctuations and changes in brightness are difficult to observe and difficult to distinguish from artificial light. However, since the present invention distinguishes it from artificial light by normalizing and calculating the size of the flame area, it is possible to detect fire with high utility.
[0035]
Further, conventionally, when the size or shape of the flame is greatly changed by the wind or when the area of the flame is reduced by being blown, there is a problem that it is difficult to use the degree of flame growth as a detection parameter. The above-mentioned problem can be solved by handling the distribution of frequency components related to the shape variation.
As described above, according to the present invention, it is possible to eliminate the false alarm of recognizing flashlights, revolving lights, sunlight reflections, etc. as fire, and to enable automatic fire flame monitoring with a wide range of use, indoors or outdoors. .
[Brief description of the drawings]
FIG. 1 shows a block diagram of a configuration of an embodiment of the present invention.
FIG. 2 is a flowchart of fire flame detection processing according to an embodiment of the present invention.
FIG. 3 is a diagram of a flame color determination area in an H (hue) S (saturation) (lightness) color system;
FIG. 4 shows images before and after extraction of a flame-colored region in a flashlight.
FIG. 5 shows images before and after extraction of a flame-colored area when newspaper is burned.
FIG. 6 is a diagram illustrating values obtained when normalizing the size of a flame color area;
FIG. 7 is an explanatory diagram of polar coordinate conversion of the outline of a flame color area.
FIG. 8 is a diagram illustrating a polar coordinate conversion result of the outline of a flame color region.
FIG. 9 is a diagram showing a multipolar coordinate conversion result r (θ, t).
FIG. 10 is a diagram showing r (θ, t) when the flashlight is shaken.
FIG. 11 is a diagram showing r (θ, t) when newspaper is burned.
FIG. 12 is a view showing a bird's-eye view of a Fourier transform result when a flashlight is shaken.
FIG. 13 is a diagram showing a bird's-eye view of a Fourier transform result when newspaper is burned.
[Explanation of symbols]
100 color camera 200 image processing unit 201 arithmetic processing unit 201A program storage unit 202 RGB color image storage unit 203 image storage unit 204 r (θ, t) storage unit

Claims (3)

カメラから得られる画像を処理して火災が存在するかどうかを自動で判断する画像処理部を有する火災検知装置の前記画像処理部が実行する火災炎検知方法において、
カラーカメラから得られるRGBカラー画像を各画素毎にHSV表色系に変換するステップと、
HSV表色系に変換した結果HSV表色系内に予め定めた領域に変換されるRGBカラー画像の画素を抽出して炎色領域を得るステップと、
前記炎色領域に応じて得られる楕円の重心座標位置および長軸の長さを求め、該楕円の長軸の長さと予め設定した基準長との倍率により、重心座標位置を中心にして当該炎色領域を拡大または縮小し大きさについて正規化するステップと、
前記正規化された炎色領域についてエッジ抽出を行うことにより輪郭データを得るステップと、
前記輪郭データの重心座標位置を求め、該重心座標位置を中心として輪郭データについて水平に対する角度(θ)と重心からの距離(r)により輪郭データを極座標変換するステップと、
前記一連のステップを所定時間(T)内に取り込む複数のRGBカラー画像について行うことによって得られる、角度(θ)−時間(t)−距離(r)のデータをフーリエ変換するステップと、
前記フーリエ変換した結果から直流成分を除去することによって得られる周波数成分データにより火災炎を検知するステップ、を有することを特徴とする画像処理による火災炎検知方法。
In the fire flame detection method executed by the image processing unit of the fire detection apparatus having an image processing unit that automatically determines whether a fire exists by processing an image obtained from a camera,
Converting an RGB color image obtained from a color camera into an HSV color system for each pixel;
Extracting a pixel of an RGB color image to be converted into a predetermined area in the HSV color system as a result of conversion to the HSV color system, and obtaining a flame color area;
The center-of-gravity coordinate position and the length of the long axis of the ellipse obtained according to the flame color area are obtained, and the flame is centered on the center-of-gravity coordinate position by multiplying the length of the long axis of the ellipse with a preset reference length. Enlarging or reducing the color area and normalizing for size;
Obtaining contour data by performing edge extraction on the normalized flame color region;
Obtaining a centroid coordinate position of the contour data, and converting the contour data into polar coordinates based on an angle (θ) with respect to the horizontal (θ) and a distance (r) from the centroid with respect to the centroid coordinate position;
Fourier transforming angle (θ) -time (t) -distance (r) data obtained by performing the series of steps on a plurality of RGB color images that are captured within a predetermined time (T);
A fire flame detection method by image processing , comprising: detecting a fire flame from frequency component data obtained by removing a direct current component from a result of the Fourier transform.
カメラから得られる画像を処理して火災が存在するかどうかを自動で判断する画像処理部を有する火災炎検知装置において、
前記画像処理部は、カラーカメラから得られるRGBカラー画像を各画素毎にHSV表色系に変換する手段と、
HSV表色系に変換した結果HSV表色系内に予め定めた領域に変換されるRGBカラー画像の画素を抽出して炎色領域を得る手段と、
前記炎色領域に応じて得られる楕円の重心座標位置および長軸の長さを求め、該楕円の長軸の長さと予め設定した基準長との倍率により、重心座標位置を中心にして当該炎色領域を拡大または縮小し大きさについて正規化する手段と、
前記正規化された炎色領域についてエッジ抽出を行うことにより輪郭データを得る手段と、
前記輪郭データの重心座標位置を求め、該重心座標位置を中心として輪郭データについて水平に対する角度(θ)と重心からの距離(r)とにより輪郭データを極座標変換する手段と、
前記一連のステップを所定時間(T)内に取り込む複数のRGBカラー画像について行うことによって得られる、角度(θ)−時間(t)−距離(r)のデータをフーリエ変換する手段と、
前記フーリエ変換した結果から直流成分を除去することによって得られる周波数成分データにより火災炎を検知する手段を有する火災炎検知装置
In a fire flame detection apparatus having an image processing unit that automatically determines whether a fire exists by processing an image obtained from a camera,
The image processing unit includes means for converting an RGB color image obtained from a color camera into an HSV color system for each pixel;
Means for obtaining a flame color area by extracting pixels of an RGB color image converted into a predetermined area in the HSV color system as a result of conversion to the HSV color system;
The center-of-gravity coordinate position and the length of the long axis of the ellipse obtained according to the flame color area are obtained, and the flame is centered on the center-of-gravity coordinate position by multiplying the length of the long axis of the ellipse with a preset reference length. Means to enlarge or reduce the color area and normalize the size,
Means for obtaining contour data by performing edge extraction on the normalized flame color region;
Means for obtaining a centroid coordinate position of the contour data, and performing polar coordinate conversion of the contour data by an angle (θ) with respect to the horizontal and a distance (r) from the centroid of the contour data with the centroid coordinate position as a center;
Means for Fourier transforming the angle (θ) -time (t) -distance (r) data obtained by performing the series of steps on a plurality of RGB color images captured within a predetermined time (T);
A fire flame detection device having means for detecting a fire flame from frequency component data obtained by removing a direct current component from the result of the Fourier transform.
カメラから得られる画像を処理して火災が存在するかどうかを画像処理部が自動で判断するプログラムを記録したコンピュータ読取り可能な記録媒体において、カラーカメラから得られるRGBカラー画像を各画素毎にHSV表色系に変換するステップと、
HSV表色系に変換した結果HSV表色系内に予め定めた領域に変換されるRGBカラー画像の画素を抽出して炎色領域を得るステップと、
前記炎色領域に応じて得られる楕円の重心座標位置および長軸の長さを求め、該楕円の長軸の長さと予め設定した基準長との倍率により、重心座標位置を中心にして当該炎色領域を拡大または縮小し大きさについて正規化するステップと、
前記正規化された炎色領域についてエッジ抽出を行うことにより輪郭データを得るステップと、
前記輪郭データの重心座標位置を求め、該重心座標位置を中心として輪郭データについて水平に対する角度(θ)と重心からの距離(r)とにより輪郭データを極座標変換するステップと、
前記一連のステップを所定時間(T)内に取り込む複数のRGBカラー画像について行うことによって得られる、角度(θ)−時間(t)−距離(r)のデータをフーリエ変換するステップと、
前記フーリエ変換した結果から直流成分を除去することによって得られる周波数成分データにより火災炎を検知するステップとをコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
An RGB color image obtained from a color camera is converted into an HSV image for each pixel on a computer-readable recording medium on which a program for automatically judging whether a fire exists by processing an image obtained from the camera. Converting to the color system,
Extracting a pixel of an RGB color image to be converted into a predetermined area in the HSV color system as a result of conversion to the HSV color system, and obtaining a flame color area;
The center-of-gravity coordinate position and the length of the long axis of the ellipse obtained according to the flame color area are obtained, and the flame is centered on the center-of-gravity coordinate position by multiplying the length of the long axis of the ellipse with a preset reference length. Enlarging or reducing the color area and normalizing for size;
Obtaining contour data by performing edge extraction on the normalized flame color region;
Obtaining a centroid coordinate position of the contour data, and converting the contour data into polar coordinates by using an angle (θ) with respect to the horizontal (θ) and a distance (r) from the centroid with respect to the centroid coordinate position as a center;
Fourier transforming angle (θ) -time (t) -distance (r) data obtained by performing the series of steps on a plurality of RGB color images that are captured within a predetermined time (T);
A computer-readable recording medium recording a program for causing a computer to execute a step of detecting a fire flame based on frequency component data obtained by removing a DC component from a result of the Fourier transform.
JP07674299A 1999-03-19 1999-03-19 Fire detection method and fire detection device by image processing Expired - Lifetime JP4331308B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07674299A JP4331308B2 (en) 1999-03-19 1999-03-19 Fire detection method and fire detection device by image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07674299A JP4331308B2 (en) 1999-03-19 1999-03-19 Fire detection method and fire detection device by image processing

Publications (2)

Publication Number Publication Date
JP2000268270A JP2000268270A (en) 2000-09-29
JP4331308B2 true JP4331308B2 (en) 2009-09-16

Family

ID=13614070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07674299A Expired - Lifetime JP4331308B2 (en) 1999-03-19 1999-03-19 Fire detection method and fire detection device by image processing

Country Status (1)

Country Link
JP (1) JP4331308B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110021133A (en) * 2019-05-17 2019-07-16 重庆消防安全技术研究服务有限责任公司 Round-the-clock fire patrol prewarning monitoring system and fire image detection method

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10011411C2 (en) * 2000-03-09 2003-08-14 Bosch Gmbh Robert Imaging fire detector
US8116553B2 (en) * 2007-10-03 2012-02-14 Siemens Product Lifecycle Management Software Inc. Rotation invariant 2D sketch descriptor
JP5417654B2 (en) * 2008-03-26 2014-02-19 株式会社アサヒコーポレーション Center of gravity analysis method
CN102494630B (en) * 2011-07-29 2014-06-04 刘建松 Method and device for measuring specific values of shape characteristic parameters of flame inside boiler or container
JP6166650B2 (en) * 2013-12-04 2017-07-19 能美防災株式会社 Flame detection apparatus and flame detection method
JP6664689B2 (en) * 2015-12-02 2020-03-13 能美防災株式会社 Flame detector
CN109671112B (en) * 2018-12-05 2023-03-24 西华大学 Method for measuring propagation radius of constant volume combustion flame
CN109855566B (en) * 2019-02-28 2021-12-03 易思维(杭州)科技有限公司 Method for extracting slot features
JP7294848B2 (en) * 2019-03-26 2023-06-20 Eneos株式会社 Monitoring device, monitoring system and monitoring method
JP7383531B2 (en) 2020-03-10 2023-11-20 Eneos株式会社 Monitoring device, monitoring system and monitoring method
CN111882568B (en) * 2020-06-28 2023-09-15 北京石油化工学院 Fire image edge extraction processing method, terminal and system
WO2023182253A1 (en) * 2022-03-23 2023-09-28 ホーチキ株式会社 Flame detection device, flame detection method, image generation device, movement confirmation system, image generation method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110021133A (en) * 2019-05-17 2019-07-16 重庆消防安全技术研究服务有限责任公司 Round-the-clock fire patrol prewarning monitoring system and fire image detection method
CN110021133B (en) * 2019-05-17 2020-11-20 重庆消防安全技术研究服务有限责任公司 All-weather fire-fighting fire patrol early-warning monitoring system and fire image detection method

Also Published As

Publication number Publication date
JP2000268270A (en) 2000-09-29

Similar Documents

Publication Publication Date Title
JP4331308B2 (en) Fire detection method and fire detection device by image processing
Gaubatz et al. Automatic red-eye detection and correction
JP5262243B2 (en) Eye opening / closing discrimination device and program
JP3714350B2 (en) Human candidate region extraction method, human candidate region extraction system, and human candidate region extraction program in image
JP2005136917A (en) Image processing method, image processing apparatus, image processing program and image-taking system
CN114677316A (en) Real-time visible light image and infrared image multi-channel fusion method and device
WO2013114803A1 (en) Image processing device, image processing method therefor, computer program, and image processing system
CN108805144A (en) Shell hole recognition methods based on morphology correction and system, indication of shots equipment
JP2017003491A (en) Processing program, processing method, and processor
JPH09313442A (en) Measuring device for cell of corneal endothelium
JP4853657B2 (en) Image processing device
CN111192280A (en) Method for detecting optic disc edge based on local feature
JP4464523B2 (en) Congestion status judgment device
JPH06251147A (en) Video feature processing method
JP3783881B2 (en) Vehicle detection method and vehicle detection apparatus using the same
WO2013114802A1 (en) Image processing device, image processing method therefor, computer program, and image processing system
JP3461143B2 (en) Color image target position detection device
JPH0729007A (en) Video feature processing method
JP2004178272A (en) Image processing apparatus and image processing method
CN117115174B (en) Automatic detection method and system for appearance of pliers
JP2023032776A (en) Image processing apparatus, image processing method, and program
JP2003248829A (en) Method and device for detecting periodic movement
JP3745301B2 (en) Method and apparatus for detecting reference position of annular image by omnidirectional imaging
JP2009163492A (en) Image processing apparatus, image processing method, and program
CN116977268A (en) Method, device, equipment and storage medium for detecting equipment defects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090609

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090618

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120626

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120626

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150626

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term