JPH04191999A - Fire detector - Google Patents

Fire detector

Info

Publication number
JPH04191999A
JPH04191999A JP32088290A JP32088290A JPH04191999A JP H04191999 A JPH04191999 A JP H04191999A JP 32088290 A JP32088290 A JP 32088290A JP 32088290 A JP32088290 A JP 32088290A JP H04191999 A JPH04191999 A JP H04191999A
Authority
JP
Japan
Prior art keywords
fire
smoke
area
flame
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32088290A
Other languages
Japanese (ja)
Inventor
Hideo Numagami
沼上 英雄
Akio Okazaki
彰夫 岡崎
Soichi Furusawa
古澤 聡一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP32088290A priority Critical patent/JPH04191999A/en
Publication of JPH04191999A publication Critical patent/JPH04191999A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To heighten detecting accuracy economically by extracting a change area from a visible video obtained in time series, unifying the change area at every same event, and deciding whether or not it is fire based on the feature quantity of a unified change area. CONSTITUTION:A start-up means 3 starts up either a smoke detecting means 4 or a flame detecting means 5 by supplying different parameters corresponding to the detection of either smoke or flame based on the judging result of a judging means 2. The occurrence of the fire can be detected by fetching a monitor image from an image pickup means 1 based on the parameters supplied from the start-up means 3 in time series by the smoke detecting means 4 and the flame detecting means 5, and detecting a smoke or flame area by performing image processing. Since decision for the occurrence of the fire is detected by judging whether it is due to the smoke or the flame in such way, and also, since the change area is unified at every same event and it is decided whether or not it is the fire by the feature quantity of the change area, it is possible to detect the fire with high accuracy economically.

Description

【発明の詳細な説明】 C発明の目的] (産業上の利用分野) この発明は高所にあらがしめ固定されたカメラからの監
視画像を画像解析することにより、市街地における火災
の発生を自動検知する火災検知装置に関する。
[Detailed Description of the Invention] CObject of the Invention] (Industrial Application Field) This invention automatically detects the occurrence of fires in urban areas by analyzing surveillance images from cameras fixed at high places. This invention relates to a fire detection device for detecting fire.

(従来の技術) 近年、大地震の発生が予想され、防災に対する意識が高
まってきており、国や自治体レベルで幾つかの都市防災
情報システムの開発が進められている。とりわけ、大地
震に伴って発生する、同時多発性の広域大火災に対する
防火システムが強く望まれている。
(Prior Art) In recent years, the occurrence of large earthquakes has been predicted, and awareness of disaster prevention has increased, and several urban disaster prevention information systems are being developed at the national and local government levels. In particular, there is a strong desire for a fire prevention system that can prevent simultaneous, large-area fires that occur in conjunction with large earthquakes.

市街地などの広域を対象とする火災検知システムでは、
−度に広域を監視できるということで、モニタカメラな
どのセンサで撮像した監視映像がら画像処理により火災
の発生を検知するという方式が有効とされている。この
方式は赤外線撮像装置などこれに類似したセンサで撮像
した赤外映像を用いる方式と、通常のITVで撮像した
可視映像を用いる方式に大別することができる。しかし
、赤外線撮像装置などのセンサは価格や維持・保守の点
で問題がある。一方、可視映像を用いた場合は、従来の
単一の画像に対する処理では煙や炎は濃淡情報や形状な
どの特徴量で特定しに<<、検出することが難しかった
。また単純な画像間の差分処理だけでは、木のそよぎゃ
ネオンなどの照明の点滅などの雑音により、十分な検知
性能を得ることができなかった。
In fire detection systems that cover wide areas such as urban areas,
- Since it is possible to monitor a wide area at once, an effective method is to detect the occurrence of a fire through image processing of surveillance video captured by a sensor such as a monitor camera. This method can be roughly divided into a method that uses infrared images captured by a similar sensor such as an infrared imaging device, and a method that uses visible images captured by a normal ITV. However, sensors such as infrared imaging devices have problems in terms of cost and maintenance. On the other hand, when visible images are used, it is difficult to detect smoke and flames using conventional processing on a single image because they can be identified using feature quantities such as shading information and shape. Furthermore, simple differential processing between images could not provide sufficient detection performance due to noise such as swaying trees or flashing lights such as neon lights.

(発明が解決しようとする課題) 上述のように、赤外線撮像装置やこれに類似した装置を
用いた場合は任格や維持・保守の点で問題があった。ま
た通常のITVを用いた場合には十分な性能を得ること
ができなかった。
(Problems to be Solved by the Invention) As described above, when an infrared imaging device or a similar device is used, there are problems in terms of qualification and maintenance. Furthermore, when a normal ITV was used, sufficient performance could not be obtained.

この発明はこのような従来の問題点に鑑みて成されたも
ので、通常のITVを用いた経済的でかつ高精度に火災
を検知することのできる火災検知装置を提供することを
目的とする。
This invention was made in view of these conventional problems, and an object thereof is to provide a fire detection device that is economical and can detect fires with high accuracy using a normal ITV. .

[発明の構成] (課題を解決するための手段) この発明は、第1にカメラからの監視画像を時系列に取
り込み、所定の画像処理を行われた画像から火災の発生
を検知する火災検知装置において、火災発生の検知を煙
によって検出する第1のモードかまたは炎によって検出
する第2のモードかを判定し切替える手段と、この手段
により第1のモードが選択された場合に、前記画像から
煙領域を検出し、第2のモードが選択された場合に、前
記画像から炎領域を検出する検出手段とを具備し、発生
した煙あるいは炎によって火災を検知することを特徴と
する火災検知装置である。
[Structure of the Invention] (Means for Solving the Problems) This invention firstly captures surveillance images from a camera in chronological order and performs predetermined image processing to detect the occurrence of a fire. In the apparatus, means for determining and switching between a first mode in which fire occurrence is detected by smoke or a second mode in which fire is detected by flame; and when the first mode is selected by the means, detecting a smoke area from the image, and detecting a flame area from the image when the second mode is selected, and detecting a fire based on generated smoke or flames. It is a device.

又、第2にカメラからの監視画像を時系列に取り込む手
段と、この手段により取り込まれた画像の変化領域を検
出する手段と、この手段により検出された変化領域を同
一イベントごとに統合記憶する手段と、この手段により
統合された結果により火災か否かを判定する手段を具備
することを特徴とする火災検知装置である。
Second, there is a means for capturing monitoring images from the camera in time series, a means for detecting a changed area in the image captured by this means, and an integrated storage of the changed areas detected by this means for each same event. This is a fire detection device characterized by comprising means and means for determining whether or not there is a fire based on the results integrated by the means.

(作用) 以上のように、本発明によれば第1に火災発生の判定を
煙によるか炎によるかを判断して検出するため、又第2
に時系列に得られる可視映像より変化領域を抽出し、こ
の変化領域を同一イベントごとに統合し、統合された変
化領域の特徴量により火災か否かを判定するため、経済
的で且つ高精度に火災を検知することができる。
(Function) As described above, according to the present invention, firstly, the occurrence of a fire is detected by determining whether it is caused by smoke or flames;
It is economical and highly accurate because it extracts changing areas from visible images obtained in chronological order, integrates these changing areas for each same event, and determines whether there is a fire or not based on the features of the integrated changing areas. fire can be detected.

(実施例) 以下、この発明の一実施例を図面に基づいて詳述する。(Example) Hereinafter, one embodiment of the present invention will be described in detail based on the drawings.

第1図はこの発明の一実施例を示す構成図である。高所
にあらかじめ固定されたカメラなどの撮像手段1から撮
像された監視画像は、判断手段2に入力され煙を検出す
るか、または炎を検出するかの判断を行い切替えを行っ
ている。この判断は、例えば、入力された監視画像の全
体の平均濃度により行う。
FIG. 1 is a block diagram showing an embodiment of the present invention. A monitoring image captured by an imaging means 1, such as a camera fixed in advance at a high place, is input to a determining means 2, which determines whether to detect smoke or flame, and performs switching. This determination is made, for example, based on the average density of the entire input monitoring image.

監視映像を用いて、火災を検知するに当たり、次のこと
を方針としている。昼間は、火災検知のために、煙を認
識する。すなわち、煙は常に火災に伴って発生し、また
炎が発生するよりも早く見ることができる。けれども、
夜は、煙は見にくくなり、炎の方が検出しやすくなる。
The following policies are in place when detecting fires using surveillance footage: During the day, smoke is recognized for fire detection. That is, smoke always accompanies a fire and can be seen earlier than flames. However,
At night, smoke is harder to see and flames are easier to detect.

そこで、夜は、火災検知のために、炎を認識する。Therefore, at night, flames are recognized for fire detection.

起動手段3は判断手段2の判断結果に基づき、煙あるい
は炎のどちらを検出するかに応じて異なるパラメータを
与えて煙検出手段4あるいは炎検出手段5を起動する。
The starting means 3 starts the smoke detecting means 4 or the flame detecting means 5 by giving different parameters depending on whether smoke or flame is to be detected, based on the judgment result of the judging means 2.

煙検出手段4及び炎検出手段5は、起動手段3により与
えられたパラメータに基づき、撮像手段1からの監視画
像を時系列に取り込み、画像処理により煙あるいは炎領
域を検出することにより火災の発生を検知する。
The smoke detection means 4 and the flame detection means 5 acquire monitoring images from the imaging means 1 in time series based on the parameters given by the activation means 3, and detect the occurrence of a fire by detecting smoke or flame areas through image processing. Detect.

第2図は煙検出手段4および炎検出手段5の一構成例を
示す。煙検出手段4および炎検出手段5は、実行時に適
用するノくラメータが異なるのみで、共通の手段から構
成されている。撮像手段1から入力される監視画像は監
視画像取り込み手段11によりA/D変換され一定時間
間隔で取り込まれる。
FIG. 2 shows an example of the structure of the smoke detection means 4 and the flame detection means 5. The smoke detecting means 4 and the flame detecting means 5 are composed of common means, with the only difference being the parameter applied during execution. A monitoring image inputted from the imaging means 1 is A/D converted by the monitoring image capturing means 11 and captured at regular time intervals.

この一定時間間隔で取り込まれた監視画像は変化領域検
出手段12に時系列に供給され、この時系列な画像間の
変化領域が検出される。この検出された変化領域は統合
手段13により同一イベントごとに統合される。判定手
段14は統合された変化領域の特徴量を求め、この特徴
量により火災か否かの判定を行う。特徴量はここでは時
間的な変化領域の面積の拡がり量としている。
The monitoring images captured at regular time intervals are supplied in time series to the change area detection means 12, and change areas between the time series images are detected. The detected change areas are integrated by the integrating means 13 for each same event. The determining means 14 determines the feature amount of the integrated change area, and uses this feature amount to determine whether or not there is a fire. Here, the feature amount is the amount of expansion of the area of the temporally changing region.

煙や炎は時間的に拡張しているという特徴がある。そこ
で、時間的な変化を解析することにより火災の検知を行
う。
Smoke and fire are characterized by temporal expansion. Therefore, fire detection is performed by analyzing temporal changes.

まず、火災領域の候補として、時系列画像間の差分処理
により、変化領域を抽出する。抽出された変化領域には
混乱(妨害)イベントに起因する、雑音を含んでいる。
First, as candidates for fire areas, changing areas are extracted by differential processing between time-series images. The extracted change region contains noise due to confusion (disturbance) events.

混乱イベントとして、昼は、風による木の揺れ、人や車
などの動物体、そして、夜は、ネオンライトなどの照明
物体、車のヘッドライトなどがある。この混乱イベント
と火災域を識別するために、変化領域の追跡をベースと
する動作解析を行う。追跡において、時系列に得られる
変化領域間の関係づけにより、統合して、同一イベント
に起因するところの変化領域を、一つのグループとして
統合する。変化領域の統合は時系列に得られる変化領域
間の論理和だけではうまくできない。ここでは、統合は
ビルの位置と属性情報、道路などの地理情報を利用して
、変化領域の拡張範囲を予測する方式を適用している。
Disruptive events include the shaking of trees due to the wind, animals such as people and cars during the day, and illuminated objects such as neon lights and car headlights during the night. In order to identify this disturbance event and the fire area, we perform a motion analysis based on tracking the changed area. In tracking, the change areas obtained in time series are integrated and the change areas caused by the same event are integrated into one group. Integration of change areas cannot be achieved by simply performing a logical sum between change areas obtained over time. Here, the integration uses a method to predict the expansion range of the changing area by using the location and attribute information of buildings, geographical information such as roads, etc.

統合された火災による変化領域は単調に拡張していくと
考えられる。一方、混乱イベントに起因する変化領域の
大きさは制限される。そこで、統合された変化領域の拡
張性を調べることで、火災かどうか識別するのである。
It is thought that the area of change due to integrated fires will monotonically expand. On the other hand, the size of the region of change caused by a disruptive event is limited. Therefore, by examining the expandability of the integrated change area, we can identify whether or not it is a fire.

第3図は変化領域検出手段12の一構成例を示す。FIG. 3 shows an example of the structure of the change area detection means 12.

監視画像取り込み手段11より供給される現時点の監視
画像と前画像記憶手段21に記憶されている前時点の監
査画像の差分を差分手段22で求める。この差分結果は
あらかじめ設定されたしきい値で2値化手段23により
2値化され大きく変化している領域が抽出される。2値
化結果はラベリング手段24により、連結した領域ごと
に異なるラベルが与えられる。以後、このラベル付けさ
れた画像をラベル付は差分画像をLDI、各連結領域を
CRとする。
A difference means 22 calculates the difference between the current monitoring image supplied from the monitoring image capturing means 11 and the previous inspection image stored in the previous image storage means 21. This difference result is binarized by the binarization means 23 using a preset threshold value, and regions with large changes are extracted. The binarization result is given a different label to each connected region by the labeling means 24. Hereafter, this labeled image is labeled, the difference image is labeled as LDI, and each connected region is labeled as CR.

CRは火災領域の候補として、後述する統合手段13に
供給される。
The CR is supplied as a fire area candidate to an integrating means 13, which will be described later.

次に第4図乃至第9図に基づき統合手段13の処理手順
について説明する。統合は時系列的に得られるLDI上
の各CRを同一イベントごとに関係づけることにより行
う。この統合結果は統合化ラベル付は差分画像(ALD
Iとする)及びグルーピング情報テーブルの2つの形態
で保存される。
Next, the processing procedure of the integrating means 13 will be explained based on FIGS. 4 to 9. Integration is performed by relating each CR on the LDI obtained in chronological order to the same event. This integration result is a differential image (ALD) with an integrated label.
I) and grouping information table.

ALDIはLDIのCRを累積したラベル画像である。ALDI is a label image in which CRs of LDI are accumulated.

これらの各ラベル領域(以下LRと呼ぶ)は、同一イベ
ントごとに一つのグループとして統合化されている。各
グループには、最初にLDI上に生成されたCR(種と
する)が存在する。この種は、火災の場合は出火地点を
意味する。(第4図参照)グルーピング情報テーブルは
各グループに関する。グループID、グループとして統
合されている領域の面積とその境界データ、グループが
生成されてからの経過時間、グループが形成される過程
の履歴情報(LR間の近接関係)からなる。(第5図参
照) 統合手段13は前時点までの統合結果と重複している変
化領域を同一の動物体として統合する統合手段■と前時
点の統合結果より現時点での変化領域の拡張範囲を予測
し、この拡張範囲に包含されるところの変化領域を同一
イベントとして統合する統合手段■からなる。
These label areas (hereinafter referred to as LR) are integrated into one group for each same event. Each group has a CR (seed) that is initially generated on the LDI. In the case of a fire, this type refers to the point of origin. (See FIG. 4) The grouping information table relates to each group. It consists of the group ID, the area of the area integrated as a group and its boundary data, the elapsed time since the group was created, and the history information of the process of forming the group (proximity relationship between LRs). (Refer to Fig. 5) The integrating means 13 integrates the change area that overlaps with the integration result up to the previous point in time as the same animal body, and the integrating means 13 calculates the expansion range of the change area at the present time based on the integration result at the previous point in time. It consists of an integrating means (2) that predicts and integrates the change areas included in this expanded range as the same event.

まず、第6図に基づき、統合手段■の処理手順について
説明する。前ALDI及び統合化情報テーブルはシステ
ム起動時に初期化されているとする。
First, the processing procedure of the integrating means (2) will be explained based on FIG. It is assumed that the previous ALDI and integrated information tables have been initialized at system startup.

はじめに前AL旧を現時点のALDIとする(ステップ
101)。LDI上のCRを順次取り出し、現ALDI
上に重複するLRが存在するか調べる。CRがどのLR
Iこ重複するかの判定は一つづ取り出しくステ・ツブ1
02)、こOCRと現ALD lとの理論和をとり、そ
の結果をラベリングして、各連結領域とCRの包含関係
を調べ(ステップ103)、包含するところの連結領域
の面積が包含されるCRの面積と異なる場合に、CRは
そのLRに重複するものとする(ステ・ツブ104)。
First, the previous AL old is set as the current ALDI (step 101). The CRs on the LDI are taken out sequentially and the current ALDI
Check whether there is a duplicate LR above. Which LR is CR?
To determine if this is a duplicate, take out one by one Step 1
02), calculate the logical sum of this OCR and the current ALD l, label the result, check the inclusion relationship between each connected region and CR (step 103), and the area of the connected region to be included is included. If the area is different from the area of the CR, the CR is assumed to overlap the LR (Step 104).

重複するCRは現ALD Iに新LRとして追加される
(ステップ105)。CRが単一のグル−プ1こ重複す
るか複数のグループに重複するか調べる(ステップ10
B)。重複するグループが単一か複数力)の判定は、前
述したCRを包含するところの連結領域と各LRとの包
含関係により重複するLRを調べ、重複するLRが属す
るところのグループを調べることにより行う(ステップ
106)。重複するグル−プが単一の場合は、そのグル
ープに関する統合イヒ情報を更新する(ステップ107
)。複数のグル−プに重複する場合は、代表するグルー
プを選択し、他の重複するところのグループに関する統
合化情報をこの代表グループに統合した後、更新を行う
The duplicate CR is added to the current ALD I as a new LR (step 105). Check whether CRs overlap in a single group or in multiple groups (step 10)
B). To determine whether the overlapping group is single or multiple, check the overlapping LR based on the inclusion relationship between the connected region that includes the CR and each LR, and check the group to which the overlapping LR belongs. (step 106). If there is only one overlapping group, update the integrated information regarding that group (step 107).
). If the information overlaps with a plurality of groups, select a representative group, integrate the integrated information regarding other overlapping groups into this representative group, and then update.

代表グループはグループが生成されてからの経過時間が
一番長いものとする(ステップ108)。
Assume that the representative group is the one for which the longest elapsed time has passed since the group was created (step 108).

以上の処理をLDI上の全てのCRについて実行する(
ステップ109)。
Execute the above process for all CRs on LDI (
Step 109).

次に、第7図に基づき、統合手段■の処理手順について
説明する。統合手段■では前述した統合手段■で統合さ
れなかったCRに対して実行される。
Next, the processing procedure of the integrating means (2) will be explained based on FIG. The integration means (2) is executed for the CRs that were not integrated by the above-mentioned integration means (2).

はじめに統合情報テーブルより各グループの統合情報を
順次り出しくステップ210)、各グループの現時点の
拡張域を予測するために煙検出か炎検出かの処理モード
を調べる(ステップ202)。煙検出の場合、その拡張
域は第8図に示すように、グループの境界情報と煙の拡
散モデルに基づき算出される。グループの境界情報の算
出は、グループを構成している各LRの位置情報のYr
AinとYmax。
First, the integrated information of each group is sequentially retrieved from the integrated information table (step 210), and the processing mode of smoke detection or flame detection is checked in order to predict the current expansion area of each group (step 202). In the case of smoke detection, the expansion area is calculated based on group boundary information and a smoke diffusion model, as shown in FIG. Calculation of group boundary information is based on Yr of the position information of each LR making up the group.
Ain and Ymax.

及びこのYwinとYmaxの間をY方向に数分割した
ところの、各分割領域に含まれるLRのXm1nとXI
aaxの値からもとめる。この境界情報を基に左、右及
び上昇方向の各方向に対する煙の拡散モデル(拡散幅)
から拡張域を求める。拡散モデルは煙の上昇方向、風向
に向って大きく拡張するように、予め実験的に設定して
おく (ステップ203)。炎検出の場合、その拡張域
は延焼モデル(例えば、代表的なモデルとして浜田モデ
ルがある)を利用して次のように行う。このモデルは、
風向・風力、建物の形態等に基づき、時間毎のある建物
から近傍の建物に延焼していく領域を推定するものであ
る。
And Xm1n and XI of LR included in each divided area when the area between Ywin and Ymax is divided into several parts in the Y direction.
Determine from the value of aax. Based on this boundary information, a smoke diffusion model (diffusion width) for each direction: left, right, and upward direction.
Find the extended area from. The diffusion model is experimentally set in advance so that it expands greatly in the rising direction of smoke and in the direction of the wind (step 203). In the case of flame detection, the expansion area is determined using a fire spread model (for example, the Hamada model is a typical model) as follows. This model is
The method estimates the area where fire will spread from a certain building to nearby buildings at each hour based on wind direction, wind strength, building shape, etc.

この様子を第9図に示している。そこで前時点のグルー
プの境界情報、グループ境界近傍の建屋形態情報及び風
向・風力に基づき、現時点の延焼範囲を予測する(ステ
ップ204)。次にステップ203あるいはステップ2
04で算出された拡張域内に含まれるCRが存在するか
否かを調べ(ステップ205)、包含されるCRは現A
LDIに新LRとして追加する(ステップ20B)。ま
た包含するところのグループに関する統合情報の更新を
する(ステップ207)。以上の処理を統合情報処理テ
ーブルに登録されている全てのグループについて実行す
る(ステップ208)。全てのグループについて以上の
処理を実行した後、各グループの統合情報を調べ、グル
ープ間でLRが重複している場合は、重複しているとこ
ろのグループを統合手段■と同様にして一つの代表グル
ープ−つに統合する(ステ・ノブ209)。この時点で
未統合のCRが存在する場合は以下の処理を実行する(
ステ・ノブ210)。まず未統合のCRを順次取り出し
くステ・ノブ211)、マスク領域内に含まれるか否か
を調べる(ステ・ツブ212)。マスク内に含まれない
場合は、そのCRを新たな火災領域の候補として現^L
旧に追加される(ステップ214)。そして、CRに関
する情報を統合情報テーブルに新規に登録する(ステ・
ツブ215)。火災は道路、木、ネオンライトなどの予
めマスクされている領域からは出火しないと仮定し、マ
スク領域内に含まれるCRは雑音と判断し、このCRに
ついては現^1.DI及び統合情報テーブルに対しても
何も作用しない。以上の処理を未統合の全てのCRに対
して実行する(ステップ216)。現^LD+及び統合
情報テーブルの情報は判定手段14に供給される。
This situation is shown in FIG. Therefore, the current fire spread range is predicted based on the group boundary information at the previous point in time, the building form information near the group boundary, and the wind direction and wind force (step 204). Next step 203 or step 2
It is checked whether or not there is a CR included in the extended area calculated in step 04 (step 205), and the included CR is the current A
Add it to LDI as a new LR (step 20B). Also, the integrated information regarding the included group is updated (step 207). The above processing is executed for all groups registered in the integrated information processing table (step 208). After performing the above processing for all groups, check the integration information of each group, and if the LRs overlap between groups, merge the overlapping groups into one representative using the same method as the integration method ■. group - integrate into one (Ste Nobu 209). If there is an unintegrated CR at this point, execute the following process (
Ste Nobu 210). First, unintegrated CRs are sequentially taken out (step knob 211), and it is checked whether they are included in the mask area (step knob 212). If it is not included in the mask, select that CR as a new fire area candidate.
It is added to the old (step 214). Then, information related to CR is newly registered in the integrated information table (step
Whelk 215). It is assumed that fires do not start from areas that have been masked in advance, such as roads, trees, and neon lights, and that CR included within the masked area is determined to be noise. It also has no effect on the DI and integrated information table. The above process is executed for all unintegrated CRs (step 216). The information of the current LD+ and the integrated information table is supplied to the determination means 14.

第10図は判定手段14の処理手順を示す。火災か否か
の判定は各グループの面積と経過時間に基づいて行われ
る。はじめに統合情報テーブルより各グループの統合情
報を順次取り出しくステップ501)、各グループの統
合領域の面積と経過時間を調べる(ステップ502)。
FIG. 10 shows the processing procedure of the determining means 14. Whether or not there is a fire is determined based on the area of each group and the elapsed time. First, the integrated information of each group is sequentially extracted from the integrated information table (step 501), and the area and elapsed time of the integrated area of each group are checked (step 502).

統合領域の面積が一定値以上の場合は、火災領域である
として、火災地点を出力するとともに警報を発し、管理
者の指示をまつ(ステップ504)。統合領域の面積が
一定値以下で、且つ一定時間経過している場合、雑音で
あるとして、そのグループに関するカレントAL旧上の
Li2及び統合情報テーブル上の統合情報を削除する(
ステップ503)。以上の処理を全てののグループに対
して実行する(ステップ505)。
If the area of the integrated area is greater than a certain value, it is determined that it is a fire area, and the location of the fire is output, an alarm is issued, and instructions are given by the administrator (step 504). If the area of the integrated area is less than a certain value and a certain period of time has elapsed, it is considered noise and the Li2 on the current AL and the integrated information on the integrated information table for that group are deleted (
Step 503). The above processing is executed for all groups (step 505).

全てのグループについて処理したら現ALDIを前AL
旧として終了する(ステップ506)。
After processing all groups, change the current ALDI to the previous AL
The process ends as old (step 506).

以上の処理を時系列に得られる監視画像について繰り返
し実行することにより、火災の発生を自動検知する。
By repeatedly performing the above processing on monitoring images obtained in chronological order, the occurrence of a fire is automatically detected.

〔発明の効果〕〔Effect of the invention〕

以上、実施例にもとづいて具体的に説明したように本発
明によれば、時系列に得られる可視映像より変化領域を
抽出し、この変化領域を同一イベントごとに統合し、統
合された変化領域の特徴量により火災か否かを判定する
ことにより、経済的で検知精度の高い実用的な火災検知
装置を実現することができる。
As described above in detail based on the embodiments, according to the present invention, changing regions are extracted from visible images obtained in time series, these changing regions are integrated for each same event, and the integrated changing regions are By determining whether or not there is a fire based on the feature amount, it is possible to realize a practical fire detection device that is economical and has high detection accuracy.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は実施例の概略構成図、第2図は煙及び炎検出手
段の構成図、第3図は変化領域検出手段の構成図、第4
図は統合化ラベル付は画像の例を示す図、第5図は統合
化情報テーブルの例を示す図、第6図は統合手段■の処
理のフローチャート、第7図は統合手段■の処理のフロ
ーチャート、第8図は煙拡散領域予測の説明図、第9図
は延焼予測の説明図、第1O図は判定手段のフローチャ
ートである。 1・・・撮像手段 2・・・判断手段 3・・・起動手段 4・・・煙検出手段 5・・・炎検出手段 11・・・監視画像取り込み手段 12・・・変化領域検出手段 13・・・統合手段 14・・・判定手段 21・・・前画像記憶手段 22・・・差分手段 23・・・2値化手段 24・・・ラベリング手段
FIG. 1 is a schematic diagram of the embodiment, FIG. 2 is a diagram of the smoke and flame detection means, FIG. 3 is a diagram of the change area detection means, and FIG.
The figure shows an example of an image with an integrated label, Figure 5 shows an example of an integrated information table, Figure 6 is a flowchart of the process of the integrating means ■, and Figure 7 shows the process of the integrating means ■. FIG. 8 is an explanatory diagram of smoke diffusion area prediction, FIG. 9 is an explanatory diagram of fire spread prediction, and FIG. 1O is a flowchart of the determination means. 1... Imaging means 2... Determination means 3... Starting means 4... Smoke detection means 5... Flame detection means 11... Surveillance image capturing means 12... Change area detection means 13. ... Integration means 14 ... Judgment means 21 ... Previous image storage means 22 ... Differentiation means 23 ... Binarization means 24 ... Labeling means

Claims (3)

【特許請求の範囲】[Claims] (1)カメラからの監視画像を時系列に取り込み、所定
の画像処理を行われた画像から火災の発生を検知する火
災検知装置において、火災発生の検知を煙によって検出
する第1のモードかまたは炎によって検出する第2のモ
ードかを判定し切替える手段と、この手段により第1の
モードが選択された場合に、前記画像から煙領域を検出
し、第2のモードが選択された場合に、前記画像から炎
領域を検出する検出手段とを具備し、発生した煙あるい
は炎によって火災を検知することを特徴とする火災検知
装置。
(1) In a fire detection device that captures monitoring images from a camera in chronological order and detects the occurrence of a fire from images that have been subjected to predetermined image processing, the first mode detects the occurrence of a fire using smoke; or means for determining and switching to a second mode of detection based on flame; detecting a smoke area from the image when the first mode is selected by the means; and when the second mode is selected; A fire detection device comprising a detection means for detecting a flame area from the image, and detects a fire based on generated smoke or flames.
(2)カメラからの監視画像を時系列に取り込む手段と
、この手段により取り込まれた画像の変化領域を検出す
る手段と、この手段により検出された変化領域を同一イ
ベントごとに統合記憶する手段と、この手段により統合
された結果により火災か否かを判定する手段を具備する
ことを特徴とする火災検知装置。
(2) means for capturing monitoring images from the camera in chronological order; means for detecting changed areas in the images captured by this means; and means for integratedly storing changed areas detected by this means for each same event; , a fire detection device characterized by comprising means for determining whether or not there is a fire based on the results integrated by this means.
(3)統合手段は、前時点までの統合結果と重複してい
る変化領域を同一イベントとして統合する第1の統合手
段と、前時点までの統合結果より現時点での変化領域の
拡張範囲を予測し、この拡張範囲に包含されるところの
変化領域を同一イベントとして統合する第2の統合手段
とを具備することを特徴とする請求項2記載の火災検知
装置。
(3) The integration means includes a first integration means that integrates change areas that overlap with the integration results up to the previous point in time as the same event, and a first integration means that predicts the expansion range of the change area at the current time based on the integration results up to the previous point in time. 3. The fire detection device according to claim 2, further comprising second integrating means for integrating the change areas included in the expanded range as the same event.
JP32088290A 1990-11-27 1990-11-27 Fire detector Pending JPH04191999A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32088290A JPH04191999A (en) 1990-11-27 1990-11-27 Fire detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32088290A JPH04191999A (en) 1990-11-27 1990-11-27 Fire detector

Publications (1)

Publication Number Publication Date
JPH04191999A true JPH04191999A (en) 1992-07-10

Family

ID=18126321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32088290A Pending JPH04191999A (en) 1990-11-27 1990-11-27 Fire detector

Country Status (1)

Country Link
JP (1) JPH04191999A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006911A (en) * 2013-07-24 2014-01-16 Nohmi Bosai Ltd Smoke detection device
JP2017102718A (en) * 2015-12-02 2017-06-08 能美防災株式会社 Flame detection device and flame detection method
JP2017191544A (en) * 2016-04-15 2017-10-19 ホーチキ株式会社 Fire detector and method for detecting fire

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006911A (en) * 2013-07-24 2014-01-16 Nohmi Bosai Ltd Smoke detection device
JP2017102718A (en) * 2015-12-02 2017-06-08 能美防災株式会社 Flame detection device and flame detection method
JP2017191544A (en) * 2016-04-15 2017-10-19 ホーチキ株式会社 Fire detector and method for detecting fire

Similar Documents

Publication Publication Date Title
CN101334924B (en) Fire hazard probe system and its fire hazard detection method
US7991187B2 (en) Intelligent image smoke/flame sensor and detection system
JP5976237B2 (en) Video search system and video search method
JP3812985B2 (en) Automatic monitoring device
CN105931411A (en) Firefighting remote monitoring and early warning platform of multistoried building and realization method of platform
RU2380758C2 (en) Method and device for smoke detection
US8614744B2 (en) Area monitoring using prototypical tracks
CN106650584B (en) Flame detecting method and system
US20170053191A1 (en) Image analysis system, image analysis method, and storage medium
CN109191761A (en) A kind of method for recognizing fire disaster based on flame multiple features fusion
JPH09330415A (en) Picture monitoring method and system therefor
JP6013923B2 (en) System and method for browsing and searching for video episodes
CN105844659A (en) Moving part tracking method and device
KR101697060B1 (en) Method of sening event and apparatus performing the same
CN111862508B (en) Monitoring method, monitoring apparatus, and computer-readable storage medium
JP3664784B2 (en) Wide area monitoring device
US20120147182A1 (en) Method to monitor an area
JPH05334572A (en) Room monitoring device
JPH04191999A (en) Fire detector
JP6253950B2 (en) Image surveillance system
CN103402079A (en) VW (Video Wall)-based intelligent tracking, storing and displaying method for abnormal events
CN116403162A (en) Airport scene target behavior recognition method and system and electronic equipment
CN115965894A (en) Patrol robot control method and device, electronic equipment and storage medium
CN111901562B (en) Campus-oriented audio and video intelligent monitoring system
KR20030040434A (en) Vision based method and apparatus for detecting an event requiring assistance or documentation