JP6942029B2 - Fire monitoring system - Google Patents

Fire monitoring system Download PDF

Info

Publication number
JP6942029B2
JP6942029B2 JP2017207801A JP2017207801A JP6942029B2 JP 6942029 B2 JP6942029 B2 JP 6942029B2 JP 2017207801 A JP2017207801 A JP 2017207801A JP 2017207801 A JP2017207801 A JP 2017207801A JP 6942029 B2 JP6942029 B2 JP 6942029B2
Authority
JP
Japan
Prior art keywords
fire
neural network
unit
monitoring
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017207801A
Other languages
Japanese (ja)
Other versions
JP2019079446A (en
Inventor
弘道 江幡
弘道 江幡
浩生 菊池
浩生 菊池
真希 楠見
真希 楠見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hochiki Corp
Original Assignee
Hochiki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hochiki Corp filed Critical Hochiki Corp
Priority to JP2017207801A priority Critical patent/JP6942029B2/en
Publication of JP2019079446A publication Critical patent/JP2019079446A/en
Application granted granted Critical
Publication of JP6942029B2 publication Critical patent/JP6942029B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視カメラで撮像した監視領域の画像からニューラルネットワークにより火災を判断して警報させる火災監視システムに関する。 The present invention relates to a fire monitoring system that determines and warns a fire by a neural network from an image of a monitoring area captured by a surveillance camera.

従来、煙感知器や熱感知器など、特定の物理量を監視するセンサを用いて、火災を検出するシステムが実用化されている。 Conventionally, a system for detecting a fire using a sensor that monitors a specific physical quantity such as a smoke detector or a heat detector has been put into practical use.

一方、従来、監視カメラで撮像した監視領域の画像に対し画像処理を施すことにより、火災を検知するようにした様々な装置やシステムが提案されている。 On the other hand, conventionally, various devices and systems have been proposed in which a fire is detected by performing image processing on an image of a surveillance area captured by a surveillance camera.

このような火災監視システムにあっては、火災発生に対する初期消火や避難誘導の観点から火災の早期発見が重要である。 In such a fire monitoring system, early detection of a fire is important from the viewpoint of initial fire extinguishing and evacuation guidance.

このため従来装置(特許文献1)にあっては、画像から火災に伴う煙により起きる現象として、透過率又はコントラストの低下、輝度値の特定値への収束、輝度分布範囲が狭まって輝度の分散の低下、煙による輝度の平均値の変化、エッジの総和量の低下、低周波帯域の強度増加を導出し、これらを総合的に判断して煙の検出を可能としている。 For this reason, in the conventional device (Patent Document 1), as phenomena caused by smoke accompanying a fire from an image, a decrease in transmittance or contrast, a convergence of a brightness value to a specific value, and a narrowing of the brightness distribution range to disperse the brightness. The decrease in brightness, the change in the average brightness due to smoke, the decrease in the total amount of edges, and the increase in intensity in the low frequency band are derived, and these are comprehensively judged to enable smoke detection.

特開2008−046916号公報Japanese Unexamined Patent Publication No. 2008-046916 特開平7−245757号公報Japanese Unexamined Patent Publication No. 7-245757 特開2010−238028号公報JP-A-2010-238028 特開平6−325270号公報Japanese Unexamined Patent Publication No. 6-325270

しかしながら、特定の物理量を監視するセンサを用いた火災検出システムは、火災でない事象により監視基準が満たされた場合でも火災とみなし、正しく火災を判定できない問題があった。 However, a fire detection system using a sensor that monitors a specific physical quantity has a problem that even if a monitoring standard is satisfied due to a non-fire event, it is regarded as a fire and the fire cannot be correctly determined.

また、従来の火災に伴う煙の画像から火災を検知する火災監視システムにあっては、煙の画像における透過率、コントラスト、エッジ等の煙の特徴量を予め定め、監視カメラで撮像した画像を処理することで煙による特徴を生成しなければならず、火災による煙の発生状況は多種多様であり、その中に煙としてどのような特徴があるかを見出すことは極めて困難であり、決め手となる特徴がなかなか見いだせないため、監視画像から火災による煙を精度良く判断して火災警報を出力する火災監視システムは実用化の途上にある。 Further, in a conventional fire monitoring system that detects a fire from an image of smoke associated with a fire, the characteristics of smoke such as transparency, contrast, and edge in the smoke image are determined in advance, and the image captured by the surveillance camera is used. It is necessary to generate smoke characteristics by processing, and there are various situations of smoke generation due to fire, and it is extremely difficult to find out what kind of smoke characteristics there are, and it is a decisive factor. Since it is difficult to find the characteristic, a fire monitoring system that accurately judges smoke caused by a fire from a monitoring image and outputs a fire alarm is in the process of being put into practical use.

一方、近年にあっては、例えば多数の猫と犬の画像にラベル付けをし、それを畳み込みニューラルネットワークを備えた多層式のニューラルネットワークに学習させ、所謂ディープラーニングを行い、新たな画像を学習済みの多層式のニューラルネットワークに提示し、それが猫なのか犬なのかを判定する技術が開示されている。 On the other hand, in recent years, for example, a large number of images of cats and dogs are labeled, and they are trained by a multi-layer neural network equipped with a convolutional neural network, so-called deep learning is performed, and new images are learned. A technique for presenting to a pre-existing multi-layer neural network and determining whether it is a cat or a dog is disclosed.

また、ディープラーニングは画像解析のみにとどまらず、自然言語処理や行動解析等に用いることが検討されている。 Further, deep learning is being studied to be used not only for image analysis but also for natural language processing and behavior analysis.

このような多層式のニューラルネットワークを、監視カメラで撮像した監視領域の画像を入力情報とし、入力情報から火災を判定する火災検出器に設け、学習時においては多数の火災時及び非火災時の入力情報を準備して多層式のニューラルネットワークに学習させ、監視時においては入力情報を学習済みの多層式のニューラルネットワークに入力すれば、その出力から火災か否かを高い精度で推定して警報を出力させる火災監視システムが構築可能となる。 Such a multi-layered neural network is provided in a fire detector that determines a fire from the input information by using an image of a monitoring area captured by a surveillance camera as input information, and during learning, a large number of fires and non-fires occur. If the input information is prepared and trained by the multi-layered neural network, and the input information is input to the trained multi-layered neural network during monitoring, it is estimated with high accuracy whether it is a fire or not from the output and an alarm is issued. It becomes possible to construct a fire monitoring system that outputs.

ところで、多層式のニューラルネットワークを備えた火災検出器の監視環境は、通常の火災感知器では監視しづらい場所が対象となり、例えば、ボイラー室、電気室、サーバルーム等、特殊な監視環境が想定される。 By the way, the monitoring environment of a fire detector equipped with a multi-layer neural network is intended for places where it is difficult to monitor with a normal fire detector. For example, a special monitoring environment such as a boiler room, an electric room, or a server room is assumed. Will be done.

しかしながら、施設やビル等の一般的な監視環境での火災画像により火災検出器の多層式のニューラルネットワークを学習した場合、ボイラー室、電気室、サーバルーム等の特殊な監視環境で発生する油火災や電気火災等に対し火災検出器による火災の判定精度が落ちる虞れがある。 However, when a multi-layered neural network of fire detectors is learned from fire images in a general monitoring environment such as a facility or building, an oil fire that occurs in a special monitoring environment such as a boiler room, an electric room, or a server room. There is a risk that the accuracy of fire judgment by the fire detector will drop for electric fires and the like.

本発明は、監視環境から発生しやすい火災に対し多層式のニューラルネットワークを備えた火災検出器により高い感度での火災の判定を可能とする火災監視システムを提供することを目的とする。 An object of the present invention is to provide a fire monitoring system capable of determining a fire with high sensitivity by using a fire detector provided with a multi-layer neural network for a fire that is likely to occur from a monitoring environment.

(第1発明の火災監視システム)
本発明は、多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、
監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、
環境火災判別部により判定された種類の火災により火災検出器の多層式のニューラルネットワークをディープラーニングにより学習させる学習制御部と、
監視領域の入力情報を学習済みの火災検出器に入力した場合に出力される火災推定値を所定の閾値と比較して火災を判定する火災判定部と、
が設けられたことを特徴とする。
(Fire monitoring system of the first invention)
The present invention is a fire monitoring system that detects a fire based on the input information of the monitoring area by using a fire detector composed of a multi-layer neural network.
An environmental fire discriminator that determines the types of fires that are likely to occur from the monitoring environment in the monitoring area,
A learning control unit that learns a multi-layered neural network of a fire detector by deep learning based on the type of fire determined by the environmental fire discrimination unit.
A fire judgment unit that judges a fire by comparing the fire estimate output when the input information of the monitoring area is input to the trained fire detector with a predetermined threshold value, and
Is provided.

(環境火災の優先度)
環境火災判別部は、監視領域の監視環境から複数種類の火災を判別した場合に、発生しやすい火災の順に優先度を設定し、
学習制御部は、環境火災判別部で判定された優先度の高い1又は複数種類の火災により火災検出器の多層式のニューラルネットワークをディープラーニングにより学習させる。
(Priority of environmental fire)
When multiple types of fires are discriminated from the monitoring environment in the monitoring area, the environmental fire discrimination unit sets priorities in the order of fires that are likely to occur.
The learning control unit learns a multi-layer neural network of a fire detector by deep learning by one or a plurality of types of fires having a high priority determined by the environmental fire discrimination unit.

(第2発明の火災監視システム)
本発明の別の形態にあっては、多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、
監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、
学習制御部による火災の種類毎ディープラーニングにより学習された複数種類の火災検出器と、
入力情報を学習済みの複数種類の火災検出器に入力した場合に出力される火災推定値の各々を、火災の種類に対応した所定の閾値と比較して火災を判定する火災判定部と、
火災判定部における火災の種類に対応した閾値を、環境火災判別部で判定された火災の種類を判定しやすいように設定する閾値設定部と、
が設けられたことを特徴とする。
(Fire monitoring system of the second invention)
In another embodiment of the present invention, in a fire monitoring system that detects a fire based on input information in a monitoring area by using a fire detector composed of a multi-layer neural network.
An environmental fire discriminator that determines the types of fires that are likely to occur from the monitoring environment in the monitoring area,
A plurality of types of fire detectors learned by deep learning for each type of fire by the learning control unit,
A fire judgment unit that determines a fire by comparing each of the fire estimates output when input information is input to a plurality of types of trained fire detectors with a predetermined threshold value corresponding to the type of fire.
A threshold setting unit that sets a threshold value corresponding to the type of fire in the fire determination unit so that the type of fire determined by the environmental fire determination unit can be easily determined.
Is provided.

(発生しやすい火災の種類に対応した閾値の設定)
閾値設定部は、環境火災判別部により判定された火災の種類に対応した閾値を、それ以外の火災の種類に対応した閾値に対し低い値に設定する。
(Setting the threshold value according to the type of fire that is likely to occur)
The threshold value setting unit sets a threshold value corresponding to the type of fire determined by the environmental fire discrimination unit to a value lower than the threshold value corresponding to other types of fire.

(発生しやすい火災の自動判定)
環境火災判別部は、
撮像部により撮像された監視領域の画像を解析し、画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、
画像解析部から出力された画像に含まれる要素の単語を、辞書に予め記憶した所定の監視環境を示す単語と比較して監視領域の環境を推定し、推定した監視環境に対応して発生しやすい火災の種類を判定する火災種類判定部と、
が設けられる。
(Automatic judgment of fires that are likely to occur)
The environmental fire discrimination unit
An image analysis unit composed of a multi-layer neural network that analyzes the image of the monitoring area captured by the imaging unit and outputs the elements contained in the image as words.
The environment of the monitoring area is estimated by comparing the word of the element included in the image output from the image analysis unit with the word indicating the predetermined monitoring environment stored in the dictionary in advance, and it is generated corresponding to the estimated monitoring environment. A fire type determination unit that determines the types of fires that are easy to make, and a fire type determination unit
Is provided.

(入力情報)
火災検出器は、センサにより検出された物理量及び又は撮像部により撮像された監視領域の画像を入力情報として入力することで火災推定値を出力する。
(Input information)
Fire detector outputs a fire estimate by inputting an image of a monitoring region captured by the physical quantity and or imaging unit, which is detected by the sensor as the input information.

(監視環境と火災の種類)
監視環境は、ボイラー室、電気室、サーバルーム、調理室、実験室を含み、
環境火災判別部で判定される火災の種類は、燻焼火災、油火災、電気火災及び薬品火災を含む。
(Monitoring environment and type of fire)
The monitoring environment includes a boiler room, an electric room, a server room, a cooking room, and a laboratory.
The types of fires determined by the environmental fire discrimination unit include smoked fires, oil fires, electric fires and chemical fires.

火災検出器の多層式ニューラルネットワークの機能構成)
火災検出器の多層式のニューラルネットワークは、特徴抽出部と認識部で構成され、
特徴抽出部は、入力情報を入力することで入力情報の特徴が抽出された特徴情報を生成する複数の畳み込み層を備えた畳み込みニューラルネットワークとし、
認識部は、畳み込みニューラルネットワークから出力される特徴情報を入力
することで火災推定値を出力する全結合ニューラルネットワークとする。
(Functional configuration of multi-layer neural network of fire detector)
The multi-layer neural network of the fire detector consists of a feature extraction unit and a recognition unit.
The feature extraction unit is a convolutional neural network having a plurality of convolutional layers that generate feature information from which the features of the input information are extracted by inputting the input information.
The recognition unit inputs the feature information output from the convolutional neural network.
By doing so, it becomes a fully connected neural network that outputs fire estimates.

(バックプロパゲーションによる学習)
学習制御部は、火災検出器の多層式のニューラルネットワークに学習情報を入力した場合に出力される値と所定値の期待値との誤差に基づくバックプロパゲーションにより、火災検出器の多層式のニューラルネットワークを学習させる。
(Learning by backpropagation)
The learning control unit uses backpropagation based on the error between the value output when learning information is input to the multi-layer neural network of the fire detector and the expected value of a predetermined value, and the multi-layer neural network of the fire detector. Train the network.

(火災判定根拠の明示)
火災判定部は、火災の判定に加え火災判定の根拠とした火災種別を表示させる。
(Clarification of fire judgment grounds)
In addition to the fire judgment, the fire judgment unit displays the fire type on which the fire judgment is based.

(第1発明の基本的な効果)
本発明は、多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、環境火災判別部により判定された種類の火災により火災検出器の多層式のニューラルネットワークをディープラーニングにより学習させる学習制御部と、監視領域の入力情報を学習済みの火災検出器に入力した場合に出力される火災推定値を所定の閾値と比較して火災を判定する火災判定部とが設けられたため、火災検出器により監視している監視環境に固有な発生しやすい火災に対し、より感度の高い火災の判定が可能となり、火災の早期発見により適切な対処が可能となる。
(Basic effect of the first invention)
The present invention is a type of fire that is likely to occur from the monitoring environment of the monitoring area in a fire monitoring system that detects a fire based on the input information of the monitoring area by using a fire detector composed of a multi-layered neural network. The environmental fire discrimination unit that determines the number of fires, the learning control unit that learns the multi-layered neural network of the fire detector by deep learning due to the type of fire determined by the environmental fire discrimination unit, and the input information of the monitoring area have been learned. Since a fire judgment unit is provided to judge a fire by comparing the estimated fire value output when input to the fire detector with a predetermined threshold value, it occurs uniquely to the monitoring environment monitored by the fire detector. For easy fires, it is possible to judge fires with higher sensitivity, and it is possible to take appropriate measures by early detection of fires.

(環境火災の優先度による効果)
また、環境火災判別部は、監視領域の監視環境から複数種類の火災を判別した場合に、発生しやすい火災の順に優先度を設定し、学習制御部は、環境火災判別部で判定された優先度の高い1又は複数種類の火災により火災検出器の多層式のニューラルネットワークをディープラーニングにより学習させるようにしたため、監視環境からは油火災、電気火災等に代表される有炎火災や燻焼火災等の複数種類の火災が想定されるが、発生のしやすさに応じて優先度を設定し、優先度の高い1又は複数種類の火災により火災検出器を学習しておくことで、監視環境に固有の発生しやすい火災に対し、より感度の高い火災の判定を可能とする。
(Effect of priority of environmental fire)
Further, when the environmental fire discrimination unit discriminates a plurality of types of fires from the monitoring environment in the monitoring area, the priority is set in the order of the fires that are likely to occur, and the learning control unit has the priority determined by the environmental fire discrimination unit. Since the multi-layered neural network of the fire detector is learned by deep learning by one or more types of fires with a high degree of fire, flame fires such as oil fires and electric fires and smoldering fires can be seen from the monitoring environment. Multiple types of fires such as, etc. are assumed, but by setting the priority according to the likelihood of occurrence and learning the fire detector by one or more types of fires with high priority, the monitoring environment It is possible to judge a fire with higher sensitivity for a fire that is unique to the fire.

(第2発明の基本的な効果)
本発明の別の形態にあっては、多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、学習制御部による火災の種類毎ディープラーニングにより学習された複数種類の火災検出器と、入力情報を学習済みの複数種類の火災検出器に入力した場合に出力される火災推定値の各々を、火災の種類に対応した所定の閾値と比較して火災を判定する火災判定部と、火災判定部における火災の種類に対応した閾値を、環境火災判別部で判定された火災の種類を判定しやすいように設定する閾値設定部とが設けられたため、複数種類の火災検出器が出力する火災推定値から火災を判定する閾値につき、監視環境に固有な発生しやすい火災を判定するように閾値が設定されることで、監視環境に固有の発生しやすい火災に対し、より感度の高い火災の判定を可能とする。
(Basic effect of the second invention)
In another embodiment of the present invention, in a fire monitoring system that detects a fire based on the input information of the monitoring area by using a fire detector composed of a multi-layered neural network, the monitoring environment of the monitoring area. and determining environmental fire discriminating section types prone fire from a plurality of types of fire detectors learned by deep learning for each type of fire by the learning control unit, learned plurality of types of fire detecting input information A fire judgment unit that judges a fire by comparing each of the estimated fire values output when input to the device with a predetermined threshold value corresponding to the type of fire, and a threshold value corresponding to the type of fire in the fire judgment unit. Since a threshold setting unit is provided to make it easier to determine the type of fire determined by the environmental fire determination unit, the threshold for determining a fire from the estimated fire values output by multiple types of fire detectors is monitored. By setting the threshold value to determine the fire that is likely to occur peculiar to the environment, it is possible to judge the fire that is likely to occur peculiar to the monitoring environment with higher sensitivity.

(発生しやすい火災の種類に対応した閾値の設定による効果
また、閾値設定部は、環境火災判別部により判定された火災の種類に対応した閾値を、それ以外の火災の種類に対応した閾値に対し低い値に設定するようにしたため、閾値を低い値に設定した種類の火災推定値を火災として判定しやすくなり、監視環境に固有の発生しやすい火災に対し、より感度の高い火災の判定を可能とする。
(Effect of setting a threshold value corresponding to the type of fire that is likely to occur)
In addition, the threshold value setting unit sets the threshold value corresponding to the type of fire determined by the environmental fire discrimination unit to a lower value than the threshold value corresponding to other types of fire, so that the threshold value is set to a low value. It becomes easier to judge the set type of fire estimate as a fire, and it is possible to judge a fire with higher sensitivity for a fire that is likely to occur peculiar to the monitoring environment.

(発生しやすい火災の自動判定による効果
また、環境火災判別部は、撮像部により撮像された監視領域の画像を解析し、画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、画像解析部から出力された画像に含まれる要素の単語を、辞書に予め記憶した所定の監視環境を示す単語と比較して監視領域の環境を推定し、推定した監視環境に対応して発生しやすい火災の種類を判定する火災種類判定部とが設けられたため、撮像部である監視カメラにより撮像された監視画像を解析することで、監視環境に存在する1又は複数の対象物の特徴が抽出されて単語化され、抽出された単語を辞書の監視環境を示す所定の単語と比較して一致又は類似した場合に監視領域の監視環境と推定して発生しやすい火災の種類を自動的に判定することができる。
(Effect of automatic judgment of fires that are likely to occur)
In addition, the environmental fire discrimination unit is composed of an image analysis unit composed of a multi-layered neural network that analyzes the image of the monitoring area captured by the imaging unit and outputs the elements contained in the image as words, and the image analysis unit. The environment of the monitoring area is estimated by comparing the word of the element included in the output image with the word indicating the predetermined monitoring environment stored in advance in the dictionary, and the type of fire that is likely to occur corresponding to the estimated monitoring environment. Since a fire type determination unit is provided to determine the type of fire, by analyzing the surveillance image captured by the surveillance camera, which is the imaging unit, the characteristics of one or more objects existing in the surveillance environment are extracted and converted into words. It is possible to automatically determine the type of fire that is likely to occur by comparing the extracted words with a predetermined word indicating the monitoring environment of the dictionary and estimating that it is the monitoring environment of the monitoring area when they match or are similar. ..

(入力情報による効果
また、複数の火災検出器は、センサにより検出された物理量及び又は撮像部により撮像された監視領域の画像を入力情報として入力することで火災推定値を出力するようにしたため、センサで検出された物理量や撮像部で撮像された監視領域の画像等を学習済みの複数種類の火災検出器に入力することで、高い精度で火災を判定可能とする。
(Effect of input information)
In addition, since the plurality of fire detectors output the fire estimation value by inputting the physical quantity detected by the sensor and / or the image of the monitoring area captured by the imaging unit as input information , the fire detector was detected by the sensor. By inputting physical quantities and images of the monitoring area captured by the imaging unit into a plurality of types of trained fire detectors, it is possible to determine a fire with high accuracy.

(監視環境と火災の種類による効果)
また、監視環境は、ボイラー室、電気室、サーバルーム、調理室、実験室を含み、環境火災判別部で判定される火災の種類は、燻焼火災、油火災、電気火災及び薬品火災を含むようにしたため、例えば、監視環境としてボイラー室の場合には発生しやすい火災として油火災が判定され、油火災に対しより感度の高い火災の判定が可能となり、また、電気室やサーバルームの場合には発生しやすい火災として電気火災が判定され、電気火災に対しより感度の高い火災の判定が可能となる。
(Effects of monitoring environment and type of fire)
The monitoring environment includes a boiler room, an electric room, a server room, a cooking room, and a laboratory, and the types of fires determined by the environmental fire discrimination unit include smoldering fires, oil fires, electric fires, and chemical fires. Therefore, for example, in the case of a boiler room as a monitoring environment, an oil fire is determined as a fire that is likely to occur, and it is possible to determine a fire with higher sensitivity to an oil fire, and in the case of an electric room or a server room. Electric fires are determined as fires that are likely to occur, and it is possible to determine fires that are more sensitive to electric fires.

火災検出器の多層式のニューラルネットワークの機能構成による効果)
また、火災検出器の多層式のニューラルネットワークは、特徴抽出部と認識部で構成され、特徴抽出部は、監視領域の入力情報を入力することで入力情報の特徴が抽出された特徴情報を生成する複数の畳み込み層を備えた畳み込みニューラルネットワークとし、認識部は、畳み込みニューラルネットワークから出力される特徴情報を入力することで火災推定値を出力する全結合ニューラルネットワークとするようにしたため、畳み込みニューラルネットワークにより特徴が自動的に抽出されることで、監視領域の入力情報から前処理により火災入力情報の特徴、例えば、画像に於いては輪郭等を抽出するような前処理を必要とすることなく入力情報の特徴が抽出され、引き続いて行う認識部により高い精度で火災を推定可能とする。
(Effect of functional configuration of multi-layer neural network of fire detector)
In addition, the multi-layer neural network of the fire detector is composed of a feature extraction unit and a recognition unit, and the feature extraction unit generates feature information from which the features of the input information are extracted by inputting the input information of the monitoring area. a neural network convolution having a plurality of convolutions layer, recognition unit, because the set as the total binding neural network for outputting a fire estimate by inputting the feature information output from the convolutional neural network convolution neural network By automatically extracting the features, the features of the fire input information by preprocessing from the input information of the monitoring area, for example, in the image, input without the need for preprocessing such as extracting the contour etc. The characteristics of the information are extracted, and the subsequent recognition unit makes it possible to estimate the fire with high accuracy.

(バックプロパゲーションによる学習の効果)
学習制御部は、火災検出器の多層式のニューラルネットワークに学習情報を入力した場合に出力される値と所定値の期待値との誤差に基づくバックプロパゲーション(誤差逆伝播)により、火災検出器の多層式のニューラルネットワークを学習させるようにしたため、火災の種類毎に準備された多数の入力情報を学習情報として入力した場合に、出力の期待値として火災の推定値を与えてバックプロパゲーション処理により出力値と期待値の誤差を最小とするように多層式のニューラルネットワークにおけるウェイト(重み)とバイアスが学習され、入力情報からより高い精度で火災を推定して警報可能とする。
(Effect of learning by backpropagation)
The learning control unit uses backpropagation (backpropagation of errors) based on the error between the value output when learning information is input to the multi-layer neural network of the fire detector and the expected value of a predetermined value. Since the multi-layered neural network of the above is trained, when a large number of input information prepared for each type of fire is input as learning information, the estimated value of the fire is given as the expected value of the output and backpropagation processing is performed. The weights and biases in the multi-layer neural network are learned so as to minimize the error between the output value and the expected value, and the fire can be estimated with higher accuracy from the input information and an alarm can be made.

(火災判断根拠の明示による効果)
また、火災判定部は、火災の判定に加え火災判定の根拠とした火災種別を表示させるようにしたため、発生した火災の種類がわかることで、火災の種類に対応した消火活動や避難指示を行うことを可能とする。
(Effect of clarifying the grounds for fire judgment)
In addition to the fire judgment, the fire judgment unit displays the type of fire on which the fire judgment is based. Therefore, by knowing the type of fire that has occurred, fire extinguishing activities and evacuation instructions are given according to the type of fire. Make it possible.

火災監視システムの第1実施形態を示した説明図Explanatory drawing which showed the 1st Embodiment of a fire monitoring system 図1の火災検出器及び学習制御部の機能構成を示した説明図Explanatory drawing which showed functional structure of fire detector and learning control part of FIG. 図2に示した多層式ニューラルネットワークの機能構成を示した説明図Explanatory diagram showing the functional configuration of the multi-layer neural network shown in FIG. 図1の実施形態による環境火災監視制御を示したフローチャートFlow chart showing environmental fire monitoring control according to the embodiment of FIG. 図1の環境火災判別部の機能構成を示した説明図Explanatory drawing which showed the functional structure of the environmental fire discrimination part of FIG. 図5の画像解析部に設けられた畳み込みニューラルネットワークと再帰型ニューラルネットワークの機能構成を示した説明図Explanatory drawing which showed functional structure of convolutional neural network and recurrent neural network provided in image analysis part of FIG. 火災監視システムの第2実施形態を示した説明図Explanatory drawing which showed the 2nd Embodiment of a fire monitoring system 図7の火災検出器及び学習制御部の機能構成を示した説明図Explanatory drawing which showed functional structure of fire detector and learning control part of FIG. 図7の火災判定部の機能構成を火災検出器、環境火災判別部及び閾値設定部と共に示した説明図Explanatory drawing which showed the functional structure of the fire judgment part of FIG. 7 together with a fire detector, an environmental fire judgment part and a threshold setting part. 図8の実施形態による環境火災監視制御を示したフローチャートFlow chart showing environmental fire monitoring control according to the embodiment of FIG.

[火災監視システムの第1実施形態]
図1は火災監視システムの第1実施形態を示した説明図である。図1に示すように、ビル等の施設の監視領域14には撮像部として機能する監視カメラ16が設置され、監視領域14を監視カメラ16により動画撮像している。監視カメラ16はRGBのカラー画像を例えば30フレーム/秒で撮像して動画として出力する。また、1フレームは例えば縦横4056×4056ピクセルの画素配置となる。
[First Embodiment of Fire Monitoring System]
FIG. 1 is an explanatory diagram showing a first embodiment of a fire monitoring system. As shown in FIG. 1, a surveillance camera 16 that functions as an imaging unit is installed in the monitoring area 14 of a facility such as a building, and the monitoring camera 16 captures a moving image of the monitoring area 14. The surveillance camera 16 captures an RGB color image at, for example, 30 frames / second and outputs it as a moving image. Further, one frame has, for example, a pixel arrangement of 4056 × 4056 pixels in length and width.

また、監視領域14にはそれぞれオンオフ型の火災感知器18が設置されており、火災による温度又は煙濃度を検出し、所定の閾値レベルを超えた場合に発報し、火災発報信号を出力するようにしている。 In addition, on-off type fire detectors 18 are installed in each of the monitoring areas 14, detects the temperature or smoke concentration due to the fire, issues a report when the predetermined threshold level is exceeded, and outputs a fire alarm signal. I try to do it.

このように本実施形態が監視対象とする監視領域14としては、ボイラー室、電気室、サーバルーム、調理室、実験室等の特殊な監視環境が含まれる。 As described above, the monitoring area 14 to be monitored by the present embodiment includes a special monitoring environment such as a boiler room, an electric room, a server room, a cooking room, and a laboratory.

監視領域14に対し施設の防災監視センターや管理人室等には、火災判定装置10と火災報知設備の火災受信機12が設置されている。なお、火災判定装置10と火災受信機12は一体としても良い。火災判定装置10には監視領域14に設置された監視カメラ16が信号ケーブル22により接続されており、監視カメラ16で撮像された動画画像を入力している。
A fire determination device 10 and a fire receiver 12 of a fire alarm system are installed in the disaster prevention monitoring center and the manager's room of the facility with respect to the monitoring area 14. The fire determination device 10 and the fire receiver 12 may be integrated. A surveillance camera 16 installed in the surveillance area 14 is connected to the fire determination device 10 by a signal cable 22, and a moving image image captured by the surveillance camera 16 is input.

火災受信機12からは監視領域14に感知器回線25が引き出され、感知器回線25単位に火災感知器18が接続されている。 A sensor line 25 is pulled out from the fire receiver 12 to the monitoring area 14, and a fire detector 18 is connected to each of the sensor lines 25.

火災判定装置10には、火災検出器20、環境火災判別部24、学習制御部26及び火災判定部28が設けられる。火災検出器20は多階層のニューラルネットワークを備えており、監視カメラ16により撮像した監視領域14の画像を入力して火災推定値を出力する。
The fire determination device 10 is provided with a fire detector 20, an environmental fire determination unit 24, a learning control unit 26, and a fire determination unit 28. The fire detector 20 includes a multi-layer neural network, inputs an image of the surveillance area 14 captured by the surveillance camera 16, and outputs a fire estimate value.

環境火災判別部24は、監視カメラ16により撮像した監視領域14の画像を入力し、ボイラー室、電気室、サーバルーム等の監視領域16の監視環境を推定すると共に推定したボイラー室、電気室、サーバルーム等の監視環境から発生しやすい火災の種類、例えば油火災や電気火災を判定する。 The environmental fire discrimination unit 24 inputs the image of the monitoring area 14 captured by the monitoring camera 16, estimates the monitoring environment of the monitoring area 16 such as the boiler room, the electric room, and the server room, and estimates the boiler room, the electric room, and the estimated environment. Determine the types of fires that are likely to occur from the monitoring environment such as the server room, such as oil fires and electric fires.

学習制御部26は、環境火災判別部24により判定された種類の火災により火災検出器20の多層式のニューラルネットワークをディープラーニングにより学習させる。例えば環境火災判別部24によりボイラー室の油火災が判別された場合、油火災の画像により多層式のニューラルネットワークを学習し、監視環境となるボイラー室に固有な油火災に対し、より高い感度での火災判定を可能とする。
The learning control unit 26 learns the multi-layered neural network of the fire detector 20 by deep learning due to the type of fire determined by the environmental fire determination unit 24. For example, when an oil fire in the boiler room is determined by the environmental fire discrimination unit 24, a multi-layered neural network is learned from the image of the oil fire, and the oil fire peculiar to the boiler room as a monitoring environment is more sensitive. Enables fire judgment.

また、環境火災判別部24は、監視領域14の監視環境から複数種類の火災を判別した場合は、発生しやすい火災の順に優先度を設定する。この場合、学習制御部26は、環境火災判定部24で判定された優先度の高い1又は複数種類の火災により火災検出器20の多層式のニューラルネットワークをディープラーニングにより学習させる。
Further, when a plurality of types of fires are discriminated from the monitoring environment of the monitoring area 14, the environmental fire discrimination unit 24 sets the priority in the order of the fires that are likely to occur. In this case, the learning control unit 26 learns the multi-layered neural network of the fire detector 20 by deep learning by one or a plurality of types of fires having high priority determined by the environmental fire determination unit 24.

これは監視環境によっては、複数種類の火災が発生しやすい場合があることに対応している。例えば、サーバルーム等にあっては、サーバラックに収納されたサーバマシンによる電気火災以外に、例えば運用管理に使用する取扱い説明書等がおかれていることから燻焼火災が発生する可能性もあり、この場合、環境火災判別部24は判定した電気火災の優先度を第1位とし、判定した燻焼火災の優先度を第2位とし、学習制御部26は電気火災と燻焼火災の両方により火災検出器20の多層式のニューラルネットワークをディープラーニングにより学習させる。
This corresponds to the fact that multiple types of fires may easily occur depending on the monitoring environment. For example, in a server room, etc., in addition to the electric fire caused by the server machine stored in the server rack, there is a possibility that a smoldering fire may occur because, for example, an instruction manual used for operation management is stored. In this case, the environmental fire discrimination unit 24 has the determined electric fire as the first priority, the determined smoked fire has the second priority, and the learning control unit 26 has the electric fire and the smoked fire. By both, the multi-layered neural network of the fire detector 20 is trained by deep learning.

このため火災検出器20は、監視環境から発生しやすい電気火災と燻焼火災の両方について高い感度で火災が判定できる。 Therefore, the fire detector 20 can determine a fire with high sensitivity for both an electric fire and a smoked fire that are likely to occur from the monitoring environment.

[火災検出器]
図2は図1に示した多層式ニューラルネットワークを用いた火災検出器及び学習制御部の機能構成を示した説明図である。
[Fire detector]
FIG. 2 is an explanatory diagram showing a functional configuration of a fire detector and a learning control unit using the multi-layer neural network shown in FIG.

図2に示すように、火災検出器20は、画像入力部30と多層式ニューラルネットワーク32で構成され、学習制御器26は学習画像記憶部34と制御部36で構成され、これらの機能は、ニューラルネットワークの処理に対応したコンピュータ回路のCPUによるプログラムの実行により実現される。 As shown in FIG. 2, the fire detector 20 is composed of an image input unit 30 and a multi-layer neural network 32, and the learning controller 26 is composed of a learning image storage unit 34 and a control unit 36. It is realized by executing a program by the CPU of a computer circuit corresponding to the processing of the neural network.

火災検出器20は監視カメラ16で撮像された監視領域の画像を、画像入力部30を介して多層式ニューラルネットワーク32に入力し、火災推定値を出力する。 The fire detector 20 inputs an image of the monitoring area captured by the surveillance camera 16 to the multilayer neural network 32 via the image input unit 30, and outputs a fire estimation value.

学習制御部26は、環境火災判別部24で判定された監視環境の発生しやすい火災の種類に対応した学習画像、例えば油火災であれば油火災の動画からフレーム単位に油火災画像を学習画像記憶部34から読み出し、制御部36を介して多層式ニューラルネットワーク32に教師ありの火災画像として入力し、例えばバックプロパゲーション法(誤差逆伝播法)等の学習法により多層式ニューラルネットワーク32の重みとバイアスを学習させる。
The learning control unit 26 learns a learning image corresponding to the type of fire that is likely to occur in the monitoring environment determined by the environmental fire determination unit 24, for example, in the case of an oil fire, a learning image of the oil fire image in frame units from the video of the oil fire. It is read from the storage unit 34 and input to the multi-layer neural network 32 as a supervised fire image via the control unit 36. And learn bias.

この教師ありの油火災の画像を用いて学習の済んだ多層式ニューラルネットワーク32に、監視カメラ16で撮像された例えばボイラー室等の監視領域14の火災の画像を入力すると、油火災の画像に対応した火災推定値Wが出力される。この火災検出器20から出力される火災推定値Wは学習に用いたと同様な油火災の画像の場合は火災推定値が1又は1に近い値となり、監視環境に固有な油火災をより高い感度で判定することができる。 When the image of the fire in the monitoring area 14 such as the boiler room captured by the surveillance camera 16 is input to the multi-layer neural network 32 that has been trained using the image of the oil fire with a teacher, the image of the oil fire is displayed. The corresponding fire estimate W is output. The fire estimate W output from the fire detector 20 is 1 or close to 1 in the case of the same oil fire image used for learning, and the oil fire peculiar to the monitoring environment is more sensitive. Can be determined by.

[多層式ニューラルネットワーク]
図3は図2に示した多層式ニューラルネットワークの機能構成を示した説明図であり、図3(A)に概略を示し、図3(B)に詳細を模式的に示している。
[Multi-layer neural network]
FIG. 3 is an explanatory diagram showing the functional configuration of the multi-layer neural network shown in FIG. 2, the outline is shown in FIG. 3 (A), and the details are schematically shown in FIG. 3 (B).

図3(A)に示すように、本実施形態の多層式ニューラルネットワーク32は、特徴抽出部38と認識部40で構成される。特徴抽出部38は畳み込みニューラルネットワークであり、認識部40は全結合ニューラルネットワークである。 As shown in FIG. 3A, the multi-layer neural network 32 of this embodiment is composed of a feature extraction unit 38 and a recognition unit 40. The feature extraction unit 38 is a convolutional neural network, and the recognition unit 40 is a fully connected neural network.

多層式ニューラルネットワーク32は、深層学習(ディープラーニング)を行うニューラルネットワークであり、中間層を複数つなぎ合わせた深い階層をもつニューラルネットワークであり、特徴抽出となる表現学習を行う。 The multi-layer neural network 32 is a neural network that performs deep learning, is a neural network that has a deep layer that connects a plurality of intermediate layers, and performs expression learning that is feature extraction.

通常のニューラルネットワークは、画像から火災を判定するための特徴抽出には、人為的な試行錯誤による作業を必要とするが、多層式ニューラルネットワーク32では、特徴抽出部38として畳み込みニューラルネットワークを用いることで、画像の画素値を入力とし、学習により最適な特徴を抽出し、認識部40の全結合ニューラルネットワークに入力して火災か非火災かを識別する。 A normal neural network requires work by artificial trial and error to extract features for determining a fire from an image, but in a multi-layer neural network 32, a convolutional neural network is used as a feature extraction unit 38. Then, the pixel value of the image is input, the optimum feature is extracted by learning, and the optimum feature is input to the fully connected neural network of the recognition unit 40 to identify whether it is a fire or a non-fire.

認識部40の全結合ニューラルネットワークは、図3(B)に模式的に示すように、入力層46中間層50と全結合48の繰り返し、及び出力層52で構成されている。
As schematically shown in FIG. 3B, the fully connected neural network of the recognition unit 40 is composed of an input layer 46 , an intermediate layer 50, a repetition of the fully connected 48, and an output layer 52.

(畳み込みニューラルネットワーク)
図3(B)は特徴抽出部38を構成する畳み込みニューラルネットワークの構造を模式的に示している。
(Convolutional neural network)
FIG. 3B schematically shows the structure of the convolutional neural network constituting the feature extraction unit 38.

畳み込みニューラルネットワークは、通常のニューラルネットワークとは少し特徴が異なり、視覚野から生物学的な構造を取り入れている。視覚野には、視野の小区域に対し敏感な小さな細胞の集まりとなる受容野が含まれており、受容野の挙動は、行列の形で重み付けを学習することで模倣できる。この行列は重みフィルタ(カーネル)呼ばれ、生物学的に受容野が果たす役割と同様に、ある画像の類似した小区域に対して敏感になる。
Convolutional neural networks have slightly different characteristics from ordinary neural networks and incorporate biological structures from the visual cortex. The visual cortex contains a receptive field, which is a collection of small cells that are sensitive to a small area of the visual field, and the behavior of the receptive field can be imitated by learning weighting in the form of a matrix. This matrix is called the weight filter (kernel) and is sensitive to similar subregions of an image, similar to the biological role played by receptive fields.

畳み込みニューラルネットワークは、畳み込み演算により、重みフィルタと小区域との間の類似性を表すことでき、この演算を通して、画像の適切な特徴を抽出することができる。 The convolutional neural network can express the similarity between the weight filter and the subarea by the convolution operation, and through this operation, the appropriate feature of the image can be extracted.

畳み込みニューラルネットワークは、図3(B)に示すように、まず、入力画像42に対し重みフィルタ43により畳み込み処理を行う。例えば、重みフィルタ43は縦横3×3の所定の重み付けがなされた行列フィルタであり、入力画像42の各画素にフィルタ中心を位置合わせしながら畳み込み演算を行うことで、入力画像42の9画素を小区域となる特徴マップ44aの1画素に畳み込み、複数の特徴マップ44aが生成される。
As shown in FIG. 3B, the convolutional neural network first performs convolution processing on the input image 42 by the weight filter 43. For example, the weight filter 43 is a matrix filter having a predetermined weighting of 3 × 3 in the vertical and horizontal directions, and by performing a convolution calculation while aligning the filter center with each pixel of the input image 42, 9 pixels of the input image 42 can be obtained. convolution to one pixel of feature map 44a as the subregions, a plurality of feature maps 44a is generated.

続いて、畳み込み演算により得られた特徴マップ44aに対しプーリングの演算を行う。プーリングの演算は、識別に不必要な特徴量を除去し、識別に必要な特徴量を抽出する処理である。 Subsequently, the pooling calculation is performed on the feature map 44a obtained by the convolution calculation. The pooling operation is a process of removing features unnecessary for identification and extracting features necessary for identification.

続いて、重みフィルタ45a,45bを使用した畳み込み演算とプーリングの演算を多段に繰り返して特徴マップ44b,44cが得られ、最後の層の特徴マップ44cを認識部40に入力し、通常の全結合ニューラルネットワークを用いた認識部40により火災か非火災かを推定する。 Subsequently, the convolution calculation and the pooling calculation using the weight filters 45a and 45b are repeated in multiple stages to obtain the feature maps 44b and 44c, and the feature map 44c of the last layer is input to the recognition unit 40 to perform a normal full coupling. A recognition unit 40 using a neural network estimates whether it is a fire or a non-fire.

なお、畳み込みニューラルネットワークにおけるプーリングの演算は、火災か非火災かの識別に不必要な特徴量が必ずしも明確でなく、必要な特徴量を削除する可能性があることから、プーリングの演算は行わないようにしても良い。 Note that the pooling calculation in the convolutional neural network does not perform the pooling calculation because the features unnecessary for distinguishing between fire and non-fire are not always clear and the necessary features may be deleted. You may do so.

[多層式ニューラルネットワークの学習]
(バックプロパゲーション)
入力層、複数の中間層及び出力層で構成されるニューラルネットワークは、各層に複数のユニットを設けて他の層の複数のユニットと結合し、各ユニットにはウェイト(重み)とバイアス値が設定され、複数の入力値とウェイトとのベクトル積を求めてバイアス値を加算して総和を求め、これを所定の活性化関数に通して次の層のユニットに出力するようにしており、最終層に到達するまで値が伝播するフォワードプロパゲーションが行われる。
[Learning of multi-layer neural network]
(Backpropagation)
A neural network composed of an input layer, a plurality of intermediate layers, and an output layer is provided with a plurality of units in each layer and connected to a plurality of units in other layers, and weights and bias values are set for each unit. The vector product of multiple input values and weights is calculated, the bias values are added to obtain the sum, and this is passed through a predetermined activation function and output to the unit of the next layer. Forward propagation is performed in which the value propagates until it reaches.

このようなニューラルネットワークのウェイトやバイアスを変更するには、バックプロパゲーションとして知られている学習アルゴリズムを使用する。バックプロパゲーションでは、入力値xと期待される出力値(期待値)yというデータセットをネットワークに与えた場合の教師ありの学習と、入力値xのみをネットワークに与えた場合の教師なしの学習があり、本実施形態は、教師ありの学習を行う。 To change the weights and biases of such neural networks, a learning algorithm known as backpropagation is used. In backpropagation, supervised learning when a data set of input value x and expected output value (expected value) y is given to the network, and unsupervised learning when only input value x is given to the network. In this embodiment, supervised learning is performed.

教師ありの学習でバックプロパゲーションを行う場合は、ネットワークを通ってきたフォワードプロパゲーションの結果である推定値y*と期待値yの値を比較する誤差として、例えば、平均二乗誤差の関数を使用する。 When performing backpropagation in supervised learning, for example, a function of mean square error is used as an error to compare the estimated value y * and the expected value y, which are the results of forward propagation that has passed through the network. do.

バックプロパゲーションでは、推定値y*と期待値yの誤差の大きさを使い、ネットワークの後方から前方までウェイトとバイアスを補正しながら値を伝播させる。各ウェイトとバイアスについて補正した量は、誤差への寄与として扱われ、最急降下法で計算され、ウェイトとバイアスの値を変更することにより、誤差関数の値を最小化する。 In backpropagation, the magnitude of the error between the estimated value y * and the expected value y is used to propagate the value from the rear to the front of the network while correcting the weight and bias. The corrected amount for each weight and bias is treated as a contribution to the error, calculated by the steepest descent method, and the value of the error function is minimized by changing the weight and bias values.

ニューラルネットワークに対するバックプロパゲーションによる学習の手順は次にようになる。
(1) 入力値xをニューラルネットワークに入力して、フォワードプロパゲーションを行い推定値y*を求める。
(2) 推定値y*と期待値yに基づき誤差関数で誤差を計算する。
(3) ウェイトとバイアスを更新しながら、ネットワークにて、バックプロパゲーションを行う。
The procedure for learning by backpropagation for a neural network is as follows.
(1) The input value x is input to the neural network, forward propagation is performed, and the estimated value y * is obtained.
(2) Calculate the error with an error function based on the estimated value y * and the expected value y.
(3) Backpropagation is performed on the network while updating the weight and bias.

この手順は、ニュウーラルネットワークのウェイトとバイアスの誤差が可能な限り最小になるまで、異なる入力値xと期待値yの組み合わせを使って繰り返し、誤差関数の値を最小化する。 This procedure is repeated using different combinations of input values x and expected values y to minimize the value of the error function until the error between the weight and bias of the neural network is minimized as much as possible.

[火災監視制御]
図4は図1の実施形態による火災監視制御を示したフローチャートである。図4に示すように、環境火災判別部24はステップS1で監視カメラ16により撮像された監視領域14の画像を入力して画像解析することにより例えばボイラー室であることを推定し、続いてステップS2に進み、推定したボイラー室での発生しやすい火災として油火災を判定し、学習制御部26に出力する。
[Fire monitoring control]
FIG. 4 is a flowchart showing the fire monitoring control according to the embodiment of FIG. As shown in FIG. 4, the environmental fire discrimination unit 24 estimates that it is, for example, a boiler room by inputting an image of the monitoring area 14 captured by the monitoring camera 16 in step S1 and analyzing the image, followed by a step. Proceeding to S2, an oil fire is determined as an estimated fire that is likely to occur in the boiler room, and is output to the learning control unit 26.

学習制御部26はステップS3で環境火災判別部24から出力された火災の種類、例えば油火災に基づき、図2に示したように学習画像記憶部34から油火災に対応した学習画像を読み出し、火災検出器20の多層式ニューラルネットワーク32を油火災の学習画像により学習させる。
The learning control unit 26 reads a learning image corresponding to the oil fire from the learning image storage unit 34 as shown in FIG. 2 based on the type of fire output from the environmental fire determination unit 24 in step S3, for example, an oil fire. The multi-layer neural network 32 of the fire detector 20 is trained by the learning image of the oil fire.

ステップS3で学習の済んだ火災検出器20は、ステップS4で監視カメラ16により撮像された監視領域14の画像を入力し、火災推定値を出力する。火災判定部28はステップS5で火災検出器20の火災推定値を読み込んで、ステップS6で所定の閾値と比較し、火災推定値が所定の閾値以上(又は閾値超え)の場合、ステップSに進み、火災判定信号を火災受信機12に出力し、火災予兆警報等を出力させる。
The fire detector 20 that has been learned in step S3 inputs an image of the monitoring area 14 captured by the surveillance camera 16 in step S4, and outputs a fire estimation value. Fire determination unit 28 reads a fire estimate of the fire detector 20 in step S5, and compared with a predetermined threshold value in step S6, the event of a fire estimate is equal to or greater than a predetermined threshold value (or exceeds the threshold), the step S 7 Proceed, output a fire determination signal to the fire receiver 12, and output a fire sign alarm or the like.

続いて火災判定部28はステップSに進み、環境火災判別部24により監視環境から発生しやすい火災として判定されている火災種類、例えば油火災を火災判定の根拠として例えば火災受信機12のディスプレイ上に表示させる制御を行う。このように火災判定の根拠となった火災種類が表示されることで、油火災、電気火災、薬品火災又は燻焼火災といった火災の種類に対応した消火活動や避難誘導が適切に行われることが可能となる。
Then fire determination section 28 proceeds to step S 8, environmental fire discriminating section 24 by the fire type is determined as a fire-prone from the monitoring environment, such as oil fires the basis as for example the fire receiver 12 of the fire determination display Controls the display on the top. By displaying the type of fire that is the basis of the fire judgment in this way, fire extinguishing activities and evacuation guidance corresponding to the type of fire such as oil fire, electric fire, chemical fire or smoldering fire can be appropriately performed. It will be possible.

[環境火災の自動判定]
(環境火災判別部の機能構成)
図5は図1の環境火災判別部の機能構成を示した説明図である。図5に示すように、環境火災判別部24は、画像入力部54、学習データセット記憶部56、画像解析部60及び火災種類判定部62を備える。画像解析部60は多層式ニューラルネットワークとして畳み込みニューラルネットワーク64と再帰型ニューラルネットワーク66を備え、また、畳み込みニューラルネットワーク64と再帰型ニューラルネットワーク66を学習するための学習制御部68を備えている。
[Automatic judgment of environmental fire]
(Functional configuration of environmental fire discrimination unit)
FIG. 5 is an explanatory diagram showing a functional configuration of the environmental fire discrimination unit of FIG. As shown in FIG. 5, the environmental fire determination unit 24 includes an image input unit 54, a learning data set storage unit 56, an image analysis unit 60, and a fire type determination unit 62. The image analysis unit 60 includes a convolutional neural network 64 and a recurrent neural network 66 as a multi-layer neural network, and also includes a learning control unit 68 for learning the convolutional neural network 64 and the recurrent neural network 66.

火災種類判定部62は判定器70とシソーラス辞書72で構成されている。シソーラス辞書72には監視環境を特定するための単語が環境名単位に大分類から小分類に分けて体系的に整理して記憶され、また、ボイラー室や電気室といった環境名に対応して発生しやすい火災の種類が記憶されている。 The fire type determination unit 62 includes a determination device 70 and a thesaurus dictionary 72. In the thesaurus dictionary 72, words for identifying the monitoring environment are systematically organized and memorized by dividing them into major categories and minor categories for each environment name, and are generated corresponding to environment names such as boiler room and electric room. The types of fires that are easy to do are remembered.

ここで、環境火災判別部24の機能は、多層式のニューラルネットワークの処理に対応したコンピュータ回路のCPUによるプログラムの実行により実現される。
Here, the function of the environmental fire determination unit 24 is realized by executing a program by the CPU of the computer circuit corresponding to the processing of the multi-layer neural network.

画像入力部54は監視カメラ16で撮像された監視領域14の画像を入力し、画像解析部60に出力する。画像解析部60に設けられた畳み込みニューラルネットワーク64は入力した監視画像の特徴量を抽出して出力する。再帰型ニューラルネットワーク66は畳み込みニューラルネットワーク64から出力された特徴量を入力し、入力画像の概要を説明する画像説明文を生成して出力する。
The image input unit 54 inputs the image of the monitoring area 14 captured by the surveillance camera 16 and outputs it to the image analysis unit 60. The convolutional neural network 64 provided in the image analysis unit 60 extracts and outputs the feature amount of the input monitoring image. The recurrent neural network 66 inputs the feature amount output from the convolutional neural network 64 , generates and outputs an image explanatory text explaining the outline of the input image.

火災種類判定部62の判定器70は、画像解析部60の再帰型ニューラルネットワーク66から出力された画像説明文を構成する1又は複数の単語と、シソーラス辞書72に記憶されている複数の環境判定単語とを比較し、画像説明文の単語がシソーラス辞書72の環境判定単語に一致又は類似した場合にボイラー室や電気室といった監視領域14の環境名を判定し、判定した環境名に対応して記憶している発生しやすい火災の種類を判定して出力する。 The determination device 70 of the fire type determination unit 62 determines one or a plurality of words constituting the image description output from the recursive neural network 66 of the image analysis unit 60, and a plurality of environment determinations stored in the thesaurus dictionary 72. When the word in the image description matches or is similar to the environment judgment word in the thesaurus dictionary 72 by comparing with the word, the environment name of the monitoring area 14 such as the boiler room or the electric room is judged, and the environment name corresponding to the judged environment name is judged. Determines the type of fire that is likely to occur and outputs it.

画像解析部60に設けられた畳み込みニューラルネットワーク64と再帰型ニューラルネットワーク66は、学習データセット記憶部56に予め記憶された学習画像とその画像説明文のペアからなる多数の学習データセットを使用して学習制御部68により学習されている。
The convolutional neural network 64 and the recursive neural network 66 provided in the image analysis unit 60 use a large number of training data sets consisting of a pair of a training image stored in advance in the training data set storage unit 56 and an image description thereof. It is learned by the learning control unit 68.

学習データセット記憶部56に記憶されている学習画像は、例えば、通常監視状態で監視カメラにより撮像されたボイラー室や電気室といった監視環境の多数の監視画像を学習画像として記憶している。 As the learning image stored in the learning data set storage unit 56, for example, a large number of monitoring images in a monitoring environment such as a boiler room or an electric room captured by a monitoring camera in a normal monitoring state are stored as learning images.

また、学習データセット記憶部56には、記憶された多数の監視環境の学習画像に対応して画像説明文が準備され、学習画像と画像説明文のペアからなる多数の学習データセットとして記憶されている。例えば、ボイラー室の学習画像に対しては「ボイラー、バルブ、配管が配置されている。」といった画像説明文が記憶されている。 Further, in the learning data set storage unit 56, image explanatory texts are prepared corresponding to a large number of stored learning images in the monitoring environment, and are stored as a large number of learning data sets composed of a pair of the learning image and the image explanatory text. ing. For example, for the learning image of the boiler room, an image description such as "Boiler, valve, and piping are arranged." Is stored.

学習制御部68は、入力層、複数の中間層及び全結合の出力層で構成された学習用の畳み込みニューラルネットワーク(図示せず)を準備し、まず、学習データセット記憶部56に記憶されている多数の学習画像を読み出し、学習用の畳み込みニューラルネットワークに教師なしの学習画像として入力し、バックプロパゲーション法(逆伝播法)により学習させる。 The learning control unit 68 prepares a convolutional neural network (not shown) for learning composed of an input layer, a plurality of intermediate layers, and a fully connected output layer, and is first stored in the learning data set storage unit 56. A large number of learning images are read out, input to a convolutional neural network for learning as a learning image without a teacher, and trained by a backpropagation method (backpropagation method).

続いて、学習制御部68は、学習用の畳み込みニューラルネットワーク得られたウェイトとバイアスを、出力層を持たない畳み込みニューラルネットワーク64にセットして学習済みとし、学習済みの畳み込みニューラルネットワーク64に学習画像を入力して特徴量を抽出し、抽出した特徴量と入力した学習画像とセットになっている画像説明文を再帰型ニューラルネットワーク66に教師なしの学習情報として入力し、バックプロパゲーション法(逆伝播法)により学習させる。
Subsequently, the learning control unit 68, the resulting weights and bias convolution neural network for learning, is set as the learned neural network 64 convolutional no output layer, learning trained convolutional neural network 64 An image is input to extract a feature amount, and an image description set with the extracted feature amount and the input learning image is input to the recursive neural network 66 as unsupervised learning information, and a backpropagation method (backpropagation method) Learn by backpropagation method).

[画像解析部の多層式ニューラルネットワーク]
図6は図5の画像解析部に設けられた畳み込みニューラルネットワークと再帰型ニューラルネットワークの機能構成を示した説明図である。
[Multi-layer neural network of image analysis unit]
FIG. 6 is an explanatory diagram showing a functional configuration of a convolutional neural network and a recurrent neural network provided in the image analysis unit of FIG.

(畳み込みニューラルネットワーク)
図6に示すように、畳み込みニューラルネットワーク64は入力層74、複数の中間層76で構成されている。通常の畳み込みニューラルネットワークは最後の中間層76の後に、入力層、複数の中間層及び出力層を全結合して画像の特徴量から出力を推定する多層式ニューラルネットワークを設けているが、本実施形態は、入力画像の特徴量を抽出するだけで良いことから、後段の全結合の多層式ニューラルネットワークは設けていない。
(Convolutional neural network)
As shown in FIG. 6, the convolutional neural network 64 is composed of an input layer 74 and a plurality of intermediate layers 76. In a normal convolutional neural network, after the last intermediate layer 76, a multi-layer neural network that estimates the output from the features of the image by fully connecting the input layer, a plurality of intermediate layers, and the output layer is provided. Since it is only necessary to extract the features of the input image as the form, the multi-layer neural network of the full connection in the subsequent stage is not provided.

畳み込みニューラルネットワーク64は、図3に示したと同様、通常のニューラルネットワークとは少し特徴が異なり、視覚野から生物学的な構造を取り入れている。視覚野には、視野の小区域に対し敏感な小さな細胞の集まりとなる受容野が含まれており、受容野の挙動は、行列の形で重み付けを学習することで模倣できる。この行列は重みフィルタ(カーネル)呼ばれ、生物学的に受容野が果たす役割と同様に、ある画像の類似した小区域に対して敏感になる。
As shown in FIG. 3, the convolutional neural network 64 has slightly different characteristics from the normal neural network, and incorporates a biological structure from the visual cortex. The visual cortex contains a receptive field, which is a collection of small cells that are sensitive to a small area of the visual field, and the behavior of the receptive field can be imitated by learning weighting in the form of a matrix. This matrix is called the weight filter (kernel) and is sensitive to similar subregions of an image, similar to the biological role played by receptive fields.

畳み込みニューラルネットワーク64は、畳み込み演算により、重みフィルタと小区域との間の類似性を表すことでき、この演算を通して、画像の適切な特徴を抽出することができる。 The convolutional neural network 64 can express the similarity between the weight filter and the subarea by a convolutional operation, and through this operation, an appropriate feature of the image can be extracted.

畳み込みニューラルネットワーク64は、入力層74に入力した入力画像に対し重みフィルタにより畳み込み処理を行う。例えば、重みフィルタは縦横3×3の所定の重み付けがなされた行列フィルタであり、入力画像の各画素にフィルタ中心を位置合わせしながら畳み込み演算を行うことで、入力画像の9画素を次の中間層76の小区域となる特徴マップの1画素に畳み込み、中間層76に特徴マップが生成される。 The convolutional neural network 64 performs a convolution process on the input image input to the input layer 74 by a weight filter. For example, the weight filter is a matrix filter with a predetermined weighting of 3 × 3 in the vertical and horizontal directions, and by performing a convolution operation while aligning the center of the filter with each pixel of the input image, 9 pixels of the input image are placed in the next intermediate position. The feature map is generated in the intermediate layer 76 by convolving into one pixel of the feature map which is a small area of the layer 76.

続いて、畳み込み演算により得られた中間層76の特徴マップに対しプーリングの演算を行う。プーリングの演算は、識別に不必要な特徴量を除去し、識別に必要な特徴量を抽出する処理である。 Subsequently, the pooling calculation is performed on the feature map of the intermediate layer 76 obtained by the convolution calculation. The pooling operation is a process of removing features unnecessary for identification and extracting features necessary for identification.

続いて、重みフィルタを使用した畳み込み演算とプーリングの演算を各中間層76毎に繰り返すことで最後の中間層76まで特徴マップが生成され、本実施形態にあっては、任意の中間層76に生成された特徴マップを、入力画像の特徴量として再帰型ニューラルネットワーク66に入力している。 Subsequently, by repeating the convolution operation and the pooling operation using the weight filter for each intermediate layer 76, a feature map is generated up to the last intermediate layer 76, and in the present embodiment, any intermediate layer 76 is generated. The generated feature map is input to the recurrent neural network 66 as the feature amount of the input image.

畳み込みニューラルネットワーク64は、図5に示した学習制御部68により学習データセット記憶部56に記憶された学習画像を入力して教師なしの学習を行っており、この学習により、良く似た画像をグループ分けするクラスタリングされた特徴量をもつ画像を生成することができる。 The convolutional neural network 64 inputs a learning image stored in the learning data set storage unit 56 by the learning control unit 68 shown in FIG. 5 to perform unsupervised learning, and by this learning, a similar image is obtained. Images with clustered features can be generated for grouping.

(再帰型ニューラルネットワーク)
図6に示す再帰型ニューラルネットワーク66は、畳み込みニューラルネットワーク64を用いて抽出した画像の特徴量を、単語ベクトルと共に入力して画像説明文を予測する。
(Recurrent neural network)
The recurrent neural network 66 shown in FIG. 6 inputs the feature amount of the image extracted by the convolutional neural network 64 together with the word vector to predict the image description.

本実施形態の再帰型ニューラルネットワーク66は、時系列データ対応の深層学習モデルとなるLSTM−LM(Long Short−Term Memory−Langage Model)を使用している。 The recurrent neural network 66 of the present embodiment uses LSTM-LM (Long Short-Term Memory-Language Model), which is a deep learning model for time-series data.

通常の再帰型ニューラルネットワークのモデルは、入力層、隠れ層、出力層で構成され、隠れ層の情報を次時刻の入力とすることで過去の経歴を利用した時系列解析をするモデルである。これに対しLSTMモデルは、過去の文脈となるt−1個の単語からt番目の単語として各単語が選ばれる確率を算出する。即ち、LSTMモデルは1時刻前の隠れ状態となる時刻1〜t−1の単語情報、1時刻前の予測結果となる時刻t−1の単語、及び外部情報の3つを入力とし、逐次的に次の単語の予測を繰り返して文章を生成する。 A model of a normal recurrent neural network is composed of an input layer, a hidden layer, and an output layer, and is a model that performs time series analysis using the past history by using the information of the hidden layer as the input of the next time. On the other hand, the LSTM model calculates the probability that each word is selected as the t-th word from the t-1 words that are the past context. That is, the LSTM model inputs three pieces of information, that is, the word information of time 1 to t-1 that is hidden one time ago, the word of time t-1 that is the prediction result one time ago, and the external information, and sequentially. The sentence is generated by repeating the prediction of the next word.

図6の再帰型ニューラルネットワーク66は、畳み込みニューラルネットワーク64で抽出された画像の特徴ベクトルをLSTM隠れ層78に入力する行列に変換するLSTM入力層77、単語レジスタ80に単語単位に格納された単語S0〜SN1をベクトルWeS0〜WeSN1に変換する単語ベクトル変換部82、N−1段のLSTM隠れ層78、LSTM隠れ層78の出力を出現確率p1〜pNに変換する確率変換部84、単語を出力する確率からコスト関数logP1(1)〜logpN(SN)により算出してコストを最小化するコスト算出部86で構成される。
The recurrent neural network 66 of FIG. 6 converts the feature vector of the image extracted by the convolutional neural network 64 into a matrix to be input to the LSTM hidden layer 78, the LSTM input layer 77, and the words stored in the word register 80 in word units. Word vector conversion unit 82 that converts S0 to Sn1 to vectors WeS0 to WeSN1, LSTM hidden layer 78 of N-1 stage, probability conversion unit 84 that converts the output of LSTM hidden layer 78 to appearance probabilities p1 to pN, and outputs words. It is composed of a cost calculation unit 86 that minimizes the cost by calculating from the cost functions logP1 ( S1) to logPN (SN) from the probability of performing.

(再帰型ニューラルネットワークの学習)
再帰型ニューラルネットワーク66の学習対象は、単語ベクトル変換部82とLSTM隠れ層78であり、畳み込みニューラルネットワーク64からの特徴量は、学習済みのパラメータをそのまま使用する。
(Learning of recurrent neural network)
The learning targets of the recurrent neural network 66 are the word vector conversion unit 82 and the LSTM hidden layer 78, and the features from the convolutional neural network 64 use the learned parameters as they are.

学習データは、学習画像Iとその画像説明文の単語列{St}(t=0,・・・N)となり、次の手順で行う。
(1) 学習画像Iを畳み込みニューラルネットワーク64に入力し、特定の中間層76の出力を特徴ベクトルとして取り出す。
(2) 特徴ベクトルをLSTM入力層77からLSTM隠れ層78に入力する。
(3) 単語列Stをt=0からt=N−1まで順に入力し、それぞれのステップで確率pt+1を得る。
(4) 単語St+1を出力する確率pt+1(St+1)から求まるコストを最小化する。
The learning data is a learning image I and a word string {St} (t = 0, ... N) of the image description sentence, and the following procedure is performed.
(1) The learning image I is input to the convolutional neural network 64, and the output of the specific intermediate layer 76 is taken out as a feature vector.
(2) The feature vector is input from the LSTM input layer 77 to the LSTM hidden layer 78.
(3) The word string St is input in order from t = 0 to t = N-1, and the probability pt + 1 is obtained in each step.
(4) Minimize the cost obtained from the probability pt + 1 (St + 1) of outputting the word St + 1.

(画像説明文の生成)
学習済みの畳み込みニューラルネットワーク64と再帰型ニューラルネットワーク66を使用して画像説明文を生成する場合には、畳み込みニューラルネットワーク64に画像を入力して生成した特徴量のベクトルを再帰型ニューラルネットワーク66に入力し、単語の出現確率の積が高い順に単語列を並べて画像説明文を生成させる。この手順は次のようになる。
(1) 画像を畳み込みニューラルネットワーク64に入力し、特定の中間層76の出力を特徴ベクトルとして取り出す。
(2) 特徴ベクトルをLSTM入力層77からLSTM隠れ層78に入力する。
(3) 文の開始記号<S>を、ベクトル変換部82を使用してベクトルに変換し、LSTM隠れ層78に入力する。
(4) LSTM隠れ層78の出力から単語の出現確率が分かるので、上位M個(例えばM=20個)の単語を選ぶ。
(5) 1つ前のステップで出力した単語を、ベクトル変換部82を使用してベクトルに変換し、LSTM隠れ層78に入力する。
(6) LSTM隠れ層78の出力から、これまでに出力した単語の確率の積を求め、上位M個の単語列を選択する。
(7) 前記(5)と前記(6)の処理を、単語の出力が終端記号になるまで繰り返す。
(Generation of image description)
When generating an image description using the trained convolutional neural network 64 and the recurrent neural network 66, the feature vector generated by inputting the image into the convolutional neural network 64 is converted into the recurrent neural network 66. Input and arrange the word strings in descending order of the product of the appearance probability of the words to generate the image description. The procedure is as follows:
(1) The image is input to the convolutional neural network 64, and the output of the specific intermediate layer 76 is extracted as a feature vector.
(2) The feature vector is input from the LSTM input layer 77 to the LSTM hidden layer 78.
(3) The start symbol <S> of the sentence is converted into a vector by using the vector conversion unit 82, and is input to the LSTM hidden layer 78.
(4) Since the probability of appearance of words can be known from the output of the LSTM hidden layer 78, the top M words (for example, M = 20) are selected.
(5) The word output in the previous step is converted into a vector using the vector conversion unit 82, and is input to the LSTM hidden layer 78.
(6) From the output of the LSTM hidden layer 78, the product of the probabilities of the words output so far is obtained, and the upper M word strings are selected.
(7) The processes of (5) and (6) above are repeated until the output of the word becomes a terminal symbol.

このように環境火災判別部24は、監視カメラにより撮像された監視画像を解析することで、監視領域14の監視環境と推定して発生しやすい火災の種類、例えばボイラー室の推定に対し油火災を判定し、電気室やサーバルームの推定に対し電気火災を判定し、更に、実験室の推定に対し薬品火災を判別するといった処理が自動的に行われ、自動的に判定された火災の種類を学習制御部24に出力して火災検出器20を学習することで、監視環境から発生しやすい種類に火災に対し、より高い感度で火災を判定することができる。
In this way, the environmental fire discrimination unit 24 analyzes the surveillance image captured by the surveillance camera to estimate the type of fire that is likely to occur as the surveillance environment of the surveillance area 14, for example, an oil fire for the estimation of the boiler room. The type of fire that was automatically determined by automatically performing processing such as determining an electric fire based on the estimation of the electric room or server room, and further determining a chemical fire based on the estimation of the laboratory. Is output to the learning control unit 24 to learn the fire detector 20, so that it is possible to determine a fire with higher sensitivity to a type of fire that is likely to occur from the monitoring environment.

[火災監視システムの第2実施形態]
図7は火災監視システムの第2実施形態を示した説明図、図8は図7の火災検出器及び学習制御部の機能構成を示した説明図、図9は図7の火災判定部の機能構成を火災検出器、環境火災判別部及び閾値設定部と共に示した説明図である。
[Second Embodiment of Fire Monitoring System]
FIG. 7 is an explanatory diagram showing a second embodiment of the fire monitoring system, FIG. 8 is an explanatory diagram showing the functional configurations of the fire detector and the learning control unit of FIG. 7, and FIG. 9 is a function of the fire determination unit of FIG. It is explanatory drawing which showed the structure together with the fire detector, the environmental fire discrimination part and the threshold value setting part.

図7に示すように、本実施形態の火災監視システムは、図1の第1実施形態と同様、監視領域14に監視カメラ16が設置され、監視カメラ16で撮像された動画画像は火災判定装置10に入力され、監視領域14には火災受信機12から引き出された感知器回線25に接続された火災感知器18が設置されている。
As shown in FIG. 7, in the fire monitoring system of the present embodiment, the surveillance camera 16 is installed in the monitoring area 14 as in the first embodiment of FIG. 1, and the moving image image captured by the surveillance camera 16 is a fire determination device. A fire detector 18 is installed in the monitoring area 14 which is input to the 10 and is connected to the detector line 25 drawn from the fire receiver 12.

火災判定装置10には、複数種類の火災検出器として、油火災検出器20−1、電気火災検出器20−2、薬品火災検出器20−3及び燻焼火災検出器20−4が設けられ、図8の油火災検出器20−1に代表して示すように、画像入力部30と多層式ニューラルネットワーク32が設けられている。なお、以下の説明では、油火災検出器20−1、電気火災検出器20−2、薬品火災検出器20−3及び燻焼火災検出器20−4を複数種類の火災検出器20−1〜20−4という場合がある。 The fire determination device 10 is provided with an oil fire detector 20-1, an electric fire detector 20-2, a chemical fire detector 20-3, and a smoked fire detector 20-4 as a plurality of types of fire detectors. As represented by the oil fire detector 20-1 of FIG. 8, an image input unit 30 and a multi-layer neural network 32 are provided. In the following description, the oil fire detector 20-1, the electric fire detector 20-2, the chemical fire detector 20-3, and the smoked fire detector 20-4 are referred to as a plurality of types of fire detectors 20-1 to 20-1. It may be called 20-4.

油火災検出器20−1、電気火災検出器20−2、薬品火災検出器20−3及び燻焼火災検出器20−4には監視カメラ16からの信号ケーブル22が分岐して入力され、監視カメラ16から送られてきた動画画像をフレーム単位に入力して、油火災推定値W、電気火災推定値X、薬品火災推定値Y及び燻焼火災推定値Zを火災判定部28に出力する。 The signal cable 22 from the surveillance camera 16 is branched and input to the oil fire detector 20-1, the electric fire detector 20-2, the chemical fire detector 20-3, and the smoked fire detector 20-4 for monitoring. The moving image sent from the camera 16 is input in frame units, and the oil fire estimated value W, the electric fire estimated value X, the chemical fire estimated value Y, and the smoked fire estimated value Z are output to the fire determination unit 28.

また、火災判定装置10には、環境火災判別部24、閾値設定部27及び火災判定部28が設けられている。
Further, the fire determination device 10 is provided with an environmental fire determination unit 24, a threshold value setting unit 27, and a fire determination unit 28.

環境火災判別部24は、図1の実施形態と同じであり、監視カメラ16により撮像した監視領域14の画像を入力し、ボイラー室、電気室、サーバルーム等の監視領域16の監視環境を推定すると共に推定したボイラー室、電気室、サーバルーム等の監視環境から発生しやすい火災の種類、例えば油火災や電気火災を判定する。環境火災判別部24による環境から発生しやすい種類の火災の自動判定は、図5及び図6に示したと同じになる。
The environmental fire determination unit 24 is the same as the embodiment shown in FIG. 1, and inputs the image of the monitoring area 14 captured by the monitoring camera 16 to estimate the monitoring environment of the monitoring area 16 such as the boiler room, the electric room, and the server room. At the same time, the types of fires that are likely to occur from the monitoring environment such as the boiler room, electric room, and server room estimated, such as oil fire and electric fire, are determined. The automatic determination of a type of fire that is likely to occur from the environment by the environmental fire determination unit 24 is the same as that shown in FIGS. 5 and 6.

学習制御部26は、図8に示すように、学習画像記憶部34と制御部36で構成され、油火災検出器20−1の多層式ニューラルネットワーク32を油火災画像により学習し、電気火災検出器20−2の多層式ニューラルネットワークを電気火災画像により学習し、薬品火災検出器20−3の多層式ニューラルネットワークを薬品火災画像により学習し、更に燻焼火災検出器20−4の多層式ニューラルネットワークを燻焼火災画像により学習している。
As shown in FIG. 8, the learning control unit 26 includes a learning image storage unit 34 and a control unit 36, learns a multi-layer neural network 32 of the oil fire detector 20-1 from an oil fire image, and detects an electric fire. the multilayered neural network of the vessels 20-2 learned by electrical fires image, a multi-layer neural network of chemical fire detectors 20-3 learned by chemical fire image, further multilayered neural of smoldering fire detector 20-4 The network is learned from smoked fire images.

火災判定部28は、図9に示すように、比較器90−1,90−2,90−3,90−4とOR回路92で構成され、比較器90−1,90−2,90−3,90−4の一方の入力に油火災検出器20−1、電気火災検出器20−2、薬品火災検出器20−3及び燻焼火災検出器20−4から出力される油火災推定値W、電気火災推定値X、薬品火災推定値Y及び燻焼火災検出値Zが入力される。
As shown in FIG. 9, the fire determination unit 28 is composed of the comparators 90-1, 90-2, 90-3, 90-4 and the OR circuit 92, and the comparators 90-1, 90-2, 90- Oil fire estimates output from oil fire detector 20-1, electric fire detector 20-2, chemical fire detector 20-3, and smoked fire detector 20-4 to one of the inputs 3, 90-4. W, an estimated electric fire value X, an estimated chemical fire value Y, and a smoked fire detection value Z are input.

また、比較器90−1,90−2,90−3,90−4の他方の入力には閾値設定部27により設定された火災の種類に対応した所定の閾値、例えば油火災閾値Wth、電気火災閾値Xth、薬品火災閾値Yth、及び燻焼火災検出値Zthが入力される。 Further, for the other input of the comparators 90-1, 90-2, 90-3, 90-4, a predetermined threshold value corresponding to the type of fire set by the threshold value setting unit 27, for example, an oil fire threshold value Wth, electricity The fire threshold value Xth, the chemical fire threshold value Yth, and the smoldering fire detection value Zth are input.

比較器90−1,90−2,90−3,90−4は、火災推定値W,X,Y,Zが対応する閾値Wth,Xth,Yth,Zth以上又は閾値超えの場合に火災判定信号をOR回路92を介して火災受信機12に出力して火災予兆警報等を出力させる。 The comparators 90-1, 90-2, 90-3, 90-4 are fire determination signals when the estimated fire values W, X, Y, Z are equal to or more than or exceed the corresponding thresholds Wth, Xth, Yth, Zth. Is output to the fire receiver 12 via the OR circuit 92 to output a fire sign alarm or the like.

閾値設定部27は、環境火災判別部24により判定された火災の種類に対応した閾値を、それ以外の火災の種類に対応した閾値に対し低い値に設定する。環境火災判別部24で監視環境として例えばボイラー室が推定され、ボイラー室から発生しやすい火災として油火災が判定されていた場合、閾値設定部27は、油火災閾値Wth、電気火災閾値Xth、薬品火災閾値Yth、及び燻焼火災検出値Zthとして例えば
油火災閾値 Wth=0.6
電気火災閾値 Xth=0.9
薬品火災閾値 Yth=0.9
燻焼火災閾値Zth=0.9
に設定する。
The threshold value setting unit 27 sets the threshold value corresponding to the type of fire determined by the environmental fire determination unit 24 to a value lower than the threshold value corresponding to the other types of fire. When, for example, a boiler room is estimated as a monitoring environment by the environmental fire determination unit 24, and an oil fire is determined as a fire that is likely to occur from the boiler room, the threshold setting unit 27 sets the oil fire threshold Wth, the electric fire threshold Xth, and chemicals. As the fire threshold Yth and the smoldering fire detection value Zth, for example, the oil fire threshold Wth = 0.6
Electric fire threshold Xth = 0.9
Chemical fire threshold Yth = 0.9
Smoked fire threshold Zth = 0.9
Set to.

このため、閾値Wth=0.6と低い値に設定した油火災を火災として判定しやすくなり、監視環境に固有の発生しやすい火災に対し、より感度の高い火災の判定を可能とする。 Therefore, it becomes easy to determine an oil fire set to a low threshold value Wth = 0.6 as a fire, and it is possible to determine a fire with higher sensitivity to a fire that is likely to occur peculiar to the monitoring environment.

なお、特定種類の火災判定を行わないためには、これに対応した閾値を1以上の高い値に設定すれば良い。 In order not to perform a specific type of fire determination, the threshold value corresponding to this may be set to a high value of 1 or more.

[火災監視制御]
図10は図7の実施形態による火災監視制御を示したフローチャートである。図10に示すように、環境火災判別部24はステップS11で監視カメラ16により撮像された監視領域14の画像を入力して画像解析することにより例えばボイラー室であることを推定し、続いてステップS12に進み、推定したボイラー室での発生しやすい火災として油火災を判定し、閾値設定部27に出力する。
[Fire monitoring control]
FIG. 10 is a flowchart showing the fire monitoring control according to the embodiment of FIG. As shown in FIG. 10, the environmental fire discrimination unit 24 estimates that it is, for example, a boiler room by inputting an image of the monitoring area 14 captured by the monitoring camera 16 in step S11 and analyzing the image, followed by a step. Proceeding to S12, an oil fire is determined as an estimated fire that is likely to occur in the boiler room, and is output to the threshold setting unit 27.

閾値設定部27はステップS13で環境火災判別部24から出力された火災の種類、例えば油火災に基づき、図9に示した火災判定部28の油火災検出器20−1からの火災推定値Wを入力した比較器90−1に対する閾値Wthを、それ以外の火災推定値X,Y,Zを入力している比較器90−2〜90−4に対する閾値Xth,Yth,Zthより低い値に設定し、ボイラー室から発生しやすい油火災に対し、より高い感度で火災を判定可能とする。
The threshold setting unit 27 is based on the type of fire output from the environmental fire determination unit 24 in step S13, for example, an oil fire, and the fire estimation value W from the oil fire detector 20-1 of the fire determination unit 28 shown in FIG. Set the threshold Wth for the comparator 90-1 in which the above is input to a value lower than the thresholds Xth, Yth, Zth for the comparators 90-2 to 90-4 in which the other fire estimation values X, Y, Z are input. However, for oil fires that are likely to occur from the boiler room, it is possible to judge the fire with higher sensitivity.

続いて、ステップS14で監視カメラ16により撮像された監視領域14の画像を複数種類の火災検出器20−1〜20−4に入力して火災推定値W,X,Y,Zを出力する。火災判定部28はステップS15で複数種類の火災検出器20−1〜20−4からの火災推定値W,X,Y,Zを読み込み、ステップS16で所定の閾値Wth,Xth,Yth,Zthと比較し、何れかの火災推定値が対応する閾値以上(又は閾値超え)の場合、ステップS17に進み、火災判定信号を火災受信機12に出力し、火災予兆警報等を出力させる。
Subsequently, the image of the surveillance area 14 captured by the surveillance camera 16 in step S14 is input to a plurality of types of fire detectors 20-1 to 20-4, and the fire estimation values W, X, Y, and Z are output. The fire determination unit 28 reads the estimated fire values W, X, Y, Z from a plurality of types of fire detectors 20-1 to 20-4 in step S15, and sets the predetermined threshold values Wth, Xth, Yth, Zth in step S16. In comparison, if any of the estimated fire values is equal to or higher than the corresponding threshold value (or exceeds the threshold value), the process proceeds to step S17, a fire determination signal is output to the fire receiver 12, and a fire sign alarm or the like is output.

続いて火災判定部28はステップS18に進み、火災として判定された火災種類、例えば油火災を例えば火災受信機12のディスプレイ上に表示させる制御を行う。このように火災判定の根拠となった火災の種類が表示されることで、油火災、電気火災、薬品火災又は燻焼火災といった火災の種類に対応した消火活動や避難誘導が適切に行われることを可能とする。
Subsequently, the fire determination unit 28 proceeds to step S18 and controls to display the fire type determined as a fire, for example, an oil fire, on the display of, for example, the fire receiver 12. By displaying the type of fire that is the basis of the fire judgment in this way, fire extinguishing activities and evacuation guidance corresponding to the type of fire such as oil fire, electric fire, chemical fire or smoldering fire can be appropriately performed. Is possible.

〔本発明の変形例〕
(学習機能)
上記の実施形態に示した火災検出器は、多層式ニューラルネットワークの学習機能を備えた場合を例にとっているが、多層式ニューラルネットワークの学習は、学習機能を備えたサーバ等の別のコンピュータ設備を使用して行い、その結果得られた学習済みの多層式ニュートラルネットワークを火災検出器に実装して使用するようにしても良い。
[Modification of the present invention]
(Learning function)
Fire detector shown in the above embodiments, although taking a case having a learning function of the multi-layered neural network as an example, the learning of multi-layer neural network, another computer equipment such as a server having a learning function It may be done using and the resulting trained multi-layer neutral network may be mounted on a fire detector for use.

(監視環境と火災種別)
上記の実施形態は、監視環境としてボイラー室、電気室、サーバルーム、実験室等を例にとつているが、これ以外の適宜の場所や用途であっても良い。また、上記の実施形態は、監視環境から発生しやすい火災の種類として、油火災、電気火災、薬品火災、燻焼火災を例にとっているが、これ以外の適宜の種類の火災を含む。
(Monitoring environment and fire type)
In the above embodiment, a boiler room, an electric room, a server room, a laboratory, or the like is taken as an example of a monitoring environment, but other appropriate places and uses may be used. Further, in the above embodiment, oil fires, electric fires, chemical fires, and smoked fires are taken as examples of fires that are likely to occur from the monitoring environment, but other appropriate types of fires are included.

(放火監視)
上記の実施形態は、監視領域の火災監視を例にとっているが、これ以外に、屋外に監視カメラや炎検知器などのセンサを設置して行う放火監視に多層式のニューラルネットワークによって構成される火災検出器を設け、火災検出器をディープラーニングより学習させ、放火を監視するようにしても良い。
(Arson monitoring)
The above embodiment takes fire monitoring in the monitoring area as an example, but in addition to this, a fire configured by a multi-layer neural network for arson monitoring performed by installing sensors such as a surveillance camera and a flame detector outdoors. A detector may be provided so that the fire detector can be learned from deep learning and the arson can be monitored.

(特徴抽出)
上記の実施形態は、畳み込みニューラルネットワークに画像を入力して火災による特徴を抽出しているが、畳み込みニューラルネットワークを使用せず、入力した画像から輪郭、濃淡等の特徴を抽出する前処理を行って所定の特徴を抽出し、特徴が抽出された画像を認識部として機能する全結合ニューラルネットワークに入力して火災か非火災かを推定させるようにしても良い。これにより画像の特徴抽出の処理負担を低減可能とする。
(Feature extraction)
In the above embodiment, the image is input to the convolutional neural network to extract the features due to the fire, but the preprocessing for extracting the features such as contour and shading from the input image is performed without using the convolutional neural network. It is also possible to extract a predetermined feature and input the extracted image into a fully connected neural network functioning as a recognition unit to estimate whether it is a fire or a non-fire. This makes it possible to reduce the processing load of image feature extraction.

(学習方法について)
上記の実施形態は、バックプロパゲーションによる学習を行っているが、多層ニューラルネットワークの学習方法はこれに限らない。
(About learning method)
The above embodiments have been learned by the back-propagation learning method of the multilayered neural network is not limited to this.

(画像とセンサの複合)
上記の実施形態は、画像による火災監視を例にとっているが、入力情報として、画像データとセンサデータを並列的に取り扱っても良い。画像データは例えば、1ピクセルあたりの白黒値が入力項として取り扱われ、センサデータは例えば、センサごとの検出値が入力項として取り扱われる。この場合、中間層に於いて画像の特徴抽出がなされた中間層の項と、センサデータによる影響を受ける中間層の項が、火災検出を判定する次段以降の中間層の項に対して影響を与えるようになることが教育結果として望ましいが、火災の監視を有効にできるならこれに限らない。
(Composite of image and sensor)
In the above embodiment, fire monitoring using images is taken as an example, but image data and sensor data may be handled in parallel as input information. For image data, for example, a black-and-white value per pixel is treated as an input term, and for sensor data, for example, a detection value for each sensor is treated as an input term. In this case, the term of the intermediate layer from which the features of the image are extracted in the intermediate layer and the term of the intermediate layer affected by the sensor data affect the terms of the intermediate layer after the next stage for determining fire detection. It is desirable as an educational result to be able to give, but it is not limited to this if fire monitoring can be enabled.

(赤外線照明と赤外線画像の撮像)
上記の実施形態は、監視カメラにより監視領域の照明を使用した状態及び又は自然光の状態で監視領域を撮像しているが、赤外線照明装置からの赤外線光を監視領域に照射し、赤外線領域に感度のある監視カメラにより赤外線画像を撮像して火災検出器の多層式ニューラルネットワークをバックプロパゲーションにより学習し、学習済みの多層式ニューラルネットワークに監視領域の赤外線画像を入力して火災か非火災かを判定するようにしても良い。
(Infrared lighting and infrared image imaging)
In the above embodiment, the surveillance area is imaged by the surveillance camera in the state of using the illumination of the surveillance area and / or in the state of natural light. Infrared image is taken by a surveillance camera, the multi-layer neural network of the fire detector is learned by back propagation, and the infrared image of the surveillance area is input to the trained multi-layer neural network to determine whether it is fire or non-fire. It may be judged.

このように監視領域の赤外線画像を火災検出器に入力することで、監視領域の照明状態や昼夜の明るさ変化等に影響されることなく、監視画像を用いた火災監視が可能となる。 By inputting the infrared image of the monitoring area into the fire detector in this way, it is possible to monitor the fire using the monitoring image without being affected by the lighting state of the monitoring area, the change in brightness during the day and night, and the like.

(その他)
また、本発明は上記の実施形態に限定されず、その目的と利点を損なうことのない適宜の変形を含み、更に上記の実施形態に示した数値による限定は受けない。
(others)
Further, the present invention is not limited to the above-described embodiment, includes appropriate modifications that do not impair its purpose and advantages, and is not further limited by the numerical values shown in the above-described embodiment.

10:火災判定装置
12:火災受信機
14:監視領域
16:監視カメラ
18:火災感知器
20:火災検出器
20−1:油火災検出器
20−2:電気火災検出器
20−3:薬品火災検出器
20−4:燻焼火災検出器
22:信号ケーブル
24:環境火災判別部
26,68:学習制御部
27:閾値設定部
28:火災判定部
30,54:画像入力部
32:多層式ニューラルネットワーク
34:学習画像記憶部
36:制御部
38:特徴抽出部
40:認識部
42:入力画像
43,45a,45b:重みフィルタ
44a,44b,44c:特徴マップ
46,74:入力層
48:全結合
50,76:中間
52:出力層
56:画像データセット記憶部
60:画像解析部
62:火災種類判定
64:畳み込みニューラルネットワーク
66:再帰型ニューラルネットワーク
70:判定器
72:シソーラス辞書
77:LSTM入力層
78:LSTM隠れ層
80:単語レジスタ
82:単語ベクトル変換部
84:確率変換部
86:コスト算出部
10: Fire judgment device 12: Fire receiver 14: Monitoring area 16: Surveillance camera 18: Fire detector 20: Fire detector 20-1: Oil fire detector 20-2: Electric fire detector 20-3: Chemical fire Detector 20-4: Smoked fire detector 22: Signal cable 24: Environmental fire discrimination unit 26, 68: Learning control unit 27: Threshold setting unit 28: Fire judgment unit 30, 54: Image input unit 32: Multi-layer neural network Network 34: Learning image storage unit 36: Control unit 38: Feature extraction unit 40: Recognition unit 42: Input images 43, 45a, 45b: Weight filters 44a, 44b, 44c: Feature maps 46, 74 : Input layer 48: Fully coupled 50, 76 : Intermediate layer 52: Output layer 56: Image data set storage unit 60: Image analysis unit 62: Fire type determination unit 64: Convolutional neural network 66: Recursive neural network 70: Judgment device 72: Sisorus dictionary 77: LSTM Input layer 78: LSTM hidden layer 80: Word register 82: Word vector conversion unit 84: Probability conversion unit 86: Cost calculation unit

Claims (10)

多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、
前記監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、
前記環境火災判別部により判定された種類の火災により前記火災検出器の多層式のニューラルネットワークをディープラーニングにより学習させる学習制御部と、
前記監視領域の前記入力情報を学習済みの前記火災検出器に入力した場合に出力される火災推定値を所定の閾値と比較して火災を判定する火災判定部と、
が設けられたことを特徴とする火災監視システム。
In a fire monitoring system that detects a fire based on the input information of the monitoring area using a fire detector composed of a multi-layer neural network.
An environmental fire discrimination unit that determines the type of fire that is likely to occur from the monitoring environment of the monitoring area, and
A learning control unit that learns a multi-layered neural network of the fire detector by deep learning according to the type of fire determined by the environmental fire discrimination unit.
A fire determination unit that determines a fire by comparing the estimated fire value output when the input information of the monitoring area is input to the learned fire detector with a predetermined threshold value.
A fire monitoring system characterized by the fact that
求項1記載の火災監視システムに於いて、
前記環境火災判別部は、前記監視領域の監視環境から複数種類の火災を判別した場合に、発生しやすい火災の順に優先度を設定し、
前記学習制御部は、前記環境火災判別部で判定された優先度の高い1又は複数種類の火災により前記多層式のニューラルネットワークをディープラーニングにより学習させることを特徴とする火災監視システム。
In the fire monitoring system ofMotomeko 1, wherein,
When a plurality of types of fires are discriminated from the monitoring environment of the monitoring area, the environmental fire discrimination unit sets priorities in the order of fires that are likely to occur.
The learning control unit is a fire monitoring system characterized in that the multi-layer neural network is learned by deep learning by one or a plurality of types of fires having a high priority determined by the environmental fire determination unit.
多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、
前記監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、
学習制御部による火災の種類毎ディープラーニングにより学習された複数種類の火災検出器と、
前記入力情報を学習済みの前記複数種類の火災検出器に入力した場合に出力される火災推定値の各々を、火災の種類に対応した所定の閾値と比較して火災を判定する火災判定部と、
前記火災判定部における前記火災の種類に対応した閾値を、前記環境火災判別部で判定された火災の種類を判定しやすいように設定する閾値設定部と、
が設けられたことを特徴とする火災監視システム。
In a fire monitoring system that detects a fire based on the input information of the monitoring area using a fire detector composed of a multi-layer neural network.
An environmental fire discrimination unit that determines the type of fire that is likely to occur from the monitoring environment of the monitoring area, and
A plurality of types of fire detectors learned by deep learning for each type of fire by the learning control unit,
A fire determination unit that determines a fire by comparing each of the fire estimates output when the input information is input to the learned plurality of types of fire detectors with a predetermined threshold value corresponding to the type of fire. ,
A threshold setting unit for setting said threshold value corresponding to the type of the fire in the fire determination unit, so as to facilitate determining the type of fire is determined by the environmental fire discriminating section,
A fire monitoring system characterized by the fact that
請求項3記載の火災監視システムに於いて、
前記閾値設定部は、前記環境火災判別部により判定された火災の種類に対応した閾値を、それ以外の火災の種類に対応した閾値に対し低い値に設定することを特徴とする火災監視システム。
In the fire monitoring system according to claim 3,
The threshold value setting unit is a fire monitoring system characterized in that a threshold value corresponding to a type of fire determined by the environmental fire determination unit is set to a value lower than a threshold value corresponding to other types of fire.
請求項1乃至4何れかに記載の火災監視システムに於いて、
前記環境火災判別部は、
撮像部により撮像された前記監視領域の画像を解析し、前記画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、
前記画像解析部から出力された画像に含まれる要素の単語を、辞書に予め記憶した所定の監視環境を示す単語と比較して前記監視領域の環境を推定し、推定した前記監視環境に対応して発生しやすい火災の種類を判定する火災種類判定部と、
が設けられたことを特徴とする火災監視システム。
In the fire monitoring system according to any one of claims 1 to 4.
The environmental fire discrimination unit
An image analysis unit composed of a multi-layer neural network that analyzes the image of the monitoring area captured by the image pickup unit and outputs the elements contained in the image as words.
The environment of the monitoring area is estimated by comparing the word of the element included in the image output from the image analysis unit with the word indicating a predetermined monitoring environment stored in advance in the dictionary, and the estimated monitoring environment is supported. A fire type determination unit that determines the types of fires that are likely to occur
A fire monitoring system characterized by the fact that
請求項1乃至5何れかに記載の火災監視システムに於いて、
前記火災検出器は、センサにより検出された物理量及び又は撮像部により撮像された前記監視領域の画像を前記入力情報として入力することで前記火災推定値を出力することを特徴とする火災監視システム。
In the fire monitoring system according to any one of claims 1 to 5.
It said fire detector is a fire monitoring system and outputs the fire estimate an image of the monitored area captured by the physical amount detected and or the imaging unit by the sensor by inputting as said input information.
請求項1乃至6何れかに記載の火災監視システムに於いて、
前記監視環境は、ボイラー室、電気室、サーバ−ルーム、調理室、実験室を含み、
前記環境火災判別部で判定される火災の種類は、燻焼火災、油火災、電気火災及び薬品火災を含むことを特徴とする火災監視システム。
In the fire monitoring system according to any one of claims 1 to 6.
The monitoring environment includes a boiler room, an electric room, a server room, a cooking room, and a laboratory.
A fire monitoring system characterized in that the types of fires determined by the environmental fire determination unit include smoked fires, oil fires, electric fires, and chemical fires.
請求項1乃至7何れかに記載の火災監視システムに於いて、
前記火災検出器の多層式のニューラルネットワークは、
特徴抽出部と認識部で構成され、
前記特徴抽出部は、前記入力情報を入力することで前記入力情報の特徴が抽出された特徴情報を生成する複数の畳み込み層を備えた畳み込みニューラルネットワークとし、
前記認識部は、前記畳み込みニューラルネットワークから出力される前記特徴情報を入力
することで前記火災推定値を出力する複数の全結合ニューラルネットワークとしたことを特徴とする火災監視システム。
In the fire monitoring system according to any one of claims 1 to 7.
The multi-layer neural network of the fire detector
It consists of a feature extraction unit and a recognition unit.
The feature extraction unit, and the input information neural network convolution having a plurality of convolutions layers for generating feature information characteristic of the input information is extracted by inputting,
The recognition unit inputs the feature information output from the convolutional neural network.
A fire monitoring system characterized by forming a plurality of fully connected neural networks that output the estimated fire values.
請求項1乃至8何れかに記載の火災監視システムに於いて、
前記学習制御部は、前記火災検出器の多層式のニューラルネットワークに学習情報を入力した場合に出力される値と所定値の期待値との誤差に基づくバックプロパゲーションにより前記火災検出器の多層式のニューラルネットワークを学習させることを特徴とする火災監視システム。
In the fire monitoring system according to any one of claims 1 to 8.
The learning control unit, the back propagation based on an error between the expected value of the output values with a predetermined value when the inputted learning information multilayered neural network of the fire detector, the multilayer of the fire detector A fire monitoring system characterized by training a neural network of equations.
請求項1乃至9何れかに記載の火災監視システムに於いて、
前記火災判定部は、火災の判定に加え火災判定の根拠とした火災の種類を表示させることを特徴とする火災監視システム。
In the fire monitoring system according to any one of claims 1 to 9.
The fire monitoring unit is a fire monitoring system characterized by displaying the type of fire on which the fire determination is based in addition to the fire determination.
JP2017207801A 2017-10-27 2017-10-27 Fire monitoring system Active JP6942029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017207801A JP6942029B2 (en) 2017-10-27 2017-10-27 Fire monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017207801A JP6942029B2 (en) 2017-10-27 2017-10-27 Fire monitoring system

Publications (2)

Publication Number Publication Date
JP2019079446A JP2019079446A (en) 2019-05-23
JP6942029B2 true JP6942029B2 (en) 2021-09-29

Family

ID=66628836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017207801A Active JP6942029B2 (en) 2017-10-27 2017-10-27 Fire monitoring system

Country Status (1)

Country Link
JP (1) JP6942029B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112395924B (en) * 2019-08-16 2024-02-20 阿里巴巴集团控股有限公司 Remote sensing monitoring method and device
JP7432325B2 (en) 2019-08-31 2024-02-16 ホーチキ株式会社 Disaster prevention support system and fire detector
CN110941988B (en) * 2019-10-11 2023-06-13 国网安徽省电力有限公司超高压分公司 Flame identification method, system and neural network for identifying flame
JP7293157B2 (en) * 2020-03-17 2023-06-19 株式会社東芝 Image processing device
CN111860143B (en) * 2020-06-10 2022-08-02 北京航空航天大学 Real-time flame detection method for inspection robot
KR102253224B1 (en) * 2020-09-08 2021-05-18 (주)텔코코리아아이에스 Smart type fire detector
CN112735083A (en) * 2021-01-19 2021-04-30 齐鲁工业大学 Embedded gateway for flame detection by using YOLOv5 and OpenVINO and deployment method thereof
CN112885021B (en) * 2021-01-27 2022-12-23 上海大学 Multi-sensor fire prediction method and system based on composite algorithm
CN113177496A (en) * 2021-05-10 2021-07-27 浙江大华技术股份有限公司 Fire point detection method, device, equipment and storage medium
CN113657238B (en) * 2021-08-11 2024-02-02 南京精益安防系统科技有限公司 Fire early warning method based on neural network, storage medium and terminal equipment
CN115025419B (en) * 2022-04-20 2023-05-12 上海阔步实业有限公司 Active fire-fighting system for new energy vehicle and fire-fighting control method
CN114970745B (en) * 2022-06-17 2023-07-04 淮阴工学院 Intelligent security and environment big data system of Internet of things
CN115147993B (en) * 2022-09-05 2022-12-06 无锡卓信信息科技股份有限公司 Fire early warning system for closed place and system data processing method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4066761B2 (en) * 2001-11-27 2008-03-26 松下電工株式会社 Fire alarm system
JP5356094B2 (en) * 2009-03-31 2013-12-04 能美防災株式会社 Fire detection system

Also Published As

Publication number Publication date
JP2019079446A (en) 2019-05-23

Similar Documents

Publication Publication Date Title
JP6942029B2 (en) Fire monitoring system
JP6943401B2 (en) Fire monitoring system
JP6867153B2 (en) Abnormality monitoring system
JP6857007B2 (en) Fire monitoring system
JP7072700B2 (en) Monitoring system
WO2018079400A1 (en) Fire monitoring system
JP6849411B2 (en) Monitoring system
US10854062B2 (en) Fire monitoring system
US11710075B2 (en) Hazard recognition
CN104933841B (en) A kind of fire prediction method based on self organizing neural network
JP6968530B2 (en) Fire monitoring system
CN110147762A (en) A kind of embedded type fire control wrong report elimination system
CN112633262B (en) Channel monitoring method and device, electronic equipment and medium
CN114140751B (en) Examination room monitoring method and system
CN115049988A (en) Edge calculation method and device for power distribution network monitoring and prejudging
CN115394034A (en) Fire risk determination method, device and system and robot
Regi et al. Deep learning based fire detection system
CN111723690B (en) Method and system for monitoring state of circuit equipment
CN110263661B (en) Flame detection method and device based on new color space and fast-LOF
CN117315776A (en) Human behavior recognition method, device, terminal equipment and storage medium
CN117274881A (en) Semi-supervised video fire detection method based on consistency regularization and distribution alignment
CN118038141A (en) Infrared, ultraviolet and image fire detection systems and methods
CN117496423A (en) Low-complexity real-time fire and smoke detection method based on deep learning
CN115775365A (en) Controlled smoke and fire interference identification method and device for historical relic and ancient building and computing equipment
CN117275161A (en) Fire detection method based on multi-sensor dynamic time warping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210414

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210907

R150 Certificate of patent or registration of utility model

Ref document number: 6942029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150