JP2019079446A - 火災監視システム - Google Patents

火災監視システム Download PDF

Info

Publication number
JP2019079446A
JP2019079446A JP2017207801A JP2017207801A JP2019079446A JP 2019079446 A JP2019079446 A JP 2019079446A JP 2017207801 A JP2017207801 A JP 2017207801A JP 2017207801 A JP2017207801 A JP 2017207801A JP 2019079446 A JP2019079446 A JP 2019079446A
Authority
JP
Japan
Prior art keywords
fire
neural network
monitoring
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017207801A
Other languages
English (en)
Other versions
JP6942029B2 (ja
Inventor
弘道 江幡
Hiromichi Ehata
弘道 江幡
浩生 菊池
Hiroo Kikuchi
浩生 菊池
真希 楠見
Maki Kusumi
真希 楠見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hochiki Corp
Original Assignee
Hochiki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hochiki Corp filed Critical Hochiki Corp
Priority to JP2017207801A priority Critical patent/JP6942029B2/ja
Publication of JP2019079446A publication Critical patent/JP2019079446A/ja
Application granted granted Critical
Publication of JP6942029B2 publication Critical patent/JP6942029B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fire-Detection Mechanisms (AREA)
  • Fire Alarms (AREA)
  • Image Analysis (AREA)

Abstract

【課題】監視環境から発生しやすい火災に対し高い感度での火災の判定可能な火災監視システムを提供する。【解決手段】環境火災判定部24によりボイラー室、電気室等等の監視領域14の監視環境から発生しやすい油火災、電気火災等の火災の種類を判定し、判定した種類により火災検出器20の多層式のニューラルをディープラーニングにより学習させ、監視領域の入力情報を学習済みの火災検出器20に入力した場合に出力される火災推定値を判定部28により所定の閾値と比較して火災を判定する。【選択図】図1

Description

本発明は、監視カメラで撮像した監視領域の画像からニューラルネットワークにより火災を判断して警報させる火災監視システムに関する。
従来、煙感知器や熱感知器など、特定の物理量を監視するセンサを用いて、火災を検出するシステムが実用化されている。
一方、従来、監視カメラで撮像した監視領域の画像に対し画像処理を施すことにより、火災を検知するようにした様々な装置やシステムが提案されている。
このような火災監視システムにあっては、火災発生に対する初期消火や避難誘導の観点から火災の早期発見が重要である。
このため従来装置(特許文献1)にあっては、画像から火災に伴う煙により起きる現象として、透過率又はコントラストの低下、輝度値の特定値への収束、輝度分布範囲が狭まって輝度の分散の低下、煙による輝度の平均値の変化、エッジの総和量の低下、低周波帯域の強度増加を導出し、これらを総合的に判断して煙の検出を可能としている。
特開2008−046916号公報 特開平7−245757号公報 特開2010−238028号公報 特開平6−325270号公報
しかしながら、特定の物理量を監視するセンサを用いた火災検出システムは、火災でない事象により監視基準が満たされた場合でも火災とみなし、正しく火災を判定できない問題があった。
また、従来の火災に伴う煙の画像から火災を検知する火災監視システムにあっては、煙の画像における透過率、コントラスト、エッジ等の煙の特徴量を予め定め、監視カメラで撮像した画像を処理することで煙による特徴を生成しなければならず、火災による煙の発生状況は多種多様であり、その中に煙としてどのような特徴があるかを見出すことは極めて困難であり、決め手となる特徴がなかなか見いだせないため、監視画像から火災による煙を精度良く判断して火災警報を出力する火災監視システムは実用化の途上にある。
一方、近年にあっては、例えば多数の猫と犬の画像にラベル付けをし、それを畳み込みニューラルネットワークを備えた多層式のニューラルネットワークに学習させ、所謂ディープラーニングを行い、新たな画像を学習済みの多層式のニューラルネットワークに提示し、それが猫なのか犬なのかを判定する技術が開示されている。
また、ディープラーニングは画像解析のみにとどまらず、自然言語処理や行動解析等に用いることが検討されている。
このような多層式のニューラルネットワークを、監視カメラで撮像した監視領域の画像を入力情報とし、入力情報から火災を判定する火災検出器に設け、学習時においては多数の火災時及び非火災時の入力情報を準備して多層式のニューラルネットワークに学習させ、監視時においては入力情報を学習済みの多層式のニューラルネットワークに入力すれば、その出力から火災か否かを高い精度で推定して警報を出力させる火災監視システムが構築可能となる。
ところで、多層式のニューラルネットワークを備えた火災検出器の監視環境は、通常の火災感知器では監視しづらい場所が対象となり、例えば、ボイラー室、電気室、サーバルーム等、特殊な監視環境が想定される。
しかしながら、施設やビル等の一般的な監視環境での火災画像により火災検出器の多層式のニューラルネットワークを学習した場合、ボイラー室、電気室、サーバルーム等の特殊な監視環境で発生する油火災や電気火災等に対し火災検出器による火災の判定精度が落ちる虞れがある。
本発明は、監視環境から発生しやすい火災に対し多層式のニューラルネットワークを備えた火災検出器により高い感度での火災の判定を可能とする火災監視システムを提供することを目的とする。
(第1発明の火災監視システム)
本発明は、多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、
監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、
環境火災判別部により判定された種類の火災により火災検出器の多層式のニューラルネットワークをディープラーニングにより学習させる学習制御部と、
監視領域の入力情報を学習済みの火災検出器に入力した場合に出力される火災推定値を所定の閾値と比較して火災を判定する火災判定部と、
が設けられたことを特徴とする。
(環境火災の優先度)
環境火災判定部は、監視領域の監視環境から複数種類の火災を判別した場合に、発生しやすい火災の順に優先度を設定し、
学習制御部は、環境火災判定部で判定された優先度の高い1又は複数種類の火災により火災検出器の多層式のニューラルネットワークをディープラーニングにより学習させる。
(第2発明の火災監視システム)
本発明の別の形態にあっては、多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、
監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、
火災の種類毎にディープラーニングにより学習された複数種類の火災検出器と、
入力情報を複数種類の火災検出器に入力した場合に出力される火災推定値の各々を、火災の種類に対応した所定の閾値と比較して火災を判定する火災判定部と、
火災判定部における火災の種類に対応した閾値を、環境火災判定部で判定された火災の種類を判定しやすいように設定する閾値設定部と、
が設けられたことを特徴とする。
(発生しやすい火災の種類に対応した閾値の設定)
閾値設定部は、環境火災判定部により判定された火災の種類に対応した閾値を、それ以外の火災の種類に対応した閾値に対し低い値に設定する。
(発生しやすい火災の自動判定)
環境火災判定部は、
撮像部により撮像された監視領域の画像を解析し、画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、
画像解析部から出力された画像に含まれる要素の単語を、辞書に予め記憶した所定の監視環境を示す単語と比較して監視領域の環境を推定し、推定した監視環境に対応して発生しやすい火災の種類を判定する火災種類判定部と、
が設けられる。
(入力情報)
火災検出器は、センサにより検出された物理量及び又は撮像部により撮像された監視領域の画像を入力情報として入力して火災推定値を出力する。
(監視環境と火災の種類)
監視環境は、ボイラー室、電気室、サーバルーム、調理室、実験室を含み、
複数種類の火災は、燻焼火災、油火災、電気火災及び薬品火災を含む。
(多層式ニューラルネットワークの機能構成)
多層式のニューラルネットワークは、特徴抽出部と認識部で構成され、
特徴抽出部は、入力情報を入力して入力情報の特徴が抽出された特徴情報を生成する複数の畳み込み層を備えた畳み込みニューラルネットワークとし、
認識部は、畳み込みニューラルネットワークから出力される特徴情報を入力し、火災特徴値を出力する全結合ニューラルネットワークとする。
(バックプロパゲーションによる学習)
火災検出器は、多層式のニューラルネットワークに学習情報を入力した場合に出力される値と所定値の期待値との誤差に基づくバックプロパゲーションにより多層式のニューラルネットワークを学習させる。
(火災判定根拠の明示)
火災判定部は、火災の判定に加え火災判定の根拠とした火災種別を表示させる。
(第1発明の基本的な効果)
本発明は、多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、環境火災判別部により判定された種類の火災により火災検出器の多層式のニューラルネットワークをディープラーニングにより学習させる学習制御部と、監視領域の入力情報を学習済みの火災検出器に入力した場合に出力される火災推定値を所定の閾値と比較して火災を判定する火災判定部とが設けられたため、火災検出器により監視している監視環境に固有な発生しやすい火災に対し、より感度の高い火災の判定が可能となり、火災の早期発見により適切な対処が可能となる。
(環境火災の優先度による効果)
また、環境火災判定部は、監視領域の監視環境から複数種類の火災を判別した場合に、発生しやすい火災の順に優先度を設定し、学習制御部は、環境火災判定部で判定された優先度の高い1又は複数種類の火災により火災検出器の多層式のニューラルネットワークをディープラーニングにより学習させるようにしたため、監視環境からは油火災、電気火災等に代表される有炎火災や燻焼火災等の複数種類の火災が想定されるが、発生のしやすさに応じて優先度を設定し、優先度の高い1又は複数種類の火災により火災検出器を学習しておくことで、監視環境に固有の発生しやすい火災に対し、より感度の高い火災の判定を可能とする。
(第2発明の基本的な効果)
本発明の別の形態にあっては、多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、火災の種類毎にディープラーニングにより学習された複数種類の火災検出器と、入力情報を複数種類の火災検出器に入力した場合に出力される火災推定値の各々を、火災の種類に対応した所定の閾値と比較して火災を判定する火災判定部と、火災判定部における火災の種類に対応した閾値を、環境火災判定部で判定された火災の種類を判定しやすいように設定する閾値設定部とが設けられたため、複数種類の火災検出器が出力する火災推定値から火災を判定する閾値につき、監視環境に固有な発生しやすい火災を判定するように閾値が設定されることで、監視環境に固有の発生しやすい火災に対し、より感度の高い火災の判定を可能とする。
(発生しやすい火災の種類に対応した閾値の設定)
また、閾値設定部は、環境火災判定部により判定された火災の種類に対応した閾値を、それ以外の火災の種類に対応した閾値に対し低い値に設定するようにしたため、閾値を低い値に設定した種類の火災推定値を火災として判定しやすくなり、監視環境に固有の発生しやすい火災に対し、より感度の高い火災の判定を可能とする。
(発生しやすい火災の自動判定)
また、環境火災判定部は、撮像部により撮像された監視領域の画像を解析し、画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、画像解析部から出力された画像に含まれる要素の単語を、辞書に予め記憶した所定の監視環境を示す単語と比較して監視領域の環境を推定し、推定した監視環境に対応して発生しやすい火災の種類を判定する火災種類判定部とが設けられたため、監視カメラにより撮像された監視画像を解析することで、監視環境に存在する1又は複数の対象物の特徴が抽出されて単語化され、抽出された単語を辞書の監視環境を示す所定の単語と比較して一致又は類似した場合に監視領域の監視環境と推定して発生しやすい火災の種類を自動的に判定することができる。
(入力情報)
また、複数の火災検出器は、センサにより検出された物理量及び又は撮像部により撮像された監視領域の画像を入力情報として入力して火災検出値を出力するようにしたため、センサで検出された物理量や撮像部で撮像された監視領域の画像等を学習済みの複数種類の検出器に入力することで、高い精度で火災を判定可能とする。
(監視環境と火災の種類による効果)
また、監視環境は、ボイラー室、電気室、サーバルーム、調理室、実験室を含み、複数種類の火災は、燻焼火災、油火災、電気火災及び薬品火災を含むようにしたため、例えば、監視環境としてボイラー室の場合には発生しやすい火災として油火災が判定され、油火災に対しより感度の高い火災の判定が可能となり、また、電気室やサーバルームの場合には発生しやすい火災として電気火災が判定され、電気火災に対しより感度の高い火災の判定が可能となる。
(多層式のニューラルネットワークの機能構成による効果)
また、多層式のニューラルネットワークは、特徴抽出部と認識部で構成され、特徴抽出部は、監視領域の入力情報を入力して入力情報の特徴が抽出された特徴情報を生成する複数の畳み込み層を備えた畳み込みニューラルネットワークとし、認識部は、畳み込みニューラルネットワークから出力される特徴情報を入力し、火災特徴値を出力する全結合ニューラルネットワークとするようにしたため、畳み込みニューラルネットワークにより特徴が自動的に抽出されることで、監視領域の入力情報から前処理により火災入力情報の特徴、例えば、画像に於いては輪郭等を抽出するような前処理を必要とすることなく入力情報の特徴が抽出され、引き続いて行う認識部により高い精度で火災を推定可能とする。
(バックプロパゲーションによる学習の効果)
学習制御部は、火災検出器の多層式のニューラルネットワークに火災入力情報又は非火災入力情報を入力した場合に出力される値と所定値の期待値との誤差に基づくバックプロパゲーション(誤差逆伝播)により多層式のニューラルネットワークを学習させるようにしたため、火災の種類毎に準備された多数の入力情報を火災入力情報として入力した場合に、出力の期待値として火災の推定値を与えてバックプロパゲーション処理により出力値と期待値の誤差を最小とするように多層式のニューラルネットワークにおけるウェイト(重み)とバイアスが学習され、入力情報からより高い精度で火災を推定して警報可能とする。
(火災判断根拠の明示による効果)
また、火災判定部は、火災の判定に加え火災判定の根拠とした火災種別を表示させるようにしたため、発生した火災の種類がわかることで、火災の種類に対応した消火活動や避難指示を行うことを可能とする。
火災監視システムの第1施形態を示した説明図 図1の火災検出器及び学習制御部の機能構成を示した説明図 図2に示した多層式ニューラルネットワークの機能構成を示した説明図 図1の実施形態による環境火災監視制御を示したフローチャート 図1の監視環境判別部の機能構成を示した説明図 図5の画像解析部に設けられた畳み込みニューラルネットワークと再帰型ニューラルネットワークの機能構成を示した説明図 火災監視システムの第2施形態を示した説明図 図7の火災検出器及び学習制御部の機能構成を示した説明図 図7の火災判定部の機能構成を火災検出器、環境火災判別部及び閾値設定部と共に示した説明図 図8の実施形態による環境火災監視制御を示したフローチャート
[火災監視システムの第1実施形態]
図1は火災監視システムの第1実施形態を示した説明図である。図1に示すように、ビル等の施設の監視領域14には撮像部として機能する監視カメラ16が設置され、監視領域14を監視カメラ16により動画撮像している。監視カメラ16はRGBのカラー画像を例えば30フレーム/秒で撮像して動画として出力する。また、1フレームは例えば縦横4056×4056ピクセルの画素配置となる。
また、監視領域14にはそれぞれオンオフ型の火災感知器18が設置されており、火災による温度又は煙濃度を検出し、所定の閾値レベルを超えた場合に発報し、火災発報信号を出力するようにしている。
このように本実施形態が監視対象とする監視領域14としては、ボイラー室、電気室、サーバルーム、調理室、実験室等の特殊な監視環境が含まれる。
監視領域14に対し施設の防災監視センターや管理人室等には、火災判定装置10と火災報知設備の火災受信機12が設置されている。なお、火災判定装置10と受火災信機12は一体としても良い。火災判定装置10には監視領域14に設置された監視カメラ16が信号ケーブル22により接続されており、監視カメラ16で撮像された動画画像を入力している。
火災受信機12からは監視領域14に感知器回線25が引き出され、感知器回線25単位に火災感知器18が接続されている。
火災判定装置10には、火災検出器20、環境火災判別部24、学習制御部26及び判定部28が設けられる。火災検出器20は多階層のニューラルネットワークを備えており、監視カメラ16により撮像した監視領域14の画像を入力して火災推定値を出力する。
環境火災判別部24は、監視カメラ16により撮像した監視領域14の画像を入力し、ボイラー室、電気室、サーバルーム等の監視領域16の監視環境を推定すると共に推定したボイラー室、電気室、サーバルーム等の監視環境から発生しやすい火災の種類、例えば油火災や電気火災を判定する。
学習制御部26は、環境火災判別部24により判定された種類の火災により火災検出器20の多層式のニューラルをディープラーニングにより学習させる。例えば環境火災判別部24によりボイラー室の油火災が判別された場合、油火災の画像により多層式のニューラルネットワークを学習し、監視環境となるボイラー室に固有な油火災に対し、より高い感度での火災判定を可能とする。
また、環境火災判定部24は、監視領域14の監視環境から複数種類の火災を判別した場合は、発生しやすい火災の順に優先度を設定する。この場合、学習制御部26は、環境火災判定部24で判定された優先度の高い1又は複数種類の火災により火災検出器20の多層式のニューラルをディープラーニングにより学習させる。
これは監視環境によっては、複数種類の火災が発生しやすい場合があることに対応している。例えば、サーバルーム等にあっては、サーバラックに収納されたサーバマシンによる電気火災以外に、例えば運用管理に使用する取扱い説明書等がおかれていることから燻焼火災が発生する可能性もあり、この場合、環境火災判定部24は判定した電気火災の優先度を第1位とし、判定した燻焼火災の優先度を第2位とし、学習制御部26は電気火災と燻焼火災の両方により火災検出器20の多層式のニューラルをディープラーニングにより学習させる。
このため火災検出器20は、監視環境から発生しやすい電気火災と燻焼火災の両方について高い感度で火災が判定できる。
[火災検出器]
図2は図1に示した多層式ニューラルネットワークを用いた火災検出器及び学習制御部の機能構成を示した説明図である。
図2に示すように、火災検出器20は、画像入力部30と多層式ニューラルネットワーク32で構成され、学習制御器26は学習画像記憶部34と制御部36で構成され、これらの機能は、ニューラルネットワークの処理に対応したコンピュータ回路のCPUによるプログラムの実行により実現される。
火災検出器20は監視カメラ16で撮像された監視領域の画像を、画像入力部30を介して多層式ニューラルネットワーク32に入力し、火災推定値を出力する。
学習制御部26は、環境火災判定部24で判定された監視環境の発生しやすい火災の種類に対応した学習画像、例えば油火災であれば油火災の動画からフレーム単位に油火災画像を学習画像記憶部34から読み出し、画像入力部30を介して多層式ニューラルネットワーク32に教師ありの火災画像として入力し、例えばバックプロパゲーション法(誤差逆伝播法)等の学習法により多層式ニューラルネットワーク32の重みとバイアスを学習させる。
この教師ありの油火災の画像を用いて学習の済んだ多層式ニューラルネットワーク32に、監視カメラ16で撮像された例えばボイラー室等の監視領域14の火災の画像を入力すると、油火災の画像に対応した火災推定値Wが出力される。この火災検出器20から出力される火災推定値Wは学習に用いたと同様な油火災の画像の場合は火災推定値が1又は1に近い値となり、監視環境に固有な油火災をより高い感度で判定することができる。
[多層式ニューラルネットワーク]
図3は図2に示した多層式ニューラルネットワークの機能構成を示した説明図であり、図3(A)に概略を示し、図3(B)に詳細を模式的に示している。
図3(A)に示すように、本実施形態の多層式ニューラルネットワーク32は、特徴抽出部38と認識部40で構成される。特徴抽出部38は畳み込みニューラルネットワークであり、認識部40は全結合ニューラルネットワークである。
多層式ニューラルネットワーク32は、深層学習(ディープラーニング)を行うニューラルネットワークであり、中間層を複数つなぎ合わせた深い階層をもつニューラルネットワークであり、特徴抽出となる表現学習を行う。
通常のニューラルネットワークは、画像から火災を判定するための特徴抽出には、人為的な試行錯誤による作業を必要とするが、多層式ニューラルネットワーク32では、特徴抽出部38として畳み込みニューラルネットワークを用いることで、画像の画素値を入力とし、学習により最適な特徴を抽出し、認識部40の全結合ニューラルネットワークに入力して火災か非火災かを識別する。
認識部40の全結合ニューラルネットワークは、図3(B)に模式的に示すように、入力層46、全結合48、中間層50と全結合48の繰り返し、及び出力層52で構成されている。
(畳み込みニューラルネットワーク)
図3(B)は特徴抽出部38を構成する畳み込みニューラルネットワークの構造を模式的に示している。
畳み込みニューラルネットワークは、通常のニューラルネットワークとは少し特徴が異なり、視覚野から生物学的な構造を取り入れている。視覚野には、視野の小区域に対し敏感な小さな細胞の集まりとなる受容野が含まれており、受容野の挙動は、行列の形で重み付けを学習することで模倣できる。この行列は重みフィルタ(カーネル)呼ばれ、生物学的に受容野が果たす役割と同様に、ある画像の類似した小区域に対して敏感になる。
畳み込みニューラルネットワークは、畳み込み演算により、重みフィルタと小区域との間の類似性を表すことでき、この演算を通して、画像の適切な特徴を抽出することができる。
畳み込みニューラルネットワークは、図3(B)に示すように、まず、入力画像42に対し重みフィルタ43により畳み込み処理を行う。例えば、重みフィルタ43は縦横3×3の所定の重み付けがなされた行列フィルタであり、入力画像42の各画素にフィルタ中心を位置合わせしながら畳み込み演算を行うことで、入力画像42の9画素を小区域となる特長マップ44aの1画素に畳み込み、複数の特徴マップ44aが生成される。
続いて、畳み込み演算により得られた特徴マップ44aに対しプーリングの演算を行う。プーリングの演算は、識別に不必要な特徴量を除去し、識別に必要な特徴量を抽出する処理である。
続いて、重みフィルタ45a,45bを使用した畳み込み演算とプーリングの演算を多段に繰り返して特徴マップ44b,44cが得られ、最後の層の特徴マップ44cを認識部40に入力し、通常の全結合ニューラルネットワークを用いた認識部40により火災か非火災かを推定する。
なお、畳み込みニューラルネットワークにおけるプーリングの演算は、火災か非火災かの識別に不必要な特徴量が必ずしも明確でなく、必要な特徴量を削除する可能性があることから、プーリングの演算は行わないようにしても良い。
[多層式ニューラルネットワークの学習]
(バックプロパゲーション)
入力層、複数の中間層及び出力層で構成されるニューラルネットワークは、各層に複数のユニットを設けて他の層の複数のユニットと結合し、各ユニットにはウェイト(重み)とバイアス値が設定され、複数の入力値とウェイトとのベクトル積を求めてバイアス値を加算して総和を求め、これを所定の活性化関数に通して次の層のユニットに出力するようにしており、最終層に到達するまで値が伝播するフォワードプロパゲーションが行われる。
このようなニューラルネットワークのウェイトやバイアスを変更するには、バックプロパゲーションとして知られている学習アルゴリズムを使用する。バックプロパゲーションでは、入力値xと期待される出力値(期待値)yというデータセットをネットワークに与えた場合の教師ありの学習と、入力値xのみをネットワークに与えた場合の教師なしの学習があり、本実施形態は、教師ありの学習を行う。
教師ありの学習でバックプロパゲーションを行う場合は、ネットワークを通ってきたフォワードプロパゲーションの結果である推定値y*と期待値yの値を比較する誤差として、例えば、平均二乗誤差の関数を使用する。
バックプロパゲーションでは、推定値y*と期待値yの誤差の大きさを使い、ネットワークの後方から前方までウェイトとバイアスを補正しながら値を伝播させる。各ウェイトとバイアスについて補正した量は、誤差への寄与として扱われ、最急降下法で計算され、ウェイトとバイアスの値を変更することにより、誤差関数の値を最小化する。
ニューラルネットワークに対するバックプロパゲーションによる学習の手順は次にようになる。
(1) 入力値xをニューラルネットワークに入力して、フォワードプロパゲーションを行い推定値y*を求める。
(2) 推定値y*と期待値yに基づき誤差関数で誤差を計算する。
(3) ウェイトとバイアスを更新しながら、ネットワークにて、バックプロパゲーションを行う。
この手順は、ニュウーラルネットワークのウェイトとバイアスの誤差が可能な限り最小になるまで、異なる入力値xと期待値yの組み合わせを使って繰り返し、誤差関数の値を最小化する。
[火災監視制御]
図4は図1の実施形態による火災監視制御を示したフローチャートである。図4に示すように、環境火災判定部24はステップS1で監視カメラ16により撮像された監視領域14の画像を入力して画像解析することにより例えばボイラー室であることを推定し、続いてステップS2に進み、推定したボイラー室での発生しやすい火災として油火災を判定し、学習制御部26に出力する。
学習制御部26はステップS3で環境火災判定部24から出力された火災の種類、例えば油火災に基づき、図2に示したように学習画像記憶部34から油火災に対応した学習画像を読み出し、火災検出器20の多層式ニューラルネットワーク32を油火災の学習画像により学習させる。
ステップS3で学習の済んだ火災検出器20は、ステップS4で監視カメラ16により撮像された監視領域14の画像を入力し、火災推定値を出力する。判定部28はステップS5で火災検出器20の火災推定値を読み込んで所定の閾値と比較し、火災推定値が所定の閾値以上(又は閾値超え)の場合、ステップS6に進み、火災判定信号を火災受信機12に出力し、火災予兆警報等を出力させる。
続いて判定部28はステップS5に進み、環境火災判定部24により監視環境から発生しやすい火災として判定されている火災種類、例えば油火災を火災判定の根拠として例えば火災受信機12のディスプレイ上に表示させる制御を行う。このように火災判定の根拠となった火災種類が表示されることで、油火災、電気火災、薬品火災又は燻焼火災といった火災の種類に対応した消火活動や避難誘導が適切に行われることが可能となる。
[環境火災の自動判定]
(環境火災判定部の機能構成)
図5は図1の環境火災判別部の機能構成を示した説明図である。図5に示すように、環境火災判定部24は、画像入力部54、学習データセット記憶部56、画像解析部60及び火災種類判定部62を備える。画像解析部60は多層式ニューラルネットワークとして畳み込みニューラルネットワーク64と再帰型ニューラルネットワーク66を備え、また、畳み込みニューラルネットワーク64と再帰型ニューラルネットワーク66を学習するための学習制御部68を備えている。
火災種類判定部62は判定器70とシソーラス辞書72で構成されている。シソーラス辞書72には監視環境を特定するための単語が環境名単位に大分類から小分類に分けて体系的に整理して記憶され、また、ボイラー室や電気室といった環境名に対応して発生しやすい火災の種類が記憶されている。
ここで、環境火災判定部24の機能は、多層式のニューラルネットワークの処理に対応したコンピュータ回路のCPUによるプログラムの実行により実現される。
画像入力部54は監視カメラ16で撮像された監視領域14の画像を入力し、画像解析部60に出力する。画像解析部20に設けられた畳み込みニューラルネットワーク64は入力した監視画像の特徴量を抽出して出力する。再帰型ニューラルネットワーク66は畳み込みニューラルネットワーク24から出力された特徴量を入力し、入力画像の概要を説明する画像説明文を生成して出力する。
火災種類判定部62の判定器70は、画像解析部60の再帰型ニューラルネットワーク66から出力された画像説明文を構成する1又は複数の単語と、シソーラス辞書72に記憶されている複数の環境判定単語とを比較し、画像説明文の単語がシソーラス辞書72の環境判定単語に一致又は類似した場合にボイラー室や電気室といった監視領域14の環境名を判定し、判定した環境名に対応して記憶している発生しやすい火災の種類を判定して出力する。
画像解析部60に設けられた折り畳みニューラルネットワーク64と再帰型ニューラルネットワーク66は、学習データセット記憶部56に予め記憶された学習画像とその画像説明文のペアからなる多数の学習データセットを使用して学習制御部68により学習されている。
学習データセット記憶部56に記憶されている学習画像は、例えば、通常監視状態で監視カメラにより撮像されたボイラー室や電気室といった監視環境の多数の監視画像を学習画像として記憶している。
また、学習データセット記憶部56には、記憶された多数の監視環境の学習画像に対応して画像説明文が準備され、学習画像と画像説明文のペアからなる多数の学習データセットとして記憶されている。例えば、ボイラー室の学習画像に対しては「ボイラー、バルブ、配管が配置されている。」といった画像説明文が記憶されている。
学習制御部68は、入力層、複数の中間層及び全結合の出力層で構成された学習用の畳み込みニューラルネットワーク(図示せず)を準備し、まず、学習データセット記憶部56に記憶されている多数の学習画像を読み出し、学習用の畳み込みニューラルネットワークに教師なしの学習画像として入力し、バックプロパゲーション法(逆伝播法)により学習させる。
続いて、学習制御部68は、学習用の畳み込みニューラルネットワーク得られたウェイトとバイアスを、出力層を持たない畳み込みニューラルネットワーク64にセットして学習済みとし、学習済みの畳み込みニューラルネットワーク64に学習画像を入力して特徴量を抽出し、抽出した特徴量と入力した学習画像とセットになっている画像説明文を再帰型ニューラルネットワーク66に教師なしの学習情報として入力し、バックプロパゲーション法(逆伝播法)により学習させる。
[画像解析部の多層式ニューラルネットワーク]
図6は図5の画像解析部に設けられた畳み込みニューラルネットワークと再帰型ニューラルネットワークの機能構成を示した説明図である。
(畳み込みニューラルネットワーク)
図6に示すように、畳み込みニューラルネットワーク64は入力層74、複数の中間層76で構成されている。通常の畳み込みニューラルネットワークは最後の中間層76の後に、入力層、複数の中間層及び出力層を全結合して画像の特徴量から出力を推定する多層式ニューラルネットワークを設けているが、本実施形態は、入力画像の特徴量を抽出するだけで良いことから、後段の全結合の多層式ニューラルネットワークは設けていない。
畳み込みニューラルネットワーク64は、図3に示したと同様、通常のニューラルネットワークとは少し特徴が異なり、視覚野から生物学的な構造を取り入れている。視覚野には、視野の小区域に対し敏感な小さな細胞の集まりとなる受容野が含まれており、受容野の挙動は、行列の形で重み付けを学習することで模倣できる。この行列は重みフィルタ(カーネル)呼ばれ、生物学的に受容野が果たす役割と同様に、ある画像の類似した小区域に対して敏感になる。
畳み込みニューラルネットワーク64は、畳み込み演算により、重みフィルタと小区域との間の類似性を表すことでき、この演算を通して、画像の適切な特徴を抽出することができる。
畳み込みニューラルネットワーク64は、入力層74に入力した入力画像に対し重みフィルタにより畳み込み処理を行う。例えば、重みフィルタは縦横3×3の所定の重み付けがなされた行列フィルタであり、入力画像の各画素にフィルタ中心を位置合わせしながら畳み込み演算を行うことで、入力画像の9画素を次の中間層76の小区域となる特徴マップの1画素に畳み込み、中間層76に特徴マップが生成される。
続いて、畳み込み演算により得られた中間層76の特徴マップに対しプーリングの演算を行う。プーリングの演算は、識別に不必要な特徴量を除去し、識別に必要な特徴量を抽出する処理である。
続いて、重みフィルタを使用した畳み込み演算とプーリングの演算を各中間層76毎に繰り返すことで最後の中間層76まで特徴マップが生成され、本実施形態にあっては、任意の中間層76に生成された特徴マップを、入力画像の特徴量として再帰型ニューラルネットワーク66に入力している。
畳み込みニューラルネットワーク64は、図5に示した学習制御部68により学習データセット記憶部56に記憶された学習画像を入力して教師なしの学習を行っており、この学習により、良く似た画像をグループ分けするクラスタリングされた特徴量をもつ画像を生成することができる。
(再帰型ニューラルネットワーク)
図6に示す再帰型ニューラルネットワーク66は、畳み込みニューラルネットワーク64を用いて抽出した画像の特徴量を、単語ベクトルと共に入力して画像説明文を予測する。
本実施形態の再帰型ニューラルネットワーク66は、時系列データ対応の深層学習モデルとなるLSTM−LM(Long Short−Term Memory−Langage Model)を使用している。
通常の再帰型ニューラルネットワークのモデルは、入力層、隠れ層、出力層で構成され、隠れ層の情報を次時刻の入力とすることで過去の経歴を利用した時系列解析をするモデルである。これに対しLSTMモデルは、過去の文脈となるt−1個の単語からt番目の単語として各単語が選ばれる確率を算出する。即ち、LSTMモデルは1時刻前の隠れ状態となる時刻1〜t−1の単語情報、1時刻前の予測結果となる時刻t−1の単語、及び外部情報の3つを入力とし、逐次的に次の単語の予測を繰り返して文章を生成する。
図6の再帰型ニューラルネットワーク66は、畳み込みニューラルネットワーク64で抽出された画像の特徴ベクトルをLSTM隠れ層78に入力する行列に変換するLSTM入力層77、レジスタ80に単語単位に格納された単語S0〜SN-1をベクトルWeS0〜WeSN-1に変換するベクトル変換部82、N−1段のLSTM隠れ層78、LSTM隠れ層78の出力を出現確率p1〜pNに変換する確率変換部84、単語を出力する確率からコスト関数logP1(s1)〜logpN(SN)により算出してコストを最小化するコスト算出部86で構成される。
(再帰型ニューラルネットワークの学習)
再帰型ニューラルネットワーク66の学習対象は、ベクトル変換部82とLSTM隠れ層78であり、畳み込みニューラルネットワーク64からの特徴量は、学習済みのパラメータをそのまま使用する。
学習データは、学習画像Iとその画像説明文の単語列{St}(t=0,・・・N)となり、次の手順で行う。
(1) 画像Iを畳み込みニューラルネットワーク64に入力し、特定の中間層76の出力を特徴ベクトルとして取り出す。
(2) 特徴ベクトルをLSTM隠れ層78に入力する。
(3) 単語列Stをt=0からt=N−1まで順に入力し、それぞれのステップで確率pt+1を得る。
(4) 単語St+1を出力する確率pt+1(St+1)から求まるコストを最小化する。
(画像説明文の生成)
学習済みの畳み込みニューラルネットワーク64と再帰型ニューラルネットワーク66を使用して画像説明文を生成する場合には、畳み込みニューラルネットワーク64に画像を入力して生成した特徴量のベクトルを再帰型ニューラルネットワーク66に入力し、単語の出現確率の積が高い順に単語列を並べて画像説明文を生成させる。この手順は次のようになる。
(1) 画像を畳み込みニューラルネットワーク64に入力し、特定の中間層76の出力を特徴ベクトルとして取り出す。
(2) 特徴ベクトルをLSTM入力層77からLSTM隠れ層78に入力する。
(3) 文の開始記号<S>を、ベクトル変換部82を使用してベクトルに変換し、LSTM隠れ層78に入力する。
(4) LSTM隠れ層78の出力から単語の出現確率が分かるので、上位M個(例えばM=20個)の単語を選ぶ。
(5) 1つ前のステップで出力した単語を、ベクトル変換部82を使用してベクトルに変換し、LSTM隠れ層78に入力する。
(6) LSTM隠れ層78の出力から、これまでに出力した単語の確率の積を求め、上位M個の単語列を選択する。
(7) 前記(5)と前記(6)の処理を、単語の出力が終端記号になるまで繰り返す。
このように環境火災判定部24は、監視カメラにより撮像された監視画像を解析することで、監視領域14の監視環境と推定して発生しやすい火災の種類、例えばボイラー室の推定に対し油火災を判定し、電気室やサーバルームの推定に対し電気火災を判定し、更に、実験室の推定に対し薬品火災を判別するといった処理が自動的に行われ、自動的に判定された火災の種類を学習制御部24に出力して火災検出器20を学習することで、監視環境から発生しやすい種類に火災に対し、より高い感度で火災を判定することができる。
[火災監視システムの第2実施形態]
図7は火災監視システムの第2実施形態を示した説明図、図8は図7の火災検出器及び学習制御部の機能構成を示した説明図、図9は図7の火災判定部の機能構成を火災検出器、環境火災判別部及び閾値設定部と共に示した説明図である。
図7に示すように、本実施形態の火災監視システムは、図1の第1実施形態と同様、監視領域14に監視カメラ16が設置され、監視カメラ16で撮像された動画画像は火災判定装置10に入力され、警戒領域14には火災受信機12から引き出された感知器回線25に接続された火災感知器18が設置されている。
火災判定装置10には、複数種類の火災検出器として、油火災検出器20−1、電気火災検出器20−2、薬品火災検出器20−3及び燻焼火災検出器20−4が設けられ、図8の油火災検出器20−1に代表して示すように、画像入力部30と多層式ニューラルネットワーク32が設けられている。なお、以下の説明では、油火災検出器20−1、電気火災検出器20−2、薬品火災検出器20−3及び燻焼火災検出器20−4を複数種類の火災検出器20−1〜20−4という場合がある。
油火災検出器20−1、電気火災検出器20−2、薬品火災検出器20−3及び燻焼火災検出器20−4には監視カメラ16からの信号ケーブル22が分岐して入力され、監視カメラ16から送られてきた動画画像をフレーム単位に入力して、油火災推定値W、電気火災推定値X、薬品火災推定値Y及び燻焼火災推定値Zを火災判定部28に出力する。
また、火災判定装置10には、環境火災判定部24、閾値設定部27及び火災判定部28が設けられている。
環境火災判別部24は、図1の実施形態と同じであり、監視カメラ16により撮像した監視領域14の画像を入力し、ボイラー室、電気室、サーバルーム等の監視領域16の監視環境を推定すると共に推定したボイラー室、電気室、サーバルーム等の監視環境から発生しやすい火災の種類、例えば油火災や電気火災を判定する。環境火災判定部24による環境から発生しやすい種類の火災の自動判定は、図5及び図6に示したと同じになる。
学習制御部26は、図8に示すように、学習画像記憶部34と制御部36で構成され、油火災検出器20−1の多階層ニューラルネットワーク34を油火災画像により学習し、電気火災検出器20−2の多階層ニューラルネットワークを電気火災画像により学習し、薬品火災検出器20−3の多階層ニューラルネットワークを薬品火災画像により学習し、更に燻焼火災検出器20−4の多階層ニューラルネットワークを燻焼火災画像により学習している。
判定部22は、図9に示すように、比較器90−1,90−2,90−3,90−4とOR回路92で構成され、比較器90−1,90−2,90−3,90−4の一方の入力に油火災検出器20−1、電気火災検出器20−2、薬品火災検出器20−3及び燻焼火災検出器20−4から出力される油火災推定値W、電気火災推定値X、薬品火災推定値Y及び燻焼火災検出値Zが入力される。
また、比較器90−1,90−2,90−3,90−4の他方の入力には閾値設定部27により設定された火災の種類に対応した所定の閾値、例えば油火災閾値Wth、電気火災閾値Xth、薬品火災閾値Yth、及び燻焼火災検出値Zthが入力される。
比較器90−1,90−2,90−3,90−4は、火災推定値W,X,Y,Zが対応する閾値Wth,Xth,Yth,Zth以上又は閾値超えの場合に火災判定信号をOR回路92を介して火災受信機12に出力して火災予兆警報等を出力させる。
閾値設定部27は、環境火災判定部24により判定された火災の種類に対応した閾値を、それ以外の火災の種類に対応した閾値に対し低い値に設定する。環境火災判定部24で監視環境として例えばボイラー室が推定され、ボイラー室から発生しやすい火災として油火災が判定されていた場合、閾値設定部27は、油火災閾値Wth、電気火災閾値Xth、薬品火災閾値Yth、及び燻焼火災検出値Zthとして例えば
油火災閾値 Wth=0.6
電気火災閾値 Xth=0.9
薬品火災閾値 Yth=0.9
燻焼火災検出値Zth=0.9
に設定する。
このため、閾値Wth=0.6と低い値に設定した油火災を火災として判定しやすくなり、監視環境に固有の発生しやすい火災に対し、より感度の高い火災の判定を可能とする。
なお、特定種類の火災判定を行わないためには、これに対応した閾値を1以上の高い値に設定すれば良い。
[火災監視制御]
図10は図7の実施形態による火災監視制御を示したフローチャートである。図10に示すように、環境火災判定部24はステップS11で監視カメラ16により撮像された監視領域14の画像を入力して画像解析することにより例えばボイラー室であることを推定し、続いてステップS12に進み、推定したボイラー室での発生しやすい火災として油火災を判定し、閾値設定部27に出力する。
閾値設定部27はステップS13で環境火災判定部24から出力された火災の種類、例えば油火災に基づき、図9に示した判定部28の油火災検出器20−1からの火災推定値Wを入力した比較器90−1に対する閾値Wthを、それ以外の火災推定値X,Y,Zを入力している比較器90−2〜90−4に対する閾値Xth,Yth,Zthより低い値に設定し、ボイラー室から発生しやすい油火災に対し、より高い感度で火災を判定可能とする。
続いて、ステップS14で監視カメラ16により撮像された監視領域14の画像を複数種類の火災検出器20−1〜20−4に入力して火災推定値W,X,Y,Zを出力する。判定部28はステップS15で複数種類の火災検出器20−1〜20−4からの火災推定値W,X,Y,Zを読み込み、ステップS16で所定の閾値Wth,Xth,Yth,Zthと比較し、何れかの火災推定値が対応する閾値以上(又は閾値超え)の場合、ステップS17に進み、火災判定信号を火災受信機12に出力し、火災予兆警報等を出力させる。
続いて判定部28はステップS18に進み、火災として判定された火災種類、例えば油火災を例えば火災受信機12のディスプレイ上に表示させる制御を行う。このように火災判定の根拠となった火災の種類が表示されることで、油火災、電気火災、薬品火災又は燻焼火災といった火災の種類に対応した消火活動や避難誘導が適切に行われることを可能とする。
〔本発明の変形例〕
(学習機能)
上記の実施形態に示した火災検出器は、多階層ニューラルネットワークの学習機能を備えた場合を例にとっているが、多階層ニューラルネットワークの学習は、学習機能を備えたサーバ等の別のコンピュータ設備を使用して行い、その結果得られた学習済みの多階層ニュートラルネットワークを火災検出器に実装して使用するようにしても良い。
(監視環境と火災種別)
上記の実施形態は、監視環境としてボイラー室、電気室、サーバルーム、実験室等を例にとつているが、これ以外の適宜の場所や用途であっても良い。また、上記の実施形態は、監視環境から発生しやすい火災の種類として、油火災、電気火災、薬品火災、燻焼火災を例にとっているが、これ以外の適宜の種類の火災を含む。
(放火監視)
上記の実施形態は、警戒区域の火災監視を例にとっているが、これ以外に、屋外に監視カメラや炎検知器などのセンサを設置して行う放火監視に多層式のニューラルネットワークによって構成される火災検出器を設け、火災検出器をディープラーニングより学習させ、放火を監視するようにしても良い。
(特徴抽出)
上記の実施形態は、畳み込みニューラルネットワークに画像を入力して火災による特徴を抽出しているが、畳み込みニューラルネットワークを使用せず、入力した画像から輪郭、濃淡等の特徴を抽出する前処理を行って所定の特徴を抽出し、特徴が抽出された画像を認識部として機能する全結合ニューラルネットワークに入力して火災か非火災かを推定させるようにしても良い。これにより画像の特徴抽出の処理負担を低減可能とする。
(学習方法について)
上記の実施形態は、バックプロパゲーションによる学習を行っているが、多層ニューラルネットワークの学習方法はこれに限らない。
(画像とセンサの複合)
上記の実施形態は、画像による火災監視を例にとっているが、入力情報として、画像データとセンサデータを並列的に取り扱っても良い。画像データは例えば、1ピクセルあたりの白黒値が入力項として取り扱われ、センサデータは例えば、センサごとの検出値が入力項として取り扱われる。この場合、中間層に於いて画像の特徴抽出がなされた中間層の項と、センサデータによる影響を受ける中間層の項が、火災検出を判定する次段以降の中間層の項に対して影響を与えるようになることが教育結果として望ましいが、火災の監視を有効にできるならこれに限らない。
(赤外線照明と赤外線画像の撮像)
上記の実施形態は、監視カメラにより監視領域の照明を使用した状態及び又は自然光の状態で監視領域を撮像しているが、赤外線照明装置からの赤外線光を監視領域に照射し、赤外線領域に感度のある監視カメラにより赤外線画像を撮像して火災検出器の多層式ニューラルネットワークをバックプロパゲーションにより学習し、学習済みの多層式ニューラルネットワークに監視領域の赤外線画像を入力して火災か非火災かを判定するようにしても良い。
このように監視領域の赤外線画像を火災検出器に入力することで、監視領域の照明状態や昼夜の明るさ変化等に影響されることなく、監視画像を用いた火災監視が可能となる。
(その他)
また、本発明は上記の実施形態に限定されず、その目的と利点を損なうことのない適宜の変形を含み、更に上記の実施形態に示した数値による限定は受けない。
10:火災判定装置
12:火災受信機
14:監視領域
16:監視カメラ
18:火災感知器
20:火災検出器
20−1:油火災検出器
20−2:電気火災検出器
20−3:薬品火災検出器
20−4:燻焼火災検出器
22:信号ケーブル
24:環境火災判別部
26,68:学習制御部
27:閾値設定部
28:火災判定部
30,54:画像入力部
32:多層式ニューラルネットワーク
34:学習画像記憶部
36:制御部
38:特徴抽出部
40:認識部
42:入力画像
43,45a,45b:重みフィルタ
44a,44b,44c:特徴マップ
46,74
48:結合層
50,76層
52:出力層
56:画像データセット記憶部
60:画像解析部
62:火災種類判別部
64:畳み込みニューラルネットワーク
66:再帰型ニューラルネットワーク
70:判定器
72:シソーラス辞書
77:LSTM入力層
78:LSTM隠れ層
80:単語レジスタ
82:単語ベクトル変換部
84:確率変換部
86: コスト算出部

Claims (10)

  1. 多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、
    前記監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、
    前記環境火災判別部により判定された種類の火災により前記火災検出器の多層式のニューラルをディープラーニングにより学習させる学習制御部と、
    前記監視領域の前記入力情報を学習済みの前記火災検出器に入力した場合に出力される前記火災推定値を所定の閾値と比較して火災を判定する火災判定部と、
    が設けられたことを特徴とする火災監視システム。

  2. 請求項1記載の火災監視システムに於いて、
    前記環境火災判定部は、前記監視領域の監視環境から複数種類の火災を判別した場合に、発生しやすい火災の順に優先度を設定し、
    前記学習制御部は、前記環境火災判定部で判定された優先度の高い1又は複数種類の火災により前記多層式のニューラルをディープラーニングにより学習させることを特徴とする火災監視システム。
  3. 多層式のニューラルネットワークによって構成される火災検出器を用いて、監視領域の入力情報に基づき火災を検出する火災監視システムに於いて、
    前記監視領域の監視環境から発生しやすい火災の種類を判定する環境火災判別部と、
    火災の種類毎にディープラーニングにより学習された複数種類の火災検出器と、
    前記入力情報を前記複数種類の火災検出器に入力した場合に出力される火災推定値の各々を、火災の種類に対応した所定の閾値と比較して火災を判定する火災判定部と、
    前記火災判定部における火災の種類に対応した閾値を、前記環境火災判定部で判定された火災の種類を判定しやすいように設定する閾値設定部と、
    が設けられたことを特徴とする火災監視システム。
  4. 請求項3記載の火災監視システムに於いて、
    前記閾値設定部は、前記環境火災判定部により判定された火災の種類に対応した閾値を、それ以外の火災の種類に対応した閾値に対し低い値に設定することを特徴とする火災監視システム。
  5. 請求項1又は3記載の火災監視システムに於いて、
    前記環境火災判定部は、
    撮像部により撮像された前記監視領域の画像を解析し、前記画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、
    前記画像解析部から出力された画像に含まれる要素の単語を、辞書に予め記憶した所定の監視環境を示す単語と比較して前記監視領域の環境を推定し、推定した前記監視環境に対応して発生しやすい火災の種類を判定する火災種類判定部と、
    が設けられたことを特徴とする火災監視システム。
  6. 請求項1又は3記載の火災監視システムに於いて、
    前記火災検出器は、センサにより検出された物理量及び又は撮像部により撮像された前記監視領域の画像を前記入力情報として入力して前記火災推定値を出力することを特徴とする火災監視システム。
  7. 請求項1又は3記載の火災監視システムに於いて、
    前記監視環境は、ボイラー室、電気室、サーバ−ルーム、調理室、実験室を含み、
    前記複数種類の火災は、燻焼火災、油火災、電気火災及び薬品火災を含むことを特徴とする火災監視システム。
  8. 請求項1又は3記載の火災監視システムに於いて、
    前記多層式のニューラルネットワークは、
    特徴抽出部と認識部で構成され、
    前記特徴抽出部は、前記入力情報を入力して前記入力情報の特徴が抽出された特徴情報を生成する複数の畳み込み層を備えた畳み込みニューラルネットワークとし、
    前記認識部は、前記畳み込みニューラルネットワークから出力される前記特徴情報を入力し、前記火災特徴値を出力する複数の全結合ニューラルネットワークとしたことを特徴とする火災監視システム。
  9. 請求項1又は3記載の火災監視システムに於いて、前記火災検出器は、前記多層式のニューラルネットワークに学習情報を入力した場合に出力される値と所定値の期待値との誤差に基づくバックプロパゲーションにより前記多層式のニューラルネットワークを学習させることを特徴とする火災監視システム。
  10. 請求項1又は3記載の火災監視システムに於いて、前記火災判定部は、火災の判定に加え火災判定の根拠とした火災の種類を表示させることを特徴とする火災監視システム。
JP2017207801A 2017-10-27 2017-10-27 火災監視システム Active JP6942029B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017207801A JP6942029B2 (ja) 2017-10-27 2017-10-27 火災監視システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017207801A JP6942029B2 (ja) 2017-10-27 2017-10-27 火災監視システム

Publications (2)

Publication Number Publication Date
JP2019079446A true JP2019079446A (ja) 2019-05-23
JP6942029B2 JP6942029B2 (ja) 2021-09-29

Family

ID=66628836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017207801A Active JP6942029B2 (ja) 2017-10-27 2017-10-27 火災監視システム

Country Status (1)

Country Link
JP (1) JP6942029B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110941988A (zh) * 2019-10-11 2020-03-31 国网安徽省电力有限公司检修分公司 火焰识别方法、系统以及用于识别火焰的神经网络
CN111860143A (zh) * 2020-06-10 2020-10-30 北京航空航天大学 一种面向巡检机器人的火焰实时检测方法
CN112395924A (zh) * 2019-08-16 2021-02-23 阿里巴巴集团控股有限公司 一种遥感监测方法及装置
CN112735083A (zh) * 2021-01-19 2021-04-30 齐鲁工业大学 一种利用YOLOv5和OpenVINO进行火焰检测的嵌入式网关及其部署方法
CN112885021A (zh) * 2021-01-27 2021-06-01 上海大学 一种基于复合算法的多传感器火灾预测方法及系统
CN113177496A (zh) * 2021-05-10 2021-07-27 浙江大华技术股份有限公司 一种火点检测方法、装置、设备及存储介质
JP2021149333A (ja) * 2020-03-17 2021-09-27 株式会社東芝 画像処理装置
CN113657238A (zh) * 2021-08-11 2021-11-16 南京精益安防系统科技有限公司 基于神经网络的火灾早期预警方法、存储介质及终端设备
JP2022045327A (ja) * 2020-09-08 2022-03-18 テルココリア アイエス インコーポレーテッド スマート型火災感知器
CN114970745A (zh) * 2022-06-17 2022-08-30 淮阴工学院 物联网智能安防与环境大数据系统
CN115025419A (zh) * 2022-04-20 2022-09-09 上海阔步实业有限公司 新能源车辆主动消防系统及消防控制方法
CN115147993A (zh) * 2022-09-05 2022-10-04 无锡卓信信息科技股份有限公司 一种封闭场所火灾预警系统及其系统数据的处理方法
JP7432325B2 (ja) 2019-08-31 2024-02-16 ホーチキ株式会社 防災支援システム及び火災感知器
JP7486652B1 (ja) 2023-09-07 2024-05-17 日鉄エンジニアリング株式会社 煙画像生成装置、煙検知システム、煙画像生成方法、異常画像生成装置、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162778A (ja) * 2001-11-27 2003-06-06 Matsushita Electric Works Ltd 火災警報システム
JP2010238028A (ja) * 2009-03-31 2010-10-21 Nohmi Bosai Ltd 火災検出システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162778A (ja) * 2001-11-27 2003-06-06 Matsushita Electric Works Ltd 火災警報システム
JP2010238028A (ja) * 2009-03-31 2010-10-21 Nohmi Bosai Ltd 火災検出システム

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112395924B (zh) * 2019-08-16 2024-02-20 阿里巴巴集团控股有限公司 一种遥感监测方法及装置
CN112395924A (zh) * 2019-08-16 2021-02-23 阿里巴巴集团控股有限公司 一种遥感监测方法及装置
JP7432325B2 (ja) 2019-08-31 2024-02-16 ホーチキ株式会社 防災支援システム及び火災感知器
CN110941988B (zh) * 2019-10-11 2023-06-13 国网安徽省电力有限公司超高压分公司 火焰识别方法、系统以及用于识别火焰的神经网络
CN110941988A (zh) * 2019-10-11 2020-03-31 国网安徽省电力有限公司检修分公司 火焰识别方法、系统以及用于识别火焰的神经网络
JP7293157B2 (ja) 2020-03-17 2023-06-19 株式会社東芝 画像処理装置
JP2021149333A (ja) * 2020-03-17 2021-09-27 株式会社東芝 画像処理装置
CN111860143B (zh) * 2020-06-10 2022-08-02 北京航空航天大学 一种面向巡检机器人的火焰实时检测方法
CN111860143A (zh) * 2020-06-10 2020-10-30 北京航空航天大学 一种面向巡检机器人的火焰实时检测方法
JP2022045327A (ja) * 2020-09-08 2022-03-18 テルココリア アイエス インコーポレーテッド スマート型火災感知器
CN112735083A (zh) * 2021-01-19 2021-04-30 齐鲁工业大学 一种利用YOLOv5和OpenVINO进行火焰检测的嵌入式网关及其部署方法
CN112885021B (zh) * 2021-01-27 2022-12-23 上海大学 一种基于复合算法的多传感器火灾预测方法及系统
CN112885021A (zh) * 2021-01-27 2021-06-01 上海大学 一种基于复合算法的多传感器火灾预测方法及系统
CN113177496A (zh) * 2021-05-10 2021-07-27 浙江大华技术股份有限公司 一种火点检测方法、装置、设备及存储介质
CN113657238B (zh) * 2021-08-11 2024-02-02 南京精益安防系统科技有限公司 基于神经网络的火灾早期预警方法、存储介质及终端设备
CN113657238A (zh) * 2021-08-11 2021-11-16 南京精益安防系统科技有限公司 基于神经网络的火灾早期预警方法、存储介质及终端设备
CN115025419A (zh) * 2022-04-20 2022-09-09 上海阔步实业有限公司 新能源车辆主动消防系统及消防控制方法
CN114970745B (zh) * 2022-06-17 2023-07-04 淮阴工学院 物联网智能安防与环境大数据系统
CN114970745A (zh) * 2022-06-17 2022-08-30 淮阴工学院 物联网智能安防与环境大数据系统
CN115147993A (zh) * 2022-09-05 2022-10-04 无锡卓信信息科技股份有限公司 一种封闭场所火灾预警系统及其系统数据的处理方法
JP7486652B1 (ja) 2023-09-07 2024-05-17 日鉄エンジニアリング株式会社 煙画像生成装置、煙検知システム、煙画像生成方法、異常画像生成装置、およびプログラム

Also Published As

Publication number Publication date
JP6942029B2 (ja) 2021-09-29

Similar Documents

Publication Publication Date Title
JP2019079446A (ja) 火災監視システム
JP6867153B2 (ja) 異常監視システム
JP6943401B2 (ja) 火災監視システム
JP6968681B2 (ja) 火災監視システム
JP7072700B2 (ja) 監視システム
JP6857007B2 (ja) 火災監視システム
WO2018079400A1 (ja) 火災監視システム
JP6849411B2 (ja) 監視システム
Lestari et al. Fire hotspots detection system on CCTV videos using you only look once (YOLO) method and tiny YOLO model for high buildings evacuation
CN104933841B (zh) 一种基于自组织神经网络的火灾预测方法
CN108228705B (zh) 直播视频反馈中的自动对象和活动跟踪设备、方法及介质
US7574039B2 (en) Video based fire detection system
JP6968530B2 (ja) 火災監視システム
CN113516837A (zh) 一种基于多源信息融合的城市火灾判断方法、系统及其存储介质
CN113743637A (zh) 基于协同过滤的煤气浓度预测方法、设备及冰箱
KR20210050889A (ko) Cctv 관제 시스템 업데이트 방법 및 cctv 관제 시스템 업데이트 장치
KR20220112913A (ko) 불꽃 및 연기 자동 감지 방법 및 이를 이용하는 확장 cnn 기반의 감시 시스템
CN112488213A (zh) 一种基于多尺度特征学习网络的火灾图片分类方法
CN115394034A (zh) 火灾风险的确定方法、装置、系统和机器人
CN114282611A (zh) 基于深度学习模型的多传感器数据融合火源定位算法
JP6095049B2 (ja) 煙検出装置
Regi et al. Deep learning based fire detection system
Kanagaraj et al. A Dynamic Anomaly Detection Approach for Fault Detection on Fire Alarm System Based on Fuzzy-PSO-CNN Approach
Minor et al. Data fusion with a multisensor system for damage control and situational awareness
CN118038141A (zh) 红外、紫外和图像火灾探测系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210907

R150 Certificate of patent or registration of utility model

Ref document number: 6942029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150