JP6138036B2 - Flame detection device - Google Patents

Flame detection device Download PDF

Info

Publication number
JP6138036B2
JP6138036B2 JP2013250838A JP2013250838A JP6138036B2 JP 6138036 B2 JP6138036 B2 JP 6138036B2 JP 2013250838 A JP2013250838 A JP 2013250838A JP 2013250838 A JP2013250838 A JP 2013250838A JP 6138036 B2 JP6138036 B2 JP 6138036B2
Authority
JP
Japan
Prior art keywords
flame
image
series
time
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013250838A
Other languages
Japanese (ja)
Other versions
JP2015108920A (en
Inventor
那留 岩藤
那留 岩藤
義英 遠藤
義英 遠藤
寺田 賢治
賢治 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nohmi Bosai Ltd
University of Tokushima
Original Assignee
Nohmi Bosai Ltd
University of Tokushima
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nohmi Bosai Ltd, University of Tokushima filed Critical Nohmi Bosai Ltd
Priority to JP2013250838A priority Critical patent/JP6138036B2/en
Publication of JP2015108920A publication Critical patent/JP2015108920A/en
Application granted granted Critical
Publication of JP6138036B2 publication Critical patent/JP6138036B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視カメラにより撮像された画像に対して画像処理を施すことにより、炎を検出する炎検出装置に関し、特に、炎を高精度に検出するためのアルゴリズムを備えた炎検出装置に関する。 The present invention relates to a flame detection apparatus that detects a flame by performing image processing on an image captured by a surveillance camera, and more particularly to a flame detection apparatus that includes an algorithm for detecting a flame with high accuracy.

火災による死亡者数が依然として途絶えておらず、火災発生時の初期消火、あるいは火災事故における逃げ遅れの防止の観点から、火災の早期発見が非常に重要となっている。火災は、短時間で大きくなり、被害が甚大になってしまうため、早期発見・消火を行うことで、被害を抑えることが特に重要となる。人の目視や嗅覚等による発見は、確実であるが、見えない場所で発生すると発見に遅れてしまい、監視による労働力も大きい。   The number of deaths due to fire has not been interrupted, and early detection of fire is very important from the viewpoint of initial fire extinguishment in the event of a fire or prevention of delay in a fire accident. Fires become large in a short time and damages become enormous. Therefore, it is especially important to suppress damage by early detection and extinguishing. Discovery by human visual inspection and smell is certain, but if it occurs in a place where it cannot be seen, it will be delayed and the labor force by monitoring will be large.

そこで、火災検出装置の分野においては、監視カメラにより撮像された画像に対して画像処理を施すことで、火災要因の早期発見を行うことが研究されている。2次元画像から火災を検出する方法は、これまで多種多様な方法が提案されており、実用化されているものもある。また、火災の検出対象は、炎と煙に大別されるが、炎の存在を直接検出する火災検出装置も実用化されている。   Therefore, in the field of fire detection devices, research has been conducted on early detection of a fire factor by performing image processing on an image captured by a surveillance camera. Various methods for detecting a fire from a two-dimensional image have been proposed and some have been put to practical use. Fire detection targets are roughly classified into flames and smoke, and fire detection devices that directly detect the presence of flames have been put into practical use.

その一例として、イルミネーション等の外乱光の影響を受けることなく、確実に火災による炎を画像処理により認識する従来技術がある(例えば、特許文献1参照)。この特許文献1による炎検出装置は、警戒区域の画像データに基づいた色温度の高い領域を検出する空間色温度検出処理に加え、特定のカラー成分について位置的な変化が大きい部分の密度分布である空間周波数を解析する空間周波数検出処理を備えている。このような構成を備えることで、イルミネーション等の外乱光を区別して火災による炎を確実に認識することができ、画像処理による炎判断の信頼性を大幅に向上させることができる。   As an example thereof, there is a conventional technique for reliably recognizing a fire flame by image processing without being affected by disturbance light such as illumination (for example, see Patent Document 1). The flame detection apparatus according to Patent Document 1 has a density distribution of a portion where a positional change is large for a specific color component in addition to a spatial color temperature detection process for detecting a region having a high color temperature based on image data of a warning area. A spatial frequency detection process for analyzing a certain spatial frequency is provided. By providing such a configuration, it is possible to reliably recognize a flame caused by a fire by distinguishing ambient light such as illumination, and to greatly improve the reliability of flame judgment by image processing.

特開平10−126765号公報Japanese Patent Laid-Open No. 10-126765

しかしながら、従来技術には次のような課題がある。
炎の検出精度に悪影響を与える要因としては、イルミネーション等の外乱光以外にも、種々の要因が考えられる。また、特許文献1の技術は、大規模な空間における炎を早期発見することは困難である。そのため、種々の外乱要因の影響を抑えるとともに、広い空間における炎の早期発見を、画像処理技術を用いて高精度に検出する炎検出装置が望まれている。
However, the prior art has the following problems.
Various factors other than ambient light such as illumination can be considered as factors that adversely affect the flame detection accuracy. Moreover, it is difficult for the technique of patent document 1 to detect the flame in a large-scale space at an early stage. Therefore, there is a demand for a flame detection apparatus that suppresses the influence of various disturbance factors and detects the early detection of a flame in a wide space with high accuracy using an image processing technique.

本発明は、上述のような課題を解決するためになされたものであり、種々の誤検出要因を含む様々な設置環境において炎を高精度に検出することのできる炎検出装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a flame detection apparatus capable of detecting a flame with high accuracy in various installation environments including various erroneous detection factors. And

本発明に係る炎検出装置は、監視カメラにより撮像された画像に対して画像処理を施すことにより、炎の発生を検出する炎検出装置であって、監視カメラにより時系列で撮像された複数の画像を時系列画像として記憶する画像メモリと、画像メモリに記憶された複数Nフレーム(Nは、2以上の整数)からなる1サイクル分の時系列画像に基づいて、画像内に存在する移動体を抽出し、炎の発生の有無を判断する指標となる特徴量を算出して特徴量の抽出処理を行うことで、炎の発生の有無を判断する炎検出部とを備え、炎検出部は、複数Nフレームからなる1サイクル分の時系列画像に基づいて、時系列画像と基準画像との差分として得られる背景差分画像と、時系列画像のうちの隣接する画像間の差分として得られる時系列差分画像とに基づいて、それぞれのフレームごとに炎候補領域を抽出し、フレームごとに抽出した炎候補領域のそれぞれの重心位置を算出し、複数Nフレーム分の重心位置のデータ列を離散フーリエ変換し、平均振幅スペクトルと最大振幅スペクトルを算出し、下式、特徴量=最大振幅スペクトル/平均振幅スペクトル、により特徴量を算出する特徴量算出部と、特徴量算出部で算出された特徴量が所定値以上である場合に、炎候補領域は、周期性が強いため炎ではないと判断する炎判定部とを有するものである。   A flame detection apparatus according to the present invention is a flame detection apparatus that detects the occurrence of a flame by performing image processing on an image captured by a monitoring camera, and includes a plurality of images captured in time series by the monitoring camera. An image memory that stores images as time-series images, and a moving body that exists in the image based on a time-series image for one cycle that includes a plurality of N frames (N is an integer of 2 or more) stored in the image memory A flame detection unit that determines whether or not a flame has occurred by calculating a feature amount that is an index for determining whether or not a flame has occurred and performing a feature amount extraction process. A time difference image obtained as a difference between a time-series image and a reference image and a difference between adjacent images in the time-series image based on a time-series image for one cycle composed of a plurality of N frames. To the series difference image Then, a flame candidate area is extracted for each frame, each barycentric position of each flame candidate area extracted for each frame is calculated, a data sequence of barycentric positions for a plurality of N frames is subjected to discrete Fourier transform, and an average amplitude is calculated. A feature amount calculation unit that calculates a spectrum and a maximum amplitude spectrum, calculates a feature amount by the following formula, feature amount = maximum amplitude spectrum / average amplitude spectrum, and the feature amount calculated by the feature amount calculation unit is a predetermined value or more. In some cases, the flame candidate region has a flame determination unit that determines that it is not flame because of its strong periodicity.

また、本発明に係る炎検出装置は、監視カメラにより撮像された画像に対して画像処理を施すことにより、炎の発生を検出する炎検出装置であって、監視カメラにより時系列で撮像された複数の画像を時系列画像として記憶する画像メモリと、画像メモリに記憶された複数Nフレーム(Nは、2以上の整数)からなる1サイクル分の時系列画像に基づいて、画像内に存在する移動体を抽出し、炎の発生の有無を判断する指標となる特徴量を算出して特徴量の抽出処理を行うことで、炎の発生の有無を判断する炎検出部とを備え、炎検出部は、複数Nフレームからなる1サイクル分の時系列画像に基づいて、時系列画像と基準画像との差分として得られる背景差分画像と、時系列画像のうちの隣接する画像間の差分として得られる時系列差分画像とに基づいて、それぞれのフレームごとに炎候補領域を抽出し、フレームごとに抽出した炎候補領域のそれぞれの重心位置を算出し、1サイクル内におけるそれぞれの隣接フレーム間の重心位置の増減数、または複数Nフレーム分の重心位置のデータ列を離散フーリエ変換した値、に基づいて特徴量を算出する特徴量算出部と、特徴量算出部で算出された特徴量が所定値以上である場合に、炎候補領域は、周期性が強いため炎ではないと判断する炎判定部とを有するものである。 The flame detection apparatus according to the present invention is a flame detection apparatus that detects the occurrence of a flame by performing image processing on an image captured by a monitoring camera, and is captured in time series by the monitoring camera. Based on an image memory that stores a plurality of images as time-series images and a plurality of N frames (N is an integer of 2 or more) stored in the image memory, the image exists in the image. A flame detection unit that extracts a moving object, calculates a feature amount that is an index for judging whether or not a flame has occurred, and performs feature amount extraction processing to judge whether or not a flame has occurred, and includes a flame detection The unit obtains a difference between a background difference image obtained as a difference between a time-series image and a reference image and a difference between adjacent images in the time-series image, based on a time-series image composed of a plurality of N frames. Time-series difference image Based on the above, a flame candidate area is extracted for each frame, the respective gravity center positions of the flame candidate areas extracted for each frame are calculated, and the increase / decrease number of the gravity center position between each adjacent frame in one cycle, Alternatively, when a feature amount calculation unit that calculates a feature amount based on a value obtained by performing discrete Fourier transform on a data sequence of centroid positions for a plurality of N frames, and the feature amount calculated by the feature amount calculation unit is greater than or equal to a predetermined value The flame candidate region has a flame determination unit that determines that it is not flame because of its strong periodicity.

本発明によれば、誤検出要因の1つである回転灯に着目し、回転による周期性を持った移動体であるか否かを示す特徴量に基づいて炎判別を行い、回転灯と炎を識別することにより、種々の誤検出要因を含む様々な設置環境において炎を高精度に検出することのできる炎検出装置を得ることができる。 According to the present invention, attention is paid to the rotating lamp that is one of the erroneous detection factors, flame determination is performed based on the feature amount indicating whether the moving body has periodicity due to rotation, and the rotating lamp and the flame are detected. By identifying the above, it is possible to obtain a flame detection device that can detect a flame with high accuracy in various installation environments including various erroneous detection factors.

本発明の実施の形態1における炎検出装置の構成図である。It is a block diagram of the flame detection apparatus in Embodiment 1 of this invention. 本発明の実施の形態1における炎検出装置の前処理部による移動体画素の抽出処理に関する説明図である。It is explanatory drawing regarding the extraction process of the moving body pixel by the pre-processing part of the flame detection apparatus in Embodiment 1 of this invention. 本発明の実施の形態1における炎検出処理で抽出される特徴量1に関する説明図である。It is explanatory drawing regarding the feature-value 1 extracted by the flame detection process in Embodiment 1 of this invention. 本発明の実施の形態1における特徴量1に関連した楕円一致度の説明図である。It is explanatory drawing of the elliptical coincidence degree relevant to the feature-value 1 in Embodiment 1 of this invention. 本発明の実施の形態1における特徴量算出部による、焦点位置の補正手順に関する説明図である。It is explanatory drawing regarding the correction procedure of a focus position by the feature-value calculation part in Embodiment 1 of this invention. 本発明の実施の形態1における炎検出処理で抽出される特徴量2に関する説明図である。It is explanatory drawing regarding the feature-value 2 extracted by the flame detection process in Embodiment 1 of this invention. 本発明の実施の形態1における特徴量算出部で抽出される弱エッジに関する説明図である。It is explanatory drawing regarding the weak edge extracted by the feature-value calculation part in Embodiment 1 of this invention. 本発明の実施の形態1における特徴量算出部で算出される弱エッジの密集度に関する説明図である。It is explanatory drawing regarding the congestion degree of the weak edge calculated by the feature-value calculation part in Embodiment 1 of this invention. 本発明の実施の形態1における炎検出処理で抽出される特徴量3に関する説明図である。It is explanatory drawing regarding the feature-value 3 extracted by the flame detection process in Embodiment 1 of this invention. 本発明の実施の形態1における炎検出処理で抽出される特徴量4に関する説明図である。It is explanatory drawing regarding the feature-value 4 extracted by the flame detection process in Embodiment 1 of this invention. 本発明の実施の形態1における炎検出処理で抽出される特徴量5に関する説明図である。It is explanatory drawing regarding the feature-value 5 extracted by the flame detection process in Embodiment 1 of this invention.

以下、本発明の炎検出装置の好適な実施の形態につき図面を用いて説明する。
本発明は、炎特有の揺らぎを捉えて炎検出を行う方式では、照明のちらつき等の、炎と同じような画素変化を示す誤報源との判別が困難であった問題を解消すべく、炎の抽出に特化した領域抽出方法と、炎が作り出す特有の形状に着目した特徴量の抽出方法とを組合せ、炎検出の精度向上を実現することを技術的特徴とするものである。
Hereinafter, preferred embodiments of the flame detection device of the present invention will be described with reference to the drawings.
In the present invention, in a method of detecting a flame by detecting a fluctuation peculiar to a flame, in order to solve a problem that it was difficult to distinguish from a false alarm source showing a pixel change similar to a flame, such as flickering of illumination. The technical feature is to realize an improvement in flame detection accuracy by combining a region extraction method specialized for extraction of a flame and a feature amount extraction method focusing on a specific shape created by a flame.

実施の形態1.
図1は、本発明の実施の形態1における炎検出装置の構成図である。本実施の形態1における炎検出装置は、画像メモリ10、前処理部20、および炎検出部30を備えている。画像メモリ10は、カメラ1により撮像された画像を、過去一定期間分、時系列データとして記憶できるように、複数フレーム分の画像メモリとして構成されている。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram of a flame detection apparatus according to Embodiment 1 of the present invention. The flame detection apparatus in the first embodiment includes an image memory 10, a preprocessing unit 20, and a flame detection unit 30. The image memory 10 is configured as an image memory for a plurality of frames so that images captured by the camera 1 can be stored as time-series data for a certain period in the past.

前処理部20は、移動体抽出部21、および候補領域生成部22で構成される。そして、この前処理部20は、画像メモリ10に記憶された、カメラ1により撮像された過去一定期間(1サイクル)に含まれる各フレームの画像に基づいて、移動体と思われる部分の画素を抽出し、炎検出を行うための候補領域として特定する機能を有している。   The preprocessing unit 20 includes a moving body extraction unit 21 and a candidate area generation unit 22. Then, the pre-processing unit 20 determines pixels of a portion that seems to be a moving body based on the image of each frame included in the past fixed period (one cycle) captured by the camera 1 and stored in the image memory 10. It has a function of extracting and specifying as a candidate area for performing flame detection.

また、炎検出部30は、特徴量算出部31、および炎判定部32で構成される。そして、この炎検出部30は、前処理部20でサイクルごとに特定された候補領域について、炎の発生の有無を検出するための特徴量を算出し、算出結果に基づいて炎が発生しているか否かを判断する機能を有している。   The flame detection unit 30 includes a feature amount calculation unit 31 and a flame determination unit 32. Then, the flame detection unit 30 calculates a feature amount for detecting the presence / absence of a flame for the candidate area specified for each cycle by the preprocessing unit 20, and a flame is generated based on the calculation result. It has a function to determine whether or not.

ここで、本願発明の検出原理について、概略を説明する。
まず始めに、カメラ1から取得された画像に対して、移動体に対応する画素の抽出を行う(ステップ1)。次に、抽出された画素を元に、炎候補領域を作成する(ステップ2)。次に、作成した炎候補領域内で抽出された移動体の特徴量を計算する(ステップ3)。そして、最後に、その特徴量から炎らしさを判別し、火災の判定を行うこととなる(ステップ4)。
Here, an outline of the detection principle of the present invention will be described.
First, pixels corresponding to the moving object are extracted from the image acquired from the camera 1 (step 1). Next, a flame candidate region is created based on the extracted pixels (step 2). Next, the feature quantity of the moving body extracted in the created flame candidate region is calculated (step 3). Finally, the flame is determined from the feature amount, and a fire is determined (step 4).

ここで、本実施の形態1では、毎フレーム処理と毎サイクル処理に分けて行い、1サイクルを64フレームとして処理する場合を例に説明する。本実施の形態1では、具体的には、炎候補領域を作成するまでのステップ1、2の処理を、毎フレーム処理として1サイクル分繰り返し行い、1サイクル処理した結果として抽出された炎候補領域について、次のサイクルでステップ3の特徴量の計算、およびステップ4の火災判定を行うこととなる。   Here, in the first embodiment, a case will be described as an example in which each frame process and each cycle process are separately performed and one cycle is processed as 64 frames. In the first embodiment, specifically, the process of steps 1 and 2 until the flame candidate area is created is repeated for one cycle as a frame process, and the flame candidate area extracted as a result of the one cycle process is extracted. In the next cycle, the feature amount calculation in step 3 and the fire determination in step 4 are performed.

そして、ステップ1の移動体抽出処理が、前処理部20内の移動体抽出部21で毎フレーム実行され、ステップ2の炎候補領域作成処理が、前処理部20内の候補領域生成部22で毎フレーム実行され、各サイクルの終了時点で、後段の炎検出部30で使用する候補領域(最終候補領域)が特定される。また、ステップ3の特徴量計算処理が、炎検出部30内の特徴量算出部31で毎サイクル実行され、ステップ4の火災判定処理が、炎検出部30内の炎判定部32で毎サイクル実行される。そこで、前処理部20により毎フレーム実行される処理と、炎検出部30により毎サイクル実行される処理に分けて、以下に説明する。   Then, the mobile body extraction process in step 1 is executed for each frame by the mobile body extraction unit 21 in the preprocessing unit 20, and the flame candidate area creation process in step 2 is performed in the candidate area generation unit 22 in the preprocessing unit 20. Each frame is executed, and at the end of each cycle, a candidate area (final candidate area) to be used in the subsequent flame detection unit 30 is specified. Further, the feature amount calculation process of step 3 is executed every cycle by the feature amount calculation unit 31 in the flame detection unit 30, and the fire determination process of step 4 is executed every cycle by the flame determination unit 32 in the flame detection unit 30. Is done. Therefore, description will be made below by dividing into processing executed by the preprocessing unit 20 every frame and processing executed by the flame detection unit 30 every cycle.

(1)前処理部20により毎フレーム実行される処理について
前処理部20は、カメラ1により取得されたカメラ映像から、移動している物体の抽出を行なう。図2は、本発明の実施の形態1における炎検出装置の前処理部20による移動体画素の抽出処理に関する説明図である。なお、図2では、説明をわかりやすくするために、本来の検出対象である炎を移動体として抽出する場合をイラスト的に示している。さらに、この移動体が、背景よりも明るいと仮定して説明する。
(1) Processing executed by the pre-processing unit 20 every frame The pre-processing unit 20 extracts a moving object from the camera video acquired by the camera 1. FIG. 2 is an explanatory diagram regarding extraction processing of a moving object pixel by the preprocessing unit 20 of the flame detection apparatus according to Embodiment 1 of the present invention. In FIG. 2, in order to make the explanation easy to understand, a case where the flame that is the original detection target is extracted as a moving object is illustrated in an illustration. Further, description will be made on the assumption that the moving body is brighter than the background.

図2(a)には、カメラ1により取り込まれる画像として、次の3つの画像が示されている。
(画像a1)移動体が存在しない状態の基準画像(炎が存在しない背景画像に相当)であり、例えば、プログラム起動時などにあらかじめ取得される画像に相当する。
(画像a2)時系列で取得される1サイクル分の画像のうち、ある時刻t−1に取得された画像であり、左側に移動体が撮像された画像を例示している。
(画像a3)時系列で取得される1サイクル分の画像のうち、ある時刻tに取得された画像であり、時刻t−1において左側に存在した移動体が、中央寄りに移動した状態の画像を例示している。
FIG. 2A shows the following three images as images captured by the camera 1.
(Image a1) A reference image in a state where there is no moving object (corresponding to a background image where no flame exists), for example, corresponding to an image acquired in advance when the program is started.
(Image a2) Among images for one cycle acquired in time series, an image acquired at a certain time t−1 and an image in which a moving body is imaged on the left side is illustrated.
(Image a3) Among images for one cycle acquired in time series, an image acquired at a certain time t, and an image in a state in which the moving object existing on the left side at time t-1 has moved closer to the center Is illustrated.

次に、図2(b)には、図2(a)の3つの画像に基づいて得られる、次の2種類の差分画像が示されている。
(画像b1)画像a2と画像a3の差分画像であり、時系列差分画像を示している。具体的には、時系列である時刻t−1の画像a2と時刻tの画像a3に基づいて、両画像の対応する画素ごとに、両画素の輝度値(濃淡値)の差分の絶対値を求めることで生成される画像を、時系列差分画像と称している。
(画像b2)画像a1と画像a3の差分画像であり、背景差分画像を示している。具体的には、基準画像a1と時刻tの画像a3に基づいて、両画像の対応する画素ごとに、両画素の輝度値の差分の絶対値を求めることで生成される画像を、背景差分画像と称している。
Next, FIG. 2B shows the following two types of difference images obtained based on the three images of FIG.
(Image b1) A difference image between the image a2 and the image a3, and shows a time-series difference image. Specifically, based on the image a2 at time t-1 and the image a3 at time t, which are time series, for each corresponding pixel of both images, the absolute value of the difference between the luminance values (tone values) of both pixels is calculated. The image generated by obtaining is referred to as a time-series difference image.
(Image b2) A difference image between the image a1 and the image a3, and shows a background difference image. Specifically, based on the reference image a1 and the image a3 at time t, for each corresponding pixel of both images, an image generated by obtaining the absolute value of the difference between the luminance values of both pixels is represented as a background difference image. It is called.

次に、図2(c)には、図2(b)の2種類の差分画像のそれぞれに対して、所定の閾値で2値化することで得られる、次の2つの2値画像が示されている。
(画像c1)画像b1に関して所定の閾値により2値化して得られる2値画像であり、時系列差分画像として、所定の閾値以上の差分を有する画素が抽出されることとなる。従って、炎のように揺れている場合には、時刻t−1と時刻tの画像で、一方の時刻のみ炎と検出された画素を抽出できることとなる。
(画像c2)画像b2に関して所定の閾値により2値化して得られる2値画像であり、背景差分画像として、所定の閾値以上の差分を有する画素が抽出されることとなる。従って、時刻tの画像で、炎と検出された画素を抽出できることとなる。
Next, FIG. 2C shows the following two binary images obtained by binarizing each of the two types of difference images in FIG. 2B with a predetermined threshold. Has been.
(Image c1) A binary image obtained by binarizing the image b1 with a predetermined threshold, and pixels having a difference equal to or larger than the predetermined threshold are extracted as a time-series difference image. Therefore, in the case of shaking like a flame, it is possible to extract pixels detected as a flame only at one time in the images at time t-1 and time t.
(Image c2) A binary image obtained by binarizing the image b2 with a predetermined threshold, and pixels having a difference equal to or larger than the predetermined threshold are extracted as the background difference image. Therefore, the pixel detected as flame can be extracted from the image at time t.

次に、図2(d)には、画像c1と画像c2の論理和をとって得られる、次の2値画像が示されている。
(画像d1)時系列差分に基づく2値画像c1と、背景差分に基づく2値画像c2に基づいて、少なくとも一方の画像で黒の画素を黒とし、両方の画像とも白の画素を白とすることで、炎検出領域を抽出することができる。
Next, FIG. 2D shows the next binary image obtained by calculating the logical sum of the image c1 and the image c2.
(Image d1) Based on the binary image c1 based on the time-series difference and the binary image c2 based on the background difference, black pixels are black in at least one image, and white pixels are white in both images. Thus, the flame detection area can be extracted.

なお、炎として検出される画素は、所定の高輝度値以上を有することが前提となる。そこで、2つの画像に基づいて、時系列差分画像b1あるいは背景差分画像b2を算出する際には、少なくとも一方の画像において所定の高輝度値以上を有する画素のみを抽出して差分画像を生成することで、余分な領域を最終的に炎検出領域として抽出しないようにすることができる。   It is assumed that the pixels detected as flames have a predetermined high luminance value or higher. Therefore, when calculating the time-series difference image b1 or the background difference image b2 based on the two images, only a pixel having a predetermined high luminance value or more is extracted from at least one image to generate a difference image. Thus, it is possible to prevent the extra area from being finally extracted as the flame detection area.

そして、前処理部20内の移動体抽出部21は、図2(a)〜図2(c)に示した一連処理をフレームごとに繰り返し実行する。また、前処理部20内の候補領域生成部22は、図2(d)としてフレームごとに抽出される炎検出領域について、1サイクル分(64フレーム分)の論理和をとることで、最終的に1サイクル処理後の炎候補領域を特定することとなる。すなわち、候補領域生成部22は、64フレームの中で1回でも炎候補領域として抽出された画素を集計し、炎候補領域を特定する。   Then, the moving body extraction unit 21 in the preprocessing unit 20 repeatedly executes the series of processes shown in FIGS. 2A to 2C for each frame. In addition, the candidate region generation unit 22 in the preprocessing unit 20 finally performs a logical sum of one cycle (64 frames) on the flame detection region extracted for each frame as shown in FIG. The flame candidate area after one cycle processing is specified. That is, the candidate area generation unit 22 adds up pixels extracted as flame candidate areas even once in 64 frames, and identifies flame candidate areas.

さらに、候補領域生成部22は、画素ごとに、1サイクル内において、炎候補領域として抽出された回数(以下、この回数のことを抽出回数と称す)をカウントすることで、画素ごとの抽出回数を算出しておくことができる。すなわち、この抽出回数は、64フレーム中何フレームで炎候補領域として特定された画素に相当するかを示す指標となる。   Further, the candidate region generation unit 22 counts the number of extractions for each pixel by counting the number of times extracted as a flame candidate region (hereinafter, this number is referred to as the number of extractions) within one cycle for each pixel. Can be calculated in advance. That is, the number of extractions is an index indicating how many of the 64 frames correspond to the pixels identified as flame candidate regions.

そして、候補領域生成部22は、抽出回数が所定回数未満の画素を候補領域から除外することもできる。   The candidate area generation unit 22 can also exclude pixels from which the number of extractions is less than a predetermined number from the candidate area.

また、候補領域生成部22は、64フレームの中で1回でも炎候補領域として抽出された画素のうち、隣接して1つの島を形成している画素の集合に対して、外接長方形を設定することで、矩形状の領域として炎候補領域を特定することもできる。   In addition, the candidate area generation unit 22 sets a circumscribed rectangle for a set of pixels that form an island adjacent to each other among the pixels extracted as a flame candidate area even once in 64 frames. Thus, the flame candidate region can be specified as a rectangular region.

(2)炎検出部30により毎サイクル実行される処理について
前処理部20により1サイクル処理ごとに特定される炎候補領域に対して、本実施の形態1における炎検出部30内の特徴量算出部31は、以下の5つの特徴量に基づく炎判別処理を行うこととなる。
[炎判別処理1]楕円一致率を特徴量1として抽出し、炎判別を行う。
[炎判別処理2]弱エッジの割合を特徴量2として抽出し、炎判別を行う。
[炎判別処理3]重心位置の遷移の周期性を特徴量3として抽出し、炎判別を行う。
[炎判別処理4]重心位置の遷移の増加/減少状態を特徴量4として抽出し、炎判別を行う。
[炎判別処理5]平均輝度の変化量を特徴量5として抽出し、炎判別を行う。
(2) Processing executed in each cycle by the flame detection unit 30 The feature amount calculation in the flame detection unit 30 in the first embodiment is performed for the flame candidate region specified for each cycle processing by the preprocessing unit 20. The unit 31 performs flame discrimination processing based on the following five feature amounts.
[Flame discrimination processing 1] The ellipse coincidence rate is extracted as the feature quantity 1, and flame discrimination is performed.
[Flame discrimination processing 2] The ratio of weak edges is extracted as the feature amount 2 and flame discrimination is performed.
[Flame discrimination processing 3] The periodicity of the transition of the center of gravity is extracted as the feature amount 3, and flame discrimination is performed.
[Flame discrimination processing 4] The increase / decrease state of the transition of the center of gravity position is extracted as the feature amount 4, and flame discrimination is performed.
[Flame discrimination processing 5] The change amount of the average luminance is extracted as the feature amount 5, and flame discrimination is performed.

そして、本実施の形態1における炎検出部30内の炎判定部32は、特徴量算出部31による炎判別処理1〜5の結果を統合処理して、最終的に炎判定を実行する。そこで、次に、炎判別処理1〜5のそれぞれについて、詳細を説明する。   And the flame determination part 32 in the flame detection part 30 in this Embodiment 1 integrates the result of the flame discrimination | determination processes 1-5 by the feature-value calculation part 31, and finally performs a flame determination. Therefore, next, the details of each of the flame determination processes 1 to 5 will be described.

[炎判別処理1]楕円一致率を特徴量1として抽出し、炎判別を行う方法について
検出対象である炎は、例えば人の移動など、他の移動体とは異なり、楕円形状に近い形として画像認識される傾向にある。そこで、炎判別処理1では、特定された候補領域内に存在する移動体の画素データに対応する楕円形を抽出し、抽出した楕円形の領域に対して、炎候補領域として特定された画素が含まれている割合を楕円一致率として算出し、この楕円一致率の大きさが所定一致率以上である場合に、移動体として検出したものが炎であると判別している。そこで、以下に、具体的な判別方法を説明する。
[Flame Discrimination Processing 1] Method of Extracting Ellipse Matching Ratio as Feature Quantity 1 and Performing Flame Discrimination The flame to be detected is different from other moving bodies, for example, the movement of a person, and has a shape close to an elliptical shape. It tends to be recognized. Therefore, in the flame discrimination process 1, an ellipse corresponding to the pixel data of the moving object existing in the identified candidate area is extracted, and the pixel identified as the flame candidate area is extracted from the extracted oval area. The contained ratio is calculated as an elliptical coincidence rate, and when the size of the elliptical coincidence rate is equal to or greater than a predetermined coincidence rate, it is determined that the detected object is a flame. Therefore, a specific determination method will be described below.

楕円とは、「2定点からの距離の和が一定となるような点の集合から作られる曲線」と定義される。そこで、炎検出部30内の特徴量算出部31は、候補領域生成部22によって特定された炎候補領域に基づいて、以下の手順で楕円形の計測領域を抽出する。   An ellipse is defined as a “curve formed from a set of points such that the sum of distances from two fixed points is constant”. Therefore, the feature amount calculation unit 31 in the flame detection unit 30 extracts an elliptical measurement region in the following procedure based on the flame candidate region specified by the candidate region generation unit 22.

(手順1)特徴量算出部31は、前回のサイクルで特定された炎候補領域において、今回のサイクルにおける各フレームで移動体の抽出を行う。移動体の抽出は、前処理部20による候補領域の特定と同様に、時系列差分画像および背景差分画像に基づいて行う。さらに、炎候補領域内の各画素について、1サイクル内でいくつのフレームで移動体として抽出されたかを、抽出回数としてカウントする。そして、特徴量算出部31は、抽出回数に応じて階調分けする。例えば、最低が0回、最大が64回としてカウントされる抽出回数について、例えば、以下のような8階調に分けることが考えられる。
1階調目:抽出回数0〜8
2階調目:抽出回数9〜16

8階調目:抽出回数57〜64
(Procedure 1) The feature amount calculation unit 31 extracts a moving body in each frame in the current cycle in the flame candidate region specified in the previous cycle. The extraction of the moving body is performed based on the time-series difference image and the background difference image in the same manner as the candidate area is specified by the preprocessing unit 20. Further, for each pixel in the flame candidate region, how many frames are extracted as a moving body in one cycle is counted as the number of extractions. Then, the feature amount calculation unit 31 performs gradation division according to the number of extractions. For example, the number of extractions that are counted with the minimum being 0 and the maximum being 64 may be divided into, for example, the following 8 gradations.
1st gradation: Extraction times 0-8
Second gradation: Extraction frequency 9-16
:
8th gradation: number of extractions 57-64

図3は、本発明の実施の形態1における炎検出処理で抽出される特徴量1に関する説明図である。図3(a)では、階調分けした結果を色分け表示した具体例を示している。
なお、上述した階調分けは一例に過ぎず、任意の階調数に分割でき、各階調に含まれる抽出回数も任意の範囲を設定可能である。
FIG. 3 is an explanatory diagram related to the feature quantity 1 extracted in the flame detection process according to Embodiment 1 of the present invention. FIG. 3A shows a specific example in which the result of gradation division is displayed by color.
Note that the above-described gradation division is merely an example, and the gradation can be divided into an arbitrary number of gradations, and the number of extractions included in each gradation can be set within an arbitrary range.

(手順2)特徴量算出部31は、抽出回数が最大である領域(図3(a)で最も内側の色として特定された領域に相当)と、抽出回数が最小である領域(図3(a)で最も外側の色として特定された領域に相当)に対して、下式(1)を用いて重心を求める。具体的には、それぞれの領域ごとに、領域内の画素について、X座標、Y座標それぞれの平均を計算することで求まった重心位置を、焦点の座標としている。 (Procedure 2) The feature quantity calculation unit 31 has a region with the maximum number of extractions (corresponding to a region identified as the innermost color in FIG. 3A) and a region with the minimum number of extractions (FIG. 3 ( (corresponding to the area specified as the outermost color in a)), the center of gravity is obtained using the following equation (1). Specifically, for each region, the position of the center of gravity obtained by calculating the average of the X coordinate and the Y coordinate for the pixels in the region is used as the focal point coordinate.

Figure 0006138036
Figure 0006138036

(手順3)特徴量算出部31は、抽出回数が最大である領域について算出された焦点を焦点Aとし、抽出回数が最小である領域について算出された焦点を焦点Bとする。図3(b)に、算出された焦点A、焦点Bの位置を例示している。そして、特徴量算出部31は、抽出回数が最小である領域に含まれる画素について、下式(2)を用いることで、焦点Aと焦点Bからの距離の和の平均を求め、楕円の半径とする。 (Procedure 3) The feature amount calculation unit 31 sets the focus calculated for the region where the number of extractions is the maximum as the focus A and the focus calculated for the region where the number of the extractions is the minimum as the focus B. FIG. 3B illustrates the calculated positions of the focal point A and the focal point B. Then, the feature amount calculation unit 31 obtains the average of the sum of the distances from the focal point A and the focal point B by using the following expression (2) for the pixels included in the region where the number of extractions is the smallest, and the radius of the ellipse And

Figure 0006138036
Figure 0006138036

なお、上式(1)、(2)における変数は、それぞれ以下の内容である。
F_x:重心位置のX座標
F_y:重心位置のY座標
Px:領域に含まれる画素のX座標
Py:領域に含まれる画素のy座標
Pn:領域内に含まれる画素総数
FAx:焦点AのX座標
FAy:焦点AのY座標
FBx:焦点BのX座標
FBy:焦点BのY座標
i:X座標の変数
j:Y座標の変数
The variables in the above formulas (1) and (2) have the following contents, respectively.
F_x: X coordinate of the centroid position F_y: Y coordinate of the centroid position Px: X coordinate of the pixel included in the area Py: y coordinate of the pixel included in the area Pn: Total number of pixels included in the area FAx: X coordinate of the focal point A FAy: Y coordinate of focus A FBx: X coordinate of focus B FBy: Y coordinate of focus B i: Variable of X coordinate j: Variable of Y coordinate

炎は、楕円のような形をしながら激しく燃えるが、人が移動した場合などでは、炎による楕円形状とは異なる複雑な形をしている傾向にある。そこで、特徴量算出部31は、炎候補領域内の抽出回数が1以上の画素について、上式(1)(2)で規定される楕円の中に存在するか、外に存在するかを判別する。そして、下式(3)を用いて、楕円の一致度を算出する。   The flame burns violently while being shaped like an ellipse. However, when a person moves, the flame tends to have a complicated shape different from the elliptical shape caused by the flame. Therefore, the feature amount calculation unit 31 determines whether a pixel having the number of extraction times of 1 or more in the flame candidate region is present within or outside the ellipse defined by the above formulas (1) and (2). To do. Then, the degree of coincidence of the ellipses is calculated using the following formula (3).

Figure 0006138036
Figure 0006138036

そして、特徴量算出部31は、上式(3)で求めた一致度が、所定の許容一致度以上である場合には、炎検出領域内で検出された移動体は、炎であると判断することができる。図4は、本発明の実施の形態1における特徴量1に関連した楕円一致度の説明図である。図4(a)における黒塗りの領域は、炎候補領域のうち、上式(1)(2)で規定される楕円の内側領域を示している。また、図4(b)における黒塗りの領域は、炎候補領域のうち、上式(1)(2)で規定される楕円の外側領域を示している。   Then, the feature amount calculation unit 31 determines that the moving body detected in the flame detection area is a flame when the degree of coincidence obtained by the above equation (3) is equal to or greater than a predetermined allowable coincidence. can do. FIG. 4 is an explanatory diagram of the degree of oval coincidence related to the feature quantity 1 in the first embodiment of the present invention. A black area in FIG. 4A indicates an inner area of an ellipse defined by the above equations (1) and (2) among the flame candidate areas. In addition, a black area in FIG. 4B indicates an outer area of the ellipse defined by the above formulas (1) and (2) among the flame candidate areas.

また、図4(c)は、炎が発生している状態での、各サイクルで算出された一致度の遷移と、人が移動している状態での、各サイクルで算出された一致度の遷移との比較を示している。図4(c)からもわかるように、特徴量1として楕円の一致度に着目することで、炎と、例えば人の移動のような炎以外の移動体とを識別することが可能となる。   FIG. 4C shows the transition of the degree of coincidence calculated in each cycle when the flame is generated and the degree of coincidence calculated in each cycle when the person is moving. Comparison with transition is shown. As can be seen from FIG. 4C, by focusing on the degree of coincidence of the ellipses as the feature amount 1, it is possible to identify a flame and a moving body other than a flame such as a movement of a person.

なお、上述した図4に基づく焦点算出では、変化画素の抽出回数が最小および最大の領域に対して重心を求め、それらの2点を焦点として楕円領域を作成することで,楕円領域と移動体としての抽出領域との一致度を特徴量1として求めていた。しかしながら、炎の形によっては、この手法では、適切に楕円領域を作成することができない場合もあった。   In the focus calculation based on FIG. 4 described above, the center of gravity is obtained for the region where the number of extractions of the changed pixels is minimum and maximum, and the elliptical region and the moving object are created by using these two points as the focal point. The degree of coincidence with the extracted area is determined as the feature amount 1. However, depending on the shape of the flame, this method may not be able to properly create an elliptical region.

そこで、このような場合には、焦点の補正を行うことで、楕円領域の作成を改善することが考えられる。図5は、本発明の実施の形態1における特徴量算出部31による、焦点位置の補正手順に関する説明図である。この図5を用いて、焦点位置の補正手順を説明する。   Therefore, in such a case, it is conceivable to improve the creation of the elliptical region by correcting the focus. FIG. 5 is an explanatory diagram regarding a focal position correction procedure by the feature amount calculation unit 31 according to the first embodiment of the present invention. The focal position correction procedure will be described with reference to FIG.

(補正手順1)まず始めに、特徴量算出部31は、楕円の長軸を楕円の中点に関して時計回りと反時計回りに所定角度(例えば、10度)ずつ回転させる(図5(a)参照)。
(補正手順2)次に、特徴量算出部31は、回転させた2本の直線で囲まれる領域(2本の直線で挟まれた領域)に含まれる画素に限定して、上式(1)を用いて新しい重心を求める。その際には、楕円の中心から距離が大きくなるほど重みを大きく付加する(図5(b)参照)。
(補正手順3)最後に、特徴量算出部31は、新たに求まった2つの重心に関して、抽出回数が最小である領域に含まれる画素について、上式(2)を用いることで、新たに求まった焦点Aと焦点Bからの距離の和の平均を求め、楕円の半径とする(図5(c)参照)。
(Correction Procedure 1) First, the feature quantity calculation unit 31 rotates the major axis of the ellipse by a predetermined angle (for example, 10 degrees) clockwise and counterclockwise with respect to the middle point of the ellipse (FIG. 5A). reference).
(Correction Procedure 2) Next, the feature quantity calculation unit 31 limits the pixels included in the area surrounded by the two rotated straight lines (the area sandwiched between the two straight lines) to the above formula (1 ) To find a new center of gravity. In that case, a larger weight is added as the distance from the center of the ellipse becomes larger (see FIG. 5B).
(Correction Procedure 3) Finally, the feature quantity calculation unit 31 newly finds two newly obtained centroids by using the above equation (2) for the pixels included in the region where the number of extractions is the smallest. The average of the sum of the distances from the focal point A and the focal point B is obtained and set as the ellipse radius (see FIG. 5C).

このような補正手順1〜3を実行することにより、焦点A、焦点Bがより外側に設定されることとなり、炎のより多くの部分を、新たに規定した楕円内に納めることができる。この結果、上式(3)による一致度を高めることができ、特徴量1に基づく判別精度を向上させることができる。   By executing such correction procedures 1 to 3, the focal point A and the focal point B are set on the outer side, so that a larger part of the flame can be accommodated in the newly defined ellipse. As a result, the degree of coincidence according to the above equation (3) can be increased, and the discrimination accuracy based on the feature amount 1 can be improved.

[炎判別処理2]弱エッジの割合を特徴量2として抽出し、炎判別を行う方法について
図6は、本発明の実施の形態1における炎検出処理で抽出される特徴量2に関する説明図である。上段の図6(a)(b)は、炎を撮像した際の元画像とエッジ検出結果を示している。また、下段の図6(c)(d)は、誤検出要因である人の移動を撮像した際の元画像とエッジ検出結果を示している。
[Flame Discriminating Process 2] Method for Extracting the Ratio of Weak Edges as Feature Quantity 2 and Performing Flame Discrimination FIG. 6 is an explanatory diagram relating to the feature quantity 2 extracted in the flame detecting process according to Embodiment 1 of the present invention. is there. FIGS. 6A and 6B in the upper stage show an original image and an edge detection result when a flame is imaged. Further, FIGS. 6C and 6D in the lower stage show an original image and an edge detection result when a person's movement that is a false detection factor is imaged.

図6(a)(b)に示すように、炎は、激しい光を発しながら燃えるので、高輝度の領域が密集し、その結果、炎の内部では、弱いエッジが密集する傾向にある。一方、図6(c)(d)に示すように、人の移動では、このような傾向は見られない。   As shown in FIGS. 6 (a) and 6 (b), the flame burns while emitting intense light, so that the high-intensity areas are dense, and as a result, the weak edges tend to be dense inside the flame. On the other hand, as shown in FIGS. 6C and 6D, such a tendency is not observed in the movement of the person.

そこで、炎判別処理2では、特定された候補領域内に存在する移動体のエッジの密集度を算出し、所定値以下の弱いエッジで構成されている場合に、移動体として検出したものが炎であると判別している。そこで、以下に、具体的な判別方法を説明する。   Therefore, in the flame discrimination process 2, the density of the edges of the moving object existing in the specified candidate area is calculated, and when it is composed of weak edges of a predetermined value or less, what is detected as the moving object is the flame. It is determined that Therefore, a specific determination method will be described below.

(手順1)特徴量算出部31は、弱エッジの密集度を求めるために、まず、弱いエッジの抽出を行う。本実施の形態1では、一例として、エッジ強度が15以下のエッジを弱エッジとする。図7は、本発明の実施の形態1における特徴量算出部31で抽出される弱エッジに関する説明図である。具体的には、図7(a)のエッジ検出結果に対して、炎候補領域内の弱エッジを抽出した結果が、図7(b)に示されている。 (Procedure 1) The feature quantity calculation unit 31 first extracts weak edges in order to obtain the density of weak edges. In the first embodiment, as an example, an edge having an edge strength of 15 or less is set as a weak edge. FIG. 7 is an explanatory diagram relating to weak edges extracted by the feature amount calculation unit 31 according to Embodiment 1 of the present invention. Specifically, the result of extracting the weak edge in the flame candidate region with respect to the edge detection result of FIG. 7A is shown in FIG. 7B.

(手順2)続いて、特徴量算出部31は、弱エッジとして抽出された画素の密集度を求める。まず、特徴量算出部31は、画像全体に対してラスタ走査を行い、抽出された弱エッジの画素があれば、その画素を中心として5×5の小領域を設定し、小領域内部に存在する弱エッジとして抽出された画素数を求める。なお、小領域のサイズは、5×5に限定されず、弱エッジ画素を中心に(2m+1)×(2m+1)の小領域(mは、1以上の整数)を設定することが可能である。 (Procedure 2) Subsequently, the feature quantity calculation unit 31 obtains the density of pixels extracted as weak edges. First, the feature amount calculation unit 31 performs raster scanning on the entire image. If there is a pixel with a weak edge extracted, the feature amount calculation unit 31 sets a 5 × 5 small region around the pixel and exists within the small region. The number of pixels extracted as a weak edge is obtained. The size of the small area is not limited to 5 × 5, and a small area of (2m + 1) × (2m + 1) (m is an integer of 1 or more) can be set around the weak edge pixel.

図8は、本発明の実施の形態1における特徴量算出部31で算出される弱エッジの密集度に関する説明図である。図8(a)は、先の図7(b)と同様の、弱エッジ検出結果を示している。また、図8(b)は、図8(a)中の弱エッジとして検出された領域のうち、左上の5×5の小領域を含む拡大図を示している。図8(b)では、5×5の小領域に、弱エッジとして抽出された画素が12個含まれている場合を例示している。   FIG. 8 is an explanatory diagram regarding the density of weak edges calculated by the feature amount calculation unit 31 according to Embodiment 1 of the present invention. FIG. 8A shows a weak edge detection result similar to FIG. 7B. FIG. 8B shows an enlarged view including a 5 × 5 small region in the upper left among the regions detected as weak edges in FIG. FIG. 8B illustrates a case where 12 pixels extracted as weak edges are included in a 5 × 5 small region.

(手順3)最後に、特徴量算出部31は、全ての弱エッジ画素に対して、小領域内部に存在する弱エッジとして抽出された画素数を求め、その平均値を、弱エッジの密集度とする。そして、特徴量算出部31は、この密集度が所定の閾値(例えば15画素)以上である場合には、炎検出領域内で検出された移動体は、炎であると判断することができる。 (Procedure 3) Finally, the feature quantity calculation unit 31 obtains the number of pixels extracted as weak edges existing in the small area for all weak edge pixels, and calculates the average value as the density of weak edges. And And the feature-value calculation part 31 can judge that the moving body detected within the flame detection area is a flame when the density is a predetermined threshold value (for example, 15 pixels) or more.

[炎判別処理3]重心位置の遷移の周期性を特徴量3として抽出し、炎判別を行う方法について
この炎判別処理3では、誤検出要因である回転灯を移動体として抽出した場合に、炎と区別する方法について説明する。抽出された移動体が回転灯の場合、フレームごとに算出される移動体の重心位置は、炎に比べて、強い周期性を持った推移が得られる。図9は、本発明の実施の形態1における炎検出処理で抽出される特徴量3に関する説明図である。
[Flame discrimination processing 3] About the method of extracting the periodicity of the transition of the center of gravity position as the feature amount 3 and performing the flame discrimination In this flame discrimination processing 3, when the rotating lamp that is a false detection factor is extracted as a moving object, A method for distinguishing from flame will be described. When the extracted moving body is a rotating lamp, the position of the center of gravity of the moving body calculated for each frame has a transition with a strong periodicity as compared with the flame. FIG. 9 is an explanatory diagram related to the feature amount 3 extracted in the flame detection process according to Embodiment 1 of the present invention.

具体的には、図9(a)は、3個の回転灯が点滅するシーンを撮像することで抽出された移動体に関して、フレームごとに算出した重心位置の遷移を、X座標とY座標に分けて示したものである。また、図9(b)は、一般的な炎が燃えるシーンを撮像することで抽出された移動体に関して、フレームごとに算出した重心位置の遷移を、X座標とY座標に分けて示したものである。   Specifically, FIG. 9A shows the transition of the center of gravity calculated for each frame with respect to the moving body extracted by capturing a scene in which three revolving lights blink, in the X and Y coordinates. They are shown separately. FIG. 9 (b) shows the transition of the center of gravity calculated for each frame separately for the moving object extracted by imaging a scene in which a general flame burns, divided into an X coordinate and a Y coordinate. It is.

また、図9(c)は、回転灯を移動体として抽出した際の図9(a)の重心位置の遷移に対して、離散フーリエ変換を施した結果を、X座標とY座標に分けて示したものである。さらに、図9(d)は、炎を移動体として抽出した際の図9(b)の重心位置の遷移に対して、離散フーリエ変換を施した結果を、X座標とY座標に分けて示したものである。   FIG. 9C shows the result of performing discrete Fourier transform on the transition of the center of gravity position in FIG. 9A when the rotating lamp is extracted as a moving object, and is divided into X and Y coordinates. It is shown. Further, FIG. 9 (d) shows the result of performing discrete Fourier transform on the transition of the center of gravity position of FIG. 9 (b) when the flame is extracted as a moving body, divided into X and Y coordinates. It is a thing.

炎判別処理3では、重心推移の周期性を定量的に評価するために、離散フーリエ変換を用いている。離散フーリエ変換とは、ある波形を綺麗な正弦波の集まりに分解することである。入力された波形が綺麗な波形をしていれば、ある周波数帯でのみ強いスペクトルが得られることとなる。そこで、以下に、具体的な判別方法を説明する。   In the flame discrimination process 3, discrete Fourier transform is used to quantitatively evaluate the periodicity of the center of gravity transition. Discrete Fourier transform is the decomposition of a waveform into a clean collection of sine waves. If the input waveform is a beautiful waveform, a strong spectrum can be obtained only in a certain frequency band. Therefore, a specific determination method will be described below.

(手順1)特徴量算出部31は、前回のサイクルで特定された炎候補領域のそれぞれについて、今回のサイクルのフレームごとに抽出される移動体に関し、上式(1)を用いて、重心位置を算出する。その結果に基づく重心の遷移状態を示したものが、図9(a)(b)に相当する。
(手順2)次に、特徴量算出部31は、手順1で求めた重心位置の遷移データに対して、離散フーリエ変換を行う。周波数と振幅スペクトルの関係をグラフに示した結果が、図9(c)(d)に相当する。なお、図9(c)(d)では、一例として、64フレーム分(1サイクル分)のデータに対して、離散フーリエ変換を行っている。
(Procedure 1) The feature amount calculation unit 31 uses the above equation (1) to calculate the position of the center of gravity for each moving candidate extracted for each frame of the current cycle for each flame candidate region identified in the previous cycle. Is calculated. The transition state of the center of gravity based on the result corresponds to FIGS.
(Procedure 2) Next, the feature quantity calculation unit 31 performs a discrete Fourier transform on the transition data of the centroid position obtained in the procedure 1. The result of showing the relationship between the frequency and the amplitude spectrum in a graph corresponds to FIGS. 9C and 9D. In FIGS. 9C and 9D, as an example, discrete Fourier transform is performed on data for 64 frames (one cycle).

(手順3)最後に、特徴量算出部31は、手順2の離散フーリエ変換の結果に基づいて、平均振幅スペクトルと最大振幅スペクトルを求める。さらに、特徴量算出部31は、下式(4)を用いることで、最大のスペクトルが他のスペクトルに対してどれくらい大きいかを、特徴量3として算出する。 (Procedure 3) Finally, the feature quantity calculator 31 obtains an average amplitude spectrum and a maximum amplitude spectrum based on the result of the discrete Fourier transform in Procedure 2. Furthermore, the feature amount calculation unit 31 calculates, as the feature amount 3, how large the maximum spectrum is with respect to other spectra by using the following equation (4).

Figure 0006138036
Figure 0006138036

この特徴量3の値が大きくなると、周期性が強くなると考えられる。そこで、特徴量算出部31は、特徴量3が一定以上の値になると周期性が強いと判定し、炎検出領域内で検出された移動体は、炎ではなく、誤検出要因の回転灯であると判断でき、誤報を抑制することができる。   It is considered that the periodicity increases as the value of the feature amount 3 increases. Therefore, the feature amount calculation unit 31 determines that the periodicity is strong when the feature amount 3 becomes a value equal to or greater than a certain value, and the moving body detected in the flame detection region is not a flame but a rotating lamp with a false detection factor. It can be judged that there is, and false alarms can be suppressed.

[炎判別処理4]重心位置の遷移の増加/減少状態を特徴量4として抽出し、炎判別を行う方法について
この炎判別処理4では、誤検出要因である人や車を移動体として抽出した場合に、炎と区別する方法について説明する。抽出された移動体が人や車などといった場合には、これらの移動体は直進移動する場合が多く、重心位置の推移が単調増加または単調減少する傾向にある。一方、抽出された移動体が炎の場合には、炎の揺らぎに伴って、重心位置の推移が増加したり減少したりする傾向にある。図10は、本発明の実施の形態1における炎検出処理で抽出される特徴量4に関する説明図である。
[Flame discrimination processing 4] About the method of extracting the increase / decrease state of the center of gravity position as the feature amount 4 and performing the flame discrimination In this flame discrimination processing 4, the person or the vehicle that is a false detection factor is extracted as the moving body. In this case, a method for distinguishing from flame will be described. When the extracted moving body is a person or a car, these moving bodies often move straight, and the transition of the center of gravity tends to increase or decrease monotonously. On the other hand, when the extracted moving body is a flame, the transition of the center of gravity tends to increase or decrease as the flame fluctuates. FIG. 10 is an explanatory diagram related to the feature amount 4 extracted in the flame detection process according to Embodiment 1 of the present invention.

具体的には、図10(a)は、一般的な炎が燃えるシーンを撮像することで抽出された移動体に関して、フレームごとに算出した重心位置の遷移を、X座標とY座標に分けて示したものである。また、図10(b)は、人が移動するシーンを撮像することで抽出された移動体に関して、フレームごとに算出した重心位置の遷移を、X座標とY座標に分けて示したものである。特徴量算出部31による具体的な判別方法を、以下に説明する。   Specifically, FIG. 10 (a) shows the transition of the center of gravity calculated for each frame for a moving body extracted by imaging a scene in which a general flame burns, divided into an X coordinate and a Y coordinate. It is shown. FIG. 10B shows the transition of the gravity center position calculated for each frame separately for the moving object extracted by capturing the scene where the person moves, divided into the X coordinate and the Y coordinate. . A specific determination method by the feature amount calculation unit 31 will be described below.

(手順1)特徴量算出部31は、前回のサイクルで特定された炎候補領域のそれぞれについて、今回のサイクルのフレームごとに抽出される移動体に関し、上式(1)を用いて、重心位置を算出する。その結果に基づく重心の遷移状態を示したものが、図10(a)(b)に相当する。
(手順2)次に、特徴量算出部31は、手順1で求めた重心位置の遷移データに基づいて、下式(5)に従って、特徴量4を算出する。
(Procedure 1) The feature amount calculation unit 31 uses the above equation (1) to calculate the position of the center of gravity for each moving candidate extracted for each frame of the current cycle for each flame candidate region identified in the previous cycle. Is calculated. The transition state of the center of gravity based on the result corresponds to FIGS.
(Procedure 2) Next, the feature quantity calculator 31 calculates the feature quantity 4 according to the following equation (5) based on the transition data of the center of gravity obtained in the procedure 1.

Figure 0006138036
Figure 0006138036

この特徴量4の値が大きくなると、単調増加、あるいは単調減少の傾向が強いと考えられる。そこで、特徴量算出部31は、特徴量4が一定以上の値になると、重心位置が単調増加あるいは単調減少していると判定し、炎検出領域内で検出された移動体は、炎ではなく、誤検出要因の人または車などの直進移動体であると判断でき、誤報を抑制することができる。   If the value of the feature amount 4 increases, it is considered that the tendency of monotonic increase or monotonic decrease is strong. Therefore, the feature amount calculation unit 31 determines that the position of the center of gravity is monotonously increasing or monotonically decreasing when the feature amount 4 is a certain value or more, and the moving object detected in the flame detection region is not a flame. Therefore, it can be determined that the object is a straight-moving body such as a person or a vehicle that is an erroneous detection factor, and erroneous reporting can be suppressed.

[炎判別処理5]平均輝度の変化量を特徴量5として抽出し、炎判別を行う方法について
この炎判別処理5では、誤検出要因である人や車を移動体として抽出した場合に、炎と区別する方法について、先の炎判別処理4とは異なる方法を説明する。抽出された移動体が人や車などであり、かつその場で留まっている場合には、画素に変化があまりないため、輝度値の変化が緩やかになる。一方、抽出された移動体が炎の場合には、激しく燃える状態の画像により、輝度変化が大きくなる傾向にある。図11は、本発明の実施の形態1における炎検出処理で抽出される特徴量5に関する説明図である。
[Flame Discriminating Process 5] A Method for Extracting the Change in Average Brightness as the Feature Quantity 5 and Performing Flame Discrimination In this flame discriminating process 5, when a person or a vehicle that is a false detection factor is extracted as a moving object, A method different from the flame discrimination process 4 will be described. When the extracted moving body is a person, a car, or the like and stays on the spot, the change in luminance value becomes gentle because there is not much change in pixels. On the other hand, when the extracted moving body is a flame, the luminance change tends to increase due to the image of the fiery burning state. FIG. 11 is an explanatory diagram related to the feature quantity 5 extracted in the flame detection process according to Embodiment 1 of the present invention.

具体的には、図11(a)は、一般的な炎が燃えるシーンを撮像することで抽出された移動体に関して、フレームごとに算出した輝度平均値の遷移を示したものである。また、図10(b)は、人が移動するシーンを撮像することで抽出された移動体に関して、フレームごとに算出した輝度平均値の遷移を示したものである。特徴量算出部31による具体的な判別方法を、以下に説明する。   Specifically, FIG. 11A shows the transition of the average brightness value calculated for each frame for a moving object extracted by imaging a scene in which a general flame burns. FIG. 10B shows the transition of the average luminance value calculated for each frame with respect to a moving object extracted by capturing a scene in which a person moves. A specific determination method by the feature amount calculation unit 31 will be described below.

(手順1)特徴量算出部31は、前回のサイクルで特定された炎候補領域のそれぞれについて、今回のサイクルのフレームごとに抽出される移動体に関し、下式(6)を用いて、1サイクルにおける輝度値変化量の総和を、特徴量5として求める。 (Procedure 1) The feature amount calculation unit 31 uses the following equation (6) to perform one cycle for each moving body extracted for each frame of the current cycle for each flame candidate region identified in the previous cycle. The sum of the luminance value change amounts at is obtained as the feature amount 5.

Figure 0006138036
Figure 0006138036

(手順2)次に、特徴量算出部31は、手順1で求めた特徴量5が、所定量以下である場合には、1サイクル内で算出された各フレームの平均輝度値の変化が少ないと判定し、炎検出領域内で検出された移動体は、炎ではなく、誤検出要因の人または車などが留まっている状態であると判断でき、誤報を抑制することができる。 (Procedure 2) Next, when the feature quantity 5 obtained in the procedure 1 is equal to or less than a predetermined quantity, the feature quantity calculation unit 31 has little change in the average luminance value of each frame calculated in one cycle. Therefore, it can be determined that the moving object detected in the flame detection area is not a flame but is in a state where a false detection factor such as a person or a vehicle stays, and erroneous reporting can be suppressed.

以上のように、実施の形態1によれば、前処理部の働きにより、直近の時系列画像データに基づいて、1サイクルごとに炎検出のための適切な候補領域を特定できる。さらに、前のサイクルで特定された候補領域について、次のサイクルで特徴量1〜特徴量5に基づく判断処理を行うことで、誤検出を抑制し、かつ、炎自体の検出精度を向上させることができる。この結果、種々の誤検出要因を含む様々な設置環境において炎を高精度に検出することのできる炎検出装置および炎検出方法を実現できる。   As described above, according to the first embodiment, an appropriate candidate region for flame detection can be specified for each cycle based on the latest time-series image data by the action of the preprocessing unit. Furthermore, for the candidate area identified in the previous cycle, by performing determination processing based on the feature amount 1 to the feature amount 5 in the next cycle, it is possible to suppress false detection and improve the detection accuracy of the flame itself. Can do. As a result, it is possible to realize a flame detection apparatus and a flame detection method that can detect a flame with high accuracy in various installation environments including various erroneous detection factors.

なお、本願発明の炎検出部30内の炎判定部32は、特徴量算出部31による炎判別処理1〜5の結果を統合処理して、最終的に炎判定を実行しているが、たとえば各特徴量に重み付けを行うことで感度を変更してもよく、さらに言えば、各特徴量の少なくとも一つで所定の閾値を超えたときに炎であると判定してもよい。   In addition, although the flame determination part 32 in the flame detection part 30 of this invention integrates the result of the flame determination processes 1-5 by the feature-value calculation part 31, and finally performs the flame determination, The sensitivity may be changed by weighting each feature amount, and more specifically, when at least one of the feature amounts exceeds a predetermined threshold, it may be determined that the flame is present.

1 カメラ、10 画像メモリ、20 前処理部、21 移動体抽出部、22 候補領域生成部、30 炎検出部、31 特徴量算出部、32 炎判定部。   DESCRIPTION OF SYMBOLS 1 Camera, 10 image memory, 20 Pre-processing part, 21 Mobile body extraction part, 22 Candidate area | region production | generation part, 30 Flame detection part, 31 Feature-value calculation part, 32 Flame determination part

Claims (3)

監視カメラにより撮像された画像に対して画像処理を施すことにより、炎の発生を検出する炎検出装置であって、
前記監視カメラにより時系列で撮像された複数の画像を時系列画像として記憶する画像メモリと、
前記画像メモリに記憶された複数Nフレーム(Nは、2以上の整数)からなる1サイクル分の時系列画像に基づいて、画像内に存在する移動体を抽出し、炎の発生の有無を判断する指標となる特徴量を算出して特徴量の抽出処理を行うことで、炎の発生の有無を判断する炎検出部と
を備え、
前記炎検出部は、前記複数Nフレームからなる1サイクル分の時系列画像に基づいて、
前記時系列画像と基準画像との差分として得られる背景差分画像と、前記時系列画像のうちの隣接する画像間の差分として得られる時系列差分画像とに基づいて、それぞれのフレームごとに炎候補領域を抽出し、フレームごとに抽出した前記炎候補領域のそれぞれの重心位置を算出し、前記複数Nフレーム分の前記重心位置のデータ列を離散フーリエ変換し、平均振幅スペクトルと最大振幅スペクトルを算出し、下式
特徴量=最大振幅スペクトル/平均振幅スペクトル
により特徴量を算出する特徴量算出部と、
前記特徴量算出部で算出された前記特徴量が所定値以上である場合に、前記炎候補領域は、周期性が強いため炎ではないと判断する炎判定部と
を有する炎検出装置。
A flame detection device that detects the occurrence of a flame by performing image processing on an image captured by a monitoring camera,
An image memory for storing a plurality of images taken in time series by the monitoring camera as time series images;
Based on a one-cycle time-series image composed of a plurality of N frames (N is an integer of 2 or more) stored in the image memory, a moving object existing in the image is extracted to determine whether or not a flame has occurred. A flame detection unit that determines whether or not a flame has occurred by calculating a feature quantity serving as an index to perform and performing feature quantity extraction processing,
The flame detection unit is based on a time-series image for one cycle composed of the plurality of N frames.
Flame candidates for each frame based on a background difference image obtained as a difference between the time-series image and a reference image and a time-series difference image obtained as a difference between adjacent images in the time-series image. A region is extracted, and each centroid position of the flame candidate region extracted for each frame is calculated. A data sequence of the centroid positions for the N frames is subjected to discrete Fourier transform to calculate an average amplitude spectrum and a maximum amplitude spectrum. And the following formula: feature quantity = maximum amplitude spectrum / feature quantity calculation unit for calculating the feature quantity by the average amplitude spectrum;
A flame detection device comprising: a flame determination unit that determines that the flame candidate region is not a flame because the periodicity is strong when the feature amount calculated by the feature amount calculation unit is greater than or equal to a predetermined value.
請求項1に記載の炎検出装置において、
前記特徴量算出部は、
(処理1)前記基準画像と前記1サイクル分の時系列画像のうちのn(nは、2以上N以下の整数)番目の画像について対応する画素の差分の絶対値を算出することで前記背景差分画像を生成し、
(処理2)前記1サイクル分の時系列画像のうちのn番目の画像と(n−1)番目の画像について対応する画素の差分の絶対値を算出することで前記時系列差分画像を生成し、
(処理3)あらかじめ決められた2値化閾値に基づいて、前記背景差分画像および前記時系列差分画像のそれぞれを2値化することで、前記2値化閾値以上の差分値を有する画素の集合として構成される背景差分2値画像および時系列差分2値画像を生成し、
(処理4)前記背景差分2値画像および前記時系列差分2値画像の論理和をとることで、前記炎候補領域を抽出し、
(処理5)nを2からNまで順次変化させて処理1〜処理4を実行することで、前記炎候補領域の抽出を(N−1)回実行し、(N−1)回分の前記炎候補領域のそれぞれの重心位置を算出し、
(処理6)前記複数Nフレーム分の前記重心位置のデータ列を離散フーリエ変換し、平均振幅スペクトルと最大振幅スペクトルを算出し、下式
特徴量=最大振幅スペクトル/平均振幅スペクトル
により特徴量を算出する
炎検出装置。
The flame detection apparatus according to claim 1,
The feature amount calculation unit includes:
(Process 1) The background is obtained by calculating the absolute value of the corresponding pixel difference for the nth image (n is an integer not less than 2 and not more than N) of the reference image and the time-series images for one cycle. Generate a difference image,
(Process 2) The time-series difference image is generated by calculating the absolute value of the difference between corresponding pixels of the n-th image and the (n-1) -th image among the one-cycle time-series images. ,
(Process 3) A set of pixels having a difference value equal to or greater than the binarization threshold by binarizing each of the background difference image and the time-series difference image based on a predetermined binarization threshold. A background difference binary image and a time series difference binary image configured as
(Process 4) The flame candidate region is extracted by taking a logical sum of the background difference binary image and the time-series difference binary image,
(Process 5) By executing Process 1 to Process 4 by sequentially changing n from 2 to N, the extraction of the flame candidate region is performed (N-1) times, and (N-1) times of the flames are performed. Calculate the center of gravity of each candidate area,
(Process 6) Discrete Fourier transform is performed on the data sequence of the centroid positions for the plurality of N frames to calculate the average amplitude spectrum and the maximum amplitude spectrum, and the feature amount is calculated by the following formula: feature amount = maximum amplitude spectrum / average amplitude spectrum A flame detection device.
監視カメラにより撮像された画像に対して画像処理を施すことにより、炎の発生を検出する炎検出装置であって、
前記監視カメラにより時系列で撮像された複数の画像を時系列画像として記憶する画像メモリと、
前記画像メモリに記憶された複数Nフレーム(Nは、2以上の整数)からなる1サイクル分の時系列画像に基づいて、画像内に存在する移動体を抽出し、炎の発生の有無を判断する指標となる特徴量を算出して特徴量の抽出処理を行うことで、炎の発生の有無を判断する炎検出部と
を備え、
前記炎検出部は、前記複数Nフレームからなる1サイクル分の時系列画像に基づいて、
前記時系列画像と基準画像との差分として得られる背景差分画像と、前記時系列画像のうちの隣接する画像間の差分として得られる時系列差分画像とに基づいて、それぞれのフレームごとに炎候補領域を抽出し、フレームごとに抽出した前記炎候補領域のそれぞれの重心位置を算出し、前記1サイクル内におけるそれぞれの隣接フレーム間の重心位置の増減数、または前記複数Nフレーム分の前記重心位置のデータ列を離散フーリエ変換した値、に基づいて特徴量を算出する特徴量算出部と、
前記特徴量算出部で算出された前記特徴量が所定値以上である場合に、前記炎候補領域は、周期性が強いため炎ではないと判断する炎判定部と
を有する炎検出装置。
A flame detection device that detects the occurrence of a flame by performing image processing on an image captured by a monitoring camera,
An image memory for storing a plurality of images taken in time series by the monitoring camera as time series images;
Based on a one-cycle time-series image composed of a plurality of N frames (N is an integer of 2 or more) stored in the image memory, a moving object existing in the image is extracted to determine whether or not a flame has occurred. A flame detection unit that determines whether or not a flame has occurred by calculating a feature quantity serving as an index to perform and performing feature quantity extraction processing,
The flame detection unit is based on a time-series image for one cycle composed of the plurality of N frames.
Flame candidates for each frame based on a background difference image obtained as a difference between the time-series image and a reference image and a time-series difference image obtained as a difference between adjacent images in the time-series image. A region is extracted, and the centroid position of each of the flame candidate regions extracted for each frame is calculated. The number of centroid positions between adjacent frames in the one cycle, or the centroid positions for the N frames. A feature amount calculation unit that calculates a feature amount based on a value obtained by performing a discrete Fourier transform on the data string ;
A flame detection device comprising: a flame determination unit that determines that the flame candidate region is not a flame because the periodicity is strong when the feature amount calculated by the feature amount calculation unit is greater than or equal to a predetermined value.
JP2013250838A 2013-12-04 2013-12-04 Flame detection device Active JP6138036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013250838A JP6138036B2 (en) 2013-12-04 2013-12-04 Flame detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013250838A JP6138036B2 (en) 2013-12-04 2013-12-04 Flame detection device

Publications (2)

Publication Number Publication Date
JP2015108920A JP2015108920A (en) 2015-06-11
JP6138036B2 true JP6138036B2 (en) 2017-05-31

Family

ID=53439234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013250838A Active JP6138036B2 (en) 2013-12-04 2013-12-04 Flame detection device

Country Status (1)

Country Link
JP (1) JP6138036B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108876856B (en) * 2018-06-29 2020-10-09 北京航空航天大学 Fire source identification and positioning method and system for large building
CN113092481B (en) * 2021-03-11 2023-06-09 南京理工大学 Method for judging transition point of diffusion flame soot generation
CN115394040B (en) * 2022-08-30 2023-05-23 新创碳谷集团有限公司 Flame detection method, computer equipment and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3772007B2 (en) * 1997-11-06 2006-05-10 能美防災株式会社 Fire detection equipment
JP4042891B2 (en) * 2001-03-22 2008-02-06 能美防災株式会社 Fire detection equipment

Also Published As

Publication number Publication date
JP2015108920A (en) 2015-06-11

Similar Documents

Publication Publication Date Title
Appana et al. A video-based smoke detection using smoke flow pattern and spatial-temporal energy analyses for alarm systems
US8498449B2 (en) Eye detecting device, eye detecting method, and program
JP7143174B2 (en) Smoke detection device and smoke identification method
JP2011186633A (en) Object detector
JP6617015B2 (en) Flame detection apparatus and flame detection method
JP6138036B2 (en) Flame detection device
JP6166651B2 (en) Flame detection apparatus and flame detection method
JP6140599B2 (en) Flame detection device
JP6166650B2 (en) Flame detection apparatus and flame detection method
Khan et al. Machine vision based indoor fire detection using static and dynamic features
JP7404747B2 (en) Workpiece surface defect detection device and detection method, workpiece surface inspection system and program
JP6074304B2 (en) Smoke detection device and smoke detection method
JP6664689B2 (en) Flame detector
KR101270718B1 (en) Video processing apparatus and method for detecting fire from video
JP6372854B2 (en) Smoke detection device and smoke detection method
JP2015108922A (en) Flame detector and flame detection method
JP6593791B2 (en) Flame detection apparatus and flame detection method
JP6042316B2 (en) Flame detection apparatus and flame detection method
JP2010218046A (en) Smoke detection device
CN109086647B (en) Smoke detection method and device
CN111353350A (en) Flame detection and positioning method based on combined sensor image fusion technology
JP6126290B1 (en) Appearance inspection device
JP6457728B2 (en) Laminar smoke detection device and laminar smoke detection method
GB2522259A (en) A method of object orientation detection
JP2005346222A (en) Sweat gland pore removing device, sweat gland pore removing method and sweat gland pore removing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151126

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20151126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170425

R150 Certificate of patent or registration of utility model

Ref document number: 6138036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250