KR102067994B1 - System for detecting flame of embedded environment using deep learning - Google Patents

System for detecting flame of embedded environment using deep learning Download PDF

Info

Publication number
KR102067994B1
KR102067994B1 KR1020190059013A KR20190059013A KR102067994B1 KR 102067994 B1 KR102067994 B1 KR 102067994B1 KR 1020190059013 A KR1020190059013 A KR 1020190059013A KR 20190059013 A KR20190059013 A KR 20190059013A KR 102067994 B1 KR102067994 B1 KR 102067994B1
Authority
KR
South Korea
Prior art keywords
flame
deep learning
image
region
feature data
Prior art date
Application number
KR1020190059013A
Other languages
Korean (ko)
Inventor
이승호
라승탁
김성진
이선구
Original Assignee
한밭대학교 산학협력단
(주)큐디스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한밭대학교 산학협력단, (주)큐디스 filed Critical 한밭대학교 산학협력단
Priority to KR1020190059013A priority Critical patent/KR102067994B1/en
Application granted granted Critical
Publication of KR102067994B1 publication Critical patent/KR102067994B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Fire-Detection Mechanisms (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a system for detecting a flame of an embedded environment by using deep learning. The system comprises: a detecting unit detecting a flame region according to a chrominance in comparison with the brightness of an input image; a first classification unit inserting the detected flame region as a deep learning input and classifying a region, in which a flame class probability of an output terminal is 75% or more, as a first flame image; a cell separation unit dividing, into cells of N*N units, a region excluding the first flame image classified by the first classification unit (a region in which a flame class probability is less than 75%); and a second classification unit inserting the cells divided into N*N units as a deep learning input, and classifying a region, in which a flame class probability of the output terminal is 50% or more, as a second flame image. According to the present invention, a flame region corresponding to a flame color model can be detected, thereby classifying a flame image through deep learning, and N*N cells of the flame region can be separated to classify a flame shape through deep learning, thereby accurately detecting a flame while maintaining accuracy even in an embedded system with a low-resource environment.

Description

딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템{System for detecting flame of embedded environment using deep learning}System for detecting flame of embedded environment using deep learning}

본 발명은 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템에 관한 것으로 더욱 상세하게는, 종래와 같이 불꽃 및 색상을 동시에 감지하는 것이 아니라, 불꽃 색깔 감지 및 불꽃 모양 감지 각각을 별도로 수행함으로써, 낮은 리소스(resource) 환경의 임베디드 시스템에서도 정밀도를 유지하면서 정확하게 불꽃을 감지하는 기술에 관한 것이다.The present invention relates to a flame detection system of an embedded environment using deep learning, and more particularly, to detect flame and color at the same time as in the prior art, and to separately perform flame color detection and flame shape detection, thereby reducing low resources ( It is about technology to detect flame accurately while maintaining precision even in embedded system of environment.

불꽃 감지 시스템은 화재를 조기 감지하여 진압, 피난 등을 빠르게 할 수 있는 기술로 최근 복잡한 내부의 건물들에 불꽃 감지 시스템을 보급하여 화재를 조기 방지하는 추세이다. 국민안전처의 화재통계연보에 따르면 불꽃 감지 시스템이 더욱 발전되고 보급된다면 화재의 피해가 현저히 낮아질 것으로 예상되고 있다.The flame detection system is a technology that detects fire early and speeds up suppression and evacuation, and has recently spread the flame detection system to complex buildings to prevent fire early. According to the National Statistical Bureau of Fire Statistics, the damage of fire is expected to be significantly reduced if the flame detection system is further developed and distributed.

한편, 지금까지의 불꽃 감지 시스템은 서버를 구성해야만 하고, 고가의 장비들을 설치하여야 하거나 오작동의 빈번함 등의 문제점을 가지고 있다. 기존의 센서 기반 감지 시스템의 경우, 연기 및 온도센서 등의 설치를 통해 화재를 감지하였으나 많은 수의 센서들을 설치하여야하기 때문에 비용적인 측면에서 문제가 있었다.On the other hand, the flame detection system up to now has to configure the server, expensive equipment has to be installed or there is a problem of frequent malfunctions. In the existing sensor-based detection system, fire was detected through the installation of smoke and temperature sensors, but there were problems in terms of cost because a large number of sensors had to be installed.

이를 보완하기 위하여 카메라의 영상만을 이용하여 영상처리를 통해 불꽃 감지를 할 수 있는 불꽃 감지 시스템들도 나왔지만, 알고리즘으로 영상을 판단하여 불꽃을 판단하여야 하는 한계 때문에 빨간 치마 등의 불꽃과 비슷한 객체도 불꽃으로 판단하는 오작동의 빈번만 문제가 있었다.In order to compensate for this, there have been flame detection systems that can detect the flame through image processing using only the image of the camera. Judging from the frequent malfunctions of malfunctions.

최근에는 딥러닝의 발달로 영상처리를 사용한 불꽃 감지의 오작동이 급격히 줄어들어 영상처리만으로도 거의 완벽한 불꽃 감지를 할 수 있게 되었으나, 고사양의 하드웨어 사양이 필요한 문제점이 있다.Recently, due to the development of deep learning, the malfunction of flame detection using image processing is rapidly reduced, so that almost perfect flame detection can be achieved by image processing alone, but there is a problem that a high specification hardware specification is required.

아울러, 현재 불꽃 감지 분야에서 불꽃의 유무를 판단하기 위해 많이 사용하는 딥러닝 구조는, 기본적으로 높은 하드웨어의 사양과 많은 메모리 및 연산량을 요구하여 높은 성능이 요구되고 있다.In addition, the deep learning structure, which is widely used to determine the presence or absence of a flame in the flame detection field, basically requires high performance due to a high hardware specification, a large memory, and a large amount of computation.

따라서, 본 출원인은 불꽃의 색깔과 모양에 특화된 2가지의 가벼운 딥러닝 구조를 갖으며, 저사양의 임베디드 시스템에 적용 가능하면서도 불꽃 검출률을 향상시킨 딥러닝을 이용한 불꽃 감지 시스템을 제안하고자 한다.Therefore, the present applicant has two light deep learning structures specialized in the color and shape of the flame, and proposes a flame detection system using the deep learning which can be applied to a low specification embedded system while improving the flame detection rate.

대한민국 등록특허 제10-1649173(2016.08.18.공고)Republic of Korea Patent No. 10-1649173 (August 18, 2016.) 대한민국 등록특허 제10-1716036(2017.03.13.공고)Republic of Korea Patent No. 10-1716036 (announced on March 13, 2017)

본 발명의 목적은, 종래와 같이 불꽃 및 색상을 동시에 감지하는 것이 아니라, 불꽃 색깔 모델과 대응하는 불꽃 영역을 검출하여 불꽃 색깔에 특화된 딥러닝 모델을 통해 화재 확률 75% 이상의 영상을 화재 영상으로 분류하고, 검출된 화재 영상의 영역을

Figure 112019051577368-pat00001
셀로 분리하여 불꽃 모양에 특화된 딥러닝 모델을 통해 50% 이상이 화재로 판단되는 경우 화재영상으로 분류함으로써, 종래에 불꽃 및 색상을 동시에 감지함에 따라 많은 리소스 사용으로 인해 임베디드 시스템 환경에서 불가능했던 불꽃 감지를, 낮은 리소스 환경의 임베디드 시스템에서도 정밀도를 유지하면서 정확하게 감지하는데 있다.The object of the present invention is not to detect the flame and color at the same time as in the prior art, but to detect the flame color model and the corresponding flame region and classify the fire image with a fire image of more than 75% through a deep learning model specialized for the flame color. And the area of the detected fire image
Figure 112019051577368-pat00001
If more than 50% is judged to be a fire through the deep learning model specialized in flame shape by separating into cells, it is classified as a fire image.It detects flame that was impossible in the embedded system environment due to the use of a lot of resources. This is to accurately detect the low-environment embedded system while maintaining the precision.

즉, 본 발명은 불꽃 색깔 모델을 통하여 화재 영역을 검출 후에 화재 확률 75% 이상에서만 화재 영상으로 분류하기 때문에, 화재 확률 75% 미만인 경우에 검출된 화재 영역을

Figure 112019051577368-pat00002
셀로 분리하여 불꽃 모양 모델을 통해 화재 영상으로 분류함으로써, 낮은 리소스 환경의 임베디드 시스템에서도 정밀도를 유지하면서 정확하게 감지할 수 있다.That is, since the present invention classifies the fire zone only by the fire probability 75% or more after detecting the fire zone through the flame color model, the fire zone detected when the fire probability is less than 75% is determined.
Figure 112019051577368-pat00002
By separating them into cells and classifying them as fire images through a flame model, they can be detected accurately while maintaining precision even in embedded systems in low resource environments.

이러한 기술적 과제를 달성하기 위한 본 발명의 일 실시예는 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템으로서, 입력영상의 휘도 대비 색차에 따라 불꽃 영역을 검출하는 검출부; 검출된 불꽃 영역을 딥러닝 입력으로 넣고, 출력단의 불꽃 클래스 확률이 75% 이상인 영역을 제1 불꽃 영상으로 분류하는 제1 분류부; 제1 분류부에 의해 분류된 제1 불꽃 영상 이외의 영역(불꽃 클래스 확률이 75% 미만인 영역)을

Figure 112019051577368-pat00003
단위의 셀로 분할하는 셀 분리부; 및
Figure 112019051577368-pat00004
단위로 분할된 셀을 딥러닝 입력으로 넣고, 출력단의 불꽃 클래스 확률이 50% 이상인 영역을 제2 불꽃 영상으로 분류하는 제2 분류부를 포함하는 것을 특징으로 한다.One embodiment of the present invention for achieving the above technical problem is a flame detection system of the embedded environment using deep learning, the detection unit for detecting the flame region according to the luminance difference color difference of the input image; A first classifying unit configured to insert the detected flame region as a deep learning input and classify a region having a flame class probability of at least 75% as the first flame image at an output stage; Areas other than the first flame image classified by the first classification unit (areas with a flame class probability of less than 75%)
Figure 112019051577368-pat00003
A cell separator for dividing the cell into units; And
Figure 112019051577368-pat00004
And a second classifying unit to classify the cell divided into units as a deep learning input and classify a region having a flame class probability of 50% or more as the second flame image.

바람직하게는, 검출부는 입력영상의 RGB 컬러 모델을 YCbCr 컬러 모델로 변환하여 불꽃 영역을 검출하는 것을 특징으로 한다.Preferably, the detector detects the flame region by converting the RGB color model of the input image into the YCbCr color model.

제1 분류부는, 검출된 불꽃 영역의 특징 데이터를 추출하는 Convolution 층과, 특징 데이터에 포함된 노이즈를 제거하고 이미지의 사이즈를 축소하여 특징 데이터를 확정하는 Sub sampling 층과, 확정된 특징 데이터를 일렬로 연결하여 특징 벡터로 변환하는 Fully-connected / Drop out 층, 및 변환된 특징 벡터로부터 설정된 개수의 특징 벡터를 생성하여 불꽃 클래스 확률이 75% 이상인 영역을 제1 불꽃 영상으로 분류하는 Softmax(NN) 층을 포함하는 것을 특징으로 한다.The first classification unit includes a convolution layer for extracting feature data of the detected flame region, a sub sampling layer for removing the noise included in the feature data and reducing the size of the image to confirm the feature data, and the determined feature data. Softmax (NN) that generates a set number of feature vectors from the transformed feature vectors, and classifies regions with a flame class probability of 75% or more as the first fireworks image by generating And a layer.

제2 분류부는,

Figure 112019051577368-pat00005
단위로 분할된 셀의 특징 데이터를 추출하는 Convolution 층과, 특징 데이터에 포함된 노이즈를 제거하고 이미지의 사이즈를 축소하여 특징 데이터를 확정하는 Sub sampling 층과, 확정된 특징 데이터를 일렬로 연결하여 특징 벡터로 변환하는 Fully-connected / Drop out 층, 및 변환된 특징 벡터로부터 설정된 개수의 특징 벡터를 생성하여 불꽃 클래스 확률이 50% 이상인 영역을 제2 불꽃 영상으로 분류하는 Softmax(NN) 층을 포함하는 것을 특징으로 한다.The second classification unit,
Figure 112019051577368-pat00005
The convolution layer extracts feature data of the cell divided into units, the sub sampling layer removing noise included in the feature data and reducing the size of the image to determine the feature data, and connecting the determined feature data in a line. Fully-connected / Drop out layer for converting into a vector, and Softmax (NN) layer for generating a predetermined number of feature vectors from the transformed feature vector to classify a region having a flame class probability of 50% or more as a second flame image It is characterized by.

상기와 같은 본 발명에 따르면, 불꽃 색깔 모델과 대응하는 불꽃 영역을 검출하여 불꽃 색깔에 특화된 딥러닝 모델을 통해 화재 확률 75% 이상의 영상을 화재 영상으로 분류하고, 검출된 화재 영상의 영역을

Figure 112019051577368-pat00006
셀로 분리하여 불꽃 모양에 특화된 딥러닝 모델을 통해 50% 이상이 화재로 판단되는 경우 화재영상으로 분류함으로써, 낮은 리소스 환경의 임베디드 시스템에서도 정밀도를 유지하면서 정확하게 감지할 수 있다.According to the present invention as described above, by detecting a flame region corresponding to the flame color model, through the deep learning model specialized in the flame color to classify an image of fire probability 75% or more as a fire image, and to determine the area of the detected fire image
Figure 112019051577368-pat00006
The deep learning model, which is separated into cells and is specialized in the shape of flame, classifies it as a fire image when more than 50% is judged to be a fire.

도 1은 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템을 도시한 순서도.
도 2a 및 도 2b는 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 딥러닝 순서도.
도 3은 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 불꽃 색깔 모델을 사용한 불꽃 영역 검출 과정을 도시한 예시도.
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 레이블링 기법에 의한 불꽃 영역 검출을 도시한 예시도.
도 5는 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 불꽃 영상 분류 절차를 도시한 예시도.
도 6은 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 임베디드 시스템 기반의 딥러닝에 의한 불꽃 색깔 특화 구조를 도시한 예시도.
도 7a 및 도 7b은 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 Convolution 층을 도시한 예시도.
도 8은 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 Sub sampling 층을 도시한 예시도.
도 9a는 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 Fully-connected / Drop out 층을 도시한 예시도.
도 9b는 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 Over Fitting 현상을 도시한 예시도.
도 10은 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 Softmax(NN) 층을 도시한 예시도.
도 11a는 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의

Figure 112019051577368-pat00007
셀 분리 과정을 도시한 예시도.
도 11b는 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 불꽃 색깔 특화 딥러닝 모델에서 오류를 도시한 예시도.
도 12는 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 불꽃 모양 특화 딥러닝 모델을 통한 화재영상 분류를 도시한 예시도.
도 13은 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템에 의해 최종적으로 분류된 불꽃 영상과 불꽃 유사 영상을 도시한 예시도.
도 14a 및 도 14b는 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템의 ImageNet 불꽃 데이터베이스를 도시한 예시도.1 is a flowchart illustrating a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
2A and 2B are deep learning flowcharts of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
3 is an exemplary view illustrating a flame region detection process using a flame color model of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
4A and 4B are exemplary views illustrating flame region detection by a labeling technique of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
5 is an exemplary diagram illustrating a flame image classification process of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
6 is an exemplary view showing a flame color specialized structure by deep learning based on embedded system of a flame detection system of an embedded environment using deep learning according to an embodiment of the present invention.
7A and 7B are exemplary views illustrating a convolution layer of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
8 is an exemplary diagram illustrating a sub sampling layer of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
9A is an exemplary diagram illustrating a Fully-connected / Drop out layer of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
9B is an exemplary diagram illustrating an over fitting phenomenon of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
10 is an exemplary diagram illustrating a Softmax (NN) layer of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
11A illustrates a flame detection system of an embedded environment using deep learning according to an embodiment of the present invention.
Figure 112019051577368-pat00007
Exemplary diagram illustrating a cell separation process.
11B is an exemplary diagram illustrating an error in a flame color-specific deep learning model of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.
FIG. 12 is an exemplary view illustrating fire image classification using a flame shape specialized deep learning model of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention. FIG.
FIG. 13 is an exemplary view illustrating a flame image and a flame-like image finally classified by a flame detection system of an embedded environment using deep learning according to an embodiment of the present invention. FIG.
14A and 14B illustrate an ImageNet flame database of a flame detection system in an embedded environment using deep learning according to an embodiment of the present invention.

본 발명의 구체적인 특징 및 이점들은 첨부 도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다. 또한, 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. Prior to this, terms or words used in the present specification and claims are defined in the technical spirit of the present invention on the basis of the principle that the inventor can appropriately define the concept of the term in order to explain the invention in the best way. It should be interpreted to mean meanings and concepts. In addition, when it is determined that the detailed description of the known function and the configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, it should be noted that the detailed description is omitted.

도 1, 도 2a 및 도 2b를 참조하면 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템(S)은, 입력영상의 휘도 대비 색차에 따라 불꽃 영역을 검출하는 검출부(100)와, 검출된 불꽃 영역을 딥러닝 입력으로 넣고, 출력단의 불꽃 클래스 확률이 75% 이상인 영역을 제1 불꽃 영상으로 분류하는 제1 분류부(200)와, 제1 분류부(200)에 의해 분류된 제1 불꽃 영상 이외의 영역 즉, 불꽃 클래스 확률이 75% 미만인 영역을

Figure 112019051577368-pat00008
단위의 셀(크기가 작은 불꽃 영상)로 분할하는 셀 분리부(300), 및
Figure 112019051577368-pat00009
단위로 분할된 셀을 딥러닝 입력으로 넣고, 출력단의 불꽃 클래스 확률이 50% 이상인 영역을 제2 불꽃 영상으로 분류하는 제2 분류부(400)를 포함하여 구성된다.1, 2A and 2B, the flame detection system S of the embedded environment using deep learning according to an embodiment of the present invention may include a detection unit 100 that detects a flame region according to a luminance contrast color difference of an input image. And the first classifying unit 200 and the first classifying unit 200 for inputting the detected flame region as a deep learning input and classifying a region having a flame class probability of 75% or more as the first flame image. Areas other than the classified first flame image, that is, the area where the flame class probability is less than 75%
Figure 112019051577368-pat00008
A cell separator 300 for dividing a unit cell (a small flame image), and
Figure 112019051577368-pat00009
And a second classifying unit 400 for inserting a cell divided into units as a deep learning input and classifying a region having a flame class probability of 50% or more at the output stage as a second flame image.

구체적으로, 검출부(100)는 입력영상의 RGB 컬러 모델을 [수학식 1]을 통해 YCbCr 컬러 모델로 변환하고, [수학식 2]를 통해 조도의 변화에 높은 강인성을 보이는 불꽃 색깔 모델(휘도 대비 색차)을 통해 불꽃 영역을 검출한다.Specifically, the detection unit 100 converts an RGB color model of the input image into a YCbCr color model through [Equation 1], and a flame color model (high contrast) that shows a high robustness to a change in illuminance through [Equation 2]. Color difference) to detect the flame region.

[수학식 1][Equation 1]

Figure 112019051577368-pat00010
Figure 112019051577368-pat00010

[수학식 2][Equation 2]

Figure 112019051577368-pat00011
Figure 112019051577368-pat00011

Figure 112019051577368-pat00012
Figure 112019051577368-pat00012

Figure 112019051577368-pat00013
Figure 112019051577368-pat00013

Figure 112019051577368-pat00014
Figure 112019051577368-pat00014

도 3은 불꽃 색깔 모델을 사용한 불꽃 영역 검출 과정을 도시한 예시도이다. 여기서 왼쪽 영상은 입력된 불꽃 영상을, 오른쪽 영상은 임계값(

Figure 112019051577368-pat00015
)에 따라 상이하게 검출된 불꽃 영역을 흰색으로 나타낸다.3 is an exemplary view showing a flame region detection process using a flame color model. Here, the left image is the input flame image, and the right image is the threshold value (
Figure 112019051577368-pat00015
The flame region detected differently according to) is shown in white.

이때,

Figure 112019051577368-pat00016
는 경험적 임계값(상수)으로, 이 값이 작으면 영상 안의 불꽃을 잘 감지하지만 유사 색상의 다른 개체까지 불꽃 영역으로 검출하는 오류가 발생하게 된다. 따라서, 임계값
Figure 112019051577368-pat00017
는 20 내지 50의 상수로 설정하되, 바람직하게는 실험경과 불꽃 검출률이 가장 높았던 임계값인 35로
Figure 112019051577368-pat00018
를 설정한다.At this time,
Figure 112019051577368-pat00016
Is a heuristic threshold (constant). A small value is a good detection of flames in the image, but an error of detecting other objects of similar color into the flame region occurs. Thus, the threshold
Figure 112019051577368-pat00017
Is set to a constant of 20 to 50, preferably 35 to the threshold value at which the experiment and flame detection rate were the highest.
Figure 112019051577368-pat00018
Set.

이때,

Figure 112019051577368-pat00019
값에 따른 화재 검출률 그래프는 아래와 같다.At this time,
Figure 112019051577368-pat00019
The fire detection rate graph according to the value is as follows.

Figure 112019051577368-pat00020
Figure 112019051577368-pat00020

또한, 검출부(100)의 불꽃 영역 검출은 동일 객체에 속한 모든 픽셀에 고유한 번호는 부여하는 레이블링 기법을 통해 도 4a 및 도 4b에 도시된 바와 같이 흰색의 픽셀들이 연속적으로 이어져 있는 영역을 불꽃 영역으로 검출할 수 있다. 이때, 검출부(100)는 화재 영역이 가장 많은 레이블링 영역을 선택하게 된다.In addition, the flame area detection of the detection unit 100 uses the labeling technique of assigning a unique number to all the pixels belonging to the same object, as shown in FIGS. 4A and 4B. Can be detected. At this time, the detection unit 100 selects the labeling area having the most fire area.

한편, 제1 분류부(200)는 불꽃 색깔 모델을 통하여 검출된 화재 영역을 불꽃 색깔 특화 딥러닝 모델의 입력으로 넣고, 출력단의 화재 클래스 확률이 75% 이상에서만 화재 영상으로 분류한다. 이때, 화재와 유사한 색깔의 영상에서 불꽃 색깔 모델을 통한 화재 영역 검출 수행 결과 불꽃과 유사한 색상의 경우도 검출될 수 있다.Meanwhile, the first classification unit 200 inserts the fire region detected through the flame color model as an input of the flame color specialized deep learning model, and classifies the fire image as a fire image only when the fire class probability of the output terminal is 75% or more. In this case, as a result of performing the fire zone detection through the flame color model in the image of the color similar to the fire, the case of the color similar to the flame may also be detected.

화재 유사 영상을 불꽃 색깔 특화 딥러닝 모델의 입력으로 넣게 되면 출력단의 화재 클래스 확률은 대부분 50% 내지 75% 사이의 값이 나오게 되고, 이에 따라 불꽃 색깔 특화 딥러닝 모델에서 75% 미만의 확률로 화재 분류가 될 경우는 화재 영상으로 판단하지 않게 된다.When the fire-like image is input to the flame-colored deep learning model, the fire class probability of the output stage is mostly between 50% and 75%, which is less than 75% of the flame color-specific deep learning model. If it is classified, it will not be judged by the fire image.

제1 분류부(200)의 딥러닝을 이용한 불꽃 영상 분류 절차는 도 5에 도시된 바와 같이 Convolution 층, Sub sampling 층, Fully-connected / Drop out 층, 및 Softmax(NN) 층에 의해 수행되며, 본 발명의 일 실시예에 따른 임베디드 시스템 기반의 딥러닝에 의한 불꽃 색깔 특화 구조는 도 6 및 아래의 [표 1]과 같다.Flame image classification process using the deep learning of the first classification unit 200 is performed by a convolution layer, a sub sampling layer, a fully-connected / drop out layer, and a Softmax (NN) layer, as shown in FIG. The flame color specialized structure by deep learning based on the embedded system according to an embodiment of the present invention is shown in FIG. 6 and Table 1 below.

Figure 112019051577368-pat00021
Figure 112019051577368-pat00021

도 6 및 [표 1]을 참조하면, convolution 연산은 총 8번 수행하며, 필터는 3 X 3 랜덤값 필터이고 필터 개수는 No.1부터 각각 16, 32, 64, 64, 128, 128, 128, 128개이다.Referring to FIG. 6 and [Table 1], the convolution operation is performed eight times, and the filter is a 3 × 3 random value filter and the number of filters is 16, 32, 64, 64, 128, 128, 128 from No. 1, respectively. , 128.

이어서, convolution 연산 다음인 No.2, 4, 7, 10, 13에서 한번씩 max sub sampling 연산을 수행한다.Subsequently, the max sub sampling operation is performed once in No. 2, 4, 7, 10, and 13 after the convolution operation.

No.13까지 연산 후, No.14인 Fully connected 연산은 모든 추출 특징을 연결하여 최종 특징 벡터를 생성하는 기능을 수행하고, 단순히 특징 벡터를 이어 붙여서 총 3200개의 특징 벡터를 추출한다.After the operation up to No. 13, the fully connected operation No. 14 performs the function of connecting all the extracted features to generate the final feature vector, and extracts a total of 3200 feature vectors by simply concatenating the feature vectors.

No.15는 총 3,200개의 특징 벡터에서 Drop out을 통해 일부 특징 벡터의 값을 0으로 만들어 딥러닝 학습의 Over Fitting을 줄이는 기능을 수행한다.No. 15 reduces the over fitting of deep learning by making the value of some feature vectors to 0 through drop out from a total of 3,200 feature vectors.

마지막 No.16에서는 Drop out까지 진행된 3,200개의 특징 벡터를 신경망의 입력으로 넣고 신경망 출력층의 노드 수를 학습시키는 클래스의 수로 설정한다.In the last No. 16, 3,200 feature vectors, which have been advanced to drop out, are put into the neural network input and set to the number of classes that learn the number of nodes in the neural network output layer.

불꽃 검출의 경우, 학습시키는 클래스가 불꽃/비불꽃 2개 이므로 신경망 출력층 노드는 2개로 설정한다.In the case of flame detection, the neural network output layer node is set to two because the class to be learned is two flame / non-flame.

이하, 본 발명의 일 실시예에 따른 제1 분류부(200)의 세부절차에 대해 살피면 아래와 같다.Hereinafter, the detailed procedure of the first classification unit 200 according to an embodiment of the present invention is as follows.

첫째로, 도 7a 및 도 7b에 도시된 바와 같이 제1 분류부(200)가 Convolution 층을 통해 검출된 불꽃 영역의 특징 데이터를 추출한다.First, as illustrated in FIGS. 7A and 7B, the first classifying unit 200 extracts feature data of a flame region detected through the convolution layer.

둘째로, 제1 분류부(200)가 도 8에 도시된 바와 같이 Sub sampling 층을 통해 특징 데이터에 포함된 노이즈를 제거하고 이미지의 사이즈를 축소하여 특징 데이터를 확정한다(Convolution 층을 통해 추출된 특징 영상의 특징들 중에서 최적의 특징들만 선별하여 특징 영상의 크기를 감소시키는 과정).Second, the first classifier 200 determines the feature data by removing noise included in the feature data through the sub sampling layer and reducing the size of the image as shown in FIG. 8 (extracted through the convolution layer). A process of reducing the size of the feature image by selecting only the optimal features among the feature images).

셋째로, 제1 분류부(200)가 도 9a에 도시된 바와 같이 Fully-connected / Drop out 층을 통해 확정된 특징 데이터를 일렬로 연결하여 특징 벡터로 변환한다.Third, the first classifying unit 200 converts the feature data determined through the Fully-connected / Drop out layer in a line and converts the feature data into a feature vector as shown in FIG. 9A.

이러한, Fully-connected 층은 Convolution과 Sub-sampling을 반복하여 추출된 최종 특징 데이터들을 일렬로 연결하여 특징 벡터로의 변환을 수행하고, Drop Out 층은 일부 특징 벡터의 값을 0으로 만들어 딥러닝 학습의 Over Fitting을 줄인다.The Fully-connected layer performs convolution and sub-sampling by concatenating the final feature data extracted in a row, converting them into feature vectors, and the Drop Out layer makes some feature vectors 0 to deep learning. Reduce over fitting

여기서, Over Fitting 이란 도 9b에 도시된 바와 같이, Layer가 많아지거나 과도한 학습으로 인해 생기는 현상으로 어느 정도의 오차를 허용해야 하나 위의 원인으로 지나치게 분류를 시키는 현상을 일컫는다.Here, as shown in FIG. 9B, the over fitting refers to a phenomenon in which a large amount of layers or excessive learning are allowed, but the error is excessively classified as the above cause.

즉, 13단계로 이루어진 Convolution 층, Sub-sampling 층 이후 모든 추출 특징을 연결하여 최종 특징 벡터를 생성하는 역할을 하게 된다. 이때, [표 1]의 No.14는 단순히 특징 벡터를 이어 붙여서 총 3200개의 특징 벡터를 추출하고, [표 1]의 No.15는 총 3200개의 특징 벡터에서 Drop out을 통해 일부 특징 벡터의 값을 0으로 만들어 딥러닝 학습의 Over Fitting을 줄이게 된다.That is, after the convolution layer and the sub-sampling layer of 13 steps, all extraction features are connected to generate a final feature vector. In this case, No. 14 of Table 1 simply extracts a total of 3200 feature vectors by concatenating the feature vectors, and No. 15 of Table 1 selects some feature vectors through drop out from a total of 3200 feature vectors. Set to 0 to reduce the over fitting of deep learning.

넷째로, 제1 분류부(200)가 도 10에 도시된 바와 같이, Softmax(NN) 층을 통해 변환된 특징 벡터로부터 설정된 개수의 특징 벡터를 생성하여 불꽃 클래스 확률이 75% 이상인 영역을 제1 불꽃 영상으로 분류한다.Fourth, as shown in FIG. 10, the first classifier 200 generates a predetermined number of feature vectors from the feature vectors transformed through the Softmax (NN) layer, thereby generating a region having a flame class probability of at least 75%. Classify as fireworks image.

또한, Softmax 층까지 순방향 전파된 Convolution 층의 특징 필터 계수들과 NN의 가중치들은 역전파 알고리즘을 통해 학습된다. 이때, 역전파 알고리즘은 목표값과 출력값의 오차를 구조의 역방향으로 입력하여 가중치를 수정하며, 학습이 진행될수록 오차를 감소시켜 원하는 결과가 출력되도록 한다.In addition, the characteristic filter coefficients of the convolution layer and the weights of the NN forward propagated to the Softmax layer are learned through a backpropagation algorithm. At this time, the back-propagation algorithm corrects the weight by inputting the error between the target value and the output value in the reverse direction of the structure, and decreases the error as the learning proceeds to output the desired result.

한편, 셀 분리부(300)는 제1 분류부(200)에 의해 분류된 제1 불꽃 영상 이외의 영역인, 불꽃 클래스 확률이 75% 미만인 영역을

Figure 112019051577368-pat00022
단위의 셀(크기가 작은 불꽃 영상)로 분할한다. 이때, 불꽃의 색깔이 다소 부족한 화재 영상은 화재 영상으로 분류되지 않을 수 있다.Meanwhile, the cell separator 300 may determine an area having a flame class probability of less than 75%, which is an area other than the first flame image classified by the first classification unit 200.
Figure 112019051577368-pat00022
The cell is divided into units (small flame images). At this time, the fire image that the color of the flame is somewhat insufficient may not be classified as a fire image.

또한, 분할되는

Figure 112019051577368-pat00023
값에 따라 딥러닝 구조에 입력되었을 때 결과에 많은 영향을 미치게 된다. 실험 결과
Figure 112019051577368-pat00024
이상일 경우에, 너무 작은 셀로 분할되기 때문에 딥러닝 학습이 되지 않을 우려가 이다.
Figure 112019051577368-pat00025
일 경우, 최소한의 불꽃으로 판단될 수 있는 특징들이 남아있어 학습이 가능한바, 본 발명의 일 실시예에서는
Figure 112019051577368-pat00026
로 결정하였다.Also, divided
Figure 112019051577368-pat00023
Depending on the value, it will have a big impact on the result when it is entered into the deep learning structure. Experiment result
Figure 112019051577368-pat00024
In case of abnormality, deep learning is not possible because it is divided into too small cells.
Figure 112019051577368-pat00025
In this case, the features that can be determined to be the minimum flame remains to be learned, in one embodiment of the present invention
Figure 112019051577368-pat00026
Determined.

이처럼

Figure 112019051577368-pat00027
로 분할된 셀들은 딥러닝 구조에 맞추어 일정한 크기로 조정하게 된다. like this
Figure 112019051577368-pat00027
The cells divided by are adjusted to a predetermined size according to the deep learning structure.

본 발명의 일 실시예에 따른 불꽃 모양 특화 딥러닝 구조의 첫 Convolution 연산의 입력으로는 128

Figure 112019051577368-pat00028
128의 이미지가 들어가므로
Figure 112019051577368-pat00029
로 분할된 셀들은 모두 128
Figure 112019051577368-pat00030
128의 일정한 크기로 조정된다.The input of the first convolution operation of the flame-shaped deep learning structure according to an embodiment of the present invention is 128
Figure 112019051577368-pat00028
As 128 images enter
Figure 112019051577368-pat00029
The cells divided by are all 128
Figure 112019051577368-pat00030
It is scaled to 128 constant sizes.

이때, 불꽃 모양 특화 딥러닝 구조에 입력하기 전에

Figure 112019051577368-pat00031
셀 분리 과정을 거치는 이유는 다음과 같다.At this time, before entering into the flame-shaped deep learning structure
Figure 112019051577368-pat00031
The reason for the cell separation process is as follows.

전체 이미지와 셀 분리된 이미지는 각각의 특징이 존재하는데, 전체 영상은 불꽃의 색깔 정보에 특화되어 있는 이미지로 분류될 수 있고, 학습을 통해 불꽃 색깔 정보에 특화된 딥러닝 구조 형성이 가능하다. 셀 분리된 영상은 불꽃의 모양 정보에 특화되어 있는 이미지로 분류될 수 있으며, 학습을 통해 불꽃 모양 정보에 특화된 딥러닝 구조 형성이 가능하다.The whole image and the cell-separated image have their own characteristics. The entire image can be classified into an image specialized in the color information of the flame, and through the learning, a deep learning structure specialized in the flame color information can be formed. The cell-separated image may be classified into an image specialized in flame shape information, and a deep learning structure specialized in flame shape information may be formed through learning.

또한, 불꽃 색깔 특화 딥러닝 구조에서 불꽃의 색깔이 다소 부족하여 불꽃 영상으로 분류되지 못한 불꽃 영상도

Figure 112019051577368-pat00032
셀 분리 과정을 거쳐 불꽃 모양 특화 딥러닝 구조로 수행하게 되면 불꽃 영상으로 분류될 수 있다.In addition, a flame image that is not classified as a flame image due to a lack of flame color in a flame color specialized deep learning structure is also included.
Figure 112019051577368-pat00032
If the cell separation process is performed in a flame-shaped deep learning structure, it may be classified as a flame image.

도 11a는 불꽃 영상으로 분류되지 못한 불꽃 영상의

Figure 112019051577368-pat00033
셀 분리 과정을 도시한 도면이다. 우측 영상에서 우상단 셀은 불꽃 색깔 모델을 통해 검출된 불꽃 영역에서 불필요한 영역으로 볼 수 있다.11A illustrates a flame image not classified as a flame image.
Figure 112019051577368-pat00033
A diagram illustrating a cell separation process. In the right image, the upper right cell can be seen as an unnecessary region in the flame region detected by the flame color model.

또한, 도 11b에 도시된 바와 같이 형광등, 섬광 등의 화재 유사 영상들은 빛의 번짐 등의 이유로 영상을 전체적으로 봤을 때 불꽃의 색깔들이 많이 분포해 있어 불꽃 색깔 특화 딥러닝 모델에서 오류를 범하게 된다.In addition, as shown in FIG. 11B, fire-like images such as fluorescent lamps and flashes have a lot of flame colors distributed when looking at the image due to light bleeding and the like, thereby causing an error in a flame color-specific deep learning model.

이러한 전체 영상을 셀 분리하게 되면 우상단과 좌하단의 셀들은 불꽃의 모양이 아닌 형광등의 모양이 뚜렷하므로 화재로 판단되지 않게 된다.When the entire image is separated into cells, the cells in the upper right and the lower left are not flames, but the shape of the fluorescent lamp is clear, so it is not judged as a fire.

한편, 제2 분류부(400)는

Figure 112019051577368-pat00034
단위로 분할된 셀을 딥러닝 입력으로 넣고, 출력단의 불꽃 클래스 확률이 50% 이상인 영역을 제2 불꽃 영상으로 분류한다.On the other hand, the second classification unit 400
Figure 112019051577368-pat00034
A cell divided into units is input to a deep learning input, and a region having a flame class probability of 50% or more at the output terminal is classified as a second flame image.

첫째로, 제2 분류부(400)가 Convolution 층을 통해

Figure 112019051577368-pat00035
단위로 분할된 셀의 특징 데이터를 추출한다.First, the second classification unit 400 through the convolution layer
Figure 112019051577368-pat00035
Feature data of a cell divided into units is extracted.

둘째로, 제2 분류부(400)가 Sub sampling 층을 통해 특징 데이터에 포함된 노이즈를 제거하고 이미지의 사이즈를 축소하여 특징 데이터를 확정한다.Second, the second classifier 400 determines the feature data by removing noise included in the feature data through the sub sampling layer and reducing the size of the image.

셋째로, 제2 분류부(400)가 Fully-connected / Drop out 층을 통해 확정된 특징 데이터를 일렬로 연결하여 특징 벡터로 변환한다.Third, the second classifier 400 converts the feature data determined through the Fully-connected / Drop out layer into a feature vector.

넷째로, 제2 분류부(400)가 Softmax(NN) 층을 통해 변환된 특징 벡터로부터 설정된 개수의 특징 벡터를 생성하여 불꽃 클래스 확률이 50% 이상인 영역을 제2 불꽃 영상으로 분류한다.Fourth, the second classifier 400 generates a set number of feature vectors from the feature vectors transformed through the Softmax (NN) layer to classify the region having the flame class probability of 50% or more as the second fireworks image.

구체적으로, 검출된 불꽃 영역의

Figure 112019051577368-pat00036
셀 분리 이미지들은 불꽃의 모양에 특화된 이미지로 분류된다.Specifically, the detected flame zone
Figure 112019051577368-pat00036
Cell-separated images are classified into images specialized for the shape of the flame.

이하, 도 12 및 [표 2]에 도시된 불꽃 모양 특화 딥러닝 모델을 통한 화재영상 분류에 대해 살피면 아래와 같다.Hereinafter, the fire image classification through the flame shape specialized deep learning model shown in FIG. 12 and [Table 2] is as follows.

Figure 112019051577368-pat00037
Figure 112019051577368-pat00037

먼저, convolution 층 연산은 총 5번 수행하며 필터는 3 X 3 랜덤값 필터이고 필터 개수는 [표 2]의 No.1부터 각각 8, 16, 32, 64, 128개이다. 이러한 convolution 연산을 통해 빠른 화재 감지 시간을 도출할 수 있다.First, the convolution layer operation is performed five times, and the filter is a 3 × 3 random value filter and the number of filters is 8, 16, 32, 64, 128 from No. 1 in [Table 2]. This convolution operation yields a fast fire detection time.

Convolution 층 연산 다음으로 [표 2]의 No.2, 4, 6, 8, 10에서 한번씩 Sub sampling 연산을 수행한다.Convolution layer operation Next, perform sub sampling operation once in No. 2, 4, 6, 8, 10 of [Table 2].

이어서, No.10까지 연산 후, [표 2]의 No.11인 Fully connected 연산은 모든 추출 특징을 연결하여 최종 특징 벡터를 생성하는 역할이며, 단순히 특징 벡터를 이어 붙여서 총 2,048개의 특징 벡터를 추출한다.Subsequently, after the calculation up to No. 10, the fully connected operation, No. 11 in [Table 2], serves to connect all the extracted features to generate the final feature vector, and extracts a total of 2,048 feature vectors by simply concatenating the feature vectors. do.

또한, [표 2]의 No.12는 총 2,048개의 특징 벡터에서 Drop out을 통해 일부 특징 벡터의 값을 0으로 만들어 딥러닝 학습의 Over Fitting을 줄이게 된다.In addition, No.12 in [Table 2] reduces the over fitting of deep learning by making the value of some feature vectors to 0 through drop out from a total of 2,048 feature vectors.

마지막으로 [표 2]의 No.13에서는 Drop out까지 진행된 2,048개의 특징 벡터를 신경망의 입력으로 넣고 신경망 출력층의 노드 수를 학습시키는 클래스의 수로 설정한다. 이때, 최종적으로 분류된 불꽃 영상과 불꽃 유사 영상은 도 13에 도시된 예와 같다.Finally, in No. 13 of [Table 2], 2,048 feature vectors that have been advanced to drop out are put as neural network inputs and set as the number of classes for learning the number of nodes in the neural network output layer. At this time, the finally sorted flame image and the flame-like image is the same as the example shown in FIG.

불꽃 검출의 경우, 학습시키는 클래스가 불꽃/비불꽃 2개 이므로 신경망 출력층 노드는 2개로 설정된다.In the case of flame detection, the neural network output layer node is set to two because the class to be learned is two flame / non-flame.

이하, 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템(S)의 검증을 위한 실험결과에 대해 살피면 아래와 같다.Hereinafter, an experimental result for verifying a flame detection system S of an embedded environment using deep learning according to an embodiment of the present invention will be described below.

실험에 사용된 임베디드 보드는 Raspberry pi-3로 채택하였으며, 하드웨어 사양은 Quad Core 1.4GHz CPU, RAM 1GB, Broadcom VideoCore IV MP2 400MHz GPU 등으로 구성되어 있다. Raspbian 운영체제에서 개발도구는 python3과 Tensorflow 라이브러리를 사용하였다.The embedded board used for the experiment was a Raspberry pi-3, and the hardware specification consists of a Quad Core 1.4GHz CPU, 1GB of RAM, and a Broadcom VideoCore IV MP2 400MHz GPU. The development tools in the Raspbian operating system used python3 and the Tensorflow library.

또한, ImageNet의 불꽃 데이터베이스를 대상으로 기존의 딥러닝 구조인 VGG, Inception-v3 구조와 실험하여 신뢰성을 평가하였다. ImageNet 데이터베이스는 총 5,063장의 불꽃 형광등, 섬광 등의 이미지로 구성되며 그 중에서 70%인 3,545장은 학습에 사용하였으며, 30%인 1,518장은 실험에 사용하였다. ImageNet 불꽃 데이터베이스는 도 14a 및 도 14b에 도시된 바와 같이 모닥불, 난로, 장작 등의 여러 불꽃 이미지를 포함한다.  In addition, the reliability of the flame database of ImageNet was evaluated by experimenting with the existing deep learning structure, VGG and Inception-v3 structure. The ImageNet database consists of a total of 5,063 images of fireworks, fluorescent lights, and flashes, of which 3,545 (70%) were used for learning and 1,518 (30%) were used for the experiment. The ImageNet Flame Database includes several flame images such as bonfire, stove, firewood, and the like as shown in FIGS. 14A and 14B.

[표 3]은 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템에 따른 리소스 점유율을 비교한 표이고, [표 4]는 본 발명의 일 실시예에 따른 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템과 종래의 딥러닝 구조의 불꽃 검출률을 비교한 표이다.[Table 3] is a table comparing the resource occupancy according to the flame detection system of the embedded environment using the deep learning according to an embodiment of the present invention, [Table 4] is using the deep learning according to an embodiment of the present invention The table compares the flame detection rate of the flame detection system in the embedded environment and the conventional deep learning structure.

Figure 112019051577368-pat00038
Figure 112019051577368-pat00038

Figure 112019051577368-pat00039
Figure 112019051577368-pat00039

Figure 112019051577368-pat00040
Figure 112019051577368-pat00040

Figure 112019051577368-pat00041
Figure 112019051577368-pat00041

본 발명의 일 실시예에 따른 딥러닝 구조의 경우 98.2%의 검출률이 측정되었고, VGG 구조의 경우 98.7%, Inception-v3 구조의 경우 99.6%의 검출률이 측정되었다. 종래의 딥러닝 구조와 비교하여 평균 0.95% 낮은 결과를 나타내었으나, 이는 임베디드 시스템에 적합한 딥러닝 구조를 개발하기 위하여 기존의 딥러닝 구조보다 가볍게 구성한데서 나온 결과이다.In the deep learning structure, a detection rate of 98.2% was measured, and a detection rate of 98.7% for a VGG structure and 99.6% for an Inception-v3 structure were measured. Compared with the conventional deep learning structure, the average result was 0.95% lower, but this result is from the lighter configuration than the existing deep learning structure in order to develop a deep learning structure suitable for an embedded system.

또한, 임베디드 시스템에 적합한 딥러닝 구조의 개발을 위해 가볍게 층을 구성하려면리소스 점유율이 낮게 나와야 한다. 그러나, 가볍게 층을 구성하면 화재 검출율이 낮게 나오는 문제점이 발생한다. 따라서, 리소스 점유율과 화재 검출률간의 최적의 trade-off 점을 찾는 것이 중요하며, 실제 화재감지용 임베디드 시스템에 적용 시 60% 이하의 리소스 점유율을 확보해야 구축 가능하다.In addition, light layering for the development of deep learning architectures for embedded systems requires low resource occupancy. However, if a light layer is formed, a problem of low fire detection rate occurs. Therefore, it is important to find an optimal trade-off point between resource occupancy and fire detection rate, and it is possible to establish a resource occupancy of 60% or less when applied to an embedded fire detection system.

본 발명의 일 실시예에에서는 [표 5]에 도시된 바와 같이, 46.5%의 리소스 점유율과 98.2%의 화재 검출률을 확인하였다.In an embodiment of the present invention, as shown in Table 5, the resource occupancy rate of 46.5% and the fire detection rate of 98.2% were confirmed.

Figure 112019051577368-pat00042
Figure 112019051577368-pat00042

또한, [표 6]는 본 발명의 일 실시예에 따른 딥러닝 구조와 종래의 딥러닝 구조의 불꽃 감지 시간을 나타낸다. 본 발명의 일 실시예에 따른 딥러닝 구조의 경우 19.3초가 측정되었고, VGG 구조의 경우 23.4초, Inception-v3 구조의 경우 31.2초가 측정되어서, 기존의 딥러닝 구조와 비교하여 평균 8초 빠른 불꽃 감지 시간을 나타내었다.In addition, Table 6 shows the flame detection time of the deep learning structure and the conventional deep learning structure according to an embodiment of the present invention. In the deep learning structure according to an embodiment of the present invention 19.3 seconds were measured, 23.4 seconds in the VGG structure, 31.2 seconds in the Inception-v3 structure is measured, flame detection on average 8 seconds faster than the conventional deep learning structure The time is shown.

[표 6]TABLE 6

Figure 112019051577368-pat00043
Figure 112019051577368-pat00043

Figure 112019051577368-pat00044
Figure 112019051577368-pat00044

정리하면, 본 발명의 일 실시예에 따른 딥러닝 구조에 의하면, 리소스 점유율은 기존 딥러닝 구조와 비교하여 평균 29.86% 감소시킨다. 즉, 제안하는 딥러닝 구조는 임베디드 시스템에 최적화하기 위해서 기존의 딥러닝 구조보다 가볍게 설계되어 있기 때문에, 리소스를 적게 사용한다.In summary, according to the deep learning structure according to an embodiment of the present invention, the resource occupancy is reduced by 29.86% on average compared to the existing deep learning structure. That is, the proposed deep learning structure is designed to be lighter than the existing deep learning structure in order to optimize the embedded system, thus using less resources.

또한, 화재 검출률은 기존의 딥러닝 구조와 비교하여 0.95% 낮은 결과를 나타낸다. 임베디드 시스템에 적합한 딥러닝 구조의 개발을 위해 가볍게 층을 구성하였기 때문에, 화재 검출율이 낮게 나오는 문제점이 발생한다. 실제 화재감지용 임베디드 시스템에 적용 시 60% 이하의 리소스 점유율을 확보해야 구축 가능하며, 본 발명의 일 실시예에서는 46.5%의 리소스 점유율과 98.2%의 화재 검출률을 확인하였다.In addition, the fire detection rate is 0.95% lower than the conventional deep learning structure. Since the layers are lightly layered to develop a deep learning structure suitable for an embedded system, a problem of low fire detection rate occurs. When applied to the actual fire detection embedded system can be built up to secure a resource share of less than 60%, in one embodiment of the present invention confirmed a 46.5% resource share and a fire detection rate of 98.2%.

또한, 본 발명의 일 실시예에 의하면 화재 감지 시간을 기존 딥러닝 구조와 비교하여 평균 8초 감소시킨다. 즉, 제안하는 딥러닝 구조는 기존의 딥러닝 구조에 비해 훨씬 적은 층으로 설계되어 있기 때문에, 인식 결과 도출까지의 시간이 빠르다.In addition, according to an embodiment of the present invention, the fire detection time is reduced by an average of 8 seconds compared to the existing deep learning structure. In other words, the proposed deep learning structure is designed with a much smaller layer than the existing deep learning structure, so the time required for deriving the recognition result is quick.

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등 물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.As described above and described with reference to a preferred embodiment for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described as such, it is a deviation from the scope of the technical idea It will be understood by those skilled in the art that many changes and modifications can be made to the invention without departing from the scope of the invention. Accordingly, all such suitable changes, modifications, and equivalents should be considered to be within the scope of the present invention.

S: 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템
100: 검출부
200: 제1 분류부
300: 셀 분리부
400: 제2 분류부
S: Flame Detection System in Embedded Environments Using Deep Learning
100: detector
200: first classification unit
300: cell separator
400: second classification unit

Claims (4)

입력영상의 휘도 대비 색차에 따라 불꽃 영역을 검출하는 검출부;
검출된 불꽃 영역을 딥러닝 입력으로 넣고, 출력단의 불꽃 클래스 확률이 75% 이상인 영역을 제1 불꽃 영상으로 분류하는 제1 분류부;
상기 제1 분류부에 의해 분류된 제1 불꽃 영상 이외의 영역(불꽃 클래스 확률이 75% 미만인 영역)을
Figure 112019086138291-pat00045
단위의 셀로 분할하는 셀 분리부; 및
Figure 112019086138291-pat00046
단위로 분할된 셀을 딥러닝 입력으로 넣고, 출력단의 불꽃 클래스 확률이 50% 이상인 영역을 제2 불꽃 영상으로 분류하는 제2 분류부를 포함하되,
상기 제2 분류부는,
Figure 112019086138291-pat00071
단위로 분할된 셀의 특징 데이터를 추출하는 Convolution 층과, 특징 데이터에 포함된 노이즈를 제거하고 이미지의 사이즈를 축소하여 특징 데이터를 확정하는 Sub sampling 층과, 확정된 특징 데이터를 일렬로 연결하여 특징 벡터로 변환하는 Fully-connected / Drop out 층, 및 변환된 특징 벡터로부터 설정된 개수의 특징 벡터를 생성하여 불꽃 클래스 확률이 50% 이상인 영역을 제2 불꽃 영상으로 분류하는 Softmax(NN) 층을
포함하는 것을 특징으로 하는 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템.
A detector for detecting a flame region according to a luminance difference color difference of the input image;
A first classifying unit configured to insert the detected flame region as a deep learning input and classify a region having a flame class probability of at least 75% as the first flame image at an output stage;
An area other than the first flame image classified by the first classification unit (an area having a flame class probability of less than 75%)
Figure 112019086138291-pat00045
A cell separator for dividing the cell into units; And
Figure 112019086138291-pat00046
A second classifying unit configured to classify a cell divided into units as a deep learning input and classify a region having a flame class probability of 50% or more as a second flame image at an output terminal;
The second classification unit,
Figure 112019086138291-pat00071
A convolution layer extracting feature data of cells divided into units, a sub sampling layer removing noise included in the feature data and reducing the size of the image to determine the feature data, and connecting the determined feature data in a line Fully-connected / Drop out layer to convert to vector, and Softmax (NN) layer that generates a set number of feature vectors from the transformed feature vector to classify the region having a flame class probability of 50% or more as a second flame image
Flame detection system of an embedded environment using deep learning, comprising.
제1항에 있어서,
상기 검출부는,
상기 입력영상의 RGB 컬러 모델을 YCbCr 컬러 모델로 변환하여 불꽃 영역을 검출하는 것을 특징으로 하는 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템.
The method of claim 1,
The detection unit,
Flame detection system of the embedded environment using a deep learning characterized in that for detecting the flame region by converting the RGB color model of the input image to a YCbCr color model.
제1항에 있어서,
상기 제1 분류부는,
검출된 불꽃 영역의 특징 데이터를 추출하는 Convolution 층과,
특징 데이터에 포함된 노이즈를 제거하고 이미지의 사이즈를 축소하여 특징 데이터를 확정하는 Sub sampling 층과,
확정된 특징 데이터를 일렬로 연결하여 특징 벡터로 변환하는 Fully-connected / Drop out 층, 및
변환된 특징 벡터로부터 설정된 개수의 특징 벡터를 생성하여 불꽃 클래스 확률이 75% 이상인 영역을 제1 불꽃 영상으로 분류하는 Softmax(NN) 층을
포함하는 것을 특징으로 하는 딥러닝을 이용한 임베디드 환경의 불꽃 감지 시스템.
The method of claim 1,
The first classification unit,
A convolution layer for extracting feature data of the detected flame region;
A sub sampling layer that removes noise included in the feature data and reduces the size of the image to determine the feature data;
Fully-connected / Drop out layer that connects the determined feature data in series and converts them into feature vectors, and
Softmax (NN) layer that generates a predetermined number of feature vectors from the transformed feature vectors and classifies the region having the flame class probability of 75% or more as the first flame image.
Flame detection system of an embedded environment using deep learning, comprising.
삭제delete
KR1020190059013A 2019-05-20 2019-05-20 System for detecting flame of embedded environment using deep learning KR102067994B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190059013A KR102067994B1 (en) 2019-05-20 2019-05-20 System for detecting flame of embedded environment using deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190059013A KR102067994B1 (en) 2019-05-20 2019-05-20 System for detecting flame of embedded environment using deep learning

Publications (1)

Publication Number Publication Date
KR102067994B1 true KR102067994B1 (en) 2020-01-20

Family

ID=69368009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190059013A KR102067994B1 (en) 2019-05-20 2019-05-20 System for detecting flame of embedded environment using deep learning

Country Status (1)

Country Link
KR (1) KR102067994B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688748A (en) * 2021-08-27 2021-11-23 武汉大千信息技术有限公司 Fire detection model and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101649173B1 (en) 2016-04-01 2016-08-18 김천섭 The apparatus of home network for using aihonet module
KR101716036B1 (en) 2015-07-07 2017-03-13 이선구 Fire surveillance apparatus
JP2018101416A (en) * 2016-12-21 2018-06-28 ホーチキ株式会社 Fire monitoring system
KR20180105787A (en) * 2017-03-16 2018-10-01 한국기술교육대학교 산학협력단 a Fire Detection Device and method based on the integration of fuzzy logic and deep learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101716036B1 (en) 2015-07-07 2017-03-13 이선구 Fire surveillance apparatus
KR101649173B1 (en) 2016-04-01 2016-08-18 김천섭 The apparatus of home network for using aihonet module
JP2018101416A (en) * 2016-12-21 2018-06-28 ホーチキ株式会社 Fire monitoring system
KR20180105787A (en) * 2017-03-16 2018-10-01 한국기술교육대학교 산학협력단 a Fire Detection Device and method based on the integration of fuzzy logic and deep learning

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Muhammad 외 5인, "Efficient Deep CNN-Based Fire Detection and Localization in Video Surveillance Applications", IEEE Transactions on Systems, Man, and Cybernetics: Systems, Year: 2019, Vol. 49, Issue 7. *
김영진 외 1인, "CNN을 활용한 영상 기반의 화재 감지", 한국정보통신학회, 한국정보통신학회논문지 20(9), 2016.09, 1,649 - 1,656 (8 pages). *
라승탁 외 2인, "얼굴 인식률 향상을 위한 멀티 블록 방식의 딥러닝 구조에 관한 연구", 한국전기전자학회, 전기전자학회논문지 22(4), 2018.12, 933 - 940 (8 pages).* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688748A (en) * 2021-08-27 2021-11-23 武汉大千信息技术有限公司 Fire detection model and method
CN113688748B (en) * 2021-08-27 2023-08-18 武汉大千信息技术有限公司 Fire detection model and method

Similar Documents

Publication Publication Date Title
US10854062B2 (en) Fire monitoring system
CN112836687B (en) Video behavior segmentation method, device, computer equipment and medium
US8565484B2 (en) Forest fire smoke detection method using random forest classification
KR101869442B1 (en) Fire detecting apparatus and the method thereof
Celik Fast and efficient method for fire detection using image processing
CN108898069B (en) Video flame detection method based on multi-classifier fusion
CN106778582B (en) RGB reconstruction based flame/smoke recognition method after forest image cutting
CN112069975A (en) Comprehensive flame detection method based on ultraviolet, infrared and vision
KR101432440B1 (en) Fire smoke detection method and apparatus
CN108171241B (en) IFCS/Otsu-based IOFR flame identification method
KR102067994B1 (en) System for detecting flame of embedded environment using deep learning
KR101967645B1 (en) a Fire Detection Device and method based on the integration of fuzzy logic and deep learning
TWI726321B (en) Method, device and system for determining whether pixel positions in an image frame belong to a background or a foreground
KR102391853B1 (en) System and Method for Processing Image Informaion
CN110942450A (en) Multi-production-line real-time defect detection method based on deep learning
CN111951250A (en) Image-based fire detection method
Aslan et al. Deep convolutional generative adversarial networks based flame detection in video
CN113221763A (en) Flame identification method based on video image brightness
CN115410134A (en) Video fire smoke detection method based on improved YOLOv5s
Celik et al. Computer vision based fire detection in color images
CN115601919A (en) Fire alarm method based on Internet of things equipment and video image comprehensive identification
JP2020143802A (en) Information processing device, incineration control device, information processing method, and information processing program
CN110765982B (en) Video smoke detection method based on change accumulation graph and cascaded depth network
Asatryan et al. Method for fire and smoke detection in monitored forest areas
CN110826413B (en) Transmission line damper fault detection method and system and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant