KR20220071143A - Lightweight FIRE-DET flame detection method and system - Google Patents

Lightweight FIRE-DET flame detection method and system Download PDF

Info

Publication number
KR20220071143A
KR20220071143A KR1020217017931A KR20217017931A KR20220071143A KR 20220071143 A KR20220071143 A KR 20220071143A KR 1020217017931 A KR1020217017931 A KR 1020217017931A KR 20217017931 A KR20217017931 A KR 20217017931A KR 20220071143 A KR20220071143 A KR 20220071143A
Authority
KR
South Korea
Prior art keywords
flame
network
det
fire
image
Prior art date
Application number
KR1020217017931A
Other languages
Korean (ko)
Other versions
KR102680989B1 (en
Inventor
상빙 가오
하오린 천
린 시앙
용타오 위
추앙신 차이
원팅 리
창춘 왕
쿤 위
취엔인 쥬
정웨이 장
하오저 뤼
위천 공
위타오 정
Original Assignee
화이인 인스티튜트 오브 테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 화이인 인스티튜트 오브 테크놀로지 filed Critical 화이인 인스티튜트 오브 테크놀로지
Publication of KR20220071143A publication Critical patent/KR20220071143A/en
Application granted granted Critical
Publication of KR102680989B1 publication Critical patent/KR102680989B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Fire-Detection Mechanisms (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 경량급의 FIRE-DET 화염 검측 방법 및 시스템을 공개하였는 데, 먼저, 복잡한 환경을 포함하는 데이터 집합을 구축하며; 다음, 단일 단계 검측 모델인 FIRE-DET을 구축하고 모델 중 Backbone에 멀티 콘볼루션 조합 구조가 적층된 FIRE-Net 네트워크를 사용하되, 콘볼루션 채널수를 줄이며; BiFPN을 모델의 특징으로 삼아 네트워크를 융합시켜 멀티 스케일 특징 융합의 효과를 향상시키며; 개선된 공간 주의력 매커니즘을 증가하여 화염 특징을 증강하며; 추출한 특징을 Class/Box Net층 중에 입력하여 예측과 회귀를 실시하며; 마지막으로, 데이터 집합을 사용해 FIRE-DET 모델을 트레이닝함으로써, 화염을 검측하는데 사용하는 검측기를 얻는다. 본 발명은 식별율이 97.55%이고 화염 검측 속도가 45프레임/s에 도달하여 화염을 검측하고 조기 경보하는 데 사용할 수 있고 비교적 우수한 강인성(robustness)과 광범위한 응용가치를 갖는다.The present invention discloses a light-weight FIRE-DET flame detection method and system. First, a data set including a complex environment is constructed; Next, build FIRE-DET, a single-step detection model, and use a FIRE-Net network in which a multi-convolutional combination structure is stacked on the backbone of the model, while reducing the number of convolutional channels; Using BiFPN as the model feature to fuse networks to improve the effect of multi-scale feature fusion; augmenting improved spatial attention mechanisms to enhance flame characteristics; Prediction and regression are performed by inputting the extracted features into the Class/Box Net layer; Finally, by training the FIRE-DET model using the data set, we obtain the detector used to detect the flame. The present invention has an identification rate of 97.55% and a flame detection speed of 45 frames/s, which can be used for flame detection and early warning, and has relatively good robustness and wide application value.

Description

경량급의 FIRE-DET 화염 검측 방법 및 시스템Lightweight FIRE-DET flame detection method and system

본 발명은 이미지 처리 및 화재 예방 기술 분야에 속하며, 상세하게는, 경량급의 FIRE-DET 화염 검측 방법 및 시스템에 관한 것이다.The present invention belongs to the field of image processing and fire prevention technology, and more particularly, to a light-weight FIRE-DET flame detection method and system.

최근 몇 년간, 딥러닝의 연구가 점점 심도있게 진행됨에 따라 응용 분야가 점점 넓어지고 있다. 종래의 화염검측시스템은 연구자가 컴퓨터 비전을 결합시켜 구성되었으며, 주로 다음과 같은 종류가 있다. (1) 컬러 공간을 기반으로 하는 이미지 분할 방법: Nurul SB 등 연구자들에 의해 제출되었으며, 이미지 증강기술, RGB와 YCbCr 컬러 모델을 이용하고 소정의 조건하에서 배경으로부터 화재 픽셀을 분리해 내며, 원천 이미지로부터 휘도와 색도를 분리해 내고 대조하여 화재를 검측하는 방법이다. Dmytro Peleshko 등 연구자들은 컬러 분할과 운동 물체 검측을 융합시키는 것을 기반으로 하는 방법을 제출하였는 데, 최대의 자원 한정으로 기타 알고리즘보다 우수하다. Teng Wang 등 연구자들은 컬러 분산, 유사도와 질량 중심 운동을 포함하는 여러 전문가 시스템을 구축하여 화염을 식별한다. (2) 이미지 기울기와 적분을 기반으로 하는 방법: OUYANG Ji-neng 등 연구자들은 화염 이미지의 가장자리 기울기를 제출하여 연구 대상으로 삼고 컬러B 분량의 가장자리 기울기를 선택하여 화염과 간섭 이미지를 판단하는 근거로 삼았다. 대량 견본의 이미지 가장자리 기울기의 곡선을 맞추어 이미지 가장자리 기울기를 기본으로 하는 화염 식별 모델을 구축하였다. Alexander F는 이미지 컬러와 형태 특징에 대한 계산과 적분 계산으로 화염을 검측하되, 처리시간은 급속히 증가하지 않는 방법을 제출하였다. (3) 적외선 이미지를 기반으로 하는 검측방법: Kewei Wang는 9층 콘볼루션 신경 네트워크 IRCNN로 종래의 수공경험방법을 대체하여 적외선 이미지 특징을 추출한 다음, 추출한 특징을 이용해 선형 서포트 벡터 머신(support vector machine)을 트레이닝하여 화재를 검측한다. (4) 이미지 증강과 컬러 공간을 기반으로 하는 방법: Nurul SB 등 연구자들은 이미지 증강기술, RGB와 YCbCr 컬러 모델을 이용하여 소정의 조건하에서 배경으로부터 화재 픽셀을 분리해 내고 원천 이미지로부터 휘도와 색도를 분리해 내어 대조함으로써, 화재를 검측하는 방법을 제출하였다. (5) 분할과 분류의 융합을 기반으로 하는 검측방법: Andrew J. D 등 연구자들은 슈퍼 픽벨 분할을 기반으로 하는 화염 검측방법을 제출하였는 데, 해당 방법은 슈퍼 픽셀 분할의 기술을 활용하여 도면을 분할한 후, 다시 분류방법을 이용해 화염을 검측한다. Naigong Yu 등 연구자들은 운동 특징 검측과 컬러 특징 검측을 서로 결합시키는 방법을 이용해 동영상으로부터 화염으로 의심되는 영역을 추출하는 방법을 제출한 다음, 2개 스트림의 콘볼루션 신경 네트워크를 이용해 추출한 의심 영역을 분류하는 방법을 제출하였다. (6) 딥러닝을 기반으로 하는 검측방법: 신경 네트워크 검측방법을 이용해 화염을 검측하고 가시화 하는 방법이다. 예를 들어, 후이텐(回天) 등 연구자들은 Faster-RCNN 모델을 기반으로 하는 화염 검측방법을 제출하였으며; 두천시(杜晨錫) 등 연구자들은 YOLOv2를 기반으로 하는 동영상 화염 검측방법을 제출하였다. Khan Muhammad 등 연구자들은 새롭고, 에너지 절약형이고, 계산 효율이 높은 CNN아키텍처를 제출하였다.In recent years, as the research of deep learning progresses more and more in-depth, the field of application is getting wider. The conventional flame detection system is composed of a researcher combining computer vision, and there are mainly the following types. (1) Image segmentation method based on color space: submitted by researchers such as Nurul SB, using image augmentation technology, RGB and YCbCr color models, and separating fire pixels from the background under predetermined conditions, It is a method to detect fire by separating and contrasting luminance and chromaticity from Researchers such as Dmytro Peleshko have presented a method based on fusing color segmentation and moving object detection, which is superior to other algorithms with maximum resource limitations. Researchers such as Teng Wang and others have built several expert systems that include color dispersion, similarity, and center of mass motion to identify flames. (2) Method based on image slope and integration: Researchers such as OUYANG Ji-neng submitted edge slope of flame image for study, and selected the edge slope of color B as the basis for judging flame and interference images. took A flame identification model based on the image edge slope was constructed by fitting the curve of the image edge slope of the mass sample. Alexander F submitted a method that detects flames by calculating image color and shape features and integral calculations, but does not increase the processing time rapidly. (3) Detection method based on infrared image: Kewei Wang replaces the conventional hand-experience method with a 9-layer convolutional neural network IRCNN to extract infrared image features, and then uses the extracted features to perform a linear support vector machine (support vector machine) ) to detect fire. (4) Image augmentation and color space-based method: Researchers such as Nurul SB use image augmentation technology, RGB and YCbCr color models to separate fire pixels from the background under predetermined conditions, and obtain luminance and chromaticity from the original image. A method for detecting fire by isolating and contrasting was presented. (5) Detection method based on the fusion of segmentation and classification: Researchers such as Andrew J. D have submitted a flame detection method based on super Pickbell segmentation, which uses the technology of super pixel segmentation to scan drawings. After dividing, the flame is detected using the classification method again. Researchers such as Naigong Yu and others presented a method of extracting a region suspected of being a flame from a video using a method combining motion feature detection and color feature detection, and then classified the extracted suspect region using a convolutional neural network of two streams. method was presented. (6) Detection method based on deep learning: It is a method to detect and visualize flames using a neural network detection method. For example, researchers from Huiten et al. submitted a flame detection method based on the Faster-RCNN model; Researchers such as Ducheon City (杜晨錫) submitted a video flame detection method based on YOLOv2. Researchers such as Khan Muhammad have presented a novel, energy-saving, computationally efficient CNN architecture.

딥러닝을 기반으로 하는 방법은 일반화 면에서 기타 방법보다 우수하지만, 딥 콘볼루션 신경 네트워크의 트레이닝은 데이터 집합의 용량과 컴퓨터 사용에 대한 요구가 비교적 높다. 이러한 문제를 조준하여, 본 특허는 경량급의 FIRE-DET 화염 검측방법 및 시스템을 제출한다.Methods based on deep learning are superior to other methods in terms of generalization, but training of deep convolutional neural networks has relatively high demands on the data set capacity and computer usage. Aiming at this problem, this patent submits a light-weight FIRE-DET flame detection method and system.

본 발명은 종래기술에 존재하는 문제를 해결하기 위하여 창출된 것으로, 그 목적은, 화염을 실시간 검측할 수도 있고 비교적 우수한 정확율도 유지할 수 있으며, 가시화 효과를 제공하는 경량급의 FIRE-DET 화염 검측 방법 및 시스템을 제공하는 데 있다.The present invention was created to solve the problems existing in the prior art, and the purpose is to detect a flame in real time and maintain a relatively good accuracy, and a light-weight FIRE-DET flame detection method that provides a visualization effect and to provide a system.

경량급의 FIRE-DET 화염 검측 방법은 상세하게,The light-weight FIRE-DET flame detection method is detailed,

(1) FIRE-DET 모델을 구축하며; 상기 FIRE-DET 모델은 특징 추출 네트워크, 특징 융합 네트워크, 이미지 분할 네트워크와 예측 식별 네트워크를 포함하며; 상기 특징 추출 네트워크는 멀티 콘볼루션 조합 구조가 적층되어 구성되고 콘볼루션의 채널수를 줄여 검측 모델의 파라미터량을 낮추며; 상기 특징 융합 네트워크는 BiFPN 네트워크이며; 상기 이미지 분할 네트워크는 융합한 후의 특징에 대해 데콘볼루션(deconvolution)과 콘볼루션 조작을 실시한 후 주의력 도면을 얻고 특징 융합 네트워크가 얻은 특징과 융합시키는 단계; (1) build a FIRE-DET model; the FIRE-DET model includes a feature extraction network, a feature fusion network, an image segmentation network and a predictive identification network; The feature extraction network is constructed by stacking multi-convolution combination structures, and reduces the number of convolutional channels to lower the parameter amount of the detection model; the feature fusion network is a BiFPN network; The image segmentation network performs deconvolution and convolution manipulation on the features after fusion, then obtains an attention drawing and fuses them with the features obtained by the feature fusion network;

(2) 미리 얻은 복잡한 환경이 포함된 동영상 프레임 이미지에 대해 전처리와 정규화(normalization)를 실시하여 데이터 집합를 형성하며; 또한, FIRE-DET 모델을 트레이닝하여 화염을 검측하는 데 사용하는 모델 M을 얻는 단계;(2) forming a data set by performing pre-processing and normalization on a video frame image including a pre-obtained complex environment; In addition, training the FIRE-DET model to obtain a model M used to detect the flame;

(3) 모델 M를 사용하여 화염 대상의 테두리와 유형을 예측한 후, 화염의 위치 정보를 얻어 보존하며; 보존한 화염 목표 위치를 원래 동영상 이미지에서 가시화하며; 동영상 프레임 중 각 화염 목표 면적의 합과 원래 동영상 프레임 면적의 비율이 예정 임계값에 도달한 후, 화염 경보를 발송하는 단계;를 포함한다.(3) using the model M to predict the frame and type of the flame object, and then obtain and preserve the location information of the flame; Visualize the preserved flame target position in the original moving image; After the ratio of the sum of the target area of each flame in the video frame and the area of the original video frame reaches a predetermined threshold, sending a flame alarm; includes.

더 나아가, 단계 (1)에 기재된 특징 추출 네트워크의 작동 과정은 아래와 같이,Further, the operation process of the feature extraction network described in step (1) is as follows,

입력한 도면을 416×416의 크기로 정규화하여 IMG0를 생성하며; 정규화한 후의 IMG0를 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F1를 얻으며; F1에 대해 콘볼루션 커널(convolution kernel)이 2×2인 최대의 풀링(pooling) 조작을 실시한 후 얻은 Pool1을 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F2를 얻으며; F2에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 실시한 후 얻은 Pool2를 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F3를 얻으며; F3에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 실시한 후 얻은 Pool3을 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F4를 얻으며; F4에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 실시한 후 얻은 Pool4를 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F5를 얻으며; F5에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 실시한 후, 콘볼루션 커널의 크기가 3×3인 콘볼루션 조작을 실시하여 F6을 얻으며; F6에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 실시한 후, 콘볼루션 커널의 크기가 3×3인 콘볼루션 조작을 실시하여 F7를 얻는다.Normalizes the input drawing to a size of 416×416 to generate IMG0; IMG0 after normalization is taken as an input of the multi-convolutional combination network and calculated to obtain F1; After performing a maximum pooling operation with a convolution kernel of 2×2 on F1, the obtained Pool1 is used as an input to the multi-convolutional combination network and calculated to obtain F2; After performing the maximum pooling operation with the convolutional kernel of 2×2 on F2, the obtained Pool2 is used as an input to the multi-convolutional combination network and calculated to obtain F3; After performing the maximum pooling operation with a convolutional kernel of 2×2 on F3, the obtained Pool3 is used as an input to the multi-convolutional combination network and calculated to obtain F4; After performing the maximum pooling operation with a convolutional kernel of 2×2 on F4, the obtained Pool4 is used as an input to the multi-convolutional combination network and calculated to obtain F5; After performing a maximum pooling operation with a convolutional kernel of 2×2 on F5, a convolution operation with a size of a convolutional kernel of 3×3 is performed to obtain F6; After performing a maximum pooling operation with a convolution kernel of 2×2 on F6, a convolution operation with a size of a convolution kernel of 3×3 is performed to obtain F7.

더 나아가, 단계(1)에 기재된 특징 융합 네트워크의 작동 과정은 아래와 같은데,Furthermore, the operation process of the feature fusion network described in step (1) is as follows,

특징 추출 네트워크의 멀티 콘볼루션 조합 구조를 거쳐 얻은 특징도 F3, F4, F5, F6과 F7을 BiFPN 네트워크의 입력으로 삼아 특징을 융합시킨 후, 출력 C1, C2, C3, C4와 C5를 얻으며;The features obtained through the multi-convolutional combination structure of the feature extraction network are also obtained using F3, F4, F5, F6 and F7 as inputs of the BiFPN network to converge the features, and then outputs C1, C2, C3, C4 and C5 are obtained;

C1, C2, C3, C4와 C5를 BiFPN 네트워크의 입력으로 삼아 다시 특징을 융합시켜 출력 D1, D2, D3, D4와 D5를 얻으며; 상기 BiFPN 네트워크의 과정은 아래와 같이,Taking C1, C2, C3, C4 and C5 as inputs of the BiFPN network, fusing the features again to obtain outputs D1, D2, D3, D4 and D5; The process of the BiFPN network is as follows,

1) 네트워크 중에 각각 Input1, Input2, Input3, Input4와 Input5로 표기된 5개의 입력이 구비되며;1) In the network, there are 5 inputs denoted as Input1, Input2, Input3, Input4 and Input5, respectively;

2) Input1에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input2와 배열하고 조작하여 A1을 얻으며; A1에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input3과 배열하고 조작하여 A2를 얻으며; A2에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input2와 배열하고 조작하여 A3을 얻으며;2) After performing deconvolution operation of 2×2 on Input1, arrange and operate with Input2 to obtain A1; After performing a 2×2 deconvolution operation on A1, arrange and operate with Input3 to obtain A2; After performing a 2×2 deconvolution operation on A2, arrange and operate with Input2 to obtain A3;

3) A3에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input5와 배열하고 조작하여 B5를 얻으며; B5에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input4 및 A3과 배열하고 조작하여 B4를 얻으며; B4에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input3 및 A2와 배열하고 조작하여 B3을 얻으며; B3에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input2 및 A1과 배열하고 조작하여 B2를 얻으며; B2에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input1과 배열하고 조작하여 B1을 얻으며;3) After performing 2×2 deconvolution operation on A3, arrange with Input5 and operate to obtain B5; After performing the maximum pulling operation of 2×2 on B5, arrange and operate with Input4 and A3 to obtain B4; After performing the maximum pulling operation of 2×2 on B4, arrange and operate with Input3 and A2 to obtain B3; After performing the maximum pulling operation of 2×2 on B3, arrange and operate with Input2 and A1 to obtain B2; After performing the maximum pulling operation of 2×2 on B2, arrange and operate with Input1 to obtain B1;

4) 각 1) 내지 3) 중의 B1, B2, B3, B4와 B5를 특징 융합 네트워크의 출력으로 삼는다.4) B1, B2, B3, B4, and B5 in 1) to 3) are taken as outputs of the feature fusion network.

더 나아가, 상기 단계(2)의 구현 과정은 아래와 같은데,Furthermore, the implementation process of step (2) is as follows,

(21) 공개된 화염 동영상에 키 프레임(key frame)을 채택하는 방법을 적용해 동영상에서 동영상 프레임 집합을 추출해 내며, 동영상 프레임 집합에게 이미지 표기 공구를 사용해 화염의 위치를 표기하고 태그 데이터 집합을 구축하며;(21) Extract the video frame set from the video by applying the method of adopting a key frame to the published flame video, and mark the location of the flame using the image marking tool on the video frame set and build a tag data set and;

(22) 트레이닝 데이터 집합 중 각각의 동영상 이미지에 대응되는 이치 이미지(binary image)가 태그 데이터 집합을 따르도록 하고 이치 이미지에 대응되는 원도(original drawing)가 표기하는 화염의 위치를 1로 설정하되, 기타 부분은 0으로 설정하여 FIRE-DET의 이치 이미지의 태그 데이터 집합을 형성하며, 마지막으로, 동영상 프레임 집합, 화염 대상 태그 데이터 집합과 이치 이미지의 태그 데이터 집합에 FIRE-DET의 데이터 집합을 구축하며;(22) Make the binary image corresponding to each moving image among the training data sets follow the tag data set, and set the position of the flame indicated by the original drawing corresponding to the binary image to 1. , other parts are set to 0 to form a tag data set of FIRE-DET's rational image, and finally, a data set of FIRE-DET is built on a video frame set, a flame target tag data set and a tag data set of a logical image, ;

(23) 동영상 프레임 집합 중 동영상 프레임 이미지의 정규분포(normal distribution)에 근거한 대상 픽셀 값을 증가시키며, 동영상 프레임 이미지에 대해 무작위로 수평 미러링(mirroring) 조작을 발생시켜 데이터 집합의 데이터를 증강시킨다.(23) The target pixel value based on the normal distribution of the moving picture frame image among the moving picture frame sets is increased, and the data of the data set is augmented by randomly generating horizontal mirroring for the moving picture frame image.

더 나아가, 단계(3)에 기재된 이미지 분할 네트워크의 손실 함수는Further, the loss function of the image segmentation network described in step (3) is

Figure pct00001
이며,
Figure pct00001
is,

여기에서, x는 이미지 분할 네트워크가 출력한 주의력 도면이고, z는 화염 목표를 표기하는 이치 이미지이며; 이미지 분할 네트워크가 출력한 3개의 주의력 도면은 각각 화염을 표기하는 이치 이미지 사용 손실 함수와 피드백 계산을 실시한다.where x is the attention diagram output by the image segmentation network, z is the rational image representing the flame target; The three attention diagrams output by the image segmentation network are each subjected to a loss function and a feedback calculation using a rational image to represent the flame.

본 발명은,The present invention is

동영상 프레임 이미지를 판독하고 동영상 프레임 이미지에게 전처리와 정규화를 실시하는 데 사용하는 이미지 전처리 모듈;an image preprocessing module used to read a moving picture frame image and perform preprocessing and normalization on the moving picture frame image;

트레이닝된 FIRE-DET모델을 사용해 정규화된 후의 동영상 프레임 이미지를 검측하여 화염 목표의 위치 정보를 얻는 데 사용하는 화염 검측 모듈;a flame detection module used to obtain location information of a flame target by detecting a video frame image after normalization using the trained FIRE-DET model;

화염 검측 모듈이 보존한 화염 목표 위치에 근거해 원래 동영상 이미지 중 대응되는 화염 목표를 표기하여 화염 추적의 가시화를 구현하는 데 사용하는 화염 영역 가시화 모듈;a flame area visualization module used to realize the visualization of flame tracking by marking the corresponding flame target in the original video image based on the flame target position preserved by the flame detection module;

동영상을 지속적으로 모니터링하여 화염 목표가 동영상 프레임 중에서 예정 면적을 초과할 때 화염 경보를 발송하여 사용자에게 알리는 데 사용하는 화염 경보 모듈;을 포함하는 것을 특징으로 하는 경량급의 FIRE-DET 화염 검측 시스템을 더 제공한다. A flame alarm module used to continuously monitor the video and send a flame alarm to notify the user when the flame target exceeds the predetermined area in the video frame; Provides a lightweight FIRE-DET flame detection system comprising: do.

본 발명은 메모리, 프로세서 및 메모리에 저장되어 프로세서에서 운행할 수 있는 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램이 프로세서에까지 로딩될 때 상기 경량급의 FIRE-DET 화염 검측 방법을 구현하는 것을 특징으로 하는 경량급의 FIRE-DET 화염 검측 시스템을 더 제공한다.The present invention includes a memory, a processor, and a computer program that is stored in the memory and can be operated in the processor, and when the computer program is loaded to the processor, the light-weight class FIRE-DET flame detection method is implemented. FIRE-DET flame detection system is further provided.

종래기술과 대비해, 본 발명은 경량급의 FIRE-DET 화염 검측 모델을 구축하고 FIRE-DET 모델 중에 멀티 콘볼루션 커널(convolution kernel) 조합 구조를 사용하여 특징 추출 네트워크층의 채널량을 줄이며; BiFPN네트워크를 도입하고 백본(back bone) 네트워크가 얻은 특징을 융합시켜 멀티 스케일 정보를 구비하는 특징도를 얻고 모델의 검측 정확율을 향상시키며; 동시에, 이미지 분할 모듈을 도입하고 특징 융합 네트워크 모듈이 얻은 특징도에 대해 데콘볼루션(deconvolution)과 콘볼루션 조작을 실시한 후, 주의력 도면을 얻어 모델 검측에 사용함으로써, 모델의 검측 정확율을 향상시키며; 또한, 이미지 분할 모듈의 3개 주의력 도면의 손실 함수를 각각 계산하여 모델의 수렴 속도를 향상시키며; 본 발명은 식별율이 97.55%이고 화염 검측 속도가 45프레임/s에 도달하여 실시간으로 화염을 검측해 조기 경보하는 데 사용할 수 있으며, 비교적 우수한 강인성(robustness)과 광범위한 응용가치를 구비하고 있다.In contrast to the prior art, the present invention builds a lightweight FIRE-DET flame detection model and uses a multi-convolution kernel combination structure in the FIRE-DET model to reduce the channel amount of the feature extraction network layer; Introduce the BiFPN network and fuse the features obtained from the backbone network to obtain a feature diagram with multi-scale information and improve the detection accuracy of the model; At the same time, by introducing an image segmentation module and performing deconvolution and convolution operation on the feature diagram obtained by the feature fusion network module, the attention diagram is obtained and used for model detection, thereby improving the detection accuracy of the model; In addition, it improves the convergence speed of the model by calculating the loss functions of the three attention drawings of the image segmentation module, respectively; The present invention has an identification rate of 97.55% and a flame detection speed of 45 frames/s, which can be used for real-time flame detection and early warning, and has relatively excellent robustness and a wide range of application values.

도 1은 본 발명 중 FIRE-DET모델의 구조 설명도이고;
도 2는 본 발명의 검측 흐름도이고;
도 3은 본 발명 실시예 중 FIRE-DET 모델의 백본(back bone) FIRE-NET구조도이고;
도 4는 본 발명 실시예 중 FIRE-DET 모델의 BiFPN구조도이고;
도 5는 본 발명 실시예 중 멀티 콘볼루션 조합 구조도이고;
도 6은 본 발명 실시예 중 FIRE-DET 모델의 층 구조도이고;
도 7은 본 발명 실시예에 따른 FIRE-DET 모델 중의 특징도와 주의력 도면을 융합시키는 흐름도이고;
도 8은 본 발명 실시예의 실험 중에서 검측 시 얻은 과정도이고; 여기에서, (a)는 전처리한 후의 동영상 프레임이며; (b)는 FIRE-DET 모델 중 이미지 분할 네트워크를 거친 후에 얻은 주의력 도면이며; (c)는 표기 (a) 중 화염 위치가 얻은 이치(binary) 도면이며;
도 9는 본 발명 실시예의 실험 검측 흐름도이다.
1 is a structural explanatory diagram of a FIRE-DET model in the present invention;
2 is a detection flowchart of the present invention;
3 is a backbone FIRE-NET structure diagram of a FIRE-DET model in an embodiment of the present invention;
4 is a BiFPN structural diagram of a FIRE-DET model in an embodiment of the present invention;
5 is a structural diagram of a multi-convolution combination according to an embodiment of the present invention;
6 is a layer structure diagram of a FIRE-DET model in an embodiment of the present invention;
7 is a flowchart of fusing a feature diagram and an attention diagram in a FIRE-DET model according to an embodiment of the present invention;
8 is a process diagram obtained during detection in an experiment of an embodiment of the present invention; Here, (a) is a video frame after pre-processing; (b) is an attention diagram obtained after going through the image segmentation network among the FIRE-DET models; (c) is a binary diagram of the flame positions obtained in the notation (a);
9 is a flowchart of experimental detection according to an embodiment of the present invention.

이하, 도면과 결합하여 본 발명을 진일보 상세히 설명한다.Hereinafter, the present invention will be described in further detail in conjunction with the drawings.

본 실시방식 중에는 대량의 변수와 관련되며, 현재 각 변수를 아래 표 1에 기재된 바와 같이 설명한다.In this embodiment, a large number of variables are involved, and each variable is currently described as shown in Table 1 below.

표 1 변수 설명표Table 1 Variable Description Table

Figure pct00002
Figure pct00002

Figure pct00003
Figure pct00003

Figure pct00004
Figure pct00004

본 실시방식은 실제 장면의 화염 동영상 데이터를 사용하는 데, 동영상은 컬러가 다른 화염, 형상이 다른 화염, 목표가 작은 화염, 특수 화염, 화염색에 가까운 불빛을 포함하며, 본 방법은 해당 동영상 데이터를 처리하고 화염 위치를 검측하며 가시화를 실시한다.This implementation method uses the flame video data of the actual scene, and the video includes flames of different colors, flames of different shapes, flames with small targets, special flames, and lights close to the color of the flame. Treatment, detection of flame location, and visualization.

본 발명이 제공하는 경량급의 FIRE-DET 화염 검측방법은 상세하게 아래 단계를 포함한다.The light-weight FIRE-DET flame detection method provided by the present invention includes the following steps in detail.

단계 1: 도 1에서 도시하는 바와 같이 FIRE-DET 모델을 구축한다.Step 1: Construct a FIRE-DET model as shown in FIG. 1 .

FIRE-DET 모델은 특징 추출 네트워크, 특징 융합 네트워크, 이미지 분할 네트워크와 예측 식별 네트워크를 포함하며; 상기 특징 추출 네트워크는 멀티 콘볼루션 조합 구조가 적층되어 구성되고 콘볼루션의 채널수를 줄여 검측 모델의 파라미터량을 낮추며; 상기 특징 융합 네트워크는 BiFPN 네트워크로 구성되어 멀티 스케일 특징 융합의 효과를 향상시키며; 이미지 분할 네트워크는 융합한 후의 특징에 대해 데콘볼루션(deconvolution)과 콘볼루션 조작을 실시한 후 주의력 도면을 얻고 특징 융합 네트워크가 얻은 특징과 융합시키는 역할을 한다.The FIRE-DET model includes a feature extraction network, a feature fusion network, an image segmentation network and a predictive identification network; The feature extraction network is constructed by stacking multi-convolution combination structures, and reduces the number of convolutional channels to lower the parameter amount of the detection model; the feature fusion network is configured as a BiFPN network to enhance the effect of multi-scale feature fusion; The image segmentation network performs deconvolution and convolution manipulation on the features after fusion, then obtains an attention diagram and fuses them with the features obtained by the feature fusion network.

1. 특징 추출 네트워크는 멀티 콘볼루션 조합 구조가 적층된 FIRE-Net 네트워크를 사용하고 콘볼루션 채널수를 줄이는 데, 도 5에서 도시하는 바와 같이, 멀티 콘볼루션 조합 구조는 과정이 아래와 같다.1. The feature extraction network uses a FIRE-Net network in which a multi-convolutional combination structure is stacked and reduces the number of convolutional channels.

1) 입력은 콘볼루션 커널(convolution kernel)이 1×1인 콘볼루션 조작을 3회 진행하여 제1차와 제3차 콘볼루션의 결과를 F11와 F12로 기록한다.。1) The input performs the convolution operation with a convolution kernel of 1×1 three times, and records the results of the 1st and 3rd convolutions as F11 and F12.

2) 입력에 대해 3회의 콘볼루션을 진행하는 데, 먼저 콘볼루션 커널이 3×3인 콘볼루션 조작을 거치고, 다시 콘볼루션 커널이 1×1인 콘볼루션 조작을 거치며, 마지막으로 콘볼루션 커널이 3×3인 콘볼루션 조작을 거치어 제1차와 제3차 콘볼루션의 결과를 F21과 F22로 기록한다.2) Three convolutions are performed on the input. First, the convolutional kernel is 3×3, then the convolutional kernel is 1×1, and finally, the convolutional kernel is After the 3×3 convolution operation, the results of the 1st and 3rd convolutions are recorded as F21 and F22.

3) 입력에 대해 3회의 콘볼루션을 진행하는 데, 먼저 콘볼루션 커널이 9×9인 콘볼루션 조작을 거치고, 다시 콘볼루션 커널이 1×1인 콘볼루션 조작을 거치며, 마지막으로 콘볼루션 커널이 9×9인 콘볼루션 조작을 거치어 제1차와 제3차 콘볼루션의 결과를 F31과 F32로 기록한다.3) Three convolutions are performed on the input. First, the convolutional kernel is 9×9, then the convolutional kernel is 1×1, and finally, the convolutional kernel is After the 9×9 convolution operation, the results of the first and third convolutions are recorded as F31 and F32.

4) 각 1) 내지 3) 중의 F11, F12, F21, F22, F31와 F32를 가중 융합시키고 F를 출력한다.4) F11, F12, F21, F22, F31 and F32 in each of 1) to 3) are fused by weight, and F is output.

특징 추출 네트워크 구조는 도 3에서 도시한 바와 같으며, 또한 도 6에서 도시된 층 구조를 구축하는 데, 작동과정은 아래와 같다.The feature extraction network structure is as shown in FIG. 3 , and the layer structure shown in FIG. 6 is constructed, and the operation process is as follows.

(11) 입력한 도면을 416×416의 크기로 정규화(normalization)하여 IMG0를 생성하며;(11) generate IMG0 by normalizing the input drawing to a size of 416×416;

(12) 정규화된 후의 IMG0를 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F1을 얻으며;(12) Calculate F1 by taking the normalized IMG0 as an input to the multi-convolutional combinatorial network;

(13) F1에 대해 콘볼루션 커널이 2×2인 최대 풀링(pooling) 조작을 진행한 후 얻은 Pool1을 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F2를 얻으며;(13) After performing a maximum pooling operation with a convolutional kernel of 2×2 on F1, the obtained Pool1 is used as an input to the multi-convolutional combination network and calculated to obtain F2;

(14) F2에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 진행한 후 얻은 Pool2를 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F3을 얻으며;(14) F3 is obtained by calculating Pool2 obtained after performing the maximum pooling operation with a convolutional kernel of 2×2 on F2 as an input to the multi-convolutional combination network;

(15) F3에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 진행한 후 얻은 Pool3를 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F4를 얻으며;(15) F4 is obtained by calculating Pool3 obtained after performing the maximum pooling operation with a convolutional kernel of 2x2 on F3 as an input to the multi-convolutional combination network;

(16) F4에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 진행한 후 얻은 Pool4를 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F5를 얻으며;(16) F5 is obtained by calculating Pool4 obtained after performing the maximum pooling operation with a convolutional kernel of 2×2 on F4 as an input to the multi-convolutional combination network;

(17) F5에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 진행한 후,콘볼루션 커널의 크기가 3×3인 콘볼루션 조작을 실시하여 F6를 얻으며;(17) After performing the maximum pooling operation with the convolution kernel of 2×2 on F5, the convolution operation with the size of the convolution kernel of 3×3 is performed to obtain F6;

(18) F6에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 진행한 후,콘볼루션 커널의 크기가 3×3인 콘볼루션 조작을 실시하여 F7를 얻는다.(18) After performing the maximum pooling operation with the convolution kernel of 2×2 on F6, the convolution operation with the size of the convolution kernel of 3×3 is performed to obtain F7.

2. BiFPN 네트워크 조합은 모델의 특징 융합 네트워크를 구축하여 멀티 스케일 특징 융합의 효과를 향상시킨다.2. BiFPN network combination builds a feature fusion network of the model to enhance the effect of multi-scale feature fusion.

도 4에서 도시하는 바와 같이, BiFPN 네트워크의 상세한 특징 융합 과정은 아래와 같다.As shown in FIG. 4, the detailed feature fusion process of the BiFPN network is as follows.

1) 네트워크 중에 각각 Input1, Input2, Input3, Input4와 Input5로 표기된 5개의 입력이 구비된다.1) There are 5 inputs marked as Input1, Input2, Input3, Input4 and Input5 respectively in the network.

2) Input1에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input2와 배열하고 조작하여 A1을 얻으며; A1에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input3과 배열하고 조작하여 A2를 얻으며; A2에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input2와 배열하고 조작하여 A3을 얻는다.2) After performing deconvolution operation of 2×2 on Input1, arrange and operate with Input2 to obtain A1; After performing a 2×2 deconvolution operation on A1, arrange and operate with Input3 to obtain A2; After performing a 2×2 deconvolution operation on A2, arrange and operate with Input2 to obtain A3.

3) A3에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input5와 배열하고 조작하여 B5를 얻으며; B5에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input4 및 A3과 배열하고 조작하여 B4를 얻으며; B4에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input3 및 A2와 배열하고 조작하여 B3을 얻으며; B3에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input2 및 A1과 배열하고 조작하여 B2를 얻으며; B2에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input1과 배열하고 조작하여 B1을 얻는다.3) After performing 2×2 deconvolution operation on A3, arrange with Input5 and operate to obtain B5; After performing the maximum pulling operation of 2×2 on B5, arrange and operate with Input4 and A3 to obtain B4; After performing the maximum pulling operation of 2×2 on B4, arrange and operate with Input3 and A2 to obtain B3; After performing the maximum pulling operation of 2×2 on B3, arrange and operate with Input2 and A1 to obtain B2; After performing the maximum pulling operation of 2×2 on B2, arrange and operate with Input1 to obtain B1.

4) 각 1) 내지 3) 중의 B1, B2, B3, B4와 B5를 BiFPN 네트워크의 출력으로 삼는다.4) B1, B2, B3, B4, and B5 in each of 1) to 3) are taken as outputs of the BiFPN network.

특징 융합 네트워크의 작동과정은 아래와 같다.The operation process of the feature convergence network is as follows.

(21) F3, F4, F5, F6과 F7을 BiFPN 네트워크의 입력으로 삼아 특징을 융합시킨 후 C1, C2, C3, C4와 C5를 얻으며;(21) using F3, F4, F5, F6 and F7 as inputs of the BiFPN network to fuse features to obtain C1, C2, C3, C4 and C5;

(22) C1, C2, C3, C4와 C5를 BiFPN 네트워크의 입력으로 삼고, 다시 특징을 융합시켜 D1, D2, D3, D4와 D5를 얻는다.(22) Take C1, C2, C3, C4 and C5 as inputs of the BiFPN network, and then fuse the features again to obtain D1, D2, D3, D4 and D5.

3. FIRE-DET 모델 이미지 분할 네트워크는,3. The FIRE-DET model image segmentation network is,

(31) C5에 대해 콘볼루션 커널이 3×3인 콘볼루션 조작을 실시하여 AttentionMap1을 얻으며;(31) perform a convolution operation with a convolution kernel of 3×3 on C5 to obtain AttentionMap1;

(32) C4에 대해 콘볼루션 커널이 3×3인 콘볼루션 조작을 실시하여 AttentionMap2를 얻으며;(32) perform a convolution operation with a convolution kernel of 3×3 on C4 to obtain AttentionMap2;

(33) C3에 대해 콘볼루션 커널이 3×3인 콘볼루션 조작을 실시하여 AttentionMap3를 얻는 것을 포함한다.(33) Performing a convolution operation with a convolution kernel of 3×3 on C3 to obtain AttentionMap3.

도 8에서 도시하는 바와 같이, (a)는 전처리 후의 동영상 프레임이고 (b)는 주의력 도면이되, (c)는 이치 이미지(binary image)이며, 네트워크가 (a) 중 화염 위치를 더 유의하는 기능을 향상시키기 위하여, 특징도에서 데콘볼루션과 콘볼루션을 실시한 후에 얻은 주의력 도면과 화염 대상의 이치 이미지 사이를 하나의 손실 함수로 정의하고 손실을 계산한다.As shown in FIG. 8, (a) is a video frame after preprocessing, (b) is an attention diagram, (c) is a binary image, and the network pays more attention to the flame position among (a) In order to improve the function, a loss function is defined between the attention diagram obtained after deconvolution and convolution in the feature diagram and the rational image of the flame target as a loss function, and the loss is calculated.

손실 함수는

Figure pct00005
에 의해 계산되며,The loss function is
Figure pct00005
is calculated by

여기에서, x는 이미지 분할 네트워크가 출력한 주의력 도면이고, z는 화염 목표를 표기하는 이치 이미지이다. 이미지 분할 네트워크가 출력한 3개의 주의력 도면은 각각 상기 손실 함수를 이용해 화염을 표기하는 이치 이미지와 피드백 계산을 진행하고 네트워크의 손실 함수를 신속히 낮추어 수렴에 도달하도록 할 수 있다.Here, x is the attention diagram output by the image segmentation network, and z is the rational image representing the flame target. The three attention diagrams output by the image segmentation network can each use the loss function to perform a rational image representing a flame and a feedback calculation, and to quickly lower the loss function of the network to reach convergence.

4. FIRE-DET모델 예측 식별 네트워크는 도 7에서 도시하는 바와 같이 이하를 포함한다.4. The FIRE-DET model prediction identification network includes the following as shown in FIG. 7 .

(41) AttentionMap1을 D5의 채널수와 크기가 일치하도록 복제하고 조립한 후, 그와 내적 계산을 진행하며, 그 다음 콘볼루션 커널의 크기가 3×3인 콘볼루션 조작을 진행하여 Map1을 얻는다.(41) After duplicating and assembling AttentionMap1 so that the number and size of channels in D5 match, calculate the dot product with it, and then perform convolution operation with the size of the convolution kernel of 3×3 to obtain Map1.

(42) AttentionMap2를 D4의 채널수와 크기가 일치하도록 복제하고 조립한 후, 그와 내적 계산을 진행하며, 그 다음 콘볼루션 커널의 크기가 3×3인 콘볼루션 조작을 진행하여 Map2를 얻는다.(42) After replicating and assembling AttentionMap2 so that the number and size of channels in D4 match, calculate the dot product with it, and then perform convolution operation with the size of the convolution kernel of 3×3 to obtain Map2.

(43) AttentionMap3을 D3의 채널수와 크기가 일치하도록 복제하고 조립한 후, 그와 내적 계산을 진행하며, 그 다음 콘볼루션 커널의 크기가 3×3인 콘볼루션 조작을 진행하여 Map3을 얻는다.(43) After duplicating and assembling AttentionMap3 so that the number and size of channels in D3 match, calculate the dot product with it, and then perform convolution operation with the size of the convolution kernel of 3×3 to obtain Map3.

(44) Map1, Map2와 Map3는 모델이 대응되는 동영상 프레임 중 예측 후보창을 출력하는 분류 확률과, 대응되는 표준 사이즈창에 상대되는 좌표 편향량으로서, 해당 도면의 예측 정보를 계산하여 화염의 위치 정보를 얻는다.(44) Map1, Map2, and Map3 are the classification probability of outputting the prediction candidate window among the video frames to which the model corresponds, and the coordinate deflection amount relative to the corresponding standard size window. get information

단계 2: 도 2에서 도시하는 바와 같이, 미리 얻은 복합한 환경을 포함하는 실제의 화염 동영상 데이터를 전처리한 후, FIRE-DET 모델을 트레이닝하여 M를 얻으며, 구체적으로 이하를 포함한다. Step 2: As shown in Fig. 2, after preprocessing the actual flame video data including the pre-obtained complex environment, training the FIRE-DET model to obtain M, specifically including the following.

(1) 실제의 화염 동영상 데이터에게 프레임추출법을 적용함으로써, 동영상에서 30프레임마다 하나의 프레임을 절취해 트레이닝 데이터 집합 P1을 구축하는 데, P1은 {Frame1, Frame2, …, FrameN}이고, FrameN는 절취한 N번째 동영상 프레임이며, 트레이닝 데이터 집합에게 labelImg 이미지 표기 공구로 화염의 위치를 표기하여 태그 데이터 집합L1을 구축하는 데, L1은 {Label1, Label2, …, LabelN}이고 LabelN는 FrameN 중 화염의 위치이되, 각각의 Label은 (x1,y1,x2,y2)이며, 그 중 (x1,y1)는 화염 왼쪽 상각의 위치를 대표하고 (x2,y2)는 화염 오른쪽 하각의 위치를 대표한다. 트레이닝 데이터 집합 P1 중의 각 동영상 프레임 이미지에 대응되는 이치 이미지는 태그 데이터 집합 L1에 근거해 이치 이미지 중 화염 위치를 1로 설정하고, 기타 부분은 0으로 설정하여 FIRE-DET의 태그 데이터 집합 L2을 형성하며, 마지막으로 P1、L1와 L2가 FIRE-DET의 데이터 집합 Data를 구성한다. 동영상 프레임 집합 중 동영상 프레임 이미지의 정규분포(normal distribution)에 근거한 픽셀 값을 증가시키며, 동영상 프레임 이미지에 대해 무작위로 수평 미러링(mirroring) 조작을 발생시켜 데이터 집합의 데이터를 증강시킨다.(1) By applying the frame extraction method to the actual flame video data, one frame is cut out every 30 frames from the video to construct the training data set P1, where P1 is {Frame 1, Frame2, … , Frame N }, Frame N is the cut Nth video frame, and the training data set is marked with the location of the flame with the labelImg image marking tool to construct the tag data set L1, where L1 is {Label 1, Label2, … , Label N } and Label N is the position of the flame in Frame N , but each Label is (x 1 ,y 1 ,x 2 ,y 2 ), among which (x 1 ,y 1 ) is the position of the upper left corner of the flame and (x 2 ,y 2 ) represents the position of the lower right angle of the flame. For the logical image corresponding to each video frame image in the training data set P1, the flame position of the logical image is set to 1 based on the tag data set L1, and the other parts are set to 0 to form the tag data set L2 of FIRE-DET. Finally, P1, L1 and L2 constitute the data set Data of FIRE-DET. The pixel value based on the normal distribution of the moving picture frame image among the moving picture frame sets is increased, and the data of the data set is augmented by randomly generating horizontal mirroring for the moving picture frame image.

(2) 미리 트레이닝한 가중치를 랜덤 값으로 설정하고 FIRE-DET 모델의 입력차원을 (416, 416, 3)로 설정한다. (2) Set the pre-trained weight to a random value and set the input dimension of the FIRE-DET model to (416, 416, 3).

(3) Adam 기울기 하강법을 적용해 학습률을 1×10-4로 설정하고 샘플링 실시 횟수를 4로 설정하며 손실 함수를 크로스 엔트로피(cross entropy) 함수로 설정하는 것을 포함하여, FIRE-DET 모델 파라미터를 설정한다.(3) FIRE-DET model parameters, including applying the Adam gradient descent method, setting the learning rate to 1×10-4, setting the number of sampling runs to 4, and setting the loss function as a cross entropy function to set

(4) Data1 중의 P1를 입력 값으로 삼고 L1과 L2를 모니터링 값으로 삼으며 FIRE-DET 모델 중에서 트레이닝하여 모델 M를 얻는다.(4) Using P1 in Data1 as input values and L1 and L2 as monitoring values, train among FIRE-DET models to obtain model M.

단계 3: 도 9에서 도시하는 바와 같이, 트레이닝된 FIRE-DET 모델 M는 화염 대상의 테두리와 유형을 예측한 후, 화염의 위치 정보를 얻어 보존하며; 보존한 화염 목표 위치를 원래 동영상 이미지에서 가시화하며; 동영상 프레임 중 각 화염 목표 면적의 합과 원래 동영상 프레임 면적의 비율이 예정 임계값에 도달한 후, 화염 경보를 발송한다.Step 3: As shown in Fig. 9, the trained FIRE-DET model M predicts the frame and type of the flame object, and then obtains and preserves the flame location information; Visualize the preserved flame target position in the original moving image; After the ratio of the sum of the target area of each flame in the video frame and the area of the original video frame reaches a predetermined threshold, a flame alarm is issued.

동영상 프레임 이미지 IMG를 얻고, 전처리를 실시하여 IMG0를 얻는다. 동영상 프레임 이미지 IMG0의 사이즈를 정규화하여 이미지 IMG1를 얻는다. 본 실시방식은 416×416 픽셀의 크기로 정규화하여 다음 단계 모델 M의 입력으로 삼는다.A moving picture frame image IMG is obtained, and preprocessing is performed to obtain IMG0. The image IMG1 is obtained by normalizing the size of the moving picture frame image IMG0. This embodiment is normalized to a size of 416 × 416 pixels and is used as an input for the next stage model M.

정규화한 크기의 이미지를 모델 M중에 전송해 넣고 동영상 프레임 이미지에 대응되는 화염의 좌표 위치를 어레이 Loc 중에 저장하며, Loc에 근거해 전처리하여 정규화한 후의 동영상 프레임 IMG1 중에 화염 목표 위치를 표기하여 화염 식별 효과도 IMG2를 얻음으로써, 화염 추적의 가시화를 구현한다.The image of the normalized size is transferred into the model M, the coordinate position of the flame corresponding to the video frame image is stored in the array Loc, and the flame target position is marked in the video frame IMG1 after preprocessing and normalization based on the Loc to identify the flame By obtaining the effect diagram IMG2, the visualization of flame tracking is realized.

동영상 스트림 중 화염 목표가 동영상 프레임 중에서 차지하는 면적이 설정된 임계 값에 도달한 후, 화염 경보를 발송한다. 모든 화염 목표가 동영상 프레임 중에서 차지하는 면적의 총 합계가 50%보다 크면 화염 경보를 발송하며, 아닌 경우에는 계속 판단한다. 상세하게, 동영상 프레임 이미지에 있어서, Loc의 화염 위치에 근거해 1개의 이치 이미지 FLAG를 생성해 이치 이미지 FLAG 중 화염 위치를 1로 설정하고 기타 부분은 0으로 설정하며; 아래 공식,After the area occupied by the flame target in the video frame in the video stream reaches a set threshold, a flame alarm is sent. If the total area occupied by all flame targets among video frames is greater than 50%, a flame alarm is sent, otherwise the judgment is continued. Specifically, in the video frame image, one binary image FLAG is generated based on the flame position of Loc, and the flame position of the binary image FLAG is set to 1 and the other parts are set to 0; formula below,

Figure pct00006
에 의해 판단하며,
Figure pct00006
judged by

여기에서, Fire s 는 모든 화염 목표 면적의 합이고 ,w는 동영상 프레임의 폭이며 h는 동영상 프레임의 높이이다. 상기 공식을 만족시키면 화염 경보를 발송한다.where Fire s is the sum of all flame target areas, w is the width of the video frame and h is the height of the video frame. If the above formula is satisfied, a flame alarm is sent.

본 발명은 경량급의 FIRE-DET 화염 검측 시스템을 더 공개하는 데, 주로 아래와 같이, 동영상 프레임 이미지를 판독하고 동영상 프레임 이미지를 전처리하고 정규화하는 데 사용하는 이미지 전처리 모듈; 트레이닝된 FIRE-DET 모델을 사용하여 정규화한 후의 동영상 프레임 이미지를 검측해 화염 목표의 위치 정보를 얻는 데 사용하는 화염 검측 모듈; 화염 검측 모듈이 보존한 화염 목표 위치에 근거해 원래 동영상 이미지 중에 대응되는 화염 목표를 표기하고 화염 추적의 가시화를 구현하는 데 사용하는 화염 영역 가시화 모듈; 및, 화염 경보 모듈:동영상을 지속적으로 모니터링하여 화염 목표가 동영상 프레임 중에서 차지하는 면적이 예정된 임계 값에 도달하는 경우에 화염 경보를 발송해 사용자에게 알리는 데 사용하는 화염 경보 모듈;로 구성된다. 해당 시스템은 상기 경량급의 FIRE-DET 화염 검측 방법을 구현할 수 있어 동일 발명 구상에 속하며, 구체적인 세부 사항은 상기 방법의 실시예를 참조하며, 여기에서는 반복하여 설명하지 않는다.The present invention further discloses a lightweight FIRE-DET flame detection system, mainly comprising: an image pre-processing module used to read a moving picture frame image and pre-process and normalize the moving picture frame image; a flame detection module used to obtain location information of a flame target by detecting the video frame image after normalization using the trained FIRE-DET model; a flame zone visualization module used to mark the corresponding flame target in the original video image based on the flame target position preserved by the flame detection module and implement the visualization of flame tracking; and a flame alarm module: a flame alarm module used to continuously monitor the video and send a flame alarm to notify the user when the area occupied by the flame target among video frames reaches a predetermined threshold value. The system can implement the light-weight FIRE-DET flame detection method and belongs to the same invention concept, and specific details refer to the embodiment of the method, which will not be repeatedly described herein.

동등한 발명 구상을 기반으로 하여 본 발명의 실시예가 공개한 경량급의 FIRE-DET 화염 검측 시스템은 메모리, 프로세서 및 메모리에 저장되어 프로세서에서 운행할 수 있는 컴퓨터 프로그램을 포함하며, 해당 컴퓨터 프로그램이 프로세서에까지 로딩될 때 상기 경량급의 FIRE-DET 화염 검측 방법을 구현한다.The lightweight FIRE-DET flame detection system disclosed by the embodiment of the present invention based on the equivalent inventive concept includes a memory, a processor, and a computer program that is stored in the memory and can be operated in the processor, and the computer program is loaded into the processor Implement the light-weight FIRE-DET flame detection method.

Claims (7)

경량급의 FIRE-DET 화염 검측 방법에 있어서,
(1) FIRE-DET 모델을 구축하며; 상기 FIRE-DET 모델은 특징 추출 네트워크, 특징 융합 네트워크, 이미지 분할 네트워크와 예측 식별 네트워크를 포함하며; 상기 특징 추출 네트워크는 멀티 콘볼루션 조합 구조가 적층되어 구성되고, 콘볼루션의 채널수를 줄여 검측 모델의 파라미터량을 낮추며; 상기 특징 융합 네트워크는 BiFPN 네트워크이며; 상기 이미지 분할 네트워크는 융합한 후의 특징에 대해 데콘볼루션(deconvolution)과 콘볼루션 조작을 실시한 후 주의력 도면을 얻고, 특징 융합 네트워크가 얻은 특징과 융합시키는 단계;
(2) 미리 얻은 복잡한 환경이 포함된 동영상 프레임 이미지에 대해 전처리와 정규화(normalization)를 실시하여 데이터 집합를 형성하며; 또한, FIRE-DET 모델을 트레이닝하여 화염을 검측하는 데 사용하는 모델 M을 얻는 단계;
(3) 모델 M를 사용하여 화염 대상의 테두리와 유형을 예측한 후, 화염의 위치 정보를 얻어 보존하며; 보존한 화염 목표 위치를 원래 동영상 이미지에서 가시화하며; 동영상 프레임 중 각 화염 목표 면적의 합과 원래 동영상 프레임 면적의 비율이 예정 임계값에 도달한 후, 화염 경보를 발송하는 단계;를 포함하는 것을 특징으로 하는 경량급의 FIRE-DET 화염 검측 방법.
In the light-weight FIRE-DET flame detection method,
(1) build a FIRE-DET model; the FIRE-DET model includes a feature extraction network, a feature fusion network, an image segmentation network and a predictive identification network; The feature extraction network is constructed by stacking multi-convolution combination structures, and reduces the number of convolutional channels to lower the parameter amount of the detection model; the feature fusion network is a BiFPN network; The image segmentation network performs deconvolution and convolution manipulation on the features after the fusion, then obtains an attention diagram, and fuses the features with the features obtained by the feature fusion network;
(2) forming a data set by performing pre-processing and normalization on a video frame image including a pre-obtained complex environment; In addition, training the FIRE-DET model to obtain a model M used to detect the flame;
(3) using the model M to predict the frame and type of the flame object, and then obtain and preserve the location information of the flame; Visualize the preserved flame target position in the original moving image; After the ratio of the sum of the target area of each flame in the video frame and the area of the original video frame reaches a predetermined threshold, sending a flame alarm; Lightweight FIRE-DET flame detection method comprising the.
제1항에 있어서,
단계 (1)에 기재된 특징 추출 네트워크의 작동 과정은,
입력한 도면을 416×416의 크기로 정규화하여 IMG0를 생성하며; 정규화한 후의 IMG0를 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F1를 얻으며; F1에 대해 콘볼루션 커널(convolution kernel)이 2×2인 최대의 풀링(pooling) 조작을 실시한 후 얻은 Pool1을 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F2를 얻으며; F2에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 실시한 후 얻은 Pool2를 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F3를 얻으며; F3에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 실시한 후 얻은 Pool3을 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F4를 얻으며; F4에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 실시한 후 얻은 Pool4를 멀티 콘볼루션 조합 네트워크의 입력으로 삼아 계산하여 F5를 얻으며; F5에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 실시한 후, 콘볼루션 커널의 크기가 3×3인 콘볼루션 조작을 실시하여 F6을 얻으며; F6에 대해 콘볼루션 커널이 2×2인 최대의 풀링 조작을 실시한 후, 콘볼루션 커널의 크기가 3×3인 콘볼루션 조작을 실시하여 F7;를 얻는 것을 특징으로 하는 경량급의 FIRE-DET 화염 검측 방법.
According to claim 1,
The operation process of the feature extraction network described in step (1) is,
Normalizes the input drawing to a size of 416×416 to generate IMG0; IMG0 after normalization is taken as an input of the multi-convolutional combination network and calculated to obtain F1; After performing a maximum pooling operation with a convolution kernel of 2×2 on F1, the obtained Pool1 is used as an input to the multi-convolutional combination network and calculated to obtain F2; After performing the maximum pooling operation with the convolutional kernel of 2×2 on F2, the obtained Pool2 is used as an input to the multi-convolutional combination network and calculated to obtain F3; After performing the maximum pooling operation with the convolutional kernel of 2×2 on F3, the obtained Pool3 is used as an input to the multi-convolutional combination network and calculated to obtain F4; After performing the maximum pooling operation with a convolutional kernel of 2×2 on F4, the obtained Pool4 is used as an input to the multi-convolutional combination network and calculated to obtain F5; After performing a maximum pooling operation with a convolutional kernel of 2×2 on F5, a convolution operation with a size of a convolutional kernel of 3×3 is performed to obtain F6; Light-weight FIRE-DET flame detection, characterized in that after performing the maximum pulling operation with a convolutional kernel of 2×2 on F6, a convolution operation with a size of a convolutional kernel of 3×3 is performed to obtain F7; Way.
제1항에 있어서,
단계(1)에 기재된 특징 융합 네트워크의 작동 과정은,
특징 추출 네트워크의 멀티 콘볼루션 조합 구조를 거쳐 얻은 특징도 F3, F4, F5, F6과 F7을 BiFPN 네트워크의 입력으로 삼아, 특징을 융합시킨 후, 출력 C1, C2, C3, C4와 C5를 얻으며;
C1, C2, C3, C4와 C5를 BiFPN 네트워크의 입력으로 삼아, 다시 특징을 융합시켜 출력 D1, D2, D3, D4와 D5를 얻으며; 상기 BiFPN 네트워크의 과정은,
1) 네트워크 중에 각각 Input1, Input2, Input3, Input4와 Input5로 표기된 5개의 입력이 구비되며;
2) Input1에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input2와 배열하고 조작하여 A1을 얻으며; A1에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input3과 배열하고 조작하여 A2를 얻으며; A2에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input2와 배열하고 조작하여 A3을 얻으며;
3) A3에 대해 2×2의 데콘볼루션 조작을 실시한 후, Input5와 배열하고 조작하여 B5를 얻으며; B5에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input4 및 A3과 배열하고 조작하여 B4를 얻으며; B4에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input3 및 A2와 배열하고 조작하여 B3을 얻으며; B3에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input2 및 A1과 배열하고 조작하여 B2를 얻으며; B2에 대해 2×2의 최대의 풀링 조작을 실시한 후, Input1과 배열하고 조작하여 B1을 얻으며;
4) 각 1) 내지 3) 중의 B1, B2, B3, B4와 B5를 특징 융합 네트워크의 출력으로 삼는 것을 특징으로 하는 경량급의 FIRE-DET 화염 검측 방법.
According to claim 1,
The operation process of the feature fusion network described in step (1) is,
The features obtained through the multi-convolutional combination structure of the feature extraction network also take F3, F4, F5, F6 and F7 as inputs of the BiFPN network, fuse the features, and then obtain outputs C1, C2, C3, C4 and C5;
Taking C1, C2, C3, C4 and C5 as inputs of the BiFPN network, fusing the features again to obtain outputs D1, D2, D3, D4 and D5; The process of the BiFPN network is,
1) In the network, there are 5 inputs denoted as Input1, Input2, Input3, Input4 and Input5, respectively;
2) After performing deconvolution operation of 2×2 on Input1, arrange and operate with Input2 to obtain A1; After performing a 2×2 deconvolution operation on A1, arrange and operate with Input3 to obtain A2; After performing a 2×2 deconvolution operation on A2, arrange and operate with Input2 to obtain A3;
3) After performing 2×2 deconvolution operation on A3, arrange with Input5 and operate to obtain B5; After performing the maximum pulling operation of 2×2 on B5, arrange and operate with Input4 and A3 to obtain B4; After performing the maximum pulling operation of 2×2 on B4, arrange and operate with Input3 and A2 to obtain B3; After performing the maximum pulling operation of 2×2 on B3, arrange and operate with Input2 and A1 to obtain B2; After performing the maximum pulling operation of 2×2 on B2, arrange and operate with Input1 to obtain B1;
4) A light-weight FIRE-DET flame detection method characterized by using B1, B2, B3, B4 and B5 in each of 1) to 3) as the output of the feature fusion network.
제1항에 있어서,
상기 단계(2)의 구현 과정은,
(21) 공개된 화염 동영상에 키 프레임(key frame)을 채택하는 방법을 적용해 동영상에서 동영상 프레임 집합을 추출해 내며, 동영상 프레임 집합에게 이미지 표기 공구를 사용해 화염의 위치를 표기하고 태그 데이터 집합을 구축하며;
(22) 트레이닝 데이터 집합 중 각각의 동영상 이미지에 대응되는 이치 이미지(binary image)가 태그 데이터 집합을 따르도록 하고, 이치 이미지에 대응되는 원도(original drawing)가 표기하는 화염의 위치를 1로 설정하되, 기타 부분은 0으로 설정하여 FIRE-DET의 이치 이미지의 태그 데이터 집합을 형성하며, 마지막으로, 동영상 프레임 집합, 화염 대상 태그 데이터 집합과 이치 이미지의 태그 데이터 집합에 FIRE-DET의 데이터 집합을 구축하며;
(23) 동영상 프레임 집합 중 동영상 프레임 이미지의 정규분포(normal distribution)에 근거한 대상 픽셀 값을 증가시키며, 동영상 프레임 이미지에 대해 무작위로 수평 미러링(mirroring) 조작을 발생시켜 데이터 집합의 데이터를 증강시키는 것을 특징으로 하는 경량급의 FIRE-DET 화염 검측 방법.
According to claim 1,
The implementation process of step (2) is,
(21) Extract the video frame set from the video by applying the method of adopting a key frame to the published flame video, and mark the location of the flame using the image marking tool on the video frame set and build a tag data set and;
(22) The binary image corresponding to each moving image in the training data set follows the tag data set, and the position of the flame indicated by the original drawing corresponding to the binary image is set to 1. However, other parts are set to 0 to form the tag data set of FIRE-DET's reason image, and finally, the data set of FIRE-DET is built into the video frame set, the flame target tag data set and the tag data set of the logical image. and;
(23) Increase the target pixel value based on the normal distribution of the moving picture frame image among the moving picture frame sets, and increase the data of the data set by randomly generating horizontal mirroring for the moving picture frame image. Lightweight class FIRE-DET flame detection method.
제1항에 있어서,
단계(3)에 기재된 이미지 분할 네트워크의 손실 함수는
Figure pct00007
이며,
여기에서, x는 이미지 분할 네트워크가 출력한 주의력 도면이고, z는 화염 목표를 표기하는 이치 이미지이며; 이미지 분할 네트워크가 출력한 3개의 주의력 도면은 각각 화염을 표기하는 이치 이미지 사용 손실 함수와 피드백 계산을 실시하는 것을 특징으로 하는 경량급의 FIRE-DET 화염 검측 방법.
According to claim 1,
The loss function of the image segmentation network described in step (3) is
Figure pct00007
is,
where x is the attention diagram output by the image segmentation network, z is the rational image representing the flame target; A light-weight FIRE-DET flame detection method, characterized in that each of the three attention drawings output by the image segmentation network performs a loss function and a feedback calculation using a rational image to represent the flame.
동영상 프레임 이미지를 판독하고 동영상 프레임 이미지에게 전처리와 정규화를 실시하는 데 사용하는 이미지 전처리 모듈;
트레이닝된 FIRE-DET모델을 사용해 정규화된 후의 동영상 프레임 이미지를 검측하여 화염 목표의 위치 정보를 얻는 데 사용하는 화염 검측 모듈;
화염 검측 모듈이 보존한 화염 목표 위치에 근거해 원래 동영상 이미지 중 대응되는 화염 목표를 표기하여 화염 추적의 가시화를 구현하는 데 사용하는 화염 영역 가시화 모듈;
동영상을 지속적으로 모니터링하여 화염 목표가 동영상 프레임 중에서 예정 면적을 초과할 때 화염 경보를 발송하여 사용자에게 알리는 데 사용하는 화염 경보 모듈;을 포함하는 것을 특징으로 하는 제1항 내지 제4항 중 어느 한 항의 방법에 따른 경량급의 FIRE-DET 화염 검측 시스템.
an image preprocessing module used to read a moving picture frame image and perform preprocessing and normalization on the moving picture frame image;
a flame detection module used to obtain location information of a flame target by detecting a video frame image after normalization using the trained FIRE-DET model;
a flame area visualization module used to realize the visualization of flame tracking by marking the corresponding flame target in the original video image based on the flame target position preserved by the flame detection module;
Any one of claims 1 to 4 comprising a; flame alarm module used to continuously monitor the video and send a flame alarm to notify the user when the flame target exceeds the predetermined area in the video frame A lightweight FIRE-DET flame detection system according to the method.
메모리, 프로세서 및 메모리에 저장되어 프로세서에서 운행할 수 있는 컴퓨터 프로그램을 포함하되, 상기 컴퓨터 프로그램이 프로세서에까지 로딩될 때 제1항 내지 제5항 중 어느 한 항의 따른 경량급의 FIRE-DET 화염 검측 방법을 구현하는 것을 특징으로 하는 경량급의 FIRE-DET 화염 검측 시스템.A light-weight FIRE-DET flame detection method according to any one of claims 1 to 5, including a memory, a processor, and a computer program stored in the memory and capable of running in the processor, wherein the computer program is loaded to the processor A lightweight FIRE-DET flame detection system characterized in that it is implemented.
KR1020217017931A 2020-11-18 2021-05-08 Lightweight FIRE-DET flame detection method and system KR102680989B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011292139.XA CN112633061B (en) 2020-11-18 2020-11-18 Lightweight FIRE-DET flame detection method and system
CN202011292139.X 2020-11-18
PCT/CN2021/092359 WO2022105143A1 (en) 2020-11-18 2021-05-08 Lightweight fire-det flame detection method and system

Publications (2)

Publication Number Publication Date
KR20220071143A true KR20220071143A (en) 2022-05-31
KR102680989B1 KR102680989B1 (en) 2024-07-04

Family

ID=

Also Published As

Publication number Publication date
WO2022105143A1 (en) 2022-05-27
CN112633061B (en) 2023-03-24
CN112633061A (en) 2021-04-09

Similar Documents

Publication Publication Date Title
CN112633061B (en) Lightweight FIRE-DET flame detection method and system
Frizzi et al. Convolutional neural network for video fire and smoke detection
CN108875624B (en) Face detection method based on multi-scale cascade dense connection neural network
CN109583340B (en) Video target detection method based on deep learning
JP7386545B2 (en) Method for identifying objects in images and mobile device for implementing the method
Yin et al. Recurrent convolutional network for video-based smoke detection
CN111178208B (en) Pedestrian detection method, device and medium based on deep learning
CN109740419A (en) A kind of video behavior recognition methods based on Attention-LSTM network
CN111079674B (en) Target detection method based on global and local information fusion
WO2018052587A1 (en) Method and system for cell image segmentation using multi-stage convolutional neural networks
CN111967379B (en) Human behavior recognition method based on RGB video and skeleton sequence
CN113963032A (en) Twin network structure target tracking method fusing target re-identification
Ch An efficient facial emotion recognition system using novel deep learning neural network-regression activation classifier
Mousavi et al. Digital image segmentation using rule-base classifier
Tang et al. Deep saliency quality assessment network with joint metric
Zhang et al. SSGNN: A macro and microfacial expression recognition graph neural network combining spatial and spectral domain features
Panda et al. Modified ResNet-152 network with hybrid pyramidal pooling for local change detection
Li et al. Fire flame image detection based on transfer learning
CN112487926A (en) Scenic spot feeding behavior identification method based on space-time diagram convolutional network
KR102680989B1 (en) Lightweight FIRE-DET flame detection method and system
CN112560824B (en) Facial expression recognition method based on multi-feature adaptive fusion
CN113743190A (en) Flame detection method and system based on BiHR-Net and YOLOv3-head
Oh et al. Visual adversarial attacks and defenses
CN113591797A (en) Deep video behavior identification method
Ayre-Storie et al. Deep learning-based human posture recognition

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right