KR102540208B1 - Fire detection method using deep learning - Google Patents

Fire detection method using deep learning Download PDF

Info

Publication number
KR102540208B1
KR102540208B1 KR1020220142120A KR20220142120A KR102540208B1 KR 102540208 B1 KR102540208 B1 KR 102540208B1 KR 1020220142120 A KR1020220142120 A KR 1020220142120A KR 20220142120 A KR20220142120 A KR 20220142120A KR 102540208 B1 KR102540208 B1 KR 102540208B1
Authority
KR
South Korea
Prior art keywords
module
neural network
output
cbs
convolution
Prior art date
Application number
KR1020220142120A
Other languages
Korean (ko)
Inventor
김현석
Original Assignee
(주)에리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에리 filed Critical (주)에리
Priority to KR1020220142120A priority Critical patent/KR102540208B1/en
Application granted granted Critical
Publication of KR102540208B1 publication Critical patent/KR102540208B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke

Abstract

본 발명은, 화재감지 신경망을 바탕으로 입력 이미지로부터 화재를 감지하는 화재감지방법에 관한 것으로, 상기 화재감지 신경망은 백본(Backbone) 신경망, 넥(Neck) 신경망 및 헤드(Head) 신경망을 포함하고, 상기 백본 신경망은, 상기 이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈과, 상기 컨볼루션 모듈의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망과, N번째의 백본 서브 신경망의 출력단에 연결된 SPPF 모듈과, 상기 SPPF 모듈의 출력단에 연결된 제 2 컨볼루션 모듈을 포함하고, 상기 백본 서브 신경망은, 고스트넷(GhostNet)의 컨볼루션 모듈과, 상기 고스트넷의 컨볼루션 모듈과 직렬로 연결된 C3Ghost모듈을 포함하고, 상기 넥 신경망은, 상기 컨볼루션 모듈의 출력을 CBS 모듈을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈을 통과시키도록 구성된다.The present invention relates to a fire detection method for detecting a fire from an input image based on a fire detection neural network, wherein the fire detection neural network includes a backbone neural network, a neck neural network, and a head neural network, The backbone neural network includes a first convolution module to which the image is input, N backbone sub-neural networks serially connected to process outputs of the convolution modules, and an SPPF connected to an output terminal of the N-th backbone sub-neural network. module, and a second convolution module connected to an output terminal of the SPPF module, wherein the backbone sub-neural network includes a GhostNet convolution module and a C3Ghost module serially connected to the GhostNet convolution module. The neck neural network passes the output of the convolution module through the CBS module, upsamples it, concatenates it with the output of the N-1 th backbone sub-neural network, and then passes it through the first C3_F module. is composed of

Description

딥러닝을 이용한 화재감지방법{Fire detection method using deep learning}Fire detection method using deep learning

본 발명은 화재감지방법에 관한 것으로, 보다 상세하게는, 영상 획득부에 의해 획득된 이미지로부터 딥러닝 기반의 화재감지 신경망을 이용하여 빠르고 정확하게 회재를 감지할 수 있는 화재감지방법에 관한 것이다.The present invention relates to a fire detection method, and more particularly, to a fire detection method capable of rapidly and accurately detecting fire by using a deep learning-based fire detection neural network from an image acquired by an image acquisition unit.

화재는 인적, 물적 피해를 일으키는 재난 중의 하나이며, 다양한 원인에 의해서 발생되기도 한다. 특히, 화재는 초기 진압의 성공여부에 따라, 인적, 물적 피해를 최소화할 수 있다. 열 감지 시스템을 비롯한 각종 조기경보시스템이 보급되고 있으며, 최근에는 딥러닝을 이용한 화재감지 시스템의 연구가 활발하게 이루어지고 있다.Fire is one of the disasters that cause human and material damage, and it may be caused by various causes. In particular, fire can minimize human and material damage depending on the success of the initial suppression. Various early warning systems including heat detection systems are being spread, and recently, research on fire detection systems using deep learning has been actively conducted.

현재 시중에 설치되어 CCTV는 개별 또는 여러 개를 모아서 Digital video recorder(DVR)라는 저장장치에 영상을 저장하는 방식이다. 이러한 방식은, 화재 등의 이벤트가 발생했을 때 비로소 DVR을 서버에 연결하고, 상황을 모니터링한다. 이렇게 하는 이유는, 많은 양의 데이터를 모두 서버에서 관리를 하게 될 경우 네트웍 트래픽 관리가 어렵기 때문이다.Currently installed on the market, CCTV is a method of storing images in a storage device called a digital video recorder (DVR) by collecting individual or multiple CCTVs. In this method, when an event such as fire occurs, the DVR is connected to the server and the situation is monitored. The reason for this is that it is difficult to manage network traffic when a large amount of data is managed by the server.

이러한 측면에서, 화재 감지를 위한 인공지능 소프트웨어는 서버가 아닌 DVR에 설치가 되어, 화재가 감지되었을 때 비로소 서버에 이러한 내용을 전달하는 역할을 해야 한다. 그러나, 현재 설치되고 사용중인 DVR에는 GPU가 없다는 단점이 있다.In this respect, artificial intelligence software for fire detection should be installed in the DVR, not the server, and should play a role in delivering this information to the server only when a fire is detected. However, there is a disadvantage that the currently installed and used DVR does not have a GPU.

따라서, CPU로만 운영되는 환경하에서 신경망이 얼마나 빠르게 인식을 할 수 있는지가 중요하며, 기존의 CCTV를 이용할 수 있도록 가벼우면서도 빠르고 정확하게 화재감지가 가능한 딥러닝 아키텍쳐를 개발할 필요가 있다. Therefore, it is important how quickly the neural network can recognize in an environment operated only by the CPU, and it is necessary to develop a lightweight, fast, and accurate deep learning architecture that can detect fires so that existing CCTVs can be used.

최근, 딥러닝을 이용하여, 영상을 분석하고, 화재 여부를 판단하는 방법이 다양하게 연구되고 있다. 화재 감지의 정확도는 상당히 올라간 상태이나, 불을 촬영한 사진을 CCTV에 비출 경우 이를 실제 화재가 발생한 것으로 인식하는 경우가 발생하는 문제가 있다.Recently, various methods of analyzing images and determining whether there is a fire using deep learning have been studied. Although the accuracy of fire detection is considerably improved, there is a problem in that when a picture of a fire is projected onto a CCTV, it is recognized as an actual fire.

본 발명이 해결하고자 하는 과제는, 첫째, CCTV를 통해 촬영된 영상에서, 딥러닝 기반의 인공 신경망을 이용한 추론을 통한 화재를 인지하되, 상기 CCTV가 가짜 불(예를 들어, 불이나 연기를 촬영한 사진)을 촬영한 경우에도 이를 화재로 오인하지 않을 정도로 고도의 정확도를 갖는 화재감지방법을 제공하는 것이다.The problem to be solved by the present invention is, first, to recognize a fire through reasoning using a deep learning-based artificial neural network in an image captured through CCTV, but the CCTV is a fake fire (eg, shooting fire or smoke) It is to provide a fire detection method having a high degree of accuracy so as not to mistake it for a fire even when a picture) is taken.

둘째, CCTV에 구비된 CPU만으로도 충분히 빠르고 정확하게 화재감지를 할 수 있는 가벼우면서도 신속한 추론이 가능한 인공 신경망을 이용한 화재감지방법을 제공하는 것이다.Second, it is to provide a fire detection method using an artificial neural network capable of light and rapid reasoning that can detect fire sufficiently quickly and accurately using only a CPU provided in CCTV.

셋째, YOLOv5의 신경망을 GoshtNet을 참조하여 개선한 신규 신경망을 이용한 화재감지방법을 제공하는 것이다.Third, it is to provide a fire detection method using a new neural network improved by referring to GoshtNet in the YOLOv5 neural network.

본 발명은, 화재감지 신경망을 바탕으로 입력 이미지로부터 화재를 감지하는 화재감지방법에 관한 것으로, 상기 화재감지 신경망은 백본(Backbone) 신경망, 넥(Neck) 신경망 및 헤드(Head) 신경망을 포함한다.The present invention relates to a fire detection method for detecting a fire from an input image based on a fire detection neural network, wherein the fire detection neural network includes a backbone neural network, a neck neural network, and a head neural network.

상기 백본 신경망은, 상기 이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈과, 상기 컨볼루션 모듈의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망과, N번째의 백본 서브 신경망의 출력단에 연결된 SPPF 모듈과, 상기 SPPF 모듈의 출력단에 연결된 제 2 컨볼루션 모듈을 포함한다.The backbone neural network includes a first convolution module to which the image is input, N backbone sub-neural networks serially connected to process outputs of the convolution modules, and an SPPF connected to an output terminal of the N-th backbone sub-neural network. module, and a second convolution module connected to an output terminal of the SPPF module.

상기 백본 서브 신경망은, 고스트넷(GhostNet)의 컨볼루션 모듈과, 상기 고스트넷의 컨볼루션 모듈과 직렬로 연결된 C3Ghost모듈을 포함한다.The backbone sub-neural network includes a GhostNet convolution module and a C3Ghost module serially connected to the GhostNet convolution module.

상기 넥 신경망은, 상기 컨볼루션 모듈의 출력을 CBS 모듈을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈을 통과시키도록 구성된다.The neck neural network passes the output of the convolution module through the CBS module, upsamples it, concatenates it with the output of the N-1 th backbone sub-neural network, and passes it through the first C3_F module. .

상기 제 1 C3_F모듈은, 직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹과, 상기 CBS 그룹과 병렬로 연결된 CBS 모듈과, 상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈과, 상기 컨케트네이트 모듈의 출력단에 연결된 CBS 모듈을 포함한다.The first C3_F module comprises a CBS group consisting of three CBS modules connected in series, a CBS module connected in parallel with the CBS group, and a connet that connects the output of the CBS group and the output of the CBS module connected in parallel. It includes a Nate module and a CBS module connected to an output terminal of the Concatenate module.

상기 넥 신경망은, 상기 제 1 C3_F 모듈의 출력을 제 1 CBS 모듈을 통과시킨 후 업샘플링시킨 것을, N-2 번째 백본 서브 신경망의 출력과 접합하는 제 1 컨케트네이트 모듈과, 상기 제 1 컨케트네이트 모듈의 출력을 처리하는 제 2 C3_F 모듈을 더 포함할 수 있다.The neck neural network includes a first concatenate module that combines the upsampled output of the first C3_F module after passing through the first CBS module with the output of the N-2 th backbone sub-neural network; A second C3_F module processing the output of the Ketnate module may be further included.

상기 헤드 신경망은, 상기 제 2 C3_F 모듈의 출력이 입력되는 제 3 컨볼루션 모듈을 포함할 수 있다.The head neural network may include a third convolution module to which an output of the second C3_F module is input.

상기 넥 신경망은, 상기 제 3 컨볼루션 모듈과 병렬로 연결되어 상기 제 2 C3_F모듈의 출력을 입력 받는 제 2 CBS 모듈과, 상기 제 2 CBS 모듈의 출력을 상기 제 1 CBS 모듈의 출력과 접합하는 제 2 컨케트네이트 모듈과, 상기 제 2 컨케트네이트 모듈의 출력을 처리하는 제 3 C3_F 모듈을 더 포함할 수 있다.The neck neural network includes a second CBS module connected in parallel to the third convolution module and receiving an output of the second C3_F module, and combining the output of the second CBS module with the output of the first CBS module. It may further include a second concatenate module and a third C3_F module processing an output of the second concatenate module.

상기 헤드 신경망은, 상기 제 3 C3_F 모듈의 출력을 입력 받는 제 4 컨볼루션 모듈을 더 포함할 수 있다.The head neural network may further include a fourth convolution module receiving an output of the third C3_F module.

상기 넥 신경망은, 상기 제 3 C3_F 모듈의 출력을 입력 받는 제 3 CBS 모듈과, 상기 제 3 CBS 모듈의 출력과 상기 CBS 모듈의 출력을 접합하는 제 3 컨케트네이트 모듈과, 상기 제 3 컨케트네이트 모듈의 출력을 처리하는 제 4 C3_F 모듈을 더 포함할 수 있다.The neck neural network includes a third CBS module that receives the output of the third C3_F module, a third concatenate module that connects the output of the third CBS module and the output of the CBS module, and the third concatenate A fourth C3_F module processing an output of the Nate module may be further included.

상기 헤드 신경망은, 상기 제 4 C3_F 모듈의 출력을 입력 받는 제 5컨볼루션 모듈을 더 포함할 수 있다.The head neural network may further include a fifth convolution module receiving an output of the fourth C3_F module.

다르게는, 본 발명은 화재감지 신경망이 프로그램의 형태로 기록된 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 상기 화재감지 신경망은, 백본(Backbone) 신경망, 넥(Neck) 신경망 및 헤드(Head) 신경망을 포함하고, 상기 백본 신경망은, 이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈; 상기 컨볼루션 모듈의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망; N번째의 백본 서브 신경망의 출력단에 연결된 SPPF 모듈; 및 상기 SPPF 모듈의 출력단에 연결된 제 2 컨볼루션 모듈을 포함하고, 상기 백본 서브 신경망은, 고스트넷(GhostNet)의 컨볼루션 모듈; 및 상기 고스트넷의 컨볼루션 모듈과 직렬로 연결된 C3Ghost모듈을 포함하고, 상기 넥 신경망은, 상기 컨볼루션 모듈의 출력을 CBS 모듈을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈을 통과시키도록 구성되고, 상기 제 1 C3_F모듈은, 직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹; 상기 CBS 그룹과 병렬로 연결된 CBS 모듈; 상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈; 및 상기 컨케트네이트 모듈의 출력단에 연결된 CBS 모듈을 포함한다.Alternatively, the present invention relates to a computer readable recording medium in which a fire detection neural network is recorded in the form of a program, wherein the fire detection neural network includes a backbone neural network, a neck neural network, and a head neural network. and the backbone neural network includes a first convolution module to which an image is input; N backbone sub-neural networks connected in series to process the output of the convolution module; An SPPF module connected to the output terminal of the N-th backbone sub-neural network; and a second convolution module connected to an output terminal of the SPPF module, wherein the backbone sub-neural network includes a convolution module of GhostNet; and a C3Ghost module serially connected to the convolution module of the ghostnet, wherein the neck neural network passes an output of the convolution module through a CBS module and then upsamples the N-1 th backbone sub-neural network. After concatenating with the output, it is configured to pass a first C3_F module, wherein the first C3_F module includes: a CBS group composed of three CBS modules connected in series; a CBS module connected in parallel with the CBS group; Concatenate module for connecting the output of the CBS group and the output of the CBS module connected in parallel; and a CBS module connected to an output terminal of the concatenate module.

본 발명의 화재감지방법은 첫째, 가짜불을 화재로 오인하지 않을 정도의 고도의 정확도를 갖는다.First, the fire detection method of the present invention has a high level of accuracy that does not mistake a fake fire for a fire.

둘째, GhostNet을 참조하여 기존의 YOLO 신경망을 개선함으로써 보다 정확도를 높일 수 있으면서도, 가볍고 신속한 추론이 가능한 효과가 있다.Second, by improving the existing YOLO neural network by referring to GhostNet, it is possible to increase accuracy and to make light and fast inference.

셋째, 기존의 YOLOv5와 비교하여, 약 1.02%의 정확도가 향상되었으며, 추론시간을 기준으로 YOLOv5 대비 약 40ms이상의 속도 향상을 보이는 효과가 있다.Third, compared to the existing YOLOv5, the accuracy is improved by about 1.02%, and there is an effect of showing a speed improvement of about 40 ms or more compared to YOLOv5 based on the inference time.

도 1은 본 발명의 일 실시예에 따른 화재감지 신경망의 구조도이다.
도 2는 본 발명의 일 실시예에 따른 화재감지방법에 적용되는 화재감지 신경망의 구조도이다. 이하, 도 2를 참조한다.
도 3은 CBS 모듈과 C3_F 모듈의 구조를 도시한 것이다.
도 4는 C3Ghost 모듈의 구조를 도시한 것이다.
도 5는 화재감지 신경망의 훈련을 위한 데이터셋을 보인 것이다.
도 6은 화재감지 신경망의 훈련 결과를 보인 것이다.
도 7은 손실함수의 훈련 결과를 보인 것이다.
도 8은 mAP_0.5 평가 결과를 나타낸 것이고, 도 9는 mAP_0.5:0.05 평가 결과를 나타낸 것이다.
도 10은 PR곡선(Precision-recall curve)을 채용하여 신경망의 정확도를 평가한 결과를 나타낸 것이다.
도 11은 화재감지 신경망이 현실환경에서도 인식이 가능한지 검증한 결과를 나타낸 것이다.
1 is a structural diagram of a fire detection neural network according to an embodiment of the present invention.
2 is a structural diagram of a fire detection neural network applied to a fire detection method according to an embodiment of the present invention. Hereinafter, reference is made to FIG. 2 .
Figure 3 shows the structure of the CBS module and the C3_F module.
4 shows the structure of the C3Ghost module.
5 shows a dataset for training a fire detection neural network.
6 shows the training result of the fire detection neural network.
7 shows the training result of the loss function.
8 shows the mAP_0.5 evaluation result, and FIG. 9 shows the mAP_0.5:0.05 evaluation result.
10 shows the result of evaluating the accuracy of the neural network by employing a precision-recall curve (PR curve).
11 shows the result of verifying whether the fire detection neural network can be recognized in a real environment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

YOLO는 한번에 보고 바로 처리를 하겠다(You Only Look Once)라는 의미로, YOLO 신경망은 속도가 빠르다는 장점을 내세운 객체 감지(Object Detection) 신경망입니다. YOLO는 yolov1부터 2020년 7월 기준으로 yolov5까지 공개되어 개발자분들 뿐만 아니라 비전공자들부터 학생들까지 많은 사람들이 활용하고 있다.YOLO stands for You Only Look Once, and YOLO neural network is an object detection neural network with the advantage of being fast. YOLO has been released from yolov1 to yolov5 as of July 2020, and is used by many people, from non-majors to students as well as developers.

YOLO 신경망은 단일 신경망 구조이기 때문에 구성이 단순하며 빠르고, 주변 정보까지 학습하며 이미지 전체를 처리하기 때문에 background error가 적으며, 훈련 단계에서 보지 못한 새로운 이미지에 대해서도 검출 정확도가 높은 장점이 있는 반면 SOTA 객체 검출 모델에 비해 정확도(mAP)가 다소 떨어지는 단점이 있다.Since the YOLO neural network is a single neural network structure, the configuration is simple and fast, it learns surrounding information and processes the entire image, so the background error is low, and the detection accuracy is high even for new images not seen in the training stage. Compared to the detection model, the accuracy (mAP) is somewhat lower.

본 발명은, YOLO 신경망을 개선하여 장점인 속도는 살리면서 다소 부족한 정확도를 향상시킨 신규 신경망(이하, 'AeryNet'이라고 함.)에 관한 것이다. 실시예에서, AeryNet은, YOLOv5 신경망을 구성하는 C3 모듈 대신 G3Ghost 모듈을 적용한 백본 신경망(Backbone network)을 구성하고, CBS 모듈을 기반으로 새롭게 개발한 C3_F 모듈을 이용하여 넥 신경망(Neck network)을 구성한 것이다.The present invention relates to a novel neural network (hereinafter, referred to as 'AeryNet') that improves somewhat insufficient accuracy while maintaining speed, which is an advantage, by improving the YOLO neural network. In the embodiment, AeryNet constructs a Backbone network to which the G3Ghost module is applied instead of the C3 module constituting the YOLOv5 neural network, and uses the newly developed C3_F module based on the CBS module to configure the Neck network. will be.

도 1은 본 발명의 일 실시예에 따른 화재감지시스템을 도시한 것이다. 도 1을 참조하면, 본 발명의 일 실시예에 따른 화재감지시스템(1)은 영상을 획득하는 영상 획득부(10)와, 영상 획득부(10)에 의해 획득된 영상에서 객체를 식별하는 객체 인식부(20)를 포함할 수 있다.1 shows a fire detection system according to an embodiment of the present invention. Referring to FIG. 1, a fire detection system 1 according to an embodiment of the present invention includes an image acquisition unit 10 that acquires an image, and an object that identifies an object from an image acquired by the image acquisition unit 10. A recognition unit 20 may be included.

객체 인식부(20)는, Aery 신경망 소프트웨어가 기록된 데이터 저장부(22)와, 상기 소프트웨어를 구동하는 프로세서(21)를 포함할 수 있다.The object recognition unit 20 may include a data storage unit 22 in which Aery neural network software is recorded, and a processor 21 that drives the software.

영상 획득부(10)는 실시간으로 주변 영상을 촬영하는 CCTV를 포함할 수 있다. 영상 획득부(10)에 의해 획득된 영상(또는 이미지)은 데이터 저장부(22)에 저장될 수 있고, 프로세서(21)는 Aery 신경망 소프트웨어를 구동하여 데이터 저장부(22)에 저장된 영상으로부터 화재 식별 또는 감지를 실시할 수 있다.The image acquisition unit 10 may include a CCTV that captures surrounding images in real time. The image (or image) acquired by the image acquisition unit 10 may be stored in the data storage unit 22, and the processor 21 drives Aery neural network software to fire from the image stored in the data storage unit 22. Identification or detection may be performed.

도 2는 본 발명의 일 실시예에 따른 화재감지방법에 적용되는 화재감지 신경망의 구조도이다. 이하, 도 2를 참조한다.2 is a structural diagram of a fire detection neural network applied to a fire detection method according to an embodiment of the present invention. Hereinafter, reference is made to FIG. 2 .

본 발명의 일 실시예에 따른 화재감지방법은, 화재감지 신경망(Aery 신경망)을 바탕으로 입력 이미지로부터 화재를 감지한다. 상기 입력 이미지는, 영상 획득부(10)에 의해 획득된 영상(이미지)일 수 있다.A fire detection method according to an embodiment of the present invention detects a fire from an input image based on a fire detection neural network (Aery neural network). The input image may be a video (image) acquired by the image acquiring unit 10 .

상기 화재감지 신경망은 백본 신경망(100, Backbone network), 넥 신경망(200, Neck network) 및 헤드 신경망(300, Head network)를 포함할 수 있다. 백본 신경망(100), 넥 신경망(200) 및/또는 헤드 신경망(300)은 YOLO 신경망을 기반으로 개선한 것일 수 있다. 실시예에서는 YOLOv5를 개선한 것이나, 반드시 이에 한정되어야 하는 것은 아니다.The fire detection neural network may include a backbone neural network (100), a neck network (200), and a head neural network (300). The backbone neural network 100, the neck neural network 200, and/or the head neural network 300 may be improved based on the YOLO neural network. In the embodiment, YOLOv5 is improved, but it is not necessarily limited thereto.

백본 신경망(100)은 입력 이미지를 특징맵(feature map)으로 변환할 수 있고, 헤드 신경망(300)은 특징맵의 위치(location) 작업을 하는 것으로 클래스 예측(predict classes)과 바운딩 박스(bounding box) 작업을 수행할 수 있다. 그리고, 넥 신경망(200)은 백본 신경망(100)과 헤드 신경망(200)을 연결하는 부분으로, 특징맵을 정제하고 재구성하는 역할을 할 수 있다.The backbone neural network 100 can convert an input image into a feature map, and the head neural network 300 performs a location operation of the feature map to predict classes and bounding boxes. ) can be performed. Also, the neck neural network 200 is a part that connects the backbone neural network 100 and the head neural network 200, and can play a role in refining and reconstructing feature maps.

한편, 백본 신경망(100)은, 컨볼루션 모듈(110), N개의 백본 서브 신경망(120, 130, 140, 150), SPPF 모듈(160) 및 컨볼루션 모듈(170)을 포함할 수 있다.Meanwhile, the backbone neural network 100 may include a convolution module 110 , N backbone sub neural networks 120 , 130 , 140 , and 150 , an SPPF module 160 , and a convolution module 170 .

컨볼루션 모듈(110)로 이미지가 입력되며, 상기 이미지는 영상 획득부(10)에 의해 획득된 것일 수 있다.An image is input to the convolution module 110, and the image may be acquired by the image acquisition unit 10.

N개의 백본 서브 신경망(120, 130, 140, 150)은 서로 직렬로 연결되어 앞의 백본 서브 신경망의 출력이 뒤의 백본 서브 신경망의 입력이 되도록 구성되어 있다. 각각의 백본 서브 신경망(120, 130, 140, 150)은 고스트넷(GhostNet)의 컨볼루션 모듈(121, 131, 141, 151)과, 상기 고스트넷의 컨볼루션 모듈과 직렬로 연결된 C3Ghost모듈(122, 132, 142, 152)을 포함할 수 있다. The N backbone sub-neural networks 120, 130, 140, and 150 are connected in series to each other so that the output of the previous backbone sub-neural network becomes the input of the backbone sub-neural network. Each of the backbone sub-neural networks 120, 130, 140, and 150 has a convolution module 121, 131, 141, and 151 of GhostNet and a C3Ghost module 122 connected in series with the convolution module of GhostNet. , 132, 142, 152).

N개의 백본 서브 신경망(120, 130, 140, 150) 중 적어도 하나로부터 출력된 결과는 넥 신경망(200)을 구성하는 컨케트네이트 모듈('Cancat', Concatenate module)로 입력될 수 있다. 실시예에서 백본 신경망(100)은 4개(N=4)의 백본 서브 신경망(120, 130, 140, 150)을 포함하고, 2번째 백본 서브 신경망(130)의 출력과 3번째 백본 서브 신경망(140)의 출력이 넥 신경망(200)의 두 개의 컨케트네이트 모듈(203, 207)로 각각 입력된다.A result output from at least one of the N backbone sub-neural networks 120 , 130 , 140 , and 150 may be input to a concatenate module ('Cancat', Concatenate module) constituting the neck neural network 200 . In the embodiment, the backbone neural network 100 includes four (N=4) backbone sub neural networks 120, 130, 140, and 150, and the output of the second backbone sub neural network 130 and the third backbone sub neural network ( 140) is input to the two concatenate modules 203 and 207 of the neck neural network 200, respectively.

한편, C3Ghost 모듈(122, 132, 142, 152)의 구조는 도 4에 도시된 것처럼, 고스트넷의 컨볼루션(GhostConv)과 보틀넥(GhostBottelneck)을 기반으로 구성된 것으로 이미 잘 알려진 것이며, 이하, 구체적인 설명이 없더라도 아래 참고문헌들에 개시된 내용들을 원용하는 것으로 한다.On the other hand, the structure of the C3Ghost module (122, 132, 142, 152) is already well known as it is configured based on GhostNet's convolution (GhostConv) and bottleneck (GhostBottelneck), as shown in FIG. Even if there is no explanation, it is assumed that the contents disclosed in the references below are used.

참고문헌 1: Yang,W.; Ma, X.; Hu,W.; Tang, P. Lightweight Blueberry Fruit Recognition Based on Multi-Scale and Attention Fusion NCBAM. Agronomy 2022, 12, 2354. https://doi.org/10.3390/agronomy12102354 Reference 1: Yang, W.; Ma, X.; Hu, W.; Tang, P. Lightweight Blueberry Fruit Recognition Based on Multi-Scale and Attention Fusion NCBAM. Agronomy 2022, 12, 2354. https://doi.org/10.3390/agronomy12102354

참고문헌 2: Citation: Chen, X.; Lian, Q.; Chen, X.; Shang, J. Surface Crack Detection Method for Coal Rock Based on Improved YOLOv5. Appl. Sci. 2022, 12, 9695. https://doi.org/10.3390/app12199695Reference 2: Citation: Chen, X.; Lian, Q.; Chen, X.; Shang, J. Surface Crack Detection Method for Coal Rock Based on Improved YOLOv5. Appl. Sci. 2022, 12, 9695. https://doi.org/10.3390/app12199695

SPPF 모듈(160)은 YOLOv5의 SPP(Spatial Pyramid Pooling) 모듈을 개선한 것으로(참고문헌 1, 2 참조), N번째의 백본 서브 신경망(150)의 출력단에 연결될 수 있다. 즉, N번재 백본 서브 신경망(150)의 C3Ghost 모듈(152)로부터 출력된 결과가 SPPF 모듈(160)로 입력될 수 있다.The SPPF module 160 is an improved SPP (Spatial Pyramid Pooling) module of YOLOv5 (see References 1 and 2), and can be connected to the output terminal of the N-th backbone sub-neural network 150. That is, a result output from the C3Ghost module 152 of the Nth backbone sub-neural network 150 may be input to the SPPF module 160.

컨볼루션 모듈(170)은 SPPF 모듈(160)의 출력단에 연결될 수 있다.The convolution module 170 may be connected to the output terminal of the SPPF module 160.

넥 신경망(200)은, 컨볼루션 모듈(170)의 출력이 입력되는 CBS 모듈(201)과, CBS 모듈(201)의 출력단에 연결된 업샘플 모듈(upsample module, 202)과, 업샘플 모듈(202)의 출력단에 연결된 컨케트네이트 모듈(203)을 포함할 수 있다.The neck neural network 200 includes a CBS module 201 to which the output of the convolution module 170 is input, an upsample module 202 connected to the output terminal of the CBS module 201, and an upsample module 202 ) may include a concatenate module 203 connected to the output terminal.

CBS 모듈(201)은, 도 3에 도시된 바와 같이 컨볼루션 모듈(conv), 배치 정규화 모듈(BatchNorm) 및 SILU 모듈(Sigmoid Linear Unit, SILU)가 직렬로 연결된 구조일 수 있다. As shown in FIG. 3, the CBS module 201 may have a structure in which a convolution module (conv), a batch normalization module (BatchNorm), and a SILU module (Sigmoid Linear Unit, SILU) are connected in series.

CBS 모듈(201)은 잘 알려진 것으로, 이하, 구체적인 설명이 없더라도 아래 참고문헌 3에 개시된 내용들을 원용하는 것으로 한다.The CBS module 201 is well known, and even if there is no specific description, the contents disclosed in Reference 3 below will be used.

참고문헌 3: Qingqing Xu, Zhiyu Zhu, Huilin Ge, Zheqing Zhang, Xu Zang, "Effective Face Detector Based on YOLOv5 and Superresolution Reconstruction", Computational and Mathematical Methods in Medicine, 9 pages, 2021Reference 3: Qingqing Xu, Zhiyu Zhu, Huilin Ge, Zheqing Zhang, Xu Zang, "Effective Face Detector Based on YOLOv5 and Superresolution Reconstruction", Computational and Mathematical Methods in Medicine, 9 pages, 2021

컨볼루션 모듈(170)의 출력이 CBS 모듈(201)을 통과한 후 업샘플 모듈(202)에서 업샘플링(up sampling)된 후 컨케트네이트 모듈(203)으로 입력될 수 있다. 또한, N-1번째 백본 서브 모듈(140)의 출력도 컨케트네이트 모듈(203)로 입력되어, 상기한 업샘플링된 결과와 접합(Concatenate)될 수 있다.The output of the convolution module 170 may pass through the CBS module 201, be up-sampled in the up-sample module 202, and then be input to the concatenate module 203. In addition, the output of the N-1th backbone submodule 140 may also be input to the concatenate module 203 and concatenated with the above-described upsampled result.

컨케트네이트 모듈(203)에서 접합된 결과는 C3_F 모듈(204)로 입력될 수 있다. C3_F 모듈(204)은, 도 3에 도시된 바와 같이, 직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹과, 상기 CBS 그룹과 병렬로 연결된 CBS 모듈을 포함할 수 있다. 그리고, 상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈과, 상기 컨케트네이트 모듈의 출력단에는 CBS 모듈이 더 연결되도록 구성된다.The concatenated result in the concatenate module 203 may be input to the C3_F module 204. As shown in FIG. 3, the C3_F module 204 may include a CBS group composed of three CBS modules connected in series and a CBS module connected in parallel with the CBS group. Further, a concatenate module connecting the output of the CBS group and the output of the CBS module connected in parallel, and a CBS module are further connected to the output terminal of the concatenate module.

한편, 넥 신경망(300)은, C3_F 모듈(204)의 출력을 입력 받는 CBS 모듈(205)과, CBS 모듈(205)의 출력을 업샘플링시키는 업샘플 모듈(206)과, 업샘플 모듈(206)의 출력단에 연결된 컨케트네이트 모듈(207)을 더 포함할 수 있다.Meanwhile, the neck neural network 300 includes the CBS module 205 receiving the output of the C3_F module 204, the upsampling module 206 upsampling the output of the CBS module 205, and the upsampling module 206. ) may further include a concatenate module 207 connected to the output terminal.

N-2 번째 백본 서브 신경망(130)의 출력은 컨케트네이트 모듈(207)로도 입력이 이루어져, 업샘플 모듈(206)의 출력과 접합된다.The output of the N−2 th backbone sub-neural network 130 is also input to the concatenate module 207, and is spliced with the output of the upsample module 206.

컨케트네이트 모듈(207)의 출력단에는 C3_F 모듈(208)이 연결될 수 있다. C3_F(208)로부터 출력된 결과는 헤드 신경망(300)의 컨볼루션 모듈(301)로 입력될 수 있다.The C3_F module 208 may be connected to the output terminal of the concatenate module 207 . A result output from C3_F 208 may be input to the convolution module 301 of the head neural network 300 .

한편, C3_F 모듈(208)의 출력단에는 CBS 모듈(209)이 연결될 수 있다. 그리고, CBS 모듈(209)의 출력은 다시 컨케트네이트 모듈(210)로 입력되며, 이때 컨케트네이트 모듈(210)에는 전술한 CBS 모듈(205)의 출력도 함께 입력되어 양자가 접합될 수 있다.Meanwhile, the CBS module 209 may be connected to the output terminal of the C3_F module 208. Then, the output of the CBS module 209 is input again to the concatenate module 210, and at this time, the output of the aforementioned CBS module 205 is also input to the concatenate module 210 so that both can be joined. .

이렇게 접합된 결과는 다시 C3_F 모듈(211)을 통과한 후 헤드 신경망(300)의 컨볼루션 모듈(302)로 전달되며, 이와 동시에 C3_F 모듈(211)의 출력단에는 CBS 모듈(212)이 더 연결되어, 상기 접합된 결과가 CBS 모듈(212)로도 입력된다.The combined result passes through the C3_F module 211 again and is then transferred to the convolution module 302 of the head neural network 300. At the same time, the CBS module 212 is further connected to the output of the C3_F module 211. , the combined result is also input to the CBS module 212.

CBS 모듈(212)의 출력단에는 컨케트네이트 모듈(213)이 연결될 수 있다. CBS 모듈(201)의 출력과 CBS 모듈(212)의 출력이 컨케트네이트 모듈(213)에서 접합되고, 그 결과는 C3_F 모듈(214)을 통과한 후 헤드 신경망(300)의 컨볼루션 모듈(303)로 입력된다.A concatenate module 213 may be connected to an output terminal of the CBS module 212 . The output of the CBS module 201 and the output of the CBS module 212 are concatenated in the concatenate module 213, and the result is passed through the C3_F module 214 and then the convolution module 303 of the head neural network 300 ) is entered.

한편, 영상 획득부(10)가 화재가 찍힌 사진(예를 들어, 연기나 불꽃이 찍힌 사진)을 촬영하여 얻은 이미지를 화재감지 신경망이 실제 화재로 오인하는 것을 방지하기 위해 신경망을 훈련(training)시킬 필요가 있다. 이를 위한 Dataset을 준비하고, 별도의 Class로 라벨링하여 신경망을 훈련시켰으며, 도 5는 실시예에 적용한 가짜 불과 연기를 구분하기 위한 데이터셋을 보인 것으로, 휴대폰 및 기타 사진의 형태로 제공되는 화면에서 불과 연기를 추출하여 Fake fire의 Class를 지정하여 신경망을 훈련시켰다.On the other hand, in order to prevent the fire detection neural network from mistaking an image obtained by the image acquisition unit 10 taking a picture of a fire (eg, a picture of smoke or flame) as an actual fire, the neural network is trained. need to do it A dataset was prepared for this, and the neural network was trained by labeling it as a separate class. Fire and smoke were extracted, and the fake fire class was designated to train the neural network.

실시예에서 신경망을 훈련하기 위한 손실함수는 다음의 식 (1) 과 같이 정의하였다.In the example, the loss function for training the neural network was defined as Equation (1) below.

식(1)Equation (1)

Figure 112022114913535-pat00001
Figure 112022114913535-pat00001

여기서 lbox는 bounding box regression 손실함수를 나타내고, lcls는 clssification 손실함수를 나타내며, lobj는 object의 confidence 손실함수를 각각 나타낸다. lbox, lcls, 그리고 lobj의 수식은 각각 아래의 식 (2), (3), 그리고 (4)와 같이 정의한다. Here, l box represents the bounding box regression loss function, l cls represents the clssification loss function, and l obj represents the object's confidence loss function, respectively. The formulas for l box , l cls , and l obj are defined as Equations (2), (3), and (4) below, respectively.

식 (2)Equation (2)

Figure 112022114913535-pat00002
Figure 112022114913535-pat00002

식(3)Equation (3)

Figure 112022114913535-pat00003
Figure 112022114913535-pat00003

식(4)Equation (4)

Figure 112022114913535-pat00004
Figure 112022114913535-pat00004

여기서,

Figure 112022114913535-pat00005
는 position loss coefficient를 의미하며,
Figure 112022114913535-pat00006
는 category loss coefficient를 나타내고, x, y은 대상의 실재 좌표를 나타낸다. 그리고, w, h은 대상의 넓이와 높이를 나타낸다.here,
Figure 112022114913535-pat00005
means position loss coefficient,
Figure 112022114913535-pat00006
represents the category loss coefficient, and x and y represent the actual coordinates of the target. And, w and h represent the width and height of the object.

YOLOv5에서는 Bounding box가 겹치는 문제를 해결하기 위해서 GIoU를 손실함수로 사용하여, 최적의 프레임을 구한다. 식 (5)와 (6)은 제안 신경망에 사용된 GIoU 손실함수를 정의한다.In YOLOv5, to solve the problem of overlapping bounding boxes, GIoU is used as a loss function to find the optimal frame. Equations (5) and (6) define the GIoU loss function used in the proposed neural network.

식(5)Equation (5)

Figure 112022114913535-pat00007
Figure 112022114913535-pat00007

식(6)Equation (6)

Figure 112022114913535-pat00008
Figure 112022114913535-pat00008

여기서, C는 A와 B를 포함하는 가장 작은 bounding box를 나타낸다. GIoU는 A와 B의 상황을 획득하고, IoU와 유사한 스케일 불변특성을 가지고 있다. GIoU는 IoU의 하한으로 볼 수 있다. GIoU는 커버영역 뿐만 아니라 다른 중복되지 않는 영역에 초점을 맞추고 있어 둘 사이의 교차 수준의 미러 수준을 높일 수 있다.Here, C represents the smallest bounding box containing A and B. GIoU acquires the situations of A and B, and has scale invariance similar to IoU. GIoU can be viewed as the lower limit of IoU. GIoU focuses on the coverage area as well as other non-overlapping areas, allowing the mirror level of the crossover level between the two to be increased.

도 6은 신경망의 훈련 결과이다. 300 epochs동안 각각의 loss(box, obj, class)들은 0에 수렴하는 것을 확인할 수 있다. 수식 (1)에 의해서 제안된 신경망의 loss는 약 0.029로서 정상적인 학습이 진행된 것을 알 수 있으며, 도 7이 손실함수의 훈련 결과이다.6 is a training result of a neural network. It can be seen that each loss (box, obj, class) converges to 0 during 300 epochs. The loss of the neural network proposed by Equation (1) is about 0.029, indicating that normal learning has progressed, and FIG. 7 shows the training result of the loss function.

한편, 신경망에서의 실험결과를 표현하는 방법은 여러가지가 존재한다. 본 실시예에서는 precision, recall, average precision(AP), 그리고 mean average precision(mAP)를 평가 기법으로 활용했다. 사용한 평가 수식은 식(7-10)과 같다.On the other hand, there are various ways to express the experimental results in the neural network. In this embodiment, precision, recall, average precision (AP), and mean average precision (mAP) were used as evaluation techniques. The evaluation formula used is shown in Equation (7-10).

식(7)Equation (7)

Figure 112022114913535-pat00009
Figure 112022114913535-pat00009

식(8)Equation (8)

Figure 112022114913535-pat00010
Figure 112022114913535-pat00010

식(9)Equation (9)

Figure 112022114913535-pat00011
Figure 112022114913535-pat00011

식(10)Eq(10)

Figure 112022114913535-pat00012
Figure 112022114913535-pat00012

수식에서 TP는 true positive, FP는 false positive, 그리고 FN은 false negative를 나타낸다. 각각 수식에 따른 결과는 아래 [표 1]과 같다. 비교신경망은 Yolov5를 채용하였다.In the formula, TP represents true positive, FP represents false positive, and FN represents false negative. The results according to each formula are shown in [Table 1] below. The comparison neural network adopted Yolov5.

ParameterParameter Yolov5Yolov5 AeryNetAeryNet mAP_0.5mAP_0.5 0,9560,956 0,960 (+0.4 % )0,960 (+0.4%) mAP_0.5:0.95mAP_0.5:0.95 0,6830,683 0,690 ( +1.02%)0,690 ( +1.02%) PrecisionPrecision 0,9190,919 0,9240,924 RecallRecall 0,9260,926 0,9200,920

[표 1]에서 보이는 바와 같이 본 실시예에 따른 신경망이 Yolov5 대비 mAP_0.5와 mAP_0.5:0.95에서 각각 0.4%와 1.02%의 성능향상을 보인다. 도 8은 mAP_0.5 평가 결과를 나타낸 것이고, 도 9는 mAP_0.5:0.05 평가 결과를 나타낸 것이다.As shown in [Table 1], the neural network according to this embodiment shows performance improvement of 0.4% and 1.02%, respectively, in mAP_0.5 and mAP_0.5:0.95 compared to Yolov5. 8 shows the mAP_0.5 evaluation result, and FIG. 9 shows the mAP_0.5:0.05 evaluation result.

한편, 신경망이 화재로 예측을 했는데, 그 중에 화재일 경우가 얼마나 되는지, 그리고 실재 화재에서 신경망이 화재로 예측한 결과가 어떻게 되는지 나타내는 지표가 필요하다. 본 실시예에서는 PR곡선(Precision-recall curve)을 채용하여 평가하였다. 평가 결과는 도 10과 같다.On the other hand, the neural network predicted a fire, and we need an indicator that indicates how many of them are fires, and what the result of the neural network predicting a fire in an actual fire is. In this embodiment, PR curve (precision-recall curve) was adopted and evaluated. The evaluation results are shown in FIG. 10 .

도 10에서 보는 바와 같이 불과 연기를 제대로 인식하는 값은 각각 0.954와 0.966임을 알 수 있고, 이것은 실재 환경에서도 적용할 수 있는 값이다. 현실환경에서 인식이 가능한지 검증한 결과는 도 11에 나타냈다.As shown in FIG. 10, it can be seen that the values for properly recognizing fire and smoke are 0.954 and 0.966, respectively, which are values that can be applied even in real environments. The result of verifying whether recognition is possible in a real environment is shown in FIG. 11 .

도 11에서 확인할 수 있는 사항은 실재 불과 연기에 대해서는 본 실시예의 신경망이 정확히 추론을 하는 것과 휴대폰 화면과 사진 등 거짓 불을 영상 획득부(10)에 인식하려 했을 경우는 도 11의 (c)에서와 같이 인식을 하지 않는 것을 확인할 수 있다. What can be confirmed in FIG. 11 is that the neural network of this embodiment accurately infers real fire and smoke, and when trying to recognize false fire such as a mobile phone screen and a picture in the image acquisition unit 10, in FIG. 11 (c) It can be confirmed that it is not recognized as such.

한편, 아래 표 2에서 보이는 바와 같이 Google colab 환경에서 검증한 결과, 논문에서 제안한 신경망이 약40ms이상 빠른 속도로 추론함을 나타내고 있으며, 이는 640*480 사이즈의 이미지 1000장을 추론한 결과이다.On the other hand, as shown in Table 2 below, the results of verification in the Google colab environment indicate that the neural network proposed in the paper infers at a speed of about 40 ms or more, which is the result of inferring 1000 images of 640 * 480 size.

DeviceDevice Yolov5Yolov5 AeryNetAeryNet CPU(Google colab)CPU (Google Colab) 194.2ms194.2ms 152.9ms152.9ms

한편, AeryNet 및/또는 전술한 화재감지방법은 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램 형태로 제공될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에는, 일시적이지 않은 유형의 매체(nontransitory computer recording medium)(예를 들어, 각종 주기억 장치 또는 보조 기억 장치) 기록 매체 뿐만 아니라, 전파 신호(transitory computer recording medium)(예를 들어, 네트워크를 통해 제공 가능한 데이터 신호)도 포함된다.Meanwhile, AeryNet and/or the fire detection method described above may be provided in the form of a program stored in a computer readable recording medium. The computer-readable recording medium includes a non-transitory computer recording medium (for example, various main storage devices or auxiliary storage devices) as well as a radio signal (transitory computer recording medium) (for example, , data signals that can be provided through the network) are also included.

Claims (5)

화재감지 신경망을 바탕으로 입력 이미지로부터 화재를 감지하는 화재감지방법에 있어서,
상기 화재감지 신경망은 백본(Backbone) 신경망(100), 넥(Neck) 신경망(200) 및 헤드(Head) 신경망(300)을 포함하고,
상기 백본 신경망(100)은,
상기 이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈(110);
상기 제 1 컨볼루션 모듈(110)의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망(120, 130, 140, 150);
N번째의 백본 서브 신경망(150)의 출력단에 연결된 SPPF 모듈(160); 및
상기 SPPF 모듈(160)의 출력단에 연결된 제 2 컨볼루션 모듈(170)을 포함하고,
상기 백본 서브 신경망(120, 130, 140, 150)은,
고스트넷(GhostNet)의 컨볼루션 모듈(121, 131, 141, 151); 및
상기 고스트넷의 컨볼루션 모듈(121, 131, 141, 151)과 직렬로 연결된 C3Ghost모듈(122, 132, 142, 152)을 포함하고,
상기 넥 신경망(200)은,
상기 제 2 컨볼루션 모듈(170)의 출력을 CBS 모듈(201)을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망(140)의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈(204)을 통과시키도록 구성되고,
상기 제 1 C3_F모듈(204)은,
직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹;
상기 CBS 그룹과 병렬로 연결된 CBS 모듈;
상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈; 및
상기 컨케트네이트 모듈의 출력단에 연결된 CBS 모듈을 포함하는 화재감지방법.
A fire detection method for detecting a fire from an input image based on a fire detection neural network,
The fire detection neural network includes a backbone neural network 100, a neck neural network 200, and a head neural network 300,
The backbone neural network 100,
a first convolution module 110 to which the image is input;
N backbone sub-neural networks 120, 130, 140, 150 connected in series to process the output of the first convolution module 110;
an SPPF module 160 connected to an output terminal of the N-th backbone sub-neural network 150; and
A second convolution module 170 connected to the output terminal of the SPPF module 160,
The backbone sub-neural networks 120, 130, 140, and 150,
Convolution modules (121, 131, 141, 151) of GhostNet (GhostNet); and
Includes C3Ghost modules (122, 132, 142, 152) connected in series with the convolution modules (121, 131, 141, 151) of the GhostNet,
The neck neural network 200,
The output of the second convolution module 170 is passed through the CBS module 201, upsampled, and concatenated with the output of the N-1 th backbone sub-neural network 140, and then the first C3_F module (204),
The first C3_F module 204,
CBS group consisting of three CBS modules connected in series;
a CBS module connected in parallel with the CBS group;
a concatenate module that connects the output of the CBS group and the output of the CBS module connected in parallel; and
A fire detection method comprising a CBS module connected to the output terminal of the concatenate module.
제 1 항에 있어서,
상기 넥 신경망(200)은,
상기 제 1 C3_F 모듈(204)의 출력을 제 1 CBS 모듈(205)을 통과시킨 후 업샘플링시킨 것을, N-2 번째 백본 서브 신경망(130)의 출력과 접합하는 제 1 컨케트네이트 모듈(207); 및
상기 제 1 컨케트네이트 모듈(207)의 출력을 처리하는 제 2 C3_F 모듈(208)을 더 포함하는 화재감지방법.
According to claim 1,
The neck neural network 200,
A first concatenate module (207) that connects the output of the first C3_F module (204) through the first CBS module (205) and then upsamples the result with the output of the N-2-th backbone sub-neural network (130). ); and
A fire detection method further comprising a second C3_F module (208) processing an output of the first concatenate module (207).
제 2 항에 있어서,
상기 헤드 신경망(300)은,
상기 제 2 C3_F 모듈(208)의 출력이 입력되는 제 3 컨볼루션 모듈(301)을 포함하고,
상기 넥 신경망(200)은,
상기 제 3 컨볼루션 모듈(301)과 병렬로 연결되어 상기 제 2 C3_F 모듈(208)의 출력을 입력 받는 제 2 CBS 모듈(209);
상기 제 2 CBS 모듈(209)의 출력을 상기 제 1 CBS 모듈(205)의 출력과 접합하는 제 2 컨케트네이트 모듈(210); 및
상기 제 2 컨케트네이트 모듈(210)의 출력을 처리하는 제 3 C3_F 모듈(211)을 더 포함하고,
상기 헤드 신경망(300)은,
상기 제 3 C3_F 모듈(211)의 출력을 입력 받는 제 4 컨볼루션 모듈(302)을 더 포함하는 화재감지방법.
According to claim 2,
The head neural network 300,
A third convolution module 301 to which the output of the second C3_F module 208 is input,
The neck neural network 200,
a second CBS module 209 connected in parallel with the third convolution module 301 and receiving an output of the second C3_F module 208;
a second concatenate module (210) that couples the output of the second CBS module (209) with the output of the first CBS module (205); and
Further comprising a third C3_F module 211 processing the output of the second concatenate module 210,
The head neural network 300,
A fire detection method further comprising a fourth convolution module (302) receiving an output of the third C3_F module (211).
제 3 항에 있어서,
상기 넥 신경망(200)은,
상기 제 3 C3_F 모듈(211)의 출력을 입력 받는 제 3 CBS 모듈(212);
상기 제 3 CBS 모듈(212)의 출력과 상기 CBS 모듈(201)의 출력을 접합하는 제 3 컨케트네이트 모듈(213); 및
상기 제 3 컨케트네이트 모듈(213)의 출력을 처리하는 제 4 C3_F 모듈(214)을 더 포함하고,
상기 헤드 신경망(300)은,
상기 제 4 C3_F 모듈(214)의 출력을 입력 받는 제 5 컨볼루션 모듈(303)을 더 포함하는 화재감지방법.
According to claim 3,
The neck neural network 200,
a third CBS module 212 receiving the output of the third C3_F module 211;
a third concatenate module 213 combining an output of the third CBS module 212 and an output of the CBS module 201; and
A fourth C3_F module 214 processing the output of the third concatenate module 213 is further included,
The head neural network 300,
A fire detection method further comprising a fifth convolution module (303) receiving an output of the fourth C3_F module (214).
화재감지 신경망이 프로그램의 형태로 기록된 컴퓨터 판독 가능한 기록 매체에 있어서,
상기 화재감지 신경망은,
백본(Backbone) 신경망(100), 넥(Neck) 신경망(200) 및 헤드(Head) 신경망(300)을 포함하고,
상기 백본 신경망(100)은,
이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈(110);
상기 컨볼루션 모듈(110)의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망(120, 130, 140, 150);
N번째의 백본 서브 신경망(150)의 출력단에 연결된 SPPF 모듈(160); 및
상기 SPPF 모듈(160)의 출력단에 연결된 제 2 컨볼루션 모듈(170)을 포함하고,
상기 백본 서브 신경망(120, 130, 140, 150)은,
고스트넷(GhostNet)의 컨볼루션 모듈(121, 131, 141, 151); 및
상기 고스트넷의 컨볼루션 모듈(121, 131, 141, 151)과 직렬로 연결된 C3Ghost모듈(122, 132, 142, 152)을 포함하고,
상기 넥 신경망(200)은,
상기 컨볼루션 모듈(170)의 출력을 CBS 모듈(201)을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망(140)의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈(204)을 통과시키도록 구성되고,
상기 제 1 C3_F모듈(204)은,
직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹;
상기 CBS 그룹과 병렬로 연결된 CBS 모듈;
상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈; 및
상기 컨케트네이트 모듈의 출력단에 연결된 CBS 모듈을 포함하는 컴퓨터 판독 가능한 기록 매체.
In the computer readable recording medium in which the fire detection neural network is recorded in the form of a program,
The fire detection neural network,
It includes a Backbone neural network 100, a Neck neural network 200 and a Head neural network 300,
The backbone neural network 100,
A first convolution module 110 to which an image is input;
N backbone sub-neural networks 120, 130, 140, 150 connected in series to process the output of the convolution module 110;
an SPPF module 160 connected to an output terminal of the N-th backbone sub-neural network 150; and
A second convolution module 170 connected to the output terminal of the SPPF module 160,
The backbone sub-neural networks 120, 130, 140, and 150,
Convolution modules (121, 131, 141, 151) of GhostNet (GhostNet); and
Includes C3Ghost modules (122, 132, 142, 152) connected in series with the convolution modules (121, 131, 141, 151) of the GhostNet,
The neck neural network 200,
The output of the convolution module 170 is passed through the CBS module 201, upsampled, and concatenated with the output of the N-1 th backbone sub-neural network 140, and then the first C3_F module 204 ) is configured to pass,
The first C3_F module 204,
CBS group consisting of three CBS modules connected in series;
a CBS module connected in parallel with the CBS group;
Concatenate module for connecting the output of the CBS group and the output of the CBS module connected in parallel; and
A computer readable recording medium comprising a CBS module connected to an output terminal of the concatenate module.
KR1020220142120A 2022-10-31 2022-10-31 Fire detection method using deep learning KR102540208B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220142120A KR102540208B1 (en) 2022-10-31 2022-10-31 Fire detection method using deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220142120A KR102540208B1 (en) 2022-10-31 2022-10-31 Fire detection method using deep learning

Publications (1)

Publication Number Publication Date
KR102540208B1 true KR102540208B1 (en) 2023-06-07

Family

ID=86760704

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220142120A KR102540208B1 (en) 2022-10-31 2022-10-31 Fire detection method using deep learning

Country Status (1)

Country Link
KR (1) KR102540208B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274929A (en) * 2023-11-21 2023-12-22 深圳中科超远科技有限公司 Traffic management method and system based on visual analysis
CN117274192A (en) * 2023-09-20 2023-12-22 重庆市荣冠科技有限公司 Pipeline magnetic flux leakage defect detection method based on improved YOLOv5

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101836038B1 (en) * 2017-04-26 2018-03-08 사단법인 한국화재보험협회 Fire detection system through complex detection of fire element
KR20220150614A (en) * 2021-05-04 2022-11-11 주식회사 케이티 Server, method and computer program for detecting fire

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101836038B1 (en) * 2017-04-26 2018-03-08 사단법인 한국화재보험협회 Fire detection system through complex detection of fire element
KR20220150614A (en) * 2021-05-04 2022-11-11 주식회사 케이티 Server, method and computer program for detecting fire

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274192A (en) * 2023-09-20 2023-12-22 重庆市荣冠科技有限公司 Pipeline magnetic flux leakage defect detection method based on improved YOLOv5
CN117274929A (en) * 2023-11-21 2023-12-22 深圳中科超远科技有限公司 Traffic management method and system based on visual analysis

Similar Documents

Publication Publication Date Title
KR102540208B1 (en) Fire detection method using deep learning
CN108171176B (en) Subway driver emotion identification method and device based on deep learning
US8314854B2 (en) Apparatus and method for image recognition of facial areas in photographic images from a digital camera
CN111899227A (en) Automatic railway fastener defect acquisition and identification method based on unmanned aerial vehicle operation
CN111951212A (en) Method for identifying defects of contact network image of railway
KR101781358B1 (en) Personal Identification System And Method By Face Recognition In Digital Image
KR102195706B1 (en) Method and Apparatus for Detecting Intruder
US9489582B2 (en) Video anomaly detection based upon a sparsity model
CN111563557A (en) Method for detecting target in power cable tunnel
CN110516529A (en) It is a kind of that detection method and system are fed based on deep learning image procossing
US10037467B2 (en) Information processing system
CN110866512B (en) Monitoring camera shielding detection method based on video classification
KR102002812B1 (en) Image Analysis Method and Server Apparatus for Detecting Object
KR102149832B1 (en) Automated Violence Detecting System based on Deep Learning
KR102213494B1 (en) Apparatus and method for identifying action
CN109766755A (en) Face identification method and Related product
CN109271906A (en) A kind of smog detection method and its device based on depth convolutional neural networks
Anala et al. Anomaly detection in surveillance videos
US20200311962A1 (en) Deep learning based tattoo detection system with optimized data labeling for offline and real-time processing
CN115512387A (en) Construction site safety helmet wearing detection method based on improved YOLOV5 model
CN112396023A (en) Fire detection method based on machine learning
Hermina et al. A Novel Approach to Detect Social Distancing Among People in College Campus
CN115719463A (en) Smoke and fire detection method based on super-resolution reconstruction and adaptive extrusion excitation
CN115861915A (en) Fire fighting access monitoring method, fire fighting access monitoring device and storage medium
CN111881984A (en) Target detection method and device based on deep learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant