KR102540208B1 - Fire detection method using deep learning - Google Patents
Fire detection method using deep learning Download PDFInfo
- Publication number
- KR102540208B1 KR102540208B1 KR1020220142120A KR20220142120A KR102540208B1 KR 102540208 B1 KR102540208 B1 KR 102540208B1 KR 1020220142120 A KR1020220142120 A KR 1020220142120A KR 20220142120 A KR20220142120 A KR 20220142120A KR 102540208 B1 KR102540208 B1 KR 102540208B1
- Authority
- KR
- South Korea
- Prior art keywords
- module
- neural network
- output
- cbs
- convolution
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 238000013135 deep learning Methods 0.000 title description 6
- 238000013528 artificial neural network Methods 0.000 claims abstract description 140
- 238000000034 method Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 239000000779 smoke Substances 0.000 description 5
- 238000013500 data storage Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 2
- 235000003095 Vaccinium corymbosum Nutrition 0.000 description 1
- 235000017537 Vaccinium myrtillus Nutrition 0.000 description 1
- 244000077233 Vaccinium uliginosum Species 0.000 description 1
- 235000021014 blueberries Nutrition 0.000 description 1
- 239000003245 coal Substances 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
Abstract
본 발명은, 화재감지 신경망을 바탕으로 입력 이미지로부터 화재를 감지하는 화재감지방법에 관한 것으로, 상기 화재감지 신경망은 백본(Backbone) 신경망, 넥(Neck) 신경망 및 헤드(Head) 신경망을 포함하고, 상기 백본 신경망은, 상기 이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈과, 상기 컨볼루션 모듈의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망과, N번째의 백본 서브 신경망의 출력단에 연결된 SPPF 모듈과, 상기 SPPF 모듈의 출력단에 연결된 제 2 컨볼루션 모듈을 포함하고, 상기 백본 서브 신경망은, 고스트넷(GhostNet)의 컨볼루션 모듈과, 상기 고스트넷의 컨볼루션 모듈과 직렬로 연결된 C3Ghost모듈을 포함하고, 상기 넥 신경망은, 상기 컨볼루션 모듈의 출력을 CBS 모듈을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈을 통과시키도록 구성된다.The present invention relates to a fire detection method for detecting a fire from an input image based on a fire detection neural network, wherein the fire detection neural network includes a backbone neural network, a neck neural network, and a head neural network, The backbone neural network includes a first convolution module to which the image is input, N backbone sub-neural networks serially connected to process outputs of the convolution modules, and an SPPF connected to an output terminal of the N-th backbone sub-neural network. module, and a second convolution module connected to an output terminal of the SPPF module, wherein the backbone sub-neural network includes a GhostNet convolution module and a C3Ghost module serially connected to the GhostNet convolution module. The neck neural network passes the output of the convolution module through the CBS module, upsamples it, concatenates it with the output of the N-1 th backbone sub-neural network, and then passes it through the first C3_F module. is composed of
Description
본 발명은 화재감지방법에 관한 것으로, 보다 상세하게는, 영상 획득부에 의해 획득된 이미지로부터 딥러닝 기반의 화재감지 신경망을 이용하여 빠르고 정확하게 회재를 감지할 수 있는 화재감지방법에 관한 것이다.The present invention relates to a fire detection method, and more particularly, to a fire detection method capable of rapidly and accurately detecting fire by using a deep learning-based fire detection neural network from an image acquired by an image acquisition unit.
화재는 인적, 물적 피해를 일으키는 재난 중의 하나이며, 다양한 원인에 의해서 발생되기도 한다. 특히, 화재는 초기 진압의 성공여부에 따라, 인적, 물적 피해를 최소화할 수 있다. 열 감지 시스템을 비롯한 각종 조기경보시스템이 보급되고 있으며, 최근에는 딥러닝을 이용한 화재감지 시스템의 연구가 활발하게 이루어지고 있다.Fire is one of the disasters that cause human and material damage, and it may be caused by various causes. In particular, fire can minimize human and material damage depending on the success of the initial suppression. Various early warning systems including heat detection systems are being spread, and recently, research on fire detection systems using deep learning has been actively conducted.
현재 시중에 설치되어 CCTV는 개별 또는 여러 개를 모아서 Digital video recorder(DVR)라는 저장장치에 영상을 저장하는 방식이다. 이러한 방식은, 화재 등의 이벤트가 발생했을 때 비로소 DVR을 서버에 연결하고, 상황을 모니터링한다. 이렇게 하는 이유는, 많은 양의 데이터를 모두 서버에서 관리를 하게 될 경우 네트웍 트래픽 관리가 어렵기 때문이다.Currently installed on the market, CCTV is a method of storing images in a storage device called a digital video recorder (DVR) by collecting individual or multiple CCTVs. In this method, when an event such as fire occurs, the DVR is connected to the server and the situation is monitored. The reason for this is that it is difficult to manage network traffic when a large amount of data is managed by the server.
이러한 측면에서, 화재 감지를 위한 인공지능 소프트웨어는 서버가 아닌 DVR에 설치가 되어, 화재가 감지되었을 때 비로소 서버에 이러한 내용을 전달하는 역할을 해야 한다. 그러나, 현재 설치되고 사용중인 DVR에는 GPU가 없다는 단점이 있다.In this respect, artificial intelligence software for fire detection should be installed in the DVR, not the server, and should play a role in delivering this information to the server only when a fire is detected. However, there is a disadvantage that the currently installed and used DVR does not have a GPU.
따라서, CPU로만 운영되는 환경하에서 신경망이 얼마나 빠르게 인식을 할 수 있는지가 중요하며, 기존의 CCTV를 이용할 수 있도록 가벼우면서도 빠르고 정확하게 화재감지가 가능한 딥러닝 아키텍쳐를 개발할 필요가 있다. Therefore, it is important how quickly the neural network can recognize in an environment operated only by the CPU, and it is necessary to develop a lightweight, fast, and accurate deep learning architecture that can detect fires so that existing CCTVs can be used.
최근, 딥러닝을 이용하여, 영상을 분석하고, 화재 여부를 판단하는 방법이 다양하게 연구되고 있다. 화재 감지의 정확도는 상당히 올라간 상태이나, 불을 촬영한 사진을 CCTV에 비출 경우 이를 실제 화재가 발생한 것으로 인식하는 경우가 발생하는 문제가 있다.Recently, various methods of analyzing images and determining whether there is a fire using deep learning have been studied. Although the accuracy of fire detection is considerably improved, there is a problem in that when a picture of a fire is projected onto a CCTV, it is recognized as an actual fire.
본 발명이 해결하고자 하는 과제는, 첫째, CCTV를 통해 촬영된 영상에서, 딥러닝 기반의 인공 신경망을 이용한 추론을 통한 화재를 인지하되, 상기 CCTV가 가짜 불(예를 들어, 불이나 연기를 촬영한 사진)을 촬영한 경우에도 이를 화재로 오인하지 않을 정도로 고도의 정확도를 갖는 화재감지방법을 제공하는 것이다.The problem to be solved by the present invention is, first, to recognize a fire through reasoning using a deep learning-based artificial neural network in an image captured through CCTV, but the CCTV is a fake fire (eg, shooting fire or smoke) It is to provide a fire detection method having a high degree of accuracy so as not to mistake it for a fire even when a picture) is taken.
둘째, CCTV에 구비된 CPU만으로도 충분히 빠르고 정확하게 화재감지를 할 수 있는 가벼우면서도 신속한 추론이 가능한 인공 신경망을 이용한 화재감지방법을 제공하는 것이다.Second, it is to provide a fire detection method using an artificial neural network capable of light and rapid reasoning that can detect fire sufficiently quickly and accurately using only a CPU provided in CCTV.
셋째, YOLOv5의 신경망을 GoshtNet을 참조하여 개선한 신규 신경망을 이용한 화재감지방법을 제공하는 것이다.Third, it is to provide a fire detection method using a new neural network improved by referring to GoshtNet in the YOLOv5 neural network.
본 발명은, 화재감지 신경망을 바탕으로 입력 이미지로부터 화재를 감지하는 화재감지방법에 관한 것으로, 상기 화재감지 신경망은 백본(Backbone) 신경망, 넥(Neck) 신경망 및 헤드(Head) 신경망을 포함한다.The present invention relates to a fire detection method for detecting a fire from an input image based on a fire detection neural network, wherein the fire detection neural network includes a backbone neural network, a neck neural network, and a head neural network.
상기 백본 신경망은, 상기 이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈과, 상기 컨볼루션 모듈의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망과, N번째의 백본 서브 신경망의 출력단에 연결된 SPPF 모듈과, 상기 SPPF 모듈의 출력단에 연결된 제 2 컨볼루션 모듈을 포함한다.The backbone neural network includes a first convolution module to which the image is input, N backbone sub-neural networks serially connected to process outputs of the convolution modules, and an SPPF connected to an output terminal of the N-th backbone sub-neural network. module, and a second convolution module connected to an output terminal of the SPPF module.
상기 백본 서브 신경망은, 고스트넷(GhostNet)의 컨볼루션 모듈과, 상기 고스트넷의 컨볼루션 모듈과 직렬로 연결된 C3Ghost모듈을 포함한다.The backbone sub-neural network includes a GhostNet convolution module and a C3Ghost module serially connected to the GhostNet convolution module.
상기 넥 신경망은, 상기 컨볼루션 모듈의 출력을 CBS 모듈을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈을 통과시키도록 구성된다.The neck neural network passes the output of the convolution module through the CBS module, upsamples it, concatenates it with the output of the N-1 th backbone sub-neural network, and passes it through the first C3_F module. .
상기 제 1 C3_F모듈은, 직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹과, 상기 CBS 그룹과 병렬로 연결된 CBS 모듈과, 상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈과, 상기 컨케트네이트 모듈의 출력단에 연결된 CBS 모듈을 포함한다.The first C3_F module comprises a CBS group consisting of three CBS modules connected in series, a CBS module connected in parallel with the CBS group, and a connet that connects the output of the CBS group and the output of the CBS module connected in parallel. It includes a Nate module and a CBS module connected to an output terminal of the Concatenate module.
상기 넥 신경망은, 상기 제 1 C3_F 모듈의 출력을 제 1 CBS 모듈을 통과시킨 후 업샘플링시킨 것을, N-2 번째 백본 서브 신경망의 출력과 접합하는 제 1 컨케트네이트 모듈과, 상기 제 1 컨케트네이트 모듈의 출력을 처리하는 제 2 C3_F 모듈을 더 포함할 수 있다.The neck neural network includes a first concatenate module that combines the upsampled output of the first C3_F module after passing through the first CBS module with the output of the N-2 th backbone sub-neural network; A second C3_F module processing the output of the Ketnate module may be further included.
상기 헤드 신경망은, 상기 제 2 C3_F 모듈의 출력이 입력되는 제 3 컨볼루션 모듈을 포함할 수 있다.The head neural network may include a third convolution module to which an output of the second C3_F module is input.
상기 넥 신경망은, 상기 제 3 컨볼루션 모듈과 병렬로 연결되어 상기 제 2 C3_F모듈의 출력을 입력 받는 제 2 CBS 모듈과, 상기 제 2 CBS 모듈의 출력을 상기 제 1 CBS 모듈의 출력과 접합하는 제 2 컨케트네이트 모듈과, 상기 제 2 컨케트네이트 모듈의 출력을 처리하는 제 3 C3_F 모듈을 더 포함할 수 있다.The neck neural network includes a second CBS module connected in parallel to the third convolution module and receiving an output of the second C3_F module, and combining the output of the second CBS module with the output of the first CBS module. It may further include a second concatenate module and a third C3_F module processing an output of the second concatenate module.
상기 헤드 신경망은, 상기 제 3 C3_F 모듈의 출력을 입력 받는 제 4 컨볼루션 모듈을 더 포함할 수 있다.The head neural network may further include a fourth convolution module receiving an output of the third C3_F module.
상기 넥 신경망은, 상기 제 3 C3_F 모듈의 출력을 입력 받는 제 3 CBS 모듈과, 상기 제 3 CBS 모듈의 출력과 상기 CBS 모듈의 출력을 접합하는 제 3 컨케트네이트 모듈과, 상기 제 3 컨케트네이트 모듈의 출력을 처리하는 제 4 C3_F 모듈을 더 포함할 수 있다.The neck neural network includes a third CBS module that receives the output of the third C3_F module, a third concatenate module that connects the output of the third CBS module and the output of the CBS module, and the third concatenate A fourth C3_F module processing an output of the Nate module may be further included.
상기 헤드 신경망은, 상기 제 4 C3_F 모듈의 출력을 입력 받는 제 5컨볼루션 모듈을 더 포함할 수 있다.The head neural network may further include a fifth convolution module receiving an output of the fourth C3_F module.
다르게는, 본 발명은 화재감지 신경망이 프로그램의 형태로 기록된 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 상기 화재감지 신경망은, 백본(Backbone) 신경망, 넥(Neck) 신경망 및 헤드(Head) 신경망을 포함하고, 상기 백본 신경망은, 이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈; 상기 컨볼루션 모듈의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망; N번째의 백본 서브 신경망의 출력단에 연결된 SPPF 모듈; 및 상기 SPPF 모듈의 출력단에 연결된 제 2 컨볼루션 모듈을 포함하고, 상기 백본 서브 신경망은, 고스트넷(GhostNet)의 컨볼루션 모듈; 및 상기 고스트넷의 컨볼루션 모듈과 직렬로 연결된 C3Ghost모듈을 포함하고, 상기 넥 신경망은, 상기 컨볼루션 모듈의 출력을 CBS 모듈을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈을 통과시키도록 구성되고, 상기 제 1 C3_F모듈은, 직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹; 상기 CBS 그룹과 병렬로 연결된 CBS 모듈; 상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈; 및 상기 컨케트네이트 모듈의 출력단에 연결된 CBS 모듈을 포함한다.Alternatively, the present invention relates to a computer readable recording medium in which a fire detection neural network is recorded in the form of a program, wherein the fire detection neural network includes a backbone neural network, a neck neural network, and a head neural network. and the backbone neural network includes a first convolution module to which an image is input; N backbone sub-neural networks connected in series to process the output of the convolution module; An SPPF module connected to the output terminal of the N-th backbone sub-neural network; and a second convolution module connected to an output terminal of the SPPF module, wherein the backbone sub-neural network includes a convolution module of GhostNet; and a C3Ghost module serially connected to the convolution module of the ghostnet, wherein the neck neural network passes an output of the convolution module through a CBS module and then upsamples the N-1 th backbone sub-neural network. After concatenating with the output, it is configured to pass a first C3_F module, wherein the first C3_F module includes: a CBS group composed of three CBS modules connected in series; a CBS module connected in parallel with the CBS group; Concatenate module for connecting the output of the CBS group and the output of the CBS module connected in parallel; and a CBS module connected to an output terminal of the concatenate module.
본 발명의 화재감지방법은 첫째, 가짜불을 화재로 오인하지 않을 정도의 고도의 정확도를 갖는다.First, the fire detection method of the present invention has a high level of accuracy that does not mistake a fake fire for a fire.
둘째, GhostNet을 참조하여 기존의 YOLO 신경망을 개선함으로써 보다 정확도를 높일 수 있으면서도, 가볍고 신속한 추론이 가능한 효과가 있다.Second, by improving the existing YOLO neural network by referring to GhostNet, it is possible to increase accuracy and to make light and fast inference.
셋째, 기존의 YOLOv5와 비교하여, 약 1.02%의 정확도가 향상되었으며, 추론시간을 기준으로 YOLOv5 대비 약 40ms이상의 속도 향상을 보이는 효과가 있다.Third, compared to the existing YOLOv5, the accuracy is improved by about 1.02%, and there is an effect of showing a speed improvement of about 40 ms or more compared to YOLOv5 based on the inference time.
도 1은 본 발명의 일 실시예에 따른 화재감지 신경망의 구조도이다.
도 2는 본 발명의 일 실시예에 따른 화재감지방법에 적용되는 화재감지 신경망의 구조도이다. 이하, 도 2를 참조한다.
도 3은 CBS 모듈과 C3_F 모듈의 구조를 도시한 것이다.
도 4는 C3Ghost 모듈의 구조를 도시한 것이다.
도 5는 화재감지 신경망의 훈련을 위한 데이터셋을 보인 것이다.
도 6은 화재감지 신경망의 훈련 결과를 보인 것이다.
도 7은 손실함수의 훈련 결과를 보인 것이다.
도 8은 mAP_0.5 평가 결과를 나타낸 것이고, 도 9는 mAP_0.5:0.05 평가 결과를 나타낸 것이다.
도 10은 PR곡선(Precision-recall curve)을 채용하여 신경망의 정확도를 평가한 결과를 나타낸 것이다.
도 11은 화재감지 신경망이 현실환경에서도 인식이 가능한지 검증한 결과를 나타낸 것이다.1 is a structural diagram of a fire detection neural network according to an embodiment of the present invention.
2 is a structural diagram of a fire detection neural network applied to a fire detection method according to an embodiment of the present invention. Hereinafter, reference is made to FIG. 2 .
Figure 3 shows the structure of the CBS module and the C3_F module.
4 shows the structure of the C3Ghost module.
5 shows a dataset for training a fire detection neural network.
6 shows the training result of the fire detection neural network.
7 shows the training result of the loss function.
8 shows the mAP_0.5 evaluation result, and FIG. 9 shows the mAP_0.5:0.05 evaluation result.
10 shows the result of evaluating the accuracy of the neural network by employing a precision-recall curve (PR curve).
11 shows the result of verifying whether the fire detection neural network can be recognized in a real environment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.
YOLO는 한번에 보고 바로 처리를 하겠다(You Only Look Once)라는 의미로, YOLO 신경망은 속도가 빠르다는 장점을 내세운 객체 감지(Object Detection) 신경망입니다. YOLO는 yolov1부터 2020년 7월 기준으로 yolov5까지 공개되어 개발자분들 뿐만 아니라 비전공자들부터 학생들까지 많은 사람들이 활용하고 있다.YOLO stands for You Only Look Once, and YOLO neural network is an object detection neural network with the advantage of being fast. YOLO has been released from yolov1 to yolov5 as of July 2020, and is used by many people, from non-majors to students as well as developers.
YOLO 신경망은 단일 신경망 구조이기 때문에 구성이 단순하며 빠르고, 주변 정보까지 학습하며 이미지 전체를 처리하기 때문에 background error가 적으며, 훈련 단계에서 보지 못한 새로운 이미지에 대해서도 검출 정확도가 높은 장점이 있는 반면 SOTA 객체 검출 모델에 비해 정확도(mAP)가 다소 떨어지는 단점이 있다.Since the YOLO neural network is a single neural network structure, the configuration is simple and fast, it learns surrounding information and processes the entire image, so the background error is low, and the detection accuracy is high even for new images not seen in the training stage. Compared to the detection model, the accuracy (mAP) is somewhat lower.
본 발명은, YOLO 신경망을 개선하여 장점인 속도는 살리면서 다소 부족한 정확도를 향상시킨 신규 신경망(이하, 'AeryNet'이라고 함.)에 관한 것이다. 실시예에서, AeryNet은, YOLOv5 신경망을 구성하는 C3 모듈 대신 G3Ghost 모듈을 적용한 백본 신경망(Backbone network)을 구성하고, CBS 모듈을 기반으로 새롭게 개발한 C3_F 모듈을 이용하여 넥 신경망(Neck network)을 구성한 것이다.The present invention relates to a novel neural network (hereinafter, referred to as 'AeryNet') that improves somewhat insufficient accuracy while maintaining speed, which is an advantage, by improving the YOLO neural network. In the embodiment, AeryNet constructs a Backbone network to which the G3Ghost module is applied instead of the C3 module constituting the YOLOv5 neural network, and uses the newly developed C3_F module based on the CBS module to configure the Neck network. will be.
도 1은 본 발명의 일 실시예에 따른 화재감지시스템을 도시한 것이다. 도 1을 참조하면, 본 발명의 일 실시예에 따른 화재감지시스템(1)은 영상을 획득하는 영상 획득부(10)와, 영상 획득부(10)에 의해 획득된 영상에서 객체를 식별하는 객체 인식부(20)를 포함할 수 있다.1 shows a fire detection system according to an embodiment of the present invention. Referring to FIG. 1, a
객체 인식부(20)는, Aery 신경망 소프트웨어가 기록된 데이터 저장부(22)와, 상기 소프트웨어를 구동하는 프로세서(21)를 포함할 수 있다.The object recognition unit 20 may include a data storage unit 22 in which Aery neural network software is recorded, and a processor 21 that drives the software.
영상 획득부(10)는 실시간으로 주변 영상을 촬영하는 CCTV를 포함할 수 있다. 영상 획득부(10)에 의해 획득된 영상(또는 이미지)은 데이터 저장부(22)에 저장될 수 있고, 프로세서(21)는 Aery 신경망 소프트웨어를 구동하여 데이터 저장부(22)에 저장된 영상으로부터 화재 식별 또는 감지를 실시할 수 있다.The image acquisition unit 10 may include a CCTV that captures surrounding images in real time. The image (or image) acquired by the image acquisition unit 10 may be stored in the data storage unit 22, and the processor 21 drives Aery neural network software to fire from the image stored in the data storage unit 22. Identification or detection may be performed.
도 2는 본 발명의 일 실시예에 따른 화재감지방법에 적용되는 화재감지 신경망의 구조도이다. 이하, 도 2를 참조한다.2 is a structural diagram of a fire detection neural network applied to a fire detection method according to an embodiment of the present invention. Hereinafter, reference is made to FIG. 2 .
본 발명의 일 실시예에 따른 화재감지방법은, 화재감지 신경망(Aery 신경망)을 바탕으로 입력 이미지로부터 화재를 감지한다. 상기 입력 이미지는, 영상 획득부(10)에 의해 획득된 영상(이미지)일 수 있다.A fire detection method according to an embodiment of the present invention detects a fire from an input image based on a fire detection neural network (Aery neural network). The input image may be a video (image) acquired by the image acquiring unit 10 .
상기 화재감지 신경망은 백본 신경망(100, Backbone network), 넥 신경망(200, Neck network) 및 헤드 신경망(300, Head network)를 포함할 수 있다. 백본 신경망(100), 넥 신경망(200) 및/또는 헤드 신경망(300)은 YOLO 신경망을 기반으로 개선한 것일 수 있다. 실시예에서는 YOLOv5를 개선한 것이나, 반드시 이에 한정되어야 하는 것은 아니다.The fire detection neural network may include a backbone neural network (100), a neck network (200), and a head neural network (300). The backbone
백본 신경망(100)은 입력 이미지를 특징맵(feature map)으로 변환할 수 있고, 헤드 신경망(300)은 특징맵의 위치(location) 작업을 하는 것으로 클래스 예측(predict classes)과 바운딩 박스(bounding box) 작업을 수행할 수 있다. 그리고, 넥 신경망(200)은 백본 신경망(100)과 헤드 신경망(200)을 연결하는 부분으로, 특징맵을 정제하고 재구성하는 역할을 할 수 있다.The backbone
한편, 백본 신경망(100)은, 컨볼루션 모듈(110), N개의 백본 서브 신경망(120, 130, 140, 150), SPPF 모듈(160) 및 컨볼루션 모듈(170)을 포함할 수 있다.Meanwhile, the backbone
컨볼루션 모듈(110)로 이미지가 입력되며, 상기 이미지는 영상 획득부(10)에 의해 획득된 것일 수 있다.An image is input to the
N개의 백본 서브 신경망(120, 130, 140, 150)은 서로 직렬로 연결되어 앞의 백본 서브 신경망의 출력이 뒤의 백본 서브 신경망의 입력이 되도록 구성되어 있다. 각각의 백본 서브 신경망(120, 130, 140, 150)은 고스트넷(GhostNet)의 컨볼루션 모듈(121, 131, 141, 151)과, 상기 고스트넷의 컨볼루션 모듈과 직렬로 연결된 C3Ghost모듈(122, 132, 142, 152)을 포함할 수 있다. The N backbone
N개의 백본 서브 신경망(120, 130, 140, 150) 중 적어도 하나로부터 출력된 결과는 넥 신경망(200)을 구성하는 컨케트네이트 모듈('Cancat', Concatenate module)로 입력될 수 있다. 실시예에서 백본 신경망(100)은 4개(N=4)의 백본 서브 신경망(120, 130, 140, 150)을 포함하고, 2번째 백본 서브 신경망(130)의 출력과 3번째 백본 서브 신경망(140)의 출력이 넥 신경망(200)의 두 개의 컨케트네이트 모듈(203, 207)로 각각 입력된다.A result output from at least one of the N backbone
한편, C3Ghost 모듈(122, 132, 142, 152)의 구조는 도 4에 도시된 것처럼, 고스트넷의 컨볼루션(GhostConv)과 보틀넥(GhostBottelneck)을 기반으로 구성된 것으로 이미 잘 알려진 것이며, 이하, 구체적인 설명이 없더라도 아래 참고문헌들에 개시된 내용들을 원용하는 것으로 한다.On the other hand, the structure of the C3Ghost module (122, 132, 142, 152) is already well known as it is configured based on GhostNet's convolution (GhostConv) and bottleneck (GhostBottelneck), as shown in FIG. Even if there is no explanation, it is assumed that the contents disclosed in the references below are used.
참고문헌 1: Yang,W.; Ma, X.; Hu,W.; Tang, P. Lightweight Blueberry Fruit Recognition Based on Multi-Scale and Attention Fusion NCBAM. Agronomy 2022, 12, 2354. https://doi.org/10.3390/agronomy12102354 Reference 1: Yang, W.; Ma, X.; Hu, W.; Tang, P. Lightweight Blueberry Fruit Recognition Based on Multi-Scale and Attention Fusion NCBAM. Agronomy 2022, 12, 2354. https://doi.org/10.3390/agronomy12102354
참고문헌 2: Citation: Chen, X.; Lian, Q.; Chen, X.; Shang, J. Surface Crack Detection Method for Coal Rock Based on Improved YOLOv5. Appl. Sci. 2022, 12, 9695. https://doi.org/10.3390/app12199695Reference 2: Citation: Chen, X.; Lian, Q.; Chen, X.; Shang, J. Surface Crack Detection Method for Coal Rock Based on Improved YOLOv5. Appl. Sci. 2022, 12, 9695. https://doi.org/10.3390/app12199695
SPPF 모듈(160)은 YOLOv5의 SPP(Spatial Pyramid Pooling) 모듈을 개선한 것으로(참고문헌 1, 2 참조), N번째의 백본 서브 신경망(150)의 출력단에 연결될 수 있다. 즉, N번재 백본 서브 신경망(150)의 C3Ghost 모듈(152)로부터 출력된 결과가 SPPF 모듈(160)로 입력될 수 있다.The
컨볼루션 모듈(170)은 SPPF 모듈(160)의 출력단에 연결될 수 있다.The
넥 신경망(200)은, 컨볼루션 모듈(170)의 출력이 입력되는 CBS 모듈(201)과, CBS 모듈(201)의 출력단에 연결된 업샘플 모듈(upsample module, 202)과, 업샘플 모듈(202)의 출력단에 연결된 컨케트네이트 모듈(203)을 포함할 수 있다.The neck
CBS 모듈(201)은, 도 3에 도시된 바와 같이 컨볼루션 모듈(conv), 배치 정규화 모듈(BatchNorm) 및 SILU 모듈(Sigmoid Linear Unit, SILU)가 직렬로 연결된 구조일 수 있다. As shown in FIG. 3, the
CBS 모듈(201)은 잘 알려진 것으로, 이하, 구체적인 설명이 없더라도 아래 참고문헌 3에 개시된 내용들을 원용하는 것으로 한다.The
참고문헌 3: Qingqing Xu, Zhiyu Zhu, Huilin Ge, Zheqing Zhang, Xu Zang, "Effective Face Detector Based on YOLOv5 and Superresolution Reconstruction", Computational and Mathematical Methods in Medicine, 9 pages, 2021Reference 3: Qingqing Xu, Zhiyu Zhu, Huilin Ge, Zheqing Zhang, Xu Zang, "Effective Face Detector Based on YOLOv5 and Superresolution Reconstruction", Computational and Mathematical Methods in Medicine, 9 pages, 2021
컨볼루션 모듈(170)의 출력이 CBS 모듈(201)을 통과한 후 업샘플 모듈(202)에서 업샘플링(up sampling)된 후 컨케트네이트 모듈(203)으로 입력될 수 있다. 또한, N-1번째 백본 서브 모듈(140)의 출력도 컨케트네이트 모듈(203)로 입력되어, 상기한 업샘플링된 결과와 접합(Concatenate)될 수 있다.The output of the
컨케트네이트 모듈(203)에서 접합된 결과는 C3_F 모듈(204)로 입력될 수 있다. C3_F 모듈(204)은, 도 3에 도시된 바와 같이, 직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹과, 상기 CBS 그룹과 병렬로 연결된 CBS 모듈을 포함할 수 있다. 그리고, 상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈과, 상기 컨케트네이트 모듈의 출력단에는 CBS 모듈이 더 연결되도록 구성된다.The concatenated result in the
한편, 넥 신경망(300)은, C3_F 모듈(204)의 출력을 입력 받는 CBS 모듈(205)과, CBS 모듈(205)의 출력을 업샘플링시키는 업샘플 모듈(206)과, 업샘플 모듈(206)의 출력단에 연결된 컨케트네이트 모듈(207)을 더 포함할 수 있다.Meanwhile, the neck
N-2 번째 백본 서브 신경망(130)의 출력은 컨케트네이트 모듈(207)로도 입력이 이루어져, 업샘플 모듈(206)의 출력과 접합된다.The output of the N−2 th backbone
컨케트네이트 모듈(207)의 출력단에는 C3_F 모듈(208)이 연결될 수 있다. C3_F(208)로부터 출력된 결과는 헤드 신경망(300)의 컨볼루션 모듈(301)로 입력될 수 있다.The
한편, C3_F 모듈(208)의 출력단에는 CBS 모듈(209)이 연결될 수 있다. 그리고, CBS 모듈(209)의 출력은 다시 컨케트네이트 모듈(210)로 입력되며, 이때 컨케트네이트 모듈(210)에는 전술한 CBS 모듈(205)의 출력도 함께 입력되어 양자가 접합될 수 있다.Meanwhile, the
이렇게 접합된 결과는 다시 C3_F 모듈(211)을 통과한 후 헤드 신경망(300)의 컨볼루션 모듈(302)로 전달되며, 이와 동시에 C3_F 모듈(211)의 출력단에는 CBS 모듈(212)이 더 연결되어, 상기 접합된 결과가 CBS 모듈(212)로도 입력된다.The combined result passes through the
CBS 모듈(212)의 출력단에는 컨케트네이트 모듈(213)이 연결될 수 있다. CBS 모듈(201)의 출력과 CBS 모듈(212)의 출력이 컨케트네이트 모듈(213)에서 접합되고, 그 결과는 C3_F 모듈(214)을 통과한 후 헤드 신경망(300)의 컨볼루션 모듈(303)로 입력된다.A
한편, 영상 획득부(10)가 화재가 찍힌 사진(예를 들어, 연기나 불꽃이 찍힌 사진)을 촬영하여 얻은 이미지를 화재감지 신경망이 실제 화재로 오인하는 것을 방지하기 위해 신경망을 훈련(training)시킬 필요가 있다. 이를 위한 Dataset을 준비하고, 별도의 Class로 라벨링하여 신경망을 훈련시켰으며, 도 5는 실시예에 적용한 가짜 불과 연기를 구분하기 위한 데이터셋을 보인 것으로, 휴대폰 및 기타 사진의 형태로 제공되는 화면에서 불과 연기를 추출하여 Fake fire의 Class를 지정하여 신경망을 훈련시켰다.On the other hand, in order to prevent the fire detection neural network from mistaking an image obtained by the image acquisition unit 10 taking a picture of a fire (eg, a picture of smoke or flame) as an actual fire, the neural network is trained. need to do it A dataset was prepared for this, and the neural network was trained by labeling it as a separate class. Fire and smoke were extracted, and the fake fire class was designated to train the neural network.
실시예에서 신경망을 훈련하기 위한 손실함수는 다음의 식 (1) 과 같이 정의하였다.In the example, the loss function for training the neural network was defined as Equation (1) below.
식(1)Equation (1)
여기서 lbox는 bounding box regression 손실함수를 나타내고, lcls는 clssification 손실함수를 나타내며, lobj는 object의 confidence 손실함수를 각각 나타낸다. lbox, lcls, 그리고 lobj의 수식은 각각 아래의 식 (2), (3), 그리고 (4)와 같이 정의한다. Here, l box represents the bounding box regression loss function, l cls represents the clssification loss function, and l obj represents the object's confidence loss function, respectively. The formulas for l box , l cls , and l obj are defined as Equations (2), (3), and (4) below, respectively.
식 (2)Equation (2)
식(3)Equation (3)
식(4)Equation (4)
여기서, 는 position loss coefficient를 의미하며, 는 category loss coefficient를 나타내고, x, y은 대상의 실재 좌표를 나타낸다. 그리고, w, h은 대상의 넓이와 높이를 나타낸다.here, means position loss coefficient, represents the category loss coefficient, and x and y represent the actual coordinates of the target. And, w and h represent the width and height of the object.
YOLOv5에서는 Bounding box가 겹치는 문제를 해결하기 위해서 GIoU를 손실함수로 사용하여, 최적의 프레임을 구한다. 식 (5)와 (6)은 제안 신경망에 사용된 GIoU 손실함수를 정의한다.In YOLOv5, to solve the problem of overlapping bounding boxes, GIoU is used as a loss function to find the optimal frame. Equations (5) and (6) define the GIoU loss function used in the proposed neural network.
식(5)Equation (5)
식(6)Equation (6)
여기서, C는 A와 B를 포함하는 가장 작은 bounding box를 나타낸다. GIoU는 A와 B의 상황을 획득하고, IoU와 유사한 스케일 불변특성을 가지고 있다. GIoU는 IoU의 하한으로 볼 수 있다. GIoU는 커버영역 뿐만 아니라 다른 중복되지 않는 영역에 초점을 맞추고 있어 둘 사이의 교차 수준의 미러 수준을 높일 수 있다.Here, C represents the smallest bounding box containing A and B. GIoU acquires the situations of A and B, and has scale invariance similar to IoU. GIoU can be viewed as the lower limit of IoU. GIoU focuses on the coverage area as well as other non-overlapping areas, allowing the mirror level of the crossover level between the two to be increased.
도 6은 신경망의 훈련 결과이다. 300 epochs동안 각각의 loss(box, obj, class)들은 0에 수렴하는 것을 확인할 수 있다. 수식 (1)에 의해서 제안된 신경망의 loss는 약 0.029로서 정상적인 학습이 진행된 것을 알 수 있으며, 도 7이 손실함수의 훈련 결과이다.6 is a training result of a neural network. It can be seen that each loss (box, obj, class) converges to 0 during 300 epochs. The loss of the neural network proposed by Equation (1) is about 0.029, indicating that normal learning has progressed, and FIG. 7 shows the training result of the loss function.
한편, 신경망에서의 실험결과를 표현하는 방법은 여러가지가 존재한다. 본 실시예에서는 precision, recall, average precision(AP), 그리고 mean average precision(mAP)를 평가 기법으로 활용했다. 사용한 평가 수식은 식(7-10)과 같다.On the other hand, there are various ways to express the experimental results in the neural network. In this embodiment, precision, recall, average precision (AP), and mean average precision (mAP) were used as evaluation techniques. The evaluation formula used is shown in Equation (7-10).
식(7)Equation (7)
식(8)Equation (8)
식(9)Equation (9)
식(10)Eq(10)
수식에서 TP는 true positive, FP는 false positive, 그리고 FN은 false negative를 나타낸다. 각각 수식에 따른 결과는 아래 [표 1]과 같다. 비교신경망은 Yolov5를 채용하였다.In the formula, TP represents true positive, FP represents false positive, and FN represents false negative. The results according to each formula are shown in [Table 1] below. The comparison neural network adopted Yolov5.
[표 1]에서 보이는 바와 같이 본 실시예에 따른 신경망이 Yolov5 대비 mAP_0.5와 mAP_0.5:0.95에서 각각 0.4%와 1.02%의 성능향상을 보인다. 도 8은 mAP_0.5 평가 결과를 나타낸 것이고, 도 9는 mAP_0.5:0.05 평가 결과를 나타낸 것이다.As shown in [Table 1], the neural network according to this embodiment shows performance improvement of 0.4% and 1.02%, respectively, in mAP_0.5 and mAP_0.5:0.95 compared to Yolov5. 8 shows the mAP_0.5 evaluation result, and FIG. 9 shows the mAP_0.5:0.05 evaluation result.
한편, 신경망이 화재로 예측을 했는데, 그 중에 화재일 경우가 얼마나 되는지, 그리고 실재 화재에서 신경망이 화재로 예측한 결과가 어떻게 되는지 나타내는 지표가 필요하다. 본 실시예에서는 PR곡선(Precision-recall curve)을 채용하여 평가하였다. 평가 결과는 도 10과 같다.On the other hand, the neural network predicted a fire, and we need an indicator that indicates how many of them are fires, and what the result of the neural network predicting a fire in an actual fire is. In this embodiment, PR curve (precision-recall curve) was adopted and evaluated. The evaluation results are shown in FIG. 10 .
도 10에서 보는 바와 같이 불과 연기를 제대로 인식하는 값은 각각 0.954와 0.966임을 알 수 있고, 이것은 실재 환경에서도 적용할 수 있는 값이다. 현실환경에서 인식이 가능한지 검증한 결과는 도 11에 나타냈다.As shown in FIG. 10, it can be seen that the values for properly recognizing fire and smoke are 0.954 and 0.966, respectively, which are values that can be applied even in real environments. The result of verifying whether recognition is possible in a real environment is shown in FIG. 11 .
도 11에서 확인할 수 있는 사항은 실재 불과 연기에 대해서는 본 실시예의 신경망이 정확히 추론을 하는 것과 휴대폰 화면과 사진 등 거짓 불을 영상 획득부(10)에 인식하려 했을 경우는 도 11의 (c)에서와 같이 인식을 하지 않는 것을 확인할 수 있다. What can be confirmed in FIG. 11 is that the neural network of this embodiment accurately infers real fire and smoke, and when trying to recognize false fire such as a mobile phone screen and a picture in the image acquisition unit 10, in FIG. 11 (c) It can be confirmed that it is not recognized as such.
한편, 아래 표 2에서 보이는 바와 같이 Google colab 환경에서 검증한 결과, 논문에서 제안한 신경망이 약40ms이상 빠른 속도로 추론함을 나타내고 있으며, 이는 640*480 사이즈의 이미지 1000장을 추론한 결과이다.On the other hand, as shown in Table 2 below, the results of verification in the Google colab environment indicate that the neural network proposed in the paper infers at a speed of about 40 ms or more, which is the result of inferring 1000 images of 640 * 480 size.
한편, AeryNet 및/또는 전술한 화재감지방법은 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램 형태로 제공될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에는, 일시적이지 않은 유형의 매체(nontransitory computer recording medium)(예를 들어, 각종 주기억 장치 또는 보조 기억 장치) 기록 매체 뿐만 아니라, 전파 신호(transitory computer recording medium)(예를 들어, 네트워크를 통해 제공 가능한 데이터 신호)도 포함된다.Meanwhile, AeryNet and/or the fire detection method described above may be provided in the form of a program stored in a computer readable recording medium. The computer-readable recording medium includes a non-transitory computer recording medium (for example, various main storage devices or auxiliary storage devices) as well as a radio signal (transitory computer recording medium) (for example, , data signals that can be provided through the network) are also included.
Claims (5)
상기 화재감지 신경망은 백본(Backbone) 신경망(100), 넥(Neck) 신경망(200) 및 헤드(Head) 신경망(300)을 포함하고,
상기 백본 신경망(100)은,
상기 이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈(110);
상기 제 1 컨볼루션 모듈(110)의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망(120, 130, 140, 150);
N번째의 백본 서브 신경망(150)의 출력단에 연결된 SPPF 모듈(160); 및
상기 SPPF 모듈(160)의 출력단에 연결된 제 2 컨볼루션 모듈(170)을 포함하고,
상기 백본 서브 신경망(120, 130, 140, 150)은,
고스트넷(GhostNet)의 컨볼루션 모듈(121, 131, 141, 151); 및
상기 고스트넷의 컨볼루션 모듈(121, 131, 141, 151)과 직렬로 연결된 C3Ghost모듈(122, 132, 142, 152)을 포함하고,
상기 넥 신경망(200)은,
상기 제 2 컨볼루션 모듈(170)의 출력을 CBS 모듈(201)을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망(140)의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈(204)을 통과시키도록 구성되고,
상기 제 1 C3_F모듈(204)은,
직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹;
상기 CBS 그룹과 병렬로 연결된 CBS 모듈;
상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈; 및
상기 컨케트네이트 모듈의 출력단에 연결된 CBS 모듈을 포함하는 화재감지방법.A fire detection method for detecting a fire from an input image based on a fire detection neural network,
The fire detection neural network includes a backbone neural network 100, a neck neural network 200, and a head neural network 300,
The backbone neural network 100,
a first convolution module 110 to which the image is input;
N backbone sub-neural networks 120, 130, 140, 150 connected in series to process the output of the first convolution module 110;
an SPPF module 160 connected to an output terminal of the N-th backbone sub-neural network 150; and
A second convolution module 170 connected to the output terminal of the SPPF module 160,
The backbone sub-neural networks 120, 130, 140, and 150,
Convolution modules (121, 131, 141, 151) of GhostNet (GhostNet); and
Includes C3Ghost modules (122, 132, 142, 152) connected in series with the convolution modules (121, 131, 141, 151) of the GhostNet,
The neck neural network 200,
The output of the second convolution module 170 is passed through the CBS module 201, upsampled, and concatenated with the output of the N-1 th backbone sub-neural network 140, and then the first C3_F module (204),
The first C3_F module 204,
CBS group consisting of three CBS modules connected in series;
a CBS module connected in parallel with the CBS group;
a concatenate module that connects the output of the CBS group and the output of the CBS module connected in parallel; and
A fire detection method comprising a CBS module connected to the output terminal of the concatenate module.
상기 넥 신경망(200)은,
상기 제 1 C3_F 모듈(204)의 출력을 제 1 CBS 모듈(205)을 통과시킨 후 업샘플링시킨 것을, N-2 번째 백본 서브 신경망(130)의 출력과 접합하는 제 1 컨케트네이트 모듈(207); 및
상기 제 1 컨케트네이트 모듈(207)의 출력을 처리하는 제 2 C3_F 모듈(208)을 더 포함하는 화재감지방법.According to claim 1,
The neck neural network 200,
A first concatenate module (207) that connects the output of the first C3_F module (204) through the first CBS module (205) and then upsamples the result with the output of the N-2-th backbone sub-neural network (130). ); and
A fire detection method further comprising a second C3_F module (208) processing an output of the first concatenate module (207).
상기 헤드 신경망(300)은,
상기 제 2 C3_F 모듈(208)의 출력이 입력되는 제 3 컨볼루션 모듈(301)을 포함하고,
상기 넥 신경망(200)은,
상기 제 3 컨볼루션 모듈(301)과 병렬로 연결되어 상기 제 2 C3_F 모듈(208)의 출력을 입력 받는 제 2 CBS 모듈(209);
상기 제 2 CBS 모듈(209)의 출력을 상기 제 1 CBS 모듈(205)의 출력과 접합하는 제 2 컨케트네이트 모듈(210); 및
상기 제 2 컨케트네이트 모듈(210)의 출력을 처리하는 제 3 C3_F 모듈(211)을 더 포함하고,
상기 헤드 신경망(300)은,
상기 제 3 C3_F 모듈(211)의 출력을 입력 받는 제 4 컨볼루션 모듈(302)을 더 포함하는 화재감지방법.According to claim 2,
The head neural network 300,
A third convolution module 301 to which the output of the second C3_F module 208 is input,
The neck neural network 200,
a second CBS module 209 connected in parallel with the third convolution module 301 and receiving an output of the second C3_F module 208;
a second concatenate module (210) that couples the output of the second CBS module (209) with the output of the first CBS module (205); and
Further comprising a third C3_F module 211 processing the output of the second concatenate module 210,
The head neural network 300,
A fire detection method further comprising a fourth convolution module (302) receiving an output of the third C3_F module (211).
상기 넥 신경망(200)은,
상기 제 3 C3_F 모듈(211)의 출력을 입력 받는 제 3 CBS 모듈(212);
상기 제 3 CBS 모듈(212)의 출력과 상기 CBS 모듈(201)의 출력을 접합하는 제 3 컨케트네이트 모듈(213); 및
상기 제 3 컨케트네이트 모듈(213)의 출력을 처리하는 제 4 C3_F 모듈(214)을 더 포함하고,
상기 헤드 신경망(300)은,
상기 제 4 C3_F 모듈(214)의 출력을 입력 받는 제 5 컨볼루션 모듈(303)을 더 포함하는 화재감지방법.According to claim 3,
The neck neural network 200,
a third CBS module 212 receiving the output of the third C3_F module 211;
a third concatenate module 213 combining an output of the third CBS module 212 and an output of the CBS module 201; and
A fourth C3_F module 214 processing the output of the third concatenate module 213 is further included,
The head neural network 300,
A fire detection method further comprising a fifth convolution module (303) receiving an output of the fourth C3_F module (214).
상기 화재감지 신경망은,
백본(Backbone) 신경망(100), 넥(Neck) 신경망(200) 및 헤드(Head) 신경망(300)을 포함하고,
상기 백본 신경망(100)은,
이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈(110);
상기 컨볼루션 모듈(110)의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망(120, 130, 140, 150);
N번째의 백본 서브 신경망(150)의 출력단에 연결된 SPPF 모듈(160); 및
상기 SPPF 모듈(160)의 출력단에 연결된 제 2 컨볼루션 모듈(170)을 포함하고,
상기 백본 서브 신경망(120, 130, 140, 150)은,
고스트넷(GhostNet)의 컨볼루션 모듈(121, 131, 141, 151); 및
상기 고스트넷의 컨볼루션 모듈(121, 131, 141, 151)과 직렬로 연결된 C3Ghost모듈(122, 132, 142, 152)을 포함하고,
상기 넥 신경망(200)은,
상기 컨볼루션 모듈(170)의 출력을 CBS 모듈(201)을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망(140)의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈(204)을 통과시키도록 구성되고,
상기 제 1 C3_F모듈(204)은,
직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹;
상기 CBS 그룹과 병렬로 연결된 CBS 모듈;
상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈; 및
상기 컨케트네이트 모듈의 출력단에 연결된 CBS 모듈을 포함하는 컴퓨터 판독 가능한 기록 매체.
In the computer readable recording medium in which the fire detection neural network is recorded in the form of a program,
The fire detection neural network,
It includes a Backbone neural network 100, a Neck neural network 200 and a Head neural network 300,
The backbone neural network 100,
A first convolution module 110 to which an image is input;
N backbone sub-neural networks 120, 130, 140, 150 connected in series to process the output of the convolution module 110;
an SPPF module 160 connected to an output terminal of the N-th backbone sub-neural network 150; and
A second convolution module 170 connected to the output terminal of the SPPF module 160,
The backbone sub-neural networks 120, 130, 140, and 150,
Convolution modules (121, 131, 141, 151) of GhostNet (GhostNet); and
Includes C3Ghost modules (122, 132, 142, 152) connected in series with the convolution modules (121, 131, 141, 151) of the GhostNet,
The neck neural network 200,
The output of the convolution module 170 is passed through the CBS module 201, upsampled, and concatenated with the output of the N-1 th backbone sub-neural network 140, and then the first C3_F module 204 ) is configured to pass,
The first C3_F module 204,
CBS group consisting of three CBS modules connected in series;
a CBS module connected in parallel with the CBS group;
Concatenate module for connecting the output of the CBS group and the output of the CBS module connected in parallel; and
A computer readable recording medium comprising a CBS module connected to an output terminal of the concatenate module.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220142120A KR102540208B1 (en) | 2022-10-31 | 2022-10-31 | Fire detection method using deep learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220142120A KR102540208B1 (en) | 2022-10-31 | 2022-10-31 | Fire detection method using deep learning |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102540208B1 true KR102540208B1 (en) | 2023-06-07 |
Family
ID=86760704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220142120A KR102540208B1 (en) | 2022-10-31 | 2022-10-31 | Fire detection method using deep learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102540208B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117274929A (en) * | 2023-11-21 | 2023-12-22 | 深圳中科超远科技有限公司 | Traffic management method and system based on visual analysis |
CN117274192A (en) * | 2023-09-20 | 2023-12-22 | 重庆市荣冠科技有限公司 | Pipeline magnetic flux leakage defect detection method based on improved YOLOv5 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101836038B1 (en) * | 2017-04-26 | 2018-03-08 | 사단법인 한국화재보험협회 | Fire detection system through complex detection of fire element |
KR20220150614A (en) * | 2021-05-04 | 2022-11-11 | 주식회사 케이티 | Server, method and computer program for detecting fire |
-
2022
- 2022-10-31 KR KR1020220142120A patent/KR102540208B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101836038B1 (en) * | 2017-04-26 | 2018-03-08 | 사단법인 한국화재보험협회 | Fire detection system through complex detection of fire element |
KR20220150614A (en) * | 2021-05-04 | 2022-11-11 | 주식회사 케이티 | Server, method and computer program for detecting fire |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117274192A (en) * | 2023-09-20 | 2023-12-22 | 重庆市荣冠科技有限公司 | Pipeline magnetic flux leakage defect detection method based on improved YOLOv5 |
CN117274929A (en) * | 2023-11-21 | 2023-12-22 | 深圳中科超远科技有限公司 | Traffic management method and system based on visual analysis |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102540208B1 (en) | Fire detection method using deep learning | |
CN108171176B (en) | Subway driver emotion identification method and device based on deep learning | |
US8314854B2 (en) | Apparatus and method for image recognition of facial areas in photographic images from a digital camera | |
CN111899227A (en) | Automatic railway fastener defect acquisition and identification method based on unmanned aerial vehicle operation | |
CN111951212A (en) | Method for identifying defects of contact network image of railway | |
KR101781358B1 (en) | Personal Identification System And Method By Face Recognition In Digital Image | |
KR102195706B1 (en) | Method and Apparatus for Detecting Intruder | |
US9489582B2 (en) | Video anomaly detection based upon a sparsity model | |
CN111563557A (en) | Method for detecting target in power cable tunnel | |
CN110516529A (en) | It is a kind of that detection method and system are fed based on deep learning image procossing | |
US10037467B2 (en) | Information processing system | |
CN110866512B (en) | Monitoring camera shielding detection method based on video classification | |
KR102002812B1 (en) | Image Analysis Method and Server Apparatus for Detecting Object | |
KR102149832B1 (en) | Automated Violence Detecting System based on Deep Learning | |
KR102213494B1 (en) | Apparatus and method for identifying action | |
CN109766755A (en) | Face identification method and Related product | |
CN109271906A (en) | A kind of smog detection method and its device based on depth convolutional neural networks | |
Anala et al. | Anomaly detection in surveillance videos | |
US20200311962A1 (en) | Deep learning based tattoo detection system with optimized data labeling for offline and real-time processing | |
CN115512387A (en) | Construction site safety helmet wearing detection method based on improved YOLOV5 model | |
CN112396023A (en) | Fire detection method based on machine learning | |
Hermina et al. | A Novel Approach to Detect Social Distancing Among People in College Campus | |
CN115719463A (en) | Smoke and fire detection method based on super-resolution reconstruction and adaptive extrusion excitation | |
CN115861915A (en) | Fire fighting access monitoring method, fire fighting access monitoring device and storage medium | |
CN111881984A (en) | Target detection method and device based on deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |