KR102653485B1 - Electronic apparatus for building fire detecting model and method thereof - Google Patents

Electronic apparatus for building fire detecting model and method thereof Download PDF

Info

Publication number
KR102653485B1
KR102653485B1 KR1020210175094A KR20210175094A KR102653485B1 KR 102653485 B1 KR102653485 B1 KR 102653485B1 KR 1020210175094 A KR1020210175094 A KR 1020210175094A KR 20210175094 A KR20210175094 A KR 20210175094A KR 102653485 B1 KR102653485 B1 KR 102653485B1
Authority
KR
South Korea
Prior art keywords
fire detection
fire
data
electronic device
detection model
Prior art date
Application number
KR1020210175094A
Other languages
Korean (ko)
Other versions
KR20230086457A (en
Inventor
이상현
Original Assignee
호남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 호남대학교 산학협력단 filed Critical 호남대학교 산학협력단
Priority to KR1020210175094A priority Critical patent/KR102653485B1/en
Publication of KR20230086457A publication Critical patent/KR20230086457A/en
Application granted granted Critical
Publication of KR102653485B1 publication Critical patent/KR102653485B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data

Abstract

화재 감지 시스템의 구축을 위한 전차 장치 및 그 방법이 개시된다. 본 개시에 따른 전자 장치는 화재 영상 데이터를 프레임 단위로 분할, 전처리하고, 라벨링을 수행하여, 화재 감지 모델을 학습시키고 탐지 결과를 획득하며, 나아가 대상 추적 모델을 통해 다음 프레임에서의 탐지 결과를 획득할 수 있다.A tram device and method for constructing a fire detection system are disclosed. The electronic device according to the present disclosure divides, preprocesses, and labels fire image data on a frame basis, learns a fire detection model, obtains detection results, and further obtains detection results in the next frame through a target tracking model. can do.

Description

화재 감지를 위한 화재 감지 모델을 구축하는 전자 장치 및 그 방법{ELECTRONIC APPARATUS FOR BUILDING FIRE DETECTING MODEL AND METHOD THEREOF}Electronic device and method for building a fire detection model for fire detection {ELECTRONIC APPARATUS FOR BUILDING FIRE DETECTING MODEL AND METHOD THEREOF}

본 개시는 화재 영상 데이터를 바탕으로 모델의 학습 및 테스트를 수행하여 화재 감지를 위한 화재 감지 모델을 구축하는 전자 장치 및 그 방법에 관한 것이다.This disclosure relates to an electronic device and method for constructing a fire detection model for fire detection by performing learning and testing of the model based on fire image data.

2019년도 한국국가화재정보센터(National Fire Data System)의 화재통계연간보고서에 따르면, 2010년부터 2019년까지 426,521건의 화재로 인한 총 사망자는 3,026명, 부상자는 18,792명이다. 또한, 재산피해는 4조 4,313억에 이르러 막대한 인명 및 재산상의 피해가 야기되고 있는 실정이다.According to the 2019 Korea National Fire Data System's annual fire statistics report, the total number of deaths from 426,521 fires from 2010 to 2019 was 3,026 and the number of injuries was 18,792. In addition, property damage has reached KRW 4.4313 trillion, causing enormous damage to life and property.

이에, 화재로 인한 환경 문제, 금전적 손실을 최소화하기 위해 많은 연구자들의 노력이 계속되고 있다. 기존의 화재 감지 방법은 센서 기반의 화재 감지 방법과 영상 처리 기반의 화재 감지 방법으로 구분되는데, 센서 기반의 방법은 주변 환경의 여러 요인에 따라 시스템의 성능이 크게 제한될 수 있다는 단점이 있다. 또한, 영상 처리 기반의 방법 역시 경험적, 실험적인 임계 값 설정으로 인해 실제 상황에 적용이 어렵고, 화염과 유사한 객체에 대해 잘못된 경보를 발생시킬 수 있어 아직 부족한 점이 많다.Accordingly, efforts by many researchers are continuing to minimize environmental problems and financial losses caused by fire. Existing fire detection methods are divided into sensor-based fire detection methods and image processing-based fire detection methods. The sensor-based method has the disadvantage that system performance can be greatly limited depending on various factors in the surrounding environment. In addition, image processing-based methods are also difficult to apply to real situations due to empirical and experimental threshold settings, and may generate false alarms for objects similar to flames, so there are still many shortcomings.

개시되는 실시예들은 화재 영상 데이터를 프레임 단위로 분할, 전처리하고 라벨링 한 후, 컨볼루셔널 뉴럴 네트워크(CNN; Convolutional Neural Network) 기반의 화재 감지 모델 및 대상 추적 모듈을 통해 화염으로 대표되는 화재 구역을 효율적으로 탐지, 예측하기 위한 것이다.The disclosed embodiments divide, preprocess, and label fire image data on a frame basis, and then identify a fire area represented by a flame through a fire detection model and target tracking module based on a convolutional neural network (CNN). It is for efficient detection and prediction.

개시되는 일 실시예에 따른 화재 감지를 위한 화재 감지 모델 구축 방법은, 화재 영상 데이터를 수집하는 단계; 상기 화재 영상 데이터를 프레임 단위로 분할하는 단계; 상기 분할된 데이터를 전처리하는 단계; 상기 전처리 된 데이터를 대상으로 화재 구역을 나타내는 바운딩 박스(bounding box)를 표시하여 라벨링을 수행하는 단계; 및 상기 라벨링 된 데이터에 기초하여 컨볼루셔널 뉴럴 네트워크(CNN; Convolutional Neural Network) 기반의 화재 감지 모델을 학습시키는 단계를 포함한다.A method of building a fire detection model for fire detection according to an embodiment disclosed includes the steps of collecting fire image data; Splitting the fire image data into frames; Preprocessing the divided data; Performing labeling by displaying a bounding box indicating a fire zone on the preprocessed data; and learning a fire detection model based on a convolutional neural network (CNN) based on the labeled data.

일 실시예에 따르면, 상기 전처리하는 단계는, 상기 분할된 데이터 중 중복되는 데이터의 적어도 일부를 삭제하는 것, 상기 분할된 데이터 중 해상도가 기 설정된 임계 값 이하인 데이터의 적어도 일부를 삭제하는 것, 상기 분할된 데이터를 학습 데이터, 검증 데이터 및 테스트 데이터로 분류하는 것 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.According to one embodiment, the preprocessing step includes deleting at least a portion of overlapping data among the divided data, deleting at least a portion of data whose resolution is less than a preset threshold value among the divided data, It may be characterized by including at least one of classifying the divided data into learning data, verification data, and test data.

일 실시예에 따르면, 상기 화재 감지 모델은, 포커스(Focus) 네트워크 구조, C3 구조, CSP(Cross Stage Partial) 네트워크 구조, 특징 피라미트 네트워크(FPN; Feature Pyramid Network) 구조 및 경로 종합 네트워크(PAN; Path Aggregation Network) 구조를 포함하는 것을 특징으로 할 수 있다.According to one embodiment, the fire detection model includes a Focus network structure, a C3 structure, a Cross Stage Partial (CSP) network structure, a Feature Pyramid Network (FPN) structure, and a Path Aggregation Network (PAN); It may be characterized as including a Path Aggregation Network (Path Aggregation Network) structure.

일 실시예에 따르면, 상기 화재 감지 모델은, 상기 C3 구조 내에 병목(bottleneck) 구조를 포함하는 것을 특징으로 할 수 있다.According to one embodiment, the fire detection model may be characterized as including a bottleneck structure within the C3 structure.

일 실시예에 따르면, 상기 화재 감지를 위한 화재 감지 모델 구축 방법은, 테스트 데이터를 상기 화재 감지 모델에 입력하여 상기 테스트 데이터에 대한 탐지 결과를 획득하는 단계; 및 상기 탐지 결과를 대상 추적 모듈에 입력하여 상기 탐지 결과에 대응되는 프레임의 다음 프레임에서의 예측 결과를 획득하고 식별자를 할당하는 단계를 더 포함할 수 있다.According to one embodiment, the method of building a fire detection model for fire detection includes inputting test data into the fire detection model to obtain a detection result for the test data; And it may further include inputting the detection result into a target tracking module to obtain a prediction result in a frame next to the frame corresponding to the detection result and assigning an identifier.

일 실시예에 따르면, 상기 대상 추적 모듈은, DeepSORT(Deep Simple Online and Real-time Tracking) 알고리즘에 기초하여 복수의 대상을 추적하는 것을 특징으로 할 수 있다.According to one embodiment, the target tracking module may be characterized by tracking a plurality of targets based on the DeepSORT (Deep Simple Online and Real-time Tracking) algorithm.

일 실시예에 따르면, 상기 대상 추적 모듈은, 상기 탐지 결과에 기초하여 상기 탐지 결과에 대응되는 프레임의 다음 프레임에서의 예측 결과를 출력하는 필터링 모듈; 및 상기 탐지 결과와 상기 예측 결과를 상호 연관시키고, 상기 탐지 결과-예측 결과의 쌍에 식별자를 부여하는 매칭 모듈을 포함하는 것을 특징으로 할 수 있다.According to one embodiment, the target tracking module includes a filtering module that outputs a prediction result in a frame next to the frame corresponding to the detection result based on the detection result; and a matching module that correlates the detection result and the prediction result and assigns an identifier to the detection result-prediction result pair.

일 실시예에 따르면, 상기 필터링 모듈은, 칼만 필터(Kalman Filter)에 기초하여 상기 탐지 결과에 대응되는 프레임의 다음 프레임에서 화재 구역을 나타내는 바운딩 박스가 나타날 가능성이 가장 높은 위치를 출력하는 것을 특징으로 할 수 있다.According to one embodiment, the filtering module outputs the position at which a bounding box indicating a fire zone is most likely to appear in the next frame of the frame corresponding to the detection result based on a Kalman Filter. can do.

일 실시예에 따르면, 상기 매칭 모듈은, 헝가리안 알고리즘(Hungarian algorithm)에 기초하여 상기 탐지 결과와 상기 예측 결과를 상호 연관시키고, 상기 탐지 결과와 상기 예측 결과 사이의 위치 변화량에 기초하여 상기 식별자를 부여하는 방식을 선택하는 것을 특징으로 할 수 있다.According to one embodiment, the matching module correlates the detection result and the prediction result based on a Hungarian algorithm, and determines the identifier based on the amount of position change between the detection result and the prediction result. It may be characterized by selecting a granting method.

일 실시예에 따르면, 상기 매칭 모듈은, 상기 위치 변화량이 기 설정된 기준치 미만인 경우, 상기 위치 변화량에 대응되는 마할라노비스 거리(Mahalanobis distance) 값에 기초하여 식별자를 부여하고, 상기 위치 변화량이 기 설정된 기준치 이상인 경우, 딥 어피어런스 디스크립터(Deep Appearance Descriptor)를 이용하여 상기 위치 변화량에 대응되는 식별자를 부여하는 것을 특징으로 할 수 있다.According to one embodiment, when the amount of position change is less than a preset reference value, the matching module assigns an identifier based on a Mahalanobis distance value corresponding to the amount of position change, and the amount of position change is preset. If it is greater than the reference value, an identifier corresponding to the amount of position change may be assigned using a Deep Appearance Descriptor.

개시되는 일 실시예에 따른 화재 감지 시스템 구축을 위한 전자 장치는, 트랜시버, 명령어를 저장하는 메모리 및 프로세서를 포함하고, 상기 프로세서는, 상기 트랜시버 및 상기 메모리와 연결되어, 화재 영상 데이터를 수집하고, 상기 화재 영상 데이터를 프레임 단위로 분할하고, 상기 분할된 데이터를 전처리하고, 상기 전처리 된 데이터를 대상으로 화재 구역을 나타내는 바운딩 박스(bounding box)를 표시하여 라벨링을 수행하며, 상기 라벨링 된 데이터에 기초하여 컨볼루셔널 뉴럴 네트워크(CNN; Convolutional Neural Network) 기반의 화재 감지 모델을 학습시킬 수 있다.An electronic device for building a fire detection system according to an embodiment of the disclosure includes a transceiver, a memory for storing commands, and a processor, wherein the processor is connected to the transceiver and the memory to collect fire image data, Splitting the fire image data into frames, preprocessing the divided data, performing labeling by displaying a bounding box indicating a fire zone on the preprocessed data, based on the labeled data. Thus, a fire detection model based on a convolutional neural network (CNN) can be learned.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.

본 개시에 따르면, 화재 감지 시스템 구축을 위한 전자 장치는, 영상에 대한 전처리, 라벨링, 딥러닝 모델을 통한 학습 및 테스트를 통해, 화재 영상 데이터로부터 영상 내 화염의 특성을 자동으로 추출하여 화염을 검출할 수 있다.According to the present disclosure, an electronic device for building a fire detection system detects flames by automatically extracting the characteristics of the flame in the image from fire image data through preprocessing, labeling, and learning and testing through a deep learning model for the image. can do.

발명의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당해 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effect of the invention is not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 일 실시예에 따른 화재 감지 시스템을 설명하기 위한 개략적인 구성도이다.
도 2는 일 실시예에 따른 화재 감지를 위한 화재 감지 모델 구축 방법을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따른 화재 감지 모델의 아키텍처에 대한 예시도이다.
도 4는 추가적인 실시예에 따른 화재 감지를 위한 화재 감지 모델 구축 방법을 설명하기 위한 흐름도이다.
도 5는 일 실시예에 따른 테스트 과정을 나타내는 예시도이다.
도 6은 일 실시예에 따라 화재 감지 시스템을 구축하는 전자 장치를 설명하기 위한 블록도이다.
1 is a schematic configuration diagram for explaining a fire detection system according to an embodiment.
Figure 2 is a flowchart illustrating a method of building a fire detection model for fire detection according to an embodiment.
Figure 3 is an exemplary diagram of the architecture of a fire detection model according to one embodiment.
Figure 4 is a flowchart illustrating a method of building a fire detection model for fire detection according to an additional embodiment.
Figure 5 is an exemplary diagram showing a testing process according to one embodiment.
FIG. 6 is a block diagram illustrating an electronic device for building a fire detection system according to an embodiment.

실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments are general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the relevant description. Therefore, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of this disclosure, rather than simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "...모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하고, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "... unit" and "... module" used in the specification refer to a unit that processes at least one function or operation, which is implemented as hardware or software, or as a combination of hardware and software. It may be possible, and unlike the example shown, specific operations may not be clearly distinguished.

명세서 전체에서 기재된 "a, b, 및 c 중 적어도 하나"의 표현은, 'a 단독', 'b 단독', 'c 단독', 'a 및 b', 'a 및 c', 'b 및 c', 또는 'a, b, 및 c 모두'를 포괄할 수 있다.The expression “at least one of a, b, and c” used throughout the specification means ‘a alone’, ‘b alone’, ‘c alone’, ‘a and b’, ‘a and c’, ‘b and c ', or 'all of a, b, and c'.

이하에서 언급되는 "단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말은 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, IMT(International Mobile Telecommunication), CDMA(Code Division Multiple Access), W-CDMA(W-Code Division Multiple Access), LTE(Long Term Evolution) 등의 통신 기반 단말, 스마트폰, 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.The “terminal” mentioned below may be implemented as a computer or portable terminal that can connect to a server or other terminal through a network. Here, the computer includes, for example, a laptop, desktop, laptop, etc. equipped with a web browser, and the portable terminal is, for example, a wireless communication device that guarantees portability and mobility. , all types of communication-based terminals such as IMT (International Mobile Telecommunication), CDMA (Code Division Multiple Access), W-CDMA (W-Code Division Multiple Access), and LTE (Long Term Evolution), smartphones, tablet PCs, etc. It may include a handheld-based wireless communication device.

이하의 설명에 있어서, 신호, 메시지 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호, 메시지 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다.In the following description, “transmission,” “communication,” “transmission,” “reception,” “transmission,” “transmission,” “reception,” and similar terms refer to the direct transmission of signals, messages, or information from one component to another. It includes not only what is done, but also what is transmitted through other components.

특히 신호, 메시지 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호, 메시지 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호, 메시지 또는 정보의 "수신"에 있어서도 동일하다. 또한 본 개시에 있어서, 2 이상의 데이터 또는 정보가 "관련"된다는 것은 하나의 데이터(또는 정보)를 획득하면, 그에 기초하여 다른 데이터(또는 정보)의 적어도 일부를 획득할 수 있음을 의미한다.In particular, “transmitting” or “transmitting” a signal, message or information as a component indicates the final destination of the signal, message or information and does not mean the direct destination. The same applies to “receiving” signals, messages or information. Additionally, in the present disclosure, “related” to two or more data or information means that if one data (or information) is acquired, at least part of other data (or information) can be obtained based on it.

또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다.Additionally, terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The above terms may be used for the purpose of distinguishing one component from another component.

예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.For example, a first component may be referred to as a second component, and similarly, the second component may also be referred to as the first component without departing from the scope of the present disclosure.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Below, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily practice them. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.

실시 예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, description of technical content that is well known in the technical field to which the present invention belongs and that is not directly related to the present invention will be omitted. This is to convey the gist of the present invention more clearly without obscuring it by omitting unnecessary explanation.

마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, some components are exaggerated, omitted, or schematically shown in the accompanying drawings. Additionally, the size of each component does not entirely reflect its actual size. In each drawing, identical or corresponding components are assigned the same reference numbers.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.It will be understood that each block of the processing flow diagrams and combinations of the flow diagram diagrams may be performed by computer program instructions. These computer program instructions can be mounted on a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, so that the instructions performed through the processor of the computer or other programmable data processing equipment are described in the flow chart block(s). It creates the means to perform functions. These computer program instructions may also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular manner, so that the computer-usable or computer-readable memory It is also possible to produce manufactured items containing instruction means that perform the functions described in the flowchart block(s). Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer, thereby generating a process that is executed by the computer or other programmable data processing equipment. Instructions that perform processing equipment may also provide steps for executing the functions described in the flow diagram block(s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). Additionally, it should be noted that in some alternative execution examples it is possible for the functions mentioned in the blocks to occur out of order. For example, it is possible for two blocks shown in succession to be performed substantially at the same time, or it is possible for the blocks to be performed in reverse order depending on the corresponding function.

이하에서는 도면을 참조하여 본 개시의 실시예들을 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

도 1은 일 실시예에 따른 화재 감지 시스템을 설명하기 위한 개략적인 구성도이다.1 is a schematic configuration diagram for explaining a fire detection system according to an embodiment.

도시된 바와 같이, 일 실시예에 따른 화재 감지 모델 구축 시스템(100)은 전자 장치(110) 및 네트워크(120)를 포함한다. 도 1에 도시된 화재 감지 모델 구축 시스템(100)은 본 실시예와 관련된 구성들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.As shown, the fire detection model building system 100 according to one embodiment includes an electronic device 110 and a network 120. The fire detection model building system 100 shown in FIG. 1 shows only configurations related to this embodiment. Accordingly, those skilled in the art can understand that other general-purpose components may be included in addition to the components shown in FIG. 1.

전자 장치(110)는 사진, 그림 등의 정지 영상이나 프레임(frame) 단위의 정지 영상의 합으로 구성된 동영상을 입력으로 하여, 화재 감지 모델을 학습시키거나, 화재 감지 모델을 통해 탐지 결과를 획득하거나, 대상 추적 모듈을 통해 예측 결과를 획득하는 장치를 의미한다.The electronic device 110 receives a still image such as a photo, a picture, or a video composed of a sum of still images in frame units as input, and learns a fire detection model, obtains a detection result through a fire detection model, or , refers to a device that obtains prediction results through a target tracking module.

일 실시예에 따르면, 전자 장치(110)는 유선 또는 무선의 네트워크(120)를 통해 외부로부터 처리 대상이 되는 화재 영상 데이터를 획득할 수 있다. 보다 구체적으로, 전자 장치(110)가 수신하는 화재 영상 데이터는 카메라로 대표되는 촬영 장치로부터 촬영된 영상일 수도 있고, 클라우드 서버에 기 저장된 영상일 수도 있으며, 로컬 데이터베이스(DB)에 기 저장된 영상일 수도 있다. 다만 이는 예시적인 것으로, 영상의 촬영 수단 또는 저장 위치는 실시예에 따라서 다양하게 설정될 수 있다. 또한, 영상의 생성 위치 및 저장 위치는 동일할 수도 있으나, 실시예에 따라 상이할 수도 있다.According to one embodiment, the electronic device 110 may acquire fire image data to be processed from the outside through the wired or wireless network 120. More specifically, the fire image data received by the electronic device 110 may be an image captured from a photographing device represented by a camera, may be an image pre-stored in a cloud server, or may be an image pre-stored in a local database (DB). It may be possible. However, this is an example, and the image capturing means or storage location may be set in various ways depending on the embodiment. Additionally, the creation location and storage location of the image may be the same, but may differ depending on the embodiment.

일 실시예에 따르면, 네트워크(120)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다. 무선 통신은 예를 들어, 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지(Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment, network 120 includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, It is a comprehensive data communication network that includes satellite communication networks and their mutual combinations, and allows each network constituent shown in Figure 1 to communicate smoothly with each other, and may include wired Internet, wireless Internet, and mobile wireless communication networks. You can. Wireless communications include, for example, wireless LAN (Wi-Fi), Bluetooth, Bluetooth low energy, ZigBee, WFD (Wi-Fi Direct), UWB (ultra wideband), and infrared communication (IrDA, infrared Data Association). ), NFC (Near Field Communication), etc., but are not limited thereto.

이상과 관련하여, 이하 도면들을 통해 보다 상세히 설명하기로 한다.In relation to the above, it will be described in more detail through the drawings below.

도 2는 일 실시예에 따른 화재 감지를 위한 화재 감지 모델 구축 방법을 설명하기 위한 흐름도이다.Figure 2 is a flowchart illustrating a method of building a fire detection model for fire detection according to an embodiment.

이하 도 2에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.Below, in FIG. 2, the method is described divided into a plurality of steps, but at least some of the steps are performed in a different order, performed in combination with other steps, omitted, performed divided into detailed steps, or not shown. One or more steps may be added and performed.

단계 210에서, 전자 장치(110)는 화재 영상 데이터를 수집할 수 있다.In step 210, the electronic device 110 may collect fire image data.

일 실시예에 따르면, 전자 장치(110)는 복수의 프레임을 포함하는 동영상을 수집하거나, 단일 프레임의 화재 사진을 수집할 수도 있다. 또한, 도 1을 참조하여 상술한 대로, 전자 장치(110)는 촬영 장치로부터 직접 화재 영상 데이터를 전달받을 수도 있고, 외부의 클라우드 서버나 로컬 DB로부터 화재 영상 데이터를 전송 받을 수도 있으며, 실시예에 따라서는 전자 장치(110) 내의 저장 공간에 저장된 화재 영상 데이터를 후술할 연산의 수행을 위해 전자 장치(110) 내 메모리에 로드함으로써 화재 영상 데이터를 수집할 수도 있다. 이 경우, 도 1에 도시된 촬영 장치, 클라우드 서버, 로컬 DB 등은 테스트 데이터 내지는 실행 데이터가 생성 또는 저장되는 장소를 의미할 수 있다.According to one embodiment, the electronic device 110 may collect a video including a plurality of frames or a single frame of fire photos. In addition, as described above with reference to FIG. 1, the electronic device 110 may receive fire image data directly from a photographing device, or may receive fire image data from an external cloud server or local DB. In the embodiment, Accordingly, fire image data may be collected by loading the fire image data stored in the storage space within the electronic device 110 into a memory within the electronic device 110 to perform operations to be described later. In this case, the imaging device, cloud server, local DB, etc. shown in FIG. 1 may mean a place where test data or execution data is generated or stored.

예를 들어, 화재 영상 데이터는 큰 규모의 화염, 작은 규모의 화염처럼 발생 규모를 기준으로 분류된 데이터일 수도 있고, 건축물에 발생한 화염, 초원에 발생한 화염, 삼림에 발생한 화염, 차량(자동차, 트럭, 오토바이 등)에 발생한 화염 등과 같이 발생 장소를 기준으로 분류된 데이터일 수도 있다. 또한, 낮 시간대에 발생한 화염과 밤 시간대에 발생한 화염처럼 발생 시간을 기준으로 분류된 데이터일 수도 있다.For example, fire video data may be classified based on the scale of occurrence, such as large-scale flames or small-scale flames, flames in buildings, flames in grasslands, flames in forests, and vehicles (cars, trucks). , motorcycle, etc.), it may be data classified based on the location of occurrence, such as a flame. Additionally, the data may be classified based on the time of occurrence, such as fires that occur during the day and fires that occur at night.

단계 220에서, 전자 장치(110)는 화재 영상 데이터를 프레임 단위로 분할할 수 있다.In step 220, the electronic device 110 may divide fire image data into frames.

단계 230에서, 전자 장치(110)는 분할된 데이터를 전처리할 수 있다.In step 230, the electronic device 110 may preprocess the divided data.

일 실시예에 따르면, 전자 장치(110)는 분할된 데이터에 대한 전처리(pre-processing)로서, 다음의 (1) 내지 (3) 중 적어도 하나를 수행할 수 있다.According to one embodiment, the electronic device 110 may perform at least one of the following (1) to (3) as pre-processing on the divided data.

(1) 분할된 데이터 중 중복되는 데이터의 적어도 일부를 삭제(1) Delete at least part of the duplicate data among the divided data

(2) 분할된 데이터 중 해상도가 기 설정된 임계 값 이하인 데이터의 적어도 일부를 삭제(2) Delete at least part of the data whose resolution is below a preset threshold among the divided data.

(3) 분할된 데이터를 학습 데이터, 검증 데이터 및 테스트 데이터로 분류(3) Classify the divided data into learning data, validation data, and test data.

구체적으로, (1)의 전처리를 위해 전자 장치(110)는 프레임 단위로 분할된 데이터 사이의 픽셀 값, 명암 값 등에 기초하여 분할된 데이터 사이의 유사도를 판단하고, 유사도가 기 설정된 기준치 이상인 데이터들을 하나만 제외하고 모두 삭제할 수도 있다.Specifically, for the preprocessing of (1), the electronic device 110 determines the similarity between the divided data based on the pixel value, brightness value, etc. between the data divided in frame units, and selects data whose similarity is greater than or equal to a preset standard value. You can also delete all but one.

한편 구체적으로, (3)의 전처리를 위해 전자 장치(110)는 분할된 데이터의 과반수 이상은 학습 데이터로, 나머지 데이터 중 절반은 검증 데이터로, 절반은 테스트 데이터로 분류할 수도 있다. 예를 들어, 전자 장치(110)는 분할된 데이터의 70퍼센트는 학습 데이터로, 15퍼센트는 검증 데이터로, 15퍼센트는 테스트 데이터로 분류할 수 있다.Meanwhile, specifically, for preprocessing in (3), the electronic device 110 may classify more than half of the divided data as learning data, half of the remaining data as verification data, and half as test data. For example, the electronic device 110 may classify 70% of the divided data as training data, 15% as validation data, and 15% as test data.

일 실시예에 따르면, 전자 장치(110)는 분할된 데이터의 사이즈를 기 설정된 규격으로 조절하는 전처리를 수행할 수 있다. 예를 들어, 전자 장치(110)는 분할된 데이터의 사이즈를 일괄적으로 640*640(가로 640개의 픽셀, 세로 640개의 픽셀)으로 조절할 수 있다.According to one embodiment, the electronic device 110 may perform preprocessing to adjust the size of the divided data to a preset standard. For example, the electronic device 110 can collectively adjust the size of the divided data to 640*640 (640 pixels horizontally and 640 pixels vertically).

단계 240에서, 전자 장치(110)는 전처리 된 데이터를 대상으로 화재 구역을 나타내는 바운딩 박스(bounding box)를 표시하여 라벨링을 수행할 수 있다.In step 240, the electronic device 110 may perform labeling by displaying a bounding box indicating a fire zone on the preprocessed data.

예를 들어, 전자 장치(110)는 CVAT(Computer Vision Annotation Tool)을 이용하여 바운딩 박스를 표시함으로써 라벨링을 수행할 수 있다.For example, the electronic device 110 may perform labeling by displaying a bounding box using CVAT (Computer Vision Annotation Tool).

단계 250에서, 전자 장치(110)는 라벨링 된 데이터에 기초하여 컨볼루셔널 뉴럴 네트워크(CNN; Convolutional Neural Network) 기반의 화재 감지 모델을 학습시킬 수 있다.In step 250, the electronic device 110 may learn a fire detection model based on a convolutional neural network (CNN) based on the labeled data.

일 실시예에 따르면, 전자 장치(110)에 의한 학습 대상이 되는 화재 감지 모델은 포커스(Focus) 네트워크 구조, C3 구조, CSP(Cross Stage Partial) 네트워크 구조, 특징 피라미트 네트워크(FPN; Feature Pyramid Network) 구조 및 경로 종합 네트워크(PAN; Path Aggregation Network) 구조를 포함할 수 있다.According to one embodiment, the fire detection model to be learned by the electronic device 110 is a focus network structure, a C3 structure, a cross stage partial (CSP) network structure, and a feature pyramid network (FPN). ) structure and may include a Path Aggregation Network (PAN) structure.

구체적으로, 화재 감지 모델에 포함된 C3 구조는, C3 구조 내에 병목(bottleneck) 구조를 포함할 수 있다.Specifically, the C3 structure included in the fire detection model may include a bottleneck structure within the C3 structure.

일 실시예에 따르면, 전자 장치(110)에 의한 학습 대상이 되는 화재 감지 모델은 YOLOv5에 기반한 네트워크 구조를 포함할 수 있다.According to one embodiment, the fire detection model to be learned by the electronic device 110 may include a network structure based on YOLOv5.

이와 관련하여, 이하의 도 3을 참조하여 보다 상세히 후술한다.In this regard, this will be described in more detail later with reference to FIG. 3 below.

도 3은 일 실시예에 따른 화재 감지 모델의 아키텍처에 대한 예시도이다.Figure 3 is an exemplary diagram of the architecture of a fire detection model according to one embodiment.

도 3을 참조하면, 일 실시예에 따른 화재 감지 모델은 백본(backbone), 넥(Neck), 헤드(Head) 부분으로 구성될 수 있다.Referring to FIG. 3, a fire detection model according to an embodiment may be composed of a backbone, neck, and head parts.

먼저 백본 부분은 입력된 데이터로부터 특징 맵(Feature map)을 추출하는 부분으로, 포커스 네트워크 구조, C3 구조 및 CSP 구조를 포함할 수 있다.First, the backbone part is a part that extracts a feature map from input data and may include a focus network structure, C3 structure, and CSP structure.

일 실시예에 따르면, 백본 부분의 포커스 네트워크 구조는 슬라이스 레이어(slice), 연접 레이어(Concat), 컨볼루션 모듈(Conv)를 포함하며, 입력된 데이터 각각이 복수의 슬라이스 레이어로 입력되고, 각 슬라이스 레이어에서의 출력이 연접 레이어로 입력되고, 연접 레이어에서의 출력이 컨볼루션 모듈에 입력되며, 컨볼루션 모듈에서의 출력이 포커스 네트워크 구조의 출력이 되는 특징을 지닌다.According to one embodiment, the focus network structure of the backbone portion includes a slice layer (slice), a concatenation layer (Concat), and a convolution module (Conv), and each input data is input to a plurality of slice layers, and each slice The output from the layer is input to the concatenated layer, the output from the concatenated layer is input to the convolution module, and the output from the convolution module is the output of the focus network structure.

구체적으로, 컨볼루션 모듈은 2차원 컨볼루션 레이어(Conv2d), 2차원 배치 정규화 레이어(BatchNorm2d), 시그모이드 활성화 함수(SiLU)를 포함할 수 있다.Specifically, the convolution module may include a 2-dimensional convolution layer (Conv2d), a 2-dimensional batch normalization layer (BatchNorm2d), and a sigmoid activation function (SiLU).

일 실시예에 따르면, 백본 부분의 C3 구조는 컨볼루션 모듈, 연접 레이어 및 병목 구조를 포함하며, 컨볼루션 모듈과 병목 구조를 거친 출력과 컨볼루션 모듈만을 거친 출력이 연접 레이어를 통해 연접되고, 연접된 출력이 컨볼루션 모듈에 입력되는 구조를 지닌다. 특히, 병목 구조는 2개의 컨볼루션 모듈을 거친 출력과 컨볼루션 모듈을 거치지 않은 입력 그대로가 합산되는 구조를 지닌다.According to one embodiment, the C3 structure of the backbone portion includes a convolution module, a concatenation layer, and a bottleneck structure, and the output that has gone through the convolution module and the bottleneck structure and the output that has gone through only the convolution module are concatenated through a concatenation layer, and the output that has gone through only the convolution module is concatenated. It has a structure in which the output is input to the convolution module. In particular, the bottleneck structure has a structure in which the output that has passed through two convolution modules and the input that has not passed through the convolution module are summed.

일 실시예에 따르면, 백본 부분의 CSP 구조는 맥스 풀링 레이어(Max pooling), 연접 레이어 및 컨볼루션 모듈을 포함하며, 입력이 복수의 맥스 풀링 레이어로 각각 입력되고, 각 맥스 풀링 레이어에서의 출력이 연접 레이어를 거쳐 컨볼루션 모듈로 입력되는 구조를 지닌다.According to one embodiment, the CSP structure of the backbone portion includes a max pooling layer, a concatenation layer, and a convolution module, where input is input to a plurality of max pooling layers, and the output from each max pooling layer is It has a structure that is input to the convolution module through a concatenation layer.

한편 넥 부분은 백본과 헤드를 연결하며 백본에 의해 추출된 특징 맵을 정제하고 재구성하는 부분으로, 컨볼루션 모듈, 업 샘플링 레이어(UP-sample), 연접 레이어, C3 구조를 포함할 수 있다.Meanwhile, the neck part connects the backbone and the head and refines and reconstructs the feature map extracted by the backbone, and may include a convolution module, up-sampling layer (UP-sample), concatenation layer, and C3 structure.

도시된 대로, 넥 부분의 연접 레이어는 직전 레이어에서의 출력과 이전 구조에서의 출력을 연접하는 기능을 수행하며, 넥 부분의 끝단에 배치되는 각각의 컨볼루션 모듈의 출력은 후술할 헤드 부분을 구성하는 2차원 컨볼루션 레이어의 입력이 되는 구조를 지닌다.As shown, the concatenation layer of the neck part performs the function of concatenating the output from the previous layer and the output from the previous structure, and the output of each convolution module placed at the end of the neck part constitutes the head part, which will be described later. It has a structure that becomes the input of a 2D convolution layer.

한편 헤드 부분은 백본에 의해 추출된 특징 맵에 대한 로컬리제이션(Localization)을 수행하는 부분으로, 구체적으로는 특징 맵 상의 객체에 대한 클래스 별 확률 예측 및 바운딩 박스 생성 작업을 수행할 수 있다.Meanwhile, the head part is a part that performs localization on the feature map extracted by the backbone. Specifically, it can perform class-specific probability prediction and bounding box creation for objects on the feature map.

도시된 대로, 헤드 부분은 복수의 2차원 컨볼루션 레이어를 포함할 수 있으며, 2차원 컨볼루션 레이어 각각의 출력은 바운딩 박스가 표시될 좌표, 특징 맵 상의 객체에 대한 클래스 별 확률을 포함하는 행렬 등에 대한 정보를 포함할 수 있다.As shown, the head part may include a plurality of two-dimensional convolutional layers, and the output of each two-dimensional convolutional layer is the coordinates at which the bounding box will be displayed, a matrix containing class-specific probabilities for objects on the feature map, etc. It may contain information about

도 4는 추가적인 실시예에 따른 화재 감지를 위한 화재 감지 모델 구축 방법을 설명하기 위한 흐름도이다.Figure 4 is a flowchart illustrating a method of building a fire detection model for fire detection according to an additional embodiment.

이하 도 4에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.Below, in FIG. 4, the method is divided into a plurality of steps, but at least some of the steps are performed in a different order, combined with other steps, omitted, divided into detailed steps, or not shown. One or more steps may be added and performed.

단계 210에서, 전자 장치(110)는 화재 영상 데이터를 수집할 수 있다.In step 210, the electronic device 110 may collect fire image data.

단계 220에서, 전자 장치(110)는 화재 영상 데이터를 프레임 단위로 분할할 수 있다.In step 220, the electronic device 110 may divide fire image data into frames.

단계 230에서, 전자 장치(110)는 분할된 데이터를 전처리할 수 있다.In step 230, the electronic device 110 may preprocess the divided data.

단계 240에서, 전자 장치(110)는 전처리 된 데이터를 대상으로 화재 구역을 나타내는 바운딩 박스(bounding box)를 표시하여 라벨링을 수행할 수 있다.In step 240, the electronic device 110 may perform labeling by displaying a bounding box indicating a fire zone on the preprocessed data.

단계 250에서, 전자 장치(110)는 라벨링 된 데이터에 기초하여 컨볼루셔널 뉴럴 네트워크(CNN; Convolutional Neural Network) 기반의 화재 감지 모델을 학습시킬 수 있다.In step 250, the electronic device 110 may learn a fire detection model based on a convolutional neural network (CNN) based on the labeled data.

단계 460에서, 전자 장치(110)는 테스트 데이터를 화재 감지 모델에 입력하여 테스트 데이터에 대한 탐지 결과를 획득할 수 있다.In step 460, the electronic device 110 may input test data into a fire detection model to obtain a detection result for the test data.

단계 470에서, 전자 장치(110)는 테스트 데이터에 대한 탐지 결과를 대상 추적 모듈에 입력하여 해당 탐지 결과에 대응되는 프레임의 다음 프레임에서의 예측 결과를 획득하고 식별자를 할당할 수 있다.In step 470, the electronic device 110 may input the detection result for the test data into the target tracking module, obtain a prediction result in the next frame of the frame corresponding to the detection result, and assign an identifier.

일 실시예에 따르면, 전자 장치(110)가 이용하는 대상 추적 모듈은 DeepSORT(Deep Simple Online and Real-time Tracking) 알고리즘에 기초하여 복수의 대상을 추적 가능한 다중 대상 추적 기능을 제공할 수 있다.According to one embodiment, the target tracking module used by the electronic device 110 may provide a multi-target tracking function capable of tracking a plurality of targets based on the Deep Simple Online and Real-time Tracking (DeepSORT) algorithm.

일 실시예에 따르면, 대상 추적 모듈은 테스트 데이터에 대한 탐지 결과에 기초하여 해당 탐지 결과에 대응되는 프레임의 다음 프레임에서의 예측 결과를 출력하는 필터링 모듈; 및 해당 탐지 결과와 대상 추적 모듈의 예측 결과를 상호 연관시키고, 탐지 결과-예측 결과의 쌍에 식별자(descriptor)를 부여하는 매칭 모듈을 포함할 수 있다.According to one embodiment, the target tracking module includes a filtering module that outputs a prediction result in the next frame of the frame corresponding to the detection result based on the detection result of the test data; and a matching module that correlates the detection result and the prediction result of the target tracking module and assigns an identifier (descriptor) to the pair of detection result and prediction result.

구체적으로, 대상 추적 모듈 내 필터링 모듈은 칼만 필터(Kalman Filter)에 기초하여 테스트 데이터에 대한 탐지 결과에 대응되는 프레임의 다음 프레임에서 화재 구역을 나타내는 바운딩 박스가 나타날 가능성이 가장 높은 위치를 출력할 수 있다.Specifically, the filtering module within the target tracking module can output the location where the bounding box representing the fire zone is most likely to appear in the next frame of the frame corresponding to the detection result for the test data based on the Kalman Filter. there is.

한편, 대상 추적 모듈 내 매칭 모듈은, 헝가리안 알고리즘(Hungarian algorithm)에 기초하여 테스트 데이터에 대한 탐지 결과와 대상 추적 모듈의 예측 결과를 상호 연관시키고, 탐지 결과와 예측 결과 사이의 위치 변화량에 기초하여 식별자를 부여하는 방식을 선택할 수 있다.Meanwhile, the matching module within the target tracking module correlates the detection results for the test data with the prediction results of the target tracking module based on the Hungarian algorithm, and based on the amount of position change between the detection results and the prediction results, You can choose how to assign an identifier.

보다 상세하게, 대상 추적 모듈 내 매칭 모듈은, 탐지 결과와 예측 결과 사이의 위치 변화량이 기 설정된 기준치 미만인 경우, 위치 변화량에 대응되는 마할라노비스 거리(Mahalanobis distance) 값에 기초하여 식별자를 부여하고, 탐지 결과와 예측 결과 사이의 위치 변화량이 기 설정된 기준치 이상인 경우, 딥 어피어런스 식별자(Deep Appearance Descriptor)를 이용하여 위치 변화량에 대응되는 식별자를 부여할 수 있다.More specifically, the matching module within the target tracking module assigns an identifier based on the Mahalanobis distance value corresponding to the position change amount when the amount of position change between the detection result and the prediction result is less than a preset reference value, If the amount of location change between the detection result and the prediction result is greater than a preset standard value, an identifier corresponding to the amount of location change can be assigned using a deep appearance identifier (Deep Appearance Descriptor).

일 실시예에 따르면, 딥 어피어런스 식별자는 CNN 구조를 이용하여 감지된 객체의 특징을 추출하고 이를 저차원 벡터로 표현하는 모듈로서, 입력된 각 프레임 단위의 영상 데이터마다 객체의 특징을 추출할 수 있다.According to one embodiment, the deep appearance identifier is a module that extracts the features of a detected object using a CNN structure and expresses them as a low-dimensional vector, and extracts the features of the object for each input image data in each frame unit. You can.

구체적으로, 딥 어피어런스 식별자는 2개의 컨볼루션 레이어(Convolution layer), 1개의 맥스 풀링 레이어(Max pooling layer), 6개의 잔차 블록(Residual block), 1개의 덴스 레이어(Dense layer) 및 1개의 배치 정규화 레이어(Batch normalization layer)를 포함할 수 있다.Specifically, the deep appearance identifier consists of 2 convolution layers, 1 Max pooling layer, 6 residual blocks, 1 dense layer, and 1 A batch normalization layer may be included.

이를 통해, 대상 추적 모듈은 Re-identification(ReID) 모델을 적용하여 ID Switching 문제(모델이 올바른 대상을 추적하지 못하고, 원래의 대상에 다른 ID를 배정하는 문제)를 해결하는 동시에, Matching Cascade 로직을 적용함으로써 대상 추적의 정확성을 높일 수 있다.Through this, the target tracking module applies the Re-identification (ReID) model to solve the ID switching problem (the model fails to track the correct target and assigns a different ID to the original target) while also implementing Matching Cascade logic. By applying it, the accuracy of target tracking can be improved.

도 5는 일 실시예에 따른 테스트 과정을 나타내는 예시도이다.Figure 5 is an exemplary diagram showing a testing process according to one embodiment.

일 실시예에 따르면, 전자 장치(110)는 복수의 프레임 단위 영상으로 구성된 영상 시퀀스를 테스트 데이터로서 YOLOv5 기반의 화재 감지 모듈에 입력하여 영상 시퀀스에 대한 탐지 결과를 획득할 수 있다.According to one embodiment, the electronic device 110 may obtain a detection result for the image sequence by inputting an image sequence composed of a plurality of frame-unit images as test data to a YOLOv5-based fire detection module.

도 5에 도시된 화살표 흐름에 따르면 테스트 데이터가 훈련(Train) 과정에도 이용되는 것처럼 보일 수 있으나, 이는 기존의 데이터 셋을 구성하는 데이터의 일부를 학습 데이터로, 일부를 테스트 데이터로 이용함에 따른 표현임을 통상의 기술자라면 알 수 있다.According to the arrow flow shown in FIG. 5, it may appear that test data is also used in the training process, but this is an expression of using part of the data constituting the existing data set as learning data and part as test data. Anyone skilled in the art can tell that this is the case.

한편, 일 실시예에 따르면 전자 장치(110)는 영상 시퀀스에 대한 탐지 결과를 다중 객체 추적(Multi-Object Tracking) 기능을 제공하는 대상 추적 모듈에 입력하여, 다음 프레임에서의 예측 결과를 획득하고 탐지 결과와 예측 결과에 식별자를 할당할 수 있다.Meanwhile, according to one embodiment, the electronic device 110 inputs the detection result for the video sequence to a target tracking module that provides a multi-object tracking function, obtains a prediction result in the next frame, and detects Identifiers can be assigned to results and prediction results.

도 6은 일 실시예에 따라 화재 감지 모델 구축 시스템을 구축하는 전자 장치를 설명하기 위한 블록도이다.FIG. 6 is a block diagram illustrating an electronic device for building a fire detection model building system according to an embodiment.

전자 장치(110)는 일 실시예에 따라, 트랜시버(111), 프로세서(113) 및 메모리(115)를 포함할 수 있다. 전자 장치(110)는 트랜시버(111)를 통하여 촬영 장치, 클라우드 서버, 로컬 DB 및 기타 외부 장치 등과 연결되고, 데이터를 교환할 수 있다.The electronic device 110 may include a transceiver 111, a processor 113, and a memory 115, according to one embodiment. The electronic device 110 can be connected to a photographing device, a cloud server, a local DB, and other external devices through the transceiver 111 and exchange data.

프로세서(113)는 도 1 내지 도 5를 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(115)는 도 1 내지 도 5를 통하여 전술한 적어도 하나의 방법을 수행하기 위한 정보를 저장할 수 있다. 메모리(115)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The processor 113 may perform at least one method described above with reference to FIGS. 1 to 5 . The memory 115 may store information for performing at least one method described above with reference to FIGS. 1 to 5 . Memory 115 may be volatile memory or non-volatile memory.

프로세서(113)는 프로그램을 실행하고, 정보를 제공하기 위해 전자 장치(110)를 제어할 수 있다. 프로세서(113)에 의하여 실행되는 프로그램의 코드는 메모리(115)에 저장될 수 있다.The processor 113 can control the electronic device 110 to execute programs and provide information. The code of the program executed by the processor 113 may be stored in the memory 115.

프로세서(113)는 트랜시버(111) 및 메모리(115)와 연결되어, 화재 영상 데이터를 수집하고, 화재 영상 데이터를 프레임 단위로 분할하고, 분할된 데이터를 전처리하고, 전처리 된 데이터를 대상으로 화재 구역을 나타내는 바운딩 박스(bounding box)를 표시하여 라벨링을 수행하며, 라벨링 된 데이터에 기초하여 컨볼루셔널 뉴럴 네트워크(CNN; Convolutional Neural Network) 기반의 화재 감지 모델을 학습시킬 수 있다.The processor 113 is connected to the transceiver 111 and the memory 115, collects fire image data, divides the fire image data into frames, preprocesses the divided data, and targets the preprocessed data to the fire area. Labeling is performed by displaying a bounding box representing , and a fire detection model based on a convolutional neural network (CNN) can be learned based on the labeled data.

또한 일 실시예에 따른 전자 장치(110)는 사용자에게 정보를 제공할 수 있는 인터페이스를 더 포함할 수 있다.Additionally, the electronic device 110 according to one embodiment may further include an interface that can provide information to the user.

도 6에 도시된 전자 장치(110)는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 6에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.The electronic device 110 shown in FIG. 6 shows only components related to this embodiment. Accordingly, those skilled in the art can understand that other general-purpose components may be included in addition to the components shown in FIG. 6.

전술한 실시예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-Access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. Devices according to the above-described embodiments include a processor, memory for storing and executing program data, permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, keys, buttons, etc. It may include the same user interface device, etc. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, computer-readable recording media include magnetic storage media (e.g., ROM (read-only memory), RAM (random-access memory), floppy disk, hard disk, etc.) and optical read media (e.g., CD-ROM). ), DVD (Digital Versatile Disc), etc. The computer-readable recording medium is distributed among computer systems connected to a network, so that computer-readable code can be stored and executed in a distributed manner. The media may be readable by a computer, stored in memory, and executed by a processor.

본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 메시지 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment can be represented by functional block configurations and various processing steps. These functional blocks may be implemented in various numbers of hardware or/and software configurations that execute specific functions. For example, embodiments include integrated circuit configurations such as memory, processing, logic, look-up tables, etc. that can execute various functions under the control of one or more microprocessors or other control devices. can be hired. Similar to how the components can be implemented as software programming or software elements, the present embodiments include various algorithms implemented as combinations of data structures, processes, routines or other programming constructs, such as C, C++, Java ( It can be implemented in a programming or scripting language such as Java), assembler, etc. Functional aspects may be implemented as algorithms running on one or more processors. Additionally, this embodiment may employ conventional technologies for electronic environment setting, signal processing, message processing, and/or data processing. Terms such as “mechanism,” “element,” “means,” and “configuration” may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of software routines in connection with a processor, etc.

전술한 실시예들은 일 예시일 뿐 후술하는 청구항들의 범위 내에서 다른 실시예들이 구현될 수 있다.The above-described embodiments are merely examples and other embodiments may be implemented within the scope of the claims described below.

Claims (12)

전자장치가 화재 영상 데이터를 수집하는 단계;
상기 전자장치가 상기 화재 영상 데이터를 프레임 단위로 분할하는 단계;
상기 전자장치가 상기 분할된 데이터를 전처리하는 단계;
상기 전자장치가 상기 전처리 된 데이터를 대상으로 화재 구역을 나타내는 바운딩 박스(bounding box)를 표시하여 라벨링을 수행하는 단계; 및
상기 전자장치가 상기 라벨링 된 데이터에 기초하여 컨볼루셔널 뉴럴 네트워크(CNN; Convolutional Neural Network) 기반의 화재 감지 모델을 학습시키는 단계를 포함하고,
상기 전처리하는 단계에서,
상기 전자장치는 상기 분할된 데이터 사이의 픽셀 값 및 명암 값에 기초하여 상기 분할된 데이터 사이의 유사도를 판단하되, 유사도가 기 설정된 기준치 이상인 데이터들을 하나만 제외하고 모두 삭제하고, 상기 분할된 데이터 중 해상도가 기 설정된 임계 값 이하인 데이터의 적어도 일부를 삭제하는 것을 특징으로 하는, 화재 감지를 위한 화재 감지 모델 구축 방법.
An electronic device collecting fire image data;
The electronic device dividing the fire image data into frames;
Preprocessing, by the electronic device, the divided data;
performing labeling, by the electronic device, on the preprocessed data by displaying a bounding box indicating a fire zone; and
Comprising the step of the electronic device learning a fire detection model based on a convolutional neural network (CNN) based on the labeled data,
In the preprocessing step,
The electronic device determines the similarity between the divided data based on the pixel value and brightness value between the divided data, deletes all but one data whose similarity is higher than a preset standard value, and resolves the resolution of the divided data. A method of building a fire detection model for fire detection, characterized in that deleting at least a portion of data that is below a preset threshold.
삭제delete 청구항 1항에 있어서,
상기 화재 감지 모델은,
포커스(Focus) 네트워크 구조, C3 구조, CSP(Cross Stage Partial) 네트워크 구조, 특징 피라미트 네트워크(FPN; Feature Pyramid Network) 구조 및 경로 종합 네트워크(PAN; Path Aggregation Network) 구조를 포함하는 것을 특징으로 하는, 화재 감지를 위한 화재 감지 모델 구축 방법.
In claim 1,
The fire detection model is,
Characterized by including a Focus network structure, a C3 structure, a Cross Stage Partial (CSP) network structure, a Feature Pyramid Network (FPN) structure, and a Path Aggregation Network (PAN) structure. ,How to build a fire detection model for fire detection.
청구항 3항에 있어서,
상기 화재 감지 모델은,
상기 C3 구조 내에 병목(bottleneck) 구조를 포함하는 것을 특징으로 하는, 화재 감지를 위한 화재 감지 모델 구축 방법.
In claim 3,
The fire detection model is,
A method of building a fire detection model for fire detection, characterized in that it includes a bottleneck structure in the C3 structure.
청구항 1항에 있어서,
상기 전자장치가 테스트 데이터를 상기 학습된 화재 감지 모델에 입력하여 상기 테스트 데이터에 대한 탐지 결과를 획득하는 단계; 및
상기 전자장치가 상기 탐지 결과를 대상 추적 모듈에 입력하여 상기 탐지 결과에 대응되는 프레임의 다음 프레임에서의 예측 결과를 획득하고 식별자를 할당하는 단계를 더 포함하는, 화재 감지를 위한 화재 감지 모델 구축 방법.
In claim 1,
The electronic device inputting test data into the learned fire detection model to obtain a detection result for the test data; and
A method of building a fire detection model for fire detection, further comprising the step of the electronic device inputting the detection result to a target tracking module to obtain a prediction result in the next frame of the frame corresponding to the detection result and assigning an identifier. .
청구항 5항에 있어서,
상기 대상 추적 모듈은,
DeepSORT(Deep Simple Online and Real-time Tracking) 알고리즘에 기초하여 복수의 대상을 추적하는 것을 특징으로 하는, 화재 감지를 위한 화재 감지 모델 구축 방법.
In claim 5,
The target tracking module,
A method of building a fire detection model for fire detection, characterized by tracking a plurality of targets based on the DeepSORT (Deep Simple Online and Real-time Tracking) algorithm.
청구항 6항에 있어서,
상기 대상 추적 모듈은,
상기 탐지 결과에 기초하여 상기 탐지 결과에 대응되는 프레임의 다음 프레임에서의 예측 결과를 출력하는 필터링 모듈; 및
상기 탐지 결과와 상기 예측 결과를 상호 연관시키고, 상기 탐지 결과-예측 결과의 쌍에 식별자를 부여하는 매칭 모듈을 포함하는 것을 특징으로 하는, 화재 감지를 위한 화재 감지 모델 구축 방법.
In claim 6,
The target tracking module,
a filtering module that outputs a prediction result in a next frame of the frame corresponding to the detection result based on the detection result; and
A method of building a fire detection model for fire detection, comprising a matching module that correlates the detection result and the prediction result and assigns an identifier to the detection result-prediction result pair.
청구항 7항에 있어서,
상기 필터링 모듈은,
칼만 필터(Kalman Filter)에 기초하여 상기 탐지 결과에 대응되는 프레임의 다음 프레임에서 화재 구역을 나타내는 바운딩 박스가 나타날 가능성이 가장 높은 위치를 출력하는 것을 특징으로 하는, 화재 감지를 위한 화재 감지 모델 구축 방법.
In claim 7,
The filtering module is,
A method of building a fire detection model for fire detection, characterized in that outputting the position at which a bounding box representing a fire zone is most likely to appear in the next frame of the frame corresponding to the detection result based on Kalman Filter. .
청구항 7항에 있어서,
상기 매칭 모듈은,
헝가리안 알고리즘(Hungarian algorithm)에 기초하여 상기 탐지 결과와 상기 예측 결과를 상호 연관시키고, 상기 탐지 결과와 상기 예측 결과 사이의 위치 변화량에 기초하여 상기 식별자를 부여하는 방식을 선택하는 것을 특징으로 하는, 화재 감지를 위한 화재 감지 모델 구축 방법.
In claim 7,
The matching module is,
Characterized in selecting a method of correlating the detection result and the prediction result based on a Hungarian algorithm and assigning the identifier based on the amount of position change between the detection result and the prediction result. How to build a fire detection model for fire detection.
청구항 9항에 있어서,
상기 매칭 모듈은,
상기 위치 변화량이 기 설정된 기준치 미만인 경우, 상기 위치 변화량에 대응되는 마할라노비스 거리(Mahalanobis distance) 값에 기초하여 식별자를 부여하고,
상기 위치 변화량이 기 설정된 기준치 이상인 경우, 딥 어피어런스 디스크립터(Deep Appearance Descriptor)를 이용하여 상기 위치 변화량에 대응되는 식별자를 부여하는 것을 특징으로 하는, 화재 감지를 위한 화재 감지 모델 구축 방법.
In claim 9,
The matching module is,
If the amount of position change is less than a preset reference value, an identifier is assigned based on the Mahalanobis distance value corresponding to the amount of position change,
A method of building a fire detection model for fire detection, characterized in that, when the amount of position change is greater than a preset reference value, an identifier corresponding to the amount of position change is assigned using a Deep Appearance Descriptor.
청구항 1항, 3항 내지 10항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 비일시적 기록 매체.
A computer-readable non-transitory recording medium recording a program for executing the method of any one of claims 1, 3 to 10 on a computer.
삭제delete
KR1020210175094A 2021-12-08 2021-12-08 Electronic apparatus for building fire detecting model and method thereof KR102653485B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210175094A KR102653485B1 (en) 2021-12-08 2021-12-08 Electronic apparatus for building fire detecting model and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210175094A KR102653485B1 (en) 2021-12-08 2021-12-08 Electronic apparatus for building fire detecting model and method thereof

Publications (2)

Publication Number Publication Date
KR20230086457A KR20230086457A (en) 2023-06-15
KR102653485B1 true KR102653485B1 (en) 2024-03-29

Family

ID=86763968

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210175094A KR102653485B1 (en) 2021-12-08 2021-12-08 Electronic apparatus for building fire detecting model and method thereof

Country Status (1)

Country Link
KR (1) KR102653485B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117115641B (en) * 2023-07-20 2024-03-22 中国科学院空天信息创新研究院 Building information extraction method and device, electronic equipment and storage medium
CN117173854B (en) * 2023-09-13 2024-04-05 西安博深安全科技股份有限公司 Coal mine open fire early warning method and system based on deep learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250881A (en) 2012-06-01 2013-12-12 Nippon Telegr & Teleph Corp <Ntt> Learning image selection method, computer program and learning image selection device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102611359B1 (en) * 2019-07-19 2023-12-07 오지큐 주식회사 Method for detecting fire occurrence through neural network model, and apparatus for performing the same method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250881A (en) 2012-06-01 2013-12-12 Nippon Telegr & Teleph Corp <Ntt> Learning image selection method, computer program and learning image selection device

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ENFJ.dev,‘DeepSORT, 제대로 이해하기,’ https://gngsn.tistory.com/94 (2021.10.08.) 1부.*
S. Gutta, ‘Object Detection Algorithm-YOLOv5 Architecture,’https://medium.com/analytics-vidhya/object-detection-algorithm-yolo-v5-architecture-89e0a35472ef (2021.08.02.) 1부.*
Y. Na et al., ‘AI Fire Detection & Notification System,’ Journal of the Korea Societry of Computer and Information, 25(12), pp.63-71 (2020.12.) 1부.*
미미수, ‘A-Farm에서 사용하는 딥러닝 모델 [DeepSORT+YOLOv5],’https://memesoo99.tistory.com/80 (2021.11.25.) 1부.*

Also Published As

Publication number Publication date
KR20230086457A (en) 2023-06-15

Similar Documents

Publication Publication Date Title
AU2018324122B2 (en) Identification of individuals in a digital file using media analysis techniques
EP3382643B1 (en) Automated object tracking in a video feed using machine learning
US10140508B2 (en) Method and apparatus for annotating a video stream comprising a sequence of frames
US8811663B2 (en) Object detection in crowded scenes
IL261696A (en) System and method for training object classifier by machine learning
KR102653485B1 (en) Electronic apparatus for building fire detecting model and method thereof
Gomes et al. A vision-based approach to fire detection
TW202026948A (en) Methods and devices for biological testing and storage medium thereof
US20190005353A1 (en) Method and system for training a neural network to classify objects or events
CN111783620A (en) Expression recognition method, device, equipment and storage medium
US11087137B2 (en) Methods and systems for identification and augmentation of video content
Voulodimos et al. Improving multi-camera activity recognition by employing neural network based readjustment
Li et al. Improved YOLOv4 network using infrared images for personnel detection in coal mines
CN106529500A (en) Information processing method and system
CN110909691B (en) Motion detection method, motion detection device, computer-readable storage medium, and computer device
US11348254B2 (en) Visual search method, computer device, and storage medium
CN111738199A (en) Image information verification method, image information verification device, image information verification computing device and medium
CN113313098B (en) Video processing method, device, system and storage medium
CN115294528A (en) Pedestrian safety monitoring method and device
Dou et al. An Improved YOLOv5s Fire Detection Model
US11216666B2 (en) Understanding normality of an environment using semantic information from images
CN112149690A (en) Tracing method and tracing system based on biological image feature recognition
US10438066B2 (en) Evaluation of models generated from objects in video
Kulbacki et al. Intelligent video monitoring system with the functionality of online recognition of people’s behavior and interactions between people
CN116189286A (en) Video image violence behavior detection model and detection method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant