KR102549809B1 - Fire detection system and method based on vision - Google Patents

Fire detection system and method based on vision Download PDF

Info

Publication number
KR102549809B1
KR102549809B1 KR1020210098303A KR20210098303A KR102549809B1 KR 102549809 B1 KR102549809 B1 KR 102549809B1 KR 1020210098303 A KR1020210098303 A KR 1020210098303A KR 20210098303 A KR20210098303 A KR 20210098303A KR 102549809 B1 KR102549809 B1 KR 102549809B1
Authority
KR
South Korea
Prior art keywords
neural network
artificial neural
detection
data
fire
Prior art date
Application number
KR1020210098303A
Other languages
Korean (ko)
Other versions
KR20230016826A (en
Inventor
이수홍
현동환
박도현
나유민
박종혁
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020210098303A priority Critical patent/KR102549809B1/en
Publication of KR20230016826A publication Critical patent/KR20230016826A/en
Application granted granted Critical
Publication of KR102549809B1 publication Critical patent/KR102549809B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Signal Processing (AREA)
  • Fire-Detection Mechanisms (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 비젼 기반 화재 탐지 시스템 및 그 방법에 관한 것으로서, 더욱 상세하게는, 외부로부터 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터를 수집하는 데이터 수집부(100), 상기 데이터 수집부(100)에서 수집한 수집 데이터의 외부 환경 조건 정보를 추출하는 데이터 전처리부(200), 상기 데이터 전처리부(200)에서 추출한 외부 환경 조건 정보를 기반으로 상기 수집 데이터를 그룹화하여 둘 이상의 학습 데이터 셋을 생성하고, 기저장된 둘 이상의 인공 신경망 학습 알고리즘을 이용하여, 상기 학습 데이터 셋을 각각 학습하여 다수의 인공 신경망 학습 모델을 생성하는 학습 처리부(300) 및 실시간 화재 탐지 시, 상기 학습 처리부(300)에서 생성한 다수의 인공 신경망 학습 모델 중 적어도 하나의 인공 신경망 학습 모델을 선택하고, 선택된 상기 인공 신경망 학습 모델에 실시간 입력되는 이미지 데이터를 적용하여 화재 탐지를 수행하는 실시간 탐지부(400)를, 포함하는 비젼 기반 화재 탐지 시스템에 관한 것이다.The present invention relates to a vision-based fire detection system and method thereof, and more particularly, to a data collection unit 100 that collects fire-related image data or fire-related image data from the outside, and in the data collection unit 100 A data pre-processing unit 200 that extracts external environmental condition information from the collected collected data, groups the collected data based on the external environmental condition information extracted from the data pre-processing unit 200 to create two or more learning data sets, The learning processing unit 300 for generating a plurality of artificial neural network learning models by learning each of the learning data sets using two or more pre-stored artificial neural network learning algorithms, and multiple generated by the learning processing unit 300 when detecting a fire in real time A vision-based fire including a real-time detection unit 400 that selects at least one artificial neural network learning model among the artificial neural network learning models of and performs fire detection by applying image data input in real time to the selected artificial neural network learning model. It's about the detection system.

Description

비젼 기반 화재 탐지 시스템 및 그 방법 {Fire detection system and method based on vision}Vision-based fire detection system and method {Fire detection system and method based on vision}

본 발명은 비젼 기반 화재 탐지 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 적용 가능한 다양한 조건으로 구분하여 다수의 인공지능 학습을 수행함으로써, 실시간 화재 탐지 시, 최적화된 학습 모델을 선택하여 정확도 높게 화재 탐지를 수행할 수 있는 비젼 기반 화재 탐지 시스템 및 그 방법에 관한 것이다.The present invention relates to a vision-based fire detection system and method, and more particularly, by classifying into various applicable conditions and performing a plurality of artificial intelligence learning, in real-time fire detection, an optimized learning model is selected to increase fire accuracy. It relates to a vision-based fire detection system capable of performing detection and a method thereof.

일반적으로 화재 발생을 감지하기 위해서는, 화재가 발생할 가능성이 높은 구역에 온도, 적외선 등을 감지하는 센서 수단을 부착하여 감지를 수행하게 되며, 임계값 이상의 높은 온도가 감지될 경우, 화재가 발생한 것으로 판단하여 관련 정보들을 외부로 전송하게 된다.In general, in order to detect the occurrence of a fire, the detection is performed by attaching a sensor means for detecting temperature, infrared rays, etc. to an area where a fire is likely to occur, and when a high temperature above a threshold value is detected, it is determined that a fire has occurred. In this way, related information is transmitted to the outside.

그렇지만, 이러한 화재 감지 방식의 경우, 실내에 특화되어 있고 화재 발생 장소와 일정 거리 가까운 위치에 센서 수단의 부착이 이루어져야 하기 때문에, 화재가 발생할 가능성이 높은 특정 구역에만 구비가 가능하여, 예측하지 못하는 장소 또는 예측하지 못한 시간대에 발생하는 화재에 대해서는 신속하게 대처하는 것이 어려운 문제점이 있다.However, in the case of this fire detection method, since it is specialized for indoors and the sensor means must be attached to a location close to a certain distance from the place where a fire occurs, it can be provided only in a specific area with a high possibility of fire, and thus an unpredictable place. Or, there is a problem in that it is difficult to quickly cope with a fire that occurs at an unexpected time.

또한, 단순히 온도만을 감지하는 방법이기 때문에, 화재 탐지의 오탐율이 높을 수밖에 없다.In addition, since this method simply detects only the temperature, the false positive rate of fire detection is inevitably high.

이러한 문제점을 해결하기 위해서, 실외 화재 탐지 기술로는, 불꽃을 감지하는 객체 탐지(object detection) 알고리즘을 적용한 CCTV를 탐지 기술이 구현되고 있다.In order to solve this problem, as an outdoor fire detection technology, a CCTV detection technology to which an object detection algorithm for detecting a flame is applied has been implemented.

객체 탐지란, 이미지나 동영상에서 차량, 사람, 동물 등 유의미한 객체를 추출하고, 추출한 객체의 종류, 그 위치(bounding box)를 찾는 컴퓨터 비젼(computer vision) AI 기술을 의미한다.Object detection refers to computer vision AI technology that extracts meaningful objects such as vehicles, people, and animals from images or videos, and finds the type and location of the extracted objects (bounding box).

이와 관련해서, 국내 공개 특허 제10-2020-0013218호("영상처리와 딥러닝 기반의 AI를 이용한 조기 화재감지 시스템, 서버 및 방법")에서는 CCTV 영상을 처리하여 1차로 화재를 감지하고 딥러닝 기반 인공지능을 이용하여 2차로 화재를 감지함으로써 화재를 조기에 정확하게 탐지할 수 있는 영상처리와 딥러닝 기반의 AI를 이용한 조기 화재감지 시스템, 서버 및 방법을 개시하고 있다.In this regard, Korean Patent Publication No. 10-2020-0013218 ("Early fire detection system, server and method using image processing and deep learning-based AI") processes CCTV images to detect fire first and deep learning We are disclosing an early fire detection system, server, and method using image processing and deep learning-based AI that can detect fire early and accurately by detecting fire secondarily using AI based artificial intelligence.

국내공개특허 제10-2020-0013218호(공개일자 2020.02.06.)Domestic Patent Publication No. 10-2020-0013218 (published on 2020.02.06.)

본 발명은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 적용 가능한 다양한 조건으로 구분하여 학습 데이터 셋을 생성하고, 각 학습 데이터 셋에 대한 인공지능 학습을 수행함으로써, 실시간 화재 탐지 시, 다수의 인공지능 학습 모델 중 최적화된 학습 모델을 선택하여 정확도 높게 화재 탐지를 수행할 수 있는 비젼 기반 화재 탐지 시스템 및 그 방법을 제공하는 것이다.The present invention was made to solve the problems of the prior art as described above, and an object of the present invention is to create a learning data set by dividing into various applicable conditions, and to perform artificial intelligence learning for each learning data set. , To provide a vision-based fire detection system and method that can perform fire detection with high accuracy by selecting an optimized learning model among a number of artificial intelligence learning models in real-time fire detection.

본 발명의 일 실시예에 따른 비젼 기반 화재 탐지 시스템은, 외부로부터 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터를 수집하는 데이터 수집부(100), 상기 데이터 수집부(100)에서 수집한 수집 데이터의 외부 환경 조건 정보를 추출하는 데이터 전처리부(200), 상기 데이터 전처리부(200)에서 추출한 외부 환경 조건 정보를 기반으로 상기 수집 데이터를 그룹화하여 둘 이상의 학습 데이터 셋을 생성하고, 기저장된 둘 이상의 인공 신경망 학습 알고리즘을 이용하여, 상기 학습 데이터 셋을 각각 학습하여 다수의 인공 신경망 학습 모델을 생성하는 학습 처리부(300) 및 실시간 화재 탐지 시, 상기 학습 처리부(300)에서 생성한 다수의 인공 신경망 학습 모델 중 적어도 하나의 인공 신경망 학습 모델을 선택하고, 선택된 상기 인공 신경망 학습 모델에 실시간 입력되는 이미지 데이터를 적용하여 화재 탐지를 수행하는 실시간 탐지부(400)를 포함하는 것이 바람직하다.A vision-based fire detection system according to an embodiment of the present invention includes a data collection unit 100 that collects fire-related image data or fire-related image data from the outside, and collection data collected by the data collection unit 100. A data pre-processing unit 200 for extracting external environmental condition information, grouping the collected data based on the external environmental condition information extracted from the data pre-processing unit 200 to create two or more training data sets, and pre-stored two or more artificial A learning processing unit 300 that generates a plurality of artificial neural network learning models by learning each of the learning data sets using a neural network learning algorithm, and a plurality of artificial neural network learning models generated by the learning processing unit 300 when detecting a fire in real time It is preferable to include a real-time detection unit 400 for performing fire detection by selecting at least one artificial neural network learning model among the artificial neural network learning models and applying image data input in real time to the selected artificial neural network learning models.

더 나아가, 상기 데이터 전처리부(200)는 상기 수집 데이터의 외부 환경 조건 정보로 야간 환경 조건 또는, 주간 환경 조건을 추출하는 것이 바람직하다.Furthermore, it is preferable that the data pre-processing unit 200 extracts nighttime environmental conditions or daytime environmental conditions as external environmental condition information of the collected data.

더 나아가, 상기 실시간 탐지부(400)는 온 프레미스(on-premise) 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여, 생성된 인공 신경망 학습 모델을 선택하는 제1 선택부(410)를 더 포함하는 것이 바람직하다.Furthermore, the real-time detection unit 400 uses an artificial neural network learning algorithm corresponding to an on-premise operating condition, and a first selection unit 410 that selects a generated artificial neural network learning model. It is preferable to include more.

더 나아가, 상기 실시간 탐지부(400)는 실시간 화재 탐지가 이루어지는 동안의 입력 데이터에 대한 외부 환경 조건 정보를 추출하여, 상기 제1 선택부(410)에 의해 선택된 인공 신경망 학습 모델 중 추출한 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하는 제2 선택부(420)를 더 포함하는 것이 바람직하다.Furthermore, the real-time detection unit 400 extracts external environmental condition information for input data during real-time fire detection, and extracts external environmental conditions from among the artificial neural network learning models selected by the first selection unit 410. It is preferable to further include a second selection unit 420 for selecting an artificial neural network learning model generated by learning a learning data set corresponding to information.

더 나아가, 상기 제2 선택부(420)는 외부로부터 일출시간 정보와 일몰시간 정보를 입력받아, 입력된 상기 정보에 실시간 화재 탐지가 이루어지는 시간 정보를 반영하여 상기 입력 데이터의 외부 환경 조건 정보를 추출하는 것이 바람직하다.Furthermore, the second selector 420 receives sunrise time information and sunset time information from the outside, reflects the time information at which real-time fire detection is performed to the inputted information, and extracts external environmental condition information from the input data. It is desirable to do

더 나아가, 상기 실시간 탐지부(400)는 상기 제2 선택부(420)에 의해 선택된 인공 신경망 학습 모델에 실시간 입력되는 이미지 데이터를 입력 데이터로 적용하여 화재 탐지를 수행하는 탐지 수행부(430)를 더 포함하는 것이 바람직하다.Furthermore, the real-time detection unit 400 includes a detection performing unit 430 that performs fire detection by applying image data input in real time to the artificial neural network learning model selected by the second selection unit 420 as input data. It is preferable to include more.

더 나아가, 상기 실시간 탐지부(400)는 클라우드 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델 중 상기 제2 선택부(420)에 의해 추출한 입력 데이터의 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하여, 상기 입력 데이터의 화재 탐지를 재수행하는 탐지 검증부(440)를 더 포함하는 것이 바람직하다.Furthermore, the real-time detection unit 400 determines the external environmental conditions of the input data extracted by the second selection unit 420 from among the artificial neural network learning models generated using the artificial neural network learning algorithm corresponding to the cloud-based operating conditions. It is preferable to further include a detection verification unit 440 that selects an artificial neural network learning model generated by learning a learning data set corresponding to information and re-performs fire detection of the input data.

더 나아가, 상기 실시간 탐지부(400)는 상기 탐지 수행부(430)와 탐지 검증부(440) 간의 화재 탐지 결과가 상이할 경우, 상기 탐지 검증부(440)의 화재 탐지 결과를 최종 탐지 결과 데이터로 적용하는 것이 바람직하다.Furthermore, the real-time detection unit 400 converts the fire detection result of the detection verification unit 440 to the final detection result data when the fire detection results between the detection performing unit 430 and the detection verification unit 440 are different. It is preferable to apply

본 발명의 또 다른 일 실시예에 따른 비젼 기반 화재 탐지 방법은, 데이터 수집부에서, 외부로부터 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터를 수집하는 수집 단계(S100), 데이터 전처리부에서, 상기 수집 단계(S100)에 의해 수집한 수집 데이터의 외부 환경 조건 정보를 추출하는 환경 추출 단계(S200), 학습 처리부에서, 상기 환경 추출 단계(S200)에 의해 추출한 외부 환경 조건 정보를 기반으로 상기 수집 데이터를 그룹화하여, 적어도 두 개의 학습 데이터 셋을 생성하는 셋 생성 단계(S300), 학습 처리부에서, 기저장된 둘 이상의 인공 신경망 학습 알고리즘을 이용하여, 상기 셋 생성 단계(S300)에 의해 생성한 적어도 두 개의 학습 데이터 셋을 각각 학습하여, 다수의 인공 신경망 학습 모델을 생성하는 학습 단계(S400), 실시간 탐지부에서, 화재 탐지를 위해 실시간으로 이미지 데이터를 입력받는 탐지 시작 단계(S500), 실시간 탐지부에서, 상기 탐지 시작 단계(S500)에 의해 입력되는 입력 데이터에 대한 외부 환경 조건 정보를 추출하는 실시간 환경 추출 단계(S600), 실시간 탐지부에서, 상기 학습 단계(S400)에 의해 생성된 다수의 인공 신경망 학습 모델들 중 온 프레미스(on-premise) 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하고, 선택한 인공 신경망 학습 모델 중 상기 실시간 환경 추출 단계(S600)에 의해 추출한 입력 데이터의 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하는 모델 선택 단계(S700) 및 실시간 탐지부에서, 상기 모델 선택 단계(S700)에 의해 선택한 인공 신경망 학습 모델을 이용하여, 실시간 입력되는 이미지 데이터에 대한 화재 탐지를 수행하는 탐지 수행 단계(S800)를 포함하는 것이 바람직하다.A vision-based fire detection method according to another embodiment of the present invention includes a collection step (S100) of collecting fire-related image data or fire-related image data from the outside in a data collection unit, and in a data pre-processing unit, the collection An environment extraction step (S200) of extracting external environmental condition information of the collected data collected in step (S100), and the learning processing unit extracts the collected data based on the external environmental condition information extracted by the environment extraction step (S200). A set generation step of grouping and generating at least two training data sets (S300), in the learning processing unit, using two or more pre-stored artificial neural network learning algorithms, at least two learning generated by the set generation step (S300) A learning step (S400) of learning each data set and generating a plurality of artificial neural network learning models (S400), a detection start step (S500) of receiving image data in real time for fire detection in the real-time detection unit, in the real-time detection unit, A real-time environment extraction step (S600) of extracting external environmental condition information for the input data input by the detection start step (S500), and learning of a plurality of artificial neural networks generated by the learning step (S400) in the real-time detection unit. Among the models, an artificial neural network learning model generated using an artificial neural network learning algorithm corresponding to an on-premise operating condition is selected, and the real-time environment extraction step (S600) among the selected artificial neural network learning models A model selection step (S700) of selecting an artificial neural network learning model generated by learning a learning data set corresponding to the external environmental condition information of the extracted input data, and an artificial neural network selected by the model selection step (S700) in the real-time detection unit It is preferable to include a detection performing step ( S800 ) of performing fire detection on image data input in real time using a learning model.

더 나아가, 상기 비젼 기반 화재 탐지 방법은 실시간 탐지부에서, 상기 학습 단계(S400)에 의해 생성된 다수의 인공 신경망 학습 모델들 중 클라우드 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하고, 선택한 인공 신경망 학습 모델 중 상기 실시간 환경 추출 단계(S600)에 의해 추출한 입력 데이터의 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하는 모델 재선택 단계(S900) 및 실시간 탐지부에서, 상기 모델 재선택 단계(S900)에 의해 선택한 인공 신경망 학습 모델을 이용하여, 실시간 입력되는 이미지 데이터에 대한 화재 탐지를 수행하는 탐지 재수행 단계(S1000)를 더 포함하되, 상기 탐지 수행 단계(S800)와 탐지 재수행 단계(S1000)의 화재 탐지 결과가 상이할 경우, 상기 탐지 재수행 단계(S1000)의 화재 탐지 결과를 최종 탐지 결과 데이터로 적용하는 것이 바람직하다.Furthermore, the vision-based fire detection method is generated by using an artificial neural network learning algorithm corresponding to a cloud-based operating condition among a plurality of artificial neural network learning models generated in the learning step (S400) in a real-time detection unit. Selecting an artificial neural network learning model, and learning a learning data set corresponding to the external environmental condition information of the input data extracted by the real-time environment extraction step (S600) among the selected artificial neural network learning models Selecting an artificial neural network learning model generated by learning Model re-selection step (S900) and real-time detection unit, using the artificial neural network training model selected in the model re-selection step (S900), to perform fire detection on image data input in real time (S1000). ) Further including, but if the fire detection result of the detection step (S800) and the detection re-performation step (S1000) are different, the fire detection result of the detection re-performation step (S1000) is applied as the final detection result data it is desirable

더 나아가, 상기 실시간 환경 추출 단계(S600)는 외부로부터 일출시간 정보와 일몰시간 정보를 입력받아, 입력된 상기 정보에 실시간 화재 탐지가 이루어지는 시간 정보를 반영하여 상기 입력 데이터의 외부 환경 조건 정보를 추출하는 것이 바람직하다.Furthermore, the real-time environment extraction step (S600) receives sunrise time information and sunset time information from the outside, and extracts external environmental condition information of the input data by reflecting real-time fire detection time information to the inputted information. It is desirable to do

상기와 같은 구성에 의한 본 발명의 비젼 기반 화재 탐지 시스템 및 그 방법은 학습을 위해서 수집되는 데이터들을 화재 탐지에 적용 가능한 다양한 조건으로 구분하여 다수의 학습 데이터 셋을 생성하고, 각 학습 데이터 셋에 대한 인공지능 학습을 수행함으로써, 실시간 화재 탐지 시, 다수의 인공지능 학습 모델 중 최적화된 학습 모델을 선택하여 정확도 높게 화재 탐지를 수행할 수 있는 장점이 있다.The vision-based fire detection system and method of the present invention according to the configuration as described above divides the data collected for learning into various conditions applicable to fire detection to create a plurality of learning data sets, and for each learning data set By performing artificial intelligence learning, there is an advantage in that fire detection can be performed with high accuracy by selecting an optimized learning model among a plurality of artificial intelligence learning models in real-time fire detection.

이를 통해서, 화재 탐지 상황을 고려하지 않고 단일화된 탐지 모델을 적용하는 종래 기술과는 달리, 외부 환경 조건(주간/야간)에 따라 최적화된 학습 모델을 통해 화재를 탐지하여, 탐지 정확도 및 신뢰성을 향상시킬 수 있는 장점이 있다.Through this, unlike the prior art that applies a unified detection model without considering the fire detection situation, fire is detected through a learning model optimized according to external environmental conditions (day/night), thereby improving detection accuracy and reliability. There are advantages to doing so.

도 1은 본 발명의 일 실시예에 따른 비젼 기반 화재 탐지 시스템을 나타낸 구성 예시도이다.
도 2는 본 발명의 일 실시예에 따른 비젼 기반 화재 탐지 방법을 나타낸 순서 예시도이다.
1 is an exemplary configuration diagram illustrating a vision-based fire detection system according to an embodiment of the present invention.
2 is an exemplary sequence diagram illustrating a vision-based fire detection method according to an embodiment of the present invention.

이하 첨부한 도면들을 참조하여 본 발명의 비젼 기반 화재 탐지 시스템 및 그 방법을 상세히 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.Hereinafter, a vision-based fire detection system and method according to the present invention will be described in detail with reference to the accompanying drawings. The drawings introduced below are provided as examples to sufficiently convey the spirit of the present invention to those skilled in the art. Accordingly, the present invention may be embodied in other forms without being limited to the drawings presented below. Also, like reference numerals denote like elements throughout the specification.

이때, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.At this time, unless there is another definition in the technical terms and scientific terms used, they have meanings commonly understood by those of ordinary skill in the art to which this invention belongs, and the gist of the present invention in the following description and accompanying drawings Descriptions of well-known functions and configurations that may be unnecessarily obscure are omitted.

더불어, 시스템은 필요한 기능을 수행하기 위하여 조직화되고 규칙적으로 상호 작용하는 장치, 기구 및 수단 등을 포함하는 구성 요소들의 집합을 의미한다.In addition, a system refers to a set of components including devices, mechanisms, and means that are organized and regularly interact to perform necessary functions.

본 발명의 일 실시예에 따른 비젼 기반 화재 탐지 시스템은, 수집되는 다양한 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터를 외부 환경 조건(주간/야간)을 구분하여 학습 데이터 셋을 생성하고, CNN 기반 최신 탐지 알고리즘을 이용하여 생성한 학습 데이터 셋을 각각 학습시켜 다수의 학습 모델을 생성함으로써, 실시간으로 화재 탐지 시, 외부 환경 조건을 적용한 최적화된 모델을 선택하여 화재를 탐지할 수 있는 기술에 관한 것이다.In the vision-based fire detection system according to an embodiment of the present invention, a learning data set is created by classifying various collected fire-related image data or fire-related image data according to external environmental conditions (day/night), and CNN-based latest It relates to a technology capable of detecting a fire by selecting an optimized model to which external environmental conditions are applied when detecting a fire in real time by learning each learning data set created using a detection algorithm and creating a plurality of learning models.

특히, 화재 탐지를 위한 객체 탐지 모델 중 가장 높은 성능을 보이는 EfficientDet 알고리즘과 Yolov4 알고리즘을 이용하여, 외부 환경 조건에 따라 그룹화하여 생성한 학습 데이터 셋을 각각 학습시켜 적어도 4개의 학습 모델을 생성하는 것이 바람직하며, 이 때, EfficientDet 알고리즘과 Yolov4 알고리즘으로 한정하는 것은 아니며, 화재 탐지를 위한 객체 탐지 모델 중 가장 높은 성능을 보이는 어느 알고리즘을 적용하여도 무방하다.In particular, using the EfficientDet algorithm and Yolov4 algorithm, which show the highest performance among object detection models for fire detection, it is desirable to create at least four learning models by learning each of the generated learning data sets by grouping them according to external environmental conditions. At this time, it is not limited to the EfficientDet algorithm and the Yolov4 algorithm, and it is okay to apply any algorithm showing the highest performance among object detection models for fire detection.

이러한 본 발명의 일 실시예에 따른 비젼 기반 화재 탐지 시스템은 도 1에 도시된 바와 같이, 데이터 수집부(100), 데이터 전처리부(200), 학습 처리부(300) 및 실시간 탐지부(400)를 포함하여 구성되는 것이 바람직하다.As shown in FIG. 1, the vision-based fire detection system according to an embodiment of the present invention includes a data collection unit 100, a data pre-processing unit 200, a learning processing unit 300, and a real-time detection unit 400. It is preferable to be configured to include.

상기 데이터 수집부(100), 데이터 전처리부(200) 및 학습 처리부(300)는 하나의 연산 처리 수단으로 구성되어, 화재 탐지를 위한 학습 모델을 생성하는 동작을 수행하는 것이 바람직하며, 상기 실시간 탐지부(400)는 실시간으로 화재 탐지를 수행하기 위한 구성으로서, 상기 연산 처리 수단과는 독립된 또는 동일한 연산 처리 수단에 구성되어 동작을 수행할 수 있다.Preferably, the data collection unit 100, the data pre-processing unit 200, and the learning processing unit 300 are composed of one calculation processing unit and perform an operation of generating a learning model for fire detection, and the real-time detection The unit 400 is a component for performing fire detection in real time, and may be configured in an arithmetic processing unit independent of or identical to the arithmetic processing unit to perform an operation.

이 때, 상기 데이터 수집부(100), 데이터 전처리부(200) 및 학습 처리부(300)는 실시간 화재 탐지를 수행하기 위해서 사전에 화재 탐지를 위한 학습 모델을 생성하는 것이 바람직하며, 상기 실시간 탐지부(400)는 실시간 화재 탐지를 수행하기 위한 다수의 영상 촬영 수단(일 예를 들자면, CCTV 등)과 연결되어 실시간 입력되는 이미지 데이터를 이용하여 생성한 학습 모델을 통해 화재 탐지를 수행하는 것이 바람직하다. 이에 대해서는 추후에 상세하게 설명하도록 한다.At this time, it is preferable that the data collection unit 100, the data pre-processing unit 200, and the learning processing unit 300 generate a learning model for fire detection in advance in order to perform real-time fire detection, and the real-time detection unit (400) It is preferable to perform fire detection through a learning model generated using image data input in real time by being connected to a plurality of image capturing means (for example, CCTV, etc.) for real-time fire detection. . This will be described in detail later.

각 구성에 대해서 자세히 알아보자면,For a detailed look at each component,

상기 데이터 수집부(100)는 외부로부터 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터를 수집하는 것이 바람직하다.Preferably, the data collection unit 100 collects fire-related image data or fire-related image data from the outside.

이 때, 상기 데이터 수집부(100)는 이미지 크롤링을 통해서 방대한 양의 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터를 수집하는 것이 바람직하다.At this time, it is preferable that the data collection unit 100 collects a huge amount of fire-related image data or fire-related image data through image crawling.

더불어, 화재 관련 영상 데이터의 경우, 영상 프레임 이미지 데이터를 추출하여 활용하게 된다.In addition, in the case of fire-related video data, video frame image data is extracted and used.

상기 데이터 전처리부(200)는 상기 데이터 수집부(100)에서 수집한 수집 데이터, 다시 말하자면, 상기 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터에서 추출한 영상 프레임 이미지 데이터의 외부 환경 조건 정보를 추출하는 것이 바람직하다.The data pre-processing unit 200 extracts external environmental condition information of the collected data collected by the data collection unit 100, that is, the fire-related image data or video frame image data extracted from the fire-related video data. desirable.

상기 데이터 전처리부(200)는 상기 수집 데이터의 외부 환경 조건 정보로 야간 환경 조건 또는, 주간 환경 조건을 추출하는 것이 바람직하며, 이를 추출하기 위하여 상기 수집 데이터에 시간 정보가 포함되어 있을 경우, 이를 이용하여, 연계되어 있는 기상청 데이터베이스를 활용하여 해당하는 날짜의 일몰 시간 정보와 일출 시간 정보를 반영하여, 해당하는 수집 데이터가 야간 환경 조건의 화재 데이터인지, 주간 환경 조건의 화재 데이터인지 추출할 수 있다.The data pre-processing unit 200 preferably extracts nighttime environmental conditions or daytime environmental conditions as external environmental condition information of the collected data, and if time information is included in the collected data to extract it, it is used. Therefore, it is possible to extract whether the corresponding collected data is fire data of nighttime environmental conditions or fire data of daytime environmental conditions by reflecting sunset time information and sunrise time information of the corresponding date using the database of the Korea Meteorological Administration.

또한, 상기 수집 데이터에 시간 정보가 포함되어 있지 않을 경우, 상기 수집 데이터의 전체 영역의 명암 평균값 등 야간 환경 조건과 주간 환경 조건을 구분할 수 있는 기준치를 설정하여, 상기 수집 데이터의 야간 환경 조건 또는, 주간 환경 조건을 추출하는 것이 바람직하다.In addition, when time information is not included in the collected data, a reference value capable of distinguishing between nighttime environmental conditions and daytime environmental conditions, such as an average value of brightness and darkness of the entire area of the collected data, is set, and the nighttime environmental conditions of the collected data; It is desirable to extract daytime environmental conditions.

상기 학습 처리부(300)는 상기 데이터 전처리부(200)에서 추출한 외부 환경 조건 정보를 기반으로 상기 수집 데이터를 그룹화하여 둘 이상의 학습 데이터 셋을 생성하는 것이 바람직하다.Preferably, the learning processing unit 300 creates two or more learning data sets by grouping the collected data based on the external environmental condition information extracted by the data pre-processing unit 200 .

다시 말하자면, 상기 학습 처리부(300)는 야간 환경 조건의 화재 데이터와 주간 환경 조건의 화재 데이터가 각각 학습될 수 있도록 이를 분류/그룹화하여 적어도 둘의 학습 데이터 셋(야간 환경 조건에 해당하는 화재 데이터, 주간 환경 조건에 해당하는 화재 데이터)을 생성하는 것이 바람직하다.In other words, the learning processing unit 300 classifies/groups the fire data of the night environment condition and the fire data of the daytime environment condition so that they can be learned, respectively, to obtain at least two learning data sets (fire data corresponding to the night environment condition, It is desirable to generate fire data corresponding to daytime environmental conditions).

이는, 실외에서 발생하는 화재의 경우, 태양 빛 에너지가 존재할 때 발생하는 화재 이미지 데이터와 태양 빛 에너지가 존재하지 않을 때 발생하는 화재 이미지 데이터가 갖는 특성이 상이하기 때문에, 이를 구분하여 학습 처리를 수행하는 것이, 추후 실시간 화재 탐지 시 그 정확성과 신뢰성을 높일 수 있다.In the case of a fire that occurs outdoors, since the fire image data that occurs when solar light energy is present and the fire image data that occurs when solar light energy is not present have different characteristics, learning processing is performed by distinguishing them. Doing so can increase the accuracy and reliability of real-time fire detection in the future.

일 예를 들자면, 단순하게 이미지 데이터의 어느 특정 부위에 일정치 이상의 밝음이 탐지될 경우 이를 화재로 탐지할 경우, 태양 빛 에너지가 가장 강렬할 때 발생하는 화재를 정확하게 탐지하기 어려울 수 있으며, 태양 빛 에너지가 존재하지 않을 때에는 가로등 또는 자동차 상향등 등으로 인해 발생하는 밝음을 화재로 탐지할 수 도 있는 문제점을 갖고 있다.As an example, if brightness above a certain level is simply detected in a specific part of the image data, if it is detected as a fire, it may be difficult to accurately detect a fire that occurs when sunlight energy is most intense. When there is no energy, there is a problem in that brightness generated by street lights or high beams of automobiles can be detected as fire.

이를 해소하기 위하여, 상기 학습 처리부(300)를 통해서 야간 환경 조건의 화재 데이터와 주간 환경 조건의 화재 데이터가 각각 학습될 수 있도록 이를 분류/그룹화하여 학습 데이터 셋을 생성함으로써, 화재 탐지의 오탐율을 낮출 수 있다.In order to solve this problem, a learning data set is created by classifying/grouping fire data under nighttime environmental conditions and fire data under daytime environmental conditions so that each can be learned through the learning processing unit 300, thereby reducing the false positive rate of fire detection. can be lowered

더불어, 상기 학습 처리부(300)는 미리 저장된 둘 이상의 인공 신경망 학습 알고리즘을 이용하여, 생성한 상기 학습 데이터 셋의 각각 학습 처리를 수행함으로써, 다수의 인공 신경망 학습 모델을 생성하는 것이 바람직하다.In addition, the learning processing unit 300 preferably generates a plurality of artificial neural network learning models by performing a learning process on each of the created learning data sets using two or more previously stored artificial neural network learning algorithms.

즉, 둘 이상의 인공 신경망 학습 알고리즘 각각에, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋, 주간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 각각 학습함으로써, 적어도 네 개의 인공 신경망 학습 모델을 생성하는 것이 바람직하다.That is, in each of two or more artificial neural network learning algorithms, a learning data set generated by grouping fire data of nighttime environmental conditions and a learning data set generated by grouping fire data of daytime environmental conditions are learned, respectively. At least four artificial neural networks It is desirable to create a learning model.

상세하게는, 상기 학습 처리부(300)는 미리 저장되는 둘 이상의 인공 신경망 학습 알고리즘으로, 통상적으로 화재 탐지 시스템이 구축되는 클라우드 기반의 구동 조건에 맞는 탐지 알고리즘과 온 프레미스(on-premise) 기반의 구동 조건에 맞는 탐지 알고리즘을 선택하여 저장하는 것이 바람직하다.In detail, the learning processing unit 300 is two or more artificial neural network learning algorithms stored in advance, and a detection algorithm suitable for cloud-based driving conditions in which fire detection systems are typically built and on-premise-based driving It is desirable to select and save a detection algorithm that meets the conditions.

상기 학습 처리부(300에서는 EfficientDet 알고리즘과 Yolov4 알고리즘을 저장하여 활용하였으나, 이는 본 발명의 일 실시예에 불과하며, 이들로 한정하는 것은 아니다.The learning processing unit 300 stores and utilizes the EfficientDet algorithm and the Yolov4 algorithm, but this is only an embodiment of the present invention and is not limited thereto.

먼저, 온 프레미스 기반의 화재 탐지 시스템의 경우, '내부망 구성'을 통한 화재 탐지 시스템인 점을 감안하여, 비교적 정확도는 낮지만 자원을 많이 쓰지 않고 빠른 특징을 갖는 Yolov4 알고리즘이 적합하며, 클라우드 기반의 화재 탐지 시스템의 경우, '클라우드 환경'을 통한 화재 탐지 시스템인 점을 감안하여, 높은 FPS로 처리할 수는 없지만 많은 자원을 활용할 수 있고 비교적 정확한 특징을 갖는 EfficientDet 알고리즘이 적합하다.First, in the case of an on-premise based fire detection system, considering that it is a fire detection system through 'internal network configuration', the Yolov4 algorithm, which has relatively low accuracy but fast characteristics without consuming a lot of resources, is suitable. In the case of the fire detection system of , considering that it is a fire detection system through a 'cloud environment', the EfficientDet algorithm, which cannot be processed at high FPS, can utilize a lot of resources and has relatively accurate characteristics, is suitable.

이러한 점을 고려하여, 상기 학습 처리부(300)는 둘 이상의 인공 신경망 학습 알고리즘을 이용하여, 상기 학습 데이터 셋을 각각 학습하여 다수의 인공 신경망 학습 모델을 생성하는 것이 바람직하다.Considering this point, the learning processing unit 300 preferably generates a plurality of artificial neural network learning models by learning each of the training data sets using two or more artificial neural network learning algorithms.

상기 실시간 탐지부(400)는 상기 학습 처리부(300)를 통해서 사전에 생성된 다수의 인공 신경망 학습 모델을 적용하여, 실시간 화재 탐지를 수행하는 것이 바람직하다.It is preferable that the real-time detection unit 400 performs real-time fire detection by applying a plurality of artificial neural network learning models generated in advance through the learning processing unit 300.

이를 위해, 상기 실시간 탐지부(400)는 연계되어 있는 영상 촬영 수단을 통해서 지속적으로 영상 데이터 또는 이미지 데이터를 입력받는 것이 바람직하며, 영상 데이터로 입력될 경우, 영상 데이터의 전송 시계열 순서대로 추출한 상기 영상 프레임 이미지 데이터를 추출하여 활용하는 것이 바람직하다.To this end, it is preferable that the real-time detection unit 400 continuously receives video data or image data through an associated video capturing means. It is desirable to extract and utilize frame image data.

상기 실시간 탐지부(400)는 상기 학습 처리부(300)에서 생성한 다수의 인공 신경망 학습 모델 중 적어도 하나의 인공 신경망 학습 모델을 선택하고, 선택된 상기 인공 신경망 학습 모델에 실시간으로 입력되는 이미지 데이터 또는, 상기 영상 프레임 이미지 데이터를 적용하여 화재 탐지, 다시 말하자면, 화재 객체 탐지를 수행하는 것이 바람직하다.The real-time detection unit 400 selects at least one artificial neural network learning model from among the plurality of artificial neural network learning models generated by the learning processing unit 300, and image data input in real time to the selected artificial neural network learning model, Preferably, fire detection, that is, fire object detection, is performed by applying the video frame image data.

이 때, 상기 실시간 탐지부(400)는 다수의 인공 신경망 학습 모델 중 적어도 하나의 인공 신경망 학습 모델을 선택함에 있어서, 상기 실시간 탐지부(400)가 구성되어 있는 화재 탐지 시스템의 구동 조건(온 프레미스 기반의 구동 조건 또는, 클라우드 기반의 구동 조건)을 감안하여 해당되는 구동 조건에 맞는 탐지 알고리즘을 통해서 생성된 인공 신경망 학습 모델을 선택하고, 그 중 현재 탐지 외부 환경 조건(주간 또는 야간)에 해당되는 학습 데이터 셋을 학습한 결과 모델을 선택하는 것이 가장 바람직하다.At this time, when the real-time detection unit 400 selects at least one artificial neural network learning model from among a plurality of artificial neural network learning models, the driving condition (on-premise) of the fire detection system in which the real-time detection unit 400 is configured based driving conditions or cloud-based driving conditions), select an artificial neural network learning model generated through a detection algorithm suitable for the corresponding driving conditions, among which the current detection external environment conditions (daytime or nighttime) It is most desirable to select a model as a result of learning the training data set.

그렇지만, 이 경우, 상기 실시간 탐지부(400)가 구성되어 있는 화재 탐지 시스템의 구동 조건에 따라서, 하나의 탐지 알고리즘에 의해 생성한 학습 모델을 적용하기 때문에, 그 정확도가 낮아질 수 있기 때문에, 본 발명의 일 실시예에 따른 비젼 기반 화재 탐지 시스템의 상기 실시간 탐지부(400)에서는, 둘 이상의 인공 신경망 학습 알고리즘에 의해 생성한 학습 모델을 순차적으로 적용하거나, 특정한 조건(첫 번째 학습 모델을 통해서 화재 객체 탐지가 이루어진 경우)에서 적용함으로써, 화재 탐지의 정확도 및 신뢰도를 향상시킬 수 있다.However, in this case, since the learning model generated by one detection algorithm is applied according to the operating conditions of the fire detection system in which the real-time detection unit 400 is configured, the accuracy may be lowered, so the present invention In the real-time detection unit 400 of the vision-based fire detection system according to an embodiment of the present invention, learning models generated by two or more artificial neural network learning algorithms are sequentially applied, or under a specific condition (a fire object through the first learning model) If detection is made), the accuracy and reliability of fire detection can be improved.

이 때, 순차적인 적용의 예로는, 1차로 온 프레미스 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하여 화재 객체 탐지를 수행한 후, 2차로 클라우드 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하여 화재 객체 탐지를 수행할 수 있다.At this time, as an example of sequential application, firstly, after performing fire object detection by selecting an artificial neural network learning model generated using an artificial neural network learning algorithm corresponding to an on-premise-based operating condition, secondly, a cloud-based Fire object detection may be performed by selecting an artificial neural network learning model generated using an artificial neural network learning algorithm corresponding to a driving condition.

또는 특정한 조건에서의 적용의 예로는, 1차로 화재 객체 탐지를 수행한 온 프레미스 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델의 탐지 결과로, 화재 객체가 탐지될 경우에만, 2차로 클라우드 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하여 화재 객체 탐지를 수행할 수도 있다.Alternatively, as an example of application in a specific condition, as a result of the detection of the artificial neural network learning model generated using the artificial neural network learning algorithm corresponding to the on-premise operating condition in which the fire object was first detected, the fire object may be detected. In this case, fire object detection may be performed by selecting an artificial neural network learning model generated using an artificial neural network learning algorithm corresponding to a second cloud-based operating condition.

이를 통해서, 정확도는 다소 낮지만 비교적 신속하게 객체 탐지를 수행할 수 있는 온 프레미스 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 통한 화재 탐지를 수행하고, 이후 정확도, 신뢰도 향상을 위해 클라우드 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하여 화재 객체 탐지를 수행함으로써, 탐지 정확도를 향상시킬 수 있는 장점이 있다.Through this, fire detection is performed through an artificial neural network learning model generated using an artificial neural network learning algorithm corresponding to an on-premise-based operating condition that can perform object detection relatively quickly, although the accuracy is somewhat low, and then the accuracy In order to improve reliability, there is an advantage in that detection accuracy can be improved by performing fire object detection by selecting an artificial neural network learning model generated using an artificial neural network learning algorithm corresponding to a cloud-based driving condition.

이를 위해, 상기 실시간 탐지부(400)는 도 1에 도시된 바와 같이, 제1 선택부(410), 제2 선택부(420), 탐지 수행부(430) 및 탐지 검증부(440)를 포함하여 구성되는 것이 바람직하다.To this end, the real-time detection unit 400 includes a first selection unit 410, a second selection unit 420, a detection execution unit 430, and a detection verification unit 440, as shown in FIG. It is preferable to be configured by

상기 제1 선택부(410)는 상술한 바와 같이, 온 프레미스 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하는 것이 바람직하다.As described above, the first selector 410 preferably selects an artificial neural network learning model generated using an artificial neural network learning algorithm corresponding to an on-premise operating condition.

여기서, 상기 제1 선택부(410)를 통해서 두 개의 인공 신경망 학습 모델이 선택되는 것이 바람직하며, 상세하게는, Yolov4 알고리즘을 이용하여 생성된 인공 신경망 학습 모델이 선택되되, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋, 주간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 각각 학습한 두 개의 인공 신경망 학습 모델이 선택되게 된다.Here, it is preferable that two artificial neural network learning models are selected through the first selection unit 410, and in detail, an artificial neural network learning model generated using the Yolov4 algorithm is selected, but fire data under night environmental conditions Two artificial neural network learning models are selected, each learning a training data set created by grouping and a training data set created by grouping fire data of daytime environmental conditions.

상기 제2 선택부(420)는 실시간 화재 탐지가 이루어지는 동안의 입력 데이터, 다시 말하자면, 연계되어 있는 영상 촬영 수단을 통해서 지속적으로 입력되는 감시 데이터(영상 데이터 또는 이미지 데이터)를 분석하여, 외부 환경 조건 정보를 추출하는 것이 바람직하다.The second selector 420 analyzes the input data during real-time fire detection, that is, monitoring data (video data or image data) continuously input through the associated image capturing means, and analyzes the external environmental conditions. It is desirable to extract information.

이를 토대로 상기 제1 선택부(410)에 의해 선택된 두 개의 인공 신경망 학습 모델 중 추출한 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하는 것이 바람직하다.Based on this, it is preferable to select an artificial neural network learning model generated by learning a learning data set corresponding to the extracted external environmental condition information among the two artificial neural network learning models selected by the first selector 410.

즉, Yolov4 알고리즘을 이용하여 생성된 두 개의 인공 신경망 학습 모델 중 실시간 입력되는 감시 데이터가 해당하는 외부 환경 조건 정보(주간 환경 조건 또는, 야간 환경 조건)를 반영하여 해당하는 학습 데이터 셋을 학습한 어느 하나의 인공 신경망 학습 모델이 선택되게 된다.That is, among the two artificial neural network learning models created using the Yolov4 algorithm, which one learned the corresponding training data set by reflecting the external environmental condition information (daytime environment condition or nighttime environment condition) corresponding to the real-time input monitoring data? One artificial neural network learning model is selected.

여기서, 상기 제2 선택부(420)는 입력 데이터의 외부 환경 조건 정보를 추출하기 위하여, 외부로부터, 다시 말하자면, 연계되어 있는 기상청 데이터베이스를 입력받아 기상청 데이터베이스에 포함되어 있는 일출시간 정보와 일몰시간 정보를 추출하여, 이를 기준으로 주간 환경/야간 환경을 구분하는 것이 바람직하다.Here, the second selector 420 receives input from the outside, that is, the meteorological agency database associated with it, in order to extract the external environmental condition information of the input data, and the sunrise time information and sunset time information included in the meteorological agency database. It is desirable to extract and classify the daytime environment / nighttime environment based on this.

상세하게는, 상기 제2 선택부(420)는 입력 데이터에 포함되어 있는 시간 정보 또는, 상기 실시간 탐지부(400)를 이용하고 있는 '화재 탐지 시스템'으로부터 입력되는 실시간 화재 탐지가 이루어지는 시간 정보를 이용하여, 기상청 데이터베이스에 포함되어 있는 일출시간 정보와 일몰시간 정보를 반영하여 실시간 화재 탐지가 이루어지고 있는 현재가 주간 환경 조건인지, 야간 환경 조건인지 판단하여 입력 데이터의 외부 환경 조건 정보를 추출하는 것이 바람직하다.In detail, the second selector 420 selects time information included in the input data or time information for real-time fire detection input from a 'fire detection system' using the real-time detection unit 400. It is desirable to extract the external environmental condition information of the input data by determining whether the current daytime environmental condition or nighttime environmental condition where real-time fire detection is being made is determined by reflecting the sunrise time information and sunset time information included in the database of the Korea Meteorological Administration using do.

이 때, 상기 데이터 전처리부(200)에서는 대량의 수집 데이터를 학습 데이터 셋으로 생성하기 때문에, 보다 포괄적으로 외부 환경 조건 정보가 분류되어도 무방하게 된다. 그렇기 때문에, 기상청 데이터베이스까지 활용하지 않고, 수집 데이터 자체의 특징점을 추출하여 외부 환경 조건 정보를 구분하는 것이 바람직하다.At this time, since the data pre-processing unit 200 generates a large amount of collected data as a learning data set, it is okay to classify the external environment condition information more comprehensively. Therefore, it is desirable to distinguish external environmental condition information by extracting feature points of the collected data itself, without utilizing the database of the Korea Meteorological Administration.

그렇지만, 상기 실시간 탐지부(400)를 이용하고 있는 '화재 탐지 시스템'으로부터 입력되는 감시 데이터는 보다 높은 정확도가 요구되기 때문에, 기상청 데이터베이스까지 활용하여 보다 섬세하게 외부 환경 조건 정보를 추출하는 것이 바람직하다.However, since the monitoring data input from the 'fire detection system' using the real-time detection unit 400 requires higher accuracy, it is desirable to extract external environmental condition information more delicately by utilizing the database of the Korea Meteorological Administration. .

이를 통해서, 상기 제2 선택부(420)는 추출한 입력 데이터의 외부 환경 조건 정보를 반영하여, 상기 제1 선택부(410)에 의해 선택된 두 개의 인공 신경망 학습 모델 중 추출한 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하게 된다.Through this, the second selector 420 reflects the external environmental condition information of the extracted input data, and corresponds to the extracted external environmental condition information among the two artificial neural network learning models selected by the first selector 410. An artificial neural network learning model created by learning a training data set is selected.

상기 탐지 수행부(430)는 상기 제2 선택부(420)에 의해 선택된 인공 신경망 학습 모델에 실시간으로 입력되는 이미지 데이터를 입력 데이터로 적용하여, 화재 객체 탐지를 수행하게 된다.The detection performing unit 430 applies image data input in real time to the artificial neural network learning model selected by the second selection unit 420 as input data to detect a fire object.

이 때, 상기 탐지 수행부(430)에 의한 화재 객체 탐지는 '1차 탐지' 개념으로 해석하는 것이 바람직하며, 상기 탐지 검증부(440)를 통해서 상기 탐지 수행부(430)에 의한 화재 객체 탐지 결과의 검증을 수행하는 것이 바람직하다.At this time, it is preferable to interpret the detection of a fire object by the detection unit 430 as a 'primary detection' concept, and the detection of a fire object by the detection unit 430 through the detection verification unit 440. It is desirable to perform verification of the results.

상기 탐지 검증부(440)의 동작 여부는 상기 실시간 탐지부(400)를 이용하고 있는 '화재 탐지 시스템'의 사용 관리자(또는, 제어자 등)의 설정에 따라 상기 탐지 수행부(430)에서의 탐지 결과가 화재 발생일 경우에만 다시 한번 재탐지를 수행하기 위해 동작을 제어하거나, 상기 탐지 수행부(430)의 탐지 결과와는 무관하게 '2차 탐지'의 개념으로 동작을 수행할 수도 있다.Whether or not the detection verification unit 440 is operating depends on the setting of the manager (or controller, etc.) of the 'fire detection system' using the real-time detection unit 400 in the detection execution unit 430. An operation may be controlled to perform re-detection only when the detection result is a fire, or an operation may be performed under the concept of 'secondary detection' regardless of the detection result of the detection unit 430 .

이러한 상기 탐지 검증부(440)는 상기 제1 선택부(410)에 의한 인공 신경망 학습 모델의 선택과 상이하도록 하여 2차 탐지에 활용한 인공 신경망 학습 모델의 중복 선택이 발생하지 않도록, 클라우드 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하는 것이 바람직하다.The detection verification unit 440 makes it different from the selection of the artificial neural network learning model by the first selection unit 410 so that the artificial neural network learning model used for the secondary detection does not overlap, cloud-based It is preferable to select an artificial neural network learning model generated using an artificial neural network learning algorithm corresponding to a driving condition.

상기 제1 선택부(410)와 마찬가지로, 두 개의 인공 신경망 학습 모델이 선택되는 것이 바람직하며, 상세하게는, EfficientDet 알고리즘을 이용하여 생성된 인공 신경망 학습 모델이 선택되되, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋, 주간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 각각 학습한 두 개의 인공 신경망 학습 모델을 선택한 후, 상기 제2 선택부(420)에 의해 추출한 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 하나의 인공 신경망 학습 모델을 선택하는 것이 바람직하다.Like the first selector 410, it is preferable that two artificial neural network learning models are selected, and in detail, an artificial neural network learning model generated using the EfficientDet algorithm is selected, and fire data in nighttime environmental conditions is selected. External environmental conditions extracted by the second selector 420 after selecting two artificial neural network learning models respectively learned from the learning data set generated by grouping and the training data set generated by grouping the fire data of daytime environmental conditions It is preferable to select one artificial neural network learning model generated by learning a training data set corresponding to information.

상기 탐지 검증부(440)는 선택한 인공 신경망 학습 모델에 실시간으로 입력되는 이미지 데이터를 입력 데이터로 적용하여, 화재 객체 탐지를 수행하는 것이 바람직하다.Preferably, the detection verification unit 440 performs detection of a fire object by applying image data input in real time to the selected artificial neural network learning model as input data.

이 때, 상기 탐지 검증부(440)의 탐지 결과와 상기 탐지 수행부(430)의 탐지 결과가 상이할 경우, 상기 탐지 검증부(440)에 의한 탐지 결과를 최종 탐지 결과로 설정하거나, 상기 실시간 탐지부(400)를 이용하고 있는 '화재 탐지 시스템'의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델에 의한 탐지 결과를 최종 탐지 결과로 설정하는 것이 바람직하며, 이는 사용 관리자(또는, 제어자 등)로부터 설정 입력받게 된다.At this time, when the detection result of the detection verification unit 440 and the detection result of the detection execution unit 430 are different, the detection result by the detection verification unit 440 is set as the final detection result, or the real-time It is preferable to set the detection result by the artificial neural network learning model generated using the artificial neural network learning algorithm corresponding to the driving condition of the 'fire detection system' using the detection unit 400 as the final detection result, which is Settings are received from the manager (or controller, etc.).

더불어, 상기 실시간 탐지부(400)는 상기 제2 선택부(420)에서 추출한 상기 입력 데이터의 외부 환경 조건 정보가 주간 환경 조건과 야간 환경 조건 사이의 소정 범위 내일 경우, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 학습한 인공 신경망 학습 모델과 주간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 학습한 인공 신경망 학습 모델을 모두 선택하는 것이 바람직하다.In addition, the real-time detection unit 400 detects fire data of the night environment condition when the external environment condition information of the input data extracted by the second selector 420 is within a predetermined range between the daytime environment condition and the nighttime environment condition. It is preferable to select both an artificial neural network learning model that learns a training data set generated by grouping and an artificial neural network learning model that learns a training data set generated by grouping fire data of daytime environmental conditions.

다시 말하자면, 상기 실시간 탐지부(400)는 일출 시간부터 일몰 시간까지의 시간 정보에 해당하는 입력 데이터를 주간 환경 조건이라 하고, 일몰 시간부터 일출 시간까지의 시간 정보에 해당하는 입력 데이터를 야간 환경 조건이라 할 경우, 현재 입력 데이터의 시간 정보가 일출 시간의 30분 전, 일몰 시간의 30분 후와 같이, 야간과 주간의 경계를 정확하게 구분하기 어려운 시간대의 외부 환경 조건을 소정 범위로 설정하고, 해당하는 소정 범위 내에 시간 정보가 입력될 경우, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 학습한 인공 신경망 학습 모델과 주간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 학습한 인공 신경망 학습 모델을 모두 선택하는 것이 바람직하다.In other words, the real-time detection unit 400 refers to input data corresponding to time information from sunrise to sunset as daytime environmental conditions, and sets input data corresponding to time information from sunset to sunrise as nighttime environmental conditions. In this case, the time information of the current input data sets the external environmental conditions of the time zone where it is difficult to accurately distinguish the boundary between night and day, such as 30 minutes before sunrise and 30 minutes after sunset, within a predetermined range. When time information is input within a predetermined range of the artificial neural network learning model that has learned a learning data set created by grouping fire data of nighttime environmental conditions and fire data of daytime environmental conditions, learning a learning data set created by grouping It is desirable to select all artificial neural network learning models.

단, 탐지 수행부(430) 또는, 탐지 검증부(440)에서 두 개의 인공 신경망 학습 모델에 의한 탐지 결과를 도출하되, 현재 시간 정보가 포함되는 영역의 인공 신경망 학습 모델에 의한 탐지 결과, 일 예를 들자면, 일출 시간의 30분 전일 경우, 분류하자면 야간 환경 조건에 해당하기 때문에, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 학습한 인공 신경망 학습 모델에 의한 탐지 결과에 소정 가중치를 더 주어, 최종 탐지 결과로 설정하는 것이 바람직하며, 소정 가중치는 사용 관리자(또는, 제어자 등)로부터 설정 입력받게 된다.However, the detection performer 430 or the detection verification unit 440 derives the detection result by the two artificial neural network learning models, but the detection result by the artificial neural network learning model of the area including the current time information, an example For example, in the case of 30 minutes before sunrise, since it corresponds to nighttime environmental conditions to be classified, a predetermined weight is given to the detection result by the artificial neural network learning model learning the training data set generated by grouping fire data of nighttime environmental conditions. Further, it is preferable to set it as the final detection result, and the predetermined weight is input from the user manager (or controller, etc.).

도 2는 본 발명의 일 실시예에 따른 비젼 기반 화재 탐지 방법을 나타낸 순서 예시도로서, 본 발명의 일 실시예에 따른 비젼 기반 화재 탐지 방법은 도 2에 도시된 바와 같이, 수집 단계(S100), 환경 추출 단계(S200), 셋 생성 단계(S300), 학습 단계(S400), 탐지 시작 단계(S500), 실시간 환경 추출 단계(S600), 모델 선택 단계(S700) 및 탐지 수행 단계(S800)를 포함하여 구성되는 것이 바람직하다.2 is a flowchart illustrating a vision-based fire detection method according to an embodiment of the present invention. As shown in FIG. 2, the vision-based fire detection method according to an embodiment of the present invention includes a collection step (S100). , environment extraction step (S200), set generation step (S300), learning step (S400), detection start step (S500), real-time environment extraction step (S600), model selection step (S700) and detection step (S800) It is preferable to be configured to include.

각 단계에 대해서 자세히 알아보자면,For a detailed look at each step,

상기 수집 단계(S100)는 상기 데이터 수집부(100)에서, 외부로부터 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터를 수집하게 된다.In the collecting step (S100), the data collection unit 100 collects fire-related image data or fire-related image data from the outside.

상기 수집 단계(S100)는 이미지 크롤링을 통해서 방대한 양의 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터를 수집하는 것이 바람직하며, 화재 관련 영상 데이터의 경우, 영상 프레임 이미지 데이터를 추출하여 활용하게 된다.In the collecting step (S100), it is preferable to collect a vast amount of fire-related image data or fire-related image data through image crawling, and in the case of fire-related image data, image frame image data is extracted and used.

상기 환경 추출 단계(S200)는 상기 데이터 전처리부(200)에서, 상기 수집 단계(S100)에 의해 수집한 수집 데이터, 다시 말하자면, 상기 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터에서 추출한 영상 프레임 이미지 데이터의 외부 환경 조건 정보를 추출하게 된다.The environment extraction step (S200) is the video frame image data extracted from the collection data collected by the collection step (S100) in the data pre-processing unit 200, that is, the fire-related image data or fire-related image data. The external environment condition information of is extracted.

상세하게는, 상기 환경 추출 단계(S200)는 상기 수집 데이터의 외부 환경 조건 정보로 야간 환경 조건 또는, 주간 환경 조건을 추출하는 것이 바람직하며, 이를 추출하기 위하여 상기 수집 데이터에 시간 정보가 포함되어 있을 경우, 이를 이용하여, 연계되어 있는 기상청 데이터베이스를 활용하여 해당하는 날짜의 일몰 시간 정보와 일출 시간 정보를 반영하여, 해당하는 수집 데이터가 야간 환경 조건의 화재 데이터인지, 주간 환경 조건의 화재 데이터인지 추출할 수 있다.In detail, in the environment extraction step (S200), it is preferable to extract nighttime environmental conditions or daytime environmental conditions as external environmental condition information of the collected data, and time information must be included in the collected data to extract them. In this case, by using the linked database of the Korea Meteorological Administration, the sunset time information and the sunrise time information of the corresponding date are reflected to extract whether the corresponding collected data is fire data of nighttime environmental conditions or fire data of daytime environmental conditions. can do.

또한, 상기 수집 데이터에 시간 정보가 포함되어 있지 않을 경우, 상기 수집 데이터의 전체 영역의 명암 평균값 등 야간 환경 조건과 주간 환경 조건을 구분할 수 있는 기준치를 설정하여, 상기 수집 데이터의 야간 환경 조건 또는, 주간 환경 조건을 추출하는 것이 바람직하다.In addition, when time information is not included in the collected data, a reference value capable of distinguishing between nighttime environmental conditions and daytime environmental conditions, such as an average value of brightness and darkness of the entire area of the collected data, is set, and the nighttime environmental conditions of the collected data; It is desirable to extract daytime environmental conditions.

상기 셋 생성 단계(S300)는 상기 학습 처리부(300)에서, 상기 환경 추출 단계(S200)에 의해 추출한 외부 환경 조건 정보를 기반으로 상기 수집 데이터를 그룹화하여 둘 이상의 학습 데이터 셋을 생성하게 된다.In the set generation step (S300), the learning processing unit 300 groups the collected data based on the external environment condition information extracted by the environment extraction step (S200) to generate two or more learning data sets.

즉, 상기 셋 생성 단계(S300)는 야간 환경 조건의 화재 데이터와 주간 환경 조건의 화재 데이터가 각각 학습될 수 있도록 이를 분류/그룹화하여 적어도 둘의 학습 데이터 셋(야간 환경 조건에 해당하는 화재 데이터, 주간 환경 조건에 해당하는 화재 데이터)을 생성하게 된다.That is, in the set generation step (S300), at least two learning data sets (fire data corresponding to nighttime environmental conditions, fire data corresponding to nighttime environmental conditions, Fire data corresponding to daytime environmental conditions) will be generated.

상기 학습 단계(S400)는 상기 학습 처리부(300)에서, 미리 저장된 둘 이상의 인공 신경망 학습 알고리즘을 이용하여, 상기 셋 생성 단계(S300)에 의해 생성한 상기 학습 데이터 셋의 각각 학습 처리를 수행함으로써, 다수의 인공 신경망 학습 모델을 생성하게 된다.In the learning step (S400), the learning processing unit 300 uses two or more artificial neural network learning algorithms stored in advance to perform learning processing on each of the learning data sets generated by the set generating step (S300), A number of artificial neural network learning models will be created.

다시 말하자면, 상기 학습 단계(S400)는 둘 이상의 인공 신경망 학습 알고리즘 각각에, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋, 주간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 각각 학습함으로써, 적어도 네 개의 인공 신경망 학습 모델을 생성하게 된다.In other words, in the learning step (S400), in each of the two or more artificial neural network learning algorithms, a learning data set generated by grouping fire data of nighttime environmental conditions and a learning data set generated by grouping fire data of daytime environmental conditions are respectively By training, it creates at least four artificial neural network learning models.

미리 저장되는 둘 이상의 인공 신경망 학습 알고리즘으로, 통상적으로 화재 탐지 시스템이 구축되는 클라우드 기반의 구동 조건에 맞는 탐지 알고리즘과 온 프레미스(on-premise) 기반의 구동 조건에 맞는 탐지 알고리즘을 선택하여 저장하는 것이 바람직하다.As two or more artificial neural network learning algorithms that are stored in advance, it is preferable to select and store a detection algorithm suitable for the cloud-based operating conditions in which a fire detection system is normally built and a detection algorithm suitable for the on-premise operating conditions. desirable.

먼저, 온 프레미스 기반의 화재 탐지 시스템의 경우, '내부망 구성'을 통한 화재 탐지 시스템인 점을 감안하여, 비교적 정확도는 낮지만 자원을 많이 쓰지 않고 빠른 특징을 갖는 Yolov4 알고리즘이 적합하며, 클라우드 기반의 화재 탐지 시스템의 경우, '클라우드 환경'을 통한 화재 탐지 시스템인 점을 감안하여, 높은 FPS로 처리할 수는 없지만 많은 자원을 활용할 수 있고 비교적 정확한 특징을 갖는 EfficientDet 알고리즘이 적합하다.First, in the case of an on-premise based fire detection system, considering that it is a fire detection system through 'internal network configuration', the Yolov4 algorithm, which has relatively low accuracy but fast characteristics without consuming a lot of resources, is suitable. In the case of the fire detection system of , considering that it is a fire detection system through a 'cloud environment', the EfficientDet algorithm, which cannot be processed at high FPS, can utilize a lot of resources and has relatively accurate characteristics, is suitable.

이러한 점을 고려하여, 상기 학습 처리부(300)는 둘 이상의 인공 신경망 학습 알고리즘을 이용하여, 상기 학습 데이터 셋을 각각 학습하여 다수의 인공 신경망 학습 모델을 생성하는 것이 바람직하다.Considering this point, the learning processing unit 300 preferably generates a plurality of artificial neural network learning models by learning each of the training data sets using two or more artificial neural network learning algorithms.

상기 탐지 시작 단계(S500)는 상기 실시간 탐지부(400)에서, 화재 탐지를 위해 실시간으로 화재 감시 데이터, 다시 말하자면, 연계되어 있는 영상 촬영 수단을 통해서 지속적으로 영상 데이터 또는 이미지 데이터를 입력받는 것이 바람직하며, 영상 데이터로 입력될 경우, 영상 데이터의 전송 시계열 순서대로 추출한 상기 영상 프레임 이미지 데이터를 추출하여 활용하게 된다.In the detection start step (S500), it is preferable that the real-time detection unit 400 continuously receives fire monitoring data, that is, video data or image data through a linked image capturing unit in real time for fire detection. When input as video data, the video frame image data extracted in the transmission time series order of the video data is extracted and used.

상기 실시간 환경 추출 단계(S600)는 상기 실시간 탐지부(400)에서, 상기 탐지 시작 단계(S500)에 의해 입력되는 입력 데이터, 다시 말하자면, 실시간 화재 탐지가 이루어지는 동안 연계되어 있는 영상 촬영 수단을 통해서 지속적으로 입력되는 감시 데이터(영상 데이터 또는 이미지 데이터)를 분석하여, 외부 환경 조건 정보를 추출하게 된다.In the real-time environment extraction step (S600), in the real-time detection unit 400, the input data input by the detection start step (S500), in other words, continuously through the video recording unit linked during the real-time fire detection is performed. It analyzes the monitoring data (video data or image data) input to and extracts external environment condition information.

이 때, 상기 실시간 환경 추출 단계(S600)는 입력 데이터의 외부 환경 조건 정보를 추출하기 위하여, 외부로부터, 다시 말하자면, 연계되어 있는 기상청 데이터베이스를 입력받아 기상청 데이터베이스에 포함되어 있는 일출시간 정보와 일몰시간 정보를 추출하여, 이를 기준으로 주간 환경/야간 환경을 구분하는 것이 바람직하다.At this time, in order to extract the external environment condition information of the input data, in the real-time environment extraction step (S600), the sunrise time information and the sunset time included in the meteorological agency database are received from the outside, that is, the meteorological agency database associated therewith. It is desirable to extract the information and classify the day environment/night environment based on this information.

상세하게는, 입력 데이터에 포함되어 있는 시간 정보 또는, 구동되고 있는 '화재 탐지 시스템'으로부터 입력되는 실시간 화재 탐지가 이루어지는 시간 정보를 이용하여, 기상청 데이터베이스에 포함되어 있는 일출시간 정보와 일몰시간 정보를 반영하여 실시간 화재 탐지가 이루어지고 있는 현재가 주간 환경 조건인지, 야간 환경 조건인지 판단하여 입력 데이터의 외부 환경 조건 정보를 추출하는 것이 바람직하다.In detail, by using the time information included in the input data or the time information at which real-time fire detection is input from the 'fire detection system' being operated, the sunrise time information and sunset time information included in the database of the Korea Meteorological Administration are calculated. It is desirable to extract the external environmental condition information of the input data by determining whether the current daytime environmental condition or the nighttime environmental condition is reflected in real-time fire detection.

상기 모델 선택 단계(S700)는 상기 실시간 탐지부(400)에서, 상기 학습 단계(S400)에 의해 생성된 다수의 인공 신경망 학습 모델들 중 온 프레미스 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하게 된다. 이를 통해서, 두 개의 인공 신경망 학습 모델이 선택되는 것이 바람직하며, 상세하게는, Yolov4 알고리즘을 이용하여 생성된 인공 신경망 학습 모델이 선택되되, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋, 주간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 각각 학습한 두 개의 인공 신경망 학습 모델이 선택되게 된다.In the model selection step (S700), the real-time detection unit 400 uses an artificial neural network learning algorithm corresponding to an on-premise operating condition among a plurality of artificial neural network learning models generated by the learning step (S400). Then, the artificial neural network training model created is selected. Through this, it is preferable to select two artificial neural network learning models, and in detail, an artificial neural network learning model generated using the Yolov4 algorithm is selected, but a training data set generated by grouping fire data in night environmental conditions, Two artificial neural network learning models, each learning a training data set generated by grouping fire data of daytime environmental conditions, are selected.

상기 모델 선택 단계(S700)는 선택된 두 개의 인공 신경망 학습 모델 중 상기 실시간 환경 추출 단계(S600)에 의해 추출한 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하게 된다.In the model selection step (S700), an artificial neural network learning model generated by learning a learning data set corresponding to the external environment condition information extracted in the real-time environment extraction step (S600) is selected from among the two selected artificial neural network learning models. .

즉, Yolov4 알고리즘을 이용하여 생성된 두 개의 인공 신경망 학습 모델 중 실시간 입력되는 감시 데이터가 해당하는 외부 환경 조건 정보(주간 환경 조건 또는, 야간 환경 조건)를 반영하여 해당하는 학습 데이터 셋을 학습한 어느 하나의 인공 신경망 학습 모델이 선택되게 된다.That is, among the two artificial neural network learning models created using the Yolov4 algorithm, which one learned the corresponding training data set by reflecting the external environmental condition information (daytime environment condition or nighttime environment condition) corresponding to the real-time input monitoring data? One artificial neural network learning model is selected.

상기 탐지 수행 단계(S800)는 상기 실시간 탐지부(400)에서, 상기 모델 선택 단계(S700)에 의해 선택된 인공 신경망 학습 모델에 실시간으로 입력되는 이미지 데이터를 입력 데이터로 적용하여, 화재 객체 탐지를 수행하게 된다.In the detection performing step (S800), in the real-time detection unit 400, the image data input in real time to the artificial neural network learning model selected in the model selection step (S700) is applied as input data to detect a fire object. will do

이 때, 상기 탐지 수행 단계(S800)에 의한 화재 객체 탐지는 '1차 탐지' 개념으로 해석하는 것이 바람직하며, 탐지 결과에 대한 검증을 수행하는 것이 바람직하다.At this time, it is preferable to interpret the fire object detection by the detection execution step (S800) as a 'primary detection' concept, and it is preferable to perform verification of the detection result.

이를 위해, 본 발명의 일 실시예에 따른 비젼 기반 화재 탐지 방법은 도 2에 도시된 바와 같이, 모델 재선택 단계(S900) 및 탐지 재수행 단계(S1000)를 더 포함하여 구성되는 것이 바람직하다.To this end, as shown in FIG. 2 , the vision-based fire detection method according to an embodiment of the present invention preferably further includes a model re-selection step (S900) and a detection re-performing step (S1000).

상기 모델 재선택 단계(S900)는 상기 실시간 탐지부(400)에서, 상기 학습 단계(S400)에 의해 생성된 다수의 인공 신경망 학습 모델들 중 클라우드 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하게 된다.In the model reselection step (S900), the real-time detection unit 400 uses an artificial neural network learning algorithm corresponding to a cloud-based operating condition among a plurality of artificial neural network learning models generated by the learning step (S400). Then, the artificial neural network training model created is selected.

이를 통해서, 상기 모델 선택 단계(S700)와 마찬가지로 두 개의 인공 신경망 학습 모델이 선택되는 것이 바람직하며, 상세하게는, EfficientDet 알고리즘을 이용하여 생성된 인공 신경망 학습 모델이 선택되되, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋, 주간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 각각 학습한 두 개의 인공 신경망 학습 모델을 선택되게 된다.Through this, it is preferable to select two artificial neural network learning models as in the model selection step (S700), and in detail, the artificial neural network learning model generated using the EfficientDet algorithm is selected, but fire data in night environmental conditions Two artificial neural network learning models are selected, each learning a learning data set created by grouping and a learning data set created by grouping fire data of daytime environmental conditions.

이 후, 상기 모델 재선택 단계(S900)는 선택된 두 개의 인공 신경망 학습 모델 중 상기 실시간 환경 추출 단계(S600)에 의해 추출한 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하게 된다.Thereafter, the model reselection step (S900) is an artificial neural network learning model generated by learning a training data set corresponding to the external environment condition information extracted by the real-time environment extraction step (S600) among the two selected artificial neural network learning models. will choose

즉, EfficientDet 알고리즘을 이용하여 생성된 두 개의 인공 신경망 학습 모델 중 실시간 입력되는 감시 데이터가 해당하는 외부 환경 조건 정보(주간 환경 조건 또는, 야간 환경 조건)를 반영하여 해당하는 학습 데이터 셋을 학습한 어느 하나의 인공 신경망 학습 모델이 선택되게 된다.That is, among the two artificial neural network learning models created using the EfficientDet algorithm, one of the learning data sets corresponding to the monitoring data input in real time reflects the corresponding external environmental condition information (daytime environment conditions or nighttime environment conditions). One artificial neural network learning model is selected.

상기 탐지 재수행 단계(S1000)는 상기 실시간 탐지부(400)에서, 상기 모델 재선택 단계(S900)에 의해 선택한 인공 신경망 학습 모델에 실시간으로 입력되는 이미지 데이터를 입력 데이터로 적용하여, 화재 객체 탐지를 수행하게 된다.In the detection re-performing step (S1000), in the real-time detection unit 400, the image data input in real time to the artificial neural network learning model selected in the model re-selection step (S900) is applied as input data to detect a fire object. will perform

이 때, 상기 탐지 수행 단계(S800)의 탐지 결과와 탐지 재수행 단계(S1000)의 탐지 결과가 상이할 경우, 상기 탐지 재수행 단계(S1000)에 의한 탐지 결과를 최종 탐지 결과로 설정하는 것이 가장 바람직하나, 상기 실시간 탐지부(400)의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델에 의한 탐지 결과를 최종 탐지 결과로 설정하는 것이 바람직하며, 이는 사용 관리자(또는, 제어자 등)로부터 설정 입력받게 된다.At this time, if the detection result of the detection execution step (S800) and the detection result of the detection re-performation step (S1000) are different, the detection result by the detection re-performation step (S1000) is set as the final detection result. However, it is preferable to set the detection result by the artificial neural network learning model generated using the artificial neural network learning algorithm corresponding to the operating condition of the real-time detection unit 400 as the final detection result, which is the user manager (or, It receives setting input from the controller, etc.).

더불어, 본 발명의 일 실시예에 따른 비젼 기반 화재 탐지 방법은, 상기 실시간 환경 추출 단계(S600)에 의해 추출한 외부 환경 조건 정보가 주간 환경 조건과 야간 환경 조건 사이의 소정 범위 내일 경우, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 학습한 인공 신경망 학습 모델과 주간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 학습한 인공 신경망 학습 모델을 모두 선택하는 것이 바람직하다.In addition, in the vision-based fire detection method according to an embodiment of the present invention, when the external environment condition information extracted by the real-time environment extraction step (S600) is within a predetermined range between the daytime environment condition and the nighttime environment condition, the nighttime environment condition It is preferable to select both an artificial neural network learning model that learns a training data set generated by grouping fire data of , and an artificial neural network learning model that learns a training data set generated by grouping fire data of daytime environmental conditions.

다시 말하자면, 일출 시간부터 일몰 시간까지의 시간 정보에 해당하는 입력 데이터를 주간 환경 조건이라 하고, 일몰 시간부터 일출 시간까지의 시간 정보에 해당하는 입력 데이터를 야간 환경 조건이라 할 경우, 현재 입력 데이터의 시간 정보가 일출 시간의 30분 전, 일몰 시간의 30분 후와 같이, 야간과 주간의 경계를 정확하게 구분하기 어려운 시간대의 외부 환경 조건을 소정 범위로 설정하고, 해당하는 소정 범위 내에 시간 정보가 입력될 경우, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 학습한 인공 신경망 학습 모델과 주간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 학습한 인공 신경망 학습 모델을 모두 선택하는 것이 바람직하다.In other words, when input data corresponding to time information from sunrise to sunset is referred to as daytime environmental conditions, and input data corresponding to time information from sunset to sunrise is referred to as nighttime environmental conditions, the current input data The external environmental conditions of the time zone where it is difficult to accurately distinguish the boundary between night and day, such as 30 minutes before sunrise and 30 minutes after sunset, where time information is set to a predetermined range, and time information is input within the predetermined range If it is, select both the artificial neural network learning model that learned the training data set created by grouping the fire data of nighttime environmental conditions and the artificial neural network learning model that learned the training data set created by grouping the fire data of daytime environmental conditions. it is desirable

다만, 상기 탐지 수행 단계(S800), 탐지 재수행 단계(S1000) 모두에서 두 개의 인공 신경망 학습 모델에 의한 탐지 결과를 도출하되, 현재 시간 정보가 포함되는 영역의 인공 신경망 학습 모델에 의한 탐지 결과, 일 예를 들자면, 일출 시간의 30분 전일 경우, 분류하자면 야간 환경 조건에 해당하기 때문에, 야간 환경 조건의 화재 데이터를 그룹화하여 생성한 학습 데이터 셋을 학습한 인공 신경망 학습 모델에 의한 탐지 결과에 소정 가중치를 더 주어, 최종 탐지 결과로 설정하는 것이 바람직하며, 소정 가중치는 사용 관리자(또는, 제어자 등)로부터 설정 입력받게 된다.However, in both the detection execution step (S800) and the detection re-performation step (S1000), detection results by the two artificial neural network learning models are derived, but detection results by the artificial neural network learning model in the area including the current time information, For example, in the case of 30 minutes before sunrise, since it corresponds to nighttime environmental conditions to be classified, the detection result by the artificial neural network learning model learning the learning data set generated by grouping fire data of nighttime environmental conditions It is preferable to set a final detection result by giving additional weights, and the predetermined weights are input from the user manager (or controller, etc.).

이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것 일 뿐, 본 발명은 상기의 일 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described with specific details such as specific components and limited embodiment drawings, but this is only provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiment. No, and those skilled in the art to which the present invention pertains can make various modifications and variations from these descriptions.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments, and it will be said that not only the claims to be described later, but also all modifications equivalent or equivalent to these claims belong to the scope of the present invention. .

100 : 데이터 수집부
200 : 데이터 전처리부
300 : 학습 처리부
400 : 실시간 탐지부
410 : 제1 선택부 420 : 제2 선택부
430 : 탐지 수행부 440 : 탐지 검증부
100: data collection unit
200: data pre-processing unit
300: learning processing unit
400: real-time detection unit
410: first selection unit 420: second selection unit
430: detection performing unit 440: detection verification unit

Claims (11)

외부로부터 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터를 수집하는 데이터 수집부(100);
상기 데이터 수집부(100)에서 수집한 수집 데이터의 외부 환경 조건 정보로 야간 환경 조건 또는, 주간 환경 조건을 추출하는 데이터 전처리부(200);
상기 데이터 전처리부(200)에서 추출한 외부 환경 조건 정보를 기반으로 상기 수집 데이터를 그룹화하여 둘 이상의 학습 데이터 셋을 생성하고, 기저장된 둘 이상의 인공 신경망 학습 알고리즘을 이용하여, 상기 학습 데이터 셋을 각각 학습하여 다수의 인공 신경망 학습 모델을 생성하는 학습 처리부(300); 및
실시간 화재 탐지 시, 상기 학습 처리부(300)에서 생성한 다수의 인공 신경망 학습 모델 중 적어도 하나의 인공 신경망 학습 모델을 선택하고, 선택된 상기 인공 신경망 학습 모델에 실시간 입력되는 이미지 데이터를 적용하여 화재 탐지를 수행하는 실시간 탐지부(400);
를, 포함하며,
상기 실시간 탐지부(400)는
온 프레미스(on-premise) 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여, 생성된 인공 신경망 학습 모델을 선택하는 제1 선택부(410)와,
실시간 화재 탐지가 이루어지는 동안의 입력 데이터에 대한 외부 환경 조건 정보를 추출하여, 상기 제1 선택부(410)에 의해 선택된 인공 신경망 학습 모델 중 추출한 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하는 제2 선택부(420)를 더 포함하는 비젼 기반 화재 탐지 시스템.
A data collection unit 100 that collects fire-related image data or fire-related image data from the outside;
a data pre-processing unit 200 that extracts nighttime environmental conditions or daytime environmental conditions as external environmental condition information of the collected data collected by the data collecting unit 100;
Based on the external environmental condition information extracted from the data pre-processing unit 200, the collected data is grouped to create two or more learning data sets, and the learning data sets are respectively learned using two or more pre-stored artificial neural network learning algorithms a learning processing unit 300 that generates a plurality of artificial neural network learning models by doing so; and
In case of real-time fire detection, at least one artificial neural network learning model is selected from among a plurality of artificial neural network learning models generated by the learning processing unit 300, and image data input in real time is applied to the selected artificial neural network learning model to detect fire. Real-time detection unit 400 to perform;
Including,
The real-time detection unit 400
A first selection unit 410 for selecting a generated artificial neural network learning model using an artificial neural network learning algorithm corresponding to an on-premise driving condition;
External environmental condition information for input data during real-time fire detection is extracted, and a learning data set corresponding to the external environmental condition information extracted from the artificial neural network learning model selected by the first selector 410 is generated. A vision-based fire detection system further comprising a second selection unit 420 for selecting the artificial neural network learning model.
삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 제2 선택부(420)는
외부로부터 일출시간 정보와 일몰시간 정보를 입력받아, 입력된 상기 정보에 실시간 화재 탐지가 이루어지는 시간 정보를 반영하여 상기 입력 데이터의 외부 환경 조건 정보를 추출하는, 비젼 기반 화재 탐지 시스템.
According to claim 1,
The second selector 420
A vision-based fire detection system that receives sunrise time information and sunset time information from the outside and extracts external environment condition information of the input data by reflecting time information at which real-time fire detection is performed in the inputted information.
제 1항에 있어서,
상기 실시간 탐지부(400)는
상기 제2 선택부(420)에 의해 선택된 인공 신경망 학습 모델에 실시간 입력되는 이미지 데이터를 입력 데이터로 적용하여 화재 탐지를 수행하는 탐지 수행부(430);
를 더 포함하는, 비젼 기반 화재 탐지 시스템.
According to claim 1,
The real-time detection unit 400
a detection performer 430 that performs fire detection by applying image data input in real time to the artificial neural network learning model selected by the second selector 420 as input data;
Further comprising a, vision-based fire detection system.
제 6항에 있어서,
상기 실시간 탐지부(400)는
클라우드 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델 중 상기 제2 선택부(420)에 의해 추출한 입력 데이터의 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하여, 상기 입력 데이터의 화재 탐지를 재수행하는 탐지 검증부(440);
를 더 포함하는, 비젼 기반 화재 탐지 시스템.
According to claim 6,
The real-time detection unit 400
Learning and generating a learning data set corresponding to the external environmental condition information of the input data extracted by the second selector 420 among the artificial neural network learning models generated using the artificial neural network learning algorithm corresponding to the cloud-based driving conditions a detection verification unit 440 that selects an artificial neural network learning model and re-performs fire detection of the input data;
Further comprising a, vision-based fire detection system.
제 7항에 있어서,
상기 실시간 탐지부(400)는
상기 탐지 수행부(430)와 탐지 검증부(440) 간의 화재 탐지 결과가 상이할 경우, 상기 탐지 검증부(440)의 화재 탐지 결과를 최종 탐지 결과 데이터로 적용하는, 비젼 기반 화재 탐지 시스템.
According to claim 7,
The real-time detection unit 400
When the fire detection results between the detection performing unit 430 and the detection verification unit 440 are different, the fire detection result of the detection verification unit 440 is applied as final detection result data.
데이터 수집부에서, 외부로부터 화재 관련 이미지 데이터 또는, 화재 관련 영상 데이터를 수집하는 수집 단계(S100);
데이터 전처리부에서, 상기 수집 단계(S100)에 의해 수집한 수집 데이터의 외부 환경 조건 정보를 추출하는 환경 추출 단계(S200);
학습 처리부에서, 상기 환경 추출 단계(S200)에 의해 추출한 외부 환경 조건 정보를 기반으로 상기 수집 데이터를 그룹화하여, 적어도 두 개의 학습 데이터 셋을 생성하는 셋 생성 단계(S300);
학습 처리부에서, 기저장된 둘 이상의 인공 신경망 학습 알고리즘을 이용하여, 상기 셋 생성 단계(S300)에 의해 생성한 적어도 두 개의 학습 데이터 셋을 각각 학습하여, 다수의 인공 신경망 학습 모델을 생성하는 학습 단계(S400);
실시간 탐지부에서, 화재 탐지를 위해 실시간으로 이미지 데이터를 입력받는 탐지 시작 단계(S500);
실시간 탐지부에서, 상기 탐지 시작 단계(S500)에 의해 입력되는 입력 데이터에 대한 외부 환경 조건 정보를 추출하는 실시간 환경 추출 단계(S600);
실시간 탐지부에서, 상기 학습 단계(S400)에 의해 생성된 다수의 인공 신경망 학습 모델들 중 온 프레미스(on-premise) 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하고, 선택한 인공 신경망 학습 모델 중 상기 실시간 환경 추출 단계(S600)에 의해 추출한 입력 데이터의 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하는 모델 선택 단계(S700); 및
실시간 탐지부에서, 상기 모델 선택 단계(S700)에 의해 선택한 인공 신경망 학습 모델을 이용하여, 실시간 입력되는 이미지 데이터에 대한 화재 탐지를 수행하는 탐지 수행 단계(S800);
를 포함하는, 비젼 기반 화재 탐지 방법.
A collection step of collecting fire-related image data or fire-related image data from the outside in a data collection unit (S100);
an environment extraction step (S200) of extracting external environmental condition information of the collected data collected by the data pre-processing unit (S100);
a set generation step (S300) of generating at least two learning data sets by grouping the collected data based on the external environment condition information extracted by the environment extraction step (S200) in a learning processing unit;
In the learning processing unit, a learning step of generating a plurality of artificial neural network learning models by learning each of the at least two training data sets generated in the set generation step (S300) using two or more pre-stored artificial neural network learning algorithms ( S400);
In the real-time detection unit, a detection start step of receiving image data in real time for fire detection (S500);
A real-time environment extraction step (S600) of extracting external environment condition information for the input data input by the detection start step (S500) in a real-time detection unit;
In the real-time detection unit, an artificial neural network learning model generated by using an artificial neural network learning algorithm corresponding to an on-premise operating condition among a plurality of artificial neural network learning models generated by the learning step (S400). A model selection step of selecting and selecting an artificial neural network learning model generated by learning a learning data set corresponding to the external environmental condition information of the input data extracted by the real-time environment extraction step (S600) among the selected artificial neural network learning models ( S700); and
A detection performing step (S800) of performing fire detection on image data input in real time using the artificial neural network learning model selected by the model selection step (S700) in a real-time detection unit;
Including, vision-based fire detection method.
제 9항에 있어서,
상기 비젼 기반 화재 탐지 방법은
실시간 탐지부에서, 상기 학습 단계(S400)에 의해 생성된 다수의 인공 신경망 학습 모델들 중 클라우드 기반의 구동 조건에 해당하는 인공 신경망 학습 알고리즘을 이용하여 생성된 인공 신경망 학습 모델을 선택하고, 선택한 인공 신경망 학습 모델 중 상기 실시간 환경 추출 단계(S600)에 의해 추출한 입력 데이터의 외부 환경 조건 정보에 해당하는 학습 데이터 셋을 학습하여 생성된 인공 신경망 학습 모델을 선택하는 모델 재선택 단계(S900); 및
실시간 탐지부에서, 상기 모델 재선택 단계(S900)에 의해 선택한 인공 신경망 학습 모델을 이용하여, 실시간 입력되는 이미지 데이터에 대한 화재 탐지를 수행하는 탐지 재수행 단계(S1000);
를 더 포함하되,
상기 탐지 수행 단계(S800)와 탐지 재수행 단계(S1000)의 화재 탐지 결과가 상이할 경우, 상기 탐지 재수행 단계(S1000)의 화재 탐지 결과를 최종 탐지 결과 데이터로 적용하는, 비젼 기반 화재 탐지 방법.
According to claim 9,
The vision-based fire detection method
In the real-time detection unit, among the plurality of artificial neural network learning models generated in the learning step (S400), an artificial neural network learning model generated using an artificial neural network learning algorithm corresponding to a cloud-based driving condition is selected, and the selected artificial neural network learning model is selected. A model re-selection step (S900) of selecting an artificial neural network learning model generated by learning a learning data set corresponding to external environmental condition information of the input data extracted by the real-time environment extraction step (S600) among neural network learning models; and
a re-detection step (S1000) of performing fire detection on the real-time input image data by using the artificial neural network learning model selected by the model re-selection step (S900) in the real-time detection unit;
Including more,
If the fire detection result of the detection step (S800) and the detection re-performation step (S1000) are different, the vision-based fire detection method applying the fire detection result of the detection re-performation step (S1000) as the final detection result data. .
제 9항에 있어서,
상기 실시간 환경 추출 단계(S600)는
외부로부터 일출시간 정보와 일몰시간 정보를 입력받아, 입력된 상기 정보에 실시간 화재 탐지가 이루어지는 시간 정보를 반영하여 상기 입력 데이터의 외부 환경 조건 정보를 추출하는, 비젼 기반 화재 탐지 방법.
According to claim 9,
The real-time environment extraction step (S600)
A vision-based fire detection method for receiving sunrise time information and sunset time information from the outside and extracting external environment condition information of the input data by reflecting time information at which real-time fire detection is performed in the inputted information.
KR1020210098303A 2021-07-27 2021-07-27 Fire detection system and method based on vision KR102549809B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210098303A KR102549809B1 (en) 2021-07-27 2021-07-27 Fire detection system and method based on vision

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210098303A KR102549809B1 (en) 2021-07-27 2021-07-27 Fire detection system and method based on vision

Publications (2)

Publication Number Publication Date
KR20230016826A KR20230016826A (en) 2023-02-03
KR102549809B1 true KR102549809B1 (en) 2023-06-30

Family

ID=85225990

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210098303A KR102549809B1 (en) 2021-07-27 2021-07-27 Fire detection system and method based on vision

Country Status (1)

Country Link
KR (1) KR102549809B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102665312B1 (en) * 2023-05-02 2024-05-14 주식회사 휴먼시스템즈 Tunnel control enclosure and enclosure control method for safe evacuation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018088105A (en) * 2016-11-29 2018-06-07 ホーチキ株式会社 Monitoring system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102277968B1 (en) 2018-07-12 2021-07-15 주식회사동우유니온 Early fire detection system, server and method using image processing and artificial intelligence based on deep learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018088105A (en) * 2016-11-29 2018-06-07 ホーチキ株式会社 Monitoring system

Also Published As

Publication number Publication date
KR20230016826A (en) 2023-02-03

Similar Documents

Publication Publication Date Title
CN111582201B (en) Lane line detection system based on geometric attention perception
KR101353952B1 (en) Method for detecting wildfire smoke using spatiotemporal bag-of-features of smoke and random forest
CN110688925B (en) Cascade target identification method and system based on deep learning
CN114863097B (en) Infrared dim target detection method based on attention mechanism convolutional neural network
US20130094699A1 (en) Forest fire smoke detection method using random forest classification
KR101967645B1 (en) a Fire Detection Device and method based on the integration of fuzzy logic and deep learning
WO2013101460A2 (en) Clustering-based object classification
KR102392822B1 (en) Device of object detecting and tracking using day type camera and night type camera and method of detecting and tracking object
KR102549809B1 (en) Fire detection system and method based on vision
US8244649B2 (en) Structured differential learning
CN111862065A (en) Power transmission line diagnosis method and system based on multitask deep convolutional neural network
CN116563762A (en) Fire detection method, system, medium, equipment and terminal for oil and gas station
CN108986076A (en) A kind of photovoltaic array hot spot detection method based on PSO optimization PCNN
CN111898427A (en) Multispectral pedestrian detection method based on feature fusion deep neural network
KR102127946B1 (en) Device and method for person re-identification
CN109684982B (en) Flame detection method based on video analysis and combined with miscible target elimination
CN112488213A (en) Fire picture classification method based on multi-scale feature learning network
CN116152699B (en) Real-time moving target detection method for hydropower plant video monitoring system
CN116894799A (en) Data enhancement for domain generalization
CN111783891B (en) Customized object detection method
CN114419026A (en) Visual attention-based aeroengine fuse winding identification system and method
Jiang et al. Deep learning of qinling forest fire anomaly detection based on genetic algorithm optimization
CN114169623A (en) Power equipment fault analysis method and device, electronic equipment and storage medium
Praneash et al. Forest fire detection using computer vision
TWI793901B (en) Smoke detection system and smoke detection method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant