KR102265291B1 - Real time fire detection system and fire detection method using the same - Google Patents

Real time fire detection system and fire detection method using the same Download PDF

Info

Publication number
KR102265291B1
KR102265291B1 KR1020190095893A KR20190095893A KR102265291B1 KR 102265291 B1 KR102265291 B1 KR 102265291B1 KR 1020190095893 A KR1020190095893 A KR 1020190095893A KR 20190095893 A KR20190095893 A KR 20190095893A KR 102265291 B1 KR102265291 B1 KR 102265291B1
Authority
KR
South Korea
Prior art keywords
image
fire detection
real
detection system
photographing device
Prior art date
Application number
KR1020190095893A
Other languages
Korean (ko)
Other versions
KR20210017137A (en
Inventor
김승환
오웅천
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020190095893A priority Critical patent/KR102265291B1/en
Publication of KR20210017137A publication Critical patent/KR20210017137A/en
Application granted granted Critical
Publication of KR102265291B1 publication Critical patent/KR102265291B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • B64C2201/127
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Emergency Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Fire-Detection Mechanisms (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 가시광 영상 및 열화상 영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 방법으로 분석하여 화재를 감지할 수 있는 화재 감지 시스템 및 화재 감지 방법에 관한 것으로서, 가시광 카메라로 촬영한 제1영상과 열화상 카메라로 촬영한 제2영상을 취득하는 촬영장치와, 촬영장치와 통신을 통해, 촬영장치에 의해 취득된 제1영상 및 제2영상을 수신하고 촬영장치를 제어하는 제어부; 및 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 영상 분석부를 포함하여 이루어지는 실시간 화재 감지 시스템 및 이를 이용한 화재 감지 방법이며, 비행 드론 및 CCTV에서 촬영한 가시광 영상과 열화상 영상을 이용하여 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 적용한 실시간 화재 감지 장치 및 화재 감지 방법을 이용하여, 화재로 인한 피해를 경감시킬 수 있는 효과를 나타낼 수 있다.The present invention relates to a fire detection system and a fire detection method capable of detecting a fire by analyzing a visible light image and a thermal image image by tying one subject rather than an outline, and relates to a first image captured by a visible light camera and a heat A photographing apparatus comprising: a photographing apparatus for acquiring a second image photographed by an image camera; and a control unit for receiving the first and second images acquired by the photographing apparatus through communication with the photographing apparatus and controlling the photographing apparatus; And a real-time fire detection system and a fire detection method using the same, comprising an image analysis unit that analyzes the first image and the second image through a fusion method that binds one subject, not the outline, to check whether a fire has occurred, and a flying drone And by using a real-time fire detection device and fire detection method that applies a fusion method that binds one subject rather than an outline using the visible light image and thermal image captured by CCTV, the effect of reducing damage from fire can indicate

Figure 112019080742993-pat00002
Figure 112019080742993-pat00002

Description

실시간 화재 감지 시스템 및 화재 감지 방법 {Real time fire detection system and fire detection method using the same}Real time fire detection system and fire detection method using the same}

본 발명은 실시간 화재 감지 시스템 및 화재 감지 방법에 관한 것으로서, 더욱 상세하게는 가시광 영상 및 열화상 영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 방법으로 분석하여 화재를 감지할 수 있는 화재 감지 시스템 및 화재 감지 방법에 관한 것이다.The present invention relates to a real-time fire detection system and a fire detection method, and more particularly, a fire detection system and fire capable of detecting a fire by analyzing a visible light image and a thermal image by tying a single subject instead of an outline. It is about the detection method.

화재 발생 여부를 감지하기 위하여, 가시광 카메라와 열적외선 카메라가 많이 이용되고 있다.In order to detect whether a fire has occurred, a visible light camera and a thermal infrared camera are widely used.

가시광 카메라를 통한 화재 감지 방법은 주로 소프트웨어적인 방법이 사용된다. 즉, 화재 발생시 연기의 확산형태 또는 불꽃의 특징적인 형태변화를 알고리즘화하여, 촬영된 영상과 상호 비교하여 화재의 발생여부를 판단한다. 하지만, 이 경우 화재 발생시 발생하는 연기의 형태와 유사한 수증기, 구름, 먼지 등에 의한 오류가 발생할 우려가 있다. The fire detection method through the visible light camera is mainly used as a software method. That is, when a fire occurs, the spread of smoke or the characteristic change of the shape of the flame are algorithmized and compared with the captured images to determine whether a fire has occurred. However, in this case, there is a risk of errors due to water vapor, clouds, dust, etc. similar to the form of smoke generated during a fire.

열적외선 카메라를 통한 화재 감지 방법은, 열적외선 카메라에서 촬영된 영상으로부터 온도변화를 분석하여 화재의 발생여부를 판단한다. 하지만, 열원의 온도에 근거한 이미지 구성은 해상도가 매우 낮고 또한 흑백 영상이므로, 화재발생이 예상되는 높은 온도가 감지되었을 때, 이를 최종 확정하기 위하여 보조적인 방법으로써 주변이미지를 통한 현황 파악이 어렵다. 즉, 무조건 온도가 설정온도보다 높을 경우 화재로 인식하는 오류를 없애기 위한 방법으로써, 영상을 소프트웨어적으로 분석 처리하거나 운영자가 직접 육안으로 확인하여 판단하기가 어렵다는 문제가 있다.In the fire detection method through a thermal infrared camera, it is determined whether a fire has occurred by analyzing a temperature change from an image taken by the thermal infrared camera. However, since the image composition based on the temperature of the heat source has a very low resolution and is a black and white image, it is difficult to grasp the current situation through the surrounding image as an auxiliary method to finally confirm when a high temperature that is expected to cause a fire is detected. That is, as a method to eliminate the error of recognizing a fire when the temperature is unconditionally higher than the set temperature, there is a problem in that it is difficult to analyze and process the image through software or to determine it by visually checking the operator directly.

이러한 문제점들을 해결하기 위한 기술의 하나로서, 대한민국 등록특허 제10-1441589호에 따른 "가시광선 이미지와 원적외선 이미지를 광학적으로 융합하는 장치"는 하나의 광학 모듈 내에 가시광선 카메라와 원적외선 카메라를 장착하여 이미지를 취득하는 기술이 제시되었다. 그러나, 이 기술은 광학적으로 동시에 촬영을 한다고 하더라도 공간해상도 등과 같은 센서의 특징에 따라 영상에서의 동일 위치가 다른 피사체의 RAW 값을 가질 수 있다. 다른 기술로서 대한민국 등록특허 제10-1932411호에 따른 "스테레오 가시광 카메라와 열 영상 카메라를 기반으로 한 융합이미지 획득방법"은 스테레오 카메라의 좌우 영상과 열적외선 영상에서 윤곽선을 추출하고, 각 윤곽선을 매칭시켜서 스테레오 카메라 영상에 열영상을 융합시키는 장치 및 방법에 관한 것이다. 그러나, 이 기술은 복잡한 배경(나뭇잎이 무성한 나무, 줄무늬 옷 등)에서 많은 윤곽선들로 인한 많은 매칭 오류가 발생될 수 있는 문제가 있다. 또 다른 기술로서 대한민국 등록특허 제10-1863530호에 따른 "가시광 및 적외선 열화상 이미지를 이용한 화재 예측 보전 시스템"은 가시광 및 열화상 영상을 관제 서버로 보내고 각각의 영상을 관제하여 화재 예측 보전하는 시스템에 관한 것이다. 이 기술은 비록 가시광 및 적외선 열화상 이미지를 이용하지만 영상을 직접적으로 화재인식에 사용하지 않고 관제에 도움을 주는 용도로 사용하는 방식이다. As one of the techniques for solving these problems, "a device for optically fusion of a visible ray image and a far-infrared image" according to Republic of Korea Patent No. 10-1441589 is equipped with a visible ray camera and a far-infrared camera in one optical module. A technique for acquiring images has been presented. However, this technology may have RAW values of different subjects at the same location in the image depending on the sensor characteristics such as spatial resolution, even if they are simultaneously photographed optically. As another technique, "a fusion image acquisition method based on a stereo visible light camera and a thermal imaging camera" according to Korean Patent Registration No. 10-1932411 extracts outlines from the left and right images and thermal infrared images of a stereo camera, and matches each outline It relates to an apparatus and method for fusing a thermal image to a stereo camera image. However, this technique has a problem that many matching errors may occur due to many contours on complex backgrounds (leafy trees, striped clothes, etc.). As another technology, "fire prediction and preservation system using visible light and infrared thermal image" according to Korean Patent Registration No. 10-1863530 is a system that sends visible light and thermal image to a control server and controls each image to predict and preserve fire is about Although this technology uses visible light and infrared thermal imagery, the image is not directly used for fire recognition but is used to help control.

본 발명은 가시광 영상 및 열화상 영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 방법으로 분석하여 화재를 실시간으로 감지할 수 있는 화재 감지 시스템 및 감지 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a fire detection system and a detection method capable of detecting a fire in real time by analyzing a visible light image and a thermal image image by tying one subject instead of an outline.

본 발명의 다른 목적은 복잡한 배경에도 두 영상을 정렬시킬 수 있는 실시간 화재 감지 시스템 및 감지 방법을 제공하는 것이다.Another object of the present invention is to provide a real-time fire detection system and detection method capable of aligning two images even in a complex background.

본 발명의 다른 목적은 RAW-level에서 두 영상을 융합하여 성능이 향상된 실시간 화재 감지 시스템 및 감지 방법을 제공하는 것이다.Another object of the present invention is to provide a real-time fire detection system and detection method with improved performance by fusing two images in RAW-level.

이러한 목적을 달성하기 위한 본 발명에 따른 실시간 화재 감지 시스템은 가시광 카메라로 촬영한 제1영상과 열화상 카메라로 촬영한 제2영상을 취득하는 촬영장치; 상기 촬영장치와 통신을 통해, 상기 촬영장치에 의해 취득된 제1영상 및 제2영상을 수신하고 상기 촬영장치를 제어하는 제어부; 및 상기 제어부를 통해 전달된 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 영상 분석부를 포함하여 이루어지는 것을 구성의 특징으로 한다.A real-time fire detection system according to the present invention for achieving this object includes: a photographing device for acquiring a first image photographed by a visible light camera and a second image photographed by a thermal imaging camera; a control unit configured to receive the first image and the second image acquired by the photographing device through communication with the photographing device and to control the photographing apparatus; and an image analysis unit that analyzes the first image and the second image transmitted through the controller through a fusion method that binds one subject into one, rather than an outline, to determine whether a fire has occurred.

본 발명에 따른 실시간 화재 감지 시스템에서 상기 촬영장치는 화재 감지 대상 건물에 설치된 적어도 하나 이상의 CCTV일 수 있다.In the real-time fire detection system according to the present invention, the photographing device may be at least one CCTV installed in a fire detection target building.

본 발명에 따른 실시간 화재 감지 시스템에서 상기 촬영장치와 상기 제어부는 유선 통신 또는 무선 통신 방법으로 통신을 수행한다.In the real-time fire detection system according to the present invention, the photographing device and the control unit communicate through wired communication or wireless communication method.

본 발명의 바람직한 실시에 따른 실시간 화재 감지 시스템에서 상기 촬영장치는 비행 경로를 따라 이동하며 촬영하는 비행 드론일 수 있다.In the real-time fire detection system according to a preferred embodiment of the present invention, the photographing device may be a flying drone that moves along a flight path and shoots.

본 발명에 따른 실시간 화재 감지 시스템에서 상기 비행 드론의 비행 경로는 차량에 장착된 제어부로부터 실시간으로 제공되는 신호에 의해 제어될 수 있다.In the real-time fire detection system according to the present invention, the flight path of the flying drone may be controlled by a signal provided in real time from a control unit mounted on the vehicle.

본 발명에 따른 실시간 화재 감지 시스템에서 상기 비행 드론의 비행 경로는 미리 설정되어 비행 드론 내부에 저장되고, 상기 비행 드론은 위치측정 시스템(Global Positioning System: GPS)을 구비한다.In the real-time fire detection system according to the present invention, the flight path of the flying drone is preset and stored inside the flying drone, and the flying drone is equipped with a global positioning system (GPS).

본 발명에 따른 실시간 화재 감지 시스템 및 감지 방법에서 상기 제1영상 및 제2영상은 가공되지 않은 그대로의 이미지 파일 포맷 형태인 RAW파일로 전달된다.In the real-time fire detection system and detection method according to the present invention, the first image and the second image are transmitted as a RAW file in the form of an unprocessed image file format.

본 발명에 따른 실시간 화재 감지 시스템 및 감지 방법에서 상기 융합 방식은 영상 분할(image segmentation) 기술을 이용하여 상기 제1영상과 상기 제2영상을 분할하고, 분할된 영상의 코너점을 매칭하고, 매칭된 영상으로부터 추출된 기하학 변환 매트릭스를 사용하여 영상을 정렬하고 화재 여부를 검출할 수 있다.In the real-time fire detection system and detection method according to the present invention, the fusion method divides the first image and the second image using image segmentation technology, matches corner points of the segmented image, and matches It is possible to align the images and detect whether there is a fire using the geometric transformation matrix extracted from the image.

본 발명에 따른 실시간 화재 감지 시스템 및 감지 방법에서 상기 영상 분할(image segmentation) 기술은 MASK R-CNN 객체검출 알고리즘을 사용한다.In the real-time fire detection system and detection method according to the present invention, the image segmentation technique uses a MASK R-CNN object detection algorithm.

본 발명에 따른 실시간 화재 감지 장치 및 감지 방법은 드론 정찰 및 CCTV에서 화재 감지 성능을 향상시킴으로 화재로 인한 피해를 경감할 수 있는 효과를 나타낼 수 있다.The real-time fire detection apparatus and detection method according to the present invention can exhibit the effect of reducing damage caused by fire by improving the fire detection performance in drone reconnaissance and CCTV.

본 발명에 따른 실시간 화재 감지 장치 및 감지 방법은 복잡한 배경에도 RAW-level에서 두 영상을 융합하여 화재 감지 성능을 향상시킬 수 있다.The real-time fire detection apparatus and detection method according to the present invention can improve fire detection performance by fusing two images in RAW-level even in a complex background.

도 1은 본 발명의 제1 실시 예에 따른 실시간 화재 감지 장치의 구성을 나타낸 예시도이다.
도 2는 본 발명의 제2 실시 예에 따른 실시간 화재 감지 장치의 구성을 나타낸 예시도이다.
도 3은 도 2에 따른 실시간 화재 감지 장치에서 차량에 장착된 제어부를 이용하여 다수의 비행 드론을 통해 다수의 영역을 감시하는 예를 나타낸 예시도이다.
도 4는 본 발명에 따른 비행 드론의 개략적인 구성을 나타낸 사시도이다.
도 5는 본 발명에 따른 실시간 화재 감지 방법의 진행과정을 나타낸 흐름도이다.
도 6은 본 발명에 따른 실시간 화재 감지 방법에서의 영상 분할(image segmentation)의 실시 예를 나타낸 예시도이다.
도 7은 본 발명에 따른 실시간 화재 감지 방법에서의 코너점 매칭의 예를 나타낸 예시도이다.
도 8은 본 발명에 따른 실시간 화재 감지 방법에서 추출된 기하학 변환 매트릭스를 사용하여 영상을 정렬하는 예를 나타낸 예시도이다.
도 9는 본 발명에 따른 실시간 화재 감지 방법에서 정렬된 영상을 이용하여 화재 여부를 판단하는 것을 나타낸 예시도이다.
1 is an exemplary diagram showing the configuration of a real-time fire detection device according to a first embodiment of the present invention.
2 is an exemplary diagram showing the configuration of a real-time fire detection device according to a second embodiment of the present invention.
3 is an exemplary diagram illustrating an example of monitoring a plurality of areas through a plurality of flying drones using a control unit mounted on a vehicle in the real-time fire detection device according to FIG. 2 .
4 is a perspective view showing a schematic configuration of a flying drone according to the present invention.
5 is a flowchart showing the progress of the real-time fire detection method according to the present invention.
6 is an exemplary diagram illustrating an embodiment of image segmentation in a real-time fire detection method according to the present invention.
7 is an exemplary diagram illustrating an example of corner point matching in a real-time fire detection method according to the present invention.
8 is an exemplary diagram illustrating an example of aligning images using the geometric transformation matrix extracted in the real-time fire detection method according to the present invention.
9 is an exemplary diagram illustrating determining whether a fire exists by using the aligned images in the real-time fire detection method according to the present invention.

본문에 개시되어 있는 본 발명의 실시 예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시 예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시 예들에 한정되는 것으로 해석되어서는 안 된다.With respect to the embodiments of the present invention disclosed in the text, specific structural or functional descriptions are only exemplified for the purpose of describing the embodiments of the present invention, the embodiments of the present invention may be implemented in various forms and It should not be construed as being limited to the described embodiments.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various forms, specific embodiments are illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 없는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that there is no other element in the middle. Other expressions describing the relationship between elements, such as "between" and "immediately between" or "neighboring to" and "directly adjacent to", should be interpreted similarly.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가진다" 등의 용어는 개시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this application, terms such as “comprises” or “having” are intended to designate that the disclosed feature, number, step, action, component, part, or combination thereof exists, but includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 나타내는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be construed as indicating meanings consistent with the meanings in the context of the related art, and should not be construed in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

한편, 어떤 실시 예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 흐름도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.On the other hand, when an embodiment can be implemented differently, functions or operations specified in a specific block may occur differently from the order specified in the flowchart. For example, two consecutive blocks may be performed substantially simultaneously, or the blocks may be performed in reverse according to a related function or operation.

이하에서, 첨부된 도면을 참조하여 본 발명에 따른 실시간 화재 감지 장치 및 이를 이용한 화재 감지 방법에 대하여 설명하기로 한다.Hereinafter, a real-time fire detection apparatus and a fire detection method using the same according to the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 제1 실시 예에 따른 실시간 화재 감지 장치의 구성을 나타낸 예시도이다. 가시광 카메라로 촬영한 제1영상과 열화상 카메라로 촬영한 제2영상을 취득하는 촬영장치(100), 상기 촬영장치(10)와 통신을 통해, 상기 촬영장치(10)에 의해 취득된 제1영상 및 제2영상을 수신하고 상기 촬영장치를 제어하는 제어부(200); 및 상기 제어부(200)를 통해 전달된 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 영상 분석부(300)를 포함하여 이루어진다.1 is an exemplary diagram showing the configuration of a real-time fire detection device according to a first embodiment of the present invention. A photographing apparatus 100 for acquiring a first image photographed by a visible light camera and a second image photographed by a thermal imaging camera, and a first acquired by the photographing apparatus 10 through communication with the photographing apparatus 10 a control unit 200 for receiving an image and a second image and controlling the photographing device; and an image analysis unit 300 that analyzes the first image and the second image transmitted through the control unit 200 through a fusion method that binds one subject into one, rather than an outline, to determine whether a fire has occurred.

제1 실시 예에서의 촬영 장치(100)는 화재 감지 대상 건물에 설치된 복수의 CCTV(110-1,110-2,…,110-n)로 구성된 것을 예로 나타내고 있다. 예시도에서는 복수의 CCTV(110-1,110-2,…,110-n) 중 일부는 제어부(200)와 유선 통신을 수행하고, 일부는 무선 통신을 수행하는 것을 나타내고 있다. 물론, 모든 복수의 CCTV(110-1,110-2,…,110-n)가 제어부(200)와 유선 통신 방법으로 데이터를 송수신하거나, 모든 복수의 CCTV(110-1,110-2,…,110-n)가 제어부(200)와 무선 통신 방법으로 데이터를 송수신할 수 있다. 이때, 촬영장치(100)는 제어부(200)로 촬영 영상을 전송하고, 제어부(200)는 촬영장치(100)로 제어신호를 전송할 수 있다.The photographing apparatus 100 in the first embodiment is illustrated as an example of a plurality of CCTVs (110-1, 110-2, ..., 110-n) installed in a fire detection target building. In the example diagram, some of the plurality of CCTVs 110-1, 110-2, ..., 110-n perform wired communication with the control unit 200, and some of the CCTVs 110-1, 110-2, ..., 110-n perform wireless communication. Of course, all the plurality of CCTVs (110-1, 110-2, ..., 110-n) transmit and receive data with the control unit 200 in a wired communication method, or all the plurality of CCTVs (110-1, 110-2, ..., 110-n) ) may transmit/receive data to and from the controller 200 in a wireless communication method. In this case, the photographing apparatus 100 may transmit a captured image to the control unit 200 , and the control unit 200 may transmit a control signal to the photographing apparatus 100 .

도 2는 본 발명에 따른 제2 실시 예에 따른 실시간 화재 감지 장치의 구성을 나타낸 예시도이다. 촬영장치(100)가 비행 경로를 따라 이동하며 영상을 촬영하는 복수의 비행 드론(120-1,120-2,…,120-n)으로 이루어진 예시이다.2 is an exemplary view showing the configuration of a real-time fire detection device according to a second embodiment according to the present invention. The photographing device 100 is an example made up of a plurality of flying drones 120-1, 120-2, ..., 120-n that take images while moving along a flight path.

도 3에 도시한 바와 같이, 각 비행 드론(120-1,120-2,…,120-n)은 다수 개의 영역(제1영역, 제2영역,…,제n영역)으로 분할하여 촬영할 수 있다. 이때, 상기 비행 드론(120-1,120-2,…,120-n)은 차량 내에 장착된 제어부(200)로부터 제공되는 신호에 의해 실시간으로 제어될 수 있다. As shown in FIG. 3 , each flying drone 120-1, 120-2, ..., 120-n may be divided into a plurality of regions (first region, second region, …, n-th region) and photographed. In this case, the flying drones 120-1, 120-2, ..., 120-n may be controlled in real time by a signal provided from the controller 200 mounted in the vehicle.

한편, 본 예시도에서는 복수의 비행 드론을 나타내고 있지만, 하나의 비행 드론으로도 본 발명에 따른 실시간 화재 감지장치를 구현할 수도 있다. 또한, 비행 드론(120)의 비행 경로는 미리 설정된 비행 경로일 수 있다.On the other hand, although a plurality of flying drones are shown in this exemplary diagram, a real-time fire detection device according to the present invention may be implemented with a single flying drone. In addition, the flight path of the flying drone 120 may be a preset flight path.

도 4에 도시한 바와 같이, 비행 드론(120)에는 가시광선 영역대의 파장을 기반으로 피사체의 가시광선 영상을 촬영하는 가시광 카메라(111)와, 적외선 영역대의 파장을 기반으로 피사체의 적외선 영상을 촬영하는 열화상 카메라(112) 및 위치측정시스템(Global Positioning System: GPS)(113)을 구비할 수 있다. 상기 비행 드론(120)은 위치측정시스템(GPS: 113)을 통해 수신되는 위치정보를 이용하여 미리 정해진 비행 경로를 비행하면서 영상을 촬영한다. 또한, 도시하지 않았으나, 상기 비행 드론(120)은 장거리 통신부/중거리 통신부/페어링부/와이파이 통신부 등의 통신부와, 3축 가속도 센서/온도 센서/연기 센서 등을 포함한 센서부와, 프로펠라의 구동에 필요한 전원 및 각 구성요소의 동작에 필요한 전원을 공급하기 위한 전원부 등을 구비할 수 있다. 상기 비행 드론(120)은 화재상황에 따라 즉시 화재를 진화하기 위한 소화약재를 분사하거나 소화탄을 발사하는 소화부와, 고층 건물 또는 넓은 장소에서 많은 인원들이 화재에 의해 갇혀 있는 경우, 우선적으로 산소 호흡기, 방독 면 등의 구조 물품을 먼저 공급하여 인명을 구조하기 위한 물품이 구비되는 방재 물품 공급부를 포함할 수도 있다.As shown in FIG. 4 , the flying drone 120 includes a visible light camera 111 that captures a visible light image of a subject based on a wavelength of the visible light band, and an infrared image of the subject based on a wavelength of the infrared range. A thermal imaging camera 112 and a positioning system (Global  Positioning  System: GPS) 113 may be provided. The flying drone 120 takes an image while flying a predetermined flight path using the location information received through the positioning system (GPS: 113). In addition, although not shown, the flying drone 120 includes a communication unit such as a long-distance communication unit/medium-range communication unit/pairing unit/Wi-Fi communication unit, and a sensor unit including a three-axis acceleration sensor/temperature sensor/smoke sensor, and the like. A power supply unit for supplying necessary power and power required for operation of each component may be provided. The flying drone 120 has a fire extinguishing unit that sprays a fire extinguishing agent for immediately extinguishing a fire or fires a fire bomb depending on the fire situation, and when many people are trapped by a fire in a high-rise building or a large place, preferentially oxygen It may include a disaster prevention article supply unit provided with articles for saving lives by first supplying rescue articles such as a respirator and a gas mask.

CCTV 또는 비행 드론으로 이루어질 수 있는 상기 촬영장치(100)에서 촬영된 제1 영상 및 제2 영상은 가공되지 않은 그대로의 이미지 파일 포맷 형태인 RAW 파일로 제어부(200)로 전달된다.The first image and the second image captured by the photographing device 100 , which may be a CCTV or a flying drone, are transmitted to the control unit 200 as a RAW file in the form of an unprocessed image file format.

RAW 파일은 이미지 파일 포맷 중 하나로 'RAW'라는 영어 단어의 의미를 담아, ‘가공되지 않은 원 그대로의 이미지 자료’라는 의미를 가지고 있다. 많이 쓰이는 이미지 파일 형식인 JPEG 파일과 비교할 때, RAW 파일은 화질이 더 높고, 무손실 압축 기술을 이용하므로 원본 그대로의 화질을 유지한다. 따라서 색감이 뛰어나고 노출, 화이트밸런스 등 이후 보정에 적합하다는 장점이 있다.RAW files are one of the image file formats and contain the meaning of the English word 'RAW', and have the meaning of 'unprocessed image data'. Compared to JPEG files, which are widely used image file formats, RAW files have a higher quality and use lossless compression technology to maintain the original quality. Therefore, it has the advantage of being excellent in color and suitable for subsequent corrections such as exposure and white balance.

도 5는 본 발명에 따른 실시간 화재 감지 방법의 진행 과정을 개략적으로 나타낸 흐름도이다. 도시한 바와 같이, 촬영장치에 장착된 가시광 카메라로 촬영한 제1영상과 열화상 카메라로 촬영한 제2영상을 취득하고, 상기 촬영장치와 통신을 통해 상기 촬영장치에 의해 취득된 제1영상 및 제2영상을 수신하는 영상 수집과정이 이루어진다. 이때, 제1 영상 및 제2 영상은 가공되지 않은 그대로의 이미지 파일 포맷 형태인 RAW 파일로 전달된다(S510).5 is a flowchart schematically illustrating a process of a real-time fire detection method according to the present invention. As shown, the first image captured by the visible light camera mounted on the photographing device and the second image photographed by the thermal imaging camera are acquired, and the first image acquired by the photographing device through communication with the photographing device and An image collection process of receiving the second image is performed. In this case, the first image and the second image are transmitted as RAW files, which are unprocessed image file formats (S510).

영상 분석부(300)는 제어부(200)를 통해 수신한 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 영상 분석 과정이 수행된다 (S520).The image analysis unit 300 analyzes the first image and the second image received through the control unit 200 through a fusion method that binds one subject into one, rather than an outline, so that an image analysis process is performed to determine whether a fire has occurred. (S520).

한편, 영상 분석 과정(520)은 다음과 같이 이루어진다.Meanwhile, the image analysis process 520 is performed as follows.

먼저, 영상 분할(image segmentation) 기술을 이용하여 도 6에 도시한 바와 같이, 제1영상과 상기 제2영상을 분할한다. 영상 분할(image segmentation)을 구현하는 방법에는 크게 3가지 방법이 있다. 첫 번째 방법으로는 픽셀 기반 분할(Pixel based segmentation) 방법이 있다. 이미지를 특정 도메인으로 변경한 후, 분할을 잘할 수 있는 문턱값(threshold) 값을 선정하여 나누는 이미지 이진화 방법이다. 다음 방법으로는 영상 데이터에서 가장자리(윤곽선, edge)를 추출한 다음, 가장자리를 기반으로 분할하는 윤곽선 기반 분할(Edge based segmentation) 방법이 있다. 마지막 방법으로는 영상에서 특정 기준점의 픽셀로부터 점점 같은 의미를 가진 영상 범위까지 픽셀을 확장해나가면서 분할하는 영역기반 분할(region based segmentation) 방법이 있다. First, the first image and the second image are segmented using an image segmentation technique, as shown in FIG. 6 . There are three main methods for implementing image segmentation. A first method is a pixel-based segmentation method. After changing an image to a specific domain, it is an image binarization method that selects and divides a threshold value that can be segmented well. As a next method, there is an edge based segmentation method that extracts an edge (edge) from image data and then divides it based on the edge. As a last method, there is a region-based segmentation method in which pixels are segmented while expanding from a pixel at a specific reference point in an image to an image range having the same meaning.

본 발명에서는 영상 인식 기술을 통해 영상을 분할하여 각 픽셀에 라벨(label)을 부여하는 픽셀 분할 방법을 사용하는 것이 예로 하고 있으나, 본 발명이 이러한 분할 방법에 국한되는 것은 아님은 언급의 여지가 없을 것이다. 가시광 카메라(111)로 촬영한 제1영상과 열화상 카메라(112)로 촬영한 제2영상을 각각 분할하여 각 픽셀에 라벨(label)을 부여하여 제1영상' 및 제2영상'을 생성한다. 본 실시 예에서의 영상 분할(image segmentation) 기술은 합성곱 신경망(Convolutional Neural Networks: CNN)을 픽셀 수준의 분할(segmentation)까지 확장시킨 MASK R-CNN 객체검출 알고리즘을 적용한다 (S521).In the present invention, it is exemplified that an image is segmented through image recognition technology and a pixel segmentation method of assigning a label to each pixel is used as an example, but it cannot be overemphasized that the present invention is not limited to this segmentation method. will be. The first image captured by the visible light camera 111 and the second image photographed by the thermal imaging camera 112 are divided, respectively, and a label is assigned to each pixel to generate a first image and a second image. . The image segmentation technique in this embodiment applies a MASK R-CNN object detection algorithm that extends convolutional neural networks (CNN) to pixel-level segmentation (S521).

픽셀 수준으로 분할된 제1영상' 및 제2영상에서 코너점을 검출한다 (S522).Corner points are detected in the 'first image' and the second image divided at the pixel level (S522).

도 7에 도시한 바와 같이 제1영상' 및 제2영상'의 각 코너점 사이의 거리가 최소값을 갖도록 코너점을 매칭하고(S523), 매칭된 영상으로부터 기하학 변환 매트릭스를 추출한다 (S524).As shown in FIG. 7 , the corner points are matched so that the distance between each corner point of the 'first image' and the second image' has a minimum value (S523), and a geometric transformation matrix is extracted from the matched image (S524).

이어, 추출된 기하학 변환 매트릭스를 사용하여 영상을 정렬한다. 예를 들어, 도 8에 도시한 바와 같이 열화상 영상인 제2영상'을 가시광 영상인 제1 영상'과 동일 위치에 객체에서 나온 값이 매핑되도록 기하학 변환시켜 제3 영상을 생성한다(S525).Then, the images are aligned using the extracted geometric transformation matrix. For example, as shown in FIG. 8 , a third image is generated by geometrically transforming the 'second image, which is a thermal image, so that values from the object are mapped to the same position as the 'first image, which is a visible light image' (S525). .

도 9에서와 같이 정렬된 영상의 값을 화재검출 네트워크의 입력값으로 하여 영상을 인식하여 화재 여부를 판단하게 된다(S526).As shown in FIG. 9 , by using the value of the aligned image as an input value of the fire detection network, the image is recognized to determine whether or not there is a fire ( S526 ).

특성이 다른 두 센서를 정렬(Alignment)시키는 것은 매우 어려운 문제이다. 기존의 다른 방법들과 달리 본 발명에서는 두 개의 분리된 단일 카메라에서 최근에 각광받고 있는 image segmentation 기술로 이 문제를 해결하였다. 예를 들어, MASK R-CNN와 같은 영상 분할(image segmentation) 알고리즘을 이용하여 윤곽선이 아닌 하나의 피사체(객체)를 하나로 묶는 방식이기 때문에 복잡한 배경에도 강인하게 두 센서 영상을 정렬시킬 수 있다. 또한, RAW-LEVEL에서 융합함으로서 결정 레벨에서 융합하는 방법보다 성능을 향상시킬 수 있다.Aligning two sensors with different characteristics is a very difficult problem. Unlike other existing methods, the present invention solves this problem with image segmentation technology, which has recently been spotlighted by two separate single cameras. For example, since it uses an image segmentation algorithm such as MASK R-CNN to tie a single subject (object) into one rather than an outline, it is possible to align two sensor images robustly even in a complex background. In addition, by fusion in RAW-LEVEL, the performance can be improved compared to the fusion method at the crystal level.

이상에서 설명한 바와 같이, 비행 드론 및 CCTV에서 촬영한 가시광 영상과 열화상 영상을 이용하여 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 적용한 실시간 화재 감지 장치 및 화재 감지 방법을 이용하여, 화재로 인한 피해를 경감시킬 수 있는 효과를 나타낼 수 있다.As described above, using a real-time fire detection device and fire detection method that applies a fusion method that binds one subject rather than an outline using visible light images and thermal images captured by flying drones and CCTVs, It can have an effect that can reduce damage.

상기에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the preferred embodiment of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

100: 촬영장치 110: CCTV
120: 비행 드론 200: 제어부
300: 영상 분석부
100: recording device 110: CCTV
120: flying drone 200: control unit
300: image analysis unit

Claims (18)

가시광 카메라로 촬영한 제1영상과 열화상 카메라로 촬영한 제2영상을 취득하는 촬영장치;
상기 촬영장치와 통신을 통해, 상기 촬영장치에 의해 취득된 제1영상 및 제2영상을 수신하고 상기 촬영장치를 제어하는 제어부; 및
상기 제어부를 통해 전달된 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 영상 분석부를 포함하여 이루어지고,
상기 융합 방식은 영상 분할(image segmentation) 기술을 이용하여 상기 제1영상과 상기 제2영상을 분할하고, 분할된 영상의 각 코너점 사이의 거리가 최소값을 갖도록 코너점을 매칭하고, 매칭된 영상으로부터 기하학 변환 매트릭스를 추출한 후, 추출된 기하학 변환 매트릭스를 사용하여 영상을 정렬하고 화재 여부를 검출하는 실시간 화재 감지 시스템.
a photographing device for acquiring a first image photographed by a visible light camera and a second image photographed by a thermal imaging camera;
a control unit configured to receive the first image and the second image acquired by the photographing device through communication with the photographing device and to control the photographing apparatus; and
It comprises an image analysis unit that analyzes the first image and the second image transmitted through the control unit through a fusion method that binds one subject, not an outline, to check whether a fire has occurred,
The fusion method divides the first image and the second image using image segmentation technology, matches the corner points so that the distance between each corner point of the segmented image has a minimum value, and matches the matched image A real-time fire detection system that extracts a geometry transformation matrix from
제1항에 있어서, 상기 촬영장치는 화재 감지 대상 건물에 설치된 적어도 하나 이상의 CCTV인 것을 특징으로 하는 실시간 화재 감지 시스템.The real-time fire detection system according to claim 1, wherein the photographing device is at least one CCTV installed in a building subject to fire detection. 제1항에 있어서, 상기 촬영장치와 상기 제어부는 무선 통신 방법으로 통신을 수행하는 것을 특징으로 하는 실시간 화재 감지 시스템.The real-time fire detection system according to claim 1, wherein the photographing device and the control unit communicate using a wireless communication method. 제1항에 있어서, 상기 촬영장치는 비행 경로를 따라 이동하며 촬영하는 비행 드론인 것을 특징으로 하는 실시간 화재 감지 시스템.The real-time fire detection system according to claim 1, wherein the photographing device is a flying drone that takes pictures while moving along a flight path. 제4항에 있어서, 상기 비행 드론의 비행 경로는 상기 제어부로부터 실시간으로 제공되는 신호에 의해 제어되는 것을 특징으로 하는 실시간 화재 감지 시스템.The real-time fire detection system according to claim 4, wherein the flight path of the flying drone is controlled by a signal provided in real time from the control unit. 제5항에 있어서, 상기 제어부는 차량에 장착된 것을 특징으로 하는 실시간 화재 감지 시스템.The real-time fire detection system according to claim 5, wherein the control unit is mounted on a vehicle. 제4항에 있어서, 상기 비행 드론의 비행 경로는 미리 설정된 비행 경로이고, 상기 비행 드론은 위치측정시스템(Global Positioning System: GPS)을 구비한 것을 특징으로 하는 실시간 화재 감지 시스템.The real-time fire detection system according to claim 4, wherein the flight path of the flying drone is a preset flight path, and the flying drone is equipped with a global positioning system (GPS). 제1항에 있어서, 상기 제1영상 및 제2영상은 가공되지 않은 그대로의 이미지 파일 포맷 형태인 RAW파일로 전달되는 것을 특징으로 하는 실시간 화재 감지 시스템.The real-time fire detection system according to claim 1, wherein the first image and the second image are transmitted as RAW files in an unprocessed image file format. 삭제delete 제1항에 있어서, 상기 영상 분할(image segmentation) 기술은 MASK R-CNN 객체검출 알고리즘인 것을 특징으로 하는 실시간 화재 감지 시스템.The real-time fire detection system according to claim 1, wherein the image segmentation technique is a MASK R-CNN object detection algorithm. 촬영장치에 장착된 가시광 카메라로 촬영한 제1영상과 열화상 카메라로 촬영한 제2영상을 취득하는 과정;
상기 촬영장치와 통신을 통해 상기 촬영장치에 의해 취득된 제1영상 및 제2영상을 수신하는 과정; 및
수신된 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 과정을 포함하여 이루어지고,
상기 융합 방식은,
영상 분할(image segmentation) 기술을 이용하여 상기 제1영상과 상기 제2영상을 분할하는 단계;
분할된 영상에서 각 코너점을 검출하는 단계;
제1 영상과 제2영상의 각 코너점 사이의 거리가 최소값을 갖도록 코너점을 매칭하는 단계;
매칭된 영상으로부터 기하학 변환 매트릭스를 추출하는 단계;
추출된 기하학 변환 매트릭스를 사용하여 영상을 정렬하는 단계;
정렬된 영상의 값을 입력값으로 하여 영상을 인식하여 화재 여부를 판단하는 단계를 포함하는 실시간 화재 감지 방법.
A process of acquiring a first image photographed by a visible light camera mounted on a photographing apparatus and a second image photographed by a thermal imaging camera;
receiving the first image and the second image acquired by the photographing device through communication with the photographing device; and
It includes a process of checking whether a fire has occurred by analyzing the received first image and the second image through a fusion method that binds one subject, not the outline,
The fusion method is
segmenting the first image and the second image using an image segmentation technique;
detecting each corner point in the segmented image;
matching the corner points so that the distance between each corner point of the first image and the second image has a minimum value;
extracting a geometric transformation matrix from the matched image;
aligning the image using the extracted geometric transformation matrix;
A real-time fire detection method comprising the step of determining whether a fire exists by recognizing an image by using the value of the aligned image as an input value.
제11항에 있어서, 상기 촬영장치는 화재 감지 대상 건물에 설치된 적어도 하나 이상의 CCTV인 것을 특징으로 하는 실시간 화재 감지 방법.The real-time fire detection method according to claim 11, wherein the photographing device is at least one CCTV installed in a building subject to fire detection. 제11항에 있어서, 상기 촬영장치는 비행 경로를 따라 이동하며 촬영하는 비행 드론인 것을 특징으로 하는 실시간 화재 감지 방법.The method of claim 11, wherein the photographing device is a flying drone that moves along a flight path and takes pictures. 제13항에 있어서, 상기 비행 드론의 비행 경로는 실시간으로 제공되는 것을 특징으로 하는 실시간 화재 감지 방법.The method of claim 13, wherein the flight path of the flying drone is provided in real time. 제14항에 있어서, 상기 비행 드론의 비행 경로는 미리 설정된 비행 경로이고, 상기 비행 드론은 위치측정시스템(Global Positioning System: GPS)을 구비하는 것을 특징으로 하는 실시간 화재 감지 방법.The method of claim 14, wherein the flight path of the flying drone is a preset flight path, and the flying drone is provided with a global positioning system (GPS). 제11항에 있어서, 상기 제1영상 및 제2영상은 가공되지 않은 그대로의 이미지 파일 포맷 형태인 RAW파일로 전달되는 것을 특징으로 하는 실시간 화재 감지 방법.The real-time fire detection method according to claim 11, wherein the first image and the second image are transmitted as RAW files in the form of an unprocessed image file format. 삭제delete 제11항에 있어서, 상기 영상 분할(image segmentation) 기술은 MASK R-CNN 객체검출 알고리즘인 것을 특징으로 하는 실시간 화재 감지 방법.The method of claim 11, wherein the image segmentation technique is a MASK R-CNN object detection algorithm.
KR1020190095893A 2019-08-07 2019-08-07 Real time fire detection system and fire detection method using the same KR102265291B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190095893A KR102265291B1 (en) 2019-08-07 2019-08-07 Real time fire detection system and fire detection method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190095893A KR102265291B1 (en) 2019-08-07 2019-08-07 Real time fire detection system and fire detection method using the same

Publications (2)

Publication Number Publication Date
KR20210017137A KR20210017137A (en) 2021-02-17
KR102265291B1 true KR102265291B1 (en) 2021-06-16

Family

ID=74732097

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190095893A KR102265291B1 (en) 2019-08-07 2019-08-07 Real time fire detection system and fire detection method using the same

Country Status (1)

Country Link
KR (1) KR102265291B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240059206A (en) 2022-10-27 2024-05-07 주식회사 라이브워크 Ai model managing system and method for enhancing fire detection performance of ai model
KR102546982B1 (en) * 2022-12-23 2023-06-26 한국건설기술연구원 Apparatus for generating learning data for deep learning model and method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741107B1 (en) * 2015-12-14 2017-06-15 주식회사 앤다스 Apparatus and method for monitoring fire by using cctv
CN109903507A (en) * 2019-03-04 2019-06-18 上海海事大学 A kind of fire disaster intelligent monitor system and method based on deep learning

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170101516A (en) * 2016-02-29 2017-09-06 한국전자통신연구원 Apparatus and method for fire monitoring using unmanned aerial vehicle
KR101888930B1 (en) * 2016-12-12 2018-08-16 주식회사 숨비 Safety management system using drone mobile station

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741107B1 (en) * 2015-12-14 2017-06-15 주식회사 앤다스 Apparatus and method for monitoring fire by using cctv
CN109903507A (en) * 2019-03-04 2019-06-18 上海海事大学 A kind of fire disaster intelligent monitor system and method based on deep learning

Also Published As

Publication number Publication date
KR20210017137A (en) 2021-02-17

Similar Documents

Publication Publication Date Title
WO2020078229A1 (en) Target object identification method and apparatus, storage medium and electronic apparatus
CN112560657B (en) Method, device, computer device and storage medium for identifying smoke and fire
CN109147259B (en) Remote fire detection system and method based on video image
CN105512667B (en) Infrared and visible light video image fusion recognition fire method
CN111462128B (en) Pixel-level image segmentation system and method based on multi-mode spectrum image
KR102265291B1 (en) Real time fire detection system and fire detection method using the same
WO2021073140A1 (en) Monocular camera, and image processing system and image processing method
CN104754302A (en) Target detecting tracking method based on gun and bullet linkage system
CN111507210A (en) Traffic signal lamp identification method and system, computing device and intelligent vehicle
KR20170101516A (en) Apparatus and method for fire monitoring using unmanned aerial vehicle
CN106897653B (en) Forest region smoke and fire detection method and detection system based on infrared and visible light video fusion
CN110532937B (en) Method for accurately identifying forward targets of train based on identification model and classification model
CN112149513A (en) Industrial manufacturing site safety helmet wearing identification system and method based on deep learning
KR20160047196A (en) APPARATUS FOR TRACKING EYE POINT OPERABLE AT HIGH intensity of illumination AND LOW intensity of illumination AND METHOD THEREOF
CN113486697B (en) Forest smoke and fire monitoring method based on space-based multimode image fusion
CN108540707A (en) Recognition of face crime scene investigation device
KR101866676B1 (en) Apparatus and Method for identifying object using multi spectral images
KR20200024083A (en) Facility maintain management system and method performing the same
Valero Pérez et al. On the use of compact thermal cameras for quantitative wildfire monitoring
KR20190130801A (en) Combined fire alarm system using stand-alone fire alarm and visible light camera
CN111461013B (en) Unmanned aerial vehicle-based real-time fire scene situation awareness method
KR20230017800A (en) Elevated Temperature Screening Systems and Methods
CN102999994A (en) Flame detection device based on video image analysis
KR102349818B1 (en) Autonomous UAV Navigation based on improved Convolutional Neural Network with tracking and detection of road cracks and potholes
CN108960146A (en) The image pre-processing method of recognition of face monitor video

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant