KR102265291B1 - Real time fire detection system and fire detection method using the same - Google Patents
Real time fire detection system and fire detection method using the same Download PDFInfo
- Publication number
- KR102265291B1 KR102265291B1 KR1020190095893A KR20190095893A KR102265291B1 KR 102265291 B1 KR102265291 B1 KR 102265291B1 KR 1020190095893 A KR1020190095893 A KR 1020190095893A KR 20190095893 A KR20190095893 A KR 20190095893A KR 102265291 B1 KR102265291 B1 KR 102265291B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- fire detection
- real
- detection system
- photographing device
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 75
- 238000004891 communication Methods 0.000 claims abstract description 17
- 238000007500 overflow downdraw method Methods 0.000 claims abstract description 12
- 238000010191 image analysis Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 40
- 238000003709 image segmentation Methods 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 claims description 8
- 238000001931 thermography Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 10
- 230000011218 segmentation Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 239000000779 smoke Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/0202—Control of position or course in two dimensions specially adapted to aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- B64C2201/127—
-
- B64C2201/146—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Emergency Management (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Fire-Detection Mechanisms (AREA)
- Alarm Systems (AREA)
Abstract
본 발명은 가시광 영상 및 열화상 영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 방법으로 분석하여 화재를 감지할 수 있는 화재 감지 시스템 및 화재 감지 방법에 관한 것으로서, 가시광 카메라로 촬영한 제1영상과 열화상 카메라로 촬영한 제2영상을 취득하는 촬영장치와, 촬영장치와 통신을 통해, 촬영장치에 의해 취득된 제1영상 및 제2영상을 수신하고 촬영장치를 제어하는 제어부; 및 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 영상 분석부를 포함하여 이루어지는 실시간 화재 감지 시스템 및 이를 이용한 화재 감지 방법이며, 비행 드론 및 CCTV에서 촬영한 가시광 영상과 열화상 영상을 이용하여 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 적용한 실시간 화재 감지 장치 및 화재 감지 방법을 이용하여, 화재로 인한 피해를 경감시킬 수 있는 효과를 나타낼 수 있다.The present invention relates to a fire detection system and a fire detection method capable of detecting a fire by analyzing a visible light image and a thermal image image by tying one subject rather than an outline, and relates to a first image captured by a visible light camera and a heat A photographing apparatus comprising: a photographing apparatus for acquiring a second image photographed by an image camera; and a control unit for receiving the first and second images acquired by the photographing apparatus through communication with the photographing apparatus and controlling the photographing apparatus; And a real-time fire detection system and a fire detection method using the same, comprising an image analysis unit that analyzes the first image and the second image through a fusion method that binds one subject, not the outline, to check whether a fire has occurred, and a flying drone And by using a real-time fire detection device and fire detection method that applies a fusion method that binds one subject rather than an outline using the visible light image and thermal image captured by CCTV, the effect of reducing damage from fire can indicate
Description
본 발명은 실시간 화재 감지 시스템 및 화재 감지 방법에 관한 것으로서, 더욱 상세하게는 가시광 영상 및 열화상 영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 방법으로 분석하여 화재를 감지할 수 있는 화재 감지 시스템 및 화재 감지 방법에 관한 것이다.The present invention relates to a real-time fire detection system and a fire detection method, and more particularly, a fire detection system and fire capable of detecting a fire by analyzing a visible light image and a thermal image by tying a single subject instead of an outline. It is about the detection method.
화재 발생 여부를 감지하기 위하여, 가시광 카메라와 열적외선 카메라가 많이 이용되고 있다.In order to detect whether a fire has occurred, a visible light camera and a thermal infrared camera are widely used.
가시광 카메라를 통한 화재 감지 방법은 주로 소프트웨어적인 방법이 사용된다. 즉, 화재 발생시 연기의 확산형태 또는 불꽃의 특징적인 형태변화를 알고리즘화하여, 촬영된 영상과 상호 비교하여 화재의 발생여부를 판단한다. 하지만, 이 경우 화재 발생시 발생하는 연기의 형태와 유사한 수증기, 구름, 먼지 등에 의한 오류가 발생할 우려가 있다. The fire detection method through the visible light camera is mainly used as a software method. That is, when a fire occurs, the spread of smoke or the characteristic change of the shape of the flame are algorithmized and compared with the captured images to determine whether a fire has occurred. However, in this case, there is a risk of errors due to water vapor, clouds, dust, etc. similar to the form of smoke generated during a fire.
열적외선 카메라를 통한 화재 감지 방법은, 열적외선 카메라에서 촬영된 영상으로부터 온도변화를 분석하여 화재의 발생여부를 판단한다. 하지만, 열원의 온도에 근거한 이미지 구성은 해상도가 매우 낮고 또한 흑백 영상이므로, 화재발생이 예상되는 높은 온도가 감지되었을 때, 이를 최종 확정하기 위하여 보조적인 방법으로써 주변이미지를 통한 현황 파악이 어렵다. 즉, 무조건 온도가 설정온도보다 높을 경우 화재로 인식하는 오류를 없애기 위한 방법으로써, 영상을 소프트웨어적으로 분석 처리하거나 운영자가 직접 육안으로 확인하여 판단하기가 어렵다는 문제가 있다.In the fire detection method through a thermal infrared camera, it is determined whether a fire has occurred by analyzing a temperature change from an image taken by the thermal infrared camera. However, since the image composition based on the temperature of the heat source has a very low resolution and is a black and white image, it is difficult to grasp the current situation through the surrounding image as an auxiliary method to finally confirm when a high temperature that is expected to cause a fire is detected. That is, as a method to eliminate the error of recognizing a fire when the temperature is unconditionally higher than the set temperature, there is a problem in that it is difficult to analyze and process the image through software or to determine it by visually checking the operator directly.
이러한 문제점들을 해결하기 위한 기술의 하나로서, 대한민국 등록특허 제10-1441589호에 따른 "가시광선 이미지와 원적외선 이미지를 광학적으로 융합하는 장치"는 하나의 광학 모듈 내에 가시광선 카메라와 원적외선 카메라를 장착하여 이미지를 취득하는 기술이 제시되었다. 그러나, 이 기술은 광학적으로 동시에 촬영을 한다고 하더라도 공간해상도 등과 같은 센서의 특징에 따라 영상에서의 동일 위치가 다른 피사체의 RAW 값을 가질 수 있다. 다른 기술로서 대한민국 등록특허 제10-1932411호에 따른 "스테레오 가시광 카메라와 열 영상 카메라를 기반으로 한 융합이미지 획득방법"은 스테레오 카메라의 좌우 영상과 열적외선 영상에서 윤곽선을 추출하고, 각 윤곽선을 매칭시켜서 스테레오 카메라 영상에 열영상을 융합시키는 장치 및 방법에 관한 것이다. 그러나, 이 기술은 복잡한 배경(나뭇잎이 무성한 나무, 줄무늬 옷 등)에서 많은 윤곽선들로 인한 많은 매칭 오류가 발생될 수 있는 문제가 있다. 또 다른 기술로서 대한민국 등록특허 제10-1863530호에 따른 "가시광 및 적외선 열화상 이미지를 이용한 화재 예측 보전 시스템"은 가시광 및 열화상 영상을 관제 서버로 보내고 각각의 영상을 관제하여 화재 예측 보전하는 시스템에 관한 것이다. 이 기술은 비록 가시광 및 적외선 열화상 이미지를 이용하지만 영상을 직접적으로 화재인식에 사용하지 않고 관제에 도움을 주는 용도로 사용하는 방식이다. As one of the techniques for solving these problems, "a device for optically fusion of a visible ray image and a far-infrared image" according to Republic of Korea Patent No. 10-1441589 is equipped with a visible ray camera and a far-infrared camera in one optical module. A technique for acquiring images has been presented. However, this technology may have RAW values of different subjects at the same location in the image depending on the sensor characteristics such as spatial resolution, even if they are simultaneously photographed optically. As another technique, "a fusion image acquisition method based on a stereo visible light camera and a thermal imaging camera" according to Korean Patent Registration No. 10-1932411 extracts outlines from the left and right images and thermal infrared images of a stereo camera, and matches each outline It relates to an apparatus and method for fusing a thermal image to a stereo camera image. However, this technique has a problem that many matching errors may occur due to many contours on complex backgrounds (leafy trees, striped clothes, etc.). As another technology, "fire prediction and preservation system using visible light and infrared thermal image" according to Korean Patent Registration No. 10-1863530 is a system that sends visible light and thermal image to a control server and controls each image to predict and preserve fire is about Although this technology uses visible light and infrared thermal imagery, the image is not directly used for fire recognition but is used to help control.
본 발명은 가시광 영상 및 열화상 영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 방법으로 분석하여 화재를 실시간으로 감지할 수 있는 화재 감지 시스템 및 감지 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a fire detection system and a detection method capable of detecting a fire in real time by analyzing a visible light image and a thermal image image by tying one subject instead of an outline.
본 발명의 다른 목적은 복잡한 배경에도 두 영상을 정렬시킬 수 있는 실시간 화재 감지 시스템 및 감지 방법을 제공하는 것이다.Another object of the present invention is to provide a real-time fire detection system and detection method capable of aligning two images even in a complex background.
본 발명의 다른 목적은 RAW-level에서 두 영상을 융합하여 성능이 향상된 실시간 화재 감지 시스템 및 감지 방법을 제공하는 것이다.Another object of the present invention is to provide a real-time fire detection system and detection method with improved performance by fusing two images in RAW-level.
이러한 목적을 달성하기 위한 본 발명에 따른 실시간 화재 감지 시스템은 가시광 카메라로 촬영한 제1영상과 열화상 카메라로 촬영한 제2영상을 취득하는 촬영장치; 상기 촬영장치와 통신을 통해, 상기 촬영장치에 의해 취득된 제1영상 및 제2영상을 수신하고 상기 촬영장치를 제어하는 제어부; 및 상기 제어부를 통해 전달된 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 영상 분석부를 포함하여 이루어지는 것을 구성의 특징으로 한다.A real-time fire detection system according to the present invention for achieving this object includes: a photographing device for acquiring a first image photographed by a visible light camera and a second image photographed by a thermal imaging camera; a control unit configured to receive the first image and the second image acquired by the photographing device through communication with the photographing device and to control the photographing apparatus; and an image analysis unit that analyzes the first image and the second image transmitted through the controller through a fusion method that binds one subject into one, rather than an outline, to determine whether a fire has occurred.
본 발명에 따른 실시간 화재 감지 시스템에서 상기 촬영장치는 화재 감지 대상 건물에 설치된 적어도 하나 이상의 CCTV일 수 있다.In the real-time fire detection system according to the present invention, the photographing device may be at least one CCTV installed in a fire detection target building.
본 발명에 따른 실시간 화재 감지 시스템에서 상기 촬영장치와 상기 제어부는 유선 통신 또는 무선 통신 방법으로 통신을 수행한다.In the real-time fire detection system according to the present invention, the photographing device and the control unit communicate through wired communication or wireless communication method.
본 발명의 바람직한 실시에 따른 실시간 화재 감지 시스템에서 상기 촬영장치는 비행 경로를 따라 이동하며 촬영하는 비행 드론일 수 있다.In the real-time fire detection system according to a preferred embodiment of the present invention, the photographing device may be a flying drone that moves along a flight path and shoots.
본 발명에 따른 실시간 화재 감지 시스템에서 상기 비행 드론의 비행 경로는 차량에 장착된 제어부로부터 실시간으로 제공되는 신호에 의해 제어될 수 있다.In the real-time fire detection system according to the present invention, the flight path of the flying drone may be controlled by a signal provided in real time from a control unit mounted on the vehicle.
본 발명에 따른 실시간 화재 감지 시스템에서 상기 비행 드론의 비행 경로는 미리 설정되어 비행 드론 내부에 저장되고, 상기 비행 드론은 위치측정 시스템(Global Positioning System: GPS)을 구비한다.In the real-time fire detection system according to the present invention, the flight path of the flying drone is preset and stored inside the flying drone, and the flying drone is equipped with a global positioning system (GPS).
본 발명에 따른 실시간 화재 감지 시스템 및 감지 방법에서 상기 제1영상 및 제2영상은 가공되지 않은 그대로의 이미지 파일 포맷 형태인 RAW파일로 전달된다.In the real-time fire detection system and detection method according to the present invention, the first image and the second image are transmitted as a RAW file in the form of an unprocessed image file format.
본 발명에 따른 실시간 화재 감지 시스템 및 감지 방법에서 상기 융합 방식은 영상 분할(image segmentation) 기술을 이용하여 상기 제1영상과 상기 제2영상을 분할하고, 분할된 영상의 코너점을 매칭하고, 매칭된 영상으로부터 추출된 기하학 변환 매트릭스를 사용하여 영상을 정렬하고 화재 여부를 검출할 수 있다.In the real-time fire detection system and detection method according to the present invention, the fusion method divides the first image and the second image using image segmentation technology, matches corner points of the segmented image, and matches It is possible to align the images and detect whether there is a fire using the geometric transformation matrix extracted from the image.
본 발명에 따른 실시간 화재 감지 시스템 및 감지 방법에서 상기 영상 분할(image segmentation) 기술은 MASK R-CNN 객체검출 알고리즘을 사용한다.In the real-time fire detection system and detection method according to the present invention, the image segmentation technique uses a MASK R-CNN object detection algorithm.
본 발명에 따른 실시간 화재 감지 장치 및 감지 방법은 드론 정찰 및 CCTV에서 화재 감지 성능을 향상시킴으로 화재로 인한 피해를 경감할 수 있는 효과를 나타낼 수 있다.The real-time fire detection apparatus and detection method according to the present invention can exhibit the effect of reducing damage caused by fire by improving the fire detection performance in drone reconnaissance and CCTV.
본 발명에 따른 실시간 화재 감지 장치 및 감지 방법은 복잡한 배경에도 RAW-level에서 두 영상을 융합하여 화재 감지 성능을 향상시킬 수 있다.The real-time fire detection apparatus and detection method according to the present invention can improve fire detection performance by fusing two images in RAW-level even in a complex background.
도 1은 본 발명의 제1 실시 예에 따른 실시간 화재 감지 장치의 구성을 나타낸 예시도이다.
도 2는 본 발명의 제2 실시 예에 따른 실시간 화재 감지 장치의 구성을 나타낸 예시도이다.
도 3은 도 2에 따른 실시간 화재 감지 장치에서 차량에 장착된 제어부를 이용하여 다수의 비행 드론을 통해 다수의 영역을 감시하는 예를 나타낸 예시도이다.
도 4는 본 발명에 따른 비행 드론의 개략적인 구성을 나타낸 사시도이다.
도 5는 본 발명에 따른 실시간 화재 감지 방법의 진행과정을 나타낸 흐름도이다.
도 6은 본 발명에 따른 실시간 화재 감지 방법에서의 영상 분할(image segmentation)의 실시 예를 나타낸 예시도이다.
도 7은 본 발명에 따른 실시간 화재 감지 방법에서의 코너점 매칭의 예를 나타낸 예시도이다.
도 8은 본 발명에 따른 실시간 화재 감지 방법에서 추출된 기하학 변환 매트릭스를 사용하여 영상을 정렬하는 예를 나타낸 예시도이다.
도 9는 본 발명에 따른 실시간 화재 감지 방법에서 정렬된 영상을 이용하여 화재 여부를 판단하는 것을 나타낸 예시도이다.1 is an exemplary diagram showing the configuration of a real-time fire detection device according to a first embodiment of the present invention.
2 is an exemplary diagram showing the configuration of a real-time fire detection device according to a second embodiment of the present invention.
3 is an exemplary diagram illustrating an example of monitoring a plurality of areas through a plurality of flying drones using a control unit mounted on a vehicle in the real-time fire detection device according to FIG. 2 .
4 is a perspective view showing a schematic configuration of a flying drone according to the present invention.
5 is a flowchart showing the progress of the real-time fire detection method according to the present invention.
6 is an exemplary diagram illustrating an embodiment of image segmentation in a real-time fire detection method according to the present invention.
7 is an exemplary diagram illustrating an example of corner point matching in a real-time fire detection method according to the present invention.
8 is an exemplary diagram illustrating an example of aligning images using the geometric transformation matrix extracted in the real-time fire detection method according to the present invention.
9 is an exemplary diagram illustrating determining whether a fire exists by using the aligned images in the real-time fire detection method according to the present invention.
본문에 개시되어 있는 본 발명의 실시 예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시 예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시 예들에 한정되는 것으로 해석되어서는 안 된다.With respect to the embodiments of the present invention disclosed in the text, specific structural or functional descriptions are only exemplified for the purpose of describing the embodiments of the present invention, the embodiments of the present invention may be implemented in various forms and It should not be construed as being limited to the described embodiments.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various forms, specific embodiments are illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 없는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that there is no other element in the middle. Other expressions describing the relationship between elements, such as "between" and "immediately between" or "neighboring to" and "directly adjacent to", should be interpreted similarly.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가진다" 등의 용어는 개시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this application, terms such as “comprises” or “having” are intended to designate that the disclosed feature, number, step, action, component, part, or combination thereof exists, but includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 나타내는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be construed as indicating meanings consistent with the meanings in the context of the related art, and should not be construed in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
한편, 어떤 실시 예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 흐름도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.On the other hand, when an embodiment can be implemented differently, functions or operations specified in a specific block may occur differently from the order specified in the flowchart. For example, two consecutive blocks may be performed substantially simultaneously, or the blocks may be performed in reverse according to a related function or operation.
이하에서, 첨부된 도면을 참조하여 본 발명에 따른 실시간 화재 감지 장치 및 이를 이용한 화재 감지 방법에 대하여 설명하기로 한다.Hereinafter, a real-time fire detection apparatus and a fire detection method using the same according to the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 제1 실시 예에 따른 실시간 화재 감지 장치의 구성을 나타낸 예시도이다. 가시광 카메라로 촬영한 제1영상과 열화상 카메라로 촬영한 제2영상을 취득하는 촬영장치(100), 상기 촬영장치(10)와 통신을 통해, 상기 촬영장치(10)에 의해 취득된 제1영상 및 제2영상을 수신하고 상기 촬영장치를 제어하는 제어부(200); 및 상기 제어부(200)를 통해 전달된 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 영상 분석부(300)를 포함하여 이루어진다.1 is an exemplary diagram showing the configuration of a real-time fire detection device according to a first embodiment of the present invention. A photographing
제1 실시 예에서의 촬영 장치(100)는 화재 감지 대상 건물에 설치된 복수의 CCTV(110-1,110-2,…,110-n)로 구성된 것을 예로 나타내고 있다. 예시도에서는 복수의 CCTV(110-1,110-2,…,110-n) 중 일부는 제어부(200)와 유선 통신을 수행하고, 일부는 무선 통신을 수행하는 것을 나타내고 있다. 물론, 모든 복수의 CCTV(110-1,110-2,…,110-n)가 제어부(200)와 유선 통신 방법으로 데이터를 송수신하거나, 모든 복수의 CCTV(110-1,110-2,…,110-n)가 제어부(200)와 무선 통신 방법으로 데이터를 송수신할 수 있다. 이때, 촬영장치(100)는 제어부(200)로 촬영 영상을 전송하고, 제어부(200)는 촬영장치(100)로 제어신호를 전송할 수 있다.The photographing
도 2는 본 발명에 따른 제2 실시 예에 따른 실시간 화재 감지 장치의 구성을 나타낸 예시도이다. 촬영장치(100)가 비행 경로를 따라 이동하며 영상을 촬영하는 복수의 비행 드론(120-1,120-2,…,120-n)으로 이루어진 예시이다.2 is an exemplary view showing the configuration of a real-time fire detection device according to a second embodiment according to the present invention. The photographing
도 3에 도시한 바와 같이, 각 비행 드론(120-1,120-2,…,120-n)은 다수 개의 영역(제1영역, 제2영역,…,제n영역)으로 분할하여 촬영할 수 있다. 이때, 상기 비행 드론(120-1,120-2,…,120-n)은 차량 내에 장착된 제어부(200)로부터 제공되는 신호에 의해 실시간으로 제어될 수 있다. As shown in FIG. 3 , each flying drone 120-1, 120-2, ..., 120-n may be divided into a plurality of regions (first region, second region, …, n-th region) and photographed. In this case, the flying drones 120-1, 120-2, ..., 120-n may be controlled in real time by a signal provided from the
한편, 본 예시도에서는 복수의 비행 드론을 나타내고 있지만, 하나의 비행 드론으로도 본 발명에 따른 실시간 화재 감지장치를 구현할 수도 있다. 또한, 비행 드론(120)의 비행 경로는 미리 설정된 비행 경로일 수 있다.On the other hand, although a plurality of flying drones are shown in this exemplary diagram, a real-time fire detection device according to the present invention may be implemented with a single flying drone. In addition, the flight path of the flying
도 4에 도시한 바와 같이, 비행 드론(120)에는 가시광선 영역대의 파장을 기반으로 피사체의 가시광선 영상을 촬영하는 가시광 카메라(111)와, 적외선 영역대의 파장을 기반으로 피사체의 적외선 영상을 촬영하는 열화상 카메라(112) 및 위치측정시스템(Global Positioning System: GPS)(113)을 구비할 수 있다. 상기 비행 드론(120)은 위치측정시스템(GPS: 113)을 통해 수신되는 위치정보를 이용하여 미리 정해진 비행 경로를 비행하면서 영상을 촬영한다. 또한, 도시하지 않았으나, 상기 비행 드론(120)은 장거리 통신부/중거리 통신부/페어링부/와이파이 통신부 등의 통신부와, 3축 가속도 센서/온도 센서/연기 센서 등을 포함한 센서부와, 프로펠라의 구동에 필요한 전원 및 각 구성요소의 동작에 필요한 전원을 공급하기 위한 전원부 등을 구비할 수 있다. 상기 비행 드론(120)은 화재상황에 따라 즉시 화재를 진화하기 위한 소화약재를 분사하거나 소화탄을 발사하는 소화부와, 고층 건물 또는 넓은 장소에서 많은 인원들이 화재에 의해 갇혀 있는 경우, 우선적으로 산소 호흡기, 방독 면 등의 구조 물품을 먼저 공급하여 인명을 구조하기 위한 물품이 구비되는 방재 물품 공급부를 포함할 수도 있다.As shown in FIG. 4 , the flying
CCTV 또는 비행 드론으로 이루어질 수 있는 상기 촬영장치(100)에서 촬영된 제1 영상 및 제2 영상은 가공되지 않은 그대로의 이미지 파일 포맷 형태인 RAW 파일로 제어부(200)로 전달된다.The first image and the second image captured by the photographing
RAW 파일은 이미지 파일 포맷 중 하나로 'RAW'라는 영어 단어의 의미를 담아, ‘가공되지 않은 원 그대로의 이미지 자료’라는 의미를 가지고 있다. 많이 쓰이는 이미지 파일 형식인 JPEG 파일과 비교할 때, RAW 파일은 화질이 더 높고, 무손실 압축 기술을 이용하므로 원본 그대로의 화질을 유지한다. 따라서 색감이 뛰어나고 노출, 화이트밸런스 등 이후 보정에 적합하다는 장점이 있다.RAW files are one of the image file formats and contain the meaning of the English word 'RAW', and have the meaning of 'unprocessed image data'. Compared to JPEG files, which are widely used image file formats, RAW files have a higher quality and use lossless compression technology to maintain the original quality. Therefore, it has the advantage of being excellent in color and suitable for subsequent corrections such as exposure and white balance.
도 5는 본 발명에 따른 실시간 화재 감지 방법의 진행 과정을 개략적으로 나타낸 흐름도이다. 도시한 바와 같이, 촬영장치에 장착된 가시광 카메라로 촬영한 제1영상과 열화상 카메라로 촬영한 제2영상을 취득하고, 상기 촬영장치와 통신을 통해 상기 촬영장치에 의해 취득된 제1영상 및 제2영상을 수신하는 영상 수집과정이 이루어진다. 이때, 제1 영상 및 제2 영상은 가공되지 않은 그대로의 이미지 파일 포맷 형태인 RAW 파일로 전달된다(S510).5 is a flowchart schematically illustrating a process of a real-time fire detection method according to the present invention. As shown, the first image captured by the visible light camera mounted on the photographing device and the second image photographed by the thermal imaging camera are acquired, and the first image acquired by the photographing device through communication with the photographing device and An image collection process of receiving the second image is performed. In this case, the first image and the second image are transmitted as RAW files, which are unprocessed image file formats (S510).
영상 분석부(300)는 제어부(200)를 통해 수신한 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 영상 분석 과정이 수행된다 (S520).The
한편, 영상 분석 과정(520)은 다음과 같이 이루어진다.Meanwhile, the image analysis process 520 is performed as follows.
먼저, 영상 분할(image segmentation) 기술을 이용하여 도 6에 도시한 바와 같이, 제1영상과 상기 제2영상을 분할한다. 영상 분할(image segmentation)을 구현하는 방법에는 크게 3가지 방법이 있다. 첫 번째 방법으로는 픽셀 기반 분할(Pixel based segmentation) 방법이 있다. 이미지를 특정 도메인으로 변경한 후, 분할을 잘할 수 있는 문턱값(threshold) 값을 선정하여 나누는 이미지 이진화 방법이다. 다음 방법으로는 영상 데이터에서 가장자리(윤곽선, edge)를 추출한 다음, 가장자리를 기반으로 분할하는 윤곽선 기반 분할(Edge based segmentation) 방법이 있다. 마지막 방법으로는 영상에서 특정 기준점의 픽셀로부터 점점 같은 의미를 가진 영상 범위까지 픽셀을 확장해나가면서 분할하는 영역기반 분할(region based segmentation) 방법이 있다. First, the first image and the second image are segmented using an image segmentation technique, as shown in FIG. 6 . There are three main methods for implementing image segmentation. A first method is a pixel-based segmentation method. After changing an image to a specific domain, it is an image binarization method that selects and divides a threshold value that can be segmented well. As a next method, there is an edge based segmentation method that extracts an edge (edge) from image data and then divides it based on the edge. As a last method, there is a region-based segmentation method in which pixels are segmented while expanding from a pixel at a specific reference point in an image to an image range having the same meaning.
본 발명에서는 영상 인식 기술을 통해 영상을 분할하여 각 픽셀에 라벨(label)을 부여하는 픽셀 분할 방법을 사용하는 것이 예로 하고 있으나, 본 발명이 이러한 분할 방법에 국한되는 것은 아님은 언급의 여지가 없을 것이다. 가시광 카메라(111)로 촬영한 제1영상과 열화상 카메라(112)로 촬영한 제2영상을 각각 분할하여 각 픽셀에 라벨(label)을 부여하여 제1영상' 및 제2영상'을 생성한다. 본 실시 예에서의 영상 분할(image segmentation) 기술은 합성곱 신경망(Convolutional Neural Networks: CNN)을 픽셀 수준의 분할(segmentation)까지 확장시킨 MASK R-CNN 객체검출 알고리즘을 적용한다 (S521).In the present invention, it is exemplified that an image is segmented through image recognition technology and a pixel segmentation method of assigning a label to each pixel is used as an example, but it cannot be overemphasized that the present invention is not limited to this segmentation method. will be. The first image captured by the visible light camera 111 and the second image photographed by the thermal imaging camera 112 are divided, respectively, and a label is assigned to each pixel to generate a first image and a second image. . The image segmentation technique in this embodiment applies a MASK R-CNN object detection algorithm that extends convolutional neural networks (CNN) to pixel-level segmentation (S521).
픽셀 수준으로 분할된 제1영상' 및 제2영상에서 코너점을 검출한다 (S522).Corner points are detected in the 'first image' and the second image divided at the pixel level (S522).
도 7에 도시한 바와 같이 제1영상' 및 제2영상'의 각 코너점 사이의 거리가 최소값을 갖도록 코너점을 매칭하고(S523), 매칭된 영상으로부터 기하학 변환 매트릭스를 추출한다 (S524).As shown in FIG. 7 , the corner points are matched so that the distance between each corner point of the 'first image' and the second image' has a minimum value (S523), and a geometric transformation matrix is extracted from the matched image (S524).
이어, 추출된 기하학 변환 매트릭스를 사용하여 영상을 정렬한다. 예를 들어, 도 8에 도시한 바와 같이 열화상 영상인 제2영상'을 가시광 영상인 제1 영상'과 동일 위치에 객체에서 나온 값이 매핑되도록 기하학 변환시켜 제3 영상을 생성한다(S525).Then, the images are aligned using the extracted geometric transformation matrix. For example, as shown in FIG. 8 , a third image is generated by geometrically transforming the 'second image, which is a thermal image, so that values from the object are mapped to the same position as the 'first image, which is a visible light image' (S525). .
도 9에서와 같이 정렬된 영상의 값을 화재검출 네트워크의 입력값으로 하여 영상을 인식하여 화재 여부를 판단하게 된다(S526).As shown in FIG. 9 , by using the value of the aligned image as an input value of the fire detection network, the image is recognized to determine whether or not there is a fire ( S526 ).
특성이 다른 두 센서를 정렬(Alignment)시키는 것은 매우 어려운 문제이다. 기존의 다른 방법들과 달리 본 발명에서는 두 개의 분리된 단일 카메라에서 최근에 각광받고 있는 image segmentation 기술로 이 문제를 해결하였다. 예를 들어, MASK R-CNN와 같은 영상 분할(image segmentation) 알고리즘을 이용하여 윤곽선이 아닌 하나의 피사체(객체)를 하나로 묶는 방식이기 때문에 복잡한 배경에도 강인하게 두 센서 영상을 정렬시킬 수 있다. 또한, RAW-LEVEL에서 융합함으로서 결정 레벨에서 융합하는 방법보다 성능을 향상시킬 수 있다.Aligning two sensors with different characteristics is a very difficult problem. Unlike other existing methods, the present invention solves this problem with image segmentation technology, which has recently been spotlighted by two separate single cameras. For example, since it uses an image segmentation algorithm such as MASK R-CNN to tie a single subject (object) into one rather than an outline, it is possible to align two sensor images robustly even in a complex background. In addition, by fusion in RAW-LEVEL, the performance can be improved compared to the fusion method at the crystal level.
이상에서 설명한 바와 같이, 비행 드론 및 CCTV에서 촬영한 가시광 영상과 열화상 영상을 이용하여 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 적용한 실시간 화재 감지 장치 및 화재 감지 방법을 이용하여, 화재로 인한 피해를 경감시킬 수 있는 효과를 나타낼 수 있다.As described above, using a real-time fire detection device and fire detection method that applies a fusion method that binds one subject rather than an outline using visible light images and thermal images captured by flying drones and CCTVs, It can have an effect that can reduce damage.
상기에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the preferred embodiment of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.
100: 촬영장치 110: CCTV
120: 비행 드론 200: 제어부
300: 영상 분석부100: recording device 110: CCTV
120: flying drone 200: control unit
300: image analysis unit
Claims (18)
상기 촬영장치와 통신을 통해, 상기 촬영장치에 의해 취득된 제1영상 및 제2영상을 수신하고 상기 촬영장치를 제어하는 제어부; 및
상기 제어부를 통해 전달된 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 영상 분석부를 포함하여 이루어지고,
상기 융합 방식은 영상 분할(image segmentation) 기술을 이용하여 상기 제1영상과 상기 제2영상을 분할하고, 분할된 영상의 각 코너점 사이의 거리가 최소값을 갖도록 코너점을 매칭하고, 매칭된 영상으로부터 기하학 변환 매트릭스를 추출한 후, 추출된 기하학 변환 매트릭스를 사용하여 영상을 정렬하고 화재 여부를 검출하는 실시간 화재 감지 시스템.a photographing device for acquiring a first image photographed by a visible light camera and a second image photographed by a thermal imaging camera;
a control unit configured to receive the first image and the second image acquired by the photographing device through communication with the photographing device and to control the photographing apparatus; and
It comprises an image analysis unit that analyzes the first image and the second image transmitted through the control unit through a fusion method that binds one subject, not an outline, to check whether a fire has occurred,
The fusion method divides the first image and the second image using image segmentation technology, matches the corner points so that the distance between each corner point of the segmented image has a minimum value, and matches the matched image A real-time fire detection system that extracts a geometry transformation matrix from
상기 촬영장치와 통신을 통해 상기 촬영장치에 의해 취득된 제1영상 및 제2영상을 수신하는 과정; 및
수신된 제1영상 및 제2영상을 윤곽선이 아닌 하나의 피사체를 하나로 묶는 융합 방식을 통해 분석하여 화재 발생 여부를 확인하는 과정을 포함하여 이루어지고,
상기 융합 방식은,
영상 분할(image segmentation) 기술을 이용하여 상기 제1영상과 상기 제2영상을 분할하는 단계;
분할된 영상에서 각 코너점을 검출하는 단계;
제1 영상과 제2영상의 각 코너점 사이의 거리가 최소값을 갖도록 코너점을 매칭하는 단계;
매칭된 영상으로부터 기하학 변환 매트릭스를 추출하는 단계;
추출된 기하학 변환 매트릭스를 사용하여 영상을 정렬하는 단계;
정렬된 영상의 값을 입력값으로 하여 영상을 인식하여 화재 여부를 판단하는 단계를 포함하는 실시간 화재 감지 방법.A process of acquiring a first image photographed by a visible light camera mounted on a photographing apparatus and a second image photographed by a thermal imaging camera;
receiving the first image and the second image acquired by the photographing device through communication with the photographing device; and
It includes a process of checking whether a fire has occurred by analyzing the received first image and the second image through a fusion method that binds one subject, not the outline,
The fusion method is
segmenting the first image and the second image using an image segmentation technique;
detecting each corner point in the segmented image;
matching the corner points so that the distance between each corner point of the first image and the second image has a minimum value;
extracting a geometric transformation matrix from the matched image;
aligning the image using the extracted geometric transformation matrix;
A real-time fire detection method comprising the step of determining whether a fire exists by recognizing an image by using the value of the aligned image as an input value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190095893A KR102265291B1 (en) | 2019-08-07 | 2019-08-07 | Real time fire detection system and fire detection method using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190095893A KR102265291B1 (en) | 2019-08-07 | 2019-08-07 | Real time fire detection system and fire detection method using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210017137A KR20210017137A (en) | 2021-02-17 |
KR102265291B1 true KR102265291B1 (en) | 2021-06-16 |
Family
ID=74732097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190095893A KR102265291B1 (en) | 2019-08-07 | 2019-08-07 | Real time fire detection system and fire detection method using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102265291B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240059206A (en) | 2022-10-27 | 2024-05-07 | 주식회사 라이브워크 | Ai model managing system and method for enhancing fire detection performance of ai model |
KR102546982B1 (en) * | 2022-12-23 | 2023-06-26 | 한국건설기술연구원 | Apparatus for generating learning data for deep learning model and method thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101741107B1 (en) * | 2015-12-14 | 2017-06-15 | 주식회사 앤다스 | Apparatus and method for monitoring fire by using cctv |
CN109903507A (en) * | 2019-03-04 | 2019-06-18 | 上海海事大学 | A kind of fire disaster intelligent monitor system and method based on deep learning |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170101516A (en) * | 2016-02-29 | 2017-09-06 | 한국전자통신연구원 | Apparatus and method for fire monitoring using unmanned aerial vehicle |
KR101888930B1 (en) * | 2016-12-12 | 2018-08-16 | 주식회사 숨비 | Safety management system using drone mobile station |
-
2019
- 2019-08-07 KR KR1020190095893A patent/KR102265291B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101741107B1 (en) * | 2015-12-14 | 2017-06-15 | 주식회사 앤다스 | Apparatus and method for monitoring fire by using cctv |
CN109903507A (en) * | 2019-03-04 | 2019-06-18 | 上海海事大学 | A kind of fire disaster intelligent monitor system and method based on deep learning |
Also Published As
Publication number | Publication date |
---|---|
KR20210017137A (en) | 2021-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020078229A1 (en) | Target object identification method and apparatus, storage medium and electronic apparatus | |
CN112560657B (en) | Method, device, computer device and storage medium for identifying smoke and fire | |
CN109147259B (en) | Remote fire detection system and method based on video image | |
CN105512667B (en) | Infrared and visible light video image fusion recognition fire method | |
CN111462128B (en) | Pixel-level image segmentation system and method based on multi-mode spectrum image | |
KR102265291B1 (en) | Real time fire detection system and fire detection method using the same | |
WO2021073140A1 (en) | Monocular camera, and image processing system and image processing method | |
CN104754302A (en) | Target detecting tracking method based on gun and bullet linkage system | |
CN111507210A (en) | Traffic signal lamp identification method and system, computing device and intelligent vehicle | |
KR20170101516A (en) | Apparatus and method for fire monitoring using unmanned aerial vehicle | |
CN106897653B (en) | Forest region smoke and fire detection method and detection system based on infrared and visible light video fusion | |
CN110532937B (en) | Method for accurately identifying forward targets of train based on identification model and classification model | |
CN112149513A (en) | Industrial manufacturing site safety helmet wearing identification system and method based on deep learning | |
KR20160047196A (en) | APPARATUS FOR TRACKING EYE POINT OPERABLE AT HIGH intensity of illumination AND LOW intensity of illumination AND METHOD THEREOF | |
CN113486697B (en) | Forest smoke and fire monitoring method based on space-based multimode image fusion | |
CN108540707A (en) | Recognition of face crime scene investigation device | |
KR101866676B1 (en) | Apparatus and Method for identifying object using multi spectral images | |
KR20200024083A (en) | Facility maintain management system and method performing the same | |
Valero Pérez et al. | On the use of compact thermal cameras for quantitative wildfire monitoring | |
KR20190130801A (en) | Combined fire alarm system using stand-alone fire alarm and visible light camera | |
CN111461013B (en) | Unmanned aerial vehicle-based real-time fire scene situation awareness method | |
KR20230017800A (en) | Elevated Temperature Screening Systems and Methods | |
CN102999994A (en) | Flame detection device based on video image analysis | |
KR102349818B1 (en) | Autonomous UAV Navigation based on improved Convolutional Neural Network with tracking and detection of road cracks and potholes | |
CN108960146A (en) | The image pre-processing method of recognition of face monitor video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |