KR20210132380A - The system and the method for detecting fire based on thermal and real images - Google Patents

The system and the method for detecting fire based on thermal and real images Download PDF

Info

Publication number
KR20210132380A
KR20210132380A KR1020200050676A KR20200050676A KR20210132380A KR 20210132380 A KR20210132380 A KR 20210132380A KR 1020200050676 A KR1020200050676 A KR 1020200050676A KR 20200050676 A KR20200050676 A KR 20200050676A KR 20210132380 A KR20210132380 A KR 20210132380A
Authority
KR
South Korea
Prior art keywords
image
roi
thermal
fire detection
temperature
Prior art date
Application number
KR1020200050676A
Other languages
Korean (ko)
Other versions
KR102442552B1 (en
Inventor
안정환
김학일
권태민
최학남
Original Assignee
주식회사 비젼인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비젼인 filed Critical 주식회사 비젼인
Priority to KR1020200050676A priority Critical patent/KR102442552B1/en
Publication of KR20210132380A publication Critical patent/KR20210132380A/en
Application granted granted Critical
Publication of KR102442552B1 publication Critical patent/KR102442552B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fire-Detection Mechanisms (AREA)
  • Investigating Or Analyzing Materials Using Thermal Means (AREA)

Abstract

The present invention relates to an image-based fire detection system and, more specifically, to an image-based fire detection system capable of supplementing a false alarm for a fire-like image, detecting an internal fire which is not visible, and delivering temperature data of a specific area in an image to a user in real time, and a method thereof. According to one embodiment of the present invention, the image-based fire detection system includes: an region-of-interest (ROI) detection part detecting a specific ROI from an actual image received from a camera, using an artificial intelligence algorithm; a heat detection part outputting a thermal image from a thermal image camera and predicting a surface temperature of each spot; an image matching part matching the actual image about the specific ROI detected by the ROI detection part with the thermal image outputted by the heat detection part; and a fire determination part detecting a fire based on the matched image created by the image matching part and the specific ROI detected by the ROI detection part.

Description

열영상 및 실영상 기반의 화재 감지 시스템 및 방법{The system and the method for detecting fire based on thermal and real images} The system and the method for detecting fire based on thermal and real images

본 발명은 열영상 및 실영상 기반의 화재 감지 시스템에 관한 것으로, 특히 열영상과 일반 카메라에서 획득한 실영상을 정합하여 화재를 보다 정확히 감지할 수 있는 시스템 및 그 방법에 관한 것이다. The present invention relates to a thermal image and real image-based fire detection system, and more particularly, to a system and method capable of more accurately detecting a fire by matching a thermal image and a real image obtained from a general camera.

화재 사고는 수많은 인명 피해를 유발하며 재산상의 손실이 막대하다. 2019년 한해 발생한 화재는 40,103건으로, 하루에 약 110건의 화재가 발생하였다. 위와 같은 화재의 발생 원인은 부주의가 절반 이상을 차지할 정도로 화재에 대한 사전 관심과 예방책을 마련한다면 그 손실 및 위험성을 충분히 저감시킬 수 있다. 이에 따라, 화재를 감지하기 위한 방법들이 요구되고 있다.Fire accidents cause numerous lives and damage to property. In 2019 alone, there were 40,103 fires, about 110 fires per day. Carelessness accounts for more than half of the causes of fires as described above, so if you take precautions and pay attention to fires in advance, the loss and risk can be sufficiently reduced. Accordingly, methods for detecting a fire are required.

현재 주로 사용되고 있는 화재 감지 및 경보 시스템은 열, 연기 등의 센서기반 감지기들이 대부분이며 이들 감지기는 화재가 발생한 후 열이나 연기가 일정 수준 이상 확산되어 센서에 도달해야 비로소 감지가 가능하다. 연기 감시 방식은 센서를 이용한 광전식 스포트형, 광전식 분리형, 이온화식 및 공기흡입형 등이 사용되어 왔다.Most of the fire detection and alarm systems currently used are sensor-based detectors such as heat and smoke, and these detectors can only be detected when heat or smoke spreads over a certain level after a fire and reaches the sensor. As the smoke monitoring method, a photoelectric spot type using a sensor, a photoelectric separation type, an ionization type, and an air suction type have been used.

그런데, 이와 같은 화재 감지 센서는 열이나 연기가 직접 센서 내로 유입 또는 흡입되어야 화재의 발생을 감지할 수 있다. 이로 인해, 주변 환경에 따라서 화재의 오감지의 가능성이 크며, 이러한 오감지를 방지하기 위해 영상기반 화재 감지 방안이 요구되었다.However, such a fire detection sensor can detect the occurrence of a fire only when heat or smoke is directly introduced or sucked into the sensor. For this reason, the possibility of false detection of fire is high depending on the surrounding environment, and an image-based fire detection method is required to prevent such false detection.

영상기반 화재 감지 방법에 관한 종래기술로서 대한민국 등록특허 제10-1620989호(이하 '선행기술'이라 약칭함)는 야간 영상을 포함하는 동영상으로부터 화재를 자동적으로 감지하는 방법 및 이를 수행하는 시스템을 개시한다. 다만, 선행기술은 화재 영역을 판별하는 일련의 과정에서 프레임의 밝기를 기준으로 하여 화재가 발생된 관심 영역을 지정하였다. 이는, 영상에서 파악할 수 있는 화재의 특성을 불빛 또는 화염에 의한 반짝임으로 화재 유무를 검출하는 것으로, 화재 초기에 발생하는 불빛이 작은 불씨의 감지가 어렵거나 화면에 화염이 포함되지 않고 연기만 포함된 화재 현장을 감지하지 못하여 화재 감지율이 낮은 문제점이 있다. 또한, 자전거 깜빡이, 자동차 점멸등, 네온사인 등과 같이 밝기의 변화가 반복되는 조건을 화재와 구별하지 못하여 화재 감지의 오경보율이 높은 문제점이 나타난다.As a prior art related to an image-based fire detection method, Korean Patent Registration No. 10-1620989 (hereinafter abbreviated as 'prior art') discloses a method for automatically detecting a fire from a video including a night image and a system for performing the same do. However, in the prior art, the area of interest where the fire occurred was designated based on the brightness of the frame in a series of processes for determining the fire area. This is to detect the presence or absence of a fire by flashing lights or flames that can be identified in the image. It is difficult to detect small embers in the early stages of a fire, or if the screen contains only smoke without flames. There is a problem that the fire detection rate is low because the fire site cannot be detected. In addition, it is not possible to distinguish a condition in which a change in brightness is repeated, such as a bicycle blinker, a car blinker, a neon sign, etc.

또한, 종래의 영상기반 화재 감지 방법은 불꽃이 아님에도 불꽃과 유사한 경우 감지하는 오검출율이 높으며, 내부 화재는 영상에서 불꽃으로 나타나지 않기 때문에 검출되지 않는 문제점이 존재한다.In addition, the conventional image-based fire detection method has a high false detection rate when it is similar to a flame even though it is not a flame, and there is a problem in that the internal fire is not detected because it does not appear as a flame in the image.

(KR) 등록특허 제 10-1620989 호(KR) Registered Patent No. 10-1620989 (KR) 등록특허 제 10-1998639 호(KR) Registered Patent No. 10-1998639 (KR) 공개특허 제 10-2016-0010387 호(KR) Patent Publication No. 10-2016-0010387

본 발명은 상기 문제점을 해결하기 위해 안출된 것으로서, 화재 유사 영상(Fire-like) 에 대한 오경보를 보완하고, 보이지 않는 내부 화재를 검출하고, 사용자에게 영상 내 특정 영역에서의 온도데이터를 실시간으로 전달할 수 있는 영상 기반 화재 감지 시스템 및 그 방법을 제공하고자 한다. The present invention has been devised to solve the above problem, supplements false alarms for fire-like images, detects invisible internal fires, and delivers temperature data in a specific area in the image to the user in real time. An object of the present invention is to provide an image-based fire detection system and a method therefor.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 영상 기반 화재 감지 시스템은, 인공지능 알고리즘을 이용하여, 카메라로부터 수신한 실영상으로부터 특정 관심영역(ROI; Region of Interest)을 검출하는 ROI 검출부; 열화상 카메라로부터 열영상을 출력하고 각 지점의 표면 온도를 예측하는 열 감지부; 상기 ROI 검출부에서 검출한 특정 관심영역에 대한 실영상과 상기 열 감지부에서 출력한 열영상을 정합하는 영상 정합부; 및 상기 영상 정합부에서 생성된 정합 영상과 상기 ROI 검출부를 통해 검출한 특정 관심영역(ROI)에 기초하여 화재를 감지하는 화재 판단부;를 포함할 수 있다.An image-based fire detection system according to an embodiment of the present invention includes an ROI detector for detecting a specific region of interest (ROI) from a real image received from a camera using an artificial intelligence algorithm; a thermal sensor that outputs a thermal image from the thermal imaging camera and predicts the surface temperature of each point; an image matching unit for matching the real image of a specific region of interest detected by the ROI detection unit with the thermal image output from the thermal sensing unit; and a fire determination unit configured to detect a fire based on the matched image generated by the image matching unit and a specific region of interest (ROI) detected through the ROI detection unit.

본 발명의 일 실시예에 따른 특정 관심영역은 내부적으로 화재 발생 가능성이 높은 물체로, 기 설정된 것일 수 있다.A specific region of interest according to an embodiment of the present invention may be an object having a high internal fire probability, and may be a preset one.

본 발명의 일 실시예에 따른 ROI 검출부는 영역 추출 알고리즘을 더 이용하는 것일 수 있다.The ROI detector according to an embodiment of the present invention may further use a region extraction algorithm.

본 발명의 일 실시예에 따른 열 감지부는 온도 센서를 통해 수집한 온도 정보에 기 저장된 온도 DB를 적용하여 실온도를 예측하는 것일 수 있다.The heat sensor according to an embodiment of the present invention may predict the room temperature by applying a pre-stored temperature DB to the temperature information collected through the temperature sensor.

본 발명의 일 실시예에 따른 열 감지부는 ROI 검출부에서 검출된 물체의 종류에 따라 표면 온도를 예측하는 것일 수 있다.The thermal sensing unit according to an embodiment of the present invention may predict the surface temperature according to the type of object detected by the ROI detection unit.

본 발명의 일 실시예에 따른 열 감지부는 ROI 검출부에서 검출된 물체와 온도 센서 사이의 거리에 기초하여 온도를 예측하는 것일 수 있다.The thermal sensor according to an embodiment of the present invention may predict the temperature based on the distance between the object and the temperature sensor detected by the ROI detector.

본 발명의 일 실시예에 따른 영상 정합부는 렌즈의 스펙 및 해상도 중 적어도 어느 하나에 따라 열 영상에 대하여 영상 스케일을 리사이징하여 상기 실영상과 상기 열 영상을 정합할 수 있다. The image matching unit according to an embodiment of the present invention may match the real image and the thermal image by resizing an image scale of the thermal image according to at least one of a lens specification and a resolution.

본 발명의 일 실시예에 따른 영상 정합부는 상기 물체와 온도 센서 사이의 거리에 따라 획득된 DB를 이용하여, 실영상 좌표계상에서의 물체의 열 영상의 좌표를 매칭함으로써, 상기 실영상과 상기 열 영상을 정합할 수 있다.The image matching unit according to an embodiment of the present invention uses the DB obtained according to the distance between the object and the temperature sensor to match the coordinates of the thermal image of the object on the real image coordinate system, so that the real image and the thermal image can be matched.

본 발명의 일 실시예에 따른 영상 기반 화재 감지 시스템은, 프로세서를 포함하는 장치에 의해 수행되고, 상기 프로세서는 인공지능 알고리즘을 이용하여, 카메라로부터 수신한 실 영상으로부터 특정 관심영역(ROI; Region of Interest)을 검출하는 ROI 검출 단계; 상기 프로세서는 열화상 카메라로부터 열영상을 출력하고 각 지점의 표면 온도를 예측하는 열 감지 단계; 상기 프로세서는 상기 ROI 검출 단계에서 검출한 특정 관심영역에 대한 실 영상과 상기 열 감지 단계에서 출력한 열 영상을 정합하는 영상 정합 단계; 및 상기 프로세서는 상기 영상 정합 단계에서 생성된 정합 영상과 상기 ROI 검출 단계를 통해 검출한 특정 관심영역(ROI)에 기초하여 화재를 감지하는 화재 판단 단계;를 포함할 수 있다. An image-based fire detection system according to an embodiment of the present invention is performed by a device including a processor, and the processor uses an artificial intelligence algorithm to obtain a specific region of interest (ROI) from a real image received from a camera. ROI detection step of detecting interest); The processor outputs a thermal image from the thermal imaging camera and a thermal sensing step of predicting the surface temperature of each point; The processor may include: an image matching step of matching the real image of the specific region of interest detected in the ROI detection step with the thermal image output in the thermal detection step; and a fire determination step in which the processor detects a fire based on the matched image generated in the image matching step and a specific region of interest (ROI) detected through the ROI detection step.

본 발명의 일 실시예에 따른 영상 기반 화재 감지 시스템 및 그 방법은, 기존의 시스템보다 화재 유사 영상(Fire-like)에 대한 오경보를 보완할 수 있다.The image-based fire detection system and method according to an embodiment of the present invention can supplement false alarms for fire-like images compared to existing systems.

또한 본 발명은 실영상에서 보이지 않는 물체 내부에서 발생한 화재를 검출할 수 있다.In addition, the present invention can detect a fire that occurs inside an object that is not visible in the real image.

나아가 본 발명은 검출된 특정 관심영역의 실제 온도를 기존의 시스템보다 보다 정확하게 사용자에게 제공할 수 있다.Furthermore, the present invention can provide the user with the actual temperature of the detected specific region of interest more accurately than the conventional system.

추가적으로, 본 발명은 실영상과 온도 영상에 대한 정합 영상의 정확도를 높일 수 있다.Additionally, the present invention can increase the accuracy of the matched image for the real image and the temperature image.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1a는 기존의 영상 기반 화재 감지 방법에 의해 검출되는 결과를 나타낸다.
도 1b는 본 발명의 일 실시예에 따른 영상 기반 화재 감지 방법에 의해 검출되는 결과를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 영상 기반 화재 감지 시스템의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 영상 기반 화재 감지 방법의 순서도이다.
도 4a는 본 발명의 일 실시예에 따라 관심영역(ROI)을 검출하는 기법을 나타내고, 도 4b는 관심영역(ROI)을 검출하기 위하여 적용된 YOLOv3 구조에서 사용되는 바운딩 박스를 나타낸다.
도 5는 본 발명의 일 실시예에 따라 관심영역(ROI)을 검출하는 과정을 나타낸다.
도 6은 본 발명의 일 실시예에 따라 검출되는 대상 물체에 따른 온도 양상을 확인하기 위한 실험을 나타낸다.
도 7은 본 발명의 일 실시예에 따라 검출되는 대상 물체(배전반 케이스)에 따른 표면 온도 양상을 나타내는 그래프이다.
도 8은 본 발명의 다른 실시예에 따라 검출되는 대상 물체(자동차 엔진 본넷)에 따른 표면 온도 양상을 나타내는 그래프이다.
도 9a는 본 발명의 또다른 실시예에 따라 거리에 따른 온도 측정 결과를 나타내는 그래프이고, 도 9b는 본 발명의 실시예에 따라 거리를 측정하는 방법을 나타낸다.
도 10은 본 발명의 일 실시예에 따라 기존의 실영상 카메라만 있는 시스템에 열화상 카메라를 추가하여 구현하는 것을 나타낸다.
도 11a 및 도 11b는 본 발명의 일 실시예에 따라 멀티 관심영역(ROI)을 설정하는 것을 나타낸다.
도 12는 본 발명의 일 실시예에 따라 온도 설정하는 것을 나타낸다.
도 13은 본 발명의 일 실시예에 따라 실영상과 온도 영상을 정합하기 위한 두 가지 렌즈의 스펙을 나타낸다.
도 14는 본 발명의 다른 실시예에 따라 실영상과 온도 영상을 정합하기 위하여 거리에 따라 획득되는 물체의 좌표 데이터를 매칭하기 위한 테스트를 나타낸다.
도 15는 본 발명에 따라 1m 거리에서 획득되는 정합 영상을 나타낸다.
도 16은 본 발명에 따라 2m 거리에서 획득되는 정합 영상을 나타낸다.
도 17은 본 발명에 따라 3m 거리에서 획득되는 정합 영상을 나타낸다.
도 18은 본 발명에 따라 4m 거리에서 획득되는 정합 영상을 나타낸다.
도 19는 본 발명에 따라 5m 거리에서 획득되는 정합 영상을 나타낸다.
도 20은 본 발명에 따라 6m 거리에서 획득되는 정합 영상을 나타낸다.
도 21은 본 발명에 따라 7m 거리에서 획득되는 정합 영상을 나타낸다.
1A shows a result detected by a conventional image-based fire detection method.
Figure 1b shows a result detected by the image-based fire detection method according to an embodiment of the present invention.
2 is a block diagram of an image-based fire detection system according to an embodiment of the present invention.
3 is a flowchart of an image-based fire detection method according to an embodiment of the present invention.
4A shows a technique for detecting a region of interest (ROI) according to an embodiment of the present invention, and FIG. 4B shows a bounding box used in a YOLOv3 structure applied to detect a region of interest (ROI).
5 illustrates a process of detecting a region of interest (ROI) according to an embodiment of the present invention.
6 illustrates an experiment for confirming a temperature pattern according to a target object detected according to an embodiment of the present invention.
7 is a graph illustrating a surface temperature pattern according to a target object (switchboard case) detected according to an embodiment of the present invention.
8 is a graph illustrating a surface temperature pattern according to a target object (vehicle engine bonnet) detected according to another embodiment of the present invention.
9A is a graph showing a temperature measurement result according to a distance according to another embodiment of the present invention, and FIG. 9B shows a method for measuring a distance according to an embodiment of the present invention.
10 is a diagram illustrating implementation by adding a thermal imaging camera to a system having only an existing real image camera according to an embodiment of the present invention.
11A and 11B illustrate setting a multi-region of interest (ROI) according to an embodiment of the present invention.
12 shows setting the temperature according to an embodiment of the present invention.
13 shows specifications of two lenses for matching a real image and a temperature image according to an embodiment of the present invention.
14 illustrates a test for matching coordinate data of an object obtained according to a distance in order to match a real image and a temperature image according to another embodiment of the present invention.
15 shows a registered image obtained at a distance of 1 m according to the present invention.
16 shows a registered image obtained at a distance of 2 m according to the present invention.
17 shows a registered image obtained at a distance of 3 m according to the present invention.
18 shows a registered image obtained at a distance of 4 m according to the present invention.
19 shows a registered image obtained at a distance of 5 m according to the present invention.
20 shows a registered image obtained at a distance of 6 m according to the present invention.
21 shows a registered image obtained at a distance of 7 m according to the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면을 참조하여 상세하게 설명하도록 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can have various changes and can have various embodiments, specific embodiments will be described in detail with reference to the drawings. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재 항목들의 조합 또는 복수의 관련된 기재 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. and/or includes a combination of a plurality of related description items or any of a plurality of related description items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급될 때에는 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it should be understood that other components may exist in between. something to do. On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

또한, "제 1"및 "제 2"라는 용어는 본 명세서에서 구별 목적으로만 사용되며, 어떠한 방식으로도 서열 또는 우선 순위를 나타내거나 예상하는 것을 의미하지 않는 것으로 이해되어야 한다.It should also be understood that the terms "first" and "second" are used herein for distinguishing purposes only, and are not meant to indicate or anticipate sequence or priority in any way.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있다는 것을 의미한다. Throughout the specification and claims, when a part includes a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1a는 기존의 영상 기반 화재 감지 방법에 의해 검출되는 결과를 나타낸다. 1A shows a result detected by a conventional image-based fire detection method.

도 1a에 도시된 바와 같이, 종래의 화재 감지 방법/시스템은 자동차 점멸등(10), 자전거 깜빡이, 네온사인 등과 같이 밝기의 변화가 반복되는 조건(모션의 변화가 반복되는 플리킹)을 화재와 구별하지 못하기 때문에, 화재 감지의 오경보율이 높은 문제점이 나타난다.As shown in FIG. 1A, the conventional fire detection method/system distinguishes a condition (flicking in which a change in motion is repeated) in which a change in brightness is repeated, such as a car flasher 10, a bicycle blinker, a neon sign, etc. Since it cannot, there is a problem that the false alarm rate of fire detection is high.

또한, 물건 내부에 발생한 화재는 영상에서 불꽃으로 나타나지 않기 때문에 종래의 화재 감지 방법으로는 검출되지 않는 문제점이 존재한다.In addition, there is a problem in that the fire generated inside the object is not detected by the conventional fire detection method because it does not appear as a flame in the image.

도 1b는 본 발명의 일 실시예에 따른 영상 기반 화재 감지 방법에 의해 검출되는 결과를 나타낸다.Figure 1b shows a result detected by the image-based fire detection method according to an embodiment of the present invention.

도 1b에 도시된 바와 같이, 본 발명의 일 실시예에 따른 화재 감지 방법/시스템은 배전반 내부에 발생한 화재(20)와 상자 내에 포함된 전자장치 등 폭발로 발생한 화재(30) 등을 감지할 수 있어 내부 화재 검출에 효과적이다. As shown in FIG. 1B , the fire detection method/system according to an embodiment of the present invention can detect a fire 20 generated inside a switchboard and a fire 30 caused by an explosion such as an electronic device included in a box. It is effective in detecting internal fires.

그리고 본 발명의 일 실시에에 따른 화재 감지 방법은 화재가 발생할 가능성이 높은 대상체를 관심영역(ROI; Region of Interest)으로 설정하여 유사 불꽃에 의한 오검출을 방지할 수 있다.In addition, the fire detection method according to an embodiment of the present invention can prevent erroneous detection due to a similar flame by setting an object with a high probability of occurrence of a fire as a region of interest (ROI).

도 2는 본 발명의 일 실시예에 따른 영상 기반 화재 감지 시스템의 블록도이다. 2 is a block diagram of an image-based fire detection system according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 기반 화재 감지 시스템(1000)은 ROI 검출부(100), 열 감지부(200), 영상 정합부(300), 화재 판단부(400)를 포함할 수 있다. The image-based fire detection system 1000 according to an embodiment of the present invention may include an ROI detection unit 100 , a heat detection unit 200 , an image matching unit 300 , and a fire determination unit 400 .

본 발명의 일 실시예에 따른 ROI 검출부(100)는 카메라로부터 수신되는 실 영상에 대하여 인공지능 알고리즘을 적용하여 특정 관심영역(ROI; Region of Interest)을 검출할 수 있다. 카메라로 촬영하는 실영상은 화재 감시 지역에 대한 영상으로, 예컨대 CCTV 등으로 촬영될 수 있고, 실영상은 RGB 값을 가지는 색상 영상을 의미한다.The ROI detector 100 according to an embodiment of the present invention may detect a specific region of interest (ROI) by applying an artificial intelligence algorithm to the real image received from the camera. The real image photographed by the camera is an image of the fire monitoring area, for example, may be photographed by CCTV, etc., and the real image means a color image having RGB values.

ROI 검출부(100)는 영역 추출 알고리즘을 이용하여 특정 관심영역(ROI)을 검출할 수 있으며, 특정 관심영역은 내부적으로 화재 발생 가능성이 높은 물체로, 알고리즘에서 기 설정된 것일 수 있다. The ROI detector 100 may detect a specific region of interest (ROI) by using a region extraction algorithm, and the specific region of interest is an object having a high internal fire potential, and may be preset in the algorithm.

본 발명의 일 실시예에 따른 특정 관심영역(ROI)는 예컨대, 배전반이거나 주차 차량의 본네트일 수 있다. 배전반은 전기선들의 내부 합선에 의해 화재가 발생되는 물체로 대형 화재 발생의 주된 원인이 되기 때문에 특정 관심영역(ROI)으로 기 설정되고, 차량의 본네트는 차량의 엔진룸에서 화재가 자주 발생하기 때문에 특정 관심영역(ROI)으로 기 설정될 수 있다. 다만, 특정 관심영역(ROI)은 상술한 배전반 또는 차량의 본네트로 한정되는 것은 아니며, 내부 화재 발생 가능성이 높은 물체는 더 포함될 수 있다.A specific region of interest (ROI) according to an embodiment of the present invention may be, for example, a switchboard or a bonnet of a parked vehicle. The switchboard is an object that fires due to the internal short circuit of electric wires and is the main cause of large fires, so it is preset as a specific area of interest (ROI). It may be preset as a region of interest (ROI). However, the specific region of interest (ROI) is not limited to the above-described switchboard or the bonnet of the vehicle, and an object having a high possibility of internal fire may be further included.

한편, 특정 관심영역(ROI) 추출 방법은 딥러닝 기반으로 수행되는데, 도 4 및 도 5를 참조하여 후술한다.Meanwhile, a method of extracting a specific region of interest (ROI) is performed based on deep learning, which will be described later with reference to FIGS. 4 and 5 .

본 발명의 일 실시예에 따른 열 감지부(200)는 열화상 카메라로부터 열영상을 출력하고 각 지점의 표면 온도를 예측할 수 있다. 열화상 카메라는 적외선을 감지하여 온도의 높낮이를 색상으로 이미지화하여 열영상을 출력할 수 있는 것으로, 종래의 열화상 카메라가 사용될 수 있다.The thermal sensor 200 according to an embodiment of the present invention may output a thermal image from a thermal imaging camera and predict the surface temperature of each point. A thermal imaging camera is capable of outputting a thermal image by sensing infrared rays and imaging the temperature as a color, and a conventional thermal imaging camera may be used.

본 발명의 일 실시예에 따른 영상 정합부(300)는 ROI 검출부(100)에서 검출한 특정 관심영역에 대한 실영상과 상기 열 감지부(200)에서 출력한 열영상을 정합할 수 있다. 영상 정합에 관하여는 도 13 내지 도 21을 참조하여 후술한다.The image matching unit 300 according to an embodiment of the present invention may match the real image of the specific region of interest detected by the ROI detection unit 100 with the thermal image output from the thermal sensing unit 200 . Image registration will be described later with reference to FIGS. 13 to 21 .

본 발명의 일 실시예에 따른 화재 판단부(400)는 영상 정합부(300)에서 생성된 정합 영상과 상기 ROI 검출부(100)를 통해 검출한 특정 관심영역(ROI)에 기초하여 화재를 감지할 수 있다. The fire determination unit 400 according to an embodiment of the present invention detects a fire based on the matched image generated by the image matching unit 300 and a specific region of interest (ROI) detected by the ROI detection unit 100 . can

본 발명의 일 실시예에 따른 화재 판단부(400)는 실 영상과 열 영상이 정합된 정합 영상에서, 화재 검출이 필요한 특정 관심영역(ROI)를 능동적으로 선정할 수 있다. 그리고 화재 판단부(400)는 선정된 ROI의 물체 타입 및 물체와 온도 센서 사이의 거리에 따라 사전 확보된 온도 DB를 이용하여 이상징후 온도값을 예측 및 제공할 수 있다. The fire determination unit 400 according to an embodiment of the present invention may actively select a specific region of interest (ROI) requiring fire detection from the matched image in which the real image and the thermal image are matched. In addition, the fire determination unit 400 may predict and provide an abnormal symptom temperature value using a temperature DB secured in advance according to the object type of the selected ROI and the distance between the object and the temperature sensor.

본 발명의 일 실시예에 따른 화재 판단부(400)는 특정 관심영역(ROI)은 온도 기반으로 화재를 감지하고, ROI 이외의 영역은 실영상 기반으로 화재를 감지함으로써, 보다 정확한 화재 검출을 가능하도록 한다.The fire determination unit 400 according to an embodiment of the present invention detects a fire based on temperature in a specific region of interest (ROI), and detects fire based on an actual image in a region other than the ROI, enabling more accurate fire detection let it do

한편, 본 발명의 일 실시예에 따른 특정 관심영역(ROI)은 프로그램 상에서 사용자가 직접 설정할 수도 있다. Meanwhile, a specific region of interest (ROI) according to an embodiment of the present invention may be directly set by a user on a program.

본 발명의 일 실시예에 따른 화재 감지 시스템은 카메라로 촬영한 영상을 유/무선으로 수신하는 통신부(미도시)도 포함할 수 있다. 나아가, 통신부는 화재 판단부를 통하여 화재 발생이 감지되는 경우, 발화 지점을 포함하는 화재 발생 정보를 원격의 중앙통제센터에 전송할 수도 있다. 원격에 위치하는 중앙통제센터는 복수의 발화지점 감시 장치를 통합 운영하는 관리서버로 구현될 수 있다. The fire detection system according to an embodiment of the present invention may also include a communication unit (not shown) for receiving an image captured by a camera in a wired/wireless manner. Furthermore, when a fire is detected through the fire determination unit, the communication unit may transmit fire occurrence information including an ignition point to a remote central control center. A central control center located remotely can be implemented as a management server that integrates and operates a plurality of ignition point monitoring devices.

도 3은 본 발명의 일 실시예에 따른 영상 기반 화재 감지 방법의 순서도이다. 3 is a flowchart of an image-based fire detection method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 기반 화재 감지 방법은 프로세서를 포함하는 장치에 의해 수행될 수 있는데, 영상 기반 화재 감지 방법은,The image-based fire detection method according to an embodiment of the present invention may be performed by a device including a processor, and the image-based fire detection method includes:

프로세서가 인공지능 알고리즘을 이용하여, 카메라로부터 수신한 실 영상으로부터 특정 관심영역(ROI; Region of Interest)을 검출하는 ROI 검출 단계(S310); an ROI detection step (S310) in which the processor detects a specific region of interest (ROI) from the real image received from the camera by using an artificial intelligence algorithm;

열화상 카메라로부터 열영상을 출력하고 각 지점의 표면 온도를 예측하는 열 감지 단계(S320); A thermal sensing step (S320) of outputting a thermal image from the thermal imaging camera and predicting the surface temperature of each point;

상기 ROI 검출 단계에서 검출한 특정 관심영역에 대한 실 영상과 상기 열 감지 단계에서 출력한 열 영상을 정합하는 영상 정합 단계(S330); 및an image matching step (S330) of matching the real image of the specific region of interest detected in the ROI detection step and the thermal image output in the thermal detection step; and

상기 영상 정합 단계에서 생성된 정합 영상과 상기 ROI 검출 단계를 통해 검출한 특정 관심영역(ROI)에 기초하여 화재를 감지하는 화재 판단 단계(S340);를 포함할 수 있다.and a fire determination step (S340) of detecting a fire based on the matched image generated in the image matching step and a specific region of interest (ROI) detected through the ROI detection step.

이하, 각 단계의 구체적인 구현 방법을 상세히 설명한다.Hereinafter, a specific implementation method of each step will be described in detail.

도 4a는 본 발명의 일 실시예에 따라 관심영역(ROI)을 검출하는 기법을 나타내고, 도 4b는 관심영역(ROI)을 검출하기 위하여 적용된 YOLOv3 구조에서 사용되는 바운딩 박스를 나타낸다.4A shows a technique for detecting a region of interest (ROI) according to an embodiment of the present invention, and FIG. 4B shows a bounding box used in a YOLOv3 structure applied to detect a region of interest (ROI).

본 발명의 일 실시예에 따른 특정 관심영역(ROI) 검출 방법은 딥러닝 알고리즘을 기반으로, 특정 물체를 추출하는 방법이 될 수 있다.The method for detecting a specific region of interest (ROI) according to an embodiment of the present invention may be a method of extracting a specific object based on a deep learning algorithm.

딥러닝 알고리즘에 학습하는 대상은 내부 화재 발생 가능성이 높은 배전반(40) 또는 주차 차량(41)으로 설정될 수 있으며, 배전반(40) 또는 주차 차량(41)의 물체 특징을 기반으로 딥러닝 알고리즘에 학습될 수 있다.The target to learn in the deep learning algorithm can be set to the switchboard 40 or the parking vehicle 41 with a high probability of an internal fire, and based on the object features of the switchboard 40 or the parking vehicle 41, the deep learning algorithm can be learned

본 발명의 일 실시예에 따라 특정 관심영역(ROI) 검출은 YOLOv3 네트워크 구조가 적용될 수 있다. YOLOv3 구조는 치수 우선순위 및 위치 예측을 갖는 바운딩 박스를 사용한다. 상기 바운딩 박스의 너비와 높이를 군집 중심으로부터의 오프셋으로 예측한다. sigmoid 함수를 사용하여 필터 응용 프로그램의 위치를 기준으로 바운딩 박스의 중심 좌표를 예측한다.According to an embodiment of the present invention, a YOLOv3 network structure may be applied to detection of a specific region of interest (ROI). The YOLOv3 architecture uses a bounding box with dimension priority and position prediction. The width and height of the bounding box are predicted as an offset from the cluster center. Use the sigmoid function to predict the center coordinates of the bounding box based on the location of the filter application.

바운딩 박스의 5가지 요소인, bx, by, bw, bh, 신뢰(Confidence)를 수학식 1을 통해 예측한다. Five elements of the bounding box, b x , b y , b w , b h , and confidence are predicted through Equation 1.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

그리고 각 상자에 대한 클래스 별 신뢰도 점수를 계산하고, 나중에 NMS 알고리즘을 사용하여 겹쳐진 복수의 b- 박스를 삭제한다.Then, a class-specific confidence score for each box is calculated, and a plurality of overlapping b-boxes are later deleted using an NMS algorithm.

[수학식 2][Equation 2]

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

분류 손실(Classification loss)은 다음 수학식 3과 같으며, 여기서, S2 는 그리드 셀이다.Classification loss is as in Equation 3 below, where S 2 is a grid cell.

[수학식 3][Equation 3]

Figure pat00004
Figure pat00004

여기서,

Figure pat00005
는 물체가 i번째 셀에서 나타나면 1이고, 아니면 0이다.
Figure pat00006
는 i번째 셀에서 클래스 c에 대한 조건부 클래스 확률을 나타낸다.here,
Figure pat00005
is 1 if the object appears in the i-th cell, otherwise 0.
Figure pat00006
denotes the conditional class probability for class c in the i-th cell.

영역 손실(Localization loss)은 다음 수학식 4와 같으며, 여기서, B = Predicted Bounding Box을 만족한다.The localization loss is as in Equation 4 below, where B = Predicted Bounding Box is satisfied.

[수학식 4][Equation 4]

Figure pat00007
Figure pat00007

여기서,

Figure pat00008
는 i번째 셀의 j번째 경계 박스가 물체를 감지하는 경우 1, 그렇지 않으면 0이다.
Figure pat00009
는 경계 박스 좌표에서 손실에 대한 가중치를 증가시킨다.here,
Figure pat00008
is 1 if the j-th bounding box of the i-th cell detects an object, otherwise 0.
Figure pat00009
increases the weight for the loss in bounding box coordinates.

신뢰도 상실(Confidence loss)은 다음 수학식 5와 같으며, 여기서

Figure pat00010
는 셀 i에서 상자 j의 상자 신뢰도 점수이고,
Figure pat00011
i번째 셀의 j번째 경계 박스가 물체를 감지하는 경우 1, 그렇지 않으면 0이다.Confidence loss is the following Equation 5, where
Figure pat00010
is the box confidence score for box j in cell i,
Figure pat00011
1 if the j-th bounding box of the i-th cell detects an object, otherwise 0.

[수학식 5][Equation 5]

Figure pat00012
Figure pat00012

따라서 전체 손실 함수는 수학식 6과 같이, 영역 손실(Localization loss), 신뢰도 상실(Confidence loss) 및 분류 손실(Classification loss)의 합과 같다.Therefore, the overall loss function is equal to the sum of the localization loss, the confidence loss, and the classification loss, as shown in Equation 6.

[수학식 6][Equation 6]

Figure pat00013
Figure pat00013

상기 수학식 6까지 마지막 세 항은 제곱 오차이고, YOLOv3은 교차 엔트로피 오류 항으로 대체된다. 그리고 YOLOv3의 객체 신뢰도와 클래스 예측은 이제 로지스틱 회귀를 통해 예측된다.The last three terms up to Equation 6 are the squared error, and YOLOv3 is replaced with the cross-entropy error term. And object reliability and class prediction in YOLOv3 are now predicted through logistic regression.

도 5는 본 발명의 일 실시예에 따라 관심영역(ROI)을 검출하는 과정을 나타낸다. 도 5와 같이, 본 발명의 일 실시예에 따른 관심영역(ROI) 검출 방법은 검출되는 대상 물체(50)의 경계를 효과적으로 추출하기 위하여 다각형 자동 세팅 기법(U-Net)을 적용하여, 다각형의 ROI(51)가 검출될 수 있다.5 illustrates a process of detecting a region of interest (ROI) according to an embodiment of the present invention. As shown in FIG. 5 , the method for detecting a region of interest (ROI) according to an embodiment of the present invention applies a polygon automatic setting technique (U-Net) to effectively extract the boundary of the target object 50 to be detected. ROI 51 may be detected.

한편, U-Net 구조는 종래의 U-Net 기법이 적용되고, 다음의 순서로 학습이 수행된다.On the other hand, the conventional U-Net technique is applied to the U-Net structure, and learning is performed in the following order.

1. 우선 에너지 함수, 수학식 7는 크로스 엔트로피 손실 함수와 결합 된 최종 맵에서 픽셀 단위의 소프트 최대로 계산된다.1. First energy function, Equation 7 is calculated as the soft max in pixels in the final map combined with the cross entropy loss function.

[수학식 7][Equation 7]

Figure pat00014
Figure pat00014

2. 교차 엔트로피는 각 위치에서 하기 수학식 8을 사용하여 1로부터 함수

Figure pat00015
의 편차를 불이익을 준다.2. Cross entropy is a function from 1 using Equation 8 below at each position
Figure pat00015
penalize the deviation of

[수학식 8][Equation 8]

Figure pat00016
Figure pat00016

3. 각 지상 진실에 대한 가중치 맵을 사전에 계산한다.3. Precompute a weight map for each ground truth.

  훈련 데이터 세트에서 특정 클래스의 서로 다른 주파수의 픽셀을 보상하고 네트워크가 터치 셀 사이에 도입되는 작은 분리 경계를 배우도록 강제한다.It compensates for pixels of different frequencies of a certain class in the training data set and forces the network to learn small separation boundaries introduced between touch cells.

[수학식 9][Equation 9]

Figure pat00017
Figure pat00017

4. 가중치의 올바른 초기화를 설정한다. 이때 가우스 분포는 표준 편차가 있는 것이고, 하기 N은 하나의 신경 노드에 들어오는 개수를 나타낸다.4. Set the correct initialization of the weights. In this case, the Gaussian distribution has a standard deviation, and N below represents the number of inputs to one neural node.

Figure pat00018
Figure pat00018

도 6은 본 발명의 일 실시예에 따라 검출되는 대상 물체에 따른 온도 양상을 확인하기 위한 실험을 나타낸다.6 illustrates an experiment for confirming a temperature pattern according to a target object detected according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 화재 감지 방법/시스템은 검출된 물체의 종류에 따른 표면 온도 및 기 저장된 온도 DB를 적용하여 실 온도를 예측할 수 있다. 온도 DB를 구축하기 위하여 온도 데이터를 측정하기 위한 실험환경은 다음과 같다. The fire detection method/system according to an embodiment of the present invention may predict a room temperature by applying a surface temperature according to the type of a detected object and a pre-stored temperature DB. The experimental environment for measuring temperature data to build the temperature DB is as follows.

- 650mm x 450mm x 1mm 크기의 스테인레스 철판으로 구성된 배전반(61)에 5cm 거리로 열이 발생한 경우- When heat is generated at a distance of 5cm from the switchboard (61) consisting of a stainless steel plate with dimensions of 650mm x 450mm x 1mm

- 실내온도 약 10.4℃- Room temperature about 10.4℃

- 온도측정장비: EX-POWER EIT-600 Infrared Thermometer- Temperature measuring equipment: EX-POWER EIT-600 Infrared Thermometer

본 발명팀은 배전반 내부 부품과 도어 사이의 거리가 약 5cm 이므로 내부 부품에서 화재가 발생함을 재연하기 위해, 도어를 탈거하여 5cm 거리로 열을 발생시켜 테스트를 진행하였고, 발열장치는 전기 인덕션(62)을 온도 측정하며 사용하였다.The present invention team conducted a test by removing the door and generating heat at a distance of 5 cm to reproduce the occurrence of a fire in the internal parts because the distance between the internal parts of the switchboard and the door is about 5 cm. 62) was used for measuring the temperature.

도 7은 본 발명의 일 실시예에 따라 검출되는 대상 물체(배전반 케이스)에 따른 표면 온도 양상을 나타내는 그래프이다.7 is a graph illustrating a surface temperature pattern according to a target object (switchboard case) detected according to an embodiment of the present invention.

도 7은 배전반등 스테인레스 재질 케이스의 내부 온도에 따른 표면 온도를 나타내는 것으로 아래 표 1에 상세히 기록된다.7 shows the surface temperature according to the internal temperature of the stainless steel case, such as a switchboard, and is recorded in detail in Table 1 below.

내부온도internal temperature
(℃)(℃)
표면온도surface temperature
(℃)(℃)
2020 1212 4040 1717 6060 2222 8080 30.230.2 100100 3636 120120 43.343.3 140140 51.551.5 160160 59.959.9 180180 72.272.2 200200 8484 220220 9393 240240 104104 260260 122122 280280 138138 300300 150150 320320 165165

도 8은 본 발명의 다른 실시예에 따라 검출되는 대상 물체(자동차 엔진 본넷)에 따른 표면 온도 양상을 나타내는 그래프이다. 8 is a graph illustrating a surface temperature pattern according to a target object (vehicle engine bonnet) detected according to another embodiment of the present invention.

자동차 엔진 본넷의 표면 온도를 측정하기 위한 실험 환경은 다음과 같다.The experimental environment for measuring the surface temperature of the car engine bonnet is as follows.

- 테스트차량: 쌍용 티볼리- Test vehicle: Ssangyong Tivoli

- 실내온도 약 10.4℃- Room temperature about 10.4℃

- 온도측정장비: EX-POWER EIT-600 Infrared Thermometer- Temperature measuring equipment: EX-POWER EIT-600 Infrared Thermometer

- 계기반상의 엔진온도 및 본넷 표면온도 측정- Engine temperature and bonnet surface temperature measurement on the instrument panel

- 엔진보호를 위해 120℃ 까지만 테스트- Test up to 120℃ for engine protection

차량 엔진 내부 온도에 따른 표면 온도는 다음 표 2에 상세히 기록된다.The surface temperature according to the internal temperature of the vehicle engine is recorded in detail in Table 2 below.

내부온도internal temperature
(℃)(℃)
표면온도surface temperature
(℃)(℃)
2020 1111 4040 1515 6060 2020 8080 2828 100100 3636 120120 3939

도 9a는 본 발명의 또다른 실시예에 따라 거리에 따른 온도 측정 결과를 나타내는 그래프이다. 9A is a graph illustrating a temperature measurement result according to a distance according to another embodiment of the present invention.

본 발명의 또다른 실시예에 따르면 화재 감지 방법/시스템은 온도 센서의 특성을 고려하여, 온도 센서에서 실제 측정되는 온도값을 실제 값에 맞게 보정된 값을 제공할 수 있다. According to another embodiment of the present invention, the fire detection method/system may provide a corrected value for a temperature value actually measured by the temperature sensor according to the actual value, in consideration of the characteristics of the temperature sensor.

온도 센서는 거리가 멀어질수록 측정되는 열 에너지 값이 작아 실제 온도값보다 낮게 측정되며, 레이저온도계도 동일한 특성을 갖는다.As the distance of the temperature sensor increases, the measured thermal energy value is smaller than the actual temperature value, and the laser thermometer has the same characteristics.

온도 센서를 통해 검출하고자 하는 온도를 카메라 설치 거리에 따라 아래 실험 결과를 바탕으로 설정하면 보다 정확한 온도 검출이 가능하다.If the temperature to be detected through the temperature sensor is set based on the experimental results below according to the camera installation distance, more accurate temperature detection is possible.

거리에 따른 온도 센서의 온도 기록 DB는 다음 표 3과 같이 DB를 구축할 수 있다. The temperature record DB of the temperature sensor according to the distance can be constructed as shown in Table 3 below.

대상온도target temperature
(℃)(℃)
Thermal 측정 온도 (℃)Thermal measurement temperature (℃)
1m 1m 3m3m 5m5m 2020 1818 17.517.5 1717 4040 31.931.9 3131 2929 6060 4949 42.642.6 4040 8080 5959 55.655.6 5151 100100 7575 69.569.5 65.665.6 120120 9090 8282 73.573.5 140140 108108 9797 88.588.5 160160 120120 113.6113.6 101.5101.5 180180 143143 126126 116116 200200 162162 145145 130130 220220 182182 156156 145145 240240 182182 170170 165165

한편, 거리를 측정 방법은 종래의 영상을 기반으로 물체의 거리를 추정하는 방법이 적용될 수 있다. 본 발명의 일 실시예에서 물체는 불꽃이 될 수 있으며, 카메라와 불꽃의 중심까지의 거리를 추정할 수 있다.Meanwhile, as a method of measuring the distance, a method of estimating the distance of an object based on a conventional image may be applied. In an embodiment of the present invention, the object may be a flame, and the distance between the camera and the center of the flame may be estimated.

보다 구체적으로, 영상좌표 p에 대응되는 지면좌표를 P라고 하면, 카메라 원점과 p,P는 도 9b와 같이 일직선상에 존재할 수 있다. More specifically, if the ground coordinate corresponding to the image coordinate p is P, the camera origin and p, P may exist on a straight line as shown in FIG. 9B .

카메라 내부파라미터(초점거리 fx, fy, 주점 cx, cy), 지면에서의 높이(h), 카메라의 틸트(θtilt)는 주어져 있다고 가정한다(θtilt는 카메라 방향이 지면과 수평일 때 0, 위쪽을 바라볼 때 +, 아래쪽을 바라볼 때 -). 그리고 입력 영상 픽셀좌표를 p(x,y), 대응되는 지면좌표를 P(X, Y)라 가정한다. 상술한 가정을 기초로 하여, 영상 기반의 물체 거리 추정 과정은 다음과 같다.Assume that the camera internal parameters (focal length fx, fy, main points cx, cy), the height from the ground (h), and the camera tilt (θ tilt ) are given (θ tilt is 0 when the camera direction is horizontal with the ground, + when looking up, -) when looking down. And it is assumed that the pixel coordinates of the input image are p(x,y), and the corresponding ground coordinates are P(X,Y). Based on the above assumption, the image-based object distance estimation process is as follows.

첫째, 카메라의 내부파라미터에 대한 영향을 없애기 위해 픽셀좌표를 정규좌표로 변환한다.First, the pixel coordinates are converted into regular coordinates in order to eliminate the influence on the internal parameters of the camera.

Figure pat00019
Figure pat00019

둘째, 도 9c를 참조하여, 구해진 정규좌표 (u, v)와 카메라 높이 h, 틸트 θtilt를 이용하여 아래 수학식과 같이 계산한다 . 단, 정규 이미지 평면에서는 주점의 좌표가 c(0, 0)이 되고 이미지 평면과 카메라 원점과의 초점거리가 1이 됨에 주의한다.Second, with reference to FIG. 9c, using the obtained regular coordinates (u, v), camera height h, and tilt θ tilt , it is calculated as shown in the following equation. However, note that in the normal image plane, the coordinates of the main point become c(0, 0) and the focal length between the image plane and the camera origin becomes 1.

Figure pat00020
Figure pat00020

앞의 계산 결과에서 d는 카메라 원점과 물체와의 지면에서의 직선거리, θ는 카메라 광학축을 기준으로 한 물체의 방향각을 나타내고, 카메라 광학축을 기준으로 왼쪽이 +, 오른쪽이 - 이다.In the above calculation result, d is the straight line distance between the camera origin and the object on the ground, θ is the direction angle of the object with respect to the camera optical axis, and the left side is + and the right side is - based on the camera optical axis.

도 9c에 나타낸 위치를 top-view로 보면 도 9d와 같으며, 이 시점에서 물체가 카메라로부터 어떤 방향(θ)에 있고 얼마나 떨어져(d) 있는지 계산될 수 있다.When the position shown in FIG. 9c is viewed in  top-view, it is the same as in FIG. 9d, and at this point, it can be calculated in which direction (θ) and how far (d) the object is from the camera.

마지막으로, 마지막으로 물체의 위치를 지면좌표로 표현하면 아래 수식과 같다. 단, 카메라 위치를 지면좌표계의 원점, 광학축 방향을 X축으로 가정했을 때의 좌표이다.Finally, when the position of the object is expressed in terms of   ground coordinates, it is as follows. However, these are coordinates assuming that the camera position is the origin of the ground coordinate system and the optical axis direction is the X axis.

Figure pat00021
Figure pat00021

도 9b 내지 도 9d를 참조하여 상술한 방법으로 최종 계산된 P(X, Y)는 지면좌표계를 어떻게 정의하느냐에 따라 달라질 수 있는 값이며 여기서는 카메라 원점을 지면에 수직으로 투영시킨 점을 원점, 카메라 광학축 방향을 X축으로 잡았을 경우의 좌표이다.P(X, Y) finally calculated by the method described above with reference to FIGS. 9B to 9D is a value that can vary depending on how the ground coordinate system is defined. Coordinates when the axis direction is taken as the X-axis.

도 10은 본 발명의 일 실시예에 따라 기존의 실영상 카메라만 있는 시스템에 열화상 카메라를 추가하여 구현하는 것을 나타낸다.10 is a diagram illustrating implementation by adding a thermal imaging camera to a system having only an existing real image camera according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 기반 화재 방법/시스템은 열화상 카메라를 추가하여 기존의 실영상 카메라만 있는 시스템에도 적용될 수 있다. 도 10과 도시한 본 발명이 적용된 프로그램을 통해 다음과 같이 설정할 수 있다.The image-based fire method/system according to an embodiment of the present invention can be applied to a system having only an existing real image camera by adding a thermal imaging camera. Through the program to which the present invention is applied as shown in Fig. 10, it can be set as follows.

- 메인 카메라(실영상 카메라) 연결 :“IP주소로 추가” 항목 또는 “RTSP주소로 추가" 항목에 해당 카메라 정보 입력- Main camera (real video camera) connection: Enter the camera information in “Add by IP address” or “Add by RTSP address”

- 열화상 카메라 연결: “Thermal" 항목에 Thermal 영상 RTSP 스트림 정보 입력- Thermal image camera connection: Enter thermal image RTSP stream information in “Thermal”

본 발명은 메인 카메라만 연결된 경우 기존 시스템과 동일하게 영상기반 화재감지 알고리즘만 동작할 수 있고, 메인 카메라 및 열화상 카메라가 연결된 경우는, 열화상 카메라의 ROI 영역은 온도 기반으로 화재를 감지하고, 이외 영역은 실영상 기반으로 화재를 감지할 수 있도록 동작할 수 있다. In the present invention, when only the main camera is connected, only the image-based fire detection algorithm can operate in the same way as in the existing system, and when the main camera and the thermal imager are connected, the ROI area of the thermal imager detects fire based on temperature, Other areas may operate to detect a fire based on an actual image.

그리고 본 발명의 일 실시예에 따른 방법이 적용된 프로그램을 이용하면, ROI 영역을 직접 추가할 수도 있다. 프로그램 상에서 자세한 동작은 아래와 같다.In addition, if the program to which the method according to an embodiment of the present invention is applied is used, the ROI region may be directly added. The detailed operation in the program is as follows.

본 발명의 일 실시예에 따른 프로그램은 열 영상 확대 View 에서 마우스 우클릭을 하여 ROI를 추가/개별삭제/전체삭제하는 기능을 포함할 수 있다. The program according to an embodiment of the present invention may include a function of adding/deleting individual/deleting all ROIs by right-clicking the mouse on the enlarged view of the thermal image.

- ROI 추가: 추가하고자 하는 영역 및 해당 영역에서 이벤트를 발생시킬 최저, 최대 온도 및 만족 비율 설정- Add ROI: Set the area you want to add and the minimum, maximum temperature and satisfaction rate that will trigger an event in that area

- ROI 개별삭제: 기 생성한 ROI 중 원하는 ROI를 클릭하여 삭제- Individual ROI Deletion: Click the desired ROI among the previously created ROIs to delete it.

- ROI 전체삭제: 기 생성한 모든 ROI 정보 제거- Deleting all ROIs: Removes all previously created ROI information.

또한, 아래와 같은 추가 기능을 더 포함할 수 있다.In addition, the following additional functions may be further included.

- 채널 별 열영상 ROI는 최대 3개까지 설정- Set up to 3 thermal image ROIs per channel

- 설정 온도는 -10~150°C 사이의 범위 가능- Set temperature can range from -10 to 150 °C

- 설정 가능 온도 만족 영역 비율은 1~100% 사이의 범위 가능- Settable temperature satisfaction zone ratio can range from 1 to 100%

- -

도 11a 및 도 11b는 본 발명의 일 실시예에 따라 멀티 관심영역(ROI)을 설정하는 것을 나타낸다.11A and 11B illustrate setting a multi-region of interest (ROI) according to an embodiment of the present invention.

본 발명의 일 실시예에 따르면 특정 관심영역(ROI)를 복수 개 지정할 수 있다. 복수 개의 ROI(111, 112, 113) 중 적어도 어느 하나의 ROI 내의 온도값이 설정된 비율(%) 이상 존재하는 경우 화재를 감지한 것으로 판단한다. According to an embodiment of the present invention, a plurality of specific ROIs may be designated. When the temperature value in at least one ROI among the plurality of ROIs 111, 112, and 113 exists more than a set ratio (%), it is determined that a fire is detected.

본 발명에 따르면, 설정된 ROI 이외 영역(120)은 실영상을 기반으로 화재를 감지한 것으로 판단한다. 실영상을 기반으로 화재를 감지하는 방법은 영상에 나타내는 불꽃 또는 연기를 검출하는 것으로 판단할 수 있다. According to the present invention, it is determined that the area 120 other than the set ROI has detected a fire based on an actual image. A method of detecting a fire based on an actual image may be determined as detecting a flame or smoke displayed in the image.

도 12는 본 발명의 일 실시예에 따라 온도 설정하는 것을 나타내는 것으로, 본 발명을 적용한 프로그램 상에서 사용자가 설정할 수 있다. 12 illustrates temperature setting according to an embodiment of the present invention, which can be set by a user on a program to which the present invention is applied.

본 발명의 일 실시예에 따른 프로그램은 채널 별로 설정 가능한 열 영상 표시 기능(121), 채널 별로 설정 가능한 온도 종합 정보 표시 기능(122), 열 영상 위치 설정 기능(123), 컬러 모드 설정 기능(124)을 포함할 수 있다. The program according to an embodiment of the present invention includes a thermal image display function 121 configurable for each channel, a temperature comprehensive information display function 122 configurable for each channel, a thermal image position setting function 123, and a color mode setting function 124 ) may be included.

도 13은 본 발명의 일 실시예에 따라 실영상과 온도 영상을 정합하기 위한 두 가지 렌즈의 스펙을 나타낸다.13 shows specifications of two lenses for matching a real image and a temperature image according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 화재 감지 시스템에서 사용된 실영상 카메라(CCTV)의 스펙(131)은 1/3'' 2Mega CMOS 이미지 센서를 사용하고, 3.6mm의 초점 거리를 가지며, 75.7°의 1/3'' CCD, 62.2°의 1/4'' CCD, 모니터링 거리는 0m 내지 3m 이다.The specification 131 of a real video camera (CCTV) used in a fire detection system according to an embodiment of the present invention uses a 1/3'' 2Mega CMOS image sensor, has a focal length of 3.6mm, and has a focal length of 75.7°. 1/3'' CCD, 1/4'' CCD of 62.2°, monitoring distance is 0m to 3m.

본 발명의 일 실시예에 따른 화재 감지 시스템에서 사용된 열영상 카메라의 스펙(132)은 Lepton 2.0:500-0659-01이고, 80x60 배열 포맷, 50°수평 뷰 필드, 셔터(shutter), 8%이하의 왜곡도(barrel), -10° 내지 140°의 열측정 범위, 17um의 픽셀 피치를 갖고, 50°의 1/3'' CCD, 39.8°의 1/4'' CCD, 모니터링 거리는 5m 내지 10m 이다.The specification 132 of the thermal imaging camera used in the fire detection system according to an embodiment of the present invention is Lepton 2.0:500-0659-01, 80x60 array format, 50° horizontal field of view, shutter, 8% With the following distortion (barrel), thermal measurement range of -10° to 140°, pixel pitch of 17um, 1/3'' CCD of 50°, 1/4'' CCD of 39.8°, monitoring distance from 5m to It is 10 m.

상기 실영상 카메라의 렌즈와 열영상 카메라의 렌즈를 사용할 때, 두 렌즈간의 화각차이로 인해 발생할 수 있는 오류가 있기 때문에, 정확한 ROI 표시를 위해서는 실영상과 열영상의 정합이 필요하다. When the lens of the real image camera and the lens of the thermal image camera are used, there is an error that may occur due to a difference in the angle of view between the two lenses. Therefore, it is necessary to match the real image and the thermal image for accurate ROI display.

도 14는 본 발명의 다른 실시예에 따라 실영상과 온도 영상을 정합하기 위하여 거리에 따라 획득되는 물체의 좌표 데이터를 매칭하기 위한 테스트를 나타낸다.14 illustrates a test for matching coordinate data of an object obtained according to a distance in order to match a real image and a temperature image according to another embodiment of the present invention.

도 14에 따른 테스트의 환경은 다음과 같다. The environment of the test according to FIG. 14 is as follows.

- 테스트 실영상 해상도: 640 x 360- Test live resolution: 640 x 360

- 테스트 열영상 해상도: 80 x 60 이나, 렌즈 스펙에 따른 실영상과 동일한 스케일로 리사이징되는데, 본 발명의 일 실시예에 따른 테스트에서는 426 x 320 로 리사이징된다.- Test thermal image resolution: 80 x 60, but is resized to the same scale as the real image according to the lens specification, and is resized to 426 x 320 in the test according to an embodiment of the present invention.

그리고, 본 발명의 실시예에 따른 테스트는, 물체와 온도 센서 사이의 거리에 따른 좌표 데이터의 DB를 구축하기 위하여, 두 영상 사이의 좌표를 정렬하여 대상 물체의 위치 데이터를 물체의 거리에 따라 측정한다. And, in the test according to the embodiment of the present invention, in order to build a DB of coordinate data according to the distance between the object and the temperature sensor, the coordinates between the two images are aligned and the position data of the target object is measured according to the distance of the object. do.

본 발명의 실시예에 따르면 대상체는 온도 센서로부터 1m 부터 1m 단위로, 7m까지 거리를 가지는 경우 별로 표 4와 같이 데이터가 획득된다. 그리고, 각 거리별로 대상체의 위치를 좌(141), 우(142), 가운데(143)로 변화시켜 데이터를 획득한다. According to an embodiment of the present invention, when the object has a distance from the temperature sensor in units of 1 m to 1 m and up to 7 m, data as shown in Table 4 is acquired. In addition, data is acquired by changing the position of the object to the left 141 , the right 142 , and the center 143 for each distance.

대상거리target distance 실영상좌표계에서 열 영상 시작 좌표 (X, Y)Column image start coordinates in real image coordinate system (X, Y) 평균좌표average coordinates
(X, Y)(X, Y)
left right 가운데middle 1m1m 120, 7120, 7 120, 8120, 8 123, 10123, 10 121, 8121, 8 2m2m 123, 10123, 10 123, 10123, 10 123, 10123, 10 123, 10123, 10 3m3m 122, 6122, 6 119, 5119, 5 119, 7119, 7 120, 6120, 6 4m4m 123, 2123, 2 121, 4121, 4 119, 2119, 2 121, 3121, 3 5m5m 123, 4123, 4 118, 3118, 3 120, 3120, 3 120, 3120, 3 6m6m 123, 2123, 2 121, 1121, 1 121, 1121, 1 122, 1122, 1 7m7m 121, 4121, 4 119, 1119, 1 120, 2120, 2 120, 2120, 2

도 15 내지 도 21은 본 발명의 일 실시예에 따라 대상체의 거리가 1m 내지 7m까지 1m 단위로 변화시켰을 때 획득되는 정합 영상을 나타낸다. 15 to 21 show registered images obtained when the distance of the object is changed from 1 m to 7 m in 1 m increments, according to an embodiment of the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 사람이라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

1000 : 영상 기반 화재 감지 시스템
100 : ROI 검출부
200 : 열 감지부
300 : 영상 정합부
400 : 화재 판단부
1000: image-based fire detection system
100: ROI detection unit
200: heat sensing unit
300: image matching unit
400: fire judgment unit

Claims (16)

영상 기반 화재 감지 시스템에 있어서,
인공지능 알고리즘을 이용하여, 카메라로부터 수신한 실영상으로부터 특정 관심영역(ROI; Region of Interest)을 검출하는 ROI 검출부;
열화상 카메라로부터 열영상을 출력하고 각 지점의 표면 온도를 예측하는 열 감지부;
상기 ROI 검출부에서 검출한 특정 관심영역에 대한 실영상과 상기 열 감지부에서 출력한 열영상을 정합하는 영상 정합부; 및
상기 영상 정합부에서 생성된 정합 영상과 상기 ROI 검출부를 통해 검출한 특정 관심영역(ROI)에 기초하여 화재를 감지하는 화재 판단부;를 포함하는 영상 기반 화재 감지 시스템.
In the image-based fire detection system,
an ROI detector for detecting a specific region of interest (ROI) from the real image received from the camera by using an artificial intelligence algorithm;
a thermal sensor that outputs a thermal image from the thermal imaging camera and predicts the surface temperature of each point;
an image matching unit for matching the real image of a specific region of interest detected by the ROI detection unit with the thermal image output from the thermal sensing unit; and
An image-based fire detection system comprising a; fire determination unit that detects a fire based on the matched image generated by the image matching unit and a specific region of interest (ROI) detected through the ROI detection unit.
제1항에 있어서,
상기 특정 관심영역은 내부적으로 화재 발생 가능성이 높은 물체로, 기 설정된 것인 영상 기반 화재 감지 시스템.
According to claim 1,
The specific region of interest is an object with a high possibility of internally generating a fire, and the image-based fire detection system is preset.
제1항에 있어서,
상기 ROI 검출부는 영역 추출 알고리즘을 더 이용하는 것인 영상 기반 화재 감지 시스템.
According to claim 1,
The ROI detection unit is an image-based fire detection system that further uses an area extraction algorithm.
제1항에 있어서,
상기 열 감지부는 온도 센서를 통해 수집한 온도 정보에 기 저장된 온도 DB를 적용하여 실온도를 예측하는 것인,
영상 기반 화재 감지 시스템.
According to claim 1,
The heat sensor predicts the room temperature by applying the pre-stored temperature DB to the temperature information collected through the temperature sensor,
Image-based fire detection system.
제1항에 있어서,
상기 열 감지부는 상기 ROI 검출부에서 검출된 물체의 종류에 따라 표면 온도를 예측하는 것인,
영상 기반 화재 감지 시스템.
According to claim 1,
The heat detector predicts the surface temperature according to the type of object detected by the ROI detector,
Image-based fire detection system.
제1항에 있어서,
상기 열 감지부는 상기 ROI 검출부에서 검출된 물체와 온도 센서 사이의 거리에 기초하여 온도를 예측하는 것인,
영상 기반 화재 감지 시스템.
According to claim 1,
The heat detector predicts the temperature based on the distance between the object and the temperature sensor detected by the ROI detector,
Image-based fire detection system.
제1항에 있어서,
상기 영상 정합부는 렌즈의 스펙 및 해상도 중 적어도 어느 하나에 따라 열 영상에 대하여 영상 스케일을 리사이징하여 상기 실영상과 상기 열 영상을 정합하는 것인,
영상 기반 화재 감지 시스템.
According to claim 1,
The image matching unit matches the real image and the thermal image by resizing the image scale for the thermal image according to at least one of a lens specification and a resolution,
Image-based fire detection system.
제7항에 있어서,
상기 영상 정합부는
상기 물체와 온도 센서 사이의 거리에 따라 획득된 DB를 이용하여,
실영상 좌표계상에서의 물체의 열 영상의 좌표를 매칭함으로써,
상기 실영상과 상기 열 영상을 정합하는 것인,
영상 기반 화재 감지 시스템.
8. The method of claim 7,
The image matching unit
Using the DB obtained according to the distance between the object and the temperature sensor,
By matching the coordinates of the thermal image of the object on the real image coordinate system,
To register the real image and the thermal image,
Image-based fire detection system.
프로세서를 포함하는 장치에 의해 수행되는 영상 기반 화재 감지 방법에 있어서,
상기 프로세서는 인공지능 알고리즘을 이용하여, 카메라로부터 수신한 실 영상으로부터 특정 관심영역(ROI; Region of Interest)을 검출하는 ROI 검출 단계;
상기 프로세서는 열화상 카메라로부터 열영상을 출력하고 각 지점의 표면 온도를 예측하는 열 감지 단계;
상기 프로세서는 상기 ROI 검출 단계에서 검출한 특정 관심영역에 대한 실 영상과 상기 열 감지 단계에서 출력한 열 영상을 정합하는 영상 정합 단계; 및
상기 프로세서는 상기 영상 정합 단계에서 생성된 정합 영상과 상기 ROI 검출 단계를 통해 검출한 특정 관심영역(ROI)에 기초하여 화재를 감지하는 화재 판단 단계;를 포함하는 영상 기반 화재 감지 방법.
An image-based fire detection method performed by a device including a processor, the method comprising:
The processor includes an ROI detection step of detecting a specific region of interest (ROI) from the real image received from the camera using an artificial intelligence algorithm;
The processor outputs a thermal image from the thermal imaging camera and a thermal sensing step of predicting the surface temperature of each point;
The processor may include: an image matching step of matching the real image of the specific region of interest detected in the ROI detection step with the thermal image output in the thermal detection step; and
The image-based fire detection method including a; wherein the processor detects a fire based on the matched image generated in the image matching step and a specific region of interest (ROI) detected through the ROI detection step.
제9항에 있어서,
상기 특정 관심영역은 내부적으로 화재 발생 가능성이 높은 물체로, 기 설정된 것인 영상 기반 화재 감지 방법.
10. The method of claim 9,
The specific region of interest is an object with a high possibility of internally generating a fire, and the image-based fire detection method is preset.
제9항에 있어서,
상기 ROI 검출 단계는 영역 추출 알고리즘을 더 이용하는 것인 영상 기반 화재 감지 방법.
10. The method of claim 9,
The ROI detection step is an image-based fire detection method that further uses an area extraction algorithm.
제9항에 있어서,
상기 열 감지 단계는 온도 센서를 통해 수집한 온도 정보에 기 저장된 온도 DB를 적용하여 실온도를 예측하는 것인,
영상 기반 화재 감지 방법.
10. The method of claim 9,
The heat sensing step is to predict the room temperature by applying a pre-stored temperature DB to the temperature information collected through the temperature sensor,
An image-based fire detection method.
제9항에 있어서,
상기 열 감지 단계는 상기 ROI 검출 단계에서 검출된 물체의 종류에 따라 표면 온도를 예측하는 것인,
영상 기반 화재 감지 방법.
10. The method of claim 9,
The thermal sensing step is to predict the surface temperature according to the type of object detected in the ROI detection step,
An image-based fire detection method.
제9항에 있어서,
상기 열 감지 단계는 상기 ROI 검출 단계에서 검출된 물체와 온도 센서 사이의 거리에 기초하여 온도를 예측하는 것인,
영상 기반 화재 감지 방법.
10. The method of claim 9,
wherein the thermal sensing step predicts a temperature based on the distance between the object and the temperature sensor detected in the ROI detection step,
An image-based fire detection method.
제9항에 있어서,
상기 영상 정합 단계는 렌즈의 스펙 및 해상도 중 적어도 어느 하나에 따라 열 영상에 대하여 영상 스케일을 리사이징하여 상기 실영상과 상기 열 영상을 정합하는 것인,
영상 기반 화재 감지 방법.
10. The method of claim 9,
In the image matching step, the real image and the thermal image are matched by resizing the image scale for the thermal image according to at least one of a specification and a resolution of a lens,
An image-based fire detection method.
제15항에 있어서,
상기 영상 정합 단계는
상기 물체와 온도 센서 사이의 거리에 따라 획득된 DB를 이용하여,
실영상 좌표계상에서의 물체의 열 영상의 좌표를 매칭함으로써,
상기 실영상과 상기 열 영상을 정합하는 것인,
영상 기반 화재 감지 방법.
16. The method of claim 15,
The image matching step is
Using the DB obtained according to the distance between the object and the temperature sensor,
By matching the coordinates of the thermal image of the object on the real image coordinate system,
To register the real image and the thermal image,
An image-based fire detection method.
KR1020200050676A 2020-04-27 2020-04-27 The system and the method for detecting fire based on thermal and real images KR102442552B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200050676A KR102442552B1 (en) 2020-04-27 2020-04-27 The system and the method for detecting fire based on thermal and real images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200050676A KR102442552B1 (en) 2020-04-27 2020-04-27 The system and the method for detecting fire based on thermal and real images

Publications (2)

Publication Number Publication Date
KR20210132380A true KR20210132380A (en) 2021-11-04
KR102442552B1 KR102442552B1 (en) 2022-09-13

Family

ID=78521677

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200050676A KR102442552B1 (en) 2020-04-27 2020-04-27 The system and the method for detecting fire based on thermal and real images

Country Status (1)

Country Link
KR (1) KR102442552B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114511984A (en) * 2022-03-01 2022-05-17 北京华煜八方科技有限公司 Fire monitoring camera, fire monitoring method and automatic fire alarm system
KR20230082364A (en) * 2021-12-01 2023-06-08 충남대학교산학협력단 Method and apparatus for sensing of fire, computer-readable storage medium and computer program
KR102555156B1 (en) * 2022-12-13 2023-07-18 김대호 Artificial intelligence thermal imaging surveillance diagnosis switchboard based on fixed thermal imaging cameras and mobile thermal imaging cameras
KR20240030440A (en) 2022-08-30 2024-03-07 한국로봇융합연구원 Apparatus for fire suppression based on fire point recognition and method therefor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240104613A (en) 2022-12-28 2024-07-05 주식회사 교림정보통신 Method for executing inspection process of fire detection device and detecting fire using real image and thermal image, and fire detection system therefor
KR102554207B1 (en) 2023-01-26 2023-07-11 엔텍월드(주) Switchgear(High-voltage Panel, Low-voltage panel, Motor Control Panel, Distribution Panel) Equipped with the Function of Predicting Electrical Fault Location and Signs of Fire and Explosion

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160010387A (en) 2015-12-30 2016-01-27 주식회사 유아세이프 Fire Alarm and Extinguishing System using Thermal Image Fusion Camera
KR101620989B1 (en) 2015-02-12 2016-05-16 계명대학교 산학협력단 Method of detecting fire automatically from video including night images and system for performing the same
KR101635000B1 (en) * 2015-06-26 2016-07-08 (주) 비엑스 솔루션 Fire detector and system using plural cameras
KR101741107B1 (en) * 2015-12-14 2017-06-15 주식회사 앤다스 Apparatus and method for monitoring fire by using cctv
KR101998639B1 (en) 2017-11-30 2019-07-10 (주)코어센스 Intelligent system for ignition point surveillance using composite image of thermal camera and color camera
KR20190124454A (en) * 2018-04-26 2019-11-05 (주) 비엑스 솔루션 Fire detector and system capable of measuring heat distribution
KR102093477B1 (en) * 2018-10-26 2020-03-25 오토아이티(주) Method and apparatus for managing safety in dangerous zone based on different kind camera

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101620989B1 (en) 2015-02-12 2016-05-16 계명대학교 산학협력단 Method of detecting fire automatically from video including night images and system for performing the same
KR101635000B1 (en) * 2015-06-26 2016-07-08 (주) 비엑스 솔루션 Fire detector and system using plural cameras
KR101741107B1 (en) * 2015-12-14 2017-06-15 주식회사 앤다스 Apparatus and method for monitoring fire by using cctv
KR20160010387A (en) 2015-12-30 2016-01-27 주식회사 유아세이프 Fire Alarm and Extinguishing System using Thermal Image Fusion Camera
KR101998639B1 (en) 2017-11-30 2019-07-10 (주)코어센스 Intelligent system for ignition point surveillance using composite image of thermal camera and color camera
KR20190124454A (en) * 2018-04-26 2019-11-05 (주) 비엑스 솔루션 Fire detector and system capable of measuring heat distribution
KR102093477B1 (en) * 2018-10-26 2020-03-25 오토아이티(주) Method and apparatus for managing safety in dangerous zone based on different kind camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230082364A (en) * 2021-12-01 2023-06-08 충남대학교산학협력단 Method and apparatus for sensing of fire, computer-readable storage medium and computer program
CN114511984A (en) * 2022-03-01 2022-05-17 北京华煜八方科技有限公司 Fire monitoring camera, fire monitoring method and automatic fire alarm system
CN114511984B (en) * 2022-03-01 2024-05-03 北京华煜八方科技有限公司 Fire monitoring camera, fire monitoring method and fire automatic alarm system
KR20240030440A (en) 2022-08-30 2024-03-07 한국로봇융합연구원 Apparatus for fire suppression based on fire point recognition and method therefor
KR102555156B1 (en) * 2022-12-13 2023-07-18 김대호 Artificial intelligence thermal imaging surveillance diagnosis switchboard based on fixed thermal imaging cameras and mobile thermal imaging cameras

Also Published As

Publication number Publication date
KR102442552B1 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
KR102442552B1 (en) The system and the method for detecting fire based on thermal and real images
US9928707B2 (en) Surveillance system
US20190279478A1 (en) Fire monitoring system
KR102064746B1 (en) Fire detection system based on machine learning
US7751647B2 (en) System and method for detecting an invalid camera in video surveillance
JP4653207B2 (en) Smoke detector
CN111739250A (en) Fire detection method and system combining image processing technology and infrared sensor
US20060056702A1 (en) Image processing apparatus and image processing method
CN105574468B (en) Video flame detection method, device and system
CN102833478A (en) Fault tolerant background modeling
CN112784738B (en) Moving object detection alarm method, moving object detection alarm device and computer readable storage medium
KR20190110476A (en) Smart phone, vehicle, camera with thermal imaging sensor and display and monitoring method using the same
CN114120171A (en) Fire smoke detection method, device and equipment based on video frame and storage medium
KR102557769B1 (en) System for detect accident based on cctv using digital twin virtual model
JP4618062B2 (en) Monitoring device, monitoring system, and monitoring method
KR20100007535A (en) Method for tracking moving objects using characteristics of moving objects in image camera system
KR101046819B1 (en) Method and system for watching an intrusion by software fence
KR20160048428A (en) Method and Apparatus for Playing Video by Using Pan-Tilt-Zoom Camera
KR20230036557A (en) A system for monitoring solar panel failures on a large scale using drones
JPH0779429A (en) Picture monitor equipment
JP3232502B2 (en) Fog monitoring system
KR101729911B1 (en) Camera device to having a intergral body with a thermal camera and a megapixel camera and a detection system using the same
KR102270858B1 (en) CCTV Camera System for Tracking Object
JPH0514891A (en) Image monitor device
CN112784703B (en) Multispectral-based personnel action track determination method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant