KR20230101461A - Method of Fire by Deep Learning for Recognition of Dangerous situation In Life safety - Google Patents
Method of Fire by Deep Learning for Recognition of Dangerous situation In Life safety Download PDFInfo
- Publication number
- KR20230101461A KR20230101461A KR1020210191585A KR20210191585A KR20230101461A KR 20230101461 A KR20230101461 A KR 20230101461A KR 1020210191585 A KR1020210191585 A KR 1020210191585A KR 20210191585 A KR20210191585 A KR 20210191585A KR 20230101461 A KR20230101461 A KR 20230101461A
- Authority
- KR
- South Korea
- Prior art keywords
- fire
- smoke
- flame
- detecting
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000013135 deep learning Methods 0.000 title claims abstract description 8
- 239000000779 smoke Substances 0.000 claims abstract description 58
- 238000001514 detection method Methods 0.000 claims abstract description 26
- 230000035945 sensitivity Effects 0.000 claims abstract description 8
- 230000004397 blinking Effects 0.000 claims description 9
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 239000003086 colorant Substances 0.000 description 4
- 238000002485 combustion reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000007789 gas Substances 0.000 description 3
- 239000007800 oxidant agent Substances 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 2
- 229910002091 carbon monoxide Inorganic materials 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000004071 soot Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B31/00—Predictive alarm systems characterised by extrapolation or other computation using updated historic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Emergency Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Fire-Detection Mechanisms (AREA)
Abstract
본 발명은 화재 중 불꽃 및 연기 감지를 통한 화재방향 예측방법으로, 화재영상 및 민감도를 입력받는 단계, 상기 화재영상 및 민감도로부터 불꽃 및 연기의 후보영역을 검출하는 단계, 딥러닝 기반으로 상기 화재영상으로부터 불꽃 및 연기를 검출해 구분하는 딥러닝 학습단계,상기 불꽃 및 연기가 일정 시간 또는 일정 횟수 동안 지속되는 경우 알림을 전송하는 단계를 포함하는 것을 특징으로 한다.The present invention is a fire direction prediction method through flame and smoke detection during a fire, comprising the steps of receiving a fire image and sensitivity, detecting candidate regions of flame and smoke from the fire image and sensitivity, and deep learning based on the fire image. A deep learning learning step of detecting and distinguishing flames and smoke from the system, and transmitting a notification when the flames and smoke last for a predetermined time or a predetermined number of times.
Description
본 발명은 화재 발생 여부를 감지하기 위해 인공지능, 특히 딥러닝을 적용한 화재인지방법에 관한 발명이다.The present invention relates to a fire recognition method using artificial intelligence, particularly deep learning, to detect whether or not a fire has occurred.
산업이 발달하면서 생활안전에 대한 관심이 높아지고, 위험상황을 사전이 미리 인지하고자 하는 기술이 개발되고 있다. 특히, 야외에서 보행자 안전 중 하나로서 도로나 터널 등에서의 생활안전 관련한 위험상황으로서 화재는 경제적, 인명적 손실이 매우 크다.As the industry develops, interest in life safety increases, and technologies for recognizing dangerous situations in advance are being developed. In particular, as one of pedestrian safety in the outdoors, fire is a risk situation related to life safety in roads or tunnels, and fire has a great economic and human loss.
종래의 기존의 화재감지 시스템은 온도, 가스, 일산화탄소, 연기 감지 등의 여러 센서를 기반으로 하고 있으며, 센서로부터 입력되는 데이터에서 특정 임계값을 가지고 화재를 판단하고 있어 일반 생활에서 발생하는 열과 연기 등으로 인하여 오감지가 많이 존재한다. 열, 연기 등의 센서 기반 감지기들을 이용한 화재 탐지 시스템을 통하여 화재로부터 보호받고 있으며, 이들 감지기는 화재가 발생한 후 일정시간이 지나 열이나 연기가 확산되어 센서에 도달해야 비로소 감지가 가능하다.Conventional existing fire detection systems are based on various sensors such as temperature, gas, carbon monoxide, smoke detection, etc., and judge fire with a specific threshold value from data input from the sensors, so that heat and smoke generated in general life Because of this, there are many false senses. It is protected from fire through a fire detection system using sensor-based detectors such as heat and smoke, and these detectors can detect only when heat or smoke spreads and reaches the sensor after a certain period of time passes after a fire occurs.
또한, 이러한 센서 기반의 화재 검출 방법은 화재가 센서 위치와 근접하게 접근해야만 화재를 감지할 수 있어 초기 진압에는 부적절한 한계가 있다. 잦은 오보로 인하여 실제 사용 환경에서는 화재감지 시스템을 꺼놓는 경우가 종종 발생하고 있으며, 이러한 경우에 화재 발생 여부를 초기에 감지하지 못하므로, 대형 화재로 연결되어 많은 인명 피해와 금전적 손실을 초래할 수 있다. 따라서, 위험상황을 사전 인지하기위해 기존 영상분석보다 진일보한 화재인지방법에 대한 필요성이 제기되고 있다.In addition, such a sensor-based fire detection method can detect a fire only when the fire approaches the sensor position, and thus has an inappropriate limit for initial suppression. Due to frequent misinformation, it is often the case that the fire detection system is turned off in the actual use environment, and in this case, it is not possible to detect whether or not a fire has occurred at an early stage. Therefore, there is a need for a fire recognition method that is more advanced than the existing image analysis in order to recognize a dangerous situation in advance.
본 발명은 화재(불꽃 및 연기)의 고유 색상, 불꽃 및 연기의 움직임, 화재 영역의 깜빡임 정보를 탐지 지표로 활용해 화재 발생 여부를 감지하기 위한 방법을 제공하고자 한다.An object of the present invention is to provide a method for detecting whether a fire has occurred by using a unique color of fire (flame and smoke), movement of flame and smoke, and flickering information of a fire area as detection indicators.
상기 과제를 해결하기 위한 본 발명은 화재 중 불꽃 및 연기 감지를 통한 화재방향 예측방법으로, 화재 중 불꽃 및 연기 감지를 통한 화재방향 예측방법으로, 화재영상 및 민감도를 입력받는 단계, 상기 화재영상 및 민감도로부터 불꽃 및 연기의 후보영역을 검출하는 단계, 딥러닝 기반으로 상기 화재영상으로부터 불꽃 및 연기를 검출해 구분하는 딥러닝 학습단계, 상기 불꽃 및 연기가 일정 시간 또는 일정 횟수 동안 지속되는 경우 알림을 전송하는 단계를 포함하는 것을 특징으로 한다.The present invention for solving the above problems is a fire direction prediction method through flame and smoke detection during a fire, a fire direction prediction method through flame and smoke detection during a fire, the step of receiving a fire image and sensitivity, the fire image and Detecting candidate regions of flame and smoke from sensitivity, deep learning learning step of detecting and classifying flames and smoke from the fire image based on deep learning, and alerting if the flames and smoke last for a certain period of time or a certain number of times characterized in that it includes the step of transmitting.
도 1은 불꽃 및 연기 인지 개선기술의 흐름도이다.
도 2는 불꽃 및 연기의 움직임 검출 알고리즘을 적용한 예이다.
도 3은 실제 촬영된 화재영상의 일부이다.1 is a flow chart of flame and smoke recognition improvement technology.
2 is an example of applying a flame and smoke motion detection algorithm.
3 is a part of an actual captured fire image.
본 발명은 화재 발생 여부를 감지하기 위해 화재(불꽃 및 연기)의 고유 색상, 불꽃 및 연기의 움직임, 화재 영역의 깜빡임 정보를 탐지 지표로 활용하며, 이를 지능형 알고리즘으로써 훈련(Training)하는 방법으로 카메라 장치를 통해 실시간으로 영상을 분석하고 카메라로부터 획득한 영상을 분석하여 불꽃 및 연기를 탐지하는 방법이다.The present invention utilizes the unique color of fire (flame and smoke), movement of flame and smoke, and flickering information of the fire area as detection indicators to detect whether or not a fire has occurred, and trains the camera as an intelligent algorithm. It is a method of detecting flames and smoke by analyzing images in real time through a device and analyzing images obtained from a camera.
도 1은 불꽃 및 연기 인지 개선기술의 흐름도이다. 1 is a flow chart of flame and smoke recognition improvement technology.
먼저 화재영상 및 민감도(n)를 입력받는 단계(S10)이다. 민감도(n)이란, 연속적으로 발생가능한 화재 발생 여부의 시간적 안정성을 의미하고, 연속적으로 n개의 프레임으로부터 불꽃 또는 연기가 검출 되었을 때, 알고리즘에서 화재 알람을 발생시켜 이용자에게 전달하는 것을 의미한다. 화재영상은 동영상 촬영이나 다수의 사진을 통해 연속적으로 취득될 수 있다. 화재영상의 내용은 기본적으로 불꽃(flame) 및 연기(smoke)이다. 불꽃은 화염을 의미하며, 연료와 산화제에 의해 연소작용이 일어나는 과정이다. 산화제가 풍부해 완전연소에 가까울수록 연기(smoke)가 감소한다. 반면 산화제가 부족 시, 연기가 더욱 발생한다. 연기는 이산화탄소와 같이 연소조건이 양호할 때 발생하는 기체 뿐 아니라, 일산화탄소나 그을음(soot)을 포함하기도 한다. 연기(smoke)는 이 모두를 포함하는 기체로서, soot와 같은 고체 particle이 혼재되어 있을 수 있다.First, it is a step (S10) of receiving input of a fire image and sensitivity (n). Sensitivity (n) means the temporal stability of whether or not a fire can occur continuously, and means that when flames or smoke are detected from n consecutive frames, a fire alarm is generated by the algorithm and delivered to the user. Fire images can be continuously acquired through video recording or multiple photos. The content of the fire video is basically flame and smoke. A flame means a flame, and it is a process in which combustion occurs by a fuel and an oxidizing agent. The closer the oxidizing agent is to complete combustion, the less smoke there is. On the other hand, when the oxidizing agent is insufficient, more smoke is generated. Smoke includes not only gases generated when combustion conditions are good, such as carbon dioxide, but also carbon monoxide or soot. Smoke is a gas containing all of these, and solid particles such as soot may be mixed.
이후, 불꽃과 연기의 후보영역을 검출하는 단계(S20)이다. 불꽃의 깜빡임 및 움직임 정보 검출 과정과 고유 색상 검출 과정을 통하여 추출한 정보를 바탕으로 불꽃 연기 후보영역을 검출하며, 화재영역일 가능성이 없는 영역에 대한 정보는 제거한다. After that, it is a step of detecting candidate regions of flame and smoke (S20). Based on the information extracted through the flame flickering and motion information detection process and the unique color detection process, the flame smoke candidate area is detected, and the information on the area that is not likely to be a fire area is removed.
이후, 불꽃 및 연기 검출단계(S30)이다. CNN(Convolutional Neural Network)과 같은 학습 기반 방법을 이용하여 불꽃 연기 후보영역 영상을 입력으로 받아 실제 불꽃 연기를 검출한다.After that, it is a flame and smoke detection step (S30). Using a learning-based method such as CNN (Convolutional Neural Network), the actual flame smoke is detected by receiving the flame smoke candidate region image as an input.
S40에서 불꽃 및 연기가 n회 이상 반복되어 발생 시, 알림을 발생하고(S50), 실행을 중지(S60)한다. 다만, 실행 중지 명령 수신 전까지 실시간으로 수신 받는 영상에 대하여 불꽃 연기 탐지를 수행한다.In S40, when flames and smoke occur repeatedly n times or more, a notification is generated (S50) and execution is stopped (S60). However, until the execution stop command is received, flame and smoke detection is performed on the received image in real time.
도 2는 S20의 불꽃 연기의 후보영역 검출 단계, S30의 불꽃 및 연기 검출 단계를 통한 화재 영역 검출 과정이다. 불꽃 연기의 후보영역 검출 단계는 한 장 이상의 입력 영상(1개 frame 이상)의 영상을 입력 받아 화재 현상이 발생하였을 가능성이 높은 후보 영역을 검출하는 단계로 깜빡임 움직임 정보 검출과 고유 색상 검출로 구성된다. Figure 2 is a process of detecting a fire area through the flame and smoke candidate area detection step of S20 and the flame and smoke detection step of S30. The step of detecting candidate regions of fireworks and smoke is a step of receiving one or more input images (more than one frame) and detecting candidate regions that are highly likely to have a fire phenomenon. .
깜빡임 움직임 정보 검출에서는 한 장 이상의 입력 영상에 대하여 화소 값에 변화가 잦은 불꽃 연기 영역과 화소 값에 변화가 작은 배경 영역으로 분리한다. 이는 수학식1, 수학식2를 통하여 수행된다. In detecting flickering motion information, one or more input images are separated into a flame smoke area with frequent pixel value changes and a background area with small pixel value changes. This is performed through
수학식 1,
수학식 2, Equation 2,
여기서, 은 현재의 입력 영상과 이전의 입력 영상이며, 는 현재의 깜빡임 정보, 이전의 깜빡임 정보이며, 는 현재 영상 까지의 누적 깜빡임 정보로서, 가중치α 를 포함한다.here, is the current input image and the previous input image, is the current blinking information, the previous blinking information, is the current image Accumulated blink information up to , and includes a weight α.
불꽃 고유색상 검출과정에서 불꽃은 빨간 계열과 노란 계열의 색상 정보를 포함하고 있으며 이는 불꽃 영역 탐지를 위한 중요한 정보이다. 불꽃 고유 색상 검출 과정에서는 색 기반의 불꽃을 포함할 가능성이 높은 화소들의 검출을 위하여 HSV 색 공간에서의 Hue(색상) 및 Saturation(채도)와 RGB 색 공간에서 빨간 색을 포함하는 Red 채널의 정보를 이용한다. 불꽃과 유관한 화소 검출은 각 색 공간에서 불꽃과 유관한 색을 갖는 화소 값의 필터링을 통하여 수행된다. In the flame intrinsic color detection process, the flame contains red and yellow color information, which is important information for flame area detection. In the flame intrinsic color detection process, Hue (color) and Saturation (saturation) in the HSV color space and Red channel information including red color in the RGB color space are used to detect pixels that are likely to contain color-based flames. use Pixel detection related to firework is performed through filtering of pixel values having colors related to firework in each color space.
수학식3은 색상 정보에서 색상 값에서 불꽃이 포함하지 않을 가능성이 많은 색상을 제거한다. 즉, 파란색과 같은 단 파장을 갖는 색을 제거한다. 수학식4에서는 밝은 빨간 색을 갖는 화소 값들만 취하게 되며 수학식5에서는 채도가 낮은 화소 영역을 제거해줌으로 불꽃의 고유 색상을 검출한다. 이때, 채도에서의 고유 색상 영역은 Red 채널의 밝기 값을 반영하여 일정 양 이상의 빨간 색을 포함하는 영역만을 검출한다. Equation 3 removes colors that are unlikely to be included in a flame from color values in color information. That is, colors with short wavelengths such as blue are removed. In Equation 4, only pixel values having a bright red color are taken, and in Equation 5, the intrinsic color of the flame is detected by removing pixel areas with low saturation. At this time, the unique color region in the saturation reflects the brightness value of the red channel and detects only the region including a certain amount of red.
수학식 3, Equation 3,
수학식 4, Equation 4,
수학식 5, Equation 5,
여기서, 는 HSV Color space에서 Hue(색상), RGB Color space에서 Red Channel, HSV Color Space에서 Saturation(채도)이다. 또한, 는 Hue에서 붉은 색상의 범위 임계 값, 은 Red Channel에서 불꽃과 유관한 최소 화소값, 은 불꽃의 고유 색상 추출을 위한 임계 값(Threshold)이다.here, is Hue (color) in HSV color space, Red Channel in RGB color space, and Saturation (saturation) in HSV color space. also, is the range threshold of the red color in Hue, is the minimum pixel value related to flame in the Red Channel, is the threshold for extracting the unique color of the flame.
수학식 6 내지 수학식 9는 연기의 고유 색상을 검출하는 과정이다. 일반적인 연기는 완전한 흰색 또는 완전한 검은 색을 갖지 않기 때문에 수학식 9를 통하여 연기를 포함하지 않을 가능성이 높은 화소를 배제한다. 그후 연기가 갖는 무채색의 성질을 통하여 각 채널의 차이 값이 작은 화소 영역만을 검출한다. 즉, 각 채널의 화소 값이 유사한 영역을 연기의 고유색상을 갖는 영역으로 사용한다.Equations 6 to 9 are processes for detecting the unique color of smoke. Since general smoke does not have complete white or complete black, pixels that are highly likely not to contain smoke are excluded through Equation 9. After that, only the pixel area where the difference value of each channel is small is detected through the achromatic property of the smoke. That is, an area having a similar pixel value of each channel is used as an area having a unique color of smoke.
수학식 6, Equation 6,
수학식 7, Equation 7,
수학식 8, Equation 8,
수학식 9, Equation 9,
여기서, 는 RGB Color space의 Red, Green, Blue channel이고, 는 연기 고유 색상 검출을 위한 임계 값이고, 는 연기를 포함하는 화소의 최소 임계 값, 연기를 포함하는 화소의 최대 임계 값이다.here, is the Red, Green, and Blue channels of the RGB color space, is the threshold value for detecting the smoke unique color, is the minimum threshold for pixels containing smoke, and the maximum threshold for pixels containing smoke.
불꽃 · 연기의 후보영역 검출단계에서 수학식 10은 깜빡임 움직임 정보, 고유 색상 정보를 바탕으로 불꽃 연기의 후보영역을 검출한다. 는 연속되는 영상으로부터 검출된 누적 깜빡임 움직임 정보이며 는 가장 최근에 입력 받은 영상으로부터 검출한 고유 색상을 의미한다. 불꽃 연기의 후보영역은 누적 깜빡임 움직임 정보를 포함하는 영역과 고유 색상을 포함하는 모든 영역으로 볼 수 있다 In the flame/smoke candidate area detection step, Equation 10 detects the flame/smoke candidate area based on the flicker motion information and unique color information. Is cumulative blinking motion information detected from consecutive images denotes a unique color detected from the most recently input image. Candidate areas of flame smoke can be seen as areas including cumulative flickering motion information and all areas including unique colors.
수학식 10, Equation 10,
도 3은 실제 촬영된 화재영상으로서 불꽃 및 연기가 시간의 변화에 따라 배경에 대해 어떻게 식별되는지 보여준다. 는 현재 프레임 원본 영상, 는 이전 프레임 원본 영상을 의미하며, 깜빡임 정보 는 현재 와 의 차분, 는 와 의 차분을 의미하고, 는 각각 번째 프레임까지의 누적 깜빡임 정보, 번째 프레임까지의 누적 깜빡임 정보를 의미하고, , 는 번째 프레임에서의 불꽃 고유 색상 영역, 번째 프레임에서의 불꽃 고유 색상 영역을 의미하고, , 는 번째 프레임에서의 불꽃 후보 영역, 번째 프레임에서의 불꽃 후보 영역을 의미한다.Figure 3 is an actual captured fire image showing how flames and smoke are identified against the background according to the change of time. is the current frame original video, means the original image of the previous frame, and the flicker information is currently and difference of , Is and means the difference of are respectively Accumulated blinking information up to the th frame, It means accumulated blinking information up to the first frame, , Is Flame unique color area in the second frame, It means the unique color area of the flame in the second frame, , Is The flame candidate region in the th frame, This means a flame candidate region in the th frame.
Claims (4)
상기 화재영상 및 민감도로부터 불꽃 및 연기의 후보영역을 검출하는 단계;
딥러닝 기반으로 상기 화재영상으로부터 불꽃 및 연기를 검출해 구분하는 딥러닝 학습단계;
상기 불꽃 및 연기가 일정 시간 또는 일정 횟수 동안 지속되는 경우 알림을 전송하는 단계; 를 포함하는
화재 중 불꽃 및 연기 감지를 통한 화재방향 예측방법
Receiving fire images and sensitivity;
detecting candidate regions of flame and smoke from the fire image and sensitivity;
A deep learning learning step of detecting and classifying flames and smoke from the fire image based on deep learning;
Transmitting a notification when the flame and smoke last for a predetermined time or a predetermined number of times; containing
Fire direction prediction method through flame and smoke detection during fire
상기 불꽃 및 연기의 후보영역을 검출하는 단계;는
깜빡임 및 움직임 정보를 검출하거나 고유색상을 검출하는 영역을 포함하는 것을 특징으로 하는
화재 중 불꽃 및 연기 감지를 통한 화재방향 예측방법
According to claim 1,
Detecting candidate regions of the flame and smoke;
Characterized in that it includes an area for detecting flickering and motion information or detecting a unique color
Fire direction prediction method through flame and smoke detection during fire
상기 깜빡임 및 움직임 정보를 검출하거나 고유색상을 검출하는 영역을 제외한 영역의 화소 정보는 제거하는 것을 특징으로 하는
불꽃 및 연기 감지를 통한 화재방향 예측방법
According to claim 2,
Characterized in that the pixel information of an area other than the area for detecting the flickering and motion information or detecting the unique color is removed
Fire direction prediction method through flame and smoke detection
상기 깜빡임 정보는 입력된 상기 화재영상으로부터 하기 수학식1 및 수학식2에 의해 수행되는 것을 특징으로 하는
불꽃 및 연기 감지를 통한 화재방향 예측방법
수학식 1,
수학식 2,
는 현재 영상 까지의 누적 깜빡임 정보이며,은 현재의 입력 영상과 이전의 입력 영상이며, 는 현재의 깜빡임 정보, 이전의 깜빡임 정보이며, α는 가중치
According to claim 3,
Characterized in that the blinking information is performed by Equation 1 and Equation 2 below from the input fire image
Fire direction prediction method through flame and smoke detection
Equation 1,
Equation 2,
is the current image This is the cumulative blinking information up to is the current input image and the previous input image, is the current blinking information, the previous blinking information, and α is the weight
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210191585A KR20230101461A (en) | 2021-12-29 | 2021-12-29 | Method of Fire by Deep Learning for Recognition of Dangerous situation In Life safety |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210191585A KR20230101461A (en) | 2021-12-29 | 2021-12-29 | Method of Fire by Deep Learning for Recognition of Dangerous situation In Life safety |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230101461A true KR20230101461A (en) | 2023-07-06 |
Family
ID=87185793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210191585A KR20230101461A (en) | 2021-12-29 | 2021-12-29 | Method of Fire by Deep Learning for Recognition of Dangerous situation In Life safety |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230101461A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150011884A (en) | 2013-07-23 | 2015-02-03 | 삼성테크윈 주식회사 | Method and Apparatus for detecting smoke from image |
-
2021
- 2021-12-29 KR KR1020210191585A patent/KR20230101461A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150011884A (en) | 2013-07-23 | 2015-02-03 | 삼성테크윈 주식회사 | Method and Apparatus for detecting smoke from image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10854062B2 (en) | Fire monitoring system | |
CN112560657B (en) | Method, device, computer device and storage medium for identifying smoke and fire | |
US7542585B2 (en) | Fire detection and smoke detection method and system based on image processing | |
TWI421721B (en) | A method for combustion flames diagnosis | |
Chen et al. | An early fire-detection method based on image processing | |
KR101953342B1 (en) | Multi-sensor fire detection method and system | |
RU2380758C2 (en) | Method and device for smoke detection | |
CN102236947B (en) | Flame monitoring method and system based on video camera | |
Cho et al. | Image processing-based fire detection system using statistic color model | |
KR100918436B1 (en) | Fire detection system and method basedon visual data | |
Pritam et al. | Detection of fire using image processing techniques with LUV color space | |
CN109741565B (en) | Coal mine fire disaster recognition system and method | |
CN108399359A (en) | Fire detection method for early warning in real time under a kind of video sequence | |
KR101726786B1 (en) | System and method for real-time fire detection using color information of the image | |
US7098796B2 (en) | Method and system for detecting fire in a predetermined area | |
CN111127810A (en) | Automatic alarming method and system for open fire of machine room | |
Ho et al. | Real-time video-based fire smoke detection system | |
KR101224548B1 (en) | Fire imaging detection system and method | |
KR101044903B1 (en) | Fire detecting method using hidden markov models in video surveillance and monitoring system | |
KR101476764B1 (en) | Flame dete ction method based on gray imaging signal of a cameras | |
KR100986834B1 (en) | The device for detecting fire and method therefor | |
KR20230101461A (en) | Method of Fire by Deep Learning for Recognition of Dangerous situation In Life safety | |
CN113537092A (en) | Smoke and fire detection method, device, equipment and storage medium | |
JP2008199173A (en) | Pilot flame monitoring method and its apparatus | |
Sankarasubramanian et al. | Real Tıme AI, Computer Vısıon Based Framework To Detect And Prevent Lıquıd Metal Fıre Hazards |