KR20230102532A - Fire detection system and method using time series data prediction thchnique and image classification - Google Patents
Fire detection system and method using time series data prediction thchnique and image classification Download PDFInfo
- Publication number
- KR20230102532A KR20230102532A KR1020210192735A KR20210192735A KR20230102532A KR 20230102532 A KR20230102532 A KR 20230102532A KR 1020210192735 A KR1020210192735 A KR 1020210192735A KR 20210192735 A KR20210192735 A KR 20210192735A KR 20230102532 A KR20230102532 A KR 20230102532A
- Authority
- KR
- South Korea
- Prior art keywords
- fire
- sensor
- image
- time
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000001514 detection method Methods 0.000 title claims description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 24
- 238000005259 measurement Methods 0.000 claims abstract description 22
- 238000013480 data collection Methods 0.000 claims abstract description 6
- 238000013528 artificial neural network Methods 0.000 claims description 51
- 239000013598 vector Substances 0.000 claims description 33
- 230000009467 reduction Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 14
- 238000013527 convolutional neural network Methods 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000012850 discrimination method Methods 0.000 claims 2
- 230000001537 neural effect Effects 0.000 claims 1
- 230000008859 change Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B31/00—Predictive alarm systems characterised by extrapolation or other computation using updated historic data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Fire-Detection Mechanisms (AREA)
- Fire Alarms (AREA)
Abstract
Description
본 발명은 센서 값의 변화량을 예측하고 다양한 정보에 기반한 화재 판별이 가능한 시계열 데이터 예측 기법과 이미지 분류를 적용한 화재 판별 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for determining a fire by applying a time-series data prediction technique and image classification capable of predicting a change in a sensor value and determining a fire based on various information.
통상의 소방관리에 사용되는 화재감지기는 화재를 감지하여 화재신호를 직간접적으로 관리자 또는 소방관제센터로 화재경보를 한다. 이때, 화재신호에 따라 자동으로 옥내외의 소화설비인 스프링클러를 제어하여 화재를 진압한다.A fire detector used for normal fire management detects a fire and sends a fire alarm directly or indirectly to a manager or fire control center. At this time, according to the fire signal, the sprinkler, which is an indoor and outdoor fire extinguishing facility, is automatically controlled to extinguish the fire.
이러한 일반적인 화재감지기는 소방시설이 설치된 건물의 내외에 다수의 수신기가 설치되어 있더라도, 이들 화재감지기간에 상호통신이 불가능하여 건물이용자에게 신속한 화재정보를 전달할 수 없고, 특히 화재의 최초 발생시간 및 발생장소가 전달되지 않는 문제점이 있다.Although these general fire detectors have multiple receivers installed inside and outside the building where firefighting facilities are installed, mutual communication is impossible between these fire detection periods, so they cannot quickly deliver fire information to building users. In particular, the first time and occurrence of fire There is a problem that the place is not delivered.
각 지역의 소방관서에서는 119 지령실 및 관제센터를 운영하면서 화재신고 또는 화재 인식시 GPS, GIS 등을 이용하여 화재발생 위치 및 주변 정보는 인지할 수 있으나, 현재 화재 상황에 대해서는 실시간 감지할 수 있는 시스템이 마땅치 않다.Fire departments in each region operate a 119 command room and control center, and when reporting a fire or recognizing a fire, they can recognize the location of the fire and surrounding information using GPS, GIS, etc., but a system that can detect the current fire situation in real time this isn't right
상술한 화재인지의 비효율성을 개선하기 위해, 실영상 카메라로 촬영한 실영상과, 열상카메라를 통하여 촬영된 열영상을 혼합하여 불꽃이나 온도 및 연기가 발생하지 않더라도 온도의 변화를 감지하여 화재 발생 가능성을 예측하는 화재감지시스템이 제시된 바 있다.(KR10-1544019)In order to improve the above-mentioned inefficiency of fire recognition, a real image taken by a real image camera and a thermal image taken through a thermal camera are mixed to detect a change in temperature even if there is no flame, temperature or smoke, and a fire occurs. A fire detection system predicting the possibility has been proposed. (KR10-1544019)
도 1은 종래 기술에 따른 화재감지시스템의 구성을 도시한다.1 shows the configuration of a fire detection system according to the prior art.
상기 화재감지시스템에서는, 열영상과 실영상을 합성해서 사용하며, 불꽃이 실제로 발생하지 않은 상황에서도 온도 변화를 감지하여 잠열을 확인할 수 있으며, 이를 활용해 사전에 화재의 가능성 및 화재를 감지할 수 있는 구성들(① 센서부, ② 촬영부, ③ 합성부)을 구비한다.In the fire detection system, a thermal image and a real image are synthesized and used, and even in a situation where a flame does not actually occur, temperature change can be detected to check latent heat, and the possibility of fire and fire can be detected in advance using this. components (① sensor unit, ② photographing unit, ③ synthesis unit) are provided.
그런데, 종래 기술은 실화상과 열화상 두 종류의 데이터에 의존하여 화재와 화재 징후를 포착하므로, 해당 센서에서 얻을 수 없는 정보로는 한계점이 있다.However, since the prior art captures fire and signs of fire by relying on two types of data, a real image and a thermal image, there is a limit to information that cannot be obtained from a corresponding sensor.
반대로, 종래 기술에 센서의 종류를 늘리더라도 데이터 변화량을 관측하고 변화 수준에 따라 화재 판별의 Rule을 개별 센서에 대해 적용하는 것은 한계점이 있었다.On the contrary, even if the types of sensors are increased in the prior art, there is a limit to observing the amount of data change and applying the fire discrimination rule to individual sensors according to the level of change.
본 발명은 화재 징후를 포착함에 있어서 센서의 종류를 가변적으로 늘릴 수 있는 시계열 데이터 예측 기법과 이미지 분류를 적용한 화재 판별 시스템 및 방법을 제공하고자 한다.An object of the present invention is to provide a fire determination system and method using a time-series data prediction technique and image classification capable of variably increasing the types of sensors in capturing fire signs.
본 발명은 시계열 데이터 예측 기법과 이미지 분류를 이용하고, 신경망을 기반으로 하여 화재 판별을 수행하는 시계열 데이터 예측 기법과 이미지 분류를 적용한 화재 판별 시스템 및 방법을 제공하고자 한다.An object of the present invention is to provide a fire discrimination system and method using a time-series data prediction method and image classification using a time-series data prediction method and image classification and performing fire discrimination based on a neural network.
본 발명은 센서나 측정값의 변화량에 대한 Rule을 직접 정해주지 않아도 되는 편의를 제공하는 시계열 데이터 예측 기법과 이미지 분류를 적용한 화재 판별 시스템 및 방법을 제공하고자 한다.An object of the present invention is to provide a fire detection system and method using a time-series data prediction technique and image classification that provide convenience without having to directly determine a rule for changes in sensors or measured values.
본 발명의 일 측면에 따른 시계열 데이터 예측 기법과 이미지 분류를 적용한 화재 판별 시스템은, 카메라 촬영 이미지를 수집하는 이미지 데이터 수집부; 이미지 분류 기법을 적용하여 수집된 이미지에 포함된 화재 관련 특징 정보를 산출하는 이미지 특징 산출부; 화재 판단의 근거가 되는 각 파라미터를 측정하는 각 센서의 측정값들을 수집하는 센서값 수집부; 시계열 데이터 예측 기법으로 수집된 센서들의 측정값들로부터 화재 관련 특징 정보를 산출하는 센서값 특징 산출부; 감시 대상 지역의 환경에 따라, 상기 이미지 특징 산출부가 산출한 특징 정보와, 상기 센서값 특징 산출부가 산출한 특징 정보에 가중치를 부여하여 통합 컨피던스를 계산하고, 계산된 상기 통합 컨피던스가 소정 기준값을 넘으면 화재로 판별하는 통합 컨피던스 판별부를 포함할 수 있다.A fire determination system to which a time-series data prediction technique and image classification are applied according to an aspect of the present invention includes an image data collection unit for collecting camera-photographed images; an image feature calculation unit that calculates fire-related feature information included in the collected images by applying an image classification technique; a sensor value collection unit that collects measurement values of each sensor that measures each parameter that is a basis for determining a fire; a sensor value feature calculation unit that calculates fire-related feature information from measurement values of sensors collected using a time-series data prediction technique; Depending on the environment of the area to be monitored, the feature information calculated by the image feature calculation unit and the feature information calculated by the sensor value feature calculation unit are weighted to calculate integrated confidence, and if the calculated integrated confidence exceeds a predetermined reference value, It may include an integrated confidence determination unit that determines fire.
여기서, 상기 센서값 특징 산출부는, 각 센서의 측정값들을 시계열로 수집하여 LSTM 신경망 학습을 수행하는 LSTM 신경망 학습부; 및 상기 LSTM 신경망 학습을 수행한 결과를 활용하여 상기 센서의 측정값들의 클래스를 추론하는 NN-차원 축소 처리부를 포함할 수 있다.Here, the sensor value feature calculation unit includes: an LSTM neural network learning unit that collects measurement values of each sensor in time series and performs LSTM neural network learning; and a NN-dimensional reduction processing unit for inferring a class of measurement values of the sensor by using a result of performing the LSTM neural network learning.
여기서, 상기 LSTM 신경망 학습부는, 학습된 LSTM 모델을 이용해 t+1 시점의 센서 값을 예측하고, t시점(현재)의 센서 값과 t+1시점(미래)의 센서 값을 확보하여, 현재 시점 데이터와 예측 데이터를 하나의 벡터로 표현할 수 있다.Here, the LSTM neural network learning unit predicts the sensor value at time t+1 using the learned LSTM model, secures the sensor value at time t (current) and the sensor value at time t+1 (future), and obtains the current time Data and prediction data can be expressed as a single vector.
여기서, 상기 NN-차원 축소 처리부는, 상기 LSTM 신경망 학습부가 출력하는 벡터를 입력받아, 센서 데이터의 분류를 위한 신경망 학습으로서 NN 신경망 학습을 적용하여, 화재 클래스 또는 화재가 아닌 클래스로 구분할 수 있다.Here, the NN-dimensional reduction processing unit receives the vector output by the LSTM neural network learning unit, applies NN neural network learning as neural network learning for classifying sensor data, and classifies into a fire class or a non-fire class.
여기서, 상기 센서값 수집부는, 각 단위 시간마다 갱신되는 각 센서의 입력에 대하여 단위 크기의 특징 벡터 형태를 구성할 수 있다.Here, the sensor value collection unit may configure a unit-sized feature vector for inputs of each sensor updated at each unit time.
여기서, 상기 이미지 특징 산출부는, 이미지 데이터의 분류를 위해 신경망 방식의 학습 및 처리를 수행하는 CNN 신경망; 및 분류된 이미지로부터 화재를 판별하는 컨피던스 값을 도출하는 이미지 화재 판별부를 포함할 수 있다.Here, the image feature calculation unit may include a CNN neural network that performs neural network learning and processing for classifying image data; and an image fire determination unit for deriving a confidence value for determining a fire from the classified image.
여기서, 상기 통합 컨피던스 판별부는, 센서값 및 이미지에 기반한 화재 판정 알고리즘 및 학습모델의 버전이나 규정된 분량의 단위 학습이 수행된 시점에 따라, 최신 것일수록 가중치를 크게 부여할 수 있다.Here, according to the version of the fire determination algorithm and learning model based on the sensor value and the image or the time point at which the unit learning of the prescribed amount is performed, the integrated confidence determination unit may assign a higher weight to the latest one.
본 발명의 다른 측면에 따른 시계열 데이터 예측 기법과 이미지 분류를 적용한 화재 판별 방법은, 화재 판단의 근거가 되는 각 파라미터를 측정하는 센서들의 측정값들을 수집하는 단계; 시계열 데이터 예측 기법으로 수집된 센서들의 측정값들로부터 화재 관련 특징 정보를 산출하는 단계; 화재 감시 지역의 카메라 촬영 이미지를 수집하는 단계; 이미지 분류 기법을 적용하여 수집된 이미지에 포함된 화재 관련 특징 정보를 산출하는 단계; 상기 이미지로부터 산출된 특징 정보와, 상기 센서의 측정값으로부터 산출된 특징 정보에 감시 대상 지역의 환경에 따른 가중치를 부여하여 통합 컨피던스를 계산하는 단계; 및 계산된 상기 통합 컨피던스가 소정 기준값을 넘으면 화재로 판별하는 단계를 포함할 수 있다.A method for determining a fire using a time-series data prediction technique and image classification according to another aspect of the present invention includes the steps of collecting measurement values of sensors measuring each parameter that is a basis for determining a fire; Calculating fire-related characteristic information from measurement values of sensors collected using a time-series data prediction technique; Collecting camera-captured images of the fire surveillance area; Calculating fire-related feature information included in the collected images by applying an image classification technique; calculating an integrated confidence by assigning a weight according to the environment of a region to be monitored to the feature information calculated from the image and the feature information calculated from the measured value of the sensor; and determining that it is a fire when the calculated integrated confidence exceeds a predetermined reference value.
여기서, 상기 센서들의 측정값들로부터 화재 관련 특징 정보를 산출하는 단계는, 학습된 LSTM을 이용하여 t+1시점의 센서 데이터를 예측하는 단계; t시점의 센서 데이터와 t+1시점의 예측 데이터로 이루어진 Value vector를 구성하는 단계; 학습된 NN 모델을 통과하여 특징 벡터를 추출하는 단계; 2차원 또는 3차원 특징 벡터로 차원 축소를 수행하는 단계; 화재 클래스, 화재 없는 클래스 각각의 중심 데이터와 특징 벡터간의 거리를 계산하여, 가까운 클래스에 할당하는 단계; 및 화재 클래스인 경우 컨피던스 값을 계산하는 단계를 포함할 수 있다.Here, calculating the fire-related feature information from the measurement values of the sensors includes predicting sensor data at time t+1 using the learned LSTM; constructing a value vector consisting of sensor data at time t and predicted data at time t+1; extracting a feature vector by passing through the learned NN model; performing dimensional reduction with a 2-dimensional or 3-dimensional feature vector; Calculating distances between central data and feature vectors of each of the fire class and the non-fire class, and assigning the distance to a nearby class; and calculating a confidence value in the case of a fire class.
여기서, 상기 이미지에 포함된 화재 관련 특징 정보를 산출하는 단계는, CNN을 이용해 특징 벡터를 산출하는 단계; CNN으로부터 화재 클래스를 판별하는 단계; 및 활성화 함수에 따라 컨피던스 값을 계산하는 단계를 포함할 수 있다.Here, calculating the fire-related feature information included in the image may include calculating a feature vector using a CNN; Determining a fire class from CNN; and calculating a confidence value according to the activation function.
여기서, 상기 센서들의 측정값들을 수집하는 단계에서는, 각 단위 시간마다 갱신되는 각 센서의 입력에 대하여 단위 크기의 특징 벡터 형태를 구성할 수 있다.Here, in the step of collecting the measurement values of the sensors, a feature vector form of unit size may be configured for the input of each sensor updated at each unit time.
상술한 구성의 본 발명의 사상에 따른 시계열 데이터 예측 기법과 이미지 분류를 적용한 화재 판별 시스템 및/또는 방법을 실시하면, 화재 징후를 포착함에 있어서 센서의 종류를 가변적으로 늘려도 센서나 측정값의 변화량에 대한 Rule을 직접 정해주지 않아도 되는 이점이 있다.When the fire discrimination system and/or method using the time-series data prediction technique and image classification according to the spirit of the present invention having the above configuration is implemented, even if the type of sensor is variably increased in capturing fire signs, the amount of change in the sensor or measurement value is not affected. It has the advantage of not having to directly determine the rules for
본 발명의 화재 판별 시스템 및/또는 방법은, 센서 값의 변화량을 예측하고, 여러 종류의 센서 값을 활용할 수 있어 다양한 정보에 기반한 화재 판별이 가능한 이점이 있다. 구체적으로, 종래 기술과 비슷하게 카메라를 이용한 이미지와 센서 데이터를 활용하는 부분은 동일하나, 다양한 센서의 조합으로부터 화재와 관련된 여러가지 징후를 포착할 수 있다.The fire determination system and/or method of the present invention has the advantage of being able to predict the amount of change in sensor values and utilize various types of sensor values, thereby enabling fire determination based on various information. Specifically, similar to the prior art, the part of utilizing a camera image and sensor data is the same, but various signs related to fire can be captured from a combination of various sensors.
본 발명의 화재 판별 시스템 및/또는 방법은, 다양한 종류의 센서들로부터 다양한 정보를 동시에 얻는 것 뿐만 아니라, LSTM 신경망을 활용해 센서 값의 예측을 통해 센서 값의 변화량에 대한 정보도 포함하여 화재 판별에 이용하는 이점이 있다.The fire determination system and/or method of the present invention not only obtains various information from various types of sensors simultaneously, but also includes information on the amount of change in sensor values through prediction of sensor values using an LSTM neural network to determine fire There are advantages to using
본 발명의 화재 판별 시스템 및/또는 방법은, 최종 컨피던스(Confidence) 계산 시 가중치 값을 다르게 두어, 이미지에 의한 판별, 센서에 의한 판별 각각에 대한 신뢰 정도를 반영할 수 있는 이점이 있다.The fire determination system and/or method of the present invention has the advantage of being able to reflect the degree of confidence in each of determination by image and determination by sensor by setting different weight values when calculating the final confidence.
본 발명의 화재 판별 시스템 및/또는 방법은, Rule base가 아닌 딥러닝을 활용하여 화재와 각 센서 간의 관계, 화재와 각 센서의 변화량 과의 복잡한 관계를 동시에 직접 학습할 수 있는 이점이 있다.The fire discrimination system and / or method of the present invention has the advantage of being able to directly learn the relationship between a fire and each sensor and the complex relationship between a fire and the amount of change of each sensor at the same time by using deep learning rather than a rule base.
도 1은 종래 기술에 따른 화재감지시스템을 도시한 구성도.
도 2는 본 발명의 사상에 따른 화재 판별 시스템의 일 실시예를 도시한 블록도.
도 3은 도 2의 화재 판별 시스템의 적용 기법에 대한 세부 구성들을 도시한 세부 블록도.
도 4는 도 2의 센서값 수집부에서 수집하는 입력 센서값 데이터들을 예시한 데이터 구조도.
도 5는 도 3의 LSTM 신경망 학습부에서 생성하는 LSTM 출력 데이터의 학습 구조도.
도 6은 도 3의 NN(Neural Network)-차원 축소 처리부의 세부 구성도.
도 7은 확률 분포의 클래스 중심점에서의 벡터 거리를 도출하는 과정을 설명하는 그래프.
도 8a 및 8b는 본 발명의 사상에 따른 화재 판별 방법의 일 실시예를 도시한 흐름도들. 1 is a configuration diagram showing a fire detection system according to the prior art.
Figure 2 is a block diagram showing an embodiment of a fire detection system according to the spirit of the present invention.
Figure 3 is a detailed block diagram showing detailed configurations of the application technique of the fire determination system of Figure 2;
4 is a data structure diagram illustrating input sensor value data collected by the sensor value collection unit of FIG. 2;
5 is a diagram showing the learning structure of LSTM output data generated by the LSTM neural network training unit of FIG. 3;
6 is a detailed configuration diagram of a Neural Network (NN)-dimensional reduction processing unit of FIG. 3;
7 is a graph illustrating a process of deriving a vector distance from a class center point of a probability distribution.
8a and 8b are flow charts illustrating an embodiment of a fire determination method according to the spirit of the present invention.
본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지 않을 수 있다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms. Terms are only for the purpose of distinguishing one element from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
어떤 구성요소가 다른 구성요소에 연결되어 있다거나 접속되어 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다.When a component is referred to as being connected or connected to another component, it may be directly connected or connected to the other component, but it may be understood that another component may exist in the middle. .
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions may include plural expressions unless the context clearly dictates otherwise.
본 명세서에서, 포함하다 또는 구비하다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다. In this specification, the terms include or include are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features or numbers, It can be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.
또한, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, shapes and sizes of elements in the drawings may be exaggerated for clearer description.
도 2는 본 발명의 사상에 따른 화재 판별 시스템의 일 실시예를 도시한 블록도이다.2 is a block diagram showing an embodiment of a fire detection system according to the spirit of the present invention.
도시한 화재 판별 시스템은, CCTV 등 카메라 촬영 이미지를 수집하는 이미지 데이터 수집부(140); 이미지 분류 기법을 적용하여 수집된 이미지에 포함된 화재 관련 특징 정보를 산출하는 이미지 특징 산출부(400); 화재 판단의 근거가 되는 각 파라미터를 측정하는 각 센서의 측정값들을 수집하는 센서값 수집부(120); 시계열 데이터 예측 기법으로 수집된 센서들의 측정값들로부터 화재 관련 특징 정보를 산출하는 센서값 특징 산출부(200); 감시 대상 지역의 환경에 따라, 상기 이미지 특징 산출부가 산출한 특징 정보와, 상기 센서값 특징 산출부(200)가 산출한 특징 정보에 가중치를 부여하여 통합 컨피던스를 계산하고, 계산된 상기 통합 컨피던스가 소정 기준값을 넘으면 화재로 판별하는 통합 컨피던스(확률값) 계산 및 화재 판별부(500)를 포함할 수 있다.The illustrated fire determination system includes an image
도 3은 도 2의 화재 판별 시스템의 적용 기법에 대한 세부 구성들을 도시한 세부 블록도이다.FIG. 3 is a detailed block diagram showing detailed configurations of an application technique of the fire detection system of FIG. 2 .
도 2의 센서값 특징 산출부(200)는, 도 3에서 각 센서의 측정값들을 시계열로 수집하여 LSTM 신경망 학습을 수행하는 LSTM 신경망 학습부(200-1); 및The sensor value
상기 LSTM 신경망 학습을 수행한 결과를 활용하여 상기 센서의 측정값들의 클래스를 추론하는 NN-차원 축소 처리부(200-2)를 포함할 수 있다.It may include a NN-dimensional reduction processing unit 200-2 for inferring a class of measurement values of the sensor by using a result of performing the LSTM neural network learning.
도 4는 도 2의 센서값 수집부(120)에서 수집하는 입력 센서값 데이터들을 예시한 데이터 구조도이다.FIG. 4 is a data structure diagram illustrating input sensor value data collected by the sensor
상기 센서값 수집부(120)는, 서로 다른 대상의 값을 측정할 목적을 가진 N개의 센서로부터 입력을 받는 부분(온도, CO, VOC, IR 등)이다. 예컨대, 각 센서의 입력은 동일한 단위 시간마다 갱신되며, 매 time step 마다 1XN 크기의 특징 벡터 형태를 구성할 수 있다.The sensor
시계열(time series) 특성을 갖도록 a시점 이전(t-a)부터 현재 시점(t)까지를 LSTM 신경망의 입력으로 구현되도록, 상기 센서값 수집부(120)는 충분한 버퍼링 크기를 갖는 것이 유리하다.It is advantageous for the sensor
예컨대, 최종 입력 데이터의 사이즈는 axN의 형태로, 보다 구체적으로, timestep a=20, sensor개수(N)=5 인 경우, 20x5 array가 될 수 있다.For example, the size of the final input data is in the form of axN, and more specifically, when timestep a = 20 and the number of sensors (N) = 5, it can be a 20x5 array.
도 5는 도 3의 LSTM 신경망 학습부(200-1)에서 생성하는 LSTM 출력 데이터를 예시한다.FIG. 5 illustrates LSTM output data generated by the LSTM neural network learning unit 200-1 of FIG. 3 .
도 5는 LSTM 신경망 학습 구조를 표현한 것으로, 시계열 특성이 있는 이전 시점의 센서 데이터들을 활용해 LSTM 신경망 학습 수행함을 알 수 있다. 5 shows the LSTM neural network learning structure, and it can be seen that LSTM neural network learning is performed using sensor data of a previous time point having time series characteristics.
학습된 LSTM을 활용한 센서 값 예측 과정을 예시하면, 학습된 LSTM 모델을 이용해 t+1 시점의 센서 값을 예측하고, t시점(현재)의 센서 값과 t+1시점(미래)의 센서 값 확보하고, 현재 시점 데이터와 예측 데이터를 하나의 벡터로 표현하여 다음 과정의 입력으로 사용할 수 있다.As an example of the sensor value prediction process using the learned LSTM, the sensor value at time t+1 is predicted using the learned LSTM model, and the sensor value at time t (current) and the sensor value at time t+1 (future) It can be secured, and the current time data and predicted data can be expressed as a vector and used as an input for the next process.
LSTM은 시계열이나 문자열과 같이 데이터 간의 연관성이 있는 특징을 추출하는데 유리한 신경망이다. 본 발명에서는 LSTM 신경망 학습 방안을 적용함으로써, 필드에 따라 다양한 종류들의 각종 파라미터들의 센서들 중에서 선택된 화재 감지 센서들을, 각각 그 사양 정보를 입력하지 않아도, 시계열 학습의 특성상 학습 기간 동안 정상 입력 범위와 이상(재난) 발생시 기준 편차를 적합하게 반영할 수 있다. LSTM is a neural network that is advantageous for extracting features with correlation between data, such as time series or strings. In the present invention, by applying the LSTM neural network learning method, the fire detection sensors selected from among sensors of various types of various parameters according to the field can be selected from the normal input range and abnormality during the learning period due to the nature of time series learning, even without inputting the respective specification information. When a (disaster) occurs, the standard deviation can be appropriately reflected.
도 6은 도 3의 NN(Neural Network)-차원 축소 처리부(200-2)의 세부 구성을 도시하며, 도 7은 클래스의 중심 거리 계산 방법을 도시한다.FIG. 6 shows a detailed configuration of a Neural Network (NN)-dimensional reduction processing unit 200-2 of FIG. 3, and FIG. 7 shows a method of calculating a center distance of a class.
도 7은 확률 분포의 클래스 중심점에서의 벡터 거리를 도출하는 과정을 설명하는 그래프이다. 도 7은는 데이터의 분산을 고려한 마할라노비스 거리 계산법 사용한 결과를 나타낸다.7 is a graph illustrating a process of deriving a vector distance from a class center point of a probability distribution. 7 shows the results of using the Mahalanobis distance calculation method considering the variance of data.
도 6의 NN-차원 축소 처리부(200-2)는 상기 LSTM 신경망 학습부(200-1)가 출력하는 벡터를 입력받아, 센서 데이터의 분류를 위한 신경망 학습으로서 NN 신경망 학습을 적용한다. 즉, 상기 센서값 수집부(120) 및 상기 LSTM 신경망 학습부(200-1)를 거친 학습 데이터를 활용해 클래스를 분류(화재 클래스, 화재가 아닌 클래스)할 수 있도록 NN 학습을 NN 학습 모델(260)에 대하여 수행한다. 또한, 학습 데이터에 대해 화재 클래스, 화재가 없는 클래스의 각각에 대해 중심 데이터를 결정하여, 도 7과 같이 클래스 분포의 중심벡터를 형성한다. The NN-dimensional reduction processing unit 200-2 of FIG. 6 receives the vector output from the LSTM neural network learning unit 200-1 and applies NN neural network learning as neural network learning for classification of sensor data. That is, NN learning is performed as a NN learning model (fire class, non-fire class) to classify classes using the learning data that has passed through the sensor
센서 값들로부터 클래스를 추론하는 과정은 다음과 같다.The process of inferring a class from sensor values is as follows.
입력 센서 값이 상기 센서값 수집부(120) 및 상기 LSTM 신경망 학습부(200-1)를 거치고, 학습된 NN 모델(260)에 통과시켜 특징 벡터를 얻는다.The input sensor values pass through the sensor
다음, 차원 축소기(270)에서 차원 축소와 시각화가 동시에 가능한 TSNE/UMAP등의 방법을 활용해 좌표 평면 상에 데이터를 플롯(Plot)한다.Next, the
다음, 거리 확률 결정부(280)에서 데이터 분포가 고려되는 마할라노비스 거리측정법에 따라 입력 데이터와 앞서 구한 중심 데이터 간의 벡터 거리를 결정한다. 또한, 거리에 따른 확률 값을 확률 분포를 통해 결정하여, 컨피던스 값(화재가 아닌 경우 confidence value = 0)를 도출한다.Next, the distance
다음, 도 3의 이미지 특징 산출부(400) 및 통합 컨피던스 계산부(500)의 동작에 대하여 설명하겠다.Next, operations of the image
상기 이미지 특징 산출부(400)는, 이미지 데이터의 분류를 위해 신경망 방식의 학습 및 처리를 수행하는 CNN(Convolutional Neural Network) 신경망(420); 및 이미지로부터 화재를 판별하는 이미지 화재 판별부(450)를 포함할 수 있다.The
상기 CNN 신경망(420)은 카메라로부터 입력된 이미지를 활용해 화재 이미지, 화재가 없는 이미지를 분류할 수 있도록 CNN 학습을 수행하고, 이미지 화재 판별부(450)는 상기 이미지 데이터 수집부(140)에서 수집한 이미지를 입력으로 하여, 학습된 신경망을 활용해 화재 여부를 판별하고, 컨피던스 값을 도출한다.The CNN
상기 통합 컨피던스 계산부(500)는, 상기 NN-차원 축소 처리부(200-2) 및 상기 이미지 화재 판별부(450)에서 각각 출력된 컨피던스를 각각 가중치를 주어 최종 통합 컨피던스(Total confidence)를 계산한다. 이때, 센서 데이터를 활용하는 상기 센서값 수집부(120)로부터 상기 NN-차원 축소 처리부(200-2)까지의 경로로 계산된 컨피던스와, 이미지를 활용하여 상기 이미지 특징 산출부(400)에서 계산된 컨피던스에 대한 환경 조건등에 따른 신뢰 정도를 반영하여 가중치를 결정할 수 있다.The integrated
예컨대, 감시 대상 영역 및 센서/카메라의 설치 위치들이 기온/습도 등 환경 파라미터의 변동폭이 작은 실내인 경우, 센서값에서 기반한 컨피던스(특징)에 더 큰 가중치를 부여할 수 있다.For example, when the area to be monitored and installation locations of the sensors/cameras are indoors where environmental parameters, such as temperature/humidity, fluctuate less, a greater weight may be assigned to the confidence (characteristic) based on the sensor values.
반대로, 감시 대상 영역 및 센서/카메라의 설치 위치들이 기온 및 습도의 변동폭이 큰 실외의 경우, 이미지에 기반한 컨피던스(특징)에 더 큰 가중치를 부여할 수 있다.Conversely, in the case of an outdoor area where a subject area to be monitored and installation locations of sensors/cameras have a large fluctuation range of temperature and humidity, a greater weight may be assigned to the confidence (characteristic) based on the image.
예컨대, 센서값 및 이미지에 기반한 화재 판정 알고리즘/학습모델의 버전이나 규정된 분량의 단위 학습이 수행된 시점에 따라, 최신 것일수록 가중치를 크게 부여할 수 있다.For example, according to the version of the fire determination algorithm/learning model based on sensor values and images or the time point at which unit learning of a prescribed quantity is performed, the newer one may be given a higher weight.
도 8a 및 8b는 본 발명의 사상에 따른 화재 판별 방법의 일 실시예를 도시한 흐름도이다. 도 8a 및 8b에서 S330 단계 이후는 하나의 흐름으로 통합될 수 있다.8a and 8b are flowcharts illustrating an embodiment of a fire determination method according to the spirit of the present invention. Steps S330 and after in FIGS. 8A and 8B may be integrated into one flow.
도시한 화재 판별 방법은, 화재 판단의 근거가 되는 각 파라미터를 측정하는 센서들의 측정값들을 수집하는 단계(S110); 시계열 데이터 예측 기법으로 수집된 센서들의 측정값들로부터 화재 관련 특징 정보를 산출하는 단계(S120 ~ S180); 화재 감시 지역의 카메라 촬영 이미지를 수집하는 단계(S210); 이미지 분류 기법을 적용하여 수집된 이미지에 포함된 화재 관련 특징 정보를 산출하는 단계(S250 ~ S280); 상기 이미지로부터 산출된 특징 정보와, 상기 센서의 측정값으로부터 산출된 특징 정보에 감시 대상 지역의 환경에 따른 가중치를 부여하여 통합 컨피던스를 계산하는 단계(S330); 및 계산된 상기 통합 컨피던스가 소정 기준값을 넘으면 화재로 판별하는 단계(S340, S350)를 포함할 수 있다.The illustrated fire determination method includes the steps of collecting measurement values of sensors for measuring each parameter that is a basis for determining a fire (S110); Calculating fire-related characteristic information from measurement values of sensors collected by a time-series data prediction technique (S120 to S180); Collecting camera images of the fire monitoring area (S210); Calculating fire-related feature information included in the collected images by applying an image classification technique (S250 to S280); calculating an integrated confidence by assigning weights according to the environment of the area to be monitored to the feature information calculated from the image and the feature information calculated from the measured value of the sensor (S330); and determining a fire if the calculated integrated confidence exceeds a predetermined reference value (S340, S350).
상기 센서들의 측정값들을 수집하는 단계(S110)에서는, 각 단위 시간마다 갱신되는 각 센서의 입력에 대하여 단위 크기의 특징 벡터 형태를 구성할 수 있다.In the step of collecting the measured values of the sensors (S110), a feature vector form of unit size may be configured for the input of each sensor updated at each unit time.
예컨대, 상기 센서의 측정값들을 수집하는 단계(S110)에서는, t-a시점부터 t시점까지의 센서 데이터를 감시 대상 사이트에 대하여 설치된 각종 센서들로부터 입력받을 수 있다. 이에 따라, 상기 센서들의 측정값들을 수집하는 단계(S110)에서는, 각 단위 시간마다 갱신되는 각 센서의 입력에 대하여 단위 크기의 특징 벡터 형태를 구성할 수 있다.For example, in the step of collecting the measured values of the sensors (S110), sensor data from time t-a to time t may be received from various sensors installed for the site to be monitored. Accordingly, in the step of collecting the measured values of the sensors (S110), a feature vector form of unit size may be configured for the input of each sensor updated at each unit time.
도시한 상기 센서들의 측정값들로부터 화재 관련 특징 정보를 산출하는 단계(S120 ~ S180)는, 학습된 LSTM을 이용하여 t+1시점의 센서 데이터를 예측하는 단계(S120); t시점의 센서 데이터와 t+1시점의 예측 데이터로 이루어진 Value vector를 구성하는 단계(S130); 학습된 NN(Neural Network) 모델을 통과하여 특징 벡터를 추출하는 단계(S140); 2차원 또는 3차원 특징 벡터로 차원 축소를 수행하는 단계(S150); 화재 클래스, 화재 없는 클래스 각각의 중심 데이터와 특징 벡터간의 거리를 계산하여, 가까운 클래스에 할당하는 작업, 즉, 중심까지의 거리에 따라 클래스를 판별하는 단계(S160, S170); 및 화재 클래스인 경우 컨피던스 값을 계산하고, 아닌 경우는 Confidence=0으로 지정하는 단계(S180, S185)를 포함할 수 있다.Calculating fire-related feature information from the measured values of the sensors shown (S120 to S180) includes predicting sensor data at time t+1 using the learned LSTM (S120); constructing a value vector consisting of sensor data at time t and predicted data at time t+1 (S130); Extracting a feature vector by passing through a learned Neural Network (NN) model (S140); performing dimensional reduction with a 2-dimensional or 3-dimensional feature vector (S150); Calculating the distance between the central data and the feature vector of each of the fire class and the non-fire class and assigning the distance to a nearby class, that is, determining the class according to the distance to the center (S160 and S170); and calculating a confidence value if it is a fire class and designating it as Confidence = 0 (S180, S185) if it is not.
도시한 상기 이미지에 포함된 화재 관련 특징 정보를 산출하는 단계(S250 ~ S280)는, CNN을 이용해 특징 벡터를 산출하는 단계(S250); CNN으로부터 화재 클래스를 판별하는 단계(S270); 활성화 함수에 따라 컨피던스 값을 계산하고, 아닌 경우는 Confidence=0으로 지정하는 단계(S280, S285)를 포함할 수 있다.Calculating the fire-related feature information included in the illustrated image (S250 to S280) includes calculating a feature vector using a CNN (S250); Determining a fire class from CNN (S270); Calculating the confidence value according to the activation function, and otherwise designating the confidence value as 0 (S280, S285) may be included.
상기 통합 컨피던스를 계산하는 단계(S330)에서는, 상기 S180 단계 및 상기 S280 단계의 각 출력 결과에 대해 가중치 반영하여 최종적인 화재 판정 인자로서 통합 컨피던스를 계산한다.In the step of calculating the integrated confidence (S330), the combined confidence is calculated as a final fire determination factor by applying a weight to each output result of the steps S180 and S280.
상기 화재로 판별하는 단계(S340, S350)에서는, 문턱값(Threshold)보다 최종 컨피던스 값이 크면 화재로 최종 판별하고(S350), 그렇지 않으면 화재 없음으로 판별할 수 있다(S355).In the step of determining fire (S340, S350), if the final confidence value is greater than the threshold value, it is finally determined as fire (S350), otherwise it can be determined as no fire (S355).
본 발명이 속하는 기술 분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains should understand that the embodiments described above are illustrative in all respects and not limiting, since the present invention can be embodied in other specific forms without changing the technical spirit or essential characteristics thereof. only do The scope of the present invention is indicated by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. .
120 : 센서값 수집부
140 : 이미지 데이터 수집부
200 : 센서값 특징 산출부
200-1 : LSTM 신경망 학습부
200-2 : NN-차원 축소 처리부
400 : 이미지 특징 산출부
500 : 통합 컨피던스 계산 및 화재 판별부120: sensor value collection unit
140: image data collection unit
200: sensor value characteristic calculator
200-1: LSTM neural network learning part
200-2: NN-dimensional reduction processing unit
400: image feature calculator
500: integrated confidence calculation and fire determination unit
Claims (11)
이미지 분류 기법을 적용하여 수집된 이미지에 포함된 화재 관련 특징 정보를 산출하는 이미지 특징 산출부;
화재 판단의 근거가 되는 각 파라미터를 측정하는 각 센서의 측정값들을 수집하는 센서값 수집부;
시계열 데이터 예측 기법으로 수집된 센서들의 측정값들로부터 화재 관련 특징 정보를 산출하는 센서값 특징 산출부;
감시 대상 지역의 환경에 따라, 상기 이미지 특징 산출부가 산출한 특징 정보와, 상기 센서값 특징 산출부가 산출한 특징 정보에 가중치를 부여하여 통합 컨피던스를 계산하고, 계산된 상기 통합 컨피던스가 소정 기준값을 넘으면 화재로 판별하는 통합 컨피던스 판별부
를 포함하는 시계열 데이터 예측 기법과 이미지 분류를 적용한 화재 판별 시스템.
an image data collection unit that collects images captured by the camera;
an image feature calculation unit that calculates fire-related feature information included in the collected images by applying an image classification technique;
a sensor value collection unit that collects measurement values of each sensor that measures each parameter that is a basis for determining a fire;
a sensor value feature calculation unit that calculates fire-related feature information from measurement values of sensors collected using a time-series data prediction technique;
Depending on the environment of the area to be monitored, the feature information calculated by the image feature calculation unit and the feature information calculated by the sensor value feature calculation unit are weighted to calculate integrated confidence, and if the calculated integrated confidence exceeds a predetermined reference value, Integrated confidence determination unit that determines fire
A fire discrimination system using time-series data prediction techniques and image classification.
상기 센서값 특징 산출부는,
각 센서의 측정값들을 시계열로 수집하여 LSTM 신경망 학습을 수행하는 LSTM 신경망 학습부; 및
상기 LSTM 신경망 학습을 수행한 결과를 활용하여 상기 센서의 측정값들의 클래스를 추론하는 NN-차원 축소 처리부
를 포함하는 화재 판별 시스템.
According to claim 1,
The sensor value feature calculation unit,
an LSTM neural network learning unit that collects measurement values of each sensor in time series and performs LSTM neural network learning; and
NN-dimensional reduction processing unit for inferring the class of the measured values of the sensor by using the result of performing the LSTM neural network learning
A fire detection system comprising a.
상기 LSTM 신경망 학습부는,
학습된 LSTM 모델을 이용해 t+1 시점의 센서 값을 예측하고, t시점(현재)의 센서 값과 t+1시점(미래)의 센서 값을 확보하여, 현재 시점 데이터와 예측 데이터를 하나의 벡터로 표현하는 화재 판별 시스템.
According to claim 2,
The LSTM neural network learning unit,
Using the learned LSTM model, the sensor value at time t+1 is predicted, the sensor value at time t (current) and the sensor value at time t+1 (future) are secured, and the data at the current time and the predicted data are combined into one vector A fire identification system expressed as
상기 NN-차원 축소 처리부는,
상기 LSTM 신경망 학습부가 출력하는 벡터를 입력받아, 센서 데이터의 분류를 위한 신경망 학습으로서 NN 신경망 학습을 적용하여, 화재 클래스 또는 화재가 아닌 클래스로 구분하는 화재 판별 시스템.
According to claim 3,
The NN-dimensional reduction processing unit,
A fire discrimination system that receives the vector output by the LSTM neural network learning unit and classifies it into a fire class or a non-fire class by applying NN neural network learning as neural network learning for classifying sensor data.
상기 센서값 수집부는,
각 단위 시간마다 갱신되는 각 센서의 입력에 대하여 단위 크기의 특징 벡터 형태를 구성하는 화재 판별 시스템.
According to claim 1,
The sensor value collection unit,
A fire detection system that constitutes a feature vector of unit size for each sensor's input updated at each unit time.
상기 이미지 특징 산출부는,
이미지 데이터의 분류를 위해 신경망 방식의 학습 및 처리를 수행하는 CNN 신경망; 및
분류된 이미지로부터 화재를 판별하는 컨피던스 값을 도출하는 이미지 화재 판별부
를 포함하는 화재 판별 시스템.
According to claim 1,
The image feature calculator,
a CNN neural network that performs neural network-type learning and processing for classifying image data; and
An image fire determination unit that derives a confidence value for determining a fire from a classified image
A fire detection system comprising a.
상기 통합 컨피던스 판별부는,
센서값 및 이미지에 기반한 화재 판정 알고리즘 및 학습모델의 버전이나 규정된 분량의 단위 학습이 수행된 시점에 따라, 최신 것일수록 가중치를 크게 부여하는 화재 판별 시스템.
According to claim 1,
The integrated confidence determination unit,
Depending on the version of the fire determination algorithm and learning model based on sensor values and images or the time point at which the prescribed amount of unit learning has been performed, a fire determination system that assigns a higher weight to the latest one.
시계열 데이터 예측 기법으로 수집된 센서들의 측정값들로부터 화재 관련 특징 정보를 산출하는 단계;
화재 감시 지역의 카메라 촬영 이미지를 수집하는 단계;
이미지 분류 기법을 적용하여 수집된 이미지에 포함된 화재 관련 특징 정보를 산출하는 단계;
상기 이미지로부터 산출된 특징 정보와, 상기 센서의 측정값으로부터 산출된 특징 정보에 감시 대상 지역의 환경에 따른 가중치를 부여하여 통합 컨피던스를 계산하는 단계; 및
계산된 상기 통합 컨피던스가 소정 기준값을 넘으면 화재로 판별하는 단계
를 포함하는 시계열 데이터 예측 기법과 이미지 분류를 적용한 화재 판별 방법.
Collecting measurement values of sensors that measure each parameter that is a basis for determining a fire;
Calculating fire-related characteristic information from measurement values of sensors collected using a time-series data prediction technique;
Collecting camera-captured images of the fire surveillance area;
Calculating fire-related feature information included in the collected images by applying an image classification technique;
calculating an integrated confidence by assigning a weight according to the environment of a region to be monitored to the feature information calculated from the image and the feature information calculated from the measured value of the sensor; and
Determining a fire when the calculated integrated confidence exceeds a predetermined reference value
A fire discrimination method using time series data prediction techniques and image classification, including .
상기 센서들의 측정값들로부터 화재 관련 특징 정보를 산출하는 단계는,
학습된 LSTM을 이용하여 t+1시점의 센서 데이터를 예측하는 단계;
t시점의 센서 데이터와 t+1시점의 예측 데이터로 이루어진 Value vector를 구성하는 단계;
학습된 NN 모델을 통과하여 특징 벡터를 추출하는 단계;
2차원 또는 3차원 특징 벡터로 차원 축소를 수행하는 단계;
화재 클래스, 화재 없는 클래스 각각의 중심 데이터와 특징 벡터간의 거리를 계산하여, 가까운 클래스에 할당하는 단계; 및
화재 클래스인 경우 컨피던스 값을 계산하는 단계
를 포함하는 화재 판별 방법.
According to claim 8,
Calculating fire-related characteristic information from the measured values of the sensors,
Predicting sensor data at time t+1 using the learned LSTM;
constructing a value vector consisting of sensor data at time t and predicted data at time t+1;
extracting a feature vector by passing through the learned NN model;
performing dimensional reduction with a 2-dimensional or 3-dimensional feature vector;
Calculating distances between central data and feature vectors of each of the fire class and the non-fire class, and assigning the distance to a nearby class; and
Steps to calculate confidence value in case of fire class
Fire determination method comprising a.
상기 이미지에 포함된 화재 관련 특징 정보를 산출하는 단계는,
CNN을 이용해 특징 벡터를 산출하는 단계;
CNN으로부터 화재 클래스를 판별하는 단계; 및
활성화 함수에 따라 컨피던스 값을 계산하는 단계
를 포함하는 화재 판별 방법.
According to claim 8,
Calculating the fire-related feature information included in the image,
Calculating a feature vector using CNN;
Determining a fire class from CNN; and
Calculating the confidence value according to the activation function
Fire determination method comprising a.
상기 센서들의 측정값들을 수집하는 단계에서는,
각 단위 시간마다 갱신되는 각 센서의 입력에 대하여 단위 크기의 특징 벡터 형태를 구성하는 화재 판별 방법.
According to claim 8,
In the step of collecting the measured values of the sensors,
A fire discrimination method that constructs a feature vector form of unit size for the input of each sensor updated at each unit time.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210192735A KR20230102532A (en) | 2021-12-30 | 2021-12-30 | Fire detection system and method using time series data prediction thchnique and image classification |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210192735A KR20230102532A (en) | 2021-12-30 | 2021-12-30 | Fire detection system and method using time series data prediction thchnique and image classification |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230102532A true KR20230102532A (en) | 2023-07-07 |
Family
ID=87153856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210192735A KR20230102532A (en) | 2021-12-30 | 2021-12-30 | Fire detection system and method using time series data prediction thchnique and image classification |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230102532A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117592789A (en) * | 2024-01-18 | 2024-02-23 | 山东金桥保安器材有限公司 | Power grid environment fire risk assessment method and equipment based on time sequence analysis |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101544019B1 (en) | 2013-06-07 | 2015-08-13 | 박종호 | Fire detection system using composited video and method thereof |
-
2021
- 2021-12-30 KR KR1020210192735A patent/KR20230102532A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101544019B1 (en) | 2013-06-07 | 2015-08-13 | 박종호 | Fire detection system using composited video and method thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117592789A (en) * | 2024-01-18 | 2024-02-23 | 山东金桥保安器材有限公司 | Power grid environment fire risk assessment method and equipment based on time sequence analysis |
CN117592789B (en) * | 2024-01-18 | 2024-04-16 | 山东金桥保安器材有限公司 | Power grid environment fire risk assessment method and equipment based on time sequence analysis |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5224401B2 (en) | Monitoring system and method | |
Tyndall et al. | Occupancy estimation using a low-pixel count thermal imager | |
Salimi et al. | Occupancy prediction model for open-plan offices using real-time location system and inhomogeneous Markov chain | |
US11729597B2 (en) | Digital twin disaster management system customized for underground public areas | |
CN116777713B (en) | Intelligent park safety management method and system based on data analysis | |
JP2018173914A (en) | Image processing system, imaging apparatus, learning model creation method, and information processing device | |
KR20070029760A (en) | Monitoring devices | |
CN108460864B (en) | People flow estimation system and fault processing method for same | |
US7295106B1 (en) | Systems and methods for classifying objects within a monitored zone using multiple surveillance devices | |
WO2006101477A1 (en) | Nuisance alarm filter | |
US20200300707A1 (en) | Method, apparatus and system for passive infrared sensor framework | |
KR20200074503A (en) | Fire mornitoring method and system using cctv image recognition based on deep learning | |
Baek et al. | Intelligent multi-sensor detection system for monitoring indoor building fires | |
CN114913663B (en) | Abnormality detection method, abnormality detection device, computer device, and storage medium | |
KR102182008B1 (en) | Control system and method using integrated environmental monitoring | |
KR20230102532A (en) | Fire detection system and method using time series data prediction thchnique and image classification | |
KR20200119921A (en) | Intelligent fire identification apparatus, intelligent fire identification method and recording medium | |
CN209433517U (en) | It is a kind of based on more flame images and the fire identification warning device for combining criterion | |
KR20230102342A (en) | Fire management system and method for based on smart-housing platform | |
TWI793581B (en) | Method and system of detecting dynamic status of a space | |
CN114005235A (en) | Security monitoring method, system, medium and electronic terminal | |
KR102614856B1 (en) | System and method for predicting risk of crowd turbulence | |
CN113269111A (en) | Elevator abnormal behavior detection method and system based on video monitoring | |
KR20180131775A (en) | Method and System for detecting fire using genetic algorithm | |
KR102464196B1 (en) | Big data-based video surveillance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |