KR102465105B1 - Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data - Google Patents
Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data Download PDFInfo
- Publication number
- KR102465105B1 KR102465105B1 KR1020220042482A KR20220042482A KR102465105B1 KR 102465105 B1 KR102465105 B1 KR 102465105B1 KR 1020220042482 A KR1020220042482 A KR 1020220042482A KR 20220042482 A KR20220042482 A KR 20220042482A KR 102465105 B1 KR102465105 B1 KR 102465105B1
- Authority
- KR
- South Korea
- Prior art keywords
- fire
- electronic device
- image
- area
- optical
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 121
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 87
- 230000003287 optical effect Effects 0.000 claims abstract description 209
- 239000000779 smoke Substances 0.000 claims abstract description 74
- 238000012544 monitoring process Methods 0.000 claims abstract description 71
- 238000001514 detection method Methods 0.000 claims abstract description 42
- 230000033001 locomotion Effects 0.000 claims description 58
- 238000001914 filtration Methods 0.000 claims description 22
- 239000013598 vector Substances 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000001931 thermography Methods 0.000 claims description 6
- 239000002131 composite material Substances 0.000 abstract description 3
- 230000001133 acceleration Effects 0.000 description 77
- 230000008569 process Effects 0.000 description 55
- 238000010586 diagram Methods 0.000 description 44
- 238000004891 communication Methods 0.000 description 17
- 238000012549 training Methods 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000006378 damage Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/10—Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/0014—Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation from gases, flames
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/02—Constructional details
- G01J5/03—Arrangements for indicating or recording specially adapted for radiation pyrometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V1/00—Seismology; Seismic or acoustic prospecting or detecting
- G01V1/008—Earthquake measurement or prediction
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
Abstract
Description
본 개시는 재난을 감지하는 방법 및 이를 수행하는 전자 장치에 관한 것이다. 보다 상세하게는 열화상 복합 데이터를 이용하는 인공지능 모델을 기반으로, 화재 또는 지진 중 적어도 하나에 관한 재난을 감지하는 방법 및 이를 수행하는 전자 장치에 관한 것이다.The present disclosure relates to a method for detecting a disaster and an electronic device for performing the same. More particularly, it relates to a method of detecting a disaster related to at least one of a fire or an earthquake based on an artificial intelligence model using thermal image composite data, and an electronic device for performing the same.
인공지능 기술이 점차 발전함에 따라 인공지능 기술을 활용하여 재난을 감지하는 기술 개발이 요구되고 있다. 특히, 최근 기후 변화 등과 같은 환경 이슈로 다양한 재난들이 발생하고 있으며, 이러한 재난들에 따른 피해를 줄이기 위해 다양한 재난 감시 기술들에 인공 지능 기술을 적용하기 위한 시도들이 이루어지고 있다.With the gradual development of artificial intelligence technology, it is required to develop a technology to detect disasters using artificial intelligence technology. In particular, various disasters have recently occurred due to environmental issues such as climate change, and attempts are being made to apply artificial intelligence technology to various disaster monitoring technologies to reduce damage caused by these disasters.
특히, 현대 사회에서는 인구 밀도가 증가함에 따라 재난 발생 시 재난으로 인한 피해 규모 역시 커지는 문제점이 있으므로, 어느 곳에나 쉽게 설치 가능하고, 지진 및 화재와 같은 재난을 쉽고 정확하게 감지할 수 있는 기술 개발을 통해 인명 피해를 방지할 필요가 있다.In particular, in modern society, as the population density increases, there is a problem that the damage caused by a disaster also increases when a disaster occurs. It is necessary to prevent personal injury.
인공 지능 기술을 재난 감지에 적용하기 위한 다양한 기술들이 시도되고 있으나, 예측 정확도에 한계가 있으며, 모니터링 대상 공간에 대해 획득된 다양한 종류의 복합 데이터들에 최적화된 인공지능 모델 설계 기술 개발이 요구되고 있다. 또한, 인공지능 모델 및 영상 처리 알고리즘을 복합적으로 이용하여 모니터링 대상 공간 내 화재를 조기 감지하고 효율적으로 진압하기 위한 기술 개발이 요구되고 있다.Various technologies have been tried to apply artificial intelligence technology to disaster detection, but there is a limit to the prediction accuracy, and the development of artificial intelligence model design technology optimized for various types of complex data acquired for the monitoring target space is required. . In addition, there is a demand for technology development for early detection and efficient suppression of fires in the space to be monitored by using artificial intelligence models and image processing algorithms in combination.
일 실시 예에 의하면, 재난을 감지하는 방법 및 이를 수행하는 전자 장치가 제공될 수 있다.According to an embodiment, a method for detecting a disaster and an electronic device for performing the same may be provided.
보다 상세하게는 열화상 이미지 또는 광학 이미지 데이터 중 적어도 하나를 포함하는 복합 데이터에 대해 불꽃 또는 연기 분석 알고리즘과 인공 지능 모델을 함께 적용함으로써 재난을 감지하는 방법 및 이를 수행하는 전자 장치가 제공될 수 있다.In more detail, a method for detecting a disaster by applying a flame or smoke analysis algorithm and an artificial intelligence model together to composite data including at least one of thermal image or optical image data, and an electronic device for performing the same may be provided. .
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시 예에 의하면, 전자 장치가 재난을 감지하는 방법은 감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하는 단계; 상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하는 단계; 상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하는 단계; 상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하는 단계; 및 상기 획득된 1차 화재 식별 결과 또는 2차 화재 식별 결과 중 적어도 하나에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하는 단계; 를 포함할 수 있다.As a technical means for achieving the above-described technical problem, according to an embodiment, a method for detecting a disaster by an electronic device includes: acquiring a thermal image by monitoring a monitoring target area; acquiring an optical image by monitoring the area to be monitored; Based on whether the position of the thermal image fire identification area indicating the temperature in the preset critical range in the thermal image and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the monitoring obtaining a primary fire identification result for the target area; obtaining a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model by inputting the optical image into an artificial intelligence model; and determining whether a fire has occurred in the monitoring target area based on at least one of the obtained primary fire identification result and secondary fire identification result; may include.
상술한 기술적 과제를 해결하기 위한 또 다른 실시 예에 의하면, 재난을 감지하는 전자 장치에 있어서, 열화상 카메라; 광학 카메라; 네트워크 인터페이스; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행하는 복수의 프로세서; 를 포함하고, 상기 복수의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하고, 상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하고, 상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하고, 상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하고, 상기 획득된 1차 화재 식별 결과 또는 2차 화재 식별 결과 중 적어도 하나에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하는, 전자 장치가 제공될 수 있다.According to another embodiment for solving the above technical problem, there is provided an electronic device for detecting a disaster, comprising: a thermal imaging camera; optical camera; network interface; a memory storing one or more instructions; and a plurality of processors executing the one or more instructions. Including, wherein the plurality of processors by executing the one or more instructions, obtain a thermal image by monitoring the area to be monitored, obtain an optical image by monitoring the area to be monitored, and a preset in the thermal image Based on whether the position of the thermal image fire identification area indicating the temperature in the critical range and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the primary fire for the area to be monitored Obtaining an identification result, and inputting the optical image into an artificial intelligence model, to obtain a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model, and the obtained primary fire An electronic device that determines whether a fire occurs in the monitoring target area based on at least one of an identification result or a secondary fire identification result may be provided.
상술한 기술적 과제를 해결하기 위한 또 다른 실시 예에 의하면, 전자 장치가 재난을 감지하는 방법에 있어서, 감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하는 단계; 상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하는 단계; 상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하는 단계; 상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하는 단계; 및 상기 획득된 1차 화재 식별 결과 또는 2차 화재 식별 결과 중 적어도 하나에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하는 단계; 를 포함하는, 방법을 수행하도록 하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.According to another embodiment for solving the above-described technical problem, there is provided a method for detecting a disaster by an electronic device, the method comprising: acquiring a thermal image by monitoring an area to be monitored; acquiring an optical image by monitoring the area to be monitored; Based on whether the position of the thermal image fire identification area indicating the temperature in the preset critical range in the thermal image and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the monitoring obtaining a primary fire identification result for the target area; obtaining a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model by inputting the optical image into an artificial intelligence model; and determining whether a fire has occurred in the monitoring target area based on at least one of the obtained primary fire identification result and secondary fire identification result; A computer-readable recording medium in which a program for performing the method is stored, including a computer-readable recording medium may be provided.
일 실시 예에 의하면 광학 이미지 및 열화상 이미지를 복합적으로 이용함으로써 재난을 효과적으로 감지할 수 있다.According to an embodiment, a disaster may be effectively detected by using an optical image and a thermal image in combination.
일 실시 예에 의하면 인공 지능 모델 및 이미지 처리 알고리즘을 각각 수행하는 복수의 프로세서를 이용하여 광학 이미지 데이터 및 열화상 이미지 데이터를 효과적으로 분석할 수 있다.According to an exemplary embodiment, optical image data and thermal image data may be effectively analyzed using a plurality of processors that respectively perform an artificial intelligence model and an image processing algorithm.
도 1은 일 실시 예에 따른 전자 장치가 재난을 감지하는 과정을 개략적으로 설명하기 위한 도면이다.
도 2는 일 실시 예에 따른 전자 장치가 소정의 감시 대상 영역을 모니터링하는 동작을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 전자 장치가 재난을 감지하는 방법의 흐름도이다.
도 4는 또 다른 실시 예에 따른 전자 장치가 재난을 감지하는 방법의 흐름도이다.
도 5는 일 실시 예에 따른 전자 장치가 지진 발생 여부를 결정하는 과정을 구체적으로 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 전자 장치의 내부 구조를 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 전자 장치가 1차 화재 식별 결과를 획득하는 과정을 구체적으로 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 전자 장치가 광학 화재 식별 영역의 위치를 식별하는 과정을 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 전자 장치가 화재 후보 영역을 결정하는 과정을 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 전자 장치가 적어도 하나의 화재 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 전자 장치가 제로 크로스 카운트 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 12는 일 실시 예에 따른 전자 장치가 하이패스 필터 면적 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 13은 일 실시 예에 따른 전자 장치가 주기성 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 14는 일 실시 예에 따른 전자 장치가 움직임 영역 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 15는 일 실시 예에 따른 전자 장치가 무빙 오브젝트 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 전자 장치가 불꽃을 감지 결과에 기초하여 1차 화재 식별 여부를 결정하는 과정을 나타내는 흐름도이다.
도 17은 일 실시 예에 따른 전자 장치의 블록도이다.
도 18은 또 다른 실시 예에 따른 전자 장치의 블록도이다.
도 19는 일 실시 예에 따른 서버의 블록도이다.
도 20은 일 실시 예에 따른 전자 장치 및 서버가 서로 연동함으로써 재난을 감지하는 과정을 설명하기 위한 도면이다.
도 21은 또 다른 실시 예에 따른 전자 장치 및 서버가 서로 연동함으로써 재난을 감지하는 방법을 수행하는 과정을 설명하기 위한 도면이다.
도 22는 일 실시 예에 따른 전자 장치가 인공 지능 모델을 학습시키기 위한 학습 데이터를 생성하는 과정을 설명하기 위한 도면이다.
도 23은 일 실시 예에 따른 전자 장치가 인공 지능 모델을 이용하여 알람 이벤트를 생성하는 과정을 설명하기 위한 도면이다.
도 24는 일 실시 예에 따른 전자 장치가 연기 감지 조건에 따라 연기를 감지하는 방법을 구체적으로 설명하기 위한 도면이다.
도 25는 일 실시 에에 따른 전자 장치가 감지한 연기 감지 결과를 나타내는 도면이다.1 is a diagram schematically illustrating a process in which an electronic device detects a disaster according to an exemplary embodiment.
FIG. 2 is a diagram for describing an operation of an electronic device monitoring a predetermined monitoring target area according to an exemplary embodiment.
3 is a flowchart of a method for an electronic device to detect a disaster according to an embodiment.
4 is a flowchart of a method for detecting a disaster by an electronic device according to another exemplary embodiment.
5 is a diagram for describing in detail a process in which an electronic device determines whether an earthquake occurs, according to an exemplary embodiment.
6 is a diagram for describing an internal structure of an electronic device according to an exemplary embodiment.
7 is a diagram for describing in detail a process in which an electronic device acquires a first fire identification result, according to an exemplary embodiment.
FIG. 8 is a diagram for describing a process in which an electronic device identifies a location of an optical fire identification area according to an exemplary embodiment.
9 is a diagram for describing a process in which an electronic device determines a fire candidate area according to an exemplary embodiment.
10 is a diagram for describing a process in which an electronic device determines at least one fire index, according to an exemplary embodiment.
11 is a diagram for describing a process in which an electronic device determines a zero cross count index, according to an exemplary embodiment.
12 is a diagram for describing a process in which an electronic device determines a high-pass filter area index, according to an exemplary embodiment.
13 is a diagram for describing a process in which an electronic device determines a periodicity index, according to an embodiment.
14 is a diagram for describing a process in which an electronic device determines a motion region index, according to an embodiment.
15 is a diagram for describing a process in which an electronic device determines a moving object index, according to an embodiment.
16 is a flowchart illustrating a process in which an electronic device determines whether to identify a primary fire based on a result of detecting a flame, according to an embodiment.
17 is a block diagram of an electronic device according to an embodiment.
18 is a block diagram of an electronic device according to another embodiment.
19 is a block diagram of a server according to an embodiment.
20 is a diagram for explaining a process of detecting a disaster by interworking between an electronic device and a server according to an embodiment.
21 is a diagram for explaining a process of performing a method for detecting a disaster by interworking between an electronic device and a server according to another embodiment.
22 is a diagram for describing a process of generating, by an electronic device, learning data for learning an artificial intelligence model, according to an embodiment.
23 is a diagram for describing a process in which an electronic device generates an alarm event using an artificial intelligence model, according to an exemplary embodiment.
24 is a diagram for describing in detail a method for an electronic device to detect smoke according to a smoke detection condition, according to an exemplary embodiment.
25 is a diagram illustrating a smoke detection result detected by an electronic device according to an exemplary embodiment.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present disclosure will be described in detail.
본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present disclosure have been selected as currently widely used general terms as possible while considering the functions in the present disclosure, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
도 1은 일 실시 예에 따른 전자 장치가 재난을 감지하는 과정을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating a process in which an electronic device detects a disaster according to an exemplary embodiment.
일 실시 예에 의하면, 전자 장치(1000)는 광학 이미지(102), 열화상 이미지(104) 또는 기타 재난 정보(105) 중 적어도 하나를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 미리 설정된 간격의 프레임 간격을 가지는 복수의 광학 이미지들 또는 열화상 이미지들 중 적어도 하나를 획득할 수 있다. 일 실시 예에 의하면 기타 재난 정보(105)는 적어도 하나의 센서(예컨대 3축 가속도 센서)를 통하여 획득되는 지진파 정보를 포함할 수 있다. 본 개시에 따른 전자 장치(1000)는 광학 이미지 및 열화상 이미지에서 나타나는 복합 데이터에 기초하여 화재를 조기에 감지하고, 효과적으로 진압할 수 있는 지능형 화재 감지 시스템에 사용될 수 있다. According to an embodiment, the
예를 들어, 전자 장치(1000)는 광학 이미지(102) 또는 열화상 이미지(104) 중 적어도 하나를 분석하고, 이미지 분석 결과에 기초하여 화재 발생 여부를 결정할 수 있다. 또한, 전자 장치(1000)는 지진파 정보(104)를 획득하고, 지진파 정보의 분석 결과에 기초하여 지진 발생 여부를 결정할 수 있다. 전자 장치(1000)는 화재 또는 지진 중 적어도 하나의 재난이 발생하는 경우, 발생한 것으로 결정한 재난에 관한 정보를 재난 알림 정보(144)로써 출력할 수 있다.For example, the
일 실시 예에 의하면, 전자 장치(1000)는 서버(2000)와 연동함으로써, 재난 알림 정보(144)를 출력할 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)는 서버(2000)를 통하여 적어도 하나의 광학 이미지, 적어도 하나의 열화상 이미지 또는 지진파 정보를 획득할 수도 있다. 일 실시 예에 의하면, 서버(2000)는 전자 장치(1000)와 네트워크를 통하여 통신 연결되고, 데이터를 송수신할 수 있는 기타 컴퓨팅 장치를 포함할 수 있다. 일 실시 예에 의하면, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다.According to an embodiment, the
일 실시 예에 의하면, 전자 장치(1000)는 다양한 형태로 구현될 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 풍력터빈 나셀 내부 화재 감지 시스템 내부에 구현됨으로써, 연기, 온도, 영상, 열화상, 자외선 등 복합 센서 데이터 정보를 기초로 인공지능 PHM(Prognostics and Health Management) 기술을 적용함으로써 화재를 조기에 감지하고 이를 진압하는데 사용되는 컴퓨팅 장치일 수 있다.According to an embodiment, the
예를 들어, 본 명세서에서 기술되는 전자 장치(1000)는 풍력터빈 나셀 내부 화재 감지 시스템 내부에 위치하여 감시 대상 영역을 모니터링하는, 디지털 카메라, 모바일 단말, 스마트 폰(smart phone), CCTV, 카메라 장치, 노트북 컴퓨터(laptop computer), 태블릿 PC 일 수 있으나, 이에 한정되는 것은 아니다. 일 실시 예에 의하면 편의상 본 개시에 따른 전자 장치(1000)는 CCTV 장치 또는 CCT 장치를 제어하기 위한 프로세서를 포함하는 컴퓨팅 장치일 수 있다. For example, the
일 실시 예에 의하면, 전자 장치(1000)는 광학 카메라(110), 열화상 카메라(111), 적어도 하나의 센서(112), 네트워크 인터페이스(114), 프로세서(120) 및 메모리(122)를 포함할 수 있다. 그러나 상술한 구성에 한정되는 것은 아니며, 전자 장치(1000)는 후술하는 도 17 내지 도 18에 도시된 바와 같이 더 적은 구성 요소를 포함할 수도 있고, 상술한 구성 외에 더 많은 구성을 포함할 수도 있다.According to an embodiment, the
일 실시 예에 의하면, 프로세서(120)는 메모리(122)에 저장된 하나 이상의 인스트럭션을 수행함으로써 전자 장치(1000)으 전반적인 동작을 제어할 수 있다. 일 실시 예에 의하면, 광학 카메라(110)는 프로세서(120)의 제어에 의해 소정의 감시 대상 영역을 촬영함으로써 소정의 프레임 간격을 가지는 복수의 광학 이미지들을 획득할 수 있다. 일 실시 예에 의하면, 열화상 카메라(111)는 소정의 감시 대상 영역을 모니터링함으로써 감시 대상 영역에 반사되어 수신되는 적외선을 센싱함으로써, 대상 영역에 대한 온도 데이터가 이미지화된 열화상 이미지들을 획득할 수 있다. According to an embodiment, the processor 120 may control the overall operation of the
일 실시 예에 의하면, 적어도 하나의 센서(112)는 광학 이미지 센서, 열화상 이미지 센서, 3축 가속도 센서, 지자기 센서 중 적어도 하나를 포함할 수 있다. 적어도 하나의 센서(112)는 프로세서(120)의 제어에 의해, 이미지 센서 값을 획득하거나, 3축 가속도 정보를 획득하거나, 지자기 정보를 획득하고, 획득된 센서 값들을 프로세서(120)로 전달할 수 있다.According to an embodiment, the at least one sensor 112 may include at least one of an optical image sensor, a thermal image sensor, a three-axis acceleration sensor, and a geomagnetic sensor. At least one sensor 112 may acquire an image sensor value, acquire triaxial acceleration information, acquire geomagnetic information, and transmit the acquired sensor values to the processor 120 under the control of the processor 120 . have.
일 실시 예에 의하면, 네트워크 인터페이스(114)는 적어도 하나의 센서(112)가 획득한 센서 값들을 전자 장치와 연결된 다른 전자 장치로 전송할 수 있다. 또 다른 실시 예에 의하면 네트워크 인터페이스(114)는 전자 장치가 결정한 화재 발생 여부, 지진 발생 여부, 재난 발생 여부에 대한 정보를 외부 통합 관제 시스템으로 전송할 수도 있다. 또 다른 실시 예에 의하면, 네트워크 인터페이스(114)는 서버(2000)로부터 이미지 또는 지진파 정보를 수신할 수도 있다. 또한, 네트워크 인터페이스(114)는 전자 장치가 분석한 재난 알림 정보를 전자 장치와 연결된 다른 전자 장치로 전송할 수도 있다. 또한, 네트워크 인터페이스(114)는 전자 장치와 연결된 다른 전자 장치로부터 지진파 정보, 지진 위치 정보(예컨대 진앙지 정보, PS시 정보) 등을 더 수신할 수도 있다.According to an embodiment, the network interface 114 may transmit sensor values acquired by the at least one sensor 112 to another electronic device connected to the electronic device. According to another embodiment, the network interface 114 may transmit information on whether a fire occurs, an earthquake, or a disaster determined by the electronic device to an external integrated control system. According to another embodiment, the network interface 114 may receive an image or seismic wave information from the
일 실시 예에 의하면, 전자 장치(1000)가 출력하는 재난 알림 정보(144)는 화재 발생 정보 또는 지진 발생 정보 중 적어도 하나를 포함할 수 있다. 일 실시 예에 의하면, 화재 발생 정보는 화재 발생 종류(예컨대 불꽃 또는 연기형), 화재 발생 위치 정보, 화재 발생 규모, 화재 발생에 따른 긴급 구호 정보, 화재 발생에 관한 실시간 뉴스 정보 중 적어도 하나를 포함할 수 있다. 또한, 일 실시 예에 의하면, 지진 발생 정보는 지진 발생 위치, 지진 규모, 지진 강도, 지진 발생에 따른 긴급 구호 정보, 지진 발생에 관한 실시간 뉴스 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the disaster notification information 144 output by the
도 2는 일 실시 예에 따른 전자 장치가 소정의 감시 대상 영역을 모니터링하는 동작을 설명하기 위한 도면이다.FIG. 2 is a diagram for describing an operation of an electronic device monitoring a predetermined monitoring target area according to an exemplary embodiment.
일 실시 예에 의하면, 전자 장치(1000)는 감시 대상 영역을 모니터링하는 CCTV 장치일 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 풍력 터빈 나셀 내부에 설치되는 CCTV 장치일 수도 있다. 그러나 상술한 예에 한정되는 것은 아니며, 전자 장치(1000)는 건물 또는 소정의 외벽(220)에 설치되는 CCTV 장치일 수 있다. 전자 장치(1000)는 건물 또는 소정의 공간 내 외벽(220)에 부착되어 감시 대상 영역(230)을 모니터링할 수 있다. 전자 장치(1000)는 감시 대상 영역을 모니터링함으로써 미리 설정된 간격의 복수의 프레임 이미지를 포함하는 영상을 획득할 수 있다. 또한, 전자 장치(1000)는 설치된 위치에서 적어도 하나의 센서를 이용하여 지진 발생에 따른 지진파 정보를 센싱할 수 있다. According to an embodiment, the
일 실시 예에 의하면, 전자 장치(1000)는 지진이 발생하지 않는 경우에도, 기 설정된 주기에 따라 건물 또는 외벽의 진동을 센싱할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 미리 설정된 주기에 따라 건물 또는 외벽의 진동을 센싱함으로써, 전자 장치(1000)가 설치된 건물 또는 외벽의 공진 주파수를 결정하고, 결정된 공진 주파수에 대한 정보를 전자 장치와 연결된 다른 전자 장치로 미리 전송할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 전자 장치(1000)가 설치된 건물의 공진 주파수를 미리 저장해 둔 후, 공진 주파수에 대응되는 지진파 정보가 센싱되는 경우, 알림 정보를 더 강하게 출력할 수도 있다.According to an embodiment, even when an earthquake does not occur, the
도 3은 일 실시 예에 따른 전자 장치가 재난을 감지하는 방법의 흐름도이다.3 is a flowchart of a method for an electronic device to detect a disaster according to an embodiment.
S310에서, 전자 장치(1000)는 감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 열화상 카메라로부터 미리 설정된 프레임 간격을 가지는 복수의 열화상 이미지들을 획득할 수 있다. 열화상 이미지들은 감시 대상 객체로부터 반사된 적외선 파장을 센싱함으로써 온도 값을 나타내는 복수의 픽셀들을 포함할 수 있다. S320에서, 전자 장치(1000)는 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 광학 카메라로부터 미리 설정된 프레임 간격을 가지는 복수의 광학 이미지들을 획득할 수도 있다.In S310 , the
S330에서, 전자 장치(1000)는 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여 감시 대상 영역에 대한 1차 화재 식별 결과를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 열화상 이미지 내 픽셀 값들에 기초하여 열화상 이미지 내 미리 설정된 임계 범위의 온도를 나타내는 이미지 영역이 있는지 여부를 결정하고, 기 설정된 임계 범위 온도를 나타내는 이미지 영역의 넓이가 임계면적 이상인 경우 해당 열화상 이미지 내 상기 기 설정된 임계 범위 온도를 나타내는 이미지 영역의 위치를 상기 열화상 화재 식별 영역의 위치로 식별할 수 있다.In S330, the
또한, 예를 들어, 전자 장치(1000)는 광학 이미지에 대해 후술하는 불꽃 또는 연기 감지 조건 만족 여부에 기초하여 적어도 하나의 화재 지수를 결정하고, 결정된 적어도 하나의 화재 지수에 기초하여 광학 화재 식별 영역의 위치를 식별할 수 있다. 전자 장치(1000)는 열화상 이미지로부터 열화상 화재 식별 영역의 위치가 결정되지 않거나, 광학 이미지로부터 광학 화재 식별 영역의 위치가 식별되지 않거나, 식별된 열화상 화재 식별 영역의 위치와 식별된 광학 화재 식별 영역의 위치가 매칭되지 않는 경우, 화재가 발생하지 않은 것으로 결정할 수 있다. 본 개시에 따른 전자 장치(1000)는 열화상 이미지 및 광학 이미지를 복합적으로 활용함으로써 1차적으로 화재 식별 결과를 결정할 수 있다.Also, for example, the
S340에서, 전자 장치(1000)는 광학 이미지를 인공 지능 모델에 입력함으로써, 인공 지능 모델로부터 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 전자 장치 내 제1 프로세서를 이용하여 광학 이미지 및 열화상 이미지로부터 1차 화재 식별 결과를 획득하고, 인공 지능 알고리즘을 수행하기 위한 별도의 제2 프로세서를 이용하여 광학 이미지에 대해 인공 지능 모델을 적용함으로써 인공 지능 모델로부터 2차 화재 식별 결과를 획득할 수 있다.In S340 , the
또 다른 실시 예에 의하면, 전자 장치(1000)는 획득된 광학 이미지를, 인공 지능 모델 적용에 최적화된 포맷으로 전처리하고, 전처리된 광학 이미지를 인공 지능 모델에 입력함으로써, 인공 지능 모델로부터 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 확률 값을 2차 화재 식별 결과로 획득할 수도 있다.According to another embodiment, the
일 실시 예에 의하면, 전자 장치(1000)가 이용하는 인공 지능 모델은 심층 신경망(DNN:Deep Neural Network)을 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다. According to an embodiment, the artificial intelligence model used by the
일 실시 예에 의하면 전자 장치(1000)가 이용하는 인공 지능 모델은 광학 이미지 내 연기(예컨대 객체)의 움직임에 대한 픽셀을 추적하고, 해당 픽셀들에 대한 모션 벡터를 식별하며, 광학 이미지 내 배경에 저역 통과 필터를 적용함으로써, 식별된 연기와의 상관성에 따라 광학 이미지 내 연기를 식별하도록 미리 학습된 인공 지능 모델일 수 있다.According to an embodiment, the artificial intelligence model used by the
S350에서, 전자 장치(1000)는 1차 화재 식별 결과 또는 2차 화재 식별 결과 중 적어도 하나에 기초하여 감시 대상 영역에 대한 화재 발생 여부를 결정할 수 있다. 본 개시에 따른 전자 장치(1000)는 광학 이미지 및 열화상 이미지를 복합하는 복합 데이터를 이용할 뿐만 아니라, 미리 학습된 인공 지능 모델을 함께 이용함으로써 화재 발생 여부를 신속 정확하게 결정할 수 있다.In S350 , the
도 4는 또 다른 실시 예에 따른 전자 장치가 재난을 감지하는 방법의 흐름도이다.4 is a flowchart of a method for detecting a disaster by an electronic device according to another exemplary embodiment.
S410 내지 S450은 도 3에서 상술한 S310 내지 S350에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S460에서, 전자 장치(1000)는 적어도 하나의 센서를 이용하여 전자 장치(1000)가 설치된 위치에서 지진파를 센싱함으로써 지진파 정보를 획득할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 3축 가속도 센서 및 지자기 센서 중 적어도 하나를 이용하여 3축 가속도 정보 및 지자기 정보를 획득할 수 있다.Since S410 to S450 may correspond to S310 to S350 described above in FIG. 3 , a detailed description thereof will be omitted. In S460 , the
S470에서, 전자 장치(1000)는 지진파 정보에 기초하여 적어도 하나의 지진 지수를 결정하고, 결정된 지진 지수에 기초하여 지진 발생 여부를 결정할 수 있다. S480에서, 전자 장치(1000)는 화재 발생 여부 또는 지진 발생 여부에 따라 알림 정보를 출력할 수 있다. 본 개시에 따른 전자 장치(1000)는 감시 대상 영역에 대한 화재 발생 여부만을 감지할 뿐만 아니라 지진을 함께 식별함으로써 복합적인 재난을 감지할 수 있다.In S470 , the
도 5는 일 실시 예에 따른 전자 장치가 지진 발생 여부를 결정하는 과정을 구체적으로 설명하기 위한 도면이다.5 is a diagram for describing in detail a process in which an electronic device determines whether an earthquake occurs, according to an exemplary embodiment.
S510에서, 전자 장치(1000)는 지자기 정보에 기초하여 전자 장치가 설치된 위치에서 지자기 방향을 식별할 수 있다. 일 실시 예에 의하면, 지자기 정보는 동서남북 방향에 관한 정보를 포함할 수 있다. S520에서, 전자 장치(1000)는 3축 가속도 정보에 기초하여 3축 가속도 방향을 식별할 수 있다. 일 실시 예에 의하면 전자 장치(1000)는 3축 가속도 센서를 포함하고, 3축 가속도 센서로부터 획득되는 3축 가속도 정보에 기초하여 3축 가속도 방향을 식별할 수 있다. 일 실시 예에 의하면 3축 가속도 방향은, 3축 가속도 정보 내 각축에 대한 가속도 값에 기초하여 결정될 수 있다. 일 실시 예에 의하면 3축 가속도 방향은 지자기 방향과 매칭되지 않은 상태일 수 있다.In S510 , the
일 실시 예에 의하면 도 5에는 도시되지 않았지만, 일 실시 예에 의하면, 전자 장치(1000)는 전자 장치에 설치된 3축 가속도의 가속도 정보를 보정할 수 있다. 일 실시 예에 의하면, 전자 장치 내 3축 가속도 센서는 지면에 평행하게 설치되지 않고, 기준축으로부터 기울어지게 설치될 수 있다. 전자 장치(1000)는 3축 가속도 정보를 획득하고, 획득된 3축 가속도 정보 내 각축에 대한 가속도 값을 보정하는 과정을 더 수행할 수도 있다.According to an embodiment, although not shown in FIG. 5 , according to an embodiment, the
S530에서, 전자 장치(1000)는 3축 가속도 방향을 상기 식별된 지자기 방향에 매칭할 수 있다. 예를 들어, 3축 가속도의 방향과 지자기 방향은 매칭되지 않는 상태일 수 있다. 전자 장치(1000)는 3축 가속도의 방향을 지자기 방향과 매칭함으로써, 3축 가속도 방향이 실제 지자기 방향을 기준으로 어떤 방향에 해당하는지 여부를 식별할 수 있다.In S530, the
S540에서, 전자 장치(1000)는 지자기 방향에 매칭된 3축 가속도 방향을 기준으로 3축 가속도 크기를 모니터링함으로써 최대 지반 가속도를 결정할 수 있다. 일 실시 예에 의하면, 최대지반 가속도는 순수 지진파에서 계측되는 최대 가속도 값일 수 있다. 일 실시 예에 의하면, 최대지반가속도에 기초하여, 전자 장치(1000)는 현재 측정되는 지진의 진도를 결정할 수 있다. S450에서, 전자 장치(1000)는 지자기 방향에 매칭된 3축 가속도 방향 및 상기 결정된 최대 지반 가속도에 기초하여 지진 발생 여부를 결정할 수 있다.In S540 , the
이하에서는 전자 장치(1000)가 3축 가속도 정보를 처리하는 과정을 구체적으로 설명하기로 한다. 일 실시 예에 의하면, 전자 장치(1000)내 3축 가속도 센서는 전자 장치의 수평면 또는 수직면으로부터 기울어지게 배치될 수 있다. 예를 들어, 지면과 수평인 축을 기준으로 가속도 센서의 Y축과 가속도 센서의 Z축은 수평 및 수직에 각각 평행한 Y 기준축 및 Z 기준축으로부터 소정의 각도만큼 기울어진 상태일 수 있다.Hereinafter, a process in which the
전자 장치(1000)는 3축 가속도 센서로부터 x축 출력 값, y축 출력 값을 획득할 수 있다. 전자 장치(1000)는 와 같은 식을 이용하여 현재 가속도 센서의 z축 출력 값을 결정할 수 있다. 전자 장치(1000)는 가속도 센서의 y축 출력 값 및 z축 출력 값을 와 같은 수식에 적용함으로써 x축이 지면과 이루는 각도를 측정할 수 있다. 또한, 전자 장치(1000)는 가속도 센서 x축 출력 값 및 z축 출력 값을 와 같은 수식에 적용함으로써, y축에 대한 각도를 결정할 수 있다. 일 실시 예에 의하면 z축에 대한 각도를 결정되지 않을 수 있다. 일 실시 예에 의하면, 재난감지 카메라 내 3축 가속도 센서의 z축은 실제 z축 방향과 일치하도록 마련될 수 있다. 전자 장치(1000)는 가속도 센서의 각 축에 대한 각도 값을 상술한 바와 같이 결정한 다음, 결정된 가속도 센서의 각축에 대한 각도 값을 수평인 각도로 치환하여 보정된 3축 가속도 센서의 출력 값을 획득할 수 있다.The
이하에서는 전자 장치(1000)가 최대 지반 가속도에 기초하여 진도를 결정하는 과정을 구체적으로 설명하기로 한다. 예를 들어, 전자 장치(1000)는 3축 가속도 센서의 출력 값을 이용하여 최대지반가속도를 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 지면에서 수평 방향을 기준으로 최대지반 가속도를 측정할 수도 있다. 전자 장치(1000)는 미리 저장된 최대지반 가속도 및 진도 정보가 매칭된 테이블에 기초하여, 상기 결정된 최대지반 가속도에 따른 진도를 결정할 수 있다. 전자 장치(1000)는 결정된 진도가 기 설정된 임계 진도 이상인 경우, 지자기 방향에 매칭된 3축 가속도 방향을 기준으로 지진이 발생한 것으로 결정할 수 있다. 또한, 일 실시 예에 의하면, 전자 장치(1000)는 3축 가속도 정보를 이용하여 지진파를 실시간으로 이미지화할 수 있다. 전자 장치(1000)는 실시간으로 이미지화된 지진파의 진폭을 직접 측정함으로써 최대지반 가속도를 측정할 수도 있다.Hereinafter, a process in which the
이하에서는, 전자 장치(1000)가 지진 발생 위치를 식별하기 위한 과정을 구체적으로 설명하기로 한다. 일 실시 예에 의하면, 전자 장치(1000)는 3축 가속도 센서를 이용하여 P파 및 S파가 도달하는 시간의 차이인 PS 시를 측정할 수 있다. 전자 장치(1000)는 PS시가 측정되면, 측정된 PS시를 이용하여 현재 전자 장치가 설치된 위치에서 진앙까지의 거리를 결정할 수 있다. 전자 장치(1000)는 진앙까지의 거리를 반지름으로 하는 제1 진앙원을 결정할 수 있다. 또한, 전자 장치(1000)는 전자 장치와 연결된 다른 2이상의 전자 장치로부터, 다른 전자 장치의 위치 정보 및 다른 전자 장치가 결정한, 다른 전자 장치로부터 상기 진앙지까지 거리에 관한 진앙지 정보를 획득할 수 있다. 전자 장치(1000)는 다른 전자 장치로부터 획득된 진앙지 정보에 기초하여 제2 진앙원 및 제3 진앙원을 결정할 수 있다.Hereinafter, a process for the
일 실시 예에 의하면, 전자 장치(1000)는 3개의 진앙 거리를 반지름으로 하는 각 진앙원의 공통 현의 교차점을 실제 진앙지로 식별할 수 있다. 또한, 전자 장치(1000)는 진앙을 지나는 최단 공통현의 길이의 1/2 값을 진앙지로부터 진원까지의 깊이로 결정할 수 있다. 전자 장치(1000)는 진앙지의 위치 및 진앙지로부터 진원지까지의 깊이 정보를 진원지 정보로 결정할 수 있다. 전자 장치(1000)는 진원지 정보, 진앙지 정보, 상기 최대지반가속도에 기초하여 결정된 지진의 진도에 관한 정보를 알림 정보로써 출력할 수 있다.According to an embodiment, the
도 6은 일 실시 예에 따른 전자 장치의 내부 구조를 설명하기 위한 도면이다.6 is a diagram for describing an internal structure of an electronic device according to an exemplary embodiment.
도 6에 도시된 그림 (610)을 참조하면, 전자 장치(1000) 내 구성들 및 상기 구성들 간의 관계가 도시된다. 일 실시 예에 의하면, 전자 장치(1000)는 임베디드 모듈(610), GPU 모듈(620), 3축 가속도 센서(654), IP 모듈(652), CMOS 이미지 센서(630), 열화상 이미지 센서(640)를 포함할 수 있다. 임베디드 모듈(610)은 열화상 이미지 센서 및 광학 이미지 센서(예컨대 CMOS 이미지 센서)로부터 획득되는 열화상 이미지들 및 광학 이미지들을 처리함으로써 1차 화재 식별 결과를 출력할 수 있다. 또한, GPU 모듈(620)은 광학 이미지들에 대한 인공 지능 모델을 적용하는 프로세서로써 인공지능 알고리즘을 수행하기 위한 별도의 프로세서일 수 있다. GPU 모듈(620)은 광학 이미지에 대해 인공 지능 모델을 적용함으로써 인공 지능 모델로부터 2차 화재 식별 결과를 획득하고, 획득된 2차 화재 식별 결과를 임베디드 모듈(610)로 전달하거나, 전자 장치 내 별도의 통합 프로세서로 전달할 수도 있다. 이미지 센서, 열화상 이미지 센서, IP 모듈 및 3축 가속도센서에 대한 기능은 명칭으로부터 통상의 기술자가 자명하게 인식할 수 있는 사항이므로 구체적인 설명은 생략하기로 한다.Referring to a figure 610 illustrated in FIG. 6 , components in the
도 7은 일 실시 예에 따른 전자 장치가 1차 화재 식별 결과를 획득하는 과정을 구체적으로 설명하기 위한 도면이다.7 is a diagram for describing in detail a process in which an electronic device acquires a first fire identification result, according to an exemplary embodiment.
S710에서, 전자 장치(1000)는 열화상 이미지의 픽셀 값에 기초하여 기 설정된 임계 범위의 온도를 만족하는 일부 이미지 영역들에 관한 열화상 화재 식별 영역의 위치를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 스프링 클러의 기준을 도입하여 72도 내지 100도 사이의 열이 열화상 이미지로부터 감지되는 경우 열화상 이미지로부터 화재가 발생한 것으로 식별되는 열화상 화재 식별 영역의 위치를 식별할 수 있다.In S710 , the
보다 상세하게는, 전자 장치(1000)는 열화상 이미지 내 픽셀 값에 기초하여 상기 기 설정된 임계 범위의 온도를 나타내는 픽셀들을 식별하고, 식별된 픽셀들을 포함하는 복수의 클러스터를 결정할 수 있다. 전자 장치(1000)는 결정된 클러스터들 중 소정의 임계 면적이상의 면적을 가지는 클러스터를 식별하고, 식별된 클러스터 중 가장 큰 면적을 가지는 클러스터를 열화상 화재 식별 영역으로 결정할 수 있다.In more detail, the
전자 장치(1000)는 열화상 이미지에서 식별되는 소정의 임계 범위를 만족하는 클러스터 중 가장 큰 면적을 가지는 열화상 화재 식별 영역의 열화상 이미지상 위치 또는 열화상 이미지가 나타내는 물리적 공간상의 위치를 식별할 수 있다. 일 실시 예에 의하면 열화상 화재 식별 영역의 열화상 이미지상 위치는 열화상 화재 식별 영역을 구성하는 픽셀들의 좌표 정보, 열화상 화재 식별 영역의 최외곽 가장자리에 위치된 픽셀들의 좌표 정보에 따른 외곽 경계 정보 중 적어도 하나를 포함할 수 있다. 그러나, 또 다른 실시 예에 따라 전자 장치(1000)는 열화상 이미지에서 소정의 임계 범위를 가지는 온도가 감지되지 않는 경우 열화상 화재 식별 영역의 위치를 식별하지 못할 수도 있음은 물론이다.The
S720에서, 전자 장치(1000)는 광학 이미지 내 상기 불꽃 또는 연기 감지 조건을 결정하는데 사용되는 적어도 하나의 화재 지수에 기초하여 광학 화재 식별 영역의 위치를 식별할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 광학 이미지로부터 화재 후보 영역을 결정하고, 화재 후보 영역 내 픽셀 값들에 기초하여, 불꽃 또는 연기 감지 조건에 대한 다양한 종류의 화재 지수들을 결정하며, 결정된 화재 지수들이 지수 조건을 만족하는 경우, 화재 후보 영역을 화재 의심 영역으로 식별할 수 있다. 전자 장치(1000)는 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 기 설정된 임계치 이상인 경우, 화재 후보 영역의 위치를 광학 화재 식별 영역의 위치로 식별할 수 있다. 전자 장치(1000)가 광학 화재 식별 영역의 위치를 결정하는 방법은 후술하는 도 8을 참조하여 구체적으로 설명하기로 한다.In S720 , the
S730에서, 전자 장치(1000)는 식별된 열화상 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여 1차 화재 식별 결과를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 열화상 이미지에 기초하여 결정되는 열화상 화재 식별 영역의 위치와, 광학 이미지로부터 결정되는 화재 식별 영역의 위치가 매칭되는 경우, 감시 대상 영역에 화재가 발생한 것으로 결정하고, 감시 대상 영역에 대해 화재가 발생하였다는 1차 화재 식별 결과를 출력할 수 있다.In S730 , the
일 실시 예에 의하면, 전자 장치(1000)가 열화상 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 매칭되는지 여부는, 이미지 상에서 실제 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 매칭되는지 여부에 따라 결정될 수도 있으나, 또 다른 실시 예에 의하면, 실제 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 각각 나타내는 물리적 공간상에서의 위치가 매칭되는지 여부에 따라 결정될 수도 있다.According to an embodiment, the
그러나 또 다른 실시 예에 의하면, 전자 장치(1000)는 열화상 이미지로부터 열화상 화재 식별 영역의 위치가 결정되지 않거나, 광학 이미지로부터 광학 화재 식별 영역의 위치가 결정되지 않거나, 열화상 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 결정되더라도, 열화상 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 매칭되지 않는 경우, 화재가 발생하지 않은 것으로 결정하고, 화재가 발생하지 않았다는 1차 화재 식별 결과를 출력할 수도 있다.However, according to another embodiment, in the
도 8은 일 실시 예에 따른 전자 장치가 광학 화재 식별 영역의 위치를 식별하는 과정을 설명하기 위한 도면이다.FIG. 8 is a diagram for describing a process in which an electronic device identifies a location of an optical fire identification area according to an exemplary embodiment.
S810에서, 전자 장치(1000)는 획득된 광학 이미지 내 픽셀들의 RGB 데이터를 HSL 데이터로 변환할 수 있다. 일 실시 예에 의하면, HSL 데이터는 색상(HUE), 채도(SATURATION) 및 명도(LIGHTNESS) 값을 포함할 수 있다. S820에서, 전자 장치(1000)는 HSL 데이터에 기초하여 광학 이미지 내 화재 후보 영역을 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 이미지 내 화재 후보 영역을 결정함에 있어 서로 다른 수준의 임계치를 이용함으로써, 보다 정확한 화재 후보 영역을 결정할 수 있다. 전자 장치(1000)가 서로 다른 수준의 임계치를 이용하여 광학 이미지 내 정확한 화재 후보 영역을 결정하는 방법은 후술하는 도 9를 참조하여 구체적으로 설명하기로 한다.In S810 , the
S830에서, 전자 장치(1000)는 결정된 화재 후보 영역에 대해 불꽃 또는 연기 감지 조건에 관한 적어도 하나의 화재 지수를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 화재 후보 영역에 대하여 적어도 하나의 화재 지수를 결정할 수 있다. 일 실시 예에 의하면 화재 지수는 전자 장치(1000)가 화재 발생 여부를 판단하는데 이용되는 이미지 또는 영상에 대한 파라미터일 수 있다. S840에서, 전자 장치(1000)는 적어도 하나의 화재 지수에 기초하여 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수를 식별할 수 있다. 예를 들어 전자 장치(1000)는 적어도 하나의 화재 지수가 각각에 대한 화재 지수 조건을 모두 만족하는 경우, 해당 화재 후보 영역을 화재 의심영역으로 식별하고, 화재 의심 카운트 수를 1만큼 증가시킬 수 있다.In S830, the
S850에서, 전자 장치(1000)는 식별된 횟수가 기 설정된 임계치 이상인 경우, 화재 후보 영역의 위치를 광학 화재 식별 영역의 위치로 결정할 수 있다. 일 실시 예에 의하면 화재 후보 영역의 위치는, 광학 이미지에서 결정된 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 임계치 이상인 경우, 광학 이미지에서 화재 후보 영역을 구성하는 픽셀들의 좌표 정보, 화재 후보 영역의 최외곽 가장자리에 위치된 픽셀들의 좌표 정보에 따른 외곽 경계 정보 중 적어도 하나를 포함할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 화재 의심 영역으로 식별되는 횟수가 임계치 이상인 화재 후보 영역이 나타내는 실제 물리적인 공간상의 위치를 광학 화재 식별 영역의 위치로 식별할 수도 있다.In S850, when the number of times identified is equal to or greater than a preset threshold, the
도 9는 일 실시 예에 따른 전자 장치가 화재 후보 영역을 결정하는 과정을 설명하기 위한 도면이다.9 is a diagram for describing a process in which an electronic device determines a fire candidate area according to an exemplary embodiment.
S920에서, 전자 장치(1000)는 HSL 데이터 내 색상, 채도 및 명도 값을 식별하고, 식별된 색상, 채도 및 명도 값이 모두 소정의 임계치 이상인 픽셀들을 포함하는 제1 후보 영역을 결정할 수 있다.In S920 , the
S940에서, 전자 장치(1000)는 HSL 데이터 내 상기 색상, 상기 채도 또는 상기 명도 중 적어도 하나가 상기 소정의 임계치 이상인 픽셀들을 식별할 수 있다. 일 실시 예에 의하면, S940에서 식별된 픽셀들의 수는 제1 후보 영역에 포함된 픽셀의 수 보다 많을 수 있다. S960에서, 전자 장치(1000)는 S940에서 식별된 픽셀들 주변의 픽셀들의 색상, 채도 및 명도 값 모두가 상기 소정의 임계치 이상인 경우, 상기 색상, 채도 또는 명도 중 적어도 하나가 소정의 임계치 이상인 픽셀들 및 상기 제1 후보 영역에 포함된 픽셀들을 포함하는 제2 후보 영역으로 결정할 수 있다. S980에서, 전자 장치(1000)는 제2 후보 영역을 화재 후보 영역으로 결정할 수 있다.In S940 , the
즉, 본 개시에 따른 전자 장치(1000)는 제1 임계 기준(예컨대 이미지 내 각 픽셀의 색상, 채도 및 명도 모두가 임계치 이상일 것)을 이용하여, 이미지로부터 제1 후보 영역을 결정한 후, 제1 임계 기준보다 낮은 제2 임계 기준(예컨대 이미지 내 각 픽셀의 색상, 채도 또는 명도 중 적어도 하나가 임계치 이상일 것)을 이용하여 제2 후보 영역을 결정한 후, 제2 후보 영역을 화재 후보 영역으로 결정할 수 있다. 일 실시 예에 의하면, 제2 후보 영역에는 상기 제1 후보 영역에 포함되지 않았던 픽셀들이 포함될 수 있다.That is, the
바람직하게는, 제1 후보 영역에서는 포함되지 않았던 픽셀이 제2 후보 영역에서는 후보 영역으로 포함될 수 있다. 본 개시에 따른 전자 장치(1000)는 색상, 채도 및 명도 중 명도의 기준은 유지하고, 색상의 기준을 완화하여 임계 기준을 설정함으로써, 화재 후보 영역을 더 정확하게 결정할 수 있다.Preferably, a pixel not included in the first candidate area may be included as a candidate area in the second candidate area. The
도 10은 일 실시 예에 따른 전자 장치가 적어도 하나의 화재 지수를 결정하는 과정을 설명하기 위한 도면이다.10 is a diagram for describing a process in which an electronic device determines at least one fire index, according to an exemplary embodiment.
S1010에서, 전자 장치(1000)는 복수의 광학 이미지들 중 인접하는 3개의 프레임 번호를 가지는 복수의 광학 이미지들 내 화재 후보 영역에 대한 하이패스 필터링을 수행함으로써 제로 크로스 카운트 지수를 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 제로 크로스 카운트 지수가 소정의 임계치 이상인 경우, 카운트된 화재 의심 영역 식별 횟수를 초기화할 수 있다.In S1010 , the
일 실시 예에 의하면, S1020에서, 전자 장치(1000)는 하이패스 필터 변수가 0이 아닌 픽셀의 수의 프레임 이미지 별 변화량에 관한 하이패스 필터 면적 지수를 결정할 수 있다. 일 실시 예에 의하면, 하이패스 필터 면적 지수는 하이패스 필터 적용 후 0이 아닌 영역의 넓이에 대응될 수 있다. According to an embodiment, in S1020, the
일 실시 예에 의하면 필터링 수행 후 결과 이미지에 대해 화재 후보 영역에 속하면서 0이 아닌 값을 갖는 영역의 면적의 변화량은 크지 않을 수 있다. 전자 장치(1000)는 하이패스 필터 면적 지수가 소정의 임계치 이상인 경우, 화재 의심 카운트 수를 초기화할 수 있다.According to an embodiment, the amount of change in the area of a region having a non-zero value belonging to a fire candidate region may not be large with respect to the result image after filtering is performed. When the high-pass filter area index is equal to or greater than a predetermined threshold, the
S1030에서, 전자 장치(1000)는 복수의 프레임 이미지들 내 화재 후보 영역의 주기성에 관한 주기성 지수를 결정할 수 있다. 일 실시 예에 의하면 빠르게 반복되는 영상의 경우 화재 의심 영역으로 오검출될 수 있다. 따라서, 전자 장치(1000)는 오 검출률을 줄이기 위해 결정된 주기성 지수의 변화량이 소정의 임계치 이하인 경우, 화재 의심 카운트를 초기화할 수 있다.In S1030 , the
S1040에서, 전자 장치(1000)는 복수의 프레임 이미지들 내 픽셀들 중 픽셀 값 변이가 큰 픽셀들의 수의 변화 정도에 관한 움직임 영역 지수를 결정할 수 있다. 예를 들어, 실제 화재 영역의 경우 시간 축에서의 RGB 데이터의 변이(Variation)이 크게 측정될 수 있다. 전자 장치(1000)는 복수의 프레임 이미지들 내 픽셀 값의 변이가 큰 픽셀을 움직임 픽셀로 추출하고, 프레임 별 움직임 픽셀의 수의 평균과 표준 편차를 이용하여 움직임 영역 지수를 결정할 수 있다.In S1040 , the
S1050에서, 전자 장치(1000)는 복수의 프레임 이미지들 내에서 특정 픽셀의 변이 값이 소정의 임계치 이상으로 나타나는 횟수가 기 설정된 횟수 이상인 픽셀들의 위치에 관한 무빙 오브젝트 지수를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 프레임을 기준으로 각 프레임 내 움직임 픽셀의 수의 변화를 모니터링할 수도 있지만, 각 프레임 내 특정 위치의 픽셀을 기준으로, 해당 픽셀 값 변이를 모니터링함으로써, 화재 발생 여부를 더 정확하게 결정할 수도 있다.In S1050 , the
또한, 도 10에는 도시되지 않았지만, 전자 장치(1000)는 복수의 광학 이미지들이 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정할 수 있다. 전자 장치(1000)는 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별할 수 있다.Also, although not shown in FIG. 10 , the
전자 장치(1000)는 식별된 움직임 영역들을 클러스터링하고, 클러스터링된 움직임 영역들 내 픽셀들 중 그레이 색상 값을 나타내는 픽셀들을 추출할 수 있다. 예를 들어, 전자 장치(1000)는 픽셀의 RGB 데이터 중, R값 및 G값의 차이, R값 및 B 값의 차이와 G값 및 B값의 차이가 각각 미리 설정된 임계차 보다 작은 경우, 해당 픽셀을 그레이 색상 값을 나타내는 픽셀로 추출할 수 있다.The
전자 장치(1000)는 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터를 식별할 수 있다. 전자 장치(1000)는 모션 벡터들이 식별되면 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득할 수 있다. 전자 장치(1000)는 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정할 수 있다. 전자 장치(1000)는 연기 지수가 소정의 임계값 보다 작은 경우, 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수를 초기화할 수 있다. 그러나 전자 장치(1000)는 상술한 제로 크로스 카운트 지수, 하이패스 필터 면적 지수, 주기성 지수, 움직임 영역 지수, 무빙 오브젝트 지수 및 연기 지수가 각각의 지수 조건(화재 의심 영역 카운트수가 초기화되지 않도록 하는 각 지수 별 조건)을 만족하는 경우에는 화재 후보 영역에 대한 화재 의심 카운트 수를 1 증가시킬 수 있다. The
그러나 또 다른 실시 예에 의하면, 전자 장치(1000)는 상술한 화재 지수 중 하나의 지수라도 지수 조건을 만족하지 못하는 경우, 화재 의심 카운트수를 초기화할 수 있다. 전자 장치(1000)는 화재 의심 카운트수가 기 설정된 임계 카운트 이상인 경우에만 화재가 발생한 것으로 식별하기 때문에, 전자 장치(1000)는 높은 정확도로 화재 발생 여부를 결정할 수 있다. 전자 장치(1000)는 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 증가함에 따라 화재 의심 카운트 수가 임계치 보다 크게 식별되는 경우, 해당 화재 후보 영역의 위치를 광학 화재 식별 영역의 위치로 결정할 수 있다.However, according to another embodiment, when even one of the above-described fire indices does not satisfy the index condition, the
도 11은 일 실시 예에 따른 전자 장치가 제로 크로스 카운트 지수를 결정하는 과정을 설명하기 위한 도면이다.11 is a diagram for describing a process in which an electronic device determines a zero cross count index, according to an exemplary embodiment.
도 11의 그림 (1202)에 도시된 인스트럭션 예시를 참조하여 전자 장치(1000)가 제로 크로스 카운트 지수를 결정하는 과정을 구체적으로 설명하기로 한다. 일 실시 예에 의하면, 화재의 특징 중 하나는 깜빡임(플리커, flicker)이다. 예를 들어, 깜빡임이 있는 픽셀은 시간적으로 하이패스 필터링을 수행하게 되면 0값을 반복적으로 크로싱하는 프레임들을 획득할 수 있다. 전자 장치(1000)는 소정의 프레임 주기 단위로 프레임들이 0을 크로싱하는 수를 제로 크로스 카운트 지수로 결정하고, 결정된 제로 크로스 카운트 지수가 소정의 임계값 보다 큰 경우 화재 의심 카운트 수를 증가시킬 수 있다. 그러나 또 다른 실시 예에 의하면, 결정된 제로 크로스 카운트 지수가 소정의 임계값 보다 작은 경우, 전자 장치(1000)는 화재 의심 카운트 수를 초기화할 수도 있다.A process in which the
일 실시 예에 의하면, 전자 장치(1000)는 복수의 프레임 이미지들 중 인접하는 3개의 프레임들 내 화재 후보 영역에 대하여 하이패스 필터링을 수행함으로써 제로 크로스 카운트 지수를 결정할 수 있다. According to an embodiment, the
보다 상세하게는, 전자 장치(1000)는 복수의 프레임 이미지들 중 연속하는 N-1 프레임, N프레임, N+1 프레임 각각에 대해 결정되는 -0.25, 0.5 및 -0.25 가중치에 기초하여 프레임별 픽셀 값들을 가중합함으로써 하이패스 필터링을 수행하고, 하이패스 필터링 수행 결과에 따른 플리커 변수를 픽셀 별로 결정할 수 있다. 도 11을 참조하면 플리커 변수(Flick_var)는 대응되는 위치의 N-1 프레임 내 픽셀 값(pre_pre)에 -0.25를 곱하고, N프레임 내 픽셀 값(pre)에 0.5를 곱하며, N+1 프레임 내 대응되는 위치의 픽셀 값(cur)에 -0.25를 곱한 후 모두 더함으로써 결정될 수 있다. 전자 장치(1000)는 대응되는 위치의 인접하는 3개 프레임 내 각 픽셀들에 소정의 가중치를 적용하여 가중합함으로써 하이패스 필터링을 수행할 수 있다. 전자 장치(1000)는 프레임 내 픽셀 별로 플리커 변수를 결정할 수 있다.In more detail, the
전자 장치(1000)는 픽셀 별로 결정된 플리커 변수 및 소정의 임계치를 비교함으로써, 픽셀 별로 하이패스 필터 변수를 결정할 수 있다. 전자 장치(1000)는 결정된 픽셀 별 하이패스 필터 변수가 소정의 조건을 만족하는지 여부에 기초하여, 제로 크로스 카운트 지수를 증가시킬 수 있다. The
보다 상세하게는, 전자 장치(1000)는 인접하는 3개 프레임 내 픽셀 중 하나라도 화재 후보 영역 내 픽셀로 식별되고, 해당 픽셀의 플리커 변수가 ??threshold(5)보다 작으면 해당 픽셀에 대한 하이패스 필터링 변수(HPFn)를 -127로 설정하고, 플리커 변수가 threshold(5)보다 크면 해당 픽셀에 대한 하이패스 필터링 변수(HPFn)를 128로 설정하며, 플리커 변수가 ??threshold(5)와 threshold(5)사이에 위치하면 하이패스 필터링 변수(HPFn)를 0으로 설정할 수 있다. 또한, 전자 장치(1000)는 인접하는 3개 프레임 내 픽셀들이 모두 화재 후보 영역으로 식별되지 않는 경우, 하이패스 필터링 변수(HPFn)를 0으로 설정할 수 있다. In more detail, the
또한, 전자 장치(1000)는 하이패스 필터링 변수(HPFn)가 0이 아니면, 프레임 별 하이패스 필터링 변수(HPFn)가 0이 아닌 픽셀의 수에 관한 변수인 HPF_count를 증가시킬 수 있다. 또한, 전자 장치(1000)는 만약 현재 프레임 내 특정 위치 픽셀의 하이패스 필터링 변수 (HPFn)가 128이고, 이전 프레임에서 대응되는 위치의 픽셀의 하이패스 필터링 변수 (HPFn-1)가 -127이거나, 현재 프레임 내 특정 위치 픽셀의 하이패스 필터링 변수 (HPFn)가 -127이고, 이전 프레임에서 대응되는 위치의 픽셀의 하이패스 필터링 변수(HPFn-1)가 128이거나, 현재 프레임 내 특정 위치 픽셀의 하이패스 필터링 변수 (HPFn)가 0이고, 이전 프레임에서 대응되는 위치의 픽셀의 하이패스 필터링 변수(HPFn-1)가 0 인 경우 제로 크로스 카운트 지수를 증가시킬 수 있다.Also, when the high-pass filtering variable HPFn is not 0, the
상술한 과정에 따라 전자 장치(1000)는 제로 크로스 카운트 지수가 소정의 임계치 보다 큰 경우 화재 후보 영역을 화재 의심 영역으로 식별하고, 화재 의심 카운트 수를 1증가 시킬 수 있다. 그러나 전자 장치(1000)는 제로 크로스 카운트 지수가 소정의 임계치 보다 작은 경우, 화재 의심 카운트를 초기화할 수 있다.According to the above-described process, when the zero cross count index is greater than a predetermined threshold, the
도 12는 일 실시 예에 따른 전자 장치가 하이패스 필터 면적 지수를 결정하는 과정을 설명하기 위한 도면이다.12 is a diagram for describing a process in which an electronic device determines a high-pass filter area index, according to an exemplary embodiment.
일 실시 예에 의하면, 전자 장치(1000)는 도 11에서 상술한 과정에 따라 픽셀 별로 하이패스 필터 변수(HPFn)를 결정할 수 있다. 전자 장치(1000)는 프레임별, 하이패스 필터 변수가 0이 아닌 픽셀의 수를 HPF_Count 변수에 저장할 수 있다. 도 12의 그림 (1204)를 참조하면, 전자 장치(1000)는 프레임 별 하이패스 필터 변수(HPFn)가 0이 아닌 픽셀의 수의 변화를 모니터링할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 0 내지 30프레임 동안, 프레임 별 하이패스 필터 변수(HPFn)가 0이 아닌 픽셀의 수를 식별하고, 식별된 하이패스 필터 변수(HPFn)가 0이 아닌 픽셀의 수의 최소값, 표준편차 및 평균을 결정할 수 있다.According to an embodiment, the
일 실시 예에 의하면, 전자 장치(1000)는 프레임 별 하이패스 필터 변수가 0이 아닌 픽셀의 수가 가장 적은 최소 값이 소정의 임계치 보다 작은 경우, 하이패스 필터 면적 지수를 결정하지 않을 수 있다. 그러나, 프레임 별 하이패스 필터 변수가 0이 아닌 픽셀의 수가 가장 적은 최소 값이 소정의 임계치 보다 큰 경우에는, 전자 장치(1000)는 프레임 별 하이패스 필터 변수가 0이 아닌 픽셀의 수의 표준편차를 평균으로 나눔으로써 하이패스 필터 면적 지수를 결정할 수 있다. 전자 장치(1000)는 하이패스 필터 면적 지수가 소정의 임계치 보다 작은 경우, 화재 의심 카운트수를 증가시킬 수 있다. 그러나, 전자 장치(1000)는 하이패스 필터 면적 지수가 소정의 임계치 보다 큰 경우에는 화재의심 카운트를 초기화할 수 있다.According to an embodiment, the
도 13은 일 실시 예에 따른 전자 장치가 주기성 지수를 결정하는 과정을 설명하기 위한 도면이다.13 is a diagram for describing a process in which an electronic device determines a periodicity index, according to an embodiment.
도 13의 그림 (1206)을 참조하면, 전자 장치(1000)는 복수의 프레임 이미지들 중 하나의 프레임 이미지를 기준 프레임 이미지로 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 기준 프레임 이미지를 Backup 프레임으로 결정할 수 있다. 전자 장치(1000)는 기준 프레임 이미지 및 기준 프레임을 포함하는 복수의 프레임 이미지들(예컨대 1 내지 30프레임들 또는 1 내지 59 프레임들) 사이에 period check inter-frame difference를 수행할 수 있다.Referring to the figure 1206 of FIG. 13 , the
예를 들어, 전자 장치(1000)는 기준 프레임 이미지 및 상기 복수의 프레임 이미지들 중 하나의 프레임에 대해 서로 다른 마스크 연산을 수행함으로써, 복수의 프레임 이미지들 내 픽셀 별 차이 변수(diff)를 결정할 수 있다. 보다 상세하게는, 주기성 지수를 30 프레임을 기준으로 결정하고, 기준 프레임을 1번 프레임으로 설정하는 경우를 가정한다. For example, the
전자 장치(1000)는 기준 프레임인 1번 프레임과, 복수의 프레임 이미지들(기준 프레임을 1번 프레임으로 포함) 내 1번 프레임 사이에 period check inter-frame difference를 수행할 수 있다. 또한, 전자 장치(1000)는 기준 프레임인 1번 프레임과 2번 프레임에 대해서, period check inter-frame difference를 수행한 후, 상술한 과정을 반복하여 1번 프레임과 30번 프레임까지 period check inter-frame difference를 수행할 수 있다. The
전자 장치(1000)는 30개 프레임들 중, 기준 프레임을 포함하는 임의 2개 프레임에 대해 period check inter-frame difference를 수행하는데, 2개 프레임에 대해서 서로 다른 마스크 연산을 적용한다. 예를 들어, 전자 장치(1000)는 -1을 원소(element)로 가지는 2 by 2 마스크 및 1을 원소(element)로 가지는 2 by 2 마스크를 30프레임 내, 기준 프레임을 포함하는 2개의 프레임에 각각 적용함으로써, period check inter-frame difference를 수행할 수 있다. The
전자 장치(1000)는 기준 프레임에 대해 -1을 원소(element)로 가지는 2 by 2 마스크를 적용함으로써 result 1를 결정하고, 30프레임들 중, 기준 프레임이 아닌 다른 하나의 프레임에 대해 1을 원소(element)로 가지는 2 by 2 마스크를 적용함으로써 result 2 를 결정할 수 있다. 전자 장치(1000)는 result 1 및 result 2의 평균 값에 128을 더함으로써, diff 값을 결정할 수 있다. The
또한, 일 실시 예에 의하면, 전자 장치(1000)는 픽셀 별로 결정된 차이 변수(diff) 값을 소정의 임계치와 비교함으로써 차이 변수를 양자화할 수 있다. 예를 들어, 전자 장치(1000)는 차이 변수값이 128-threshold(5)보다 작은 경우, 해당 차이 변수를 0으로 설정하고, 차이 변수 값이 128+threshold(5)보다 큰 경우, 해당 차이 변수를 255로 설정하며, 기타의 경우에는 차이 변수를 128로 설정함으로써, 차이 변수를 소정의 양자 값으로 양자화할 수 있다.Also, according to an embodiment, the
전자 장치(1000)는 양자화된 차이 변수 값이 소정의 양자 값과 일치하지 않는 프레임 이미지 별 픽셀의 수의 표준 편차 및 평균에 기초하여, 주기성 지수를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 프레임 별로, 양자화된 차이 변수 값(diff)이 128이 아닌 픽셀의 수를 카운트하고, 프레임 별로 카운트된 128이 아닌 양자화된 차이 변수(diff) 값의 수들의 표준 편차 및 평균을 구할 수 있다. The
전자 장치(1000)는 프레임 별로, 양자화된 차이 변수 값이 128이 아닌 픽셀의 수들의 표준편차를 평균으로 나눔으로써 주기성 지수를 결정할 수 있다. 전자 장치(1000)는 주기성 지수가 소정의 임계치 보다 작으면 화재 후보 영역을 화재 의심 영역으로 식별하고 화재 의심 카운트 수를 1 증가시킬 수 있다. 그러나, 전자 장치(1000)는 주기성 지수가 소정의 임계치 보다 큰 경우, 화재 의심 카운트수를 초기화할 수 있다.The
도 14는 일 실시 예에 따른 전자 장치가 움직임 영역 지수를 결정하는 과정을 설명하기 위한 도면이다.14 is a diagram for describing a process in which an electronic device determines a motion region index, according to an embodiment.
도 14의 그림 (1208)을 참조하면, 전자 장치(1000)가 프레임 별 움직임 픽셀의 수를 결정하고, 프레임 별 움직임 픽셀의 수의 평균 및 표준 편차를 결정하며, 프레임 별 움직임 픽셀의 수의 표준편차를 평균으로 나눔으로써 움직임 영역 지수를 결정하는 과정이 도시된다. 전자 장치(1000)는 움직임 영역 지수가 소정의 임계치 보다 작은 경우, 화재 후보 영역을 화재 의심 영역으로 식별하고, 화재 의심 카운트 수를 1 증가시키나, 움직임 영역 지수가 소정의 임계치 보다 큰 경우, 화재 의심 카운트 수를 초기화할 수 있다.Referring to the figure 1208 of FIG. 14 , the
보다 상세하게는, 전자 장치(1000)는 프레임 이미지 내 픽셀 값들의 R,G,B값들의 평균을 픽셀 값 (Pixel_value)으로 결정할 수 있다. 전자 장치(1000)는 픽셀 값과, 기준이 되는 프레임 내 대응되는 위치의 픽셀 값의 차를 픽셀 값 변이(variance)로 결정할 수 있다. In more detail, the
전자 장치(1000)는 프레임 별 픽셀 값 변이가 소정의 임계치 이상인 픽셀들을 움직임 픽셀로 식별할 수 있다. 전자 장치(1000)는 복수의 프레임 이미지들 각각에서 식별되는 움직임 픽셀들의 수의 표준 편차를 평균값으로 나눔으로써 움직임 영역 지수를 결정할 수 있다.The
한편, 전자 장치(1000)는 프레임 별 픽셀 값의 변이가 소정의 임계치 이상인 경우, 해당 픽셀에 대한 무빙 오브젝트 지수(Moving object)를 1만큼 증가시킬 수 있다. 전자 장치(1000)는 무빙 오브젝트 지수를 1만큼 증가 시킨 후에, 기준이 되는 프레임 내 대응되는 위치의 픽셀 값(Background)을 업데이트할 수 있다.Meanwhile, when the variation of the pixel value for each frame is equal to or greater than a predetermined threshold, the
도 15는 일 실시 예에 따른 전자 장치가 무빙 오브젝트 지수를 결정하는 과정을 설명하기 위한 도면이다.15 is a diagram for describing a process in which an electronic device determines a moving object index, according to an embodiment.
도 15의 그림 (1212)를 참조하면 전자 장치가 픽셀 별로 무빙 오브젝트 지수를 결정하는 과정이 도시된다. 예를 들어, 전자 장치(1000)는 복수의 프레임 이미지들 내에서 대응되는 위치의 특정 픽셀들의 변이(variance) 값이 소정의 임계치 이상으로 식별되는 횟수를 식별할 수 있다. 예를 들어, 전자 장치(1000)가 30 프레임 단위로 무빙 오브젝트 지수를 결정하는 경우를 가정하여 설명하기로 한다.Referring to the figure 1212 of FIG. 15 , a process in which the electronic device determines the moving object index for each pixel is illustrated. For example, the
예를 들어, 전자 장치(1000)는 (1,1) 위치에 있는 픽셀의 변이 값을 1 내지 30 프레임 동안 추적할 수 있다. 예를 들어, 전자 장치(1000)는 (1,1) 위치에 있는 픽셀의 변이 값이 1 내지 30프레임 동안 임계치 이상으로 식별되는 횟수를 결정할 수 있다. 전자 장치(1000)는 (1,1) 위치에 있는 픽셀의 변이 값이 1 내지 30프레임 동안 임계치 이상으로 식별되는 경우의 횟수가 소정의 임계치 이상인 경우, Moving object(1,1)을 high로 결정할 수 있다. 그러나 전자 장치(1000)는 (1,1) 위치에 있는 픽셀의 변이 값이 1 내지 30프레임 동안 임계치 이상으로 식별되는 횟수가 소정의 임계치 보다 작은 경우 Moving object(1,1)을 low로 결정할 수 있다. For example, the
상술한 방식에 따라, 전자 장치(1000)는 프레임 내 모든 픽셀에 대하여 픽셀 별 변이 값이 임계치 이상인 횟수를 식별한 후, 각 프레임 별 픽셀들에 대하여 무빙 오브젝트 지수를 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 30프레임 동안, 대응되는 위치의 픽셀 별 변이 값이 임계치 이상인 횟수가, 소정의 임계 횟수 이상인 픽셀들의 위치 정보를 무빙 오브젝트 지수에 더 포함시킬 수도 있다.According to the above-described method, the
일 실시 예에 의하면, 전자 장치(1000)는 무빙 오브젝트 지수가 결정되면, 무빙 오브젝트 지수를 결정하는데 사용된 맨 마지막 프레임(예컨대 30프레임 단위로 판단한 경우, 마지막 프레임은 30번째 프레임)에서 무빙 오브젝트 지수가 high로 판단된 픽셀들의 위치를 식별할 수 있다. 전자 장치(1000)는 무빙 오브젝트 지수가 high로 판단된 픽셀들의 RGB 데이터 평균 값을 결정할 수 있다. 전자 장치(1000)는 무빙 오브젝트 지수가 high로 판단된 픽셀들의 RGB 데이터 평균 값 각각이 소정의 임계치 보다 큰 경우, 화재 의심 카운트 수를 증가시킬 수 있다. 그러나 전자 장치(1000)는 무빙 오브젝트 지수가 high로 판단된 픽셀들의 RGB 데이터 평균 값 각각 중 적어도 하나라도 소정의 임계치 보다 크지 않은 경우 화재 의심 카운트를 초기화할 수 있다.According to an embodiment, when the moving object index is determined, the
또한, 일 실시 예에 의하면, 전자 장치(1000)는 무빙 오브젝트 지수가 high인 픽셀들의 위치와, 프레임 각 픽셀들의 채도(Saturation)값이 소정의 임계치 이상인 픽셀들의 위치 사이의 최소 거리(예컨대 좌표 값의 차이)의 합과 그 평균 값을 결정할 수 있다. 전자 장치(1000)는 무빙 오브젝트 지수가 high인 픽셀들의 위치와, 프레임 각 픽셀들의 채도(Saturation)값이 소정의 임계치 이상인 픽셀들의 위치 사이의 최소 거리가 소정의 임계치 미만인 경우, 화재 의심 카운트 수를 초기화할 수 있다. 그러나, 전자 장치(1000)는 무빙 오브젝트 지수가 high인 픽셀들의 위치와, 프레임 각 픽셀들의 채도(Saturation)값이 소정의 임계치 이상인 픽셀들의 위치 사이의 최소 거리가 소정의 임계치보다 큰 경우, 화재 의심 카운트 수를 증가시킬 수 있다.Also, according to an embodiment, the
또한, 일 실시 예에 의하면, 전자 장치(1000)는 현재 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치와 소정의 주기(예컨대 30프레임)이전 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치 사이의 최소 거리의 합과 그 평균을 결정할 수 있다. 전자 장치(1000)는 현재 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치와 소정의 주기(예컨대 30프레임)이전 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치 사이의 최소 거리가 소정의 임계치 미만인 경우 화재 의심 카운트수를 초기화할 수 있다. 그러나, 전자 장치(1000)는 현재 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치와 소정의 주기(예컨대 30프레임)이전 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치 사이의 최소 거리가 소정의 임계치 보다 큰 경우, 화재 의심 카운트수를 증가시킬 수 있다.Also, according to an embodiment, the
도 16은 일 실시 예에 따른 전자 장치가 불꽃을 감지 결과에 기초하여 1차 화재 식별 여부를 결정하는 과정을 나타내는 흐름도이다.16 is a flowchart illustrating a process in which an electronic device determines whether to identify a primary fire based on a result of detecting a flame, according to an embodiment.
마크 (1701)은 영상 입력 대기 상태를 나타낼 수 있다. S1702에서, 전자 장치(1000)는 이미지 내 RGB 데이터를 HSL 데이터로 변환한다. S1706에서, 전자 장치(1000)는 이미지로부터 화재 후보 영역(예컨대 불 색상 영역)을 추출한다. S1708에서, 전자 장치(1000)는 화재 후보 영역으로부터 주기성 지수를 결정할 수 있다. The
S1710에서, 전자 장치(1000)는 화재 후보 영역의 움직임 영역을 결정한다. S1712에서, 전자 장치(1000)는 프레임 별 화재 후보 영역에서 움직임 영역의 넓이를 결정하고, 움직임 영역의 넓이 변화 정도를 결정한다. 전자 장치(1000)는 S1710 및 S1712를 통하여 움직임 영역 지수를 결정할 수 있다. 또한, 일 실시 예에 의하면, 전자 장치(1000)는 픽셀 별로 무빙 오브젝트 지수를 더 결정할 수도 있다.In S1710 , the
S1714에서, 전자 장치(1000)는 화재 후보 영역에서 시간적 웨이블렛 수행 후 픽셀 별 0을 크로싱하는 픽셀들의 수를 카운트함으로써 제로 크로스 카운트 지수를 결정한다. S1716에서, 전자 장치(1000)는 프레임 별 화재 후보 영역에서 시간적 웨이블렛 변환을 수행함으로써 0이 아닌 영역의 넓이를 체크함으로써 하이패스 필터 면적 지수를 결정한다.In S1714 , the
S1718에서, 전자 장치(1000)는 프레임 넘버수가 30이 되었는지 여부를 식별한다. 예를 들어, 전자 장치(1000)는 프레임 넘버수가 30이 되지 않은 경우, 화재 의심 카운트 초기화 상태(1720)로 진입할 수 있다. 그러나, 전자 장치(1000)는 프레임 넘버수가 30이 된 경우, 30 프레임 동안, 픽셀 별로 변이 값이 소정의 임계치 이상으로 식별된 횟수가, 소정의 임계값 이상인지 여부를 식별한다. S1724에서, 전자 장치(1000)는 30 프레임 동안 픽셀 별, 변이 값이 소정의 임계치 이상으로 식별된 횟수가 소정의 임계값 이상인 경우, 해당 픽셀의 무빙 오브젝트 지수를 HIGH로 결정한다. 그러나, S1726에서, 전자 장치(1000)는 30 프레임 동안 픽셀 별, 변이 값이 소정의 임계치 이상으로 식별된 횟수가 소정의 임계값 보다 작은 경우, 해당 픽셀의 무빙 오브젝트 지수를 LOW로 결정한다.In S1718, the
S1728에서, 전자 장치(1000)는 무빙 오브젝트 지수가 LOW인 경우, S1736으로 진입하여 화재 의심 카운트를 초기화하고, 화재 의심 카운트 초기화 상태(1720)로 진입한다. 그러나, S1730에서, 전자 장치(1000)는 무빙 오브젝트 지수가 HIGH로 식별되는 경우, 무빙 오브젝트 지수가 HIGH로 식별된 픽셀의 RGB 데이터의 평균을 구할 수 있다. S1732에서, 전자 장치(1000)는 RGB 데이터의 평균 값 각각이 소정의 임계 값 보다 큰 경우, 연결 단계(1734)로 진입하나, RGB 데이터의 평균 값 중 하나라도 소정의 임계값 보다 크지 않은 경우, S1736 단계로 진입하여 화재 의심 카운트를 초기화할 수 있다.In S1728 , when the moving object index is LOW, the
S1704에서, 전자 장치(1000)는 무빙 오브젝트 지수가 HIGH로 판단된 픽셀들의 위치와 각 픽셀들의 채도값이 소정의 임계치 이상인 픽셀들의 위치 사이의 최소 거리를 결정할 수 있다. S1742에서, 전자 장치(1000)는 S1704에서 결정된 최소 거리가 소정의 임계치 보다 작은 경우, 화재 의심 카운트를 초기화하나, 최소 거리가 소정의 임계치 보다 큰 경우, S1748 단계로 진입할 수 있다.In S1704 , the
S1748에서, 전자 장치(1000)는 제로 크로스 카운트 지수가 소정의 임계치 보다 큰 경우, S1750 단계로 진입하나, 제로 크로스 카운트 지수가 소정의 임계치 보다 작은 경우 S1736 단계로 진입하여 화재 의심 카운트를 초기화할 수 있다.In S1748, when the zero cross count index is greater than a predetermined threshold, the
S1750에서, 전자 장치(1000)는 도 12에서 상술한 과정을 수행함으로써 하이패스 필터 면적 지수를 결정할 수 있다. S1752에서, 전자 장치(1000)는 결정된 하이패스 필터 면적 지수가 소정의 임계치 보다 큰 경우 S1736 단계로 진입하여 화재 의심 카운트 수를 초기화한다. 그러나 전자 장치(1000)는 결정된 하이패스 필터 면적 지수가 소정의 임계치 보다 작은 경우, S1754 단계로 진입할 수 있다.In S1750 , the
S1754에서, 전자 장치(1000)는 프레임 별 주기성 체크에 의한 주기성 지수를 결정할 수 있다. S1756에서, 전자 장치(1000)는 주기성 지수가 소정의 임계치 보다 작은 경우, S1736 단계로 진입하여 화재 의심 카운트수를 초기화할 수 있다. 그러나 전자 장치(1000)는 주기성 지수가 소정의 임계치 보다 큰 경우, S1758 단계로 진입할 수 있다.In S1754, the
S1758에서, 전자 장치(1000)는 프레임 별 움직임 영역의 면적 평균 및 면적 변화량을 계산함으로써 움직임 영역 지수를 결정한다. S1760에서, 전자 장치(1000)는 움직임 영역 지수가 소정의 임계치 보다 큰 경우, S1764로 진입하여 움직임 영역 변화량 카운트를 증가시킬 수 있다. S1750에서, 전자 장치(1000)는 움직임 영역 지수가 소정의 임계치 보다 작은 경우 S1766으로 진입하여 화재 의심 카운트 수를 증가시킬 수 있다.In S1758 , the
S1768에서, 전자 장치(1000)는 움직임 영역 변화량 카운트가 소정의 임계치 보다 큰 경우, S1736 단계로 진입하여 화재 의심 카운트를 초기화한다. 그러나 S1768에서, 전자 장치(1000)는 움직임 영역 변화량 카운트가 소정의 임계치 보다 작거나, S1772에서, 증가된 화재 의심 카운트 수가 6보다 크지 않은 경우, 화재 의심 카운트 초기화 상태(1720)으로 진입할 수 있다. 그러나, S1772에서, 전자 장치(1000)는 화재 의심 카운트 수가 6보다 큰 경우, S1774로 진입하여 화재 알람 정보를 출력할 수 있다. 전자 장치(1000)는 화재 알람 정보를 출력한 이후에는 다시 화재 의심 카운트 초기화 상태(1720)로 진입할 수 있다.In S1768, when the movement area variation count is greater than a predetermined threshold, the
또한, 도 16에는 도시되지 않았지만, 전자 장치(1000)는 복수의 광학 이미지들이 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터를 식별할 수 있다. 전자 장치(1000)는 모션 벡터들이 식별되면 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득할 수 있다. 전자 장치(1000)는 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정할 수 있다. Also, although not shown in FIG. 16 , the
전자 장치(1000)는 연기 지수가 소정의 임계값 보다 작은 경우, S1736 단계로 진입함으로써, 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수를 초기화할 수 있다. 그러나 전자 장치(1000)는 상술한 제로 크로스 카운트 지수, 하이패스 필터 면적 지수, 주기성 지수, 움직임 영역 지수, 무빙 오브젝트 지수 및 연기 지수가 각각의 지수 조건(화재 의심 영역 카운트수가 초기화되지 않도록 하는 각 지수 별 조건)을 만족하는 경우, S1768로 진입함으로써, 화재 후보 영역에 대한 화재 의심 카운트 수를 1 증가시킬 수 있다. When the smoke index is smaller than a predetermined threshold, the
즉 본 개시에 따른 전자 장치(1000)는 화재에 관한 적어도 하나의 지수들로써, 결정된 제로 크로스 카운트 지수, 상기 하이패스 필터 면적 지수, 상기 주기성 지수, 상기 움직임 영역 지수, 상기 무빙 오브젝트 지수 또는 연기 지수 중 적어도 하나에 대한 지수 조건 만족 여부를 식별하고, 상기 적어도 하나의 화재 지수들 중 하나라도 지수 조건을 만족하지 않는 경우에는, 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수(예컨대 화재 의심 카운트 수)를 초기화할 수 있다. 그러나 전자 장치(1000)는 상기 적어도 하나의 화재 지수들에 대한 소정의 지수 조건이 모두 만족되는 경우, 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수를 증가시키고, 상기 증가된 횟수가 기 설정된 임계치 이상(예컨대 6)인 경우, 화재 후보 영역의 위치를 광학 화재 식별 영역의 위치로 결정할 수 있다.That is, in the
또한, 일 실시 예에 의하면, 전자 장치(1000)는 소정의 주기에 따라 광학 화재 식별 영역의 위치를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 복수의 프레임 이미지들 별 또는 복수의 프레임 이미지들 중 소정의 프레임 주기에 따른 프레임에 대해서, 상기 적어도 하나의 화재 지수를 결정하고, 화재 지수에 기초하여 기 설정된 횟수 이상으로 화재 후보 영역이 화재 의심 영역으로 카운트 되는 경우, 해당 화재 후보 영역을 광학 화재 식별 영역의 위치로 결정할 수 있다.Also, according to an embodiment, the
도 17은 일 실시 예에 따른 전자 장치의 블록도이다.17 is a block diagram of an electronic device according to an embodiment.
도 18은 또 다른 실시 예에 따른 전자 장치의 블록도이다.18 is a block diagram of an electronic device according to another embodiment.
도 18에 도시된 바와 같이, 일 실시 예에 따른 전자 장치(1000)는 적어도 하나의 프로세서(1300) 및 메모리(1700)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니다. 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 그 보다 적은 구성 요소에 의해서도 전자 장치(1000)는 구현될 수도 있다.18 , the
예를 들어, 도 18에 도시된 바와 같이, 전자 장치(1000)는 프로세서(1300) 및 메모리(1700)외에, 사용자 입력 인터페이스(1100), 출력부(1200), 센싱부(1400), 네트워크 인터페이스(1500), A/V 입력부(1600) 및 메모리(1700)를 더 포함할 수도 있다.For example, as shown in FIG. 18 , the
사용자 입력 인터페이스(1100)는, 사용자가 전자 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력 인터페이스(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The
사용자 입력 인터페이스(1100)는, 전자 장치(1000)를 제어하기 위한 기타 사용자 입력들을 획득할 수 있다. 또한, 사용자 입력 인터페이스(1100)는 소정의 오디오 콘트롤 패널을 터치하는 사용자 입력을 수신할 수도 있다.The
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.The
디스플레이부(1210)는 전자 장치(1000)에서 처리되는 정보를 표시 출력하기 위한 화면을 포함한다. 또한, 화면은 영상을 디스플레이 할 수 있다. 예를 들면, 디스플레이부(1210)는 재난 알림 정보, 지진 알림 정보, 화재 알림 정보, 뉴스 화면 중 적어도 하나를 표시할 수 있다.The
음향 출력부(1220)는 네트워크 인터페이스(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 재난 알림 정보 출력과 함께 소정의 경고음 등을 출력할 수 있다. 또한, 음향 출력부(1220)는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다.The
프로세서(1300)는 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력 인터페이스(1100), 출력부(1200), 센싱부(1400), 네트워크 인터페이스(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다. 또한, 프로세서(1300)는 메모리(1700)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도 16에 기재된 전자 장치(1000)의 기능을 수행할 수 있다. 일 실시 예에 의하면 전자 장치(1000)는 광학 이미지 데이터 및 열화상 이미지 데이터에 대해 불꽃 또는 연기 감지 알고리즘을 적용할 제1 프로세서 및 광학 이미지에 대해 인공 지능 알고리즘을 적용할 제2 프로세서를 포함할 수도 있다.The
일 실시 예에 의하면, 프로세서(1300)는 상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하고, 상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하고, 상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하고, 상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하고, 상기 획득된 1차 화재 식별 결과 또는 2차 화재 식별 결과 중 적어도 하나에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정할 수 있다.According to an embodiment, the
일 실시 예에 의하면 프로세서(1300)는 복수의 프로세서를 포함할 수 있고, 서로 다른 프로세서를 이용하여 연기 또는 불꽃 감지 알고리즘 및 인공지능 알고리즘을 수행할 수 있다.According to an embodiment, the
일 실시 예에 의하면, 프로세서(1300)는 상기 감시 대상 영역을 촬영하는 열화상 카메라 및 광학 카메라 장치를 통하여 기 설정된 프레임 간격을 가지는 복수의 열화상 이미지들 및 광학 이미지들을 획득할 수 있다.According to an embodiment, the
일 실시 예에 의하면, 프로세서(1300)는 상기 적어도 하나의 센서 중 3축 가속도 센서로부터 3축 가속도 정보를 획득하고, 상기 적어도 하나의 센서 중 지자기 센서로부터 지자기 정보를 획득할 수 있다.According to an embodiment, the
일 실시 예에 의하면 프로세서(1300)는 상기 지자기 정보에 기초하여 상기 전자 장치가 설치된 위치에서 지자기 방향을 식별하고, 상기 3축 가속도 정보에 기초하여 3축 가속도 방향을 식별하고, 상기 3축 가속도 방향을 상기 식별된 지자기 방향에 매칭시키고, 상기 지자기 방향에 매칭된 상기 3축 가속도 방향을 기준으로, 상기 3축 가속도 크기를 모니터링함으로써 최대 지반 가속도를 결정하고, 상기 지자기 방향에 매칭된 3축 가속도 방향 및 상기 결정된 최대 지반 가속도에 기초하여 지진 발생 여부를 결정할 수 있다.According to an embodiment, the
일 실시 예에 의하면, 프로세서(1300)는 최대 지반 가속도에 기초하여 진도를 결정하고, 상기 결정된 진도가 기 설정된 임계 진도 이상인 경우, 상기 지자기 방향에 매칭된 3축 가속도 방향을 기준으로, 지진이 발생한 것으로 결정할 수 있다. 또 다른 실시 예에 의하면, 본 개시에 따른 프로세서(1300)는 지자기 방향에 매칭된 3축 가속도 방향으로, 상기 결정된 최대 지반 가속도 소정의 임계 가속도 이상으로 식별되는 경우, 지진 지수를 1 증가시키고, 상기 증가된 지진 지수가 임계 카운트 이상으로 식별되는 경우, 지진이 발생 한 것으로 결정할 수 있다. 일 실시 예에 의하면, 프로세서(1300)는 최대 지반 가속도에 기초하여 진도를 결정하고, 상기 결정된 진도가 기 설정된 임계 진도 이상인 경우, 상기 지자기 방향에 매칭된 3축 가속도 방향을 기준으로, 지진이 발생한 것으로 결정할 수 있다.According to an embodiment, the
일 실시 예에 의하면, 프로세서(1300)는 상기 지진이 발생한 것으로 결정되는 경우, 상기 3축 가속도 정보에 기초하여 PS시를 결정하고, 상기 결정된 PS시에 기초하여 진앙지를 결정하고, 상기 전자 장치와 연결된 다른 2이상의 전자 장치로부터 진앙지 정보를 획득하고, 상기 결정된 진앙지 및 상기 다른 전자 장치로부터 획득된 진앙지 정보에 기초하여, 지진이 발생한 진원지 정보를 결정하고, 상기 결정된 진원지 정보 및 상기 결정된 진도에 관한 정보를 상기 알림 정보로써 출력할 수 있다.According to an embodiment, when it is determined that the earthquake has occurred, the
센싱부(1400)는, 전자 장치(1000)의 상태 또는 전자 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 프로세서(1300)로 전달할 수 있다. 센싱부(1400)는 전자 장치(1000)의 사양 정보, 전자 장치(1000)의 상태 정보, 전자 장치(1000)의 주변 환경 정보, 사용자의 상태 정보 및 사용자의 디바이스 사용 이력 정보 중 일부를 생성하는데 이용될 수 있다. The
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 이미지 센서, 열화상 이미지 센서, 3축 가속도 센서 또는 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The
네트워크 인터페이스(1500)는 전자 장치(1000)가 다른 장치(미도시) 및 서버(2000)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 다른 장치(미도시)는 전자 장치(1000)와 같은 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. 예를 들어, 네트워크 인터페이스(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다. The
근거리 통신부(short-range wireless communication unit)(1510)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. Short-range
이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(1530)를 포함하지 않을 수도 있다. 또한, 네트워크 인터페이스(1500)는, 카메라 장치를 포함하는 외부 디바이스 또는 서버로부터 대상 객체 이미지 또는 기준 객체 이미지를 획득할 수도 있다. 일 실시예에 따르면, 네트워크 인터페이스(1500)는 전자 장치가 결정한 재난 알람 정보를 서버 또는 외부 디바이스로 전송할 수도 있다. The
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A/V (Audio/Video)
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 사용자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)은 사용자의 음성 입력을 수신할 수 있다. 마이크로폰(1620)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The
메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. 또한, 메모리(1700)는 전자 장치(1000)가 재난 알람 정보를 출력하기 위해, 화재 발생 여부 또는 지진 발생 여부를 판단하기 위한 일련의 방법들이 인스트럭션의 형태로 저장될 수 있다.The
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다. Programs stored in the
UI 모듈(1710)은, 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(1300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The
알림 모듈(1730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 장치(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.The
도 19는 일 실시 예에 따른 서버의 블록도이다.19 is a block diagram of a server according to an embodiment.
일 실시 예에 의하면, 서버(2000)는 프로세서(2300), 네트워크 인터페이스(2500) 및 데이터 베이스(2700)를 포함할 수 있다. 일 실시 예에 의하면 서버(2000) 내 프로세서(2300), 네트워크 인터페이스(2500) 및 데이터 베이스(2700) 구성은 전자 장치(1000)내 프로세서(1300), 네트워크 인터페이스(1500) 및 메모리(1700)의 구성에 각각 대응될 수 있다.According to an embodiment, the
일 실시 예에 의하면, 서버(2000)는 전자 장치(1000)로 CCTV 장치로부터 획득된 이미지들을 전송하거나, 지진파 정보등을 전송할 수도 있다. 또한, 서버(2000)는 전자 장치(1000)가 결정한 재난 정보(예컨대 화재 발생 여부, 지진 발생 여부, 화재 알람 정보, 지진 알람 정보, 화재 발생 규모, 화재 발생 위치, 지진 발생 규모, 지진 발생 위치 등에 대한 정보)를 획득하고, 획득된 재난 정보에 기초하여 시각적 또는 청각적 재난 컨텐츠를 생성할 수 있다. 서버(2000)는 생성된 재난 컨텐츠를 전자 장치(1000)로 다시 전송할 수도 있고, 전자 장치와 연결된 다른 전자 장치 또는 서버 장치로 전송할 수도 있다.According to an embodiment, the
도 20은 일 실시 예에 따른 전자 장치 및 서버가 서로 연동함으로써 재난을 감지하는 과정을 설명하기 위한 도면이다.20 is a diagram for explaining a process of detecting a disaster by interworking between an electronic device and a server according to an embodiment.
본 개시에 따른 전자 장치(1000) 및 서버(2000)는 인공지능 모델을 기반으로, 서로 연동함으로써 재난을 감지하는 방법 중 적어도 일부를 수행할 수도 있다. 그러나 또 다른 실시 예에 의하면, 서버(2000)에 저장된 인공 지능 모델 또는 상기 인공 지능 모델에 대한 인스트럭션이 전자 장치에 저장됨으로써, 전자 장치(1000)가 단독으로 인공지능 모델을 이용하여 본 명세서에서 상술한 재난을 감지하는 방법을 수행할 수도 있음은 물론이다. 또한, 일 실시 예에 의하면, 전자 장치(1000)는 전자 장치(1000)내부에 복수의 프로세서를 구비하고, 인공지능 알고리즘을 수행하기 위한 별도의 프로세서를 이용하여 재난을 효과적으로 감지할 수도 있다.The
예를 들어, 전자 장치(1000)는 제1 프로세서를 이용하여 열화상 이미지 내 기 설정된 임계 범위의 온도를 만족하는 영역이 식별되는 경우, 해당 영역에 대한 열화상 화재 식별 영역의 위치를 결정할 수 있다. 또한, 전자 장치(1000)는 제1 프로세서를 이용하여 광학 이미지 내 도 16에 도시된 불꽃 감지 알고리즘 또는 후술하는 연기 감지 알고리즘을 적용함으로써 광학 이미지 내 광학 화재 식별 영역이 도출되는지 여부를 결정할 수 있다. 또한, 전자 장치(1000)는 제2 프로세서를 이용하여 광학 이미지에 인공 지능 모델을 적용함으로써 광학 이미지로부터 연기 또는 불꽃이 감지되는지 여부를 결정할 수 있다. For example, when a region satisfying a temperature of a preset threshold range in the thermal image is identified using the first processor, the
일 실시 예에 의하면, 전자 장치(1000)가 이용하는 인공 지능 모델은 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. According to an embodiment, the artificial intelligence model used by the
일 실시 예에 의하면, 전자 장치(1000)가 이용하는 인공 지능 모델은 심층 신경망(DNN:Deep Neural Network)을 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다. 또한, 일 실시 예에 의하면, 전자 장치(1000)가 이용하는 인공 지능 모델은 YOLO, DARKNET 중 적어도 하나를 포함할 수도 있다.According to an embodiment, the artificial intelligence model used by the
상술한 제1 프로세서 및 제2 프로세서를 이용한 전자 장치의 동작은 전자 장치 단독으로 수행할 수도 있으나, 일부 프로세서의 기능을 서버(2000)에 의해서도 수행할 수도 있다. 예를 들어, 도 20에 도시된 바와 같이, 전자 장치(1000)는 서버(2000)와 연동함으로써, 인공 지능 모델을 이용하여 재난을 감지하는 방법 중 일부를 수행함으로써 신속하고 효과적으로 재난을 감지할 수도 있다.The operation of the electronic device using the above-described first and second processors may be performed by the electronic device alone, or some processor functions may also be performed by the
예를 들어, S2002에서, 전자 장치(1000)는 감시 대상 영역 이미지를 촬영함으로써 감시 대상 영역에 대한 이미지를 획득할 수 있다. 전자 장치(1000)는 소정의 프레임 간격의 복수의 열화상 이미지들 및 광학 이미지들을 획득할 수 있다. S2004에서, 전자 장치(1000)는 획득된 감시 대상 영역에 대한 복수의 열화상 이미지들 및 광학 이미지들을 서버(2000)로 전송할 수 있다.For example, in S2002 , the
또 다른 실시 예에 의하면, 전자 장치(1000)는 RTSP Video Data를 서버(2000)로 전송할 수도 있다. S2106에서, 서버(2000)는 전자 장치에서 수신된 이미지를 전처리할 수 있다. 예를 들어, 서버(2000)는 전자 장치(1000)로부터 획득되는 이미지 또는 영상을 전처리함으로써 인공 지능 모델에 최적화된 포맷으로 변환할 수 있다. 보다 상세하게는, 서버(2000)는 전자 장치(1000)로부터 획득되는 이미지 또는 영상을 전처리함으로써, 이미지 타입 별로 학습된 각 인공 지능 모델에 최적화된 포맷으로 변환할 수도 있다.According to another embodiment, the
S2008에서, 서버(2000)는 전자 장치(1000)로부터 획득된 광학 이미지에 불꽃 또는 연기 감지 알고리즘을 적용함으로써 광학 화재 식별 영역이 결정되는지 여부를 확인하고, 열화상 이미지로부터 기 설정된 임계 범위 온도의 열화상 화재 식별 영역이 결정되는지 여부를 확인한 후, 광학 화재 식별 영역과 열화상 화재 식별 영역의 위치가 매칭되는지 여부를 확인할 수 있다. 또한, 서버(2000)는 광학 이미지에 인공 지능 모델을 적용함으로써 인공 지능 모델로부터 화재 발생 결과 여부에 대한 정보를 획득할 수도 있다.In S2008, the
서버(2000)는 광학 화재 식별 영역의 위치와 열화상 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여 1차 화재 식별 결과를 결정하고, 인공 지능 모델로부터 2차 화재 식별 결과를 결정할 수 있다. 서버(2000)는 1차 화재 식별 결과 및 2차 화재 식별 결과 중 적어도 하나에 기초하여 최종적으로 감시 대상 영역에 화재가 발생하였는지 여부를 결정할 수 있다. S2012에서, 서버(2000)는 감시 대상 영역에 화재가 발생한 것으로 식별되는 경우 알림 정보를 전자 장치(1000)로 전송할 수 있다. 일 실시 예에 의하면, 서버(2000)는 알림 정보외 화재 발생 원인, 화재 발생 종류에 대한 정보를 전자 장치(1000)로 더 전송할 수도 있다.The
S2014에서, 전자 장치(1000)는 서버(2000)로부터 수신된 알림 정보를 저장할 수도 있다. 또 다른 예에 의하면, 전자 장치(1000)는 알림 정보 외, 화재 원인에 대한 정보를 더 저장할 수도 있다. S2016에서, 전자 장치(1000)는 저장된 알림 정보를 출력할 수 있다.In S2014 , the
도 21은 또 다른 실시 예에 따른 전자 장치 및 서버가 서로 연동함으로써 재난을 감지하는 방법을 수행하는 과정을 설명하기 위한 도면이다.21 is a diagram for explaining a process of performing a method for detecting a disaster by interworking between an electronic device and a server according to another embodiment.
도 21를 참조하면 전자 장치(1000)는 FireWatch Camera에 대응될 수 있다. 전자 장치(1000)는 카메라를 이용하여 감시 대상 영역에 대한 입력 비디오(2210)를 획득할 수 있다. S2102에서, 전자 장치(1000)는 도 1 내지 도 18에서 상술한 화재 발생 여부를 결정하는 방법을 수행함으로써 화재 발생 여부에 대한 제1 결과 정보를 결정할 수 있다. S2104에서, 전자 장치(1000)는 감시 대상 영역을 촬영함으로써 획득되는 영상 정보를 비디오 스트리밍할 수 있다. S2106에서, 전자 장치(1000)는 서버(2000)로부터 서버가 인공 지능 모델을 이용하여 판단한 화재 발생 여부에 대한 외부 입력 이벤트 정보를 제2 결과 정보로 획득할 수 있다. S2108에서, 전자 장치(1000)는 제1 결과 정보 및 제2 결과 정보에 기초하여 경보를 발생시킬 수 있다. 예를 들어, 전자 장치(1000)는 제1 결과 정보가, 화재 후보 영역이 화재 의심 영역으로 식별된 횟수가 임계치 이상임을 나타내고, 제2 결과 정보가 소정의 임계 확률 값 이상인 것으로 식별되는 경우 경보를 발생시킬 수도 있다.Referring to FIG. 21 , the
본 개시에 따른 전자 장치(1000)는 감시 대상 영역을 촬영함으로써 획득되는 입력 비디오 데이터(2210)를 RTSP 비디오 데이터(2220) 형식으로 서버(2000)로 전송할 수 있고, 서버(2000)는 전자 장치(1000)에서 획득된 RTSP 비디오 데이터를 인공지능 모델에 입력함으로써 서버(2000)에서 판단한 알람 이벤트를 생성할 수 있다.The
예를 들어, S1210에서, 서버(2000)는 전자 장치(1000)에서 획득된 RTSP 비디오 데이터(2220)를 프레임 처리함으로써 인공 지능 모델의 타입에 맞는 포맷을 가지는 이미지 또는 영상을 생성할 수 있다. S2112에서, 서버(2000)는 전처리된 이미지 또는 영상을 학습된 딥러닝 신경망 모델에 입력할 수 있다. S2114에서, 서버(2000)는 딥러닝 신경망 모델의 출력 값에 기초하여, 이미지 또는 영상에서 화재가 발생하였는지 여부를 추론할 수 있다. S2116에서, 서버(2000)는 신경망 모델의 출력 값에 기초하여 추론된 결과 값이 화재가 발생한 상황을 나타내거나, 소정의 임계 확률 이상의 화재 발생 확률을 나타내는 경우 알람 이벤트 데이터를 생성하고, 생성된 알람 이벤트 데이터(2230)를 전자 장치(1000)로 전송할 수 있다. For example, in S1210 , the
도 22는 일 실시 예에 따른 전자 장치가 인공 지능 모델을 학습시키기 위한 학습 데이터를 생성하는 과정을 설명하기 위한 도면이다.22 is a diagram for describing a process of generating, by an electronic device, learning data for learning an artificial intelligence model, according to an embodiment.
본 개시에 따른 전자 장치(1000)는 광학 이미지, 열화상 이미지 또는 영상에서 화재 발생 확률 값을 출력하는 인공 지능 모델을 학습시킬 수 있다. 또한, 일 실시 예에 의하면, 전자 장치(1000)는 이미지 또는 영상의 타입 별로 인공 지능 모델을 학습시킬 수 있다. 또한, 전자 장치(1000)는 인공 지능 모델을 학습시키기 위한 학습 데이터를 소정의 타입 별로 생성할 수도 있다.The
예를 들어, 전자 장치(1000)는 감시 대상 영역을 촬영함으로써 인공 지능 모델을 학습시키기 위한 학습 비디오 데이터(2302)를 획득할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 서버(2000) 또는 기 저장된 데이터 베이스로부터 인공지능 모델 학습을 위한 학습 비디오 데이터(2302)를 획득할 수도 있다. 전자 장치(1000)는 학습 비디오 데이터(2302)를 전처리함으로써, 소정의 영상 타입 별 학습 데이터(2340)를 생성할 수 있다.For example, the
예를 들어, 전자 장치(1000)는 학습 비디오 데이터(2302)를 전처리함으로써, 하이패스 필터 영상(2312), 칼라(RGB) 영상(2314), 흑백 영상(2316), 엣지 영상(2318), 모션 영상(2320) 또는 밝기 조절 영상(2322) 중 적어도 하나를 생성할 수 있다. 일 실시 예에 의하면, 모션 영상(2320)은 이미지 또는 영상 내 벡터 및 움직임량을 그레이스케일로 표현한 영상일 수 있다. 일 실시 예에 의하면, 밝기 조절 영상(2322)은 영상 밝기가 조절된 영상일 수 있다. 전자 장치(1000)는 학습 비디오 데이터(2302)를 전처리함으로써 생성된 타입별 학습 데이터 각각 또는 타입 별로 생성된 학습 데이터를 조합함으로써 조합 학습 데이터를 생성할 수 있고, 타입 별로 생성된 학습 데이터 또는 조합 학습 데이터에 기초하여 인공지능 모델을 학습시킬 수 있다. 본 개시에 따른 전자 장치(1000)는 학습 데이터에 기초하여, 인공 지능 모델 내 노드 및 레이어들의 가중치(Weight)를 수정 및 갱신함으로써 인공 지능 모델을 학습시킬 수 있다.For example, the
일 실시 예에 의하면, 전자 장치(1000)는 학습 비디오 데이터(2302) 중 사람의 판단에 의해 선별된 비디오 데이터를 이용하여 인공 지능 모델을 학습시킬 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 도 1 내지 도 18에서 상술한 화재 발생 여부 판단 알고리즘에 기초하여 화재 발생 여부를 판단한 결과, 화재 발생이 아님에도 화재가 발생한 것으로 식별된 이미지 또는 영상은 학습 비디오 데이터에서 제거할 수 있다. 전자 장치(1000)는 도 1 내지 도 18에서 기술된 화재 발생 알고리즘에서 화재 발생 여부가 잘못 판단되는 이미지 또는 영상을 학습 데이터에서 제거하고 남은 학습 데이터에 기초하여 인공 지능 모델을 학습시킴으로써, 인공 지능 모델의 정확도를 더 향상시킬 수 있다.According to an embodiment, the
도 23은 일 실시 예에 따른 전자 장치가 인공 지능 모델을 이용하여 알람 이벤트를 생성하는 과정을 설명하기 위한 도면이다.23 is a diagram for describing a process in which an electronic device generates an alarm event using an artificial intelligence model, according to an exemplary embodiment.
일 실시 예에 따른 전자 장치(1000)가 감시 대상 영역을 촬영함으로써 실시간 영상(2402)을 획득하고, 실시간 영상을 전처리한 후 생성되는 전처리 영상을 신경망 모델에 입력함으로써 알람 이벤트를 생성하는 과정을 설명하기로 한다. S2340에서, 전자 장치(1000)가 실시간 영상(2402)을 전처리함으로써 생성된 전처리 영상을 생성할 수 있다. 예를 들어, 전자 장치(1000)는 실시간 영상(2402)을 전처리함으로써 하이패스 필터 영상(2412), RGB 영상(2414), 흑백 영상(2416), 엣지 영상(2418), 모션 영상(2428) 또는 밝기 조절 영상(2422)을 생성할 수 있다. S2342에서, 전자 장치(1000)는 전처리된 영상을 딥러닝 신경망 모델(2430)에 입력함으로써 추련 결과를 모니터링할 수 있다.A process of generating an alarm event by acquiring a real-
S2344에서, 전자 장치(1000)는 인공지능 모델(예컨대 신경망 모델)의 추론 결과를 미리 설정된 시간 동안 누적한 결과 값의 평균 정확도가 소정의 임계값 이상인지 여부를 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 인공 지능 모델의 추론 결과를 1 내지 10초 동안 누적하여 평균 정확도가 임계값 이상인지 여부를 결정할 수 있다. S2346에서, 전자 장치(1000)는 누적 평균 정확도가 임계값 이상으로 식별되는 경우, 알람 이벤트를 생성할 수 있다.In S2344 , the
도 24는 일 실시 예에 따른 전자 장치가 연기 감지 조건에 따라 연기를 감지하는 방법을 구체적으로 설명하기 위한 도면이다.24 is a diagram for describing in detail a method for an electronic device to detect smoke according to a smoke detection condition, according to an exemplary embodiment.
S2402에서, 전자 장치(1000)는 광학 이미지들을 시퀀싱할 수 있다. 예를 들어, 전자 장치(1000)는 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정할 수 있다. S2404에서, 전자 장치(1000)는 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별할 수 있다.In S2402, the
S2406에서, 전자 장치(1000)는 식별된 움직임 영역들을 클러스터링할 수 있다. S2408에서, 전자 장치(1000)는 식별된 움직임 영역들 내 픽셀들 중, 그레이 색상 값을 나타내는 픽셀들을 추출할 수 있다. S2410에서, 전자 장치(1000)는 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터들을 식별할 수 있다.In S2406 , the
S24142에서, 전자 장치(1000)는 모션 벡터들이 식별되면, 복수의 광학 이미지들 중, 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득할 수 있다. 전자 장치(1000)는 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정할 수 있다.In S24142 , when the motion vectors are identified, the
S2414에서, 전자 장치(1000)는 상술한 과정을 수행함에 따른 결과를 학습 데이터로 생성하고, 생성된 학습 데이터에 기초하여 인공 지능 모델을 학습시킬 수 있다. S2416에서, 전자 장치(1000)는 학습된 인공 지능 모델에서 출력된 결과가 실제 연기가 맞는지에 대한 결과 여부를 검증할 수 있다. S2418에서, 전자 장치(1000)는 인공 지능 모델에서 출력된 결과가 실제 연기가 맞는 것으로 검증되는 경우, 알람 정보를 생성하고, 생성된 알람 정보를 출력할 수 있다. 본 개시에 따른 전자 장치(1000)는 도 24에 기재된 연기 감지 알고리즘을 인공 지능 모델을 활용하여 수행할 수도 있으나, 임베디드 모듈을 이용하여 실제 이미지 처리를 통해 이미지로부터 직접 연기 감지 여부를 결정할 수도 있다.In S2414 , the
도 25는 일 실시 에에 따른 전자 장치가 감지한 연기 감지 결과를 나타내는 도면이다.25 is a diagram illustrating a smoke detection result detected by an electronic device according to an exemplary embodiment.
도 25의 그림 (2510)을 참조하면 전자 장치(1000)가 광학 이미지 내 연기를 감지한 결과가 도시된다. 전자 장치의 화면 상에서 전자 장치(1000)는 움직이는 픽셀 영역들을 일부 클러스터링하고, 클러스터링 영역들 중 그레이 색상 값을 나타내는 픽셀들을 추출할 수 있다. 전자 장치(1000)는 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역(2512)을 연기 감지 영역으로 결정할 수 있다.Referring to figure 2510 of FIG. 25 , a result of detecting smoke in the optical image by the
일 실시예에 따른 전자 장치가 재난을 감지하는 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.A method for detecting a disaster by an electronic device according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.
또한, 전자 장치가 재난을 감지하는 방법을 수행하도록 하는 프로그램이 저장된 기록 매체를 포함하는 컴퓨터 프로그램 장치가 제공될 수 있다. Also, there may be provided a computer program device including a recording medium in which a program for causing an electronic device to perform a method for detecting a disaster is stored.
컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
일부 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈과 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. 또한, 일부 실시예는 컴퓨터에 의해 실행되는 컴퓨터 프로그램과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램 또는 컴퓨터 프로그램 제품(computer program product)으로도 구현될 수 있다.Some embodiments may also be implemented in the form of a recording medium containing instructions executable by a computer, such as program modules executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, other data in modulated data signals, such as program modules, or other transport mechanisms, and includes any information delivery media. Also, some embodiments may be implemented as a computer program or computer program product comprising instructions executable by a computer, such as a computer program executed by a computer.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto. belong to the scope of the right.
Claims (17)
감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하는 단계;
상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하는 단계;
상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하는 단계;
상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하는 단계; 및
상기 획득된 1차 화재 식별 결과 및 2차 화재 식별 결과에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하는 단계; 를 포함하고,
상기 1차 화재 식별 결과를 획득하는 단계는
상기 광학 이미지 내 화재 후보 영역에 대해 결정되는, 상기 불꽃 또는 상기 연기 감지 조건에 관한 적어도 하나의 화재 지수를 결정하는 단계; 및
상기 적어도 하나의 화재 지수에 기초하여, 상기 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 기 설정된 임계치 이상인 경우, 상기 화재 후보 영역의 위치를 상기 광학 화재 식별 영역의 위치로 식별하는 단계; 를 포함하고,
상기 광학 이미지를 획득하는 단계는,
기 설정된 프레임 간격을 가지는 복수의 광학 이미지들을 획득하는 단계; 를 포함하며,
상기 적어도 하나의 화재 지수를 결정하는 단계는
상기 복수의 광학 이미지들이 상기 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정하는 단계; 를 포함하고,
상기 연기 지수를 결정하는 단계는,
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 상기 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정하는 단계;
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별하는 단계;
상기 식별된 움직임 영역들을 클러스터링하는 단계;
상기 클러스터링된 움직임 영역들 내 픽셀들 중, 그레이 색상 값을 나타내는 픽셀들을 추출하는 단계;
상기 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터들을 식별하는 단계;
상기 모션 벡터들이 식별되면, 상기 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득하는 단계; 및
상기 획득된 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정하는 단계; 를 포함하는, 방법.A method for an electronic device to detect a disaster,
acquiring a thermal image by monitoring the area to be monitored;
acquiring an optical image by monitoring the area to be monitored;
Based on whether the position of the thermal image fire identification area indicating the temperature in the preset critical range in the thermal image and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the monitoring obtaining a primary fire identification result for the target area;
obtaining a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model by inputting the optical image into an artificial intelligence model; and
determining whether a fire has occurred in the monitoring target area based on the obtained primary fire identification result and secondary fire identification result; including,
The step of obtaining the first fire identification result is
determining at least one fire index relating to the flame or the smoke detection condition, which is determined for a fire candidate area in the optical image; and
identifying the location of the fire candidate area as the location of the optical fire identification area when the number of times the fire candidate area is identified as the fire suspicious area is equal to or greater than a preset threshold based on the at least one fire index; including,
Acquiring the optical image comprises:
acquiring a plurality of optical images having a preset frame interval; includes,
Determining the at least one fire index comprises:
determining a smoke index as to whether the plurality of optical images satisfy the smoke detection condition; including,
The step of determining the smoke index,
determining a foreground image and a background image for the plurality of optical images by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
identifying motion regions by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
clustering the identified motion regions;
extracting pixels representing a gray color value from among the pixels in the clustered motion regions;
identifying motion vectors by tracking image regions comprising pixels representing the gray color value in a plurality of optical images having the contiguous frame number;
when the motion vectors are identified, obtaining an output value of the low-pass filter by applying a low-pass filter to a background image among the plurality of optical images; and
determining a smoke index with respect to the correlation between the obtained output value of the low-pass filter and the low-pass filter output value with respect to a background image when a preset smoke is generated; A method comprising
적어도 하나의 센서를 이용하여 상기 전자 장치가 설치된 위치에서 지진파를 센싱함으로써 지진파 정보를 획득하는 단계;
상기 지진파 정보에 기초하여 적어도 하나의 지진 지수를 결정하는 단계;
상기 결정된 적어도 하나의 지진 지수에 기초하여 지진 발생 여부를 결정하는 단계; 및
상기 화재 발생 여부 또는 상기 지진 발생 여부에 따라 알림 정보를 출력하는 단계; 를 더 포함하는, 방법.The method of claim 1, wherein the method
acquiring seismic wave information by sensing seismic waves at a location where the electronic device is installed using at least one sensor;
determining at least one seismic index based on the seismic wave information;
determining whether an earthquake occurs based on the determined at least one earthquake index; and
outputting notification information according to whether the fire or the earthquake has occurred; A method further comprising:
상기 열화상 이미지의 픽셀 값에 기초하여 상기 기 설정된 임계 범위의 온도를 만족하는 일부 이미지 영역들에 관한 열화상 화재 식별 영역의 위치를 식별하는 단계; 및
상기 식별된 열화상 화재 식별 영역의 위치 및 상기 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여 상기 1차 화재 식별 결과를 획득하는 단계; 를 포함하는, 방법.According to claim 1, wherein the step of obtaining the first fire identification result
identifying a location of a thermal image fire identification region with respect to some image regions satisfying a temperature of the preset threshold range based on a pixel value of the thermal image; and
obtaining the primary fire identification result based on whether the position of the identified thermal image fire identification area matches the position of the optical fire identification area; A method comprising
상기 열화상 화재 식별 영역의 위치 및 상기 광학 화재 식별 영역의 위치가 매칭되는 것으로 식별되는 경우, 상기 감시 대상 영역 내 화재가 발생하였다는 결과에 관한 상기 1차 화재 식별 결과를 획득하는 단계; 및
상기 열화상 화재 식별 영역의 위치 또는 상기 광학 화재 식별 영역의 위치가 식별되지 않거나, 상기 열화상 화재 식별 영역의 위치 및 상기 광학 화재 식별 영역의 위치가 매칭되지 않는 것으로 식별되는 경우, 상기 감시 대상 영역 내 화재가 발생하지 않았다는 결과에 관한 상기 1차 화재 식별 결과를 획득하는 단계; 를 포함하는, 방법.The method of claim 3, wherein obtaining the primary fire identification result comprises:
obtaining the primary fire identification result regarding a result that a fire has occurred in the monitoring target area when it is identified that the position of the thermal image fire identification area matches the position of the optical fire identification area; and
If the location of the thermal image fire identification area or the optical fire identification area is not identified, or it is identified that the location of the thermal image fire identification area and the location of the optical fire identification area do not match, the monitoring target area obtaining the primary fire identification result with respect to the result that no fire has occurred; A method comprising
상기 광학 이미지 내 픽셀들의 RGB 데이터를 HSL 데이터로 변환하는 단계;
상기 HSL 데이터에 기초하여 상기 광학 이미지 내 화재 후보 영역을 결정하는 단계;
상기 결정된 화재 후보 영역에 대해 상기 불꽃 또는 상기 연기 감지 조건에 관한 적어도 하나의 화재 지수를 결정하는 단계;
상기 결정된 적어도 하나의 화재 지수에 기초하여, 상기 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수를 식별하는 단계;
상기 식별된 횟수가 기 설정된 임계치 이상인 경우, 상기 화재 후보 영역의 위치를 상기 광학 화재 식별 영역의 위치로 식별하는 단계; 를 포함하는, 방법.4. The method of claim 3, wherein identifying the location of the optical fire identification area comprises:
converting RGB data of pixels in the optical image into HSL data;
determining a fire candidate area in the optical image based on the HSL data;
determining at least one fire index related to the flame or the smoke detection condition for the determined fire candidate area;
identifying the number of times the fire candidate area is identified as a fire suspicious area based on the determined at least one fire index;
identifying the location of the fire candidate area as the location of the optical fire identification area when the number of times identified is equal to or greater than a preset threshold; A method comprising
상기 HSL 데이터 내 색상(Hue), 채도(Saturation) 및 명도(Lightness) 값 모두가 소정의 임계치 이상인 픽셀들을 포함하는 제1 후보 영역을 결정하는 단계;
상기 HSL 데이터 내 상기 색상, 상기 채도 또는 상기 명도 중 적어도 하나가 상기 소정의 임계치 이상인 픽셀들을 식별하는 단계;
상기 식별된 픽셀들 주변의 픽셀들의 색상, 채도 및 명도 값 모두가 상기 소정의 임계치 이상인 경우, 상기 색상, 상기 채도 또는 상기 명도 중 적어도 하나가 상기 소정의 임계치 이상인 픽셀들 및 상기 제1 후보 영역에 포함된 픽셀들을 포함하는 제2 후보 영역을 결정하는 단계; 및
상기 제2 후보 영역을 상기 화재 후보 영역으로 결정하는 단계; 를 포함하는, 방법.The method of claim 5, wherein the determining of the fire candidate area comprises:
determining a first candidate region including pixels having all of Hue, Saturation, and Lightness values in the HSL data equal to or greater than a predetermined threshold;
identifying pixels in the HSL data in which at least one of the hue, the saturation, and the brightness is equal to or greater than the predetermined threshold;
When all of the color, saturation, and brightness values of pixels around the identified pixels are equal to or greater than the predetermined threshold value, at least one of the color, the saturation, or the brightness is greater than or equal to the predetermined threshold value, and in the first candidate region determining a second candidate area including the included pixels; and
determining the second candidate area as the fire candidate area; A method comprising
상기 열화상 이미지를 획득하는 단계 및 상기 광학 이미지를 획득하는 단계는
상기 감시 대상 영역을 촬영하는 열화상 카메라 및 광학 카메라 장치 각각을 통하여 기 설정된 프레임 간격을 가지는 복수의 열화상 이미지들을 획득하는 단계 및 상기 기 설정된 프레임 간격을 가지는 복수의 광학 이미지들을 획득하는 단계; 를 포함하는, 방법.6. The method of claim 5,
Acquiring the thermal image and acquiring the optical image
acquiring a plurality of thermal image images having a preset frame interval through each of a thermal imaging camera and an optical camera device for photographing the monitoring target area, and acquiring a plurality of optical images having the preset frame interval; A method comprising
상기 복수의 광학 이미지들 중 인접하는 3개의 프레임 번호를 가지는 복수의 광학 이미지들 내 화재 후보 영역에 대하여 하이패스 필터링을 수행함으로써 제로 크로스 카운트 지수를 결정하는 단계;
상기 제로 크로스 카운트 지수 및 소정의 임계치를 비교함으로써 상기 화재 후보 영역 별 픽셀 별로 하이패스 필터 변수를 결정하는 단계;
상기 하이패스 필터 변수가 0이 아닌 픽셀의 수의 상기 광학 이미지들 별 변화량에 관한 하이패스 필터 면적 지수를 결정하는 단계; 를 포함하는, 방법.8. The method of claim 7, wherein determining the at least one fire index comprises:
determining a zero cross count index by performing high-pass filtering on a fire candidate area in a plurality of optical images having three adjacent frame numbers among the plurality of optical images;
determining a high-pass filter variable for each pixel of the fire candidate area by comparing the zero cross count index and a predetermined threshold;
determining a high-pass filter area index with respect to a change amount for each of the optical images in the number of pixels in which the high-pass filter parameter is not zero; A method comprising
상기 복수의 광학 이미지들 내 화재 후보 영역의 주기성에 관한 주기성 지수를 결정하는 단계;
상기 복수의 광학 이미지들 내 픽셀들 중 픽셀 값의 변이가 큰 픽셀들의 수의 변화 정도에 관한 움직임 영역 지수를 결정하는 단계; 및
상기 복수의 광학 이미지들 내에서, 특정 픽셀의 변이 값이 소정의 임계치 이상으로 나타나는 횟수가 기 설정된 횟수 이상인 픽셀들의 위치에 관한 무빙 오브젝트 지수를 결정하는 단계; 를 더 포함하는, 방법.9. The method of claim 8, wherein determining the at least one fire index comprises:
determining a periodicity index with respect to the periodicity of the fire candidate area in the plurality of optical images;
determining a motion area index with respect to a degree of change in the number of pixels having a large variation in a pixel value among pixels in the plurality of optical images; and
determining, in the plurality of optical images, a moving object index with respect to positions of pixels in which a disparity value of a specific pixel appears more than a predetermined threshold value; A method further comprising:
상기 복수의 광학 이미지들이 상기 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정하는 단계; 를 더 포함하는, 방법.9. The method of claim 8, wherein determining the at least one fire index comprises:
determining a smoke index as to whether the plurality of optical images satisfy the smoke detection condition; A method further comprising:
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 상기 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정하는 단계;
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별하는 단계;
상기 식별된 움직임 영역들을 클러스터링하는 단계;
상기 클러스터링된 움직임 영역들 내 픽셀들 중, 그레이 색상 값을 나타내는 픽셀들을 추출하는 단계;
상기 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터들을 식별하는 단계;
상기 모션 벡터들이 식별되면, 상기 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득하는 단계; 및
상기 획득된 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정하는 단계; 를 포함하는, 방법.The method of claim 10, wherein determining the smoke index comprises:
determining a foreground image and a background image for the plurality of optical images by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
identifying motion regions by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
clustering the identified motion regions;
extracting pixels representing a gray color value from among the pixels in the clustered motion regions;
identifying motion vectors by tracking image regions comprising pixels representing the gray color value in a plurality of optical images having the contiguous frame number;
when the motion vectors are identified, obtaining an output value of the low-pass filter by applying a low-pass filter to a background image among the plurality of optical images; and
determining a smoke index with respect to the correlation between the obtained output value of the low-pass filter and the low-pass filter output value with respect to a background image when a preset smoke is generated; A method comprising
상기 광학 이미지 내 픽셀들의 RGB 데이터 중, R값 및 G값의 차이, R값 및 B 값의 차이와 G값 및 B값의 차이가 각각 미리 설정된 임계차 보다 작은 경우, 해당 픽셀을 그레이 색상 값을 나타내는 픽셀로 추출하는 단계; 를 포함하는, 방법.The method of claim 11 , wherein the extracting of pixels representing the gray color value comprises:
Among the RGB data of pixels in the optical image, when the difference between the R value and the G value, the difference between the R value and the B value, and the difference between the G value and the B value is smaller than a preset threshold difference, the corresponding pixel is converted to a gray color value extracting to the pixels representing; A method comprising
상기 복수의 광학 이미지들 중 연속하는 N-1 프레임, N프레임, N+1 프레임 번호를 가지는 광학 이미지들 각각에 대해 결정되는 -0.25, 0.5 및 -0.25 가중치에 기초하여 광학 이미지들 별 픽셀 값들을 가중합함으로써 하이패스 필터링을 수행하고, 하이패스 필터링 수행 결과에 따른 플리커 변수를 픽셀 별로 결정하는 단계;
상기 결정된 플리커 변수 및 소정의 임계치를 비교함으로써, 픽셀 별로 하이패스 필터 변수 값을 결정하는 단계; 및
상기 복수의 광학 이미지들 별 상기 하이패스 필터 변수 값에 기초하여 상기 제로크로스 카운트 지수를 결정하는 단계; 를 포함하는, 방법.The method of claim 8, wherein determining the zero cross count index comprises:
Pixel values for each optical image are calculated based on weights of -0.25, 0.5, and -0.25 determined for each of the optical images having consecutive N-1 frame, N frame, and N+1 frame numbers among the plurality of optical images. performing high-pass filtering by weight summing, and determining a flicker variable for each pixel according to a result of performing high-pass filtering;
determining a high-pass filter variable value for each pixel by comparing the determined flicker variable with a predetermined threshold; and
determining the zero-cross count index based on the high-pass filter variable value for each of the plurality of optical images; A method comprising
이미지 상에서 상기 열화상 화재 식별 영역의 위치 및 상기 광학 화재 식별 영역의 위치가 매칭되는지 여부를 결정하는 단계; 및
상기 열화상 화재 식별 영역의 위치 및 상기 광학 화재 식별 영역의 위치가 각각 나타내는 물리적 공간상에서의 위치가 매칭되는지 여부를 결정하는 단계; 를 더 포함하는, 방법.The method of claim 5, wherein obtaining the primary fire identification result comprises:
determining whether the location of the thermal fire identification area and the location of the optical fire identification area match on an image; and
determining whether the location of the thermal image fire identification area and the location on the physical space respectively indicated by the location of the optical fire identification area match; A method further comprising:
상기 획득된 광학 이미지를 전처리하는 단계;
상기 전처리된 광학 이미지를 상기 인공 지능 모델에 입력하는 단계; 및
상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 확률 값을 포함하는 상기 2차 화재 식별 결과를 획득하는 단계; 를 포함하는, 방법.According to claim 1, wherein the step of obtaining the secondary fire identification results
pre-processing the obtained optical image;
inputting the preprocessed optical image into the artificial intelligence model; and
obtaining the secondary fire identification result including a probability value regarding whether a fire has occurred in the monitoring target area from the artificial intelligence model; A method comprising
열화상 카메라;
광학 카메라;
네트워크 인터페이스;
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 하나 이상의 인스트럭션을 실행하는 복수의 프로세서; 를 포함하고,
상기 복수의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하고,
상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하고,
상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하고,
상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하고,
상기 획득된 1차 화재 식별 결과 및 2차 화재 식별 결과에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하고,
상기 복수의 프로세서는
상기 광학 이미지 내 화재 후보 영역에 대해 결정되는, 상기 불꽃 또는 상기 연기 감지 조건에 관한 적어도 하나의 화재 지수를 결정하고,
상기 적어도 하나의 화재 지수에 기초하여, 상기 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 기 설정된 임계치 이상인 경우, 상기 화재 후보 영역의 위치를 상기 광학 화재 식별 영역의 위치로 식별하고,
상기 복수의 프로세서는
기 설정된 프레임 간격을 가지는 복수의 광학 이미지들을 획득하고,
상기 복수의 광학 이미지들이 상기 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정하고,
상기 복수의 프로세서는
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 상기 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정하고,
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별하고,
상기 식별된 움직임 영역들을 클러스터링하고,
상기 클러스터링된 움직임 영역들 내 픽셀들 중, 그레이 색상 값을 나타내는 픽셀들을 추출하고,
상기 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터들을 식별하고,
상기 모션 벡터들이 식별되면, 상기 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득하고,
상기 획득된 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정하는, 전자 장치.In an electronic device for detecting a disaster,
Thermal imaging camera;
optical camera;
network interface;
a memory storing one or more instructions; and
a plurality of processors executing the one or more instructions; including,
The plurality of processors by executing the one or more instructions,
To acquire a thermal image by monitoring the area to be monitored,
Obtaining an optical image by monitoring the area to be monitored,
Based on whether the position of the thermal image fire identification area indicating the temperature in the preset critical range in the thermal image and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the monitoring Obtain the primary fire identification result for the target area,
By inputting the optical image into the artificial intelligence model, a secondary fire identification result regarding whether a fire has occurred in the area to be monitored is obtained from the artificial intelligence model,
Determining whether or not a fire occurs in the monitoring target area based on the obtained primary fire identification result and secondary fire identification result,
The plurality of processors
determine at least one fire index relating to the flame or the smoke detection condition, which is determined for a fire candidate area in the optical image;
Based on the at least one fire index, when the number of times that the fire candidate area is identified as a fire suspicious area is equal to or greater than a preset threshold, the location of the fire candidate area is identified as the location of the optical fire identification area,
The plurality of processors
Obtaining a plurality of optical images having a preset frame interval,
determine a smoke index with respect to whether the plurality of optical images satisfy the smoke detection condition;
The plurality of processors
determine a foreground image and a background image for the plurality of optical images by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
identifying motion regions by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
clustering the identified motion regions;
extracting pixels representing a gray color value from among the pixels in the clustered motion regions;
identify motion vectors by tracking image regions comprising pixels representing the gray color value in a plurality of optical images having the adjacent frame number;
When the motion vectors are identified, an output value of the low-pass filter is obtained by applying a low-pass filter to a background image among the plurality of optical images;
and determining a smoke index regarding a correlation between the obtained output value of the low-pass filter and a low-pass filter output value with respect to a background image when a preset smoke is generated.
감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하는 단계;
상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하는 단계;
상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하는 단계;
상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하는 단계; 및
상기 획득된 1차 화재 식별 결과 및 2차 화재 식별 결과에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하는 단계; 를 포함하고,
상기 1차 화재 식별 결과를 획득하는 단계는
상기 광학 이미지 내 화재 후보 영역에 대해 결정되는, 상기 불꽃 또는 상기 연기 감지 조건에 관한 적어도 하나의 화재 지수를 결정하는 단계; 및
상기 적어도 하나의 화재 지수에 기초하여, 상기 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 기 설정된 임계치 이상인 경우, 상기 화재 후보 영역의 위치를 상기 광학 화재 식별 영역의 위치로 식별하는 단계; 를 포함하고,
상기 광학 이미지를 획득하는 단계는,
기 설정된 프레임 간격을 가지는 복수의 광학 이미지들을 획득하는 단계; 를 포함하며,
상기 적어도 하나의 화재 지수를 결정하는 단계는
상기 복수의 광학 이미지들이 상기 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정하는 단계; 를 포함하고,
상기 연기 지수를 결정하는 단계는,
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 상기 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정하는 단계;
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별하는 단계;
상기 식별된 움직임 영역들을 클러스터링하는 단계;
상기 클러스터링된 움직임 영역들 내 픽셀들 중, 그레이 색상 값을 나타내는 픽셀들을 추출하는 단계;
상기 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터들을 식별하는 단계;
상기 모션 벡터들이 식별되면, 상기 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득하는 단계; 및
상기 획득된 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정하는 단계; 를 포함하는, 방법을 수행하도록 하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록 매체.A method for an electronic device to detect a disaster,
acquiring a thermal image by monitoring the area to be monitored;
acquiring an optical image by monitoring the area to be monitored;
Based on whether the position of the thermal image fire identification area indicating the temperature in the preset critical range in the thermal image and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the monitoring obtaining a primary fire identification result for the target area;
obtaining a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model by inputting the optical image into an artificial intelligence model; and
determining whether a fire has occurred in the monitoring target area based on the obtained primary fire identification result and secondary fire identification result; including,
The step of obtaining the first fire identification result is
determining at least one fire index relating to the flame or the smoke detection condition, which is determined for a fire candidate area in the optical image; and
identifying the location of the fire candidate area as the location of the optical fire identification area when the number of times the fire candidate area is identified as the fire suspicious area is equal to or greater than a preset threshold based on the at least one fire index; including,
Acquiring the optical image comprises:
acquiring a plurality of optical images having a preset frame interval; includes,
Determining the at least one fire index comprises:
determining a smoke index as to whether the plurality of optical images satisfy the smoke detection condition; including,
The step of determining the smoke index,
determining a foreground image and a background image for the plurality of optical images by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
identifying motion regions by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
clustering the identified motion regions;
extracting pixels representing a gray color value from among the pixels in the clustered motion regions;
identifying motion vectors by tracking image regions comprising pixels representing the gray color value in a plurality of optical images having the contiguous frame number;
when the motion vectors are identified, obtaining an output value of the low-pass filter by applying a low-pass filter to a background image among the plurality of optical images; and
determining a smoke index with respect to the correlation between the obtained output value of the low-pass filter and the low-pass filter output value with respect to a background image when a preset smoke is generated; A computer-readable recording medium in which a program for performing the method is stored, comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220042482A KR102465105B1 (en) | 2022-04-05 | 2022-04-05 | Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220042482A KR102465105B1 (en) | 2022-04-05 | 2022-04-05 | Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102465105B1 true KR102465105B1 (en) | 2022-11-09 |
Family
ID=84040151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220042482A KR102465105B1 (en) | 2022-04-05 | 2022-04-05 | Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102465105B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102654042B1 (en) * | 2023-06-21 | 2024-04-03 | 쿨사인 주식회사 | Fire determination apparatus and method using thermal imaging and RGB dual camera |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080065833A (en) * | 2007-01-10 | 2008-07-15 | 한국서부발전 주식회사 | Fire alarm method and system |
KR20160061614A (en) * | 2014-11-24 | 2016-06-01 | 멀티펠스 주식회사 | Fire detection system |
KR101953342B1 (en) * | 2017-12-08 | 2019-05-23 | 주식회사 비젼인 | Multi-sensor fire detection method and system |
KR20190142843A (en) | 2018-06-19 | 2019-12-30 | 박준영 | Disaster detection, protection and response apparatus and operating method thereof |
KR102242421B1 (en) * | 2020-12-04 | 2021-04-20 | (주)아이아이에스티 | Apparatus and method for detecting disaster |
-
2022
- 2022-04-05 KR KR1020220042482A patent/KR102465105B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080065833A (en) * | 2007-01-10 | 2008-07-15 | 한국서부발전 주식회사 | Fire alarm method and system |
KR20160061614A (en) * | 2014-11-24 | 2016-06-01 | 멀티펠스 주식회사 | Fire detection system |
KR101953342B1 (en) * | 2017-12-08 | 2019-05-23 | 주식회사 비젼인 | Multi-sensor fire detection method and system |
KR20190142843A (en) | 2018-06-19 | 2019-12-30 | 박준영 | Disaster detection, protection and response apparatus and operating method thereof |
KR102242421B1 (en) * | 2020-12-04 | 2021-04-20 | (주)아이아이에스티 | Apparatus and method for detecting disaster |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102654042B1 (en) * | 2023-06-21 | 2024-04-03 | 쿨사인 주식회사 | Fire determination apparatus and method using thermal imaging and RGB dual camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11735018B2 (en) | Security system with face recognition | |
CN110895861B (en) | Abnormal behavior early warning method and device, monitoring equipment and storage medium | |
CN107223332B (en) | Audio visual scene analysis based on acoustic camera | |
KR101953342B1 (en) | Multi-sensor fire detection method and system | |
KR20190098105A (en) | Apparatus and method for smart home monitoring | |
JP7162412B2 (en) | detection recognition system | |
KR20190078543A (en) | Image acqusition device and controlling method thereof | |
WO2018101247A1 (en) | Image recognition imaging apparatus | |
KR102384299B1 (en) | Cctv camera device having assault detection function and method for detecting assault based on cctv image performed | |
KR102420567B1 (en) | Method and device for voice recognition | |
KR20180055708A (en) | Device and method for image processing | |
KR102242421B1 (en) | Apparatus and method for detecting disaster | |
EP2570992A1 (en) | Image processing apparatus, image processing method, and program | |
JP2017228224A (en) | Information processing device, information processing method, and program | |
KR20210097500A (en) | Apparatus for Monitoring Fire And System having the same | |
KR102465105B1 (en) | Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data | |
JP5970232B2 (en) | Evacuation information provision device | |
KR101979375B1 (en) | Method of predicting object behavior of surveillance video | |
KR101454644B1 (en) | Loitering Detection Using a Pedestrian Tracker | |
KR20210155655A (en) | Method and apparatus for identifying object representing abnormal temperatures | |
KR20230035509A (en) | Acoustic detection device and system with regions of interest | |
JP2019117556A (en) | Information processing apparatus, information processing method and program | |
KR20190062030A (en) | Image display apparatus and operating method thereof | |
CN113361364B (en) | Target behavior detection method, device, equipment and storage medium | |
Kolobe et al. | A review on fall detection in smart home for elderly and disabled people |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |