KR102465105B1 - Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data - Google Patents

Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data Download PDF

Info

Publication number
KR102465105B1
KR102465105B1 KR1020220042482A KR20220042482A KR102465105B1 KR 102465105 B1 KR102465105 B1 KR 102465105B1 KR 1020220042482 A KR1020220042482 A KR 1020220042482A KR 20220042482 A KR20220042482 A KR 20220042482A KR 102465105 B1 KR102465105 B1 KR 102465105B1
Authority
KR
South Korea
Prior art keywords
fire
electronic device
image
area
optical
Prior art date
Application number
KR1020220042482A
Other languages
Korean (ko)
Inventor
서범석
허영수
안현욱
Original Assignee
(주)아이아이에스티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이아이에스티 filed Critical (주)아이아이에스티
Priority to KR1020220042482A priority Critical patent/KR102465105B1/en
Application granted granted Critical
Publication of KR102465105B1 publication Critical patent/KR102465105B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0014Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation from gases, flames
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/03Arrangements for indicating or recording specially adapted for radiation pyrometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/008Earthquake measurement or prediction
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke

Abstract

The present disclosure relates to a method for an electronic device to detect a disaster based on thermal composite data and an electronic device for performing the same. According to one embodiment, the method for an electronic device to detect a disaster may comprise: a step of obtaining a thermal image by monitoring a region to be monitored; a step of obtaining an optical image by monitoring the region to be monitored; a step of obtaining a primary fire identification result for the region to be monitored based on whether the position of a thermal fire identification region representing a temperature within a preset threshold range in the thermal image and the position of an optical fire identification region determined according to flame or smoke detection conditions in the optical image match; a step of obtaining a secondary fire identification result regarding whether a fire has occurred in the region to be monitored from an artificial intelligence model by inputting the optical image into the artificial intelligence model; and a step of determining whether a fire has occurred in the region to be monitored based on at least one of the obtained primary fire identification result and secondary fire identification result. According to an embodiment, a disaster can be effectively detected by using the optical image and the thermal image in combination.

Description

열화상 복합 데이터를 이용한 AI 모델 기반 재난을 감지하는 방법 및 이를 수행하는 전자 장치 {APPARATUS AND METHOD FOR DETECTING DISASTER BASED ON ARTIFICIAL INTELLIGENCE MODEL USING THERMAL IMAGE COMPLEX DATA}A method for detecting a disaster based on an AI model using thermal image composite data and an electronic device for performing the same

본 개시는 재난을 감지하는 방법 및 이를 수행하는 전자 장치에 관한 것이다. 보다 상세하게는 열화상 복합 데이터를 이용하는 인공지능 모델을 기반으로, 화재 또는 지진 중 적어도 하나에 관한 재난을 감지하는 방법 및 이를 수행하는 전자 장치에 관한 것이다.The present disclosure relates to a method for detecting a disaster and an electronic device for performing the same. More particularly, it relates to a method of detecting a disaster related to at least one of a fire or an earthquake based on an artificial intelligence model using thermal image composite data, and an electronic device for performing the same.

인공지능 기술이 점차 발전함에 따라 인공지능 기술을 활용하여 재난을 감지하는 기술 개발이 요구되고 있다. 특히, 최근 기후 변화 등과 같은 환경 이슈로 다양한 재난들이 발생하고 있으며, 이러한 재난들에 따른 피해를 줄이기 위해 다양한 재난 감시 기술들에 인공 지능 기술을 적용하기 위한 시도들이 이루어지고 있다.With the gradual development of artificial intelligence technology, it is required to develop a technology to detect disasters using artificial intelligence technology. In particular, various disasters have recently occurred due to environmental issues such as climate change, and attempts are being made to apply artificial intelligence technology to various disaster monitoring technologies to reduce damage caused by these disasters.

특히, 현대 사회에서는 인구 밀도가 증가함에 따라 재난 발생 시 재난으로 인한 피해 규모 역시 커지는 문제점이 있으므로, 어느 곳에나 쉽게 설치 가능하고, 지진 및 화재와 같은 재난을 쉽고 정확하게 감지할 수 있는 기술 개발을 통해 인명 피해를 방지할 필요가 있다.In particular, in modern society, as the population density increases, there is a problem that the damage caused by a disaster also increases when a disaster occurs. It is necessary to prevent personal injury.

인공 지능 기술을 재난 감지에 적용하기 위한 다양한 기술들이 시도되고 있으나, 예측 정확도에 한계가 있으며, 모니터링 대상 공간에 대해 획득된 다양한 종류의 복합 데이터들에 최적화된 인공지능 모델 설계 기술 개발이 요구되고 있다. 또한, 인공지능 모델 및 영상 처리 알고리즘을 복합적으로 이용하여 모니터링 대상 공간 내 화재를 조기 감지하고 효율적으로 진압하기 위한 기술 개발이 요구되고 있다.Various technologies have been tried to apply artificial intelligence technology to disaster detection, but there is a limit to the prediction accuracy, and the development of artificial intelligence model design technology optimized for various types of complex data acquired for the monitoring target space is required. . In addition, there is a demand for technology development for early detection and efficient suppression of fires in the space to be monitored by using artificial intelligence models and image processing algorithms in combination.

한국공개특허 제2019-0142843호Korean Patent Publication No. 2019-0142843

일 실시 예에 의하면, 재난을 감지하는 방법 및 이를 수행하는 전자 장치가 제공될 수 있다.According to an embodiment, a method for detecting a disaster and an electronic device for performing the same may be provided.

보다 상세하게는 열화상 이미지 또는 광학 이미지 데이터 중 적어도 하나를 포함하는 복합 데이터에 대해 불꽃 또는 연기 분석 알고리즘과 인공 지능 모델을 함께 적용함으로써 재난을 감지하는 방법 및 이를 수행하는 전자 장치가 제공될 수 있다.In more detail, a method for detecting a disaster by applying a flame or smoke analysis algorithm and an artificial intelligence model together to composite data including at least one of thermal image or optical image data, and an electronic device for performing the same may be provided. .

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시 예에 의하면, 전자 장치가 재난을 감지하는 방법은 감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하는 단계; 상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하는 단계; 상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하는 단계; 상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하는 단계; 및 상기 획득된 1차 화재 식별 결과 또는 2차 화재 식별 결과 중 적어도 하나에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하는 단계; 를 포함할 수 있다.As a technical means for achieving the above-described technical problem, according to an embodiment, a method for detecting a disaster by an electronic device includes: acquiring a thermal image by monitoring a monitoring target area; acquiring an optical image by monitoring the area to be monitored; Based on whether the position of the thermal image fire identification area indicating the temperature in the preset critical range in the thermal image and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the monitoring obtaining a primary fire identification result for the target area; obtaining a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model by inputting the optical image into an artificial intelligence model; and determining whether a fire has occurred in the monitoring target area based on at least one of the obtained primary fire identification result and secondary fire identification result; may include.

상술한 기술적 과제를 해결하기 위한 또 다른 실시 예에 의하면, 재난을 감지하는 전자 장치에 있어서, 열화상 카메라; 광학 카메라; 네트워크 인터페이스; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행하는 복수의 프로세서; 를 포함하고, 상기 복수의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하고, 상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하고, 상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하고, 상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하고, 상기 획득된 1차 화재 식별 결과 또는 2차 화재 식별 결과 중 적어도 하나에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하는, 전자 장치가 제공될 수 있다.According to another embodiment for solving the above technical problem, there is provided an electronic device for detecting a disaster, comprising: a thermal imaging camera; optical camera; network interface; a memory storing one or more instructions; and a plurality of processors executing the one or more instructions. Including, wherein the plurality of processors by executing the one or more instructions, obtain a thermal image by monitoring the area to be monitored, obtain an optical image by monitoring the area to be monitored, and a preset in the thermal image Based on whether the position of the thermal image fire identification area indicating the temperature in the critical range and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the primary fire for the area to be monitored Obtaining an identification result, and inputting the optical image into an artificial intelligence model, to obtain a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model, and the obtained primary fire An electronic device that determines whether a fire occurs in the monitoring target area based on at least one of an identification result or a secondary fire identification result may be provided.

상술한 기술적 과제를 해결하기 위한 또 다른 실시 예에 의하면, 전자 장치가 재난을 감지하는 방법에 있어서, 감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하는 단계; 상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하는 단계; 상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하는 단계; 상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하는 단계; 및 상기 획득된 1차 화재 식별 결과 또는 2차 화재 식별 결과 중 적어도 하나에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하는 단계; 를 포함하는, 방법을 수행하도록 하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.According to another embodiment for solving the above-described technical problem, there is provided a method for detecting a disaster by an electronic device, the method comprising: acquiring a thermal image by monitoring an area to be monitored; acquiring an optical image by monitoring the area to be monitored; Based on whether the position of the thermal image fire identification area indicating the temperature in the preset critical range in the thermal image and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the monitoring obtaining a primary fire identification result for the target area; obtaining a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model by inputting the optical image into an artificial intelligence model; and determining whether a fire has occurred in the monitoring target area based on at least one of the obtained primary fire identification result and secondary fire identification result; A computer-readable recording medium in which a program for performing the method is stored, including a computer-readable recording medium may be provided.

일 실시 예에 의하면 광학 이미지 및 열화상 이미지를 복합적으로 이용함으로써 재난을 효과적으로 감지할 수 있다.According to an embodiment, a disaster may be effectively detected by using an optical image and a thermal image in combination.

일 실시 예에 의하면 인공 지능 모델 및 이미지 처리 알고리즘을 각각 수행하는 복수의 프로세서를 이용하여 광학 이미지 데이터 및 열화상 이미지 데이터를 효과적으로 분석할 수 있다.According to an exemplary embodiment, optical image data and thermal image data may be effectively analyzed using a plurality of processors that respectively perform an artificial intelligence model and an image processing algorithm.

도 1은 일 실시 예에 따른 전자 장치가 재난을 감지하는 과정을 개략적으로 설명하기 위한 도면이다.
도 2는 일 실시 예에 따른 전자 장치가 소정의 감시 대상 영역을 모니터링하는 동작을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 전자 장치가 재난을 감지하는 방법의 흐름도이다.
도 4는 또 다른 실시 예에 따른 전자 장치가 재난을 감지하는 방법의 흐름도이다.
도 5는 일 실시 예에 따른 전자 장치가 지진 발생 여부를 결정하는 과정을 구체적으로 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 전자 장치의 내부 구조를 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 전자 장치가 1차 화재 식별 결과를 획득하는 과정을 구체적으로 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 전자 장치가 광학 화재 식별 영역의 위치를 식별하는 과정을 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 전자 장치가 화재 후보 영역을 결정하는 과정을 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 전자 장치가 적어도 하나의 화재 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 전자 장치가 제로 크로스 카운트 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 12는 일 실시 예에 따른 전자 장치가 하이패스 필터 면적 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 13은 일 실시 예에 따른 전자 장치가 주기성 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 14는 일 실시 예에 따른 전자 장치가 움직임 영역 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 15는 일 실시 예에 따른 전자 장치가 무빙 오브젝트 지수를 결정하는 과정을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 전자 장치가 불꽃을 감지 결과에 기초하여 1차 화재 식별 여부를 결정하는 과정을 나타내는 흐름도이다.
도 17은 일 실시 예에 따른 전자 장치의 블록도이다.
도 18은 또 다른 실시 예에 따른 전자 장치의 블록도이다.
도 19는 일 실시 예에 따른 서버의 블록도이다.
도 20은 일 실시 예에 따른 전자 장치 및 서버가 서로 연동함으로써 재난을 감지하는 과정을 설명하기 위한 도면이다.
도 21은 또 다른 실시 예에 따른 전자 장치 및 서버가 서로 연동함으로써 재난을 감지하는 방법을 수행하는 과정을 설명하기 위한 도면이다.
도 22는 일 실시 예에 따른 전자 장치가 인공 지능 모델을 학습시키기 위한 학습 데이터를 생성하는 과정을 설명하기 위한 도면이다.
도 23은 일 실시 예에 따른 전자 장치가 인공 지능 모델을 이용하여 알람 이벤트를 생성하는 과정을 설명하기 위한 도면이다.
도 24는 일 실시 예에 따른 전자 장치가 연기 감지 조건에 따라 연기를 감지하는 방법을 구체적으로 설명하기 위한 도면이다.
도 25는 일 실시 에에 따른 전자 장치가 감지한 연기 감지 결과를 나타내는 도면이다.
1 is a diagram schematically illustrating a process in which an electronic device detects a disaster according to an exemplary embodiment.
FIG. 2 is a diagram for describing an operation of an electronic device monitoring a predetermined monitoring target area according to an exemplary embodiment.
3 is a flowchart of a method for an electronic device to detect a disaster according to an embodiment.
4 is a flowchart of a method for detecting a disaster by an electronic device according to another exemplary embodiment.
5 is a diagram for describing in detail a process in which an electronic device determines whether an earthquake occurs, according to an exemplary embodiment.
6 is a diagram for describing an internal structure of an electronic device according to an exemplary embodiment.
7 is a diagram for describing in detail a process in which an electronic device acquires a first fire identification result, according to an exemplary embodiment.
FIG. 8 is a diagram for describing a process in which an electronic device identifies a location of an optical fire identification area according to an exemplary embodiment.
9 is a diagram for describing a process in which an electronic device determines a fire candidate area according to an exemplary embodiment.
10 is a diagram for describing a process in which an electronic device determines at least one fire index, according to an exemplary embodiment.
11 is a diagram for describing a process in which an electronic device determines a zero cross count index, according to an exemplary embodiment.
12 is a diagram for describing a process in which an electronic device determines a high-pass filter area index, according to an exemplary embodiment.
13 is a diagram for describing a process in which an electronic device determines a periodicity index, according to an embodiment.
14 is a diagram for describing a process in which an electronic device determines a motion region index, according to an embodiment.
15 is a diagram for describing a process in which an electronic device determines a moving object index, according to an embodiment.
16 is a flowchart illustrating a process in which an electronic device determines whether to identify a primary fire based on a result of detecting a flame, according to an embodiment.
17 is a block diagram of an electronic device according to an embodiment.
18 is a block diagram of an electronic device according to another embodiment.
19 is a block diagram of a server according to an embodiment.
20 is a diagram for explaining a process of detecting a disaster by interworking between an electronic device and a server according to an embodiment.
21 is a diagram for explaining a process of performing a method for detecting a disaster by interworking between an electronic device and a server according to another embodiment.
22 is a diagram for describing a process of generating, by an electronic device, learning data for learning an artificial intelligence model, according to an embodiment.
23 is a diagram for describing a process in which an electronic device generates an alarm event using an artificial intelligence model, according to an exemplary embodiment.
24 is a diagram for describing in detail a method for an electronic device to detect smoke according to a smoke detection condition, according to an exemplary embodiment.
25 is a diagram illustrating a smoke detection result detected by an electronic device according to an exemplary embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present disclosure will be described in detail.

본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present disclosure have been selected as currently widely used general terms as possible while considering the functions in the present disclosure, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 일 실시 예에 따른 전자 장치가 재난을 감지하는 과정을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating a process in which an electronic device detects a disaster according to an exemplary embodiment.

일 실시 예에 의하면, 전자 장치(1000)는 광학 이미지(102), 열화상 이미지(104) 또는 기타 재난 정보(105) 중 적어도 하나를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 미리 설정된 간격의 프레임 간격을 가지는 복수의 광학 이미지들 또는 열화상 이미지들 중 적어도 하나를 획득할 수 있다. 일 실시 예에 의하면 기타 재난 정보(105)는 적어도 하나의 센서(예컨대 3축 가속도 센서)를 통하여 획득되는 지진파 정보를 포함할 수 있다. 본 개시에 따른 전자 장치(1000)는 광학 이미지 및 열화상 이미지에서 나타나는 복합 데이터에 기초하여 화재를 조기에 감지하고, 효과적으로 진압할 수 있는 지능형 화재 감지 시스템에 사용될 수 있다. According to an embodiment, the electronic device 1000 may acquire at least one of the optical image 102 , the thermal image 104 , and other disaster information 105 . For example, the electronic device 1000 may acquire at least one of a plurality of optical images or thermal images having a frame interval of a preset interval. According to an embodiment, the other disaster information 105 may include seismic wave information obtained through at least one sensor (eg, a 3-axis acceleration sensor). The electronic device 1000 according to the present disclosure may be used in an intelligent fire detection system capable of early detection and effective suppression of a fire based on complex data appearing in an optical image and a thermal image.

예를 들어, 전자 장치(1000)는 광학 이미지(102) 또는 열화상 이미지(104) 중 적어도 하나를 분석하고, 이미지 분석 결과에 기초하여 화재 발생 여부를 결정할 수 있다. 또한, 전자 장치(1000)는 지진파 정보(104)를 획득하고, 지진파 정보의 분석 결과에 기초하여 지진 발생 여부를 결정할 수 있다. 전자 장치(1000)는 화재 또는 지진 중 적어도 하나의 재난이 발생하는 경우, 발생한 것으로 결정한 재난에 관한 정보를 재난 알림 정보(144)로써 출력할 수 있다.For example, the electronic device 1000 may analyze at least one of the optical image 102 and the thermal image 104 and determine whether a fire occurs based on the image analysis result. Also, the electronic device 1000 may obtain the seismic wave information 104 and determine whether an earthquake occurs based on the analysis result of the seismic wave information. When at least one disaster of a fire or an earthquake occurs, the electronic device 1000 may output information about the disaster determined to have occurred as the disaster notification information 144 .

일 실시 예에 의하면, 전자 장치(1000)는 서버(2000)와 연동함으로써, 재난 알림 정보(144)를 출력할 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)는 서버(2000)를 통하여 적어도 하나의 광학 이미지, 적어도 하나의 열화상 이미지 또는 지진파 정보를 획득할 수도 있다. 일 실시 예에 의하면, 서버(2000)는 전자 장치(1000)와 네트워크를 통하여 통신 연결되고, 데이터를 송수신할 수 있는 기타 컴퓨팅 장치를 포함할 수 있다. 일 실시 예에 의하면, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다.According to an embodiment, the electronic device 1000 may output the disaster notification information 144 by interworking with the server 2000 . According to an embodiment, the electronic device 1000 may acquire at least one optical image, at least one thermal image image, or seismic wave information through the server 2000 . According to an embodiment, the server 2000 is communicatively connected to the electronic device 1000 through a network and may include other computing devices capable of transmitting and receiving data. According to an embodiment, the network includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, a satellite communication network, and It is a data communication network in a comprehensive sense that includes a combination of these and enables each network constituent entity shown in FIG. 1 to communicate smoothly with each other, and may include a wired Internet, a wireless Internet, and a mobile wireless communication network.

일 실시 예에 의하면, 전자 장치(1000)는 다양한 형태로 구현될 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 풍력터빈 나셀 내부 화재 감지 시스템 내부에 구현됨으로써, 연기, 온도, 영상, 열화상, 자외선 등 복합 센서 데이터 정보를 기초로 인공지능 PHM(Prognostics and Health Management) 기술을 적용함으로써 화재를 조기에 감지하고 이를 진압하는데 사용되는 컴퓨팅 장치일 수 있다.According to an embodiment, the electronic device 1000 may be implemented in various forms. According to an embodiment, the electronic device 1000 is implemented in a fire detection system inside a wind turbine nacelle, so that artificial intelligence PHM (Prognostics and Health Management) based on complex sensor data information, such as smoke, temperature, image, thermal image, and ultraviolet light, is implemented. ) technology can be a computing device used to detect fires early and extinguish them.

예를 들어, 본 명세서에서 기술되는 전자 장치(1000)는 풍력터빈 나셀 내부 화재 감지 시스템 내부에 위치하여 감시 대상 영역을 모니터링하는, 디지털 카메라, 모바일 단말, 스마트 폰(smart phone), CCTV, 카메라 장치, 노트북 컴퓨터(laptop computer), 태블릿 PC 일 수 있으나, 이에 한정되는 것은 아니다. 일 실시 예에 의하면 편의상 본 개시에 따른 전자 장치(1000)는 CCTV 장치 또는 CCT 장치를 제어하기 위한 프로세서를 포함하는 컴퓨팅 장치일 수 있다. For example, the electronic device 1000 described herein is a digital camera, a mobile terminal, a smart phone, a CCTV, a camera device that is located inside a wind turbine nacelle internal fire detection system to monitor a monitoring target area. , a laptop computer, may be a tablet PC, but is not limited thereto. According to an embodiment, for convenience, the electronic device 1000 according to the present disclosure may be a computing device including a processor for controlling a CCTV device or a CCT device.

일 실시 예에 의하면, 전자 장치(1000)는 광학 카메라(110), 열화상 카메라(111), 적어도 하나의 센서(112), 네트워크 인터페이스(114), 프로세서(120) 및 메모리(122)를 포함할 수 있다. 그러나 상술한 구성에 한정되는 것은 아니며, 전자 장치(1000)는 후술하는 도 17 내지 도 18에 도시된 바와 같이 더 적은 구성 요소를 포함할 수도 있고, 상술한 구성 외에 더 많은 구성을 포함할 수도 있다.According to an embodiment, the electronic device 1000 includes an optical camera 110 , a thermal imaging camera 111 , at least one sensor 112 , a network interface 114 , a processor 120 , and a memory 122 . can do. However, the present invention is not limited to the above-described configuration, and the electronic device 1000 may include fewer components as shown in FIGS. 17 to 18 to be described later, or may include more components in addition to the above-described configuration. .

일 실시 예에 의하면, 프로세서(120)는 메모리(122)에 저장된 하나 이상의 인스트럭션을 수행함으로써 전자 장치(1000)으 전반적인 동작을 제어할 수 있다. 일 실시 예에 의하면, 광학 카메라(110)는 프로세서(120)의 제어에 의해 소정의 감시 대상 영역을 촬영함으로써 소정의 프레임 간격을 가지는 복수의 광학 이미지들을 획득할 수 있다. 일 실시 예에 의하면, 열화상 카메라(111)는 소정의 감시 대상 영역을 모니터링함으로써 감시 대상 영역에 반사되어 수신되는 적외선을 센싱함으로써, 대상 영역에 대한 온도 데이터가 이미지화된 열화상 이미지들을 획득할 수 있다. According to an embodiment, the processor 120 may control the overall operation of the electronic device 1000 by executing one or more instructions stored in the memory 122 . According to an embodiment, the optical camera 110 may acquire a plurality of optical images having a predetermined frame interval by photographing a predetermined monitoring target area under the control of the processor 120 . According to an embodiment, the thermal imaging camera 111 may obtain thermal image images in which temperature data for the target area is imaged by sensing infrared rays reflected and received by the monitoring target area by monitoring a predetermined monitoring target area. have.

일 실시 예에 의하면, 적어도 하나의 센서(112)는 광학 이미지 센서, 열화상 이미지 센서, 3축 가속도 센서, 지자기 센서 중 적어도 하나를 포함할 수 있다. 적어도 하나의 센서(112)는 프로세서(120)의 제어에 의해, 이미지 센서 값을 획득하거나, 3축 가속도 정보를 획득하거나, 지자기 정보를 획득하고, 획득된 센서 값들을 프로세서(120)로 전달할 수 있다.According to an embodiment, the at least one sensor 112 may include at least one of an optical image sensor, a thermal image sensor, a three-axis acceleration sensor, and a geomagnetic sensor. At least one sensor 112 may acquire an image sensor value, acquire triaxial acceleration information, acquire geomagnetic information, and transmit the acquired sensor values to the processor 120 under the control of the processor 120 . have.

일 실시 예에 의하면, 네트워크 인터페이스(114)는 적어도 하나의 센서(112)가 획득한 센서 값들을 전자 장치와 연결된 다른 전자 장치로 전송할 수 있다. 또 다른 실시 예에 의하면 네트워크 인터페이스(114)는 전자 장치가 결정한 화재 발생 여부, 지진 발생 여부, 재난 발생 여부에 대한 정보를 외부 통합 관제 시스템으로 전송할 수도 있다. 또 다른 실시 예에 의하면, 네트워크 인터페이스(114)는 서버(2000)로부터 이미지 또는 지진파 정보를 수신할 수도 있다. 또한, 네트워크 인터페이스(114)는 전자 장치가 분석한 재난 알림 정보를 전자 장치와 연결된 다른 전자 장치로 전송할 수도 있다. 또한, 네트워크 인터페이스(114)는 전자 장치와 연결된 다른 전자 장치로부터 지진파 정보, 지진 위치 정보(예컨대 진앙지 정보, PS시 정보) 등을 더 수신할 수도 있다.According to an embodiment, the network interface 114 may transmit sensor values acquired by the at least one sensor 112 to another electronic device connected to the electronic device. According to another embodiment, the network interface 114 may transmit information on whether a fire occurs, an earthquake, or a disaster determined by the electronic device to an external integrated control system. According to another embodiment, the network interface 114 may receive an image or seismic wave information from the server 2000 . Also, the network interface 114 may transmit disaster notification information analyzed by the electronic device to another electronic device connected to the electronic device. Also, the network interface 114 may further receive seismic wave information, earthquake location information (eg, epicenter information, PS city information), and the like, from another electronic device connected to the electronic device.

일 실시 예에 의하면, 전자 장치(1000)가 출력하는 재난 알림 정보(144)는 화재 발생 정보 또는 지진 발생 정보 중 적어도 하나를 포함할 수 있다. 일 실시 예에 의하면, 화재 발생 정보는 화재 발생 종류(예컨대 불꽃 또는 연기형), 화재 발생 위치 정보, 화재 발생 규모, 화재 발생에 따른 긴급 구호 정보, 화재 발생에 관한 실시간 뉴스 정보 중 적어도 하나를 포함할 수 있다. 또한, 일 실시 예에 의하면, 지진 발생 정보는 지진 발생 위치, 지진 규모, 지진 강도, 지진 발생에 따른 긴급 구호 정보, 지진 발생에 관한 실시간 뉴스 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the disaster notification information 144 output by the electronic device 1000 may include at least one of fire occurrence information and earthquake occurrence information. According to an embodiment, the fire occurrence information includes at least one of a fire occurrence type (eg, flame or smoke type), fire occurrence location information, a fire occurrence scale, emergency relief information according to a fire occurrence, and real-time news information about a fire occurrence. can do. Also, according to an embodiment, the earthquake occurrence information may include at least one of an earthquake occurrence location, an earthquake magnitude, an earthquake intensity, emergency relief information according to an earthquake occurrence, and real-time news information on an earthquake occurrence.

도 2는 일 실시 예에 따른 전자 장치가 소정의 감시 대상 영역을 모니터링하는 동작을 설명하기 위한 도면이다.FIG. 2 is a diagram for describing an operation of an electronic device monitoring a predetermined monitoring target area according to an exemplary embodiment.

일 실시 예에 의하면, 전자 장치(1000)는 감시 대상 영역을 모니터링하는 CCTV 장치일 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 풍력 터빈 나셀 내부에 설치되는 CCTV 장치일 수도 있다. 그러나 상술한 예에 한정되는 것은 아니며, 전자 장치(1000)는 건물 또는 소정의 외벽(220)에 설치되는 CCTV 장치일 수 있다. 전자 장치(1000)는 건물 또는 소정의 공간 내 외벽(220)에 부착되어 감시 대상 영역(230)을 모니터링할 수 있다. 전자 장치(1000)는 감시 대상 영역을 모니터링함으로써 미리 설정된 간격의 복수의 프레임 이미지를 포함하는 영상을 획득할 수 있다. 또한, 전자 장치(1000)는 설치된 위치에서 적어도 하나의 센서를 이용하여 지진 발생에 따른 지진파 정보를 센싱할 수 있다. According to an embodiment, the electronic device 1000 may be a CCTV device for monitoring a monitoring target area. According to an embodiment, the electronic device 1000 may be a CCTV device installed inside a wind turbine nacelle. However, it is not limited to the above example, and the electronic device 1000 may be a CCTV device installed on a building or a predetermined outer wall 220 . The electronic device 1000 may be attached to the outer wall 220 in a building or a predetermined space to monitor the monitoring target area 230 . The electronic device 1000 may acquire an image including a plurality of frame images at a preset interval by monitoring the monitoring target area. Also, the electronic device 1000 may sense seismic wave information according to the occurrence of an earthquake using at least one sensor at an installed position.

일 실시 예에 의하면, 전자 장치(1000)는 지진이 발생하지 않는 경우에도, 기 설정된 주기에 따라 건물 또는 외벽의 진동을 센싱할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 미리 설정된 주기에 따라 건물 또는 외벽의 진동을 센싱함으로써, 전자 장치(1000)가 설치된 건물 또는 외벽의 공진 주파수를 결정하고, 결정된 공진 주파수에 대한 정보를 전자 장치와 연결된 다른 전자 장치로 미리 전송할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 전자 장치(1000)가 설치된 건물의 공진 주파수를 미리 저장해 둔 후, 공진 주파수에 대응되는 지진파 정보가 센싱되는 경우, 알림 정보를 더 강하게 출력할 수도 있다.According to an embodiment, even when an earthquake does not occur, the electronic device 1000 may sense the vibration of a building or an exterior wall according to a preset period. According to an embodiment, the electronic device 1000 determines a resonance frequency of a building or an exterior wall in which the electronic device 1000 is installed by sensing vibration of a building or an exterior wall according to a preset period, and provides information on the determined resonance frequency. It may be transmitted in advance to another electronic device connected to the electronic device. According to an embodiment, the electronic device 1000 may store the resonant frequency of the building in which the electronic device 1000 is installed in advance, and then output notification information more strongly when seismic wave information corresponding to the resonant frequency is sensed. .

도 3은 일 실시 예에 따른 전자 장치가 재난을 감지하는 방법의 흐름도이다.3 is a flowchart of a method for an electronic device to detect a disaster according to an embodiment.

S310에서, 전자 장치(1000)는 감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 열화상 카메라로부터 미리 설정된 프레임 간격을 가지는 복수의 열화상 이미지들을 획득할 수 있다. 열화상 이미지들은 감시 대상 객체로부터 반사된 적외선 파장을 센싱함으로써 온도 값을 나타내는 복수의 픽셀들을 포함할 수 있다. S320에서, 전자 장치(1000)는 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 광학 카메라로부터 미리 설정된 프레임 간격을 가지는 복수의 광학 이미지들을 획득할 수도 있다.In S310 , the electronic device 1000 may acquire a thermal image by monitoring the monitoring target area. According to an embodiment, the electronic device 1000 may acquire a plurality of thermal image images having a preset frame interval from the thermal image camera. The thermal images may include a plurality of pixels representing a temperature value by sensing an infrared wavelength reflected from the object to be monitored. In S320 , the electronic device 1000 may acquire an optical image by monitoring the monitoring target area. According to an embodiment, the electronic device 1000 may acquire a plurality of optical images having a preset frame interval from the optical camera.

S330에서, 전자 장치(1000)는 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여 감시 대상 영역에 대한 1차 화재 식별 결과를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 열화상 이미지 내 픽셀 값들에 기초하여 열화상 이미지 내 미리 설정된 임계 범위의 온도를 나타내는 이미지 영역이 있는지 여부를 결정하고, 기 설정된 임계 범위 온도를 나타내는 이미지 영역의 넓이가 임계면적 이상인 경우 해당 열화상 이미지 내 상기 기 설정된 임계 범위 온도를 나타내는 이미지 영역의 위치를 상기 열화상 화재 식별 영역의 위치로 식별할 수 있다.In S330, the electronic device 1000 determines whether the position of the thermal image fire identification region indicating a temperature in a preset critical range in the thermal image matches the position of the optical fire identification region determined according to the flame or smoke detection condition in the optical image. Based on whether or not it is possible to obtain a primary fire identification result for the area to be monitored. For example, the electronic device 1000 determines whether there is an image region representing a temperature in a preset critical range in the thermal image based on pixel values in the thermal image, and When the area is equal to or greater than the critical area, the position of the image region representing the preset critical range temperature in the thermal image may be identified as the position of the thermal image fire identification region.

또한, 예를 들어, 전자 장치(1000)는 광학 이미지에 대해 후술하는 불꽃 또는 연기 감지 조건 만족 여부에 기초하여 적어도 하나의 화재 지수를 결정하고, 결정된 적어도 하나의 화재 지수에 기초하여 광학 화재 식별 영역의 위치를 식별할 수 있다. 전자 장치(1000)는 열화상 이미지로부터 열화상 화재 식별 영역의 위치가 결정되지 않거나, 광학 이미지로부터 광학 화재 식별 영역의 위치가 식별되지 않거나, 식별된 열화상 화재 식별 영역의 위치와 식별된 광학 화재 식별 영역의 위치가 매칭되지 않는 경우, 화재가 발생하지 않은 것으로 결정할 수 있다. 본 개시에 따른 전자 장치(1000)는 열화상 이미지 및 광학 이미지를 복합적으로 활용함으로써 1차적으로 화재 식별 결과를 결정할 수 있다.Also, for example, the electronic device 1000 determines at least one fire index based on whether a flame or smoke detection condition to be described later for the optical image is satisfied, and an optical fire identification area based on the determined at least one fire index. location can be identified. In the electronic device 1000, the position of the thermal image fire identification area is not determined from the thermal image, the position of the optical fire identification region is not identified from the optical image, or the position of the identified thermal image fire identification region and the identified optical fire If the location of the identification area does not match, it may be determined that a fire has not occurred. The electronic device 1000 according to the present disclosure may primarily determine a fire identification result by using a thermal image and an optical image in combination.

S340에서, 전자 장치(1000)는 광학 이미지를 인공 지능 모델에 입력함으로써, 인공 지능 모델로부터 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 전자 장치 내 제1 프로세서를 이용하여 광학 이미지 및 열화상 이미지로부터 1차 화재 식별 결과를 획득하고, 인공 지능 알고리즘을 수행하기 위한 별도의 제2 프로세서를 이용하여 광학 이미지에 대해 인공 지능 모델을 적용함으로써 인공 지능 모델로부터 2차 화재 식별 결과를 획득할 수 있다.In S340 , the electronic device 1000 may obtain a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model by inputting the optical image into the artificial intelligence model. For example, the electronic device 1000 obtains a primary fire identification result from an optical image and a thermal image using a first processor in the electronic device, and uses a separate second processor for performing an artificial intelligence algorithm. By applying the artificial intelligence model to the optical image, secondary fire identification results can be obtained from the artificial intelligence model.

또 다른 실시 예에 의하면, 전자 장치(1000)는 획득된 광학 이미지를, 인공 지능 모델 적용에 최적화된 포맷으로 전처리하고, 전처리된 광학 이미지를 인공 지능 모델에 입력함으로써, 인공 지능 모델로부터 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 확률 값을 2차 화재 식별 결과로 획득할 수도 있다.According to another embodiment, the electronic device 1000 pre-processes the acquired optical image in a format optimized for application of the artificial intelligence model, and inputs the pre-processed optical image to the artificial intelligence model, so that the area to be monitored from the artificial intelligence model A probability value regarding whether or not a fire has occurred may be obtained as a result of secondary fire identification.

일 실시 예에 의하면, 전자 장치(1000)가 이용하는 인공 지능 모델은 심층 신경망(DNN:Deep Neural Network)을 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다. According to an embodiment, the artificial intelligence model used by the electronic device 1000 may include a deep neural network (DNN), for example, a convolutional neural network (CNN), a deep neural network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN), or Deep Q-Networks, etc., but are not limited to the above examples does not

일 실시 예에 의하면 전자 장치(1000)가 이용하는 인공 지능 모델은 광학 이미지 내 연기(예컨대 객체)의 움직임에 대한 픽셀을 추적하고, 해당 픽셀들에 대한 모션 벡터를 식별하며, 광학 이미지 내 배경에 저역 통과 필터를 적용함으로써, 식별된 연기와의 상관성에 따라 광학 이미지 내 연기를 식별하도록 미리 학습된 인공 지능 모델일 수 있다.According to an embodiment, the artificial intelligence model used by the electronic device 1000 tracks pixels for movement of smoke (eg, an object) in an optical image, identifies a motion vector for the corresponding pixels, and provides a low-frequency signal to a background in the optical image. By applying a pass filter, it may be an artificial intelligence model pre-trained to identify smoke in an optical image according to its correlation with the identified smoke.

S350에서, 전자 장치(1000)는 1차 화재 식별 결과 또는 2차 화재 식별 결과 중 적어도 하나에 기초하여 감시 대상 영역에 대한 화재 발생 여부를 결정할 수 있다. 본 개시에 따른 전자 장치(1000)는 광학 이미지 및 열화상 이미지를 복합하는 복합 데이터를 이용할 뿐만 아니라, 미리 학습된 인공 지능 모델을 함께 이용함으로써 화재 발생 여부를 신속 정확하게 결정할 수 있다.In S350 , the electronic device 1000 may determine whether a fire occurs in the monitoring target area based on at least one of the primary fire identification result and the secondary fire identification result. The electronic device 1000 according to the present disclosure may quickly and accurately determine whether or not a fire has occurred by using not only complex data combining an optical image and a thermal image, but also using a pre-learned artificial intelligence model.

도 4는 또 다른 실시 예에 따른 전자 장치가 재난을 감지하는 방법의 흐름도이다.4 is a flowchart of a method for detecting a disaster by an electronic device according to another exemplary embodiment.

S410 내지 S450은 도 3에서 상술한 S310 내지 S350에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S460에서, 전자 장치(1000)는 적어도 하나의 센서를 이용하여 전자 장치(1000)가 설치된 위치에서 지진파를 센싱함으로써 지진파 정보를 획득할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 3축 가속도 센서 및 지자기 센서 중 적어도 하나를 이용하여 3축 가속도 정보 및 지자기 정보를 획득할 수 있다.Since S410 to S450 may correspond to S310 to S350 described above in FIG. 3 , a detailed description thereof will be omitted. In S460 , the electronic device 1000 may acquire seismic wave information by sensing a seismic wave at a location where the electronic device 1000 is installed using at least one sensor. According to an embodiment, the electronic device 1000 may acquire 3-axis acceleration information and geomagnetic information by using at least one of a 3-axis acceleration sensor and a geomagnetic sensor.

S470에서, 전자 장치(1000)는 지진파 정보에 기초하여 적어도 하나의 지진 지수를 결정하고, 결정된 지진 지수에 기초하여 지진 발생 여부를 결정할 수 있다. S480에서, 전자 장치(1000)는 화재 발생 여부 또는 지진 발생 여부에 따라 알림 정보를 출력할 수 있다. 본 개시에 따른 전자 장치(1000)는 감시 대상 영역에 대한 화재 발생 여부만을 감지할 뿐만 아니라 지진을 함께 식별함으로써 복합적인 재난을 감지할 수 있다.In S470 , the electronic device 1000 may determine at least one earthquake index based on seismic wave information, and determine whether an earthquake occurs based on the determined earthquake index. In S480 , the electronic device 1000 may output notification information according to whether a fire or an earthquake has occurred. The electronic device 1000 according to the present disclosure may detect a complex disaster by not only detecting whether a fire has occurred in a monitoring target area but also identifying an earthquake.

도 5는 일 실시 예에 따른 전자 장치가 지진 발생 여부를 결정하는 과정을 구체적으로 설명하기 위한 도면이다.5 is a diagram for describing in detail a process in which an electronic device determines whether an earthquake occurs, according to an exemplary embodiment.

S510에서, 전자 장치(1000)는 지자기 정보에 기초하여 전자 장치가 설치된 위치에서 지자기 방향을 식별할 수 있다. 일 실시 예에 의하면, 지자기 정보는 동서남북 방향에 관한 정보를 포함할 수 있다. S520에서, 전자 장치(1000)는 3축 가속도 정보에 기초하여 3축 가속도 방향을 식별할 수 있다. 일 실시 예에 의하면 전자 장치(1000)는 3축 가속도 센서를 포함하고, 3축 가속도 센서로부터 획득되는 3축 가속도 정보에 기초하여 3축 가속도 방향을 식별할 수 있다. 일 실시 예에 의하면 3축 가속도 방향은, 3축 가속도 정보 내 각축에 대한 가속도 값에 기초하여 결정될 수 있다. 일 실시 예에 의하면 3축 가속도 방향은 지자기 방향과 매칭되지 않은 상태일 수 있다.In S510 , the electronic device 1000 may identify a geomagnetic direction at a location where the electronic device is installed based on geomagnetic information. According to an embodiment, the geomagnetic information may include information about the east, west, north, and south directions. In S520 , the electronic device 1000 may identify a 3-axis acceleration direction based on 3-axis acceleration information. According to an embodiment, the electronic device 1000 may include a 3-axis acceleration sensor, and may identify a 3-axis acceleration direction based on 3-axis acceleration information obtained from the 3-axis acceleration sensor. According to an embodiment, the 3-axis acceleration direction may be determined based on an acceleration value for each axis in the 3-axis acceleration information. According to an embodiment, the three-axis acceleration direction may be in a state that does not match the geomagnetic direction.

일 실시 예에 의하면 도 5에는 도시되지 않았지만, 일 실시 예에 의하면, 전자 장치(1000)는 전자 장치에 설치된 3축 가속도의 가속도 정보를 보정할 수 있다. 일 실시 예에 의하면, 전자 장치 내 3축 가속도 센서는 지면에 평행하게 설치되지 않고, 기준축으로부터 기울어지게 설치될 수 있다. 전자 장치(1000)는 3축 가속도 정보를 획득하고, 획득된 3축 가속도 정보 내 각축에 대한 가속도 값을 보정하는 과정을 더 수행할 수도 있다.According to an embodiment, although not shown in FIG. 5 , according to an embodiment, the electronic device 1000 may correct the acceleration information of the 3-axis acceleration installed in the electronic device. According to an embodiment, the 3-axis acceleration sensor in the electronic device may not be installed parallel to the ground, but may be installed to be inclined from the reference axis. The electronic device 1000 may further perform a process of obtaining triaxial acceleration information and correcting an acceleration value for each axis in the obtained triaxial acceleration information.

S530에서, 전자 장치(1000)는 3축 가속도 방향을 상기 식별된 지자기 방향에 매칭할 수 있다. 예를 들어, 3축 가속도의 방향과 지자기 방향은 매칭되지 않는 상태일 수 있다. 전자 장치(1000)는 3축 가속도의 방향을 지자기 방향과 매칭함으로써, 3축 가속도 방향이 실제 지자기 방향을 기준으로 어떤 방향에 해당하는지 여부를 식별할 수 있다.In S530, the electronic device 1000 may match the three-axis acceleration direction to the identified geomagnetic direction. For example, the three-axis acceleration direction and the geomagnetic direction may not match. The electronic device 1000 may identify which direction the 3-axis acceleration direction corresponds to based on the actual geomagnetic direction by matching the 3-axis acceleration direction with the geomagnetic direction.

S540에서, 전자 장치(1000)는 지자기 방향에 매칭된 3축 가속도 방향을 기준으로 3축 가속도 크기를 모니터링함으로써 최대 지반 가속도를 결정할 수 있다. 일 실시 예에 의하면, 최대지반 가속도는 순수 지진파에서 계측되는 최대 가속도 값일 수 있다. 일 실시 예에 의하면, 최대지반가속도에 기초하여, 전자 장치(1000)는 현재 측정되는 지진의 진도를 결정할 수 있다. S450에서, 전자 장치(1000)는 지자기 방향에 매칭된 3축 가속도 방향 및 상기 결정된 최대 지반 가속도에 기초하여 지진 발생 여부를 결정할 수 있다.In S540 , the electronic device 1000 may determine the maximum ground acceleration by monitoring the magnitude of the 3-axis acceleration based on the 3-axis acceleration direction matched to the geomagnetic direction. According to an embodiment, the maximum ground acceleration may be a maximum acceleration value measured from a pure seismic wave. According to an embodiment, based on the maximum ground acceleration, the electronic device 1000 may determine the currently measured intensity of the earthquake. In S450 , the electronic device 1000 may determine whether an earthquake occurs based on the three-axis acceleration direction matched to the geomagnetic direction and the determined maximum ground acceleration.

이하에서는 전자 장치(1000)가 3축 가속도 정보를 처리하는 과정을 구체적으로 설명하기로 한다. 일 실시 예에 의하면, 전자 장치(1000)내 3축 가속도 센서는 전자 장치의 수평면 또는 수직면으로부터 기울어지게 배치될 수 있다. 예를 들어, 지면과 수평인 축을 기준으로 가속도 센서의 Y축과 가속도 센서의 Z축은 수평 및 수직에 각각 평행한 Y 기준축 및 Z 기준축으로부터 소정의 각도만큼 기울어진 상태일 수 있다.Hereinafter, a process in which the electronic device 1000 processes the 3-axis acceleration information will be described in detail. According to an embodiment, the 3-axis acceleration sensor in the electronic device 1000 may be disposed to be inclined from a horizontal plane or a vertical plane of the electronic device. For example, the Y axis of the acceleration sensor and the Z axis of the acceleration sensor may be inclined by a predetermined angle from the Y reference axis and the Z reference axis parallel to the horizontal and vertical, respectively, with respect to an axis horizontal to the ground.

전자 장치(1000)는 3축 가속도 센서로부터 x축 출력 값, y축 출력 값을 획득할 수 있다. 전자 장치(1000)는

Figure 112022036478792-pat00001
와 같은 식을 이용하여 현재 가속도 센서의 z축 출력 값을 결정할 수 있다. 전자 장치(1000)는 가속도 센서의 y축 출력 값 및 z축 출력 값을
Figure 112022036478792-pat00002
와 같은 수식에 적용함으로써 x축이 지면과 이루는 각도를 측정할 수 있다. 또한, 전자 장치(1000)는 가속도 센서 x축 출력 값 및 z축 출력 값을
Figure 112022036478792-pat00003
와 같은 수식에 적용함으로써, y축에 대한 각도를 결정할 수 있다. 일 실시 예에 의하면 z축에 대한 각도를 결정되지 않을 수 있다. 일 실시 예에 의하면, 재난감지 카메라 내 3축 가속도 센서의 z축은 실제 z축 방향과 일치하도록 마련될 수 있다. 전자 장치(1000)는 가속도 센서의 각 축에 대한 각도 값을 상술한 바와 같이 결정한 다음, 결정된 가속도 센서의 각축에 대한 각도 값을 수평인 각도로 치환하여 보정된 3축 가속도 센서의 출력 값을 획득할 수 있다.The electronic device 1000 may obtain an x-axis output value and a y-axis output value from the 3-axis acceleration sensor. The electronic device 1000 is
Figure 112022036478792-pat00001
The z-axis output value of the current accelerometer can be determined by using the same equation. The electronic device 1000 receives the y-axis output value and the z-axis output value of the acceleration sensor.
Figure 112022036478792-pat00002
By applying the same formula as , the angle between the x-axis and the ground can be measured. Also, the electronic device 1000 receives an x-axis output value and a z-axis output value of the acceleration sensor.
Figure 112022036478792-pat00003
By applying an equation such as , the angle with respect to the y-axis can be determined. According to an embodiment, the angle with respect to the z-axis may not be determined. According to an embodiment, the z-axis of the 3-axis acceleration sensor in the disaster detection camera may be provided to coincide with the actual z-axis direction. The electronic device 1000 determines an angular value for each axis of the acceleration sensor as described above, and then replaces the determined angular value for each axis of the acceleration sensor with a horizontal angle to obtain a corrected output value of the 3-axis acceleration sensor can do.

이하에서는 전자 장치(1000)가 최대 지반 가속도에 기초하여 진도를 결정하는 과정을 구체적으로 설명하기로 한다. 예를 들어, 전자 장치(1000)는 3축 가속도 센서의 출력 값을 이용하여 최대지반가속도를 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 지면에서 수평 방향을 기준으로 최대지반 가속도를 측정할 수도 있다. 전자 장치(1000)는 미리 저장된 최대지반 가속도 및 진도 정보가 매칭된 테이블에 기초하여, 상기 결정된 최대지반 가속도에 따른 진도를 결정할 수 있다. 전자 장치(1000)는 결정된 진도가 기 설정된 임계 진도 이상인 경우, 지자기 방향에 매칭된 3축 가속도 방향을 기준으로 지진이 발생한 것으로 결정할 수 있다. 또한, 일 실시 예에 의하면, 전자 장치(1000)는 3축 가속도 정보를 이용하여 지진파를 실시간으로 이미지화할 수 있다. 전자 장치(1000)는 실시간으로 이미지화된 지진파의 진폭을 직접 측정함으로써 최대지반 가속도를 측정할 수도 있다.Hereinafter, a process in which the electronic device 1000 determines the progress based on the maximum ground acceleration will be described in detail. For example, the electronic device 1000 may determine the maximum ground acceleration by using the output value of the 3-axis acceleration sensor. According to an embodiment, the electronic device 1000 may measure the maximum ground acceleration based on a horizontal direction on the ground. The electronic device 1000 may determine the progress according to the determined maximum ground acceleration based on a table in which pre-stored maximum ground acceleration and progress information are matched. When the determined seismic intensity is equal to or greater than a preset threshold intensity, the electronic device 1000 may determine that an earthquake has occurred based on the three-axis acceleration direction matched to the geomagnetic direction. Also, according to an embodiment, the electronic device 1000 may image the seismic wave in real time by using the 3-axis acceleration information. The electronic device 1000 may measure the maximum ground acceleration by directly measuring the amplitude of the imaged seismic wave in real time.

이하에서는, 전자 장치(1000)가 지진 발생 위치를 식별하기 위한 과정을 구체적으로 설명하기로 한다. 일 실시 예에 의하면, 전자 장치(1000)는 3축 가속도 센서를 이용하여 P파 및 S파가 도달하는 시간의 차이인 PS 시를 측정할 수 있다. 전자 장치(1000)는 PS시가 측정되면, 측정된 PS시를 이용하여 현재 전자 장치가 설치된 위치에서 진앙까지의 거리를 결정할 수 있다. 전자 장치(1000)는 진앙까지의 거리를 반지름으로 하는 제1 진앙원을 결정할 수 있다. 또한, 전자 장치(1000)는 전자 장치와 연결된 다른 2이상의 전자 장치로부터, 다른 전자 장치의 위치 정보 및 다른 전자 장치가 결정한, 다른 전자 장치로부터 상기 진앙지까지 거리에 관한 진앙지 정보를 획득할 수 있다. 전자 장치(1000)는 다른 전자 장치로부터 획득된 진앙지 정보에 기초하여 제2 진앙원 및 제3 진앙원을 결정할 수 있다.Hereinafter, a process for the electronic device 1000 to identify an earthquake occurrence location will be described in detail. According to an embodiment, the electronic device 1000 may measure PS time, which is a difference between the arrival times of the P wave and the S wave, by using the 3-axis acceleration sensor. When the PS time is measured, the electronic device 1000 may determine a distance from the location where the electronic device is currently installed to the epicenter by using the measured PS time. The electronic device 1000 may determine a first epicenter with a distance to the epicenter as a radius. Also, the electronic device 1000 may obtain, from two or more other electronic devices connected to the electronic device, location information of the other electronic device and epicenter information regarding a distance from the other electronic device to the epicenter determined by the other electronic device. The electronic device 1000 may determine the second epicenter and the third epicenter based on epicenter information obtained from another electronic device.

일 실시 예에 의하면, 전자 장치(1000)는 3개의 진앙 거리를 반지름으로 하는 각 진앙원의 공통 현의 교차점을 실제 진앙지로 식별할 수 있다. 또한, 전자 장치(1000)는 진앙을 지나는 최단 공통현의 길이의 1/2 값을 진앙지로부터 진원까지의 깊이로 결정할 수 있다. 전자 장치(1000)는 진앙지의 위치 및 진앙지로부터 진원지까지의 깊이 정보를 진원지 정보로 결정할 수 있다. 전자 장치(1000)는 진원지 정보, 진앙지 정보, 상기 최대지반가속도에 기초하여 결정된 지진의 진도에 관한 정보를 알림 정보로써 출력할 수 있다.According to an embodiment, the electronic device 1000 may identify an intersection point of a common chord of each epicenter having three epicenter distances as a radius as an actual epicenter. Also, the electronic device 1000 may determine a 1/2 value of the length of the shortest common chord passing through the epicenter as the depth from the epicenter to the epicenter. The electronic device 1000 may determine the location of the epicenter and depth information from the epicenter to the epicenter as the epicenter information. The electronic device 1000 may output epicenter information, epicenter information, and information on the intensity of an earthquake determined based on the maximum ground acceleration as notification information.

도 6은 일 실시 예에 따른 전자 장치의 내부 구조를 설명하기 위한 도면이다.6 is a diagram for describing an internal structure of an electronic device according to an exemplary embodiment.

도 6에 도시된 그림 (610)을 참조하면, 전자 장치(1000) 내 구성들 및 상기 구성들 간의 관계가 도시된다. 일 실시 예에 의하면, 전자 장치(1000)는 임베디드 모듈(610), GPU 모듈(620), 3축 가속도 센서(654), IP 모듈(652), CMOS 이미지 센서(630), 열화상 이미지 센서(640)를 포함할 수 있다. 임베디드 모듈(610)은 열화상 이미지 센서 및 광학 이미지 센서(예컨대 CMOS 이미지 센서)로부터 획득되는 열화상 이미지들 및 광학 이미지들을 처리함으로써 1차 화재 식별 결과를 출력할 수 있다. 또한, GPU 모듈(620)은 광학 이미지들에 대한 인공 지능 모델을 적용하는 프로세서로써 인공지능 알고리즘을 수행하기 위한 별도의 프로세서일 수 있다. GPU 모듈(620)은 광학 이미지에 대해 인공 지능 모델을 적용함으로써 인공 지능 모델로부터 2차 화재 식별 결과를 획득하고, 획득된 2차 화재 식별 결과를 임베디드 모듈(610)로 전달하거나, 전자 장치 내 별도의 통합 프로세서로 전달할 수도 있다. 이미지 센서, 열화상 이미지 센서, IP 모듈 및 3축 가속도센서에 대한 기능은 명칭으로부터 통상의 기술자가 자명하게 인식할 수 있는 사항이므로 구체적인 설명은 생략하기로 한다.Referring to a figure 610 illustrated in FIG. 6 , components in the electronic device 1000 and relationships among the components are illustrated. According to an embodiment, the electronic device 1000 includes an embedded module 610 , a GPU module 620 , a 3-axis acceleration sensor 654 , an IP module 652 , a CMOS image sensor 630 , and a thermal image sensor ( 640) may be included. The embedded module 610 may output a primary fire identification result by processing thermal images and optical images obtained from a thermal image sensor and an optical image sensor (eg, a CMOS image sensor). Also, the GPU module 620 is a processor that applies an artificial intelligence model to optical images, and may be a separate processor for performing an artificial intelligence algorithm. The GPU module 620 obtains the secondary fire identification result from the artificial intelligence model by applying the artificial intelligence model to the optical image, and transfers the obtained secondary fire identification result to the embedded module 610, or separately in the electronic device. It can also be passed to the integrated processor of Since the functions of the image sensor, the thermal image sensor, the IP module, and the 3-axis acceleration sensor can be recognized by those skilled in the art from the name, a detailed description thereof will be omitted.

도 7은 일 실시 예에 따른 전자 장치가 1차 화재 식별 결과를 획득하는 과정을 구체적으로 설명하기 위한 도면이다.7 is a diagram for describing in detail a process in which an electronic device acquires a first fire identification result, according to an exemplary embodiment.

S710에서, 전자 장치(1000)는 열화상 이미지의 픽셀 값에 기초하여 기 설정된 임계 범위의 온도를 만족하는 일부 이미지 영역들에 관한 열화상 화재 식별 영역의 위치를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 스프링 클러의 기준을 도입하여 72도 내지 100도 사이의 열이 열화상 이미지로부터 감지되는 경우 열화상 이미지로부터 화재가 발생한 것으로 식별되는 열화상 화재 식별 영역의 위치를 식별할 수 있다.In S710 , the electronic device 1000 may identify the location of the thermal image fire identification region with respect to some image regions satisfying a temperature of a preset threshold range based on pixel values of the thermal image. For example, the electronic device 1000 introduces a sprinkler standard so that when heat between 72 degrees and 100 degrees is detected from the thermal image, the location of the thermal image fire identification area identified as a fire from the thermal image. can be identified.

보다 상세하게는, 전자 장치(1000)는 열화상 이미지 내 픽셀 값에 기초하여 상기 기 설정된 임계 범위의 온도를 나타내는 픽셀들을 식별하고, 식별된 픽셀들을 포함하는 복수의 클러스터를 결정할 수 있다. 전자 장치(1000)는 결정된 클러스터들 중 소정의 임계 면적이상의 면적을 가지는 클러스터를 식별하고, 식별된 클러스터 중 가장 큰 면적을 가지는 클러스터를 열화상 화재 식별 영역으로 결정할 수 있다.In more detail, the electronic device 1000 may identify pixels representing a temperature in the preset threshold range based on pixel values in the thermal image, and determine a plurality of clusters including the identified pixels. The electronic device 1000 may identify a cluster having an area greater than or equal to a predetermined critical area among the determined clusters, and determine a cluster having the largest area among the identified clusters as the thermal image fire identification area.

전자 장치(1000)는 열화상 이미지에서 식별되는 소정의 임계 범위를 만족하는 클러스터 중 가장 큰 면적을 가지는 열화상 화재 식별 영역의 열화상 이미지상 위치 또는 열화상 이미지가 나타내는 물리적 공간상의 위치를 식별할 수 있다. 일 실시 예에 의하면 열화상 화재 식별 영역의 열화상 이미지상 위치는 열화상 화재 식별 영역을 구성하는 픽셀들의 좌표 정보, 열화상 화재 식별 영역의 최외곽 가장자리에 위치된 픽셀들의 좌표 정보에 따른 외곽 경계 정보 중 적어도 하나를 포함할 수 있다. 그러나, 또 다른 실시 예에 따라 전자 장치(1000)는 열화상 이미지에서 소정의 임계 범위를 가지는 온도가 감지되지 않는 경우 열화상 화재 식별 영역의 위치를 식별하지 못할 수도 있음은 물론이다.The electronic device 1000 may identify a location on a thermal image image or a physical space indicated by the thermal image of the thermal image fire identification area having the largest area among clusters satisfying a predetermined critical range identified in the thermal image. can According to an embodiment, the location of the thermal image image of the thermal image fire identification region is the outer boundary according to coordinate information of pixels constituting the thermal image fire identification region and coordinate information of pixels located at the outermost edge of the thermal image fire identification region. It may include at least one of information. However, according to another embodiment, when a temperature having a predetermined critical range is not detected in the thermal image, the electronic device 1000 may not be able to identify the location of the thermal image fire identification area.

S720에서, 전자 장치(1000)는 광학 이미지 내 상기 불꽃 또는 연기 감지 조건을 결정하는데 사용되는 적어도 하나의 화재 지수에 기초하여 광학 화재 식별 영역의 위치를 식별할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 광학 이미지로부터 화재 후보 영역을 결정하고, 화재 후보 영역 내 픽셀 값들에 기초하여, 불꽃 또는 연기 감지 조건에 대한 다양한 종류의 화재 지수들을 결정하며, 결정된 화재 지수들이 지수 조건을 만족하는 경우, 화재 후보 영역을 화재 의심 영역으로 식별할 수 있다. 전자 장치(1000)는 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 기 설정된 임계치 이상인 경우, 화재 후보 영역의 위치를 광학 화재 식별 영역의 위치로 식별할 수 있다. 전자 장치(1000)가 광학 화재 식별 영역의 위치를 결정하는 방법은 후술하는 도 8을 참조하여 구체적으로 설명하기로 한다.In S720 , the electronic device 1000 may identify the location of the optical fire identification area based on at least one fire index used to determine the flame or smoke detection condition in the optical image. According to an embodiment, the electronic device 1000 determines a fire candidate area from the optical image, determines various types of fire indices for a flame or smoke detection condition based on pixel values in the fire candidate area, and determines the determined fire When the indices satisfy the index condition, the fire candidate area may be identified as a fire suspicious area. The electronic device 1000 may identify the location of the fire candidate area as the location of the optical fire identification area when the number of times the fire candidate area is identified as the fire suspicious area is equal to or greater than a preset threshold. A method for the electronic device 1000 to determine the position of the optical fire identification area will be described in detail with reference to FIG. 8 to be described later.

S730에서, 전자 장치(1000)는 식별된 열화상 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여 1차 화재 식별 결과를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 열화상 이미지에 기초하여 결정되는 열화상 화재 식별 영역의 위치와, 광학 이미지로부터 결정되는 화재 식별 영역의 위치가 매칭되는 경우, 감시 대상 영역에 화재가 발생한 것으로 결정하고, 감시 대상 영역에 대해 화재가 발생하였다는 1차 화재 식별 결과를 출력할 수 있다.In S730 , the electronic device 1000 may obtain the primary fire identification result based on whether the position of the identified thermal image fire identification region matches the position of the optical fire identification region. For example, when the location of the thermal image fire identification area determined based on the thermal image matches the location of the fire identification area determined from the optical image, the electronic device 1000 determines that a fire has occurred in the monitoring target area. It is possible to determine and output the primary fire identification result that a fire has occurred in the area to be monitored.

일 실시 예에 의하면, 전자 장치(1000)가 열화상 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 매칭되는지 여부는, 이미지 상에서 실제 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 매칭되는지 여부에 따라 결정될 수도 있으나, 또 다른 실시 예에 의하면, 실제 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 각각 나타내는 물리적 공간상에서의 위치가 매칭되는지 여부에 따라 결정될 수도 있다.According to an embodiment, the electronic device 1000 determines whether the location of the thermal image fire identification area and the optical fire identification area match, whether the location of the actual fire identification area and the optical fire identification area match on the image. However, according to another embodiment, it may be determined according to whether the location in the physical space indicated by the location of the actual fire identification area and the location of the optical fire identification area match.

그러나 또 다른 실시 예에 의하면, 전자 장치(1000)는 열화상 이미지로부터 열화상 화재 식별 영역의 위치가 결정되지 않거나, 광학 이미지로부터 광학 화재 식별 영역의 위치가 결정되지 않거나, 열화상 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 결정되더라도, 열화상 화재 식별 영역의 위치 및 광학 화재 식별 영역의 위치가 매칭되지 않는 경우, 화재가 발생하지 않은 것으로 결정하고, 화재가 발생하지 않았다는 1차 화재 식별 결과를 출력할 수도 있다.However, according to another embodiment, in the electronic device 1000, the position of the thermal image fire identification region is not determined from the thermal image, the position of the optical fire identification region is not determined from the optical image, or the position of the thermal image fire identification region is not determined from the optical image. Even if the location and the location of the optical fire identification area are determined, if the location of the thermal image fire identification area and the location of the optical fire identification area do not match, it is determined that a fire has not occurred, and the primary fire identification that no fire has occurred You can also print the results.

도 8은 일 실시 예에 따른 전자 장치가 광학 화재 식별 영역의 위치를 식별하는 과정을 설명하기 위한 도면이다.FIG. 8 is a diagram for describing a process in which an electronic device identifies a location of an optical fire identification area according to an exemplary embodiment.

S810에서, 전자 장치(1000)는 획득된 광학 이미지 내 픽셀들의 RGB 데이터를 HSL 데이터로 변환할 수 있다. 일 실시 예에 의하면, HSL 데이터는 색상(HUE), 채도(SATURATION) 및 명도(LIGHTNESS) 값을 포함할 수 있다. S820에서, 전자 장치(1000)는 HSL 데이터에 기초하여 광학 이미지 내 화재 후보 영역을 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 이미지 내 화재 후보 영역을 결정함에 있어 서로 다른 수준의 임계치를 이용함으로써, 보다 정확한 화재 후보 영역을 결정할 수 있다. 전자 장치(1000)가 서로 다른 수준의 임계치를 이용하여 광학 이미지 내 정확한 화재 후보 영역을 결정하는 방법은 후술하는 도 9를 참조하여 구체적으로 설명하기로 한다.In S810 , the electronic device 1000 may convert RGB data of pixels in the obtained optical image into HSL data. According to an embodiment, the HSL data may include values of hue (HUE), saturation (SATURATION), and brightness (LIGHTNESS). In S820 , the electronic device 1000 may determine a fire candidate area in the optical image based on the HSL data. According to an embodiment, the electronic device 1000 may more accurately determine the fire candidate area by using threshold values of different levels in determining the fire candidate area in the image. A method for the electronic device 1000 to determine an accurate fire candidate area in an optical image using thresholds of different levels will be described in detail with reference to FIG. 9 to be described later.

S830에서, 전자 장치(1000)는 결정된 화재 후보 영역에 대해 불꽃 또는 연기 감지 조건에 관한 적어도 하나의 화재 지수를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 화재 후보 영역에 대하여 적어도 하나의 화재 지수를 결정할 수 있다. 일 실시 예에 의하면 화재 지수는 전자 장치(1000)가 화재 발생 여부를 판단하는데 이용되는 이미지 또는 영상에 대한 파라미터일 수 있다. S840에서, 전자 장치(1000)는 적어도 하나의 화재 지수에 기초하여 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수를 식별할 수 있다. 예를 들어 전자 장치(1000)는 적어도 하나의 화재 지수가 각각에 대한 화재 지수 조건을 모두 만족하는 경우, 해당 화재 후보 영역을 화재 의심영역으로 식별하고, 화재 의심 카운트 수를 1만큼 증가시킬 수 있다.In S830, the electronic device 1000 may determine at least one fire index related to a flame or smoke detection condition for the determined fire candidate area. For example, the electronic device 1000 may determine at least one fire index for the fire candidate area. According to an embodiment, the fire index may be a parameter for an image or an image used by the electronic device 1000 to determine whether a fire has occurred. In S840 , the electronic device 1000 may identify the number of times that a fire candidate area is identified as a fire suspicious area based on at least one fire index. For example, when at least one fire index satisfies the fire index conditions for each, the electronic device 1000 may identify a corresponding fire candidate area as a fire suspicious area and increase the number of fire suspicious counts by 1. .

S850에서, 전자 장치(1000)는 식별된 횟수가 기 설정된 임계치 이상인 경우, 화재 후보 영역의 위치를 광학 화재 식별 영역의 위치로 결정할 수 있다. 일 실시 예에 의하면 화재 후보 영역의 위치는, 광학 이미지에서 결정된 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 임계치 이상인 경우, 광학 이미지에서 화재 후보 영역을 구성하는 픽셀들의 좌표 정보, 화재 후보 영역의 최외곽 가장자리에 위치된 픽셀들의 좌표 정보에 따른 외곽 경계 정보 중 적어도 하나를 포함할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 화재 의심 영역으로 식별되는 횟수가 임계치 이상인 화재 후보 영역이 나타내는 실제 물리적인 공간상의 위치를 광학 화재 식별 영역의 위치로 식별할 수도 있다.In S850, when the number of times identified is equal to or greater than a preset threshold, the electronic device 1000 may determine the location of the fire candidate area as the location of the optical fire identification area. According to an embodiment, the location of the fire candidate area may include coordinate information of pixels constituting the fire candidate area in the optical image, when the number of times the fire candidate area determined in the optical image is identified as a fire suspicious area is greater than or equal to a threshold. At least one of outer boundary information according to coordinate information of pixels located at the outermost edge may be included. According to another embodiment, the electronic device 1000 may identify a location in an actual physical space indicated by a fire candidate area in which the number of times of being identified as a fire suspicious area is equal to or greater than a threshold, as the location of the optical fire identification area.

도 9는 일 실시 예에 따른 전자 장치가 화재 후보 영역을 결정하는 과정을 설명하기 위한 도면이다.9 is a diagram for describing a process in which an electronic device determines a fire candidate area according to an exemplary embodiment.

S920에서, 전자 장치(1000)는 HSL 데이터 내 색상, 채도 및 명도 값을 식별하고, 식별된 색상, 채도 및 명도 값이 모두 소정의 임계치 이상인 픽셀들을 포함하는 제1 후보 영역을 결정할 수 있다.In S920 , the electronic device 1000 may identify color, saturation, and brightness values in the HSL data, and determine a first candidate area including pixels having all of the identified color, saturation, and brightness values greater than or equal to a predetermined threshold.

S940에서, 전자 장치(1000)는 HSL 데이터 내 상기 색상, 상기 채도 또는 상기 명도 중 적어도 하나가 상기 소정의 임계치 이상인 픽셀들을 식별할 수 있다. 일 실시 예에 의하면, S940에서 식별된 픽셀들의 수는 제1 후보 영역에 포함된 픽셀의 수 보다 많을 수 있다. S960에서, 전자 장치(1000)는 S940에서 식별된 픽셀들 주변의 픽셀들의 색상, 채도 및 명도 값 모두가 상기 소정의 임계치 이상인 경우, 상기 색상, 채도 또는 명도 중 적어도 하나가 소정의 임계치 이상인 픽셀들 및 상기 제1 후보 영역에 포함된 픽셀들을 포함하는 제2 후보 영역으로 결정할 수 있다. S980에서, 전자 장치(1000)는 제2 후보 영역을 화재 후보 영역으로 결정할 수 있다.In S940 , the electronic device 1000 may identify pixels having at least one of the hue, the saturation, and the brightness in the HSL data equal to or greater than the predetermined threshold. According to an embodiment, the number of pixels identified in S940 may be greater than the number of pixels included in the first candidate area. In S960 , the electronic device 1000 selects pixels in which at least one of the hue, saturation, and brightness is equal to or greater than the predetermined threshold when all of the color, saturation, and brightness values of pixels surrounding the pixels identified in S940 are equal to or greater than the predetermined threshold. and a second candidate area including pixels included in the first candidate area. In S980 , the electronic device 1000 may determine the second candidate area as the fire candidate area.

즉, 본 개시에 따른 전자 장치(1000)는 제1 임계 기준(예컨대 이미지 내 각 픽셀의 색상, 채도 및 명도 모두가 임계치 이상일 것)을 이용하여, 이미지로부터 제1 후보 영역을 결정한 후, 제1 임계 기준보다 낮은 제2 임계 기준(예컨대 이미지 내 각 픽셀의 색상, 채도 또는 명도 중 적어도 하나가 임계치 이상일 것)을 이용하여 제2 후보 영역을 결정한 후, 제2 후보 영역을 화재 후보 영역으로 결정할 수 있다. 일 실시 예에 의하면, 제2 후보 영역에는 상기 제1 후보 영역에 포함되지 않았던 픽셀들이 포함될 수 있다.That is, the electronic device 1000 according to the present disclosure determines a first candidate region from the image by using the first threshold criterion (eg, all of the color, saturation, and brightness of each pixel in the image are equal to or greater than the threshold), and then After determining the second candidate region using a second threshold criterion lower than the threshold criterion (eg, at least one of the color, saturation, or brightness of each pixel in the image is greater than or equal to the threshold), the second candidate region may be determined as a fire candidate region. have. According to an embodiment, the second candidate area may include pixels not included in the first candidate area.

바람직하게는, 제1 후보 영역에서는 포함되지 않았던 픽셀이 제2 후보 영역에서는 후보 영역으로 포함될 수 있다. 본 개시에 따른 전자 장치(1000)는 색상, 채도 및 명도 중 명도의 기준은 유지하고, 색상의 기준을 완화하여 임계 기준을 설정함으로써, 화재 후보 영역을 더 정확하게 결정할 수 있다.Preferably, a pixel not included in the first candidate area may be included as a candidate area in the second candidate area. The electronic device 1000 according to the present disclosure may more accurately determine a fire candidate area by maintaining a standard of brightness among hue, saturation, and brightness, and setting a threshold standard by relaxing the standard of color.

도 10은 일 실시 예에 따른 전자 장치가 적어도 하나의 화재 지수를 결정하는 과정을 설명하기 위한 도면이다.10 is a diagram for describing a process in which an electronic device determines at least one fire index, according to an exemplary embodiment.

S1010에서, 전자 장치(1000)는 복수의 광학 이미지들 중 인접하는 3개의 프레임 번호를 가지는 복수의 광학 이미지들 내 화재 후보 영역에 대한 하이패스 필터링을 수행함으로써 제로 크로스 카운트 지수를 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 제로 크로스 카운트 지수가 소정의 임계치 이상인 경우, 카운트된 화재 의심 영역 식별 횟수를 초기화할 수 있다.In S1010 , the electronic device 1000 may determine a zero cross count index by performing high-pass filtering on a fire candidate area in a plurality of optical images having three adjacent frame numbers among the plurality of optical images. According to an embodiment, when the zero cross count index is equal to or greater than a predetermined threshold, the electronic device 1000 may initialize the counted number of times of identification of the suspected fire area.

일 실시 예에 의하면, S1020에서, 전자 장치(1000)는 하이패스 필터 변수가 0이 아닌 픽셀의 수의 프레임 이미지 별 변화량에 관한 하이패스 필터 면적 지수를 결정할 수 있다. 일 실시 예에 의하면, 하이패스 필터 면적 지수는 하이패스 필터 적용 후 0이 아닌 영역의 넓이에 대응될 수 있다. According to an embodiment, in S1020, the electronic device 1000 may determine the high-pass filter area index with respect to the amount of change for each frame image of the number of pixels for which the high-pass filter variable is not 0. According to an embodiment, the high-pass filter area index may correspond to the area of a non-zero area after the high-pass filter is applied.

일 실시 예에 의하면 필터링 수행 후 결과 이미지에 대해 화재 후보 영역에 속하면서 0이 아닌 값을 갖는 영역의 면적의 변화량은 크지 않을 수 있다. 전자 장치(1000)는 하이패스 필터 면적 지수가 소정의 임계치 이상인 경우, 화재 의심 카운트 수를 초기화할 수 있다.According to an embodiment, the amount of change in the area of a region having a non-zero value belonging to a fire candidate region may not be large with respect to the result image after filtering is performed. When the high-pass filter area index is equal to or greater than a predetermined threshold, the electronic device 1000 may initialize the number of fire suspicious counts.

S1030에서, 전자 장치(1000)는 복수의 프레임 이미지들 내 화재 후보 영역의 주기성에 관한 주기성 지수를 결정할 수 있다. 일 실시 예에 의하면 빠르게 반복되는 영상의 경우 화재 의심 영역으로 오검출될 수 있다. 따라서, 전자 장치(1000)는 오 검출률을 줄이기 위해 결정된 주기성 지수의 변화량이 소정의 임계치 이하인 경우, 화재 의심 카운트를 초기화할 수 있다.In S1030 , the electronic device 1000 may determine a periodicity index regarding the periodicity of the fire candidate area in the plurality of frame images. According to an embodiment, in the case of a rapidly repeated image, it may be erroneously detected as a fire suspicious area. Accordingly, when the amount of change in the periodicity index determined to reduce the false detection rate is less than or equal to a predetermined threshold, the electronic device 1000 may initialize the fire suspicious count.

S1040에서, 전자 장치(1000)는 복수의 프레임 이미지들 내 픽셀들 중 픽셀 값 변이가 큰 픽셀들의 수의 변화 정도에 관한 움직임 영역 지수를 결정할 수 있다. 예를 들어, 실제 화재 영역의 경우 시간 축에서의 RGB 데이터의 변이(Variation)이 크게 측정될 수 있다. 전자 장치(1000)는 복수의 프레임 이미지들 내 픽셀 값의 변이가 큰 픽셀을 움직임 픽셀로 추출하고, 프레임 별 움직임 픽셀의 수의 평균과 표준 편차를 이용하여 움직임 영역 지수를 결정할 수 있다.In S1040 , the electronic device 1000 may determine a motion area index with respect to a degree of change in the number of pixels having a large pixel value variation among pixels in the plurality of frame images. For example, in the case of an actual fire area, the variation of RGB data on the time axis may be significantly measured. The electronic device 1000 may extract a pixel having a large variation in pixel value in a plurality of frame images as a moving pixel, and may determine a motion region index using an average and standard deviation of the number of moving pixels per frame.

S1050에서, 전자 장치(1000)는 복수의 프레임 이미지들 내에서 특정 픽셀의 변이 값이 소정의 임계치 이상으로 나타나는 횟수가 기 설정된 횟수 이상인 픽셀들의 위치에 관한 무빙 오브젝트 지수를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 프레임을 기준으로 각 프레임 내 움직임 픽셀의 수의 변화를 모니터링할 수도 있지만, 각 프레임 내 특정 위치의 픽셀을 기준으로, 해당 픽셀 값 변이를 모니터링함으로써, 화재 발생 여부를 더 정확하게 결정할 수도 있다.In S1050 , the electronic device 1000 may determine a moving object index with respect to positions of pixels in which the number of times that a disparity value of a specific pixel appears greater than or equal to a predetermined threshold in the plurality of frame images is a preset number or greater. For example, the electronic device 1000 may monitor a change in the number of moving pixels in each frame based on the frame, but a fire occurs by monitoring a change in the pixel value based on a pixel at a specific position in each frame. It can be more precisely determined whether or not

또한, 도 10에는 도시되지 않았지만, 전자 장치(1000)는 복수의 광학 이미지들이 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정할 수 있다. 전자 장치(1000)는 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별할 수 있다.Also, although not shown in FIG. 10 , the electronic device 1000 may determine a smoke index regarding whether a plurality of optical images satisfy a smoke detection condition. For example, the electronic device 1000 may determine a foreground image and a background image for the plurality of optical images by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images. The electronic device 1000 may identify the motion regions by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images.

전자 장치(1000)는 식별된 움직임 영역들을 클러스터링하고, 클러스터링된 움직임 영역들 내 픽셀들 중 그레이 색상 값을 나타내는 픽셀들을 추출할 수 있다. 예를 들어, 전자 장치(1000)는 픽셀의 RGB 데이터 중, R값 및 G값의 차이, R값 및 B 값의 차이와 G값 및 B값의 차이가 각각 미리 설정된 임계차 보다 작은 경우, 해당 픽셀을 그레이 색상 값을 나타내는 픽셀로 추출할 수 있다.The electronic device 1000 may cluster the identified motion regions and extract pixels representing a gray color value from among pixels in the clustered motion regions. For example, when the difference between the R value and the G value, the difference between the R value and the B value and the difference between the R value and the B value and the difference between the G value and the B value, among RGB data of the pixel, is smaller than a preset threshold difference, the corresponding A pixel can be extracted as a pixel representing a gray color value.

전자 장치(1000)는 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터를 식별할 수 있다. 전자 장치(1000)는 모션 벡터들이 식별되면 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득할 수 있다. 전자 장치(1000)는 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정할 수 있다. 전자 장치(1000)는 연기 지수가 소정의 임계값 보다 작은 경우, 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수를 초기화할 수 있다. 그러나 전자 장치(1000)는 상술한 제로 크로스 카운트 지수, 하이패스 필터 면적 지수, 주기성 지수, 움직임 영역 지수, 무빙 오브젝트 지수 및 연기 지수가 각각의 지수 조건(화재 의심 영역 카운트수가 초기화되지 않도록 하는 각 지수 별 조건)을 만족하는 경우에는 화재 후보 영역에 대한 화재 의심 카운트 수를 1 증가시킬 수 있다. The electronic device 1000 may identify the motion vector by tracking image regions including pixels representing the gray color value in a plurality of optical images having adjacent frame numbers. When the motion vectors are identified, the electronic device 1000 may obtain an output value of the low-pass filter by applying the low-pass filter to the background image among the plurality of optical images. The electronic device 1000 may determine the smoke index regarding the correlation between the output value of the low-pass filter and the output value of the low-pass filter with respect to the background image when a preset smoke is generated. When the smoke index is less than a predetermined threshold, the electronic device 1000 may initialize the number of times that the fire candidate area is identified as the fire suspicious area. However, the electronic device 1000 determines that the above-described zero cross count index, high-pass filter area index, periodicity index, moving area index, moving object index, and smoke index are each index condition (each index that prevents the fire suspicious area count from being initialized). If a specific condition) is satisfied, the number of fire suspicious counts for the fire candidate area may be increased by 1.

그러나 또 다른 실시 예에 의하면, 전자 장치(1000)는 상술한 화재 지수 중 하나의 지수라도 지수 조건을 만족하지 못하는 경우, 화재 의심 카운트수를 초기화할 수 있다. 전자 장치(1000)는 화재 의심 카운트수가 기 설정된 임계 카운트 이상인 경우에만 화재가 발생한 것으로 식별하기 때문에, 전자 장치(1000)는 높은 정확도로 화재 발생 여부를 결정할 수 있다. 전자 장치(1000)는 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 증가함에 따라 화재 의심 카운트 수가 임계치 보다 크게 식별되는 경우, 해당 화재 후보 영역의 위치를 광학 화재 식별 영역의 위치로 결정할 수 있다.However, according to another embodiment, when even one of the above-described fire indices does not satisfy the index condition, the electronic device 1000 may initialize the number of fire suspicion counts. Since the electronic device 1000 identifies that a fire has occurred only when the number of suspected fire counts is equal to or greater than a preset threshold count, the electronic device 1000 may determine whether a fire has occurred with high accuracy. The electronic device 1000 may determine the location of the fire candidate area as the location of the optical fire identification area when the number of suspicious fire counts is greater than the threshold as the number of times that the fire candidate area is identified as the fire suspicious area increases.

도 11은 일 실시 예에 따른 전자 장치가 제로 크로스 카운트 지수를 결정하는 과정을 설명하기 위한 도면이다.11 is a diagram for describing a process in which an electronic device determines a zero cross count index, according to an exemplary embodiment.

도 11의 그림 (1202)에 도시된 인스트럭션 예시를 참조하여 전자 장치(1000)가 제로 크로스 카운트 지수를 결정하는 과정을 구체적으로 설명하기로 한다. 일 실시 예에 의하면, 화재의 특징 중 하나는 깜빡임(플리커, flicker)이다. 예를 들어, 깜빡임이 있는 픽셀은 시간적으로 하이패스 필터링을 수행하게 되면 0값을 반복적으로 크로싱하는 프레임들을 획득할 수 있다. 전자 장치(1000)는 소정의 프레임 주기 단위로 프레임들이 0을 크로싱하는 수를 제로 크로스 카운트 지수로 결정하고, 결정된 제로 크로스 카운트 지수가 소정의 임계값 보다 큰 경우 화재 의심 카운트 수를 증가시킬 수 있다. 그러나 또 다른 실시 예에 의하면, 결정된 제로 크로스 카운트 지수가 소정의 임계값 보다 작은 경우, 전자 장치(1000)는 화재 의심 카운트 수를 초기화할 수도 있다.A process in which the electronic device 1000 determines the zero cross count index will be described in detail with reference to an example of an instruction shown in FIG. 1202 of FIG. 11 . According to one embodiment, one of the characteristics of the fire is flicker (flicker). For example, when high-pass filtering is temporally performed on a flickering pixel, frames that repeatedly cross a value of 0 may be obtained. The electronic device 1000 may determine the number of frames crossing 0 in a predetermined frame period unit as the zero cross count index, and increase the number of suspected fire counts when the determined zero cross count index is greater than a predetermined threshold. . However, according to another embodiment, when the determined zero cross count index is less than a predetermined threshold, the electronic device 1000 may initialize the number of fire suspicious counts.

일 실시 예에 의하면, 전자 장치(1000)는 복수의 프레임 이미지들 중 인접하는 3개의 프레임들 내 화재 후보 영역에 대하여 하이패스 필터링을 수행함으로써 제로 크로스 카운트 지수를 결정할 수 있다. According to an embodiment, the electronic device 1000 may determine the zero cross count index by performing high-pass filtering on the fire candidate area in three adjacent frames among the plurality of frame images.

보다 상세하게는, 전자 장치(1000)는 복수의 프레임 이미지들 중 연속하는 N-1 프레임, N프레임, N+1 프레임 각각에 대해 결정되는 -0.25, 0.5 및 -0.25 가중치에 기초하여 프레임별 픽셀 값들을 가중합함으로써 하이패스 필터링을 수행하고, 하이패스 필터링 수행 결과에 따른 플리커 변수를 픽셀 별로 결정할 수 있다. 도 11을 참조하면 플리커 변수(Flick_var)는 대응되는 위치의 N-1 프레임 내 픽셀 값(pre_pre)에 -0.25를 곱하고, N프레임 내 픽셀 값(pre)에 0.5를 곱하며, N+1 프레임 내 대응되는 위치의 픽셀 값(cur)에 -0.25를 곱한 후 모두 더함으로써 결정될 수 있다. 전자 장치(1000)는 대응되는 위치의 인접하는 3개 프레임 내 각 픽셀들에 소정의 가중치를 적용하여 가중합함으로써 하이패스 필터링을 수행할 수 있다. 전자 장치(1000)는 프레임 내 픽셀 별로 플리커 변수를 결정할 수 있다.In more detail, the electronic device 1000 configures pixels for each frame based on weights of −0.25, 0.5, and −0.25 determined for each of consecutive N-1 frames, N frames, and N+1 frames among the plurality of frame images. By weighted summing the values, high-pass filtering may be performed, and a flicker variable according to a result of performing high-pass filtering may be determined for each pixel. Referring to FIG. 11 , the flicker variable (Flick_var) is multiplied by -0.25 by the pixel value (pre_pre) in the N-1 frame at the corresponding position, by 0.5 by the pixel value (pre) in the N frame, and within the N+1 frame. It can be determined by multiplying the pixel value (cur) of the corresponding position by -0.25 and then adding them all together. The electronic device 1000 may perform high-pass filtering by applying a predetermined weight to each pixel in three adjacent frames at a corresponding position and performing weight summing. The electronic device 1000 may determine the flicker variable for each pixel in the frame.

전자 장치(1000)는 픽셀 별로 결정된 플리커 변수 및 소정의 임계치를 비교함으로써, 픽셀 별로 하이패스 필터 변수를 결정할 수 있다. 전자 장치(1000)는 결정된 픽셀 별 하이패스 필터 변수가 소정의 조건을 만족하는지 여부에 기초하여, 제로 크로스 카운트 지수를 증가시킬 수 있다. The electronic device 1000 may determine the high-pass filter variable for each pixel by comparing the flicker variable determined for each pixel with a predetermined threshold. The electronic device 1000 may increase the zero cross count index based on whether the determined high-pass filter variable for each pixel satisfies a predetermined condition.

보다 상세하게는, 전자 장치(1000)는 인접하는 3개 프레임 내 픽셀 중 하나라도 화재 후보 영역 내 픽셀로 식별되고, 해당 픽셀의 플리커 변수가 ??threshold(5)보다 작으면 해당 픽셀에 대한 하이패스 필터링 변수(HPFn)를 -127로 설정하고, 플리커 변수가 threshold(5)보다 크면 해당 픽셀에 대한 하이패스 필터링 변수(HPFn)를 128로 설정하며, 플리커 변수가 ??threshold(5)와 threshold(5)사이에 위치하면 하이패스 필터링 변수(HPFn)를 0으로 설정할 수 있다. 또한, 전자 장치(1000)는 인접하는 3개 프레임 내 픽셀들이 모두 화재 후보 영역으로 식별되지 않는 경우, 하이패스 필터링 변수(HPFn)를 0으로 설정할 수 있다. In more detail, the electronic device 1000 identifies even one of the pixels in the three adjacent frames as a pixel in the fire candidate area, and when the flicker variable of the corresponding pixel is less than ??threshold(5), the high value of the corresponding pixel is The pass filtering variable (HPFn) is set to -127, and if the flicker variable is greater than the threshold(5), the high pass filtering variable (HPFn) for the pixel is set to 128, and the flicker variable is set to ??threshold(5) and threshold If it is located between (5), the high-pass filtering variable (HPFn) can be set to 0. Also, the electronic device 1000 may set the high-pass filtering variable HPFn to 0 when pixels in three adjacent frames are not all identified as fire candidate areas.

또한, 전자 장치(1000)는 하이패스 필터링 변수(HPFn)가 0이 아니면, 프레임 별 하이패스 필터링 변수(HPFn)가 0이 아닌 픽셀의 수에 관한 변수인 HPF_count를 증가시킬 수 있다. 또한, 전자 장치(1000)는 만약 현재 프레임 내 특정 위치 픽셀의 하이패스 필터링 변수 (HPFn)가 128이고, 이전 프레임에서 대응되는 위치의 픽셀의 하이패스 필터링 변수 (HPFn-1)가 -127이거나, 현재 프레임 내 특정 위치 픽셀의 하이패스 필터링 변수 (HPFn)가 -127이고, 이전 프레임에서 대응되는 위치의 픽셀의 하이패스 필터링 변수(HPFn-1)가 128이거나, 현재 프레임 내 특정 위치 픽셀의 하이패스 필터링 변수 (HPFn)가 0이고, 이전 프레임에서 대응되는 위치의 픽셀의 하이패스 필터링 변수(HPFn-1)가 0 인 경우 제로 크로스 카운트 지수를 증가시킬 수 있다.Also, when the high-pass filtering variable HPFn is not 0, the electronic device 1000 may increase HPF_count, which is a variable related to the number of pixels in which the high-pass filtering variable HPFn for each frame is not 0. Also, in the electronic device 1000, if the high-pass filtering variable (HPFn) of a pixel at a specific position in the current frame is 128, and the high-pass filtering variable (HPFn-1) of the pixel at the corresponding position in the previous frame is -127, The high-pass filtering variable (HPFn) of the pixel at a specific location in the current frame is -127, the high-pass filtering variable (HPFn-1) of the pixel at the corresponding location in the previous frame is 128, or the high pass of the pixel at a specific location in the current frame When the filtering variable HPFn is 0 and the high-pass filtering variable HPFn-1 of the pixel at the corresponding position in the previous frame is 0, the zero cross count index may be increased.

상술한 과정에 따라 전자 장치(1000)는 제로 크로스 카운트 지수가 소정의 임계치 보다 큰 경우 화재 후보 영역을 화재 의심 영역으로 식별하고, 화재 의심 카운트 수를 1증가 시킬 수 있다. 그러나 전자 장치(1000)는 제로 크로스 카운트 지수가 소정의 임계치 보다 작은 경우, 화재 의심 카운트를 초기화할 수 있다.According to the above-described process, when the zero cross count index is greater than a predetermined threshold, the electronic device 1000 may identify the fire candidate area as the fire suspicious area and increase the number of the fire suspicious count by 1. However, when the zero cross count index is less than a predetermined threshold, the electronic device 1000 may initialize the fire suspicious count.

도 12는 일 실시 예에 따른 전자 장치가 하이패스 필터 면적 지수를 결정하는 과정을 설명하기 위한 도면이다.12 is a diagram for describing a process in which an electronic device determines a high-pass filter area index, according to an exemplary embodiment.

일 실시 예에 의하면, 전자 장치(1000)는 도 11에서 상술한 과정에 따라 픽셀 별로 하이패스 필터 변수(HPFn)를 결정할 수 있다. 전자 장치(1000)는 프레임별, 하이패스 필터 변수가 0이 아닌 픽셀의 수를 HPF_Count 변수에 저장할 수 있다. 도 12의 그림 (1204)를 참조하면, 전자 장치(1000)는 프레임 별 하이패스 필터 변수(HPFn)가 0이 아닌 픽셀의 수의 변화를 모니터링할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 0 내지 30프레임 동안, 프레임 별 하이패스 필터 변수(HPFn)가 0이 아닌 픽셀의 수를 식별하고, 식별된 하이패스 필터 변수(HPFn)가 0이 아닌 픽셀의 수의 최소값, 표준편차 및 평균을 결정할 수 있다.According to an embodiment, the electronic device 1000 may determine the high-pass filter variable HPFn for each pixel according to the process described above with reference to FIG. 11 . The electronic device 1000 may store the number of pixels in which the high-pass filter variable is not 0 for each frame in the HPF_Count variable. Referring to the figure 1204 of FIG. 12 , the electronic device 1000 may monitor a change in the number of pixels in which the high-pass filter variable HPFn is not 0 for each frame. According to an embodiment, the electronic device 1000 identifies the number of pixels in which the high-pass filter variable HPFn is not 0 for each frame during frames 0 to 30, and the identified high-pass filter variable HPFn is 0. It is possible to determine the minimum, standard deviation, and mean of the number of non-pixels.

일 실시 예에 의하면, 전자 장치(1000)는 프레임 별 하이패스 필터 변수가 0이 아닌 픽셀의 수가 가장 적은 최소 값이 소정의 임계치 보다 작은 경우, 하이패스 필터 면적 지수를 결정하지 않을 수 있다. 그러나, 프레임 별 하이패스 필터 변수가 0이 아닌 픽셀의 수가 가장 적은 최소 값이 소정의 임계치 보다 큰 경우에는, 전자 장치(1000)는 프레임 별 하이패스 필터 변수가 0이 아닌 픽셀의 수의 표준편차를 평균으로 나눔으로써 하이패스 필터 면적 지수를 결정할 수 있다. 전자 장치(1000)는 하이패스 필터 면적 지수가 소정의 임계치 보다 작은 경우, 화재 의심 카운트수를 증가시킬 수 있다. 그러나, 전자 장치(1000)는 하이패스 필터 면적 지수가 소정의 임계치 보다 큰 경우에는 화재의심 카운트를 초기화할 수 있다.According to an embodiment, the electronic device 1000 may not determine the high-pass filter area index when the minimum value with the smallest number of pixels for which the high-pass filter variable for each frame is not 0 is less than a predetermined threshold. However, when the minimum value with the smallest number of pixels for which the high-pass filter parameter for each frame is not 0 is greater than a predetermined threshold, the electronic device 1000 sets the standard deviation of the number of pixels for which the high-pass filter parameter for each frame is non-zero. By dividing by the mean, the high-pass filter area index can be determined. When the high-pass filter area index is less than a predetermined threshold, the electronic device 1000 may increase the number of suspected fire counts. However, when the high-pass filter area index is greater than a predetermined threshold, the electronic device 1000 may initialize the fire suspicious count.

도 13은 일 실시 예에 따른 전자 장치가 주기성 지수를 결정하는 과정을 설명하기 위한 도면이다.13 is a diagram for describing a process in which an electronic device determines a periodicity index, according to an embodiment.

도 13의 그림 (1206)을 참조하면, 전자 장치(1000)는 복수의 프레임 이미지들 중 하나의 프레임 이미지를 기준 프레임 이미지로 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 기준 프레임 이미지를 Backup 프레임으로 결정할 수 있다. 전자 장치(1000)는 기준 프레임 이미지 및 기준 프레임을 포함하는 복수의 프레임 이미지들(예컨대 1 내지 30프레임들 또는 1 내지 59 프레임들) 사이에 period check inter-frame difference를 수행할 수 있다.Referring to the figure 1206 of FIG. 13 , the electronic device 1000 may determine one frame image among a plurality of frame images as a reference frame image. According to an embodiment, the electronic device 1000 may determine the reference frame image as the backup frame. The electronic device 1000 may perform a period check inter-frame difference between the reference frame image and a plurality of frame images (eg, 1 to 30 frames or 1 to 59 frames) including the reference frame.

예를 들어, 전자 장치(1000)는 기준 프레임 이미지 및 상기 복수의 프레임 이미지들 중 하나의 프레임에 대해 서로 다른 마스크 연산을 수행함으로써, 복수의 프레임 이미지들 내 픽셀 별 차이 변수(diff)를 결정할 수 있다. 보다 상세하게는, 주기성 지수를 30 프레임을 기준으로 결정하고, 기준 프레임을 1번 프레임으로 설정하는 경우를 가정한다. For example, the electronic device 1000 may determine the difference variable (diff) for each pixel in the plurality of frame images by performing different mask operations on the reference frame image and one frame among the plurality of frame images. have. In more detail, it is assumed that the periodicity index is determined based on 30 frames and the reference frame is set as the first frame.

전자 장치(1000)는 기준 프레임인 1번 프레임과, 복수의 프레임 이미지들(기준 프레임을 1번 프레임으로 포함) 내 1번 프레임 사이에 period check inter-frame difference를 수행할 수 있다. 또한, 전자 장치(1000)는 기준 프레임인 1번 프레임과 2번 프레임에 대해서, period check inter-frame difference를 수행한 후, 상술한 과정을 반복하여 1번 프레임과 30번 프레임까지 period check inter-frame difference를 수행할 수 있다. The electronic device 1000 may perform a period check inter-frame difference between frame 1, which is the reference frame, and frame 1 in a plurality of frame images (including the reference frame as frame 1). Also, the electronic device 1000 performs period check inter-frame difference with respect to frame 1 and frame 2, which are reference frames, and then repeats the above-described process until frame 1 and frame 30 period check inter-frame. Frame difference can be performed.

전자 장치(1000)는 30개 프레임들 중, 기준 프레임을 포함하는 임의 2개 프레임에 대해 period check inter-frame difference를 수행하는데, 2개 프레임에 대해서 서로 다른 마스크 연산을 적용한다. 예를 들어, 전자 장치(1000)는 -1을 원소(element)로 가지는 2 by 2 마스크 및 1을 원소(element)로 가지는 2 by 2 마스크를 30프레임 내, 기준 프레임을 포함하는 2개의 프레임에 각각 적용함으로써, period check inter-frame difference를 수행할 수 있다. The electronic device 1000 performs period check inter-frame difference on any two frames including a reference frame among 30 frames, and applies different mask operations to the two frames. For example, the electronic device 1000 may display a 2 by 2 mask having -1 as an element and a 2 by 2 mask having 1 as an element in two frames including a reference frame within 30 frames. By applying each, period check inter-frame difference can be performed.

전자 장치(1000)는 기준 프레임에 대해 -1을 원소(element)로 가지는 2 by 2 마스크를 적용함으로써 result 1를 결정하고, 30프레임들 중, 기준 프레임이 아닌 다른 하나의 프레임에 대해 1을 원소(element)로 가지는 2 by 2 마스크를 적용함으로써 result 2 를 결정할 수 있다. 전자 장치(1000)는 result 1 및 result 2의 평균 값에 128을 더함으로써, diff 값을 결정할 수 있다. The electronic device 1000 determines result 1 by applying a 2 by 2 mask having -1 as an element to the reference frame, and sets 1 as an element to one frame other than the reference frame among 30 frames. Result 2 can be determined by applying a 2 by 2 mask with (element). The electronic device 1000 may determine the diff value by adding 128 to the average value of result 1 and result 2 .

또한, 일 실시 예에 의하면, 전자 장치(1000)는 픽셀 별로 결정된 차이 변수(diff) 값을 소정의 임계치와 비교함으로써 차이 변수를 양자화할 수 있다. 예를 들어, 전자 장치(1000)는 차이 변수값이 128-threshold(5)보다 작은 경우, 해당 차이 변수를 0으로 설정하고, 차이 변수 값이 128+threshold(5)보다 큰 경우, 해당 차이 변수를 255로 설정하며, 기타의 경우에는 차이 변수를 128로 설정함으로써, 차이 변수를 소정의 양자 값으로 양자화할 수 있다.Also, according to an embodiment, the electronic device 1000 may quantize the difference variable by comparing the difference variable (diff) determined for each pixel with a predetermined threshold value. For example, when the difference variable value is less than 128-threshold(5), the electronic device 1000 sets the corresponding difference variable to 0, and when the difference variable value is greater than 128+threshold(5), the corresponding difference variable is set to 255, and in other cases, the difference variable is set to 128, so that the difference variable can be quantized to a predetermined quantum value.

전자 장치(1000)는 양자화된 차이 변수 값이 소정의 양자 값과 일치하지 않는 프레임 이미지 별 픽셀의 수의 표준 편차 및 평균에 기초하여, 주기성 지수를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 프레임 별로, 양자화된 차이 변수 값(diff)이 128이 아닌 픽셀의 수를 카운트하고, 프레임 별로 카운트된 128이 아닌 양자화된 차이 변수(diff) 값의 수들의 표준 편차 및 평균을 구할 수 있다. The electronic device 1000 may determine the periodicity index based on the standard deviation and average of the number of pixels per frame image in which the quantized difference variable value does not match the predetermined quantum value. For example, the electronic device 1000 counts the number of pixels whose quantized difference variable value (diff) is not 128 for each frame, and the number of quantized difference variable (diff) values other than 128 counted for each frame Standard deviation and mean can be obtained.

전자 장치(1000)는 프레임 별로, 양자화된 차이 변수 값이 128이 아닌 픽셀의 수들의 표준편차를 평균으로 나눔으로써 주기성 지수를 결정할 수 있다. 전자 장치(1000)는 주기성 지수가 소정의 임계치 보다 작으면 화재 후보 영역을 화재 의심 영역으로 식별하고 화재 의심 카운트 수를 1 증가시킬 수 있다. 그러나, 전자 장치(1000)는 주기성 지수가 소정의 임계치 보다 큰 경우, 화재 의심 카운트수를 초기화할 수 있다.The electronic device 1000 may determine the periodicity index by dividing the standard deviation of the number of pixels whose quantized difference variable value is not 128 by the average for each frame. When the periodicity index is less than a predetermined threshold, the electronic device 1000 may identify the fire candidate area as the fire suspicious area and increase the number of fire suspicious counts by 1. However, when the periodicity index is greater than a predetermined threshold, the electronic device 1000 may initialize the number of suspicious fire counts.

도 14는 일 실시 예에 따른 전자 장치가 움직임 영역 지수를 결정하는 과정을 설명하기 위한 도면이다.14 is a diagram for describing a process in which an electronic device determines a motion region index, according to an embodiment.

도 14의 그림 (1208)을 참조하면, 전자 장치(1000)가 프레임 별 움직임 픽셀의 수를 결정하고, 프레임 별 움직임 픽셀의 수의 평균 및 표준 편차를 결정하며, 프레임 별 움직임 픽셀의 수의 표준편차를 평균으로 나눔으로써 움직임 영역 지수를 결정하는 과정이 도시된다. 전자 장치(1000)는 움직임 영역 지수가 소정의 임계치 보다 작은 경우, 화재 후보 영역을 화재 의심 영역으로 식별하고, 화재 의심 카운트 수를 1 증가시키나, 움직임 영역 지수가 소정의 임계치 보다 큰 경우, 화재 의심 카운트 수를 초기화할 수 있다.Referring to the figure 1208 of FIG. 14 , the electronic device 1000 determines the number of moving pixels per frame, and determines the average and standard deviation of the number of moving pixels per frame, and the standard of the number of moving pixels per frame. The process of determining the motion range index by dividing the deviation by the mean is shown. When the movement area index is less than a predetermined threshold, the electronic device 1000 identifies the fire candidate area as a fire suspicious area and increases the number of fire suspicious counts by 1. You can initialize the count number.

보다 상세하게는, 전자 장치(1000)는 프레임 이미지 내 픽셀 값들의 R,G,B값들의 평균을 픽셀 값 (Pixel_value)으로 결정할 수 있다. 전자 장치(1000)는 픽셀 값과, 기준이 되는 프레임 내 대응되는 위치의 픽셀 값의 차를 픽셀 값 변이(variance)로 결정할 수 있다. In more detail, the electronic device 1000 may determine an average of R, G, and B values of pixel values in the frame image as a pixel value (Pixel_value). The electronic device 1000 may determine a difference between a pixel value and a pixel value at a corresponding position in a reference frame as a pixel value variance.

전자 장치(1000)는 프레임 별 픽셀 값 변이가 소정의 임계치 이상인 픽셀들을 움직임 픽셀로 식별할 수 있다. 전자 장치(1000)는 복수의 프레임 이미지들 각각에서 식별되는 움직임 픽셀들의 수의 표준 편차를 평균값으로 나눔으로써 움직임 영역 지수를 결정할 수 있다.The electronic device 1000 may identify pixels having a pixel value variation for each frame equal to or greater than a predetermined threshold as moving pixels. The electronic device 1000 may determine the motion area index by dividing the standard deviation of the number of motion pixels identified in each of the plurality of frame images by the average value.

한편, 전자 장치(1000)는 프레임 별 픽셀 값의 변이가 소정의 임계치 이상인 경우, 해당 픽셀에 대한 무빙 오브젝트 지수(Moving object)를 1만큼 증가시킬 수 있다. 전자 장치(1000)는 무빙 오브젝트 지수를 1만큼 증가 시킨 후에, 기준이 되는 프레임 내 대응되는 위치의 픽셀 값(Background)을 업데이트할 수 있다.Meanwhile, when the variation of the pixel value for each frame is equal to or greater than a predetermined threshold, the electronic device 1000 may increase the moving object index for the corresponding pixel by 1. After increasing the moving object index by 1, the electronic device 1000 may update a pixel value (Background) of a corresponding position in a reference frame.

도 15는 일 실시 예에 따른 전자 장치가 무빙 오브젝트 지수를 결정하는 과정을 설명하기 위한 도면이다.15 is a diagram for describing a process in which an electronic device determines a moving object index, according to an embodiment.

도 15의 그림 (1212)를 참조하면 전자 장치가 픽셀 별로 무빙 오브젝트 지수를 결정하는 과정이 도시된다. 예를 들어, 전자 장치(1000)는 복수의 프레임 이미지들 내에서 대응되는 위치의 특정 픽셀들의 변이(variance) 값이 소정의 임계치 이상으로 식별되는 횟수를 식별할 수 있다. 예를 들어, 전자 장치(1000)가 30 프레임 단위로 무빙 오브젝트 지수를 결정하는 경우를 가정하여 설명하기로 한다.Referring to the figure 1212 of FIG. 15 , a process in which the electronic device determines the moving object index for each pixel is illustrated. For example, the electronic device 1000 may identify the number of times that a variance value of specific pixels at a corresponding position in the plurality of frame images is identified as being equal to or greater than a predetermined threshold. For example, it is assumed that the electronic device 1000 determines the moving object index in units of 30 frames.

예를 들어, 전자 장치(1000)는 (1,1) 위치에 있는 픽셀의 변이 값을 1 내지 30 프레임 동안 추적할 수 있다. 예를 들어, 전자 장치(1000)는 (1,1) 위치에 있는 픽셀의 변이 값이 1 내지 30프레임 동안 임계치 이상으로 식별되는 횟수를 결정할 수 있다. 전자 장치(1000)는 (1,1) 위치에 있는 픽셀의 변이 값이 1 내지 30프레임 동안 임계치 이상으로 식별되는 경우의 횟수가 소정의 임계치 이상인 경우, Moving object(1,1)을 high로 결정할 수 있다. 그러나 전자 장치(1000)는 (1,1) 위치에 있는 픽셀의 변이 값이 1 내지 30프레임 동안 임계치 이상으로 식별되는 횟수가 소정의 임계치 보다 작은 경우 Moving object(1,1)을 low로 결정할 수 있다. For example, the electronic device 1000 may track the disparity value of the pixel at the (1,1) position for 1 to 30 frames. For example, the electronic device 1000 may determine the number of times the disparity value of the pixel at the (1,1) position is identified as being greater than or equal to the threshold value during 1 to 30 frames. The electronic device 1000 determines the moving object (1,1) to be high when the number of times the disparity value of the pixel at the position (1,1) is identified as being greater than or equal to the threshold for 1 to 30 frames is greater than or equal to a predetermined threshold. can However, the electronic device 1000 may determine the moving object(1,1) to be low when the number of times the disparity value of the pixel at the (1,1) position is identified as greater than or equal to the threshold during 1 to 30 frames is less than a predetermined threshold. have.

상술한 방식에 따라, 전자 장치(1000)는 프레임 내 모든 픽셀에 대하여 픽셀 별 변이 값이 임계치 이상인 횟수를 식별한 후, 각 프레임 별 픽셀들에 대하여 무빙 오브젝트 지수를 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 30프레임 동안, 대응되는 위치의 픽셀 별 변이 값이 임계치 이상인 횟수가, 소정의 임계 횟수 이상인 픽셀들의 위치 정보를 무빙 오브젝트 지수에 더 포함시킬 수도 있다.According to the above-described method, the electronic device 1000 may determine the number of times a disparity value per pixel is equal to or greater than a threshold for all pixels in a frame, and then determine a moving object index for pixels per frame. According to an embodiment, the electronic device 1000 may further include, in the moving object index, position information of pixels whose disparity value for each pixel at a corresponding position is equal to or greater than a threshold for 30 frames during 30 frames.

일 실시 예에 의하면, 전자 장치(1000)는 무빙 오브젝트 지수가 결정되면, 무빙 오브젝트 지수를 결정하는데 사용된 맨 마지막 프레임(예컨대 30프레임 단위로 판단한 경우, 마지막 프레임은 30번째 프레임)에서 무빙 오브젝트 지수가 high로 판단된 픽셀들의 위치를 식별할 수 있다. 전자 장치(1000)는 무빙 오브젝트 지수가 high로 판단된 픽셀들의 RGB 데이터 평균 값을 결정할 수 있다. 전자 장치(1000)는 무빙 오브젝트 지수가 high로 판단된 픽셀들의 RGB 데이터 평균 값 각각이 소정의 임계치 보다 큰 경우, 화재 의심 카운트 수를 증가시킬 수 있다. 그러나 전자 장치(1000)는 무빙 오브젝트 지수가 high로 판단된 픽셀들의 RGB 데이터 평균 값 각각 중 적어도 하나라도 소정의 임계치 보다 크지 않은 경우 화재 의심 카운트를 초기화할 수 있다.According to an embodiment, when the moving object index is determined, the electronic device 1000 sets the moving object index in the last frame used to determine the moving object index (eg, the last frame is the 30th frame when it is determined in units of 30 frames). Positions of pixels determined to be high may be identified. The electronic device 1000 may determine the RGB data average value of pixels whose moving object index is determined to be high. The electronic device 1000 may increase the number of suspected fire counts when average values of RGB data of pixels for which the moving object index is determined to be high are greater than a predetermined threshold. However, when at least one of the RGB data average values of pixels whose moving object index is determined to be high is not greater than a predetermined threshold, the electronic device 1000 may initialize the fire suspicious count.

또한, 일 실시 예에 의하면, 전자 장치(1000)는 무빙 오브젝트 지수가 high인 픽셀들의 위치와, 프레임 각 픽셀들의 채도(Saturation)값이 소정의 임계치 이상인 픽셀들의 위치 사이의 최소 거리(예컨대 좌표 값의 차이)의 합과 그 평균 값을 결정할 수 있다. 전자 장치(1000)는 무빙 오브젝트 지수가 high인 픽셀들의 위치와, 프레임 각 픽셀들의 채도(Saturation)값이 소정의 임계치 이상인 픽셀들의 위치 사이의 최소 거리가 소정의 임계치 미만인 경우, 화재 의심 카운트 수를 초기화할 수 있다. 그러나, 전자 장치(1000)는 무빙 오브젝트 지수가 high인 픽셀들의 위치와, 프레임 각 픽셀들의 채도(Saturation)값이 소정의 임계치 이상인 픽셀들의 위치 사이의 최소 거리가 소정의 임계치보다 큰 경우, 화재 의심 카운트 수를 증가시킬 수 있다.Also, according to an embodiment, the electronic device 1000 sets a minimum distance (eg, a coordinate value) between positions of pixels having a high moving object index and positions of pixels having a saturation value of each pixel of a frame equal to or greater than a predetermined threshold. difference) and its average value can be determined. When the minimum distance between the positions of pixels having a moving object index of high and the positions of pixels having a saturation value of each pixel of the frame equal to or greater than a predetermined threshold is less than a predetermined threshold, the electronic device 1000 calculates the number of suspected fire counts. can be initialized. However, when the minimum distance between the positions of pixels having a moving object index of high and the positions of pixels having a saturation value of each pixel of the frame equal to or greater than a predetermined threshold is greater than a predetermined threshold, the electronic device 1000 may suspect a fire. The number of counts can be increased.

또한, 일 실시 예에 의하면, 전자 장치(1000)는 현재 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치와 소정의 주기(예컨대 30프레임)이전 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치 사이의 최소 거리의 합과 그 평균을 결정할 수 있다. 전자 장치(1000)는 현재 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치와 소정의 주기(예컨대 30프레임)이전 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치 사이의 최소 거리가 소정의 임계치 미만인 경우 화재 의심 카운트수를 초기화할 수 있다. 그러나, 전자 장치(1000)는 현재 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치와 소정의 주기(예컨대 30프레임)이전 프레임 내 무빙 오브젝트 지수가 high인 픽셀들의 위치 사이의 최소 거리가 소정의 임계치 보다 큰 경우, 화재 의심 카운트수를 증가시킬 수 있다.Also, according to an embodiment, the electronic device 1000 sets the minimum distance between positions of pixels having a high moving object index in the current frame and pixels having a high moving object index in a frame before a predetermined period (eg, 30 frames). The sum of the distances and their average can be determined. The electronic device 1000 fires when the minimum distance between the positions of pixels having a high moving object index in the current frame and the positions of pixels having a high moving object index in a frame before a predetermined period (eg, 30 frames) is less than a predetermined threshold. You can reset the number of suspicious counts. However, in the electronic device 1000, the minimum distance between the positions of pixels having a high moving object index in the current frame and the positions of pixels having a high moving object index in a frame before a predetermined period (eg, 30 frames) is greater than a predetermined threshold. If it is large, the number of suspicious fire counts may be increased.

도 16은 일 실시 예에 따른 전자 장치가 불꽃을 감지 결과에 기초하여 1차 화재 식별 여부를 결정하는 과정을 나타내는 흐름도이다.16 is a flowchart illustrating a process in which an electronic device determines whether to identify a primary fire based on a result of detecting a flame, according to an embodiment.

마크 (1701)은 영상 입력 대기 상태를 나타낼 수 있다. S1702에서, 전자 장치(1000)는 이미지 내 RGB 데이터를 HSL 데이터로 변환한다. S1706에서, 전자 장치(1000)는 이미지로부터 화재 후보 영역(예컨대 불 색상 영역)을 추출한다. S1708에서, 전자 장치(1000)는 화재 후보 영역으로부터 주기성 지수를 결정할 수 있다. The mark 1701 may indicate an image input standby state. In S1702, the electronic device 1000 converts RGB data in the image into HSL data. In S1706 , the electronic device 1000 extracts a fire candidate area (eg, a fire color area) from the image. In S1708 , the electronic device 1000 may determine a periodicity index from the fire candidate area.

S1710에서, 전자 장치(1000)는 화재 후보 영역의 움직임 영역을 결정한다. S1712에서, 전자 장치(1000)는 프레임 별 화재 후보 영역에서 움직임 영역의 넓이를 결정하고, 움직임 영역의 넓이 변화 정도를 결정한다. 전자 장치(1000)는 S1710 및 S1712를 통하여 움직임 영역 지수를 결정할 수 있다. 또한, 일 실시 예에 의하면, 전자 장치(1000)는 픽셀 별로 무빙 오브젝트 지수를 더 결정할 수도 있다.In S1710 , the electronic device 1000 determines a movement area of the fire candidate area. In S1712 , the electronic device 1000 determines the width of the movement area in the fire candidate area for each frame, and determines the degree of change in the area of the movement area. The electronic device 1000 may determine the motion area index through S1710 and S1712. Also, according to an embodiment, the electronic device 1000 may further determine the moving object index for each pixel.

S1714에서, 전자 장치(1000)는 화재 후보 영역에서 시간적 웨이블렛 수행 후 픽셀 별 0을 크로싱하는 픽셀들의 수를 카운트함으로써 제로 크로스 카운트 지수를 결정한다. S1716에서, 전자 장치(1000)는 프레임 별 화재 후보 영역에서 시간적 웨이블렛 변환을 수행함으로써 0이 아닌 영역의 넓이를 체크함으로써 하이패스 필터 면적 지수를 결정한다.In S1714 , the electronic device 1000 determines the zero cross count index by counting the number of pixels crossing 0 for each pixel after performing the temporal wavelet in the fire candidate area. In S1716, the electronic device 1000 determines the high-pass filter area index by checking the area of a non-zero area by performing temporal wavelet transformation in the fire candidate area for each frame.

S1718에서, 전자 장치(1000)는 프레임 넘버수가 30이 되었는지 여부를 식별한다. 예를 들어, 전자 장치(1000)는 프레임 넘버수가 30이 되지 않은 경우, 화재 의심 카운트 초기화 상태(1720)로 진입할 수 있다. 그러나, 전자 장치(1000)는 프레임 넘버수가 30이 된 경우, 30 프레임 동안, 픽셀 별로 변이 값이 소정의 임계치 이상으로 식별된 횟수가, 소정의 임계값 이상인지 여부를 식별한다. S1724에서, 전자 장치(1000)는 30 프레임 동안 픽셀 별, 변이 값이 소정의 임계치 이상으로 식별된 횟수가 소정의 임계값 이상인 경우, 해당 픽셀의 무빙 오브젝트 지수를 HIGH로 결정한다. 그러나, S1726에서, 전자 장치(1000)는 30 프레임 동안 픽셀 별, 변이 값이 소정의 임계치 이상으로 식별된 횟수가 소정의 임계값 보다 작은 경우, 해당 픽셀의 무빙 오브젝트 지수를 LOW로 결정한다.In S1718, the electronic device 1000 identifies whether the number of frame numbers has reached 30. For example, when the number of frame numbers does not reach 30, the electronic device 1000 may enter the fire suspicious count initialization state 1720 . However, when the number of frame numbers is 30, the electronic device 1000 identifies whether the number of times that a disparity value for each pixel is identified to be greater than or equal to a predetermined threshold during 30 frames is equal to or greater than a predetermined threshold. In S1724 , when the number of times the disparity value for each pixel is identified to be equal to or greater than the predetermined threshold during 30 frames is equal to or greater than the predetermined threshold, the electronic device 1000 determines the moving object index of the corresponding pixel as HIGH. However, in S1726 , when the number of times that the disparity value for each pixel is identified as greater than or equal to a predetermined threshold during 30 frames is less than the predetermined threshold, the electronic device 1000 determines the moving object index of the corresponding pixel as LOW.

S1728에서, 전자 장치(1000)는 무빙 오브젝트 지수가 LOW인 경우, S1736으로 진입하여 화재 의심 카운트를 초기화하고, 화재 의심 카운트 초기화 상태(1720)로 진입한다. 그러나, S1730에서, 전자 장치(1000)는 무빙 오브젝트 지수가 HIGH로 식별되는 경우, 무빙 오브젝트 지수가 HIGH로 식별된 픽셀의 RGB 데이터의 평균을 구할 수 있다. S1732에서, 전자 장치(1000)는 RGB 데이터의 평균 값 각각이 소정의 임계 값 보다 큰 경우, 연결 단계(1734)로 진입하나, RGB 데이터의 평균 값 중 하나라도 소정의 임계값 보다 크지 않은 경우, S1736 단계로 진입하여 화재 의심 카운트를 초기화할 수 있다.In S1728 , when the moving object index is LOW, the electronic device 1000 enters S1736 to initialize the suspected fire count and enters the suspected fire count initialization state 1720 . However, in S1730 , when the moving object index is identified as HIGH, the electronic device 1000 may obtain an average of RGB data of pixels whose moving object index is identified as HIGH. In S1732, when the average value of each RGB data is greater than a predetermined threshold value, the electronic device 1000 enters the connection step 1734, but when at least one of the average values of the RGB data is not greater than the predetermined threshold value, The fire suspicious count may be initialized by entering step S1736.

S1704에서, 전자 장치(1000)는 무빙 오브젝트 지수가 HIGH로 판단된 픽셀들의 위치와 각 픽셀들의 채도값이 소정의 임계치 이상인 픽셀들의 위치 사이의 최소 거리를 결정할 수 있다. S1742에서, 전자 장치(1000)는 S1704에서 결정된 최소 거리가 소정의 임계치 보다 작은 경우, 화재 의심 카운트를 초기화하나, 최소 거리가 소정의 임계치 보다 큰 경우, S1748 단계로 진입할 수 있다.In S1704 , the electronic device 1000 may determine a minimum distance between positions of pixels having a moving object index determined to be HIGH and positions of pixels having a saturation value of each pixel equal to or greater than a predetermined threshold. In S1742, when the minimum distance determined in S1704 is smaller than a predetermined threshold, the electronic device 1000 initializes the fire suspicious count. However, when the minimum distance is greater than the predetermined threshold, the electronic device 1000 may enter operation S1748.

S1748에서, 전자 장치(1000)는 제로 크로스 카운트 지수가 소정의 임계치 보다 큰 경우, S1750 단계로 진입하나, 제로 크로스 카운트 지수가 소정의 임계치 보다 작은 경우 S1736 단계로 진입하여 화재 의심 카운트를 초기화할 수 있다.In S1748, when the zero cross count index is greater than a predetermined threshold, the electronic device 1000 enters step S1750, but when the zero cross count index is less than a predetermined threshold, enters step S1736 to initialize the fire suspicious count. have.

S1750에서, 전자 장치(1000)는 도 12에서 상술한 과정을 수행함으로써 하이패스 필터 면적 지수를 결정할 수 있다. S1752에서, 전자 장치(1000)는 결정된 하이패스 필터 면적 지수가 소정의 임계치 보다 큰 경우 S1736 단계로 진입하여 화재 의심 카운트 수를 초기화한다. 그러나 전자 장치(1000)는 결정된 하이패스 필터 면적 지수가 소정의 임계치 보다 작은 경우, S1754 단계로 진입할 수 있다.In S1750 , the electronic device 1000 may determine the high pass filter area index by performing the process described above with reference to FIG. 12 . In S1752, when the determined high-pass filter area index is greater than a predetermined threshold, the electronic device 1000 enters step S1736 to initialize the number of suspected fire counts. However, when the determined high-pass filter area index is less than a predetermined threshold, the electronic device 1000 may enter step S1754.

S1754에서, 전자 장치(1000)는 프레임 별 주기성 체크에 의한 주기성 지수를 결정할 수 있다. S1756에서, 전자 장치(1000)는 주기성 지수가 소정의 임계치 보다 작은 경우, S1736 단계로 진입하여 화재 의심 카운트수를 초기화할 수 있다. 그러나 전자 장치(1000)는 주기성 지수가 소정의 임계치 보다 큰 경우, S1758 단계로 진입할 수 있다.In S1754, the electronic device 1000 may determine the periodicity index by checking the periodicity for each frame. In S1756 , when the periodicity index is smaller than a predetermined threshold, the electronic device 1000 may enter step S1736 to initialize the number of suspected fire counts. However, when the periodicity index is greater than a predetermined threshold, the electronic device 1000 may enter step S1758.

S1758에서, 전자 장치(1000)는 프레임 별 움직임 영역의 면적 평균 및 면적 변화량을 계산함으로써 움직임 영역 지수를 결정한다. S1760에서, 전자 장치(1000)는 움직임 영역 지수가 소정의 임계치 보다 큰 경우, S1764로 진입하여 움직임 영역 변화량 카운트를 증가시킬 수 있다. S1750에서, 전자 장치(1000)는 움직임 영역 지수가 소정의 임계치 보다 작은 경우 S1766으로 진입하여 화재 의심 카운트 수를 증가시킬 수 있다.In S1758 , the electronic device 1000 determines the motion region index by calculating the area average and area change amount of the motion regions for each frame. In S1760 , when the motion region index is greater than a predetermined threshold, the electronic device 1000 may enter S1764 to increase the motion region variation count. In S1750 , when the movement area index is smaller than a predetermined threshold, the electronic device 1000 may enter S1766 to increase the number of suspected fire counts.

S1768에서, 전자 장치(1000)는 움직임 영역 변화량 카운트가 소정의 임계치 보다 큰 경우, S1736 단계로 진입하여 화재 의심 카운트를 초기화한다. 그러나 S1768에서, 전자 장치(1000)는 움직임 영역 변화량 카운트가 소정의 임계치 보다 작거나, S1772에서, 증가된 화재 의심 카운트 수가 6보다 크지 않은 경우, 화재 의심 카운트 초기화 상태(1720)으로 진입할 수 있다. 그러나, S1772에서, 전자 장치(1000)는 화재 의심 카운트 수가 6보다 큰 경우, S1774로 진입하여 화재 알람 정보를 출력할 수 있다. 전자 장치(1000)는 화재 알람 정보를 출력한 이후에는 다시 화재 의심 카운트 초기화 상태(1720)로 진입할 수 있다.In S1768, when the movement area variation count is greater than a predetermined threshold, the electronic device 1000 enters step S1736 to initialize the fire suspicious count. However, in S1768, when the movement area variation count is less than a predetermined threshold or in S1772, when the increased number of suspicious fire counts is not greater than 6, the electronic device 1000 may enter the suspected fire count initialization state 1720. . However, in S1772, when the number of suspected fire counts is greater than 6, the electronic device 1000 may enter S1774 and output fire alarm information. After outputting the fire alarm information, the electronic device 1000 may enter the fire suspicious count initialization state 1720 again.

또한, 도 16에는 도시되지 않았지만, 전자 장치(1000)는 복수의 광학 이미지들이 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터를 식별할 수 있다. 전자 장치(1000)는 모션 벡터들이 식별되면 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득할 수 있다. 전자 장치(1000)는 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정할 수 있다. Also, although not shown in FIG. 16 , the electronic device 1000 may determine a smoke index regarding whether a plurality of optical images satisfy a smoke detection condition. For example, the electronic device 1000 may identify the motion vector by tracking image regions including pixels representing the gray color value in a plurality of optical images having adjacent frame numbers. When the motion vectors are identified, the electronic device 1000 may obtain an output value of the low-pass filter by applying the low-pass filter to the background image among the plurality of optical images. The electronic device 1000 may determine the smoke index regarding the correlation between the output value of the low-pass filter and the output value of the low-pass filter with respect to the background image when a preset smoke is generated.

전자 장치(1000)는 연기 지수가 소정의 임계값 보다 작은 경우, S1736 단계로 진입함으로써, 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수를 초기화할 수 있다. 그러나 전자 장치(1000)는 상술한 제로 크로스 카운트 지수, 하이패스 필터 면적 지수, 주기성 지수, 움직임 영역 지수, 무빙 오브젝트 지수 및 연기 지수가 각각의 지수 조건(화재 의심 영역 카운트수가 초기화되지 않도록 하는 각 지수 별 조건)을 만족하는 경우, S1768로 진입함으로써, 화재 후보 영역에 대한 화재 의심 카운트 수를 1 증가시킬 수 있다. When the smoke index is smaller than a predetermined threshold, the electronic device 1000 may initialize the number of times that the fire candidate area is identified as the fire suspicious area by entering step S1736. However, the electronic device 1000 determines that the above-described zero cross count index, high-pass filter area index, periodicity index, moving area index, moving object index, and smoke index are each index condition (each index that prevents the fire suspicious area count from being initialized). specific condition), by entering S1768, the number of fire suspicion counts for the fire candidate area may be increased by one.

즉 본 개시에 따른 전자 장치(1000)는 화재에 관한 적어도 하나의 지수들로써, 결정된 제로 크로스 카운트 지수, 상기 하이패스 필터 면적 지수, 상기 주기성 지수, 상기 움직임 영역 지수, 상기 무빙 오브젝트 지수 또는 연기 지수 중 적어도 하나에 대한 지수 조건 만족 여부를 식별하고, 상기 적어도 하나의 화재 지수들 중 하나라도 지수 조건을 만족하지 않는 경우에는, 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수(예컨대 화재 의심 카운트 수)를 초기화할 수 있다. 그러나 전자 장치(1000)는 상기 적어도 하나의 화재 지수들에 대한 소정의 지수 조건이 모두 만족되는 경우, 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수를 증가시키고, 상기 증가된 횟수가 기 설정된 임계치 이상(예컨대 6)인 경우, 화재 후보 영역의 위치를 광학 화재 식별 영역의 위치로 결정할 수 있다.That is, in the electronic device 1000 according to the present disclosure, as at least one index related to fire, the determined zero cross count index, the high-pass filter area index, the periodicity index, the moving area index, the moving object index, or the smoke index are selected. It is identified whether the index condition for at least one is satisfied, and when even one of the at least one fire indices does not satisfy the index condition, the number of times that the fire candidate area is identified as the fire suspicious area (eg, the number of fire suspicious counts) can be initialized. However, when the predetermined index conditions for the at least one fire indices are all satisfied, the electronic device 1000 increases the number of times a fire candidate area is identified as a fire suspicious area, and the increased number of times is equal to or greater than a preset threshold. (eg 6), the location of the fire candidate area may be determined as the location of the optical fire identification area.

또한, 일 실시 예에 의하면, 전자 장치(1000)는 소정의 주기에 따라 광학 화재 식별 영역의 위치를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 복수의 프레임 이미지들 별 또는 복수의 프레임 이미지들 중 소정의 프레임 주기에 따른 프레임에 대해서, 상기 적어도 하나의 화재 지수를 결정하고, 화재 지수에 기초하여 기 설정된 횟수 이상으로 화재 후보 영역이 화재 의심 영역으로 카운트 되는 경우, 해당 화재 후보 영역을 광학 화재 식별 영역의 위치로 결정할 수 있다.Also, according to an embodiment, the electronic device 1000 may identify the position of the optical fire identification area according to a predetermined period. For example, the electronic device 1000 determines the at least one fire index for each of a plurality of frame images or a frame according to a predetermined frame period among the plurality of frame images, and sets a preset fire index based on the fire index. When the fire candidate area is counted as the fire suspicious area more than the number of times, the fire candidate area may be determined as the location of the optical fire identification area.

도 17은 일 실시 예에 따른 전자 장치의 블록도이다.17 is a block diagram of an electronic device according to an embodiment.

도 18은 또 다른 실시 예에 따른 전자 장치의 블록도이다.18 is a block diagram of an electronic device according to another embodiment.

도 18에 도시된 바와 같이, 일 실시 예에 따른 전자 장치(1000)는 적어도 하나의 프로세서(1300) 및 메모리(1700)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니다. 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 그 보다 적은 구성 요소에 의해서도 전자 장치(1000)는 구현될 수도 있다.18 , the electronic device 1000 according to an embodiment may include at least one processor 1300 and a memory 1700 . However, not all illustrated components are essential components. The electronic device 1000 may be implemented by more components than the illustrated components, or the electronic device 1000 may be implemented by fewer than the illustrated components.

예를 들어, 도 18에 도시된 바와 같이, 전자 장치(1000)는 프로세서(1300) 및 메모리(1700)외에, 사용자 입력 인터페이스(1100), 출력부(1200), 센싱부(1400), 네트워크 인터페이스(1500), A/V 입력부(1600) 및 메모리(1700)를 더 포함할 수도 있다.For example, as shown in FIG. 18 , the electronic device 1000 includes a user input interface 1100 , an output unit 1200 , a sensing unit 1400 , and a network interface in addition to the processor 1300 and the memory 1700 . 1500 , an A/V input unit 1600 , and a memory 1700 may be further included.

사용자 입력 인터페이스(1100)는, 사용자가 전자 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력 인터페이스(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input interface 1100 means a means for a user to input data for controlling the electronic device 1000 . For example, the user input interface 1100 includes a key pad, a dome switch, and a touch pad (contact capacitive method, pressure resistance film method, infrared sensing method, surface ultrasonic conduction method, red There may be a mechanical tension measurement method, a piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto.

사용자 입력 인터페이스(1100)는, 전자 장치(1000)를 제어하기 위한 기타 사용자 입력들을 획득할 수 있다. 또한, 사용자 입력 인터페이스(1100)는 소정의 오디오 콘트롤 패널을 터치하는 사용자 입력을 수신할 수도 있다.The user input interface 1100 may obtain other user inputs for controlling the electronic device 1000 . Also, the user input interface 1100 may receive a user input of touching a predetermined audio control panel.

출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.The output unit 1200 may output an audio signal, a video signal, or a vibration signal, and the output unit 1200 may include a display unit 1210 , a sound output unit 1220 , and a vibration motor 1230 . have.

디스플레이부(1210)는 전자 장치(1000)에서 처리되는 정보를 표시 출력하기 위한 화면을 포함한다. 또한, 화면은 영상을 디스플레이 할 수 있다. 예를 들면, 디스플레이부(1210)는 재난 알림 정보, 지진 알림 정보, 화재 알림 정보, 뉴스 화면 중 적어도 하나를 표시할 수 있다.The display unit 1210 includes a screen for displaying and outputting information processed by the electronic device 1000 . Also, the screen may display an image. For example, the display unit 1210 may display at least one of disaster notification information, earthquake notification information, fire notification information, and a news screen.

음향 출력부(1220)는 네트워크 인터페이스(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 재난 알림 정보 출력과 함께 소정의 경고음 등을 출력할 수 있다. 또한, 음향 출력부(1220)는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다.The sound output unit 1220 outputs audio data received from the network interface 1500 or stored in the memory 1700 . Also, the sound output unit 1220 may output a predetermined warning sound along with the output of disaster notification information. Also, the sound output unit 1220 outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, and a notification sound) performed by the electronic device 1000 .

프로세서(1300)는 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력 인터페이스(1100), 출력부(1200), 센싱부(1400), 네트워크 인터페이스(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다. 또한, 프로세서(1300)는 메모리(1700)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도 16에 기재된 전자 장치(1000)의 기능을 수행할 수 있다. 일 실시 예에 의하면 전자 장치(1000)는 광학 이미지 데이터 및 열화상 이미지 데이터에 대해 불꽃 또는 연기 감지 알고리즘을 적용할 제1 프로세서 및 광학 이미지에 대해 인공 지능 알고리즘을 적용할 제2 프로세서를 포함할 수도 있다.The processor 1300 typically controls the overall operation of the electronic device 1000 . For example, the processor 1300 executes programs stored in the memory 1700 , so that the user input interface 1100 , the output unit 1200 , the sensing unit 1400 , the network interface 1500 , and the A/V input unit (1600) and the like can be controlled in general. In addition, the processor 1300 may execute the programs stored in the memory 1700 to perform the functions of the electronic device 1000 illustrated in FIGS. 1 to 16 . According to an embodiment, the electronic device 1000 may include a first processor to apply a flame or smoke detection algorithm to the optical image data and the thermal image data, and a second processor to apply an artificial intelligence algorithm to the optical image. have.

일 실시 예에 의하면, 프로세서(1300)는 상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하고, 상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하고, 상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하고, 상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하고, 상기 획득된 1차 화재 식별 결과 또는 2차 화재 식별 결과 중 적어도 하나에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정할 수 있다.According to an embodiment, the processor 1300 obtains a thermal image by monitoring the area to be monitored by the at least one processor executing the one or more instructions, and acquires an optical image by monitoring the area to be monitored, , based on whether the position of the thermal image fire identification region indicating a temperature in a preset critical range in the thermal image and the position of the optical fire identification region determined according to the flame or smoke detection condition in the optical image match, the Obtaining the primary fire identification result for the monitoring target area, and inputting the optical image into the artificial intelligence model, to obtain the secondary fire identification result on whether a fire has occurred in the monitoring target area from the artificial intelligence model and, based on at least one of the obtained primary fire identification result and secondary fire identification result, it is possible to determine whether a fire occurs in the monitoring target area.

일 실시 예에 의하면 프로세서(1300)는 복수의 프로세서를 포함할 수 있고, 서로 다른 프로세서를 이용하여 연기 또는 불꽃 감지 알고리즘 및 인공지능 알고리즘을 수행할 수 있다.According to an embodiment, the processor 1300 may include a plurality of processors, and may perform a smoke or flame detection algorithm and an artificial intelligence algorithm using different processors.

일 실시 예에 의하면, 프로세서(1300)는 상기 감시 대상 영역을 촬영하는 열화상 카메라 및 광학 카메라 장치를 통하여 기 설정된 프레임 간격을 가지는 복수의 열화상 이미지들 및 광학 이미지들을 획득할 수 있다.According to an embodiment, the processor 1300 may acquire a plurality of thermal images and optical images having a preset frame interval through a thermal imaging camera and an optical camera device that photograph the monitoring target area.

일 실시 예에 의하면, 프로세서(1300)는 상기 적어도 하나의 센서 중 3축 가속도 센서로부터 3축 가속도 정보를 획득하고, 상기 적어도 하나의 센서 중 지자기 센서로부터 지자기 정보를 획득할 수 있다.According to an embodiment, the processor 1300 may obtain 3-axis acceleration information from a 3-axis acceleration sensor among the at least one sensor, and acquire geomagnetic information from a geomagnetic sensor among the at least one sensor.

일 실시 예에 의하면 프로세서(1300)는 상기 지자기 정보에 기초하여 상기 전자 장치가 설치된 위치에서 지자기 방향을 식별하고, 상기 3축 가속도 정보에 기초하여 3축 가속도 방향을 식별하고, 상기 3축 가속도 방향을 상기 식별된 지자기 방향에 매칭시키고, 상기 지자기 방향에 매칭된 상기 3축 가속도 방향을 기준으로, 상기 3축 가속도 크기를 모니터링함으로써 최대 지반 가속도를 결정하고, 상기 지자기 방향에 매칭된 3축 가속도 방향 및 상기 결정된 최대 지반 가속도에 기초하여 지진 발생 여부를 결정할 수 있다.According to an embodiment, the processor 1300 identifies a geomagnetic direction at a location where the electronic device is installed based on the geomagnetic information, identifies a 3-axis acceleration direction based on the 3-axis acceleration information, and identifies the 3-axis acceleration direction. matches the identified geomagnetic direction, and determines the maximum ground acceleration by monitoring the triaxial acceleration magnitude based on the triaxial acceleration direction matched to the geomagnetic direction, and the triaxial acceleration direction matched to the geomagnetic direction and whether an earthquake occurs based on the determined maximum ground acceleration may be determined.

일 실시 예에 의하면, 프로세서(1300)는 최대 지반 가속도에 기초하여 진도를 결정하고, 상기 결정된 진도가 기 설정된 임계 진도 이상인 경우, 상기 지자기 방향에 매칭된 3축 가속도 방향을 기준으로, 지진이 발생한 것으로 결정할 수 있다. 또 다른 실시 예에 의하면, 본 개시에 따른 프로세서(1300)는 지자기 방향에 매칭된 3축 가속도 방향으로, 상기 결정된 최대 지반 가속도 소정의 임계 가속도 이상으로 식별되는 경우, 지진 지수를 1 증가시키고, 상기 증가된 지진 지수가 임계 카운트 이상으로 식별되는 경우, 지진이 발생 한 것으로 결정할 수 있다. 일 실시 예에 의하면, 프로세서(1300)는 최대 지반 가속도에 기초하여 진도를 결정하고, 상기 결정된 진도가 기 설정된 임계 진도 이상인 경우, 상기 지자기 방향에 매칭된 3축 가속도 방향을 기준으로, 지진이 발생한 것으로 결정할 수 있다.According to an embodiment, the processor 1300 determines the intensity based on the maximum ground acceleration, and when the determined intensity is greater than or equal to a preset threshold intensity, based on the three-axis acceleration direction matched to the geomagnetic direction, the earthquake occurred it can be decided that According to another embodiment, the processor 1300 according to the present disclosure increases the seismic index by 1 when it is identified as the determined maximum ground acceleration greater than or equal to a predetermined threshold acceleration in the 3-axis acceleration direction matched to the geomagnetic direction, If an increased seismic index is identified above a threshold count, it can be determined that an earthquake has occurred. According to an embodiment, the processor 1300 determines the intensity based on the maximum ground acceleration, and when the determined intensity is greater than or equal to a preset threshold intensity, based on the three-axis acceleration direction matched to the geomagnetic direction, the earthquake occurred it can be decided that

일 실시 예에 의하면, 프로세서(1300)는 상기 지진이 발생한 것으로 결정되는 경우, 상기 3축 가속도 정보에 기초하여 PS시를 결정하고, 상기 결정된 PS시에 기초하여 진앙지를 결정하고, 상기 전자 장치와 연결된 다른 2이상의 전자 장치로부터 진앙지 정보를 획득하고, 상기 결정된 진앙지 및 상기 다른 전자 장치로부터 획득된 진앙지 정보에 기초하여, 지진이 발생한 진원지 정보를 결정하고, 상기 결정된 진원지 정보 및 상기 결정된 진도에 관한 정보를 상기 알림 정보로써 출력할 수 있다.According to an embodiment, when it is determined that the earthquake has occurred, the processor 1300 determines a PS time based on the triaxial acceleration information, determines an epicenter based on the determined PS time, and communicates with the electronic device. Acquire epicenter information from two or more other connected electronic devices, determine epicenter information where an earthquake occurs based on the determined epicenter and the epicenter information obtained from the other electronic devices, and determine the determined epicenter information and information on the determined seismic intensity may be output as the notification information.

센싱부(1400)는, 전자 장치(1000)의 상태 또는 전자 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 프로세서(1300)로 전달할 수 있다. 센싱부(1400)는 전자 장치(1000)의 사양 정보, 전자 장치(1000)의 상태 정보, 전자 장치(1000)의 주변 환경 정보, 사용자의 상태 정보 및 사용자의 디바이스 사용 이력 정보 중 일부를 생성하는데 이용될 수 있다. The sensing unit 1400 may detect a state of the electronic device 1000 or a state around the electronic device 1000 , and transmit the sensed information to the processor 1300 . The sensing unit 1400 generates some of the specification information of the electronic apparatus 1000, the state information of the electronic apparatus 1000, the surrounding environment information of the electronic apparatus 1000, the user's state information, and the user's device use history information. can be used

센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 이미지 센서, 열화상 이미지 센서, 3축 가속도 센서 또는 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing unit 1400 includes a magnetic sensor 1410 , an acceleration sensor 1420 , a temperature/humidity sensor 1430 , an infrared sensor 1440 , a gyroscope sensor 1450 , and a position sensor. (eg, GPS) 1460, barometric pressure sensor 1470, proximity sensor 1480, image sensor, thermal image sensor, 3-axis acceleration sensor or RGB sensor (illuminance sensor) 1490 may include at least one However, the present invention is not limited thereto. Since a function of each sensor can be intuitively inferred from a person skilled in the art from the name, a detailed description thereof will be omitted.

네트워크 인터페이스(1500)는 전자 장치(1000)가 다른 장치(미도시) 및 서버(2000)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 다른 장치(미도시)는 전자 장치(1000)와 같은 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. 예를 들어, 네트워크 인터페이스(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다. The network interface 1500 may include one or more components that allow the electronic device 1000 to communicate with another device (not shown) and the server 2000 . The other device (not shown) may be a computing device such as the electronic device 1000 or a sensing device, but is not limited thereto. For example, the network interface 1500 may include a short-range communication unit 1510 , a mobile communication unit 1520 , and a broadcast receiving unit 1530 .

근거리 통신부(short-range wireless communication unit)(1510)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. Short-range wireless communication unit 1510, Bluetooth communication unit, BLE (Bluetooth Low Energy) communication unit, short-range wireless communication unit (Near Field Communication unit), WLAN (Wi-Fi) communication unit, Zigbee (Zigbee) communication unit, infrared ( It may include an IrDA, infrared Data Association) communication unit, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, and the like, but is not limited thereto.

이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication unit 1520 transmits/receives a radio signal to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to transmission/reception of a voice call signal, a video call signal, or a text/multimedia message.

방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(1530)를 포함하지 않을 수도 있다. 또한, 네트워크 인터페이스(1500)는, 카메라 장치를 포함하는 외부 디바이스 또는 서버로부터 대상 객체 이미지 또는 기준 객체 이미지를 획득할 수도 있다. 일 실시예에 따르면, 네트워크 인터페이스(1500)는 전자 장치가 결정한 재난 알람 정보를 서버 또는 외부 디바이스로 전송할 수도 있다. The broadcast receiver 1530 receives a broadcast signal and/or broadcast-related information from the outside through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. According to an embodiment, the electronic device 1000 may not include the broadcast receiver 1530 . Also, the network interface 1500 may acquire a target object image or a reference object image from an external device including a camera apparatus or a server. According to an embodiment, the network interface 1500 may transmit disaster alarm information determined by the electronic device to a server or an external device.

A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A/V (Audio/Video) input unit 1600 is for inputting an audio signal or a video signal, and may include a camera 1610 , a microphone 1620 , and the like. The camera 1610 may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a photographing mode. The image captured through the image sensor may be processed through the processor 1300 or a separate image processing unit (not shown).

마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 사용자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)은 사용자의 음성 입력을 수신할 수 있다. 마이크로폰(1620)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 1620 receives an external sound signal and processes it as electrical voice data. For example, the microphone 1620 may receive an acoustic signal from an external device or a user. The microphone 1620 may receive a user's voice input. The microphone 1620 may use various noise removal algorithms for removing noise generated in the process of receiving an external sound signal.

메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. 또한, 메모리(1700)는 전자 장치(1000)가 재난 알람 정보를 출력하기 위해, 화재 발생 여부 또는 지진 발생 여부를 판단하기 위한 일련의 방법들이 인스트럭션의 형태로 저장될 수 있다.The memory 1700 may store a program for processing and controlling the processor 1300 , and may also store data input to or output from the electronic device 1000 . Also, in order for the electronic device 1000 to output disaster alarm information, the memory 1700 may store a series of methods for determining whether a fire or an earthquake has occurred in the form of instructions.

메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 1700 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory), and a RAM. (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , may include at least one type of storage medium among optical disks.

메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다. Programs stored in the memory 1700 may be classified into a plurality of modules according to their functions, for example, may be classified into a UI module 1710 , a touch screen module 1720 , a notification module 1730 , and the like. .

UI 모듈(1710)은, 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(1300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 1710 may provide a specialized UI, GUI, or the like that interworks with the electronic device 1000 for each application. The touch screen module 1720 may detect a touch gesture on the user's touch screen and transmit information about the touch gesture to the processor 1300 . The touch screen module 1720 according to some embodiments may recognize and analyze a touch code. The touch screen module 1720 may be configured as separate hardware including a controller.

알림 모듈(1730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 장치(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.The notification module 1730 may generate a signal for notifying the occurrence of an event in the electronic device 1000 . Examples of events generated in the electronic device 1000 include call signal reception, message reception, key signal input, schedule notification, and the like. The notification module 1730 may output a notification signal in the form of a video signal through the display unit 1210 , may output a notification signal in the form of an audio signal through the sound output unit 1220 , and the vibration motor 1230 . It is also possible to output a notification signal in the form of a vibration signal through

도 19는 일 실시 예에 따른 서버의 블록도이다.19 is a block diagram of a server according to an embodiment.

일 실시 예에 의하면, 서버(2000)는 프로세서(2300), 네트워크 인터페이스(2500) 및 데이터 베이스(2700)를 포함할 수 있다. 일 실시 예에 의하면 서버(2000) 내 프로세서(2300), 네트워크 인터페이스(2500) 및 데이터 베이스(2700) 구성은 전자 장치(1000)내 프로세서(1300), 네트워크 인터페이스(1500) 및 메모리(1700)의 구성에 각각 대응될 수 있다.According to an embodiment, the server 2000 may include a processor 2300 , a network interface 2500 , and a database 2700 . According to an embodiment, the configuration of the processor 2300 , the network interface 2500 , and the database 2700 in the server 2000 is the configuration of the processor 1300 , the network interface 1500 and the memory 1700 in the electronic device 1000 . Each configuration may correspond to each other.

일 실시 예에 의하면, 서버(2000)는 전자 장치(1000)로 CCTV 장치로부터 획득된 이미지들을 전송하거나, 지진파 정보등을 전송할 수도 있다. 또한, 서버(2000)는 전자 장치(1000)가 결정한 재난 정보(예컨대 화재 발생 여부, 지진 발생 여부, 화재 알람 정보, 지진 알람 정보, 화재 발생 규모, 화재 발생 위치, 지진 발생 규모, 지진 발생 위치 등에 대한 정보)를 획득하고, 획득된 재난 정보에 기초하여 시각적 또는 청각적 재난 컨텐츠를 생성할 수 있다. 서버(2000)는 생성된 재난 컨텐츠를 전자 장치(1000)로 다시 전송할 수도 있고, 전자 장치와 연결된 다른 전자 장치 또는 서버 장치로 전송할 수도 있다.According to an embodiment, the server 2000 may transmit images acquired from the CCTV device to the electronic device 1000 or transmit seismic wave information. In addition, the server 2000 provides disaster information determined by the electronic device 1000 (eg, whether a fire occurs, whether an earthquake occurs, fire alarm information, earthquake alarm information, a fire occurrence scale, a fire occurrence location, an earthquake occurrence scale, an earthquake occurrence location, etc.) information) and may generate visual or auditory disaster content based on the acquired disaster information. The server 2000 may transmit the generated disaster content back to the electronic device 1000 , or may transmit it to another electronic device or a server device connected to the electronic device.

도 20은 일 실시 예에 따른 전자 장치 및 서버가 서로 연동함으로써 재난을 감지하는 과정을 설명하기 위한 도면이다.20 is a diagram for explaining a process of detecting a disaster by interworking between an electronic device and a server according to an embodiment.

본 개시에 따른 전자 장치(1000) 및 서버(2000)는 인공지능 모델을 기반으로, 서로 연동함으로써 재난을 감지하는 방법 중 적어도 일부를 수행할 수도 있다. 그러나 또 다른 실시 예에 의하면, 서버(2000)에 저장된 인공 지능 모델 또는 상기 인공 지능 모델에 대한 인스트럭션이 전자 장치에 저장됨으로써, 전자 장치(1000)가 단독으로 인공지능 모델을 이용하여 본 명세서에서 상술한 재난을 감지하는 방법을 수행할 수도 있음은 물론이다. 또한, 일 실시 예에 의하면, 전자 장치(1000)는 전자 장치(1000)내부에 복수의 프로세서를 구비하고, 인공지능 알고리즘을 수행하기 위한 별도의 프로세서를 이용하여 재난을 효과적으로 감지할 수도 있다.The electronic device 1000 and the server 2000 according to the present disclosure may perform at least a part of a method of detecting a disaster by interworking with each other based on an artificial intelligence model. However, according to another embodiment, the artificial intelligence model stored in the server 2000 or instructions for the artificial intelligence model are stored in the electronic device, so that the electronic device 1000 alone uses the artificial intelligence model as described above in this specification. Of course, it is also possible to carry out a method to detect a disaster. Also, according to an embodiment, the electronic device 1000 may include a plurality of processors in the electronic device 1000 and effectively detect a disaster by using a separate processor for performing an artificial intelligence algorithm.

예를 들어, 전자 장치(1000)는 제1 프로세서를 이용하여 열화상 이미지 내 기 설정된 임계 범위의 온도를 만족하는 영역이 식별되는 경우, 해당 영역에 대한 열화상 화재 식별 영역의 위치를 결정할 수 있다. 또한, 전자 장치(1000)는 제1 프로세서를 이용하여 광학 이미지 내 도 16에 도시된 불꽃 감지 알고리즘 또는 후술하는 연기 감지 알고리즘을 적용함으로써 광학 이미지 내 광학 화재 식별 영역이 도출되는지 여부를 결정할 수 있다. 또한, 전자 장치(1000)는 제2 프로세서를 이용하여 광학 이미지에 인공 지능 모델을 적용함으로써 광학 이미지로부터 연기 또는 불꽃이 감지되는지 여부를 결정할 수 있다. For example, when a region satisfying a temperature of a preset threshold range in the thermal image is identified using the first processor, the electronic device 1000 may determine the location of the thermal image fire identification region for the region. . In addition, the electronic device 1000 may determine whether an optical fire identification region in the optical image is derived by applying the flame detection algorithm shown in FIG. 16 or a smoke detection algorithm to be described later in the optical image using the first processor. Also, the electronic device 1000 may determine whether smoke or flame is detected from the optical image by applying the artificial intelligence model to the optical image using the second processor.

일 실시 예에 의하면, 전자 장치(1000)가 이용하는 인공 지능 모델은 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. According to an embodiment, the artificial intelligence model used by the electronic device 1000 may include a plurality of neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between an operation result of a previous layer and a plurality of weights. The plurality of weights of the plurality of neural network layers may be optimized by the learning result of the artificial intelligence model. For example, a plurality of weights may be updated so that a loss value or a cost value obtained from the artificial intelligence model during the learning process is reduced or minimized.

일 실시 예에 의하면, 전자 장치(1000)가 이용하는 인공 지능 모델은 심층 신경망(DNN:Deep Neural Network)을 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다. 또한, 일 실시 예에 의하면, 전자 장치(1000)가 이용하는 인공 지능 모델은 YOLO, DARKNET 중 적어도 하나를 포함할 수도 있다.According to an embodiment, the artificial intelligence model used by the electronic device 1000 may include a deep neural network (DNN), for example, a convolutional neural network (CNN), a deep neural network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN), or Deep Q-Networks, etc., but are not limited to the above examples does not Also, according to an embodiment, the artificial intelligence model used by the electronic device 1000 may include at least one of YOLO and DARKNET.

상술한 제1 프로세서 및 제2 프로세서를 이용한 전자 장치의 동작은 전자 장치 단독으로 수행할 수도 있으나, 일부 프로세서의 기능을 서버(2000)에 의해서도 수행할 수도 있다. 예를 들어, 도 20에 도시된 바와 같이, 전자 장치(1000)는 서버(2000)와 연동함으로써, 인공 지능 모델을 이용하여 재난을 감지하는 방법 중 일부를 수행함으로써 신속하고 효과적으로 재난을 감지할 수도 있다.The operation of the electronic device using the above-described first and second processors may be performed by the electronic device alone, or some processor functions may also be performed by the server 2000 . For example, as shown in FIG. 20 , the electronic device 1000 may detect a disaster quickly and effectively by interworking with the server 2000 and performing some of the methods of detecting a disaster using an artificial intelligence model. have.

예를 들어, S2002에서, 전자 장치(1000)는 감시 대상 영역 이미지를 촬영함으로써 감시 대상 영역에 대한 이미지를 획득할 수 있다. 전자 장치(1000)는 소정의 프레임 간격의 복수의 열화상 이미지들 및 광학 이미지들을 획득할 수 있다. S2004에서, 전자 장치(1000)는 획득된 감시 대상 영역에 대한 복수의 열화상 이미지들 및 광학 이미지들을 서버(2000)로 전송할 수 있다.For example, in S2002 , the electronic device 1000 may acquire an image of the monitoring target area by photographing the monitoring target area image. The electronic device 1000 may acquire a plurality of thermal image images and optical images with a predetermined frame interval. In S2004 , the electronic device 1000 may transmit a plurality of thermal image and optical images of the obtained monitoring target area to the server 2000 .

또 다른 실시 예에 의하면, 전자 장치(1000)는 RTSP Video Data를 서버(2000)로 전송할 수도 있다. S2106에서, 서버(2000)는 전자 장치에서 수신된 이미지를 전처리할 수 있다. 예를 들어, 서버(2000)는 전자 장치(1000)로부터 획득되는 이미지 또는 영상을 전처리함으로써 인공 지능 모델에 최적화된 포맷으로 변환할 수 있다. 보다 상세하게는, 서버(2000)는 전자 장치(1000)로부터 획득되는 이미지 또는 영상을 전처리함으로써, 이미지 타입 별로 학습된 각 인공 지능 모델에 최적화된 포맷으로 변환할 수도 있다.According to another embodiment, the electronic device 1000 may transmit RTSP Video Data to the server 2000 . In S2106, the server 2000 may pre-process the image received from the electronic device. For example, the server 2000 may convert an image or an image obtained from the electronic device 1000 into a format optimized for the artificial intelligence model by preprocessing the image. More specifically, the server 2000 may pre-process an image or an image obtained from the electronic device 1000 to convert it into a format optimized for each artificial intelligence model learned for each image type.

S2008에서, 서버(2000)는 전자 장치(1000)로부터 획득된 광학 이미지에 불꽃 또는 연기 감지 알고리즘을 적용함으로써 광학 화재 식별 영역이 결정되는지 여부를 확인하고, 열화상 이미지로부터 기 설정된 임계 범위 온도의 열화상 화재 식별 영역이 결정되는지 여부를 확인한 후, 광학 화재 식별 영역과 열화상 화재 식별 영역의 위치가 매칭되는지 여부를 확인할 수 있다. 또한, 서버(2000)는 광학 이미지에 인공 지능 모델을 적용함으로써 인공 지능 모델로부터 화재 발생 결과 여부에 대한 정보를 획득할 수도 있다.In S2008, the server 2000 checks whether the optical fire identification area is determined by applying a flame or smoke detection algorithm to the optical image obtained from the electronic device 1000, and the thermal image of a preset critical range temperature from the thermal image image. After confirming whether the image fire identification area is determined, it may be checked whether the positions of the optical fire identification area and the thermal image fire identification area match. Also, the server 2000 may obtain information on whether or not a fire has occurred from the artificial intelligence model by applying the artificial intelligence model to the optical image.

서버(2000)는 광학 화재 식별 영역의 위치와 열화상 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여 1차 화재 식별 결과를 결정하고, 인공 지능 모델로부터 2차 화재 식별 결과를 결정할 수 있다. 서버(2000)는 1차 화재 식별 결과 및 2차 화재 식별 결과 중 적어도 하나에 기초하여 최종적으로 감시 대상 영역에 화재가 발생하였는지 여부를 결정할 수 있다. S2012에서, 서버(2000)는 감시 대상 영역에 화재가 발생한 것으로 식별되는 경우 알림 정보를 전자 장치(1000)로 전송할 수 있다. 일 실시 예에 의하면, 서버(2000)는 알림 정보외 화재 발생 원인, 화재 발생 종류에 대한 정보를 전자 장치(1000)로 더 전송할 수도 있다.The server 2000 may determine the primary fire identification result based on whether the position of the optical fire identification region matches the position of the thermal image fire identification region, and may determine the secondary fire identification result from the artificial intelligence model. The server 2000 may finally determine whether a fire has occurred in the monitoring target area based on at least one of the primary fire identification result and the secondary fire identification result. In S2012 , when it is identified that a fire has occurred in the monitoring target area, the server 2000 may transmit notification information to the electronic device 1000 . According to an embodiment, the server 2000 may further transmit information on the cause of the fire and the type of fire to the electronic device 1000 in addition to the notification information.

S2014에서, 전자 장치(1000)는 서버(2000)로부터 수신된 알림 정보를 저장할 수도 있다. 또 다른 예에 의하면, 전자 장치(1000)는 알림 정보 외, 화재 원인에 대한 정보를 더 저장할 수도 있다. S2016에서, 전자 장치(1000)는 저장된 알림 정보를 출력할 수 있다.In S2014 , the electronic device 1000 may store notification information received from the server 2000 . According to another example, the electronic device 1000 may further store information on the cause of the fire in addition to the notification information. In S2016, the electronic device 1000 may output stored notification information.

도 21은 또 다른 실시 예에 따른 전자 장치 및 서버가 서로 연동함으로써 재난을 감지하는 방법을 수행하는 과정을 설명하기 위한 도면이다.21 is a diagram for explaining a process of performing a method for detecting a disaster by interworking between an electronic device and a server according to another embodiment.

도 21를 참조하면 전자 장치(1000)는 FireWatch Camera에 대응될 수 있다. 전자 장치(1000)는 카메라를 이용하여 감시 대상 영역에 대한 입력 비디오(2210)를 획득할 수 있다. S2102에서, 전자 장치(1000)는 도 1 내지 도 18에서 상술한 화재 발생 여부를 결정하는 방법을 수행함으로써 화재 발생 여부에 대한 제1 결과 정보를 결정할 수 있다. S2104에서, 전자 장치(1000)는 감시 대상 영역을 촬영함으로써 획득되는 영상 정보를 비디오 스트리밍할 수 있다. S2106에서, 전자 장치(1000)는 서버(2000)로부터 서버가 인공 지능 모델을 이용하여 판단한 화재 발생 여부에 대한 외부 입력 이벤트 정보를 제2 결과 정보로 획득할 수 있다. S2108에서, 전자 장치(1000)는 제1 결과 정보 및 제2 결과 정보에 기초하여 경보를 발생시킬 수 있다. 예를 들어, 전자 장치(1000)는 제1 결과 정보가, 화재 후보 영역이 화재 의심 영역으로 식별된 횟수가 임계치 이상임을 나타내고, 제2 결과 정보가 소정의 임계 확률 값 이상인 것으로 식별되는 경우 경보를 발생시킬 수도 있다.Referring to FIG. 21 , the electronic device 1000 may correspond to a FireWatch Camera. The electronic device 1000 may acquire an input video 2210 of a monitoring target area using a camera. In S2102 , the electronic device 1000 may determine first result information regarding whether a fire has occurred by performing the method of determining whether a fire has occurred with reference to FIGS. 1 to 18 . In S2104 , the electronic device 1000 may video-stream image information obtained by photographing the monitoring target area. In S2106 , the electronic device 1000 may obtain from the server 2000 external input event information regarding whether a fire has occurred, which the server has determined using the artificial intelligence model, as the second result information. In S2108, the electronic device 1000 may generate an alert based on the first result information and the second result information. For example, when the first result information indicates that the number of times that a fire candidate area is identified as a fire suspicious area is equal to or greater than a threshold, and the second result information is identified as equal to or greater than a predetermined threshold probability value, an alarm is issued may cause

본 개시에 따른 전자 장치(1000)는 감시 대상 영역을 촬영함으로써 획득되는 입력 비디오 데이터(2210)를 RTSP 비디오 데이터(2220) 형식으로 서버(2000)로 전송할 수 있고, 서버(2000)는 전자 장치(1000)에서 획득된 RTSP 비디오 데이터를 인공지능 모델에 입력함으로써 서버(2000)에서 판단한 알람 이벤트를 생성할 수 있다.The electronic device 1000 according to the present disclosure may transmit input video data 2210 obtained by photographing a monitoring target area to the server 2000 in the form of RTSP video data 2220, and the server 2000 may transmit the input video data 2210 to the electronic device ( 1000), an alarm event determined by the server 2000 may be generated by inputting the RTSP video data acquired in the artificial intelligence model.

예를 들어, S1210에서, 서버(2000)는 전자 장치(1000)에서 획득된 RTSP 비디오 데이터(2220)를 프레임 처리함으로써 인공 지능 모델의 타입에 맞는 포맷을 가지는 이미지 또는 영상을 생성할 수 있다. S2112에서, 서버(2000)는 전처리된 이미지 또는 영상을 학습된 딥러닝 신경망 모델에 입력할 수 있다. S2114에서, 서버(2000)는 딥러닝 신경망 모델의 출력 값에 기초하여, 이미지 또는 영상에서 화재가 발생하였는지 여부를 추론할 수 있다. S2116에서, 서버(2000)는 신경망 모델의 출력 값에 기초하여 추론된 결과 값이 화재가 발생한 상황을 나타내거나, 소정의 임계 확률 이상의 화재 발생 확률을 나타내는 경우 알람 이벤트 데이터를 생성하고, 생성된 알람 이벤트 데이터(2230)를 전자 장치(1000)로 전송할 수 있다. For example, in S1210 , the server 2000 may generate an image or an image having a format suitable for the type of the artificial intelligence model by frame-processing the RTSP video data 2220 obtained by the electronic device 1000 . In S2112, the server 2000 may input the preprocessed image or image to the trained deep learning neural network model. In S2114, the server 2000 may infer whether a fire has occurred in an image or an image based on the output value of the deep learning neural network model. In S2116, the server 2000 generates alarm event data when the result value inferred based on the output value of the neural network model indicates a situation in which a fire has occurred or indicates a fire occurrence probability greater than or equal to a predetermined threshold probability, and the generated alarm Event data 2230 may be transmitted to the electronic device 1000 .

도 22는 일 실시 예에 따른 전자 장치가 인공 지능 모델을 학습시키기 위한 학습 데이터를 생성하는 과정을 설명하기 위한 도면이다.22 is a diagram for describing a process of generating, by an electronic device, learning data for learning an artificial intelligence model, according to an embodiment.

본 개시에 따른 전자 장치(1000)는 광학 이미지, 열화상 이미지 또는 영상에서 화재 발생 확률 값을 출력하는 인공 지능 모델을 학습시킬 수 있다. 또한, 일 실시 예에 의하면, 전자 장치(1000)는 이미지 또는 영상의 타입 별로 인공 지능 모델을 학습시킬 수 있다. 또한, 전자 장치(1000)는 인공 지능 모델을 학습시키기 위한 학습 데이터를 소정의 타입 별로 생성할 수도 있다.The electronic device 1000 according to the present disclosure may learn an artificial intelligence model that outputs a fire occurrence probability value from an optical image, a thermal image, or an image. Also, according to an embodiment, the electronic device 1000 may train an artificial intelligence model for each type of image or image. Also, the electronic device 1000 may generate training data for learning the artificial intelligence model for each predetermined type.

예를 들어, 전자 장치(1000)는 감시 대상 영역을 촬영함으로써 인공 지능 모델을 학습시키기 위한 학습 비디오 데이터(2302)를 획득할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 서버(2000) 또는 기 저장된 데이터 베이스로부터 인공지능 모델 학습을 위한 학습 비디오 데이터(2302)를 획득할 수도 있다. 전자 장치(1000)는 학습 비디오 데이터(2302)를 전처리함으로써, 소정의 영상 타입 별 학습 데이터(2340)를 생성할 수 있다.For example, the electronic device 1000 may acquire the training video data 2302 for learning the artificial intelligence model by photographing the monitoring target area. According to another embodiment, the electronic device 1000 may acquire the training video data 2302 for learning the AI model from the server 2000 or a pre-stored database. The electronic device 1000 may generate the training data 2340 for each predetermined image type by preprocessing the training video data 2302 .

예를 들어, 전자 장치(1000)는 학습 비디오 데이터(2302)를 전처리함으로써, 하이패스 필터 영상(2312), 칼라(RGB) 영상(2314), 흑백 영상(2316), 엣지 영상(2318), 모션 영상(2320) 또는 밝기 조절 영상(2322) 중 적어도 하나를 생성할 수 있다. 일 실시 예에 의하면, 모션 영상(2320)은 이미지 또는 영상 내 벡터 및 움직임량을 그레이스케일로 표현한 영상일 수 있다. 일 실시 예에 의하면, 밝기 조절 영상(2322)은 영상 밝기가 조절된 영상일 수 있다. 전자 장치(1000)는 학습 비디오 데이터(2302)를 전처리함으로써 생성된 타입별 학습 데이터 각각 또는 타입 별로 생성된 학습 데이터를 조합함으로써 조합 학습 데이터를 생성할 수 있고, 타입 별로 생성된 학습 데이터 또는 조합 학습 데이터에 기초하여 인공지능 모델을 학습시킬 수 있다. 본 개시에 따른 전자 장치(1000)는 학습 데이터에 기초하여, 인공 지능 모델 내 노드 및 레이어들의 가중치(Weight)를 수정 및 갱신함으로써 인공 지능 모델을 학습시킬 수 있다.For example, the electronic device 1000 pre-processes the training video data 2302 to obtain a high-pass filter image 2312 , a color (RGB) image 2314 , a black-and-white image 2316 , an edge image 2318 , and a motion. At least one of the image 2320 and the brightness control image 2322 may be generated. According to an embodiment, the motion image 2320 may be an image or an image in which vectors and motion amounts in the image are expressed in grayscale. According to an embodiment, the brightness adjustment image 2322 may be an image whose image brightness is adjusted. The electronic device 1000 may generate combination learning data by combining each type of training data generated by preprocessing the training video data 2302 or training data generated for each type, and may generate training data or combination learning generated for each type. An artificial intelligence model can be trained based on the data. The electronic device 1000 according to the present disclosure may train the artificial intelligence model by modifying and updating weights of nodes and layers in the artificial intelligence model based on the learning data.

일 실시 예에 의하면, 전자 장치(1000)는 학습 비디오 데이터(2302) 중 사람의 판단에 의해 선별된 비디오 데이터를 이용하여 인공 지능 모델을 학습시킬 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 도 1 내지 도 18에서 상술한 화재 발생 여부 판단 알고리즘에 기초하여 화재 발생 여부를 판단한 결과, 화재 발생이 아님에도 화재가 발생한 것으로 식별된 이미지 또는 영상은 학습 비디오 데이터에서 제거할 수 있다. 전자 장치(1000)는 도 1 내지 도 18에서 기술된 화재 발생 알고리즘에서 화재 발생 여부가 잘못 판단되는 이미지 또는 영상을 학습 데이터에서 제거하고 남은 학습 데이터에 기초하여 인공 지능 모델을 학습시킴으로써, 인공 지능 모델의 정확도를 더 향상시킬 수 있다.According to an embodiment, the electronic device 1000 may train an artificial intelligence model by using video data selected by a person's judgment among the training video data 2302 . According to another embodiment, the electronic device 1000 determines whether a fire has occurred based on the algorithm for determining whether a fire has occurred with reference to FIGS. 1 to 18 , and as a result, an image or image identified as having occurred even though a fire has not occurred. can be removed from the training video data. The electronic device 1000 removes an image or an image for which a fire occurrence is erroneously determined in the fire generation algorithm described in FIGS. 1 to 18 from the training data and trains the artificial intelligence model based on the remaining training data, thereby making the artificial intelligence model. can further improve the accuracy of

도 23은 일 실시 예에 따른 전자 장치가 인공 지능 모델을 이용하여 알람 이벤트를 생성하는 과정을 설명하기 위한 도면이다.23 is a diagram for describing a process in which an electronic device generates an alarm event using an artificial intelligence model, according to an exemplary embodiment.

일 실시 예에 따른 전자 장치(1000)가 감시 대상 영역을 촬영함으로써 실시간 영상(2402)을 획득하고, 실시간 영상을 전처리한 후 생성되는 전처리 영상을 신경망 모델에 입력함으로써 알람 이벤트를 생성하는 과정을 설명하기로 한다. S2340에서, 전자 장치(1000)가 실시간 영상(2402)을 전처리함으로써 생성된 전처리 영상을 생성할 수 있다. 예를 들어, 전자 장치(1000)는 실시간 영상(2402)을 전처리함으로써 하이패스 필터 영상(2412), RGB 영상(2414), 흑백 영상(2416), 엣지 영상(2418), 모션 영상(2428) 또는 밝기 조절 영상(2422)을 생성할 수 있다. S2342에서, 전자 장치(1000)는 전처리된 영상을 딥러닝 신경망 모델(2430)에 입력함으로써 추련 결과를 모니터링할 수 있다.A process of generating an alarm event by acquiring a real-time image 2402 by the electronic device 1000 by capturing a region to be monitored according to an embodiment, pre-processing the real-time image, and then inputting the pre-processed image generated into the neural network model. decide to do In S2340 , the electronic device 1000 may generate a pre-processed image generated by pre-processing the real-time image 2402 . For example, the electronic device 1000 pre-processes the real-time image 2402 to obtain a high-pass filter image 2412 , an RGB image 2414 , a black-and-white image 2416 , an edge image 2418 , a motion image 2428 , or A brightness control image 2422 may be generated. In S2342 , the electronic device 1000 may monitor the training result by inputting the preprocessed image to the deep learning neural network model 2430 .

S2344에서, 전자 장치(1000)는 인공지능 모델(예컨대 신경망 모델)의 추론 결과를 미리 설정된 시간 동안 누적한 결과 값의 평균 정확도가 소정의 임계값 이상인지 여부를 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 인공 지능 모델의 추론 결과를 1 내지 10초 동안 누적하여 평균 정확도가 임계값 이상인지 여부를 결정할 수 있다. S2346에서, 전자 장치(1000)는 누적 평균 정확도가 임계값 이상으로 식별되는 경우, 알람 이벤트를 생성할 수 있다.In S2344 , the electronic device 1000 may determine whether an average accuracy of a result value obtained by accumulating an inference result of an artificial intelligence model (eg, a neural network model) for a preset time is equal to or greater than a predetermined threshold value. According to an embodiment, the electronic device 1000 may determine whether the average accuracy is equal to or greater than a threshold by accumulating the inference results of the artificial intelligence model for 1 to 10 seconds. In S2346 , the electronic device 1000 may generate an alarm event when it is identified that the accumulated average accuracy is equal to or greater than the threshold value.

도 24는 일 실시 예에 따른 전자 장치가 연기 감지 조건에 따라 연기를 감지하는 방법을 구체적으로 설명하기 위한 도면이다.24 is a diagram for describing in detail a method for an electronic device to detect smoke according to a smoke detection condition, according to an exemplary embodiment.

S2402에서, 전자 장치(1000)는 광학 이미지들을 시퀀싱할 수 있다. 예를 들어, 전자 장치(1000)는 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정할 수 있다. S2404에서, 전자 장치(1000)는 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별할 수 있다.In S2402, the electronic device 1000 may sequence the optical images. For example, the electronic device 1000 may determine a foreground image and a background image for the plurality of optical images by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images. In S2404 , the electronic device 1000 may identify motion regions by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images.

S2406에서, 전자 장치(1000)는 식별된 움직임 영역들을 클러스터링할 수 있다. S2408에서, 전자 장치(1000)는 식별된 움직임 영역들 내 픽셀들 중, 그레이 색상 값을 나타내는 픽셀들을 추출할 수 있다. S2410에서, 전자 장치(1000)는 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터들을 식별할 수 있다.In S2406 , the electronic device 1000 may cluster the identified motion regions. In S2408 , the electronic device 1000 may extract pixels representing a gray color value from among pixels in the identified motion regions. In S2410 , the electronic device 1000 may identify motion vectors by tracking image regions including pixels representing the gray color value in a plurality of optical images having adjacent frame numbers.

S24142에서, 전자 장치(1000)는 모션 벡터들이 식별되면, 복수의 광학 이미지들 중, 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득할 수 있다. 전자 장치(1000)는 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정할 수 있다.In S24142 , when the motion vectors are identified, the electronic device 1000 may obtain an output value of the low-pass filter by applying the low-pass filter to a background image among a plurality of optical images. The electronic device 1000 may determine the smoke index regarding the correlation between the output value of the low-pass filter and the output value of the low-pass filter with respect to the background image when a preset smoke is generated.

S2414에서, 전자 장치(1000)는 상술한 과정을 수행함에 따른 결과를 학습 데이터로 생성하고, 생성된 학습 데이터에 기초하여 인공 지능 모델을 학습시킬 수 있다. S2416에서, 전자 장치(1000)는 학습된 인공 지능 모델에서 출력된 결과가 실제 연기가 맞는지에 대한 결과 여부를 검증할 수 있다. S2418에서, 전자 장치(1000)는 인공 지능 모델에서 출력된 결과가 실제 연기가 맞는 것으로 검증되는 경우, 알람 정보를 생성하고, 생성된 알람 정보를 출력할 수 있다. 본 개시에 따른 전자 장치(1000)는 도 24에 기재된 연기 감지 알고리즘을 인공 지능 모델을 활용하여 수행할 수도 있으나, 임베디드 모듈을 이용하여 실제 이미지 처리를 통해 이미지로부터 직접 연기 감지 여부를 결정할 수도 있다.In S2414 , the electronic device 1000 may generate a result of performing the above-described process as training data, and train an artificial intelligence model based on the generated training data. In S2416 , the electronic device 1000 may verify whether the result output from the learned artificial intelligence model is the actual smoke. In S2418 , when it is verified that the result output from the artificial intelligence model is the actual smoke, the electronic device 1000 may generate alarm information and output the generated alarm information. The electronic device 1000 according to the present disclosure may perform the smoke detection algorithm described in FIG. 24 using an artificial intelligence model, but may determine whether to detect smoke directly from an image through actual image processing using an embedded module.

도 25는 일 실시 에에 따른 전자 장치가 감지한 연기 감지 결과를 나타내는 도면이다.25 is a diagram illustrating a smoke detection result detected by an electronic device according to an exemplary embodiment.

도 25의 그림 (2510)을 참조하면 전자 장치(1000)가 광학 이미지 내 연기를 감지한 결과가 도시된다. 전자 장치의 화면 상에서 전자 장치(1000)는 움직이는 픽셀 영역들을 일부 클러스터링하고, 클러스터링 영역들 중 그레이 색상 값을 나타내는 픽셀들을 추출할 수 있다. 전자 장치(1000)는 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역(2512)을 연기 감지 영역으로 결정할 수 있다.Referring to figure 2510 of FIG. 25 , a result of detecting smoke in the optical image by the electronic device 1000 is shown. On the screen of the electronic device, the electronic device 1000 may partially cluster moving pixel regions and extract pixels representing gray color values from among the clustering regions. The electronic device 1000 may determine the image area 2512 including pixels representing gray color values as the smoke detection area.

일 실시예에 따른 전자 장치가 재난을 감지하는 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.A method for detecting a disaster by an electronic device according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.

또한, 전자 장치가 재난을 감지하는 방법을 수행하도록 하는 프로그램이 저장된 기록 매체를 포함하는 컴퓨터 프로그램 장치가 제공될 수 있다. Also, there may be provided a computer program device including a recording medium in which a program for causing an electronic device to perform a method for detecting a disaster is stored.

컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

일부 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈과 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. 또한, 일부 실시예는 컴퓨터에 의해 실행되는 컴퓨터 프로그램과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램 또는 컴퓨터 프로그램 제품(computer program product)으로도 구현될 수 있다.Some embodiments may also be implemented in the form of a recording medium containing instructions executable by a computer, such as program modules executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, other data in modulated data signals, such as program modules, or other transport mechanisms, and includes any information delivery media. Also, some embodiments may be implemented as a computer program or computer program product comprising instructions executable by a computer, such as a computer program executed by a computer.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto. belong to the scope of the right.

Claims (17)

전자 장치가 재난을 감지하는 방법에 있어서,
감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하는 단계;
상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하는 단계;
상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하는 단계;
상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하는 단계; 및
상기 획득된 1차 화재 식별 결과 및 2차 화재 식별 결과에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하는 단계; 를 포함하고,
상기 1차 화재 식별 결과를 획득하는 단계는
상기 광학 이미지 내 화재 후보 영역에 대해 결정되는, 상기 불꽃 또는 상기 연기 감지 조건에 관한 적어도 하나의 화재 지수를 결정하는 단계; 및
상기 적어도 하나의 화재 지수에 기초하여, 상기 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 기 설정된 임계치 이상인 경우, 상기 화재 후보 영역의 위치를 상기 광학 화재 식별 영역의 위치로 식별하는 단계; 를 포함하고,
상기 광학 이미지를 획득하는 단계는,
기 설정된 프레임 간격을 가지는 복수의 광학 이미지들을 획득하는 단계; 를 포함하며,
상기 적어도 하나의 화재 지수를 결정하는 단계는
상기 복수의 광학 이미지들이 상기 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정하는 단계; 를 포함하고,
상기 연기 지수를 결정하는 단계는,
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 상기 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정하는 단계;
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별하는 단계;
상기 식별된 움직임 영역들을 클러스터링하는 단계;
상기 클러스터링된 움직임 영역들 내 픽셀들 중, 그레이 색상 값을 나타내는 픽셀들을 추출하는 단계;
상기 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터들을 식별하는 단계;
상기 모션 벡터들이 식별되면, 상기 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득하는 단계; 및
상기 획득된 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정하는 단계; 를 포함하는, 방법.
A method for an electronic device to detect a disaster,
acquiring a thermal image by monitoring the area to be monitored;
acquiring an optical image by monitoring the area to be monitored;
Based on whether the position of the thermal image fire identification area indicating the temperature in the preset critical range in the thermal image and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the monitoring obtaining a primary fire identification result for the target area;
obtaining a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model by inputting the optical image into an artificial intelligence model; and
determining whether a fire has occurred in the monitoring target area based on the obtained primary fire identification result and secondary fire identification result; including,
The step of obtaining the first fire identification result is
determining at least one fire index relating to the flame or the smoke detection condition, which is determined for a fire candidate area in the optical image; and
identifying the location of the fire candidate area as the location of the optical fire identification area when the number of times the fire candidate area is identified as the fire suspicious area is equal to or greater than a preset threshold based on the at least one fire index; including,
Acquiring the optical image comprises:
acquiring a plurality of optical images having a preset frame interval; includes,
Determining the at least one fire index comprises:
determining a smoke index as to whether the plurality of optical images satisfy the smoke detection condition; including,
The step of determining the smoke index,
determining a foreground image and a background image for the plurality of optical images by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
identifying motion regions by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
clustering the identified motion regions;
extracting pixels representing a gray color value from among the pixels in the clustered motion regions;
identifying motion vectors by tracking image regions comprising pixels representing the gray color value in a plurality of optical images having the contiguous frame number;
when the motion vectors are identified, obtaining an output value of the low-pass filter by applying a low-pass filter to a background image among the plurality of optical images; and
determining a smoke index with respect to the correlation between the obtained output value of the low-pass filter and the low-pass filter output value with respect to a background image when a preset smoke is generated; A method comprising
제1항에 있어서, 상기 방법은
적어도 하나의 센서를 이용하여 상기 전자 장치가 설치된 위치에서 지진파를 센싱함으로써 지진파 정보를 획득하는 단계;
상기 지진파 정보에 기초하여 적어도 하나의 지진 지수를 결정하는 단계;
상기 결정된 적어도 하나의 지진 지수에 기초하여 지진 발생 여부를 결정하는 단계; 및
상기 화재 발생 여부 또는 상기 지진 발생 여부에 따라 알림 정보를 출력하는 단계; 를 더 포함하는, 방법.
The method of claim 1, wherein the method
acquiring seismic wave information by sensing seismic waves at a location where the electronic device is installed using at least one sensor;
determining at least one seismic index based on the seismic wave information;
determining whether an earthquake occurs based on the determined at least one earthquake index; and
outputting notification information according to whether the fire or the earthquake has occurred; A method further comprising:
제1항에 있어서, 상기 1차 화재 식별 결과를 획득하는 단계는
상기 열화상 이미지의 픽셀 값에 기초하여 상기 기 설정된 임계 범위의 온도를 만족하는 일부 이미지 영역들에 관한 열화상 화재 식별 영역의 위치를 식별하는 단계; 및
상기 식별된 열화상 화재 식별 영역의 위치 및 상기 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여 상기 1차 화재 식별 결과를 획득하는 단계; 를 포함하는, 방법.
According to claim 1, wherein the step of obtaining the first fire identification result
identifying a location of a thermal image fire identification region with respect to some image regions satisfying a temperature of the preset threshold range based on a pixel value of the thermal image; and
obtaining the primary fire identification result based on whether the position of the identified thermal image fire identification area matches the position of the optical fire identification area; A method comprising
제3항에 있어서, 상기 1차 화재 식별 결과를 획득하는 단계는
상기 열화상 화재 식별 영역의 위치 및 상기 광학 화재 식별 영역의 위치가 매칭되는 것으로 식별되는 경우, 상기 감시 대상 영역 내 화재가 발생하였다는 결과에 관한 상기 1차 화재 식별 결과를 획득하는 단계; 및
상기 열화상 화재 식별 영역의 위치 또는 상기 광학 화재 식별 영역의 위치가 식별되지 않거나, 상기 열화상 화재 식별 영역의 위치 및 상기 광학 화재 식별 영역의 위치가 매칭되지 않는 것으로 식별되는 경우, 상기 감시 대상 영역 내 화재가 발생하지 않았다는 결과에 관한 상기 1차 화재 식별 결과를 획득하는 단계; 를 포함하는, 방법.
The method of claim 3, wherein obtaining the primary fire identification result comprises:
obtaining the primary fire identification result regarding a result that a fire has occurred in the monitoring target area when it is identified that the position of the thermal image fire identification area matches the position of the optical fire identification area; and
If the location of the thermal image fire identification area or the optical fire identification area is not identified, or it is identified that the location of the thermal image fire identification area and the location of the optical fire identification area do not match, the monitoring target area obtaining the primary fire identification result with respect to the result that no fire has occurred; A method comprising
제3항에 있어서, 상기 광학 화재 식별 영역의 위치를 식별하는 단계는
상기 광학 이미지 내 픽셀들의 RGB 데이터를 HSL 데이터로 변환하는 단계;
상기 HSL 데이터에 기초하여 상기 광학 이미지 내 화재 후보 영역을 결정하는 단계;
상기 결정된 화재 후보 영역에 대해 상기 불꽃 또는 상기 연기 감지 조건에 관한 적어도 하나의 화재 지수를 결정하는 단계;
상기 결정된 적어도 하나의 화재 지수에 기초하여, 상기 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수를 식별하는 단계;
상기 식별된 횟수가 기 설정된 임계치 이상인 경우, 상기 화재 후보 영역의 위치를 상기 광학 화재 식별 영역의 위치로 식별하는 단계; 를 포함하는, 방법.
4. The method of claim 3, wherein identifying the location of the optical fire identification area comprises:
converting RGB data of pixels in the optical image into HSL data;
determining a fire candidate area in the optical image based on the HSL data;
determining at least one fire index related to the flame or the smoke detection condition for the determined fire candidate area;
identifying the number of times the fire candidate area is identified as a fire suspicious area based on the determined at least one fire index;
identifying the location of the fire candidate area as the location of the optical fire identification area when the number of times identified is equal to or greater than a preset threshold; A method comprising
제5항에 있어서, 상기 화재 후보 영역을 결정하는 단계는
상기 HSL 데이터 내 색상(Hue), 채도(Saturation) 및 명도(Lightness) 값 모두가 소정의 임계치 이상인 픽셀들을 포함하는 제1 후보 영역을 결정하는 단계;
상기 HSL 데이터 내 상기 색상, 상기 채도 또는 상기 명도 중 적어도 하나가 상기 소정의 임계치 이상인 픽셀들을 식별하는 단계;
상기 식별된 픽셀들 주변의 픽셀들의 색상, 채도 및 명도 값 모두가 상기 소정의 임계치 이상인 경우, 상기 색상, 상기 채도 또는 상기 명도 중 적어도 하나가 상기 소정의 임계치 이상인 픽셀들 및 상기 제1 후보 영역에 포함된 픽셀들을 포함하는 제2 후보 영역을 결정하는 단계; 및
상기 제2 후보 영역을 상기 화재 후보 영역으로 결정하는 단계; 를 포함하는, 방법.
The method of claim 5, wherein the determining of the fire candidate area comprises:
determining a first candidate region including pixels having all of Hue, Saturation, and Lightness values in the HSL data equal to or greater than a predetermined threshold;
identifying pixels in the HSL data in which at least one of the hue, the saturation, and the brightness is equal to or greater than the predetermined threshold;
When all of the color, saturation, and brightness values of pixels around the identified pixels are equal to or greater than the predetermined threshold value, at least one of the color, the saturation, or the brightness is greater than or equal to the predetermined threshold value, and in the first candidate region determining a second candidate area including the included pixels; and
determining the second candidate area as the fire candidate area; A method comprising
제5항에 있어서,
상기 열화상 이미지를 획득하는 단계 및 상기 광학 이미지를 획득하는 단계는
상기 감시 대상 영역을 촬영하는 열화상 카메라 및 광학 카메라 장치 각각을 통하여 기 설정된 프레임 간격을 가지는 복수의 열화상 이미지들을 획득하는 단계 및 상기 기 설정된 프레임 간격을 가지는 복수의 광학 이미지들을 획득하는 단계; 를 포함하는, 방법.
6. The method of claim 5,
Acquiring the thermal image and acquiring the optical image
acquiring a plurality of thermal image images having a preset frame interval through each of a thermal imaging camera and an optical camera device for photographing the monitoring target area, and acquiring a plurality of optical images having the preset frame interval; A method comprising
제7항에 있어서, 상기 적어도 하나의 화재 지수를 결정하는 단계는
상기 복수의 광학 이미지들 중 인접하는 3개의 프레임 번호를 가지는 복수의 광학 이미지들 내 화재 후보 영역에 대하여 하이패스 필터링을 수행함으로써 제로 크로스 카운트 지수를 결정하는 단계;
상기 제로 크로스 카운트 지수 및 소정의 임계치를 비교함으로써 상기 화재 후보 영역 별 픽셀 별로 하이패스 필터 변수를 결정하는 단계;
상기 하이패스 필터 변수가 0이 아닌 픽셀의 수의 상기 광학 이미지들 별 변화량에 관한 하이패스 필터 면적 지수를 결정하는 단계; 를 포함하는, 방법.
8. The method of claim 7, wherein determining the at least one fire index comprises:
determining a zero cross count index by performing high-pass filtering on a fire candidate area in a plurality of optical images having three adjacent frame numbers among the plurality of optical images;
determining a high-pass filter variable for each pixel of the fire candidate area by comparing the zero cross count index and a predetermined threshold;
determining a high-pass filter area index with respect to a change amount for each of the optical images in the number of pixels in which the high-pass filter parameter is not zero; A method comprising
제8항에 있어서, 상기 적어도 하나의 화재 지수를 결정하는 단계는
상기 복수의 광학 이미지들 내 화재 후보 영역의 주기성에 관한 주기성 지수를 결정하는 단계;
상기 복수의 광학 이미지들 내 픽셀들 중 픽셀 값의 변이가 큰 픽셀들의 수의 변화 정도에 관한 움직임 영역 지수를 결정하는 단계; 및
상기 복수의 광학 이미지들 내에서, 특정 픽셀의 변이 값이 소정의 임계치 이상으로 나타나는 횟수가 기 설정된 횟수 이상인 픽셀들의 위치에 관한 무빙 오브젝트 지수를 결정하는 단계; 를 더 포함하는, 방법.
9. The method of claim 8, wherein determining the at least one fire index comprises:
determining a periodicity index with respect to the periodicity of the fire candidate area in the plurality of optical images;
determining a motion area index with respect to a degree of change in the number of pixels having a large variation in a pixel value among pixels in the plurality of optical images; and
determining, in the plurality of optical images, a moving object index with respect to positions of pixels in which a disparity value of a specific pixel appears more than a predetermined threshold value; A method further comprising:
제8항에 있어서, 상기 적어도 하나의 화재 지수를 결정하는 단계는
상기 복수의 광학 이미지들이 상기 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정하는 단계; 를 더 포함하는, 방법.
9. The method of claim 8, wherein determining the at least one fire index comprises:
determining a smoke index as to whether the plurality of optical images satisfy the smoke detection condition; A method further comprising:
제10항에 있어서, 상기 연기 지수를 결정하는 단계는
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 상기 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정하는 단계;
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별하는 단계;
상기 식별된 움직임 영역들을 클러스터링하는 단계;
상기 클러스터링된 움직임 영역들 내 픽셀들 중, 그레이 색상 값을 나타내는 픽셀들을 추출하는 단계;
상기 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터들을 식별하는 단계;
상기 모션 벡터들이 식별되면, 상기 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득하는 단계; 및
상기 획득된 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정하는 단계; 를 포함하는, 방법.
The method of claim 10, wherein determining the smoke index comprises:
determining a foreground image and a background image for the plurality of optical images by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
identifying motion regions by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
clustering the identified motion regions;
extracting pixels representing a gray color value from among the pixels in the clustered motion regions;
identifying motion vectors by tracking image regions comprising pixels representing the gray color value in a plurality of optical images having the contiguous frame number;
when the motion vectors are identified, obtaining an output value of the low-pass filter by applying a low-pass filter to a background image among the plurality of optical images; and
determining a smoke index with respect to the correlation between the obtained output value of the low-pass filter and the low-pass filter output value with respect to a background image when a preset smoke is generated; A method comprising
제11항에 있어서, 상기 그레이 색상 값을 나타내는 픽셀들을 추출하는 단계는
상기 광학 이미지 내 픽셀들의 RGB 데이터 중, R값 및 G값의 차이, R값 및 B 값의 차이와 G값 및 B값의 차이가 각각 미리 설정된 임계차 보다 작은 경우, 해당 픽셀을 그레이 색상 값을 나타내는 픽셀로 추출하는 단계; 를 포함하는, 방법.
The method of claim 11 , wherein the extracting of pixels representing the gray color value comprises:
Among the RGB data of pixels in the optical image, when the difference between the R value and the G value, the difference between the R value and the B value, and the difference between the G value and the B value is smaller than a preset threshold difference, the corresponding pixel is converted to a gray color value extracting to the pixels representing; A method comprising
제8항에 있어서, 상기 제로 크로스 카운트 지수를 결정하는 단계는
상기 복수의 광학 이미지들 중 연속하는 N-1 프레임, N프레임, N+1 프레임 번호를 가지는 광학 이미지들 각각에 대해 결정되는 -0.25, 0.5 및 -0.25 가중치에 기초하여 광학 이미지들 별 픽셀 값들을 가중합함으로써 하이패스 필터링을 수행하고, 하이패스 필터링 수행 결과에 따른 플리커 변수를 픽셀 별로 결정하는 단계;
상기 결정된 플리커 변수 및 소정의 임계치를 비교함으로써, 픽셀 별로 하이패스 필터 변수 값을 결정하는 단계; 및
상기 복수의 광학 이미지들 별 상기 하이패스 필터 변수 값에 기초하여 상기 제로크로스 카운트 지수를 결정하는 단계; 를 포함하는, 방법.
The method of claim 8, wherein determining the zero cross count index comprises:
Pixel values for each optical image are calculated based on weights of -0.25, 0.5, and -0.25 determined for each of the optical images having consecutive N-1 frame, N frame, and N+1 frame numbers among the plurality of optical images. performing high-pass filtering by weight summing, and determining a flicker variable for each pixel according to a result of performing high-pass filtering;
determining a high-pass filter variable value for each pixel by comparing the determined flicker variable with a predetermined threshold; and
determining the zero-cross count index based on the high-pass filter variable value for each of the plurality of optical images; A method comprising
제5항에 있어서, 상기 1차 화재 식별 결과를 획득하는 단계는
이미지 상에서 상기 열화상 화재 식별 영역의 위치 및 상기 광학 화재 식별 영역의 위치가 매칭되는지 여부를 결정하는 단계; 및
상기 열화상 화재 식별 영역의 위치 및 상기 광학 화재 식별 영역의 위치가 각각 나타내는 물리적 공간상에서의 위치가 매칭되는지 여부를 결정하는 단계; 를 더 포함하는, 방법.
The method of claim 5, wherein obtaining the primary fire identification result comprises:
determining whether the location of the thermal fire identification area and the location of the optical fire identification area match on an image; and
determining whether the location of the thermal image fire identification area and the location on the physical space respectively indicated by the location of the optical fire identification area match; A method further comprising:
제1항에 있어서, 상기 2차 화재 식별 결과를 획득하는 단계는
상기 획득된 광학 이미지를 전처리하는 단계;
상기 전처리된 광학 이미지를 상기 인공 지능 모델에 입력하는 단계; 및
상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 확률 값을 포함하는 상기 2차 화재 식별 결과를 획득하는 단계; 를 포함하는, 방법.
According to claim 1, wherein the step of obtaining the secondary fire identification results
pre-processing the obtained optical image;
inputting the preprocessed optical image into the artificial intelligence model; and
obtaining the secondary fire identification result including a probability value regarding whether a fire has occurred in the monitoring target area from the artificial intelligence model; A method comprising
재난을 감지하는 전자 장치에 있어서,
열화상 카메라;
광학 카메라;
네트워크 인터페이스;
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 하나 이상의 인스트럭션을 실행하는 복수의 프로세서; 를 포함하고,
상기 복수의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하고,
상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하고,
상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하고,
상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하고,
상기 획득된 1차 화재 식별 결과 및 2차 화재 식별 결과에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하고,
상기 복수의 프로세서는
상기 광학 이미지 내 화재 후보 영역에 대해 결정되는, 상기 불꽃 또는 상기 연기 감지 조건에 관한 적어도 하나의 화재 지수를 결정하고,
상기 적어도 하나의 화재 지수에 기초하여, 상기 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 기 설정된 임계치 이상인 경우, 상기 화재 후보 영역의 위치를 상기 광학 화재 식별 영역의 위치로 식별하고,
상기 복수의 프로세서는
기 설정된 프레임 간격을 가지는 복수의 광학 이미지들을 획득하고,
상기 복수의 광학 이미지들이 상기 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정하고,
상기 복수의 프로세서는
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 상기 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정하고,
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별하고,
상기 식별된 움직임 영역들을 클러스터링하고,
상기 클러스터링된 움직임 영역들 내 픽셀들 중, 그레이 색상 값을 나타내는 픽셀들을 추출하고,
상기 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터들을 식별하고,
상기 모션 벡터들이 식별되면, 상기 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득하고,
상기 획득된 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정하는, 전자 장치.
In an electronic device for detecting a disaster,
Thermal imaging camera;
optical camera;
network interface;
a memory storing one or more instructions; and
a plurality of processors executing the one or more instructions; including,
The plurality of processors by executing the one or more instructions,
To acquire a thermal image by monitoring the area to be monitored,
Obtaining an optical image by monitoring the area to be monitored,
Based on whether the position of the thermal image fire identification area indicating the temperature in the preset critical range in the thermal image and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the monitoring Obtain the primary fire identification result for the target area,
By inputting the optical image into the artificial intelligence model, a secondary fire identification result regarding whether a fire has occurred in the area to be monitored is obtained from the artificial intelligence model,
Determining whether or not a fire occurs in the monitoring target area based on the obtained primary fire identification result and secondary fire identification result,
The plurality of processors
determine at least one fire index relating to the flame or the smoke detection condition, which is determined for a fire candidate area in the optical image;
Based on the at least one fire index, when the number of times that the fire candidate area is identified as a fire suspicious area is equal to or greater than a preset threshold, the location of the fire candidate area is identified as the location of the optical fire identification area,
The plurality of processors
Obtaining a plurality of optical images having a preset frame interval,
determine a smoke index with respect to whether the plurality of optical images satisfy the smoke detection condition;
The plurality of processors
determine a foreground image and a background image for the plurality of optical images by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
identifying motion regions by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
clustering the identified motion regions;
extracting pixels representing a gray color value from among the pixels in the clustered motion regions;
identify motion vectors by tracking image regions comprising pixels representing the gray color value in a plurality of optical images having the adjacent frame number;
When the motion vectors are identified, an output value of the low-pass filter is obtained by applying a low-pass filter to a background image among the plurality of optical images;
and determining a smoke index regarding a correlation between the obtained output value of the low-pass filter and a low-pass filter output value with respect to a background image when a preset smoke is generated.
전자 장치가 재난을 감지하는 방법에 있어서,
감시 대상 영역을 모니터링함으로써 열화상 이미지를 획득하는 단계;
상기 감시 대상 영역을 모니터링함으로써 광학 이미지를 획득하는 단계;
상기 열화상 이미지 내 기 설정된 임계 범위의 온도를 나타내는 열화상 화재 식별 영역의 위치 및 상기 광학 이미지 내 불꽃 또는 연기 감지 조건에 따라 결정되는 광학 화재 식별 영역의 위치가 매칭되는지 여부에 기초하여, 상기 감시 대상 영역에 대한 1차 화재 식별 결과를 획득하는 단계;
상기 광학 이미지를 인공 지능 모델에 입력함으로써, 상기 인공 지능 모델로부터 상기 감시 대상 영역에 대해 화재가 발생하였는지 여부에 관한 2차 화재 식별 결과를 획득하는 단계; 및
상기 획득된 1차 화재 식별 결과 및 2차 화재 식별 결과에 기초하여 상기 감시 대상 영역에 대한 화재 발생 여부를 결정하는 단계; 를 포함하고,
상기 1차 화재 식별 결과를 획득하는 단계는
상기 광학 이미지 내 화재 후보 영역에 대해 결정되는, 상기 불꽃 또는 상기 연기 감지 조건에 관한 적어도 하나의 화재 지수를 결정하는 단계; 및
상기 적어도 하나의 화재 지수에 기초하여, 상기 화재 후보 영역이 화재 의심 영역으로 식별되는 횟수가 기 설정된 임계치 이상인 경우, 상기 화재 후보 영역의 위치를 상기 광학 화재 식별 영역의 위치로 식별하는 단계; 를 포함하고,
상기 광학 이미지를 획득하는 단계는,
기 설정된 프레임 간격을 가지는 복수의 광학 이미지들을 획득하는 단계; 를 포함하며,
상기 적어도 하나의 화재 지수를 결정하는 단계는
상기 복수의 광학 이미지들이 상기 연기 감지 조건을 만족하는지 여부에 관한 연기 지수를 결정하는 단계; 를 포함하고,
상기 연기 지수를 결정하는 단계는,
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 상기 복수의 광학 이미지들에 대한 전경 이미지 및 배경 이미지를 결정하는 단계;
상기 복수의 광학 이미지들 중 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 간의 픽셀 값을 비교함으로써 움직임 영역들을 식별하는 단계;
상기 식별된 움직임 영역들을 클러스터링하는 단계;
상기 클러스터링된 움직임 영역들 내 픽셀들 중, 그레이 색상 값을 나타내는 픽셀들을 추출하는 단계;
상기 인접하는 프레임 번호를 가지는 복수의 광학 이미지들 내 상기 그레이 색상 값을 나타내는 픽셀들을 포함하는 이미지 영역들을 추적함으로써 모션 벡터들을 식별하는 단계;
상기 모션 벡터들이 식별되면, 상기 복수의 광학 이미지들 중 배경 이미지에 대해 저역 통과 필터를 적용함으로써 저역 통과 필터의 출력 값을 획득하는 단계; 및
상기 획득된 저역 통과 필터의 출력 값과, 기 설정된 연기 발생 시 배경 이미지에 대한 저역 통과 필터 출력 값의 상관성에 관한 연기 지수를 결정하는 단계; 를 포함하는, 방법을 수행하도록 하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록 매체.
A method for an electronic device to detect a disaster,
acquiring a thermal image by monitoring the area to be monitored;
acquiring an optical image by monitoring the area to be monitored;
Based on whether the position of the thermal image fire identification area indicating the temperature in the preset critical range in the thermal image and the position of the optical fire identification area determined according to the flame or smoke detection condition in the optical image match, the monitoring obtaining a primary fire identification result for the target area;
obtaining a secondary fire identification result regarding whether a fire has occurred in the area to be monitored from the artificial intelligence model by inputting the optical image into an artificial intelligence model; and
determining whether a fire has occurred in the monitoring target area based on the obtained primary fire identification result and secondary fire identification result; including,
The step of obtaining the first fire identification result is
determining at least one fire index relating to the flame or the smoke detection condition, which is determined for a fire candidate area in the optical image; and
identifying the location of the fire candidate area as the location of the optical fire identification area when the number of times the fire candidate area is identified as the fire suspicious area is equal to or greater than a preset threshold based on the at least one fire index; including,
Acquiring the optical image comprises:
acquiring a plurality of optical images having a preset frame interval; includes,
Determining the at least one fire index comprises:
determining a smoke index as to whether the plurality of optical images satisfy the smoke detection condition; including,
The step of determining the smoke index,
determining a foreground image and a background image for the plurality of optical images by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
identifying motion regions by comparing pixel values between a plurality of optical images having adjacent frame numbers among the plurality of optical images;
clustering the identified motion regions;
extracting pixels representing a gray color value from among the pixels in the clustered motion regions;
identifying motion vectors by tracking image regions comprising pixels representing the gray color value in a plurality of optical images having the contiguous frame number;
when the motion vectors are identified, obtaining an output value of the low-pass filter by applying a low-pass filter to a background image among the plurality of optical images; and
determining a smoke index with respect to the correlation between the obtained output value of the low-pass filter and the low-pass filter output value with respect to a background image when a preset smoke is generated; A computer-readable recording medium in which a program for performing the method is stored, comprising a.
KR1020220042482A 2022-04-05 2022-04-05 Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data KR102465105B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220042482A KR102465105B1 (en) 2022-04-05 2022-04-05 Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220042482A KR102465105B1 (en) 2022-04-05 2022-04-05 Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data

Publications (1)

Publication Number Publication Date
KR102465105B1 true KR102465105B1 (en) 2022-11-09

Family

ID=84040151

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220042482A KR102465105B1 (en) 2022-04-05 2022-04-05 Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data

Country Status (1)

Country Link
KR (1) KR102465105B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102654042B1 (en) * 2023-06-21 2024-04-03 쿨사인 주식회사 Fire determination apparatus and method using thermal imaging and RGB dual camera

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080065833A (en) * 2007-01-10 2008-07-15 한국서부발전 주식회사 Fire alarm method and system
KR20160061614A (en) * 2014-11-24 2016-06-01 멀티펠스 주식회사 Fire detection system
KR101953342B1 (en) * 2017-12-08 2019-05-23 주식회사 비젼인 Multi-sensor fire detection method and system
KR20190142843A (en) 2018-06-19 2019-12-30 박준영 Disaster detection, protection and response apparatus and operating method thereof
KR102242421B1 (en) * 2020-12-04 2021-04-20 (주)아이아이에스티 Apparatus and method for detecting disaster

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080065833A (en) * 2007-01-10 2008-07-15 한국서부발전 주식회사 Fire alarm method and system
KR20160061614A (en) * 2014-11-24 2016-06-01 멀티펠스 주식회사 Fire detection system
KR101953342B1 (en) * 2017-12-08 2019-05-23 주식회사 비젼인 Multi-sensor fire detection method and system
KR20190142843A (en) 2018-06-19 2019-12-30 박준영 Disaster detection, protection and response apparatus and operating method thereof
KR102242421B1 (en) * 2020-12-04 2021-04-20 (주)아이아이에스티 Apparatus and method for detecting disaster

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102654042B1 (en) * 2023-06-21 2024-04-03 쿨사인 주식회사 Fire determination apparatus and method using thermal imaging and RGB dual camera

Similar Documents

Publication Publication Date Title
US11735018B2 (en) Security system with face recognition
CN110895861B (en) Abnormal behavior early warning method and device, monitoring equipment and storage medium
CN107223332B (en) Audio visual scene analysis based on acoustic camera
KR101953342B1 (en) Multi-sensor fire detection method and system
KR20190098105A (en) Apparatus and method for smart home monitoring
JP7162412B2 (en) detection recognition system
KR20190078543A (en) Image acqusition device and controlling method thereof
WO2018101247A1 (en) Image recognition imaging apparatus
KR102384299B1 (en) Cctv camera device having assault detection function and method for detecting assault based on cctv image performed
KR102420567B1 (en) Method and device for voice recognition
KR20180055708A (en) Device and method for image processing
KR102242421B1 (en) Apparatus and method for detecting disaster
EP2570992A1 (en) Image processing apparatus, image processing method, and program
JP2017228224A (en) Information processing device, information processing method, and program
KR20210097500A (en) Apparatus for Monitoring Fire And System having the same
KR102465105B1 (en) Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data
JP5970232B2 (en) Evacuation information provision device
KR101979375B1 (en) Method of predicting object behavior of surveillance video
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
KR20210155655A (en) Method and apparatus for identifying object representing abnormal temperatures
KR20230035509A (en) Acoustic detection device and system with regions of interest
JP2019117556A (en) Information processing apparatus, information processing method and program
KR20190062030A (en) Image display apparatus and operating method thereof
CN113361364B (en) Target behavior detection method, device, equipment and storage medium
Kolobe et al. A review on fall detection in smart home for elderly and disabled people

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant