KR102153465B1 - Smart system for detecting fire and device for the same - Google Patents

Smart system for detecting fire and device for the same Download PDF

Info

Publication number
KR102153465B1
KR102153465B1 KR1020200052930A KR20200052930A KR102153465B1 KR 102153465 B1 KR102153465 B1 KR 102153465B1 KR 1020200052930 A KR1020200052930 A KR 1020200052930A KR 20200052930 A KR20200052930 A KR 20200052930A KR 102153465 B1 KR102153465 B1 KR 102153465B1
Authority
KR
South Korea
Prior art keywords
fire detection
event
transmission
image
detection device
Prior art date
Application number
KR1020200052930A
Other languages
Korean (ko)
Inventor
강성종
백승호
Original Assignee
(주)진명아이앤씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)진명아이앤씨 filed Critical (주)진명아이앤씨
Priority to KR1020200052930A priority Critical patent/KR102153465B1/en
Application granted granted Critical
Publication of KR102153465B1 publication Critical patent/KR102153465B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • H04N5/2258
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Fire Alarms (AREA)
  • Alarm Systems (AREA)

Abstract

The present technology relates to a smart fire detection system and to a device therefor. The smart fire detection system of the present technology comprises: a server; and a plurality of fire detection devices which are spaced apart from each other while including a visible light image sensor collecting image video information on a detection area and a thermal image sensor collecting temperature data on the detection area. The fire detection devices each include: a first determination portion which determines that a first event occurs when a predetermined condition is satisfied from the video data; a second determination portion which determines that a second event occurs when a predetermined condition is satisfied from the temperature data; and a processing portion overlapping the visible light image and the thermal image generated from the temperature data satisfying a preset condition from the temperature data and processing the visible light image and the thermal image to the server, when at least one of the first event and the second event occurs. According to the present technology, the load of a central center is distributed, the total amount of traffic is reduced, the probability of false positives is reduced, and follow-up actions by an administrator can be quickly performed.

Description

스마트 화재 감지 시스템 및 이를 위한 장치{Smart system for detecting fire and device for the same}Smart system for detecting fire and device for the same

본 발명은 스마트 화재 감지 시스템 및 이를 위한 장치에 관한 것으로, 보다 구체적으로는 가시광 영상과 열화상 영상을 모두 이용하는 스마트 화재 감지 시스템 및 이를 위한 장치에 관한 것이다.The present invention relates to a smart fire detection system and a device therefor, and more particularly, to a smart fire detection system using both a visible light image and a thermal image, and an apparatus therefor.

폐쇄 회로 텔레비전(CCTV, Closed Circuit Television)은 특정 건축물이나 시설물에서 특정 수신자를 대상으로 유선 또는 특수 무선 전송로를 이용해 화상을 전송하는 시스템이다. 산업용, 교육용, 의료용, 교통 관제용 감시, 방재용 및 사내의 화상정보 전달용 등 그 용도가 다양하다. Closed Circuit Television (CCTV) is a system that transmits images from a specific building or facility to a specific receiver using a wired or special wireless transmission path. There are various uses such as industrial, educational, medical, traffic control surveillance, disaster prevention, and internal image information transmission.

범죄 예방 및 억제효과와 범인 발견 및 체포의 용이성, 범죄에 대한 두려움 감소, 경찰인력 보완 등 순기능이 매우 크지만, 최근에는 정보통신기술의 급격한 발달로 일반 시민들의 초상권 및 사생활 침해 문제 등도 함께 등장한다. The net function is very large, such as crime prevention and deterrence effect, ease of detection and arrest of criminals, reduction of fear of crime, and supplementation of police personnel, but recently, with the rapid development of information and communication technology, problems of portrait rights and privacy of ordinary citizens also appear. .

한편, CCTV 방식에는 중앙집중형 감시 시스템과 에지형 감시 시스템이 있다. 중앙집중형은 카메라의 영상을 중앙 센터에서 단순 수집하여 일괄적으로 영상을 분석한다. 에지형은 각 카메라 자체에 영상 분석 기능을 구성하여 특정한 이벤트가 발생하는 경우에만 감시 영상을 전송한다. 후자가 중앙 센터의 부하를 분산하고 전체 트래픽의 양을 크게 줄일 수 있어 최근 많이 활용되고 연구되고 있는 방식 중 하나이다. On the other hand, CCTV methods include a centralized monitoring system and an edge monitoring system. The centralized type simply collects images from the camera at the central center and analyzes the images collectively. The edge type configures a video analysis function in each camera itself, and transmits the surveillance video only when a specific event occurs. The latter is one of the methods that are widely used and studied recently because it can distribute the load of the central center and greatly reduce the total amount of traffic.

또한 영상 감시의 정확도를 톺이기 위해, 가시광 카메라 뿐만 아니라 열화상 카메라도 함께 적용된 CCTV에 대한 연구도 활발하다. 다만, 열화상 영상과 가시광 영상을 모두 이용하는 경우 장비 자체의 비용 증가는 물론, 처리해야 할 데이터량이 크게 늘어나 시스템 구축 및 유지비용이 증가하고 소형화의 한계가 존재하기도 한다. In addition, in order to improve the accuracy of video surveillance, research on CCTV, which applies not only visible light cameras but also thermal imaging cameras, is also active. However, when both the thermal image and the visible light image are used, the cost of the equipment itself increases as well as the amount of data to be processed, which increases the cost of system construction and maintenance, and there are limitations of miniaturization.

가시광 카메라와 열화상 카메라를 모두 이용하되 전체 트래픽의 양을 줄이면서도 저비용으로 구축할 수 있는 시스템이 요구되는 이유이다. This is why there is a need for a system that uses both visible light cameras and thermal imaging cameras, but can reduce the total amount of traffic and build at low cost.

이와 관련하여 대한민국 등록특허 제10-2092552호(발명 명칭: 지능형 전천후 영상 표출 카메라 시스템)은 미리 설정된 촬영영역의 가시광선 영상을 촬영하는 가시영상 촬영부와, 상기 촬영영역의 열화상 영상을 촬영하는 열화상 촬영부와, 상기 가시광선 영상과 상기 열화상 영상을 영상 처리하여 합성함에 있어서, 상기 가시광선 영상에서 미리 설정된 객체가 검출된 영역과 열화상 영역의 좌표를 정합시키거나, 상기 열화상 영상에서 소정의 온도변화가 있는 영역과 가시 영역의 좌표를 정합시켜 제1 오버레이 영상을 생성하는 제어부를 포함하는 카메라 시스템을 보여준다. In this regard, Korean Patent Registration No. 10-2092552 (invention name: intelligent all-weather image display camera system) includes a visible image photographing unit for photographing a visible ray image of a preset photographing area, and a thermal image of the photographing region. In the thermal imaging unit, in image-processing and synthesizing the visible light image and the thermal image, the coordinates of an area in which a preset object is detected in the visible light image and a thermal image area are matched, or the thermal image A camera system including a controller for generating a first overlay image by matching coordinates of a region with a predetermined temperature change and a visible region is shown.

그러나, 상기 선행특허의 경우라도 열화상 카메라의 적용으로 인한 비용 증가 문제를 해소하지 못한다. 열화상 카메라 자체의 성능을 이용한 열감지 구성만을 개시할 뿐, 그 본연의 성능을 극복하기 위한 어떠한 개선책도 보여주지 못한다. 열감지 해상도를 높이고 설치 대수를 증가시킴으로써 화재 감지의 정확도를 높일 수는 있으나, 한정된 자원 하에서 보다 효율적으로 시스템을 설계하기 위한 노력은 부족한 실정이다. However, even in the case of the prior patent, the problem of increasing cost due to the application of the thermal imaging camera cannot be solved. It only discloses a thermal sensing configuration using the performance of the thermal imaging camera itself, and does not show any improvement measures to overcome its inherent performance. Although it is possible to increase the accuracy of fire detection by increasing the heat detection resolution and increasing the number of installations, efforts to design the system more efficiently under limited resources are insufficient.

본 발명의 발명자는 이러한 문제점들을 해결하기 위하여 오랫동안 연구하고 시행착오를 거친 끝에 본 발명을 완성하기에 이르렀다.The inventor of the present invention came to complete the present invention after long research and trial and error in order to solve these problems.

본 발명의 실시예는 중앙 센터의 부하를 분산하고 전체 트래픽 양을 줄임과 동시에 오탐 확률을 낮추고 관리자에 의한 후속 대처 또한 신속히 이루어질 수 있도록 하는 올인원 스마트 화재 감지 시스템을 제공한다.An embodiment of the present invention provides an all-in-one smart fire detection system that distributes the load of the central center, reduces the total amount of traffic, lowers the probability of false positives, and enables quick follow-up actions by the administrator.

한편, 본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 것이다.Meanwhile, other objects not specified of the present invention will be additionally considered within a range that can be easily deduced from the following detailed description and effects thereof.

본 발명의 실시예에 따른 스마트 화재 감지 시스템은 서버; 및 감시 영역에 대한 영상 데이터를 수집하는 가시광 이미지 센서와, 상기 감시 영역에 대한 온도 데이터를 수집하는 열화상 이미지 센서를 포함하는 서로 이격된 다수의 화재 감지 장치들;을 포함하되, 상기 화재 감지 장치들은 각각, 상기 영상 데이터로부터 기설정된 조건을 만족하는 경우 제1 이벤트 발생으로 판단하는 제1 판단부; 상기 온도 데이터로부터 기설정된 조건을 만족하는 경우 제2 이벤트 발생으로 판단하는 제2 판단부; 및 상기 제1 이벤트 및 제2 이벤트 중 적어도 하나 발생시, 상기 가시광 이미지와 상기 온도 데이터 중 기설정된 조건을 만족하는 온도 데이터로부터 생성된 열화상 이미지를 중첩하고 상기 서버로 전송되도록 처리하는 처리부를 포함할 수 있다. The smart fire detection system according to an embodiment of the present invention includes a server; And a plurality of fire detection devices spaced apart from each other including a visible light image sensor that collects image data on the surveillance area and a thermal image sensor that collects temperature data on the surveillance area. Each of the first determination units determines that a first event occurs when a predetermined condition is satisfied from the image data; A second determination unit that determines that a second event occurs when a predetermined condition is satisfied from the temperature data; And a processing unit that, when at least one of the first event and the second event occurs, overlaps the visible light image and a thermal image generated from temperature data that satisfies a preset condition among the temperature data and processes to be transmitted to the server. I can.

상기 처리부는, 상기 제1 이벤트 및 상기 제2 이벤트 중 적어도 하나의 발생시점(제1 시점)과 동시에 상기 중첩 이미지의 전송이 시작되도록 하고, 발생된 이벤트 모두의 소멸시점(제2 시점) 이후에 상기 중첩 이미지의 전송이 종료되도록 처리할 수 있다. The processing unit causes the transmission of the superimposed image to start at the same time as at least one of the first event and the second event (a first time point), and after the disappearance time of all the events (second time point) The transmission of the superimposed image may be processed to end.

상기 서버는 상기 중첩 이미지의 전송이 제1 화재 감지 장치로부터 수신되는 경우 상기 제1 화재 감지 장치에 의한 이벤트 기반 능동 전송이 수행되고 있음을 알리는 메시지를 제2 화재 감지 장치로 전송하고, 상기 제2 화재 감지 장치의 처리부는, 상기 발생된 이벤트 모두의 소멸시점(제2 시점) 이후 및 상기 알림 메시지 수신의 종료시점(제3 시점) 이후에 상기 중첩 이미지의 전송이 종료되도록 처리할 수 있다. When the transmission of the superimposed image is received from the first fire detection device, the server transmits a message notifying that event-based active transmission by the first fire detection device is being performed to the second fire detection device, and the second The processing unit of the fire detection device may process the transmission of the superimposed image to be terminated after the disappearance of all of the generated events (second time point) and after the end time of reception of the notification message (third time point).

상기 제2 화재 감지 장치의 처리부는 상기 발생된 이벤트 모두의 소멸시점(제2 시점) 이후에 소정의 시간(예비 전송 지속시간)동안 전송을 유지하면서 상기 알림 메시지의 수신 여부를 판단할 수 있다. The processing unit of the second fire detection device may determine whether to receive the notification message while maintaining transmission for a predetermined time (preliminary transmission duration) after the extinguishing point (second point in time) of all the generated events.

상기 제1 이벤트 발생을 판단하기 위한 기설정된 조건과 상기 중첩 이미지를 생성하기 위한 기설정된 조건은 서로 다른 온도값을 가질 수 있다. A preset condition for determining the occurrence of the first event and a preset condition for generating the superimposed image may have different temperature values.

또한 본 발명의 실시예에 따른 스마트 화재 감지 장치는 서버와 네트워크를 통해 연결된 화재 감지 장치로서, 소정의 감시 영역에 대한 영상 데이터를 수집하는 가시광 이미지 센서; 상기 소정의 감시 영역에 대한 온도 데이터를 수집하는 열화상 이미지 센서; 상기 영상 데이터로부터 기설정된 조건을 만족하는 경우 제1 이벤트 발생으로 판단하는 제1 판단부; 상기 온도 데이터로부터 기설정된 조건을 만족하는 경우 제2 이벤트 발생으로 판단하는 제2 판단부; 및 상기 제1 이벤트 및 제2 이벤트 중 적어도 하나 발생시(제1 시점) 상기 가시광 이미지와 상기 온도 데이터 중 기설정된 조건을 만족하는 온도 데이터로부터 생성된 열화상 이미지를 중첩하고 상기 서버로 전송되도록 처리하는 처리부;를 포함하되, 상기 처리부는 상기 발생된 이벤트 모두의 소멸시점(제2 시점) 이후에 소정의 제1 시간동안 상기 중첩 이미지의 전송을 유지하면서 상기 서버로부터 전송 유지 메시지가 수신되는지를 확인하고, 상기 전송 유지 메시지가 수신되는 경우 소정의 제2 시간동안 상기 중첩 이미지의 전송을 더 유지할 수 있다. In addition, a smart fire detection device according to an embodiment of the present invention is a fire detection device connected to a server through a network, comprising: a visible light image sensor collecting image data for a predetermined monitoring area; A thermal image sensor collecting temperature data for the predetermined monitoring area; A first determination unit that determines that a first event occurs when a predetermined condition is satisfied from the image data; A second determination unit that determines that a second event occurs when a predetermined condition is satisfied from the temperature data; And when at least one of the first event and the second event occurs (a first time point), a thermal image generated from temperature data that satisfies a preset condition among the visible light image and the temperature data is superimposed and processed to be transmitted to the server. A processing unit; wherein the processing unit checks whether a transmission maintenance message is received from the server while maintaining the transmission of the superimposed image for a predetermined first time after the disappearance point (a second point in time) of all of the generated events, and When the transmission maintenance message is received, transmission of the superimposed image may be further maintained for a second predetermined time.

본 기술은 중앙 센터의 부하를 분산하고 전체 트래픽 양을 줄임과 동시에 오탐 확률을 낮추고 관리자에 의한 후속 대처 또한 신속히 이루어질 수 있도록 한다. This technology distributes the load of the central center, reduces the total traffic volume, lowers the probability of false positives, and enables quick follow-up actions by the administrator.

또한 본 기술은 기존의 에지형 감시 시스템이면서도 감시에 충분한 영상을 서버측으로 전송되도록 함으로써 관리자에 의한 감시의 효율성을 높일 수 있다. In addition, although this technology is an existing edge-type monitoring system, it is possible to increase the efficiency of monitoring by an administrator by allowing sufficient video for monitoring to be transmitted to the server side.

도 1은 본 발명의 실시예에 따른 화재 감지 시스템의 전체적인 구성을 도시하는 도면이다.
도 2는 본 발명의 실시예에 따른 화재 감지 장치의 구성을 보다 상세하게 도시하는 도면이다.
도 3a 내지 도 3c는 본 발명의 실시예에 따른 화재 감지 장치에 의해 중첩 이미지가 생성되는 과정을 개략적으로 도시하는 도면이다.
도 4는 본 발명의 실시예에 따른 화재 감지 시스템이 설치된 감시 구역을 위에서 바라본 개략적인 상황을 도시하는 도면이다.
도 5는 도 4에서 각 화재 감지 장치들로부터 수신된 중첩 이미지가 서버와 연결된 디스플레이 장치를 통해 표시되는 일례를 도시하는 도면이다.
도 6은 도 4에서 각 화재 감지 장치들이 중첩 이미지를 서버로 전송하는 시점과 전송을 종료하는 시점에 관한 타임 라인을 보여주는 도면이다.
첨부된 도면은 본 발명의 기술사상에 대한 이해를 위하여 참조로서 예시된 것임을 밝히며, 그것에 의해 본 발명의 권리범위가 제한되지는 아니한다.
1 is a diagram showing the overall configuration of a fire detection system according to an embodiment of the present invention.
2 is a view showing in more detail the configuration of a fire detection device according to an embodiment of the present invention.
3A to 3C are diagrams schematically illustrating a process of generating a superimposed image by a fire detection device according to an embodiment of the present invention.
4 is a diagram showing a schematic situation as viewed from above of a surveillance area in which a fire detection system according to an embodiment of the present invention is installed.
FIG. 5 is a diagram illustrating an example in which a superimposed image received from each fire detection device in FIG. 4 is displayed through a display device connected to a server.
FIG. 6 is a diagram illustrating a timeline of when each fire detection device transmits an overlapped image to a server and when the transmission ends.
The accompanying drawings are exemplified by reference for an understanding of the technical idea of the present invention, and the scope of the present invention is not limited thereto.

이하에서는, 본 발명의 가장 바람직한 실시예가 설명된다. 도면에 있어서, 두께와 간격은 설명의 편의를 위하여 표현된 것이며, 실제 물리적 두께에 비해 과장되어 도시될 수 있다. 본 발명을 설명함에 있어서, 본 발명의 요지와 무관한 공지의 구성은 생략될 수 있다. 각 도면의 구성요소들에 참조 번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다.In the following, the most preferred embodiment of the present invention will be described. In the drawings, thickness and spacing are expressed for convenience of description, and may be exaggerated compared to actual physical thickness. In describing the present invention, known configurations irrelevant to the gist of the present invention may be omitted. In adding reference numerals to elements of each drawing, it should be noted that only the same elements have the same number as possible, even if they are indicated on different drawings.

도 1은 본 발명의 실시예에 따른 스마트 화재 감지 시스템의 전체적인 구성을 도시하는 도면이다. 1 is a diagram showing the overall configuration of a smart fire detection system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 스마트 화재 감지 시스템(1)(이하, 간단히 '화재 감지 시스템'이라 함)은 서버(100) 및 다수의 화재 감지 장치들(200A 내지 200D)을 포함한다. As shown in Fig. 1, the smart fire detection system 1 (hereinafter, simply referred to as a'fire detection system') includes a server 100 and a plurality of fire detection devices 200A to 200D.

서버(100)는 유무선 통신 네트워크를 통해 다수의 화재 감지 장치들(200A 내지 200D)과 연결된다. The server 100 is connected to a plurality of fire detection devices 200A to 200D through a wired/wireless communication network.

서버(100)는 다수의 화재 감지 장치들(200A 내지 200D)로부터 전송되는 이미지 데이터를 저장하고, 사용자의 요청에 따라 데이터를 가공할 수 있다. The server 100 may store image data transmitted from a plurality of fire detection devices 200A to 200D and may process the data according to a user's request.

서버는 다수의 화재 감지 장치들(200A 내지 200D)로부터 수집된 감시 결과를 복수의 디스플레이 장치를 통해 표시할 수 있다. 디스플레이 장치는 가시광 데이터에 기반한 제1 이벤트 및 열화상 데이터에 기반한 제2 이벤트에 대응하는 색을 나타낼 수 있다. 색 대신에 또는 색과 함께 패턴을 나타낼 수도 있으며, 점등, 소리, 진동 등과 같은 표식을 함께 나타낼 수도 있다. The server may display the monitoring results collected from the plurality of fire detection devices 200A to 200D through a plurality of display devices. The display device may display a color corresponding to a first event based on visible light data and a second event based on thermal image data. A pattern may be represented instead of or with a color, and markers such as lighting, sound, vibration, etc. may be represented together.

서버는 그 내부에 저장소(미도시)를 포함한다. 저장소는 가시광 데이터와 열화상 데이터를 일정기간 동안 저장할 수 있다. 저장할 정보의 종류와 저장하는 시간 등의 조건은 사용자의 사용목적이나 저장소의 저장 용량 등을 고려하여 변경될 수 있다. The server includes a storage (not shown) therein. The storage can store visible light data and thermal image data for a certain period of time. Conditions such as the type of information to be stored and the storage time may be changed in consideration of the purpose of use of the user or the storage capacity of the storage.

저장소는 네트워크 비디오 레코더(Network Video Recorder, NVR)일 수 있다. The storage may be a Network Video Recorder (NVR).

서버에는 키보드, 스피커, 마우스, 스크린, 디스플레이 장치와 같은 인터페이스 장치가 연결될 수 있다. 이는 사용자의 의도에 대응하여 감시 결과를 변경하거나 조정할 수 있도록 사용자의 의도를 수신할 수 있다. 또는 사용자의 의도나 자동화된 프로그램 등을 통해 결정된 비상등, 경고등, 알람 등을 수행할 수 있다. Interface devices such as a keyboard, speaker, mouse, screen, and display device may be connected to the server. This may receive the user's intention to change or adjust the monitoring result in response to the user's intention. Alternatively, emergency lights, warning lights, and alarms determined through the user's intention or an automated program can be performed.

본 발명에서는 다수의 화재 감지 장치들(200A을 200D)을 대표하여 하나의 화재 감지 장치(200)로 참조할 수 있다. In the present invention, a plurality of fire detection devices 200A may be referred to as a single fire detection device 200 representing 200D.

도 1의 A부분(화재 감지 장치에 대한 정면도)을 참조하면, 화재 감지 장치(200)는 전방의 소정의 영역에 대한 가시광 이미지를 획득하는 가시광 카메라(VC)와, 상기 소정의 영역에 대한 열화상 이미지를 획득하는 열화상 카메라(TC)를 포함한다. Referring to part A of FIG. 1 (a front view of the fire detection device), the fire detection device 200 includes a visible light camera VC that acquires a visible light image for a predetermined area in front, and a visible light camera for the predetermined area. It includes a thermal imaging camera (TC) for acquiring a thermal image.

화재 감지 장치에서 생성되는 이미지 데이터는 서버의 저장소에 저장 가능한 형식으로 생성될 수 있다. Image data generated by the fire detection device may be generated in a format that can be stored in a storage of the server.

가시광 카메라(VC)는 가시광 이미지 센서를 포함한다. The visible light camera VC includes a visible light image sensor.

가시광 이미지 센서는 광전환 반도체와 결합소자로 구성된 미세한 화소가 세밀하게 집적된 형태를 포함하며, 각 화소는 렌즈를 통해서 빛 에너지에 의해 발생된 전하를 축적한 후 전송할 수 있다. 본 발명에서는 설명의 편의를 위해 가시광 이미지를 획득하는 장치가 가시광 카메라인 것으로 설명하기로 하나, 본 발명이 이에 한정되지 않으며, 가시광 이미지 센서를 포함하는 영상 카메라, 돔 카메라, 저조도 카메라, 줌 카메라, 웹 카메라 등 다양한 장치일 수 있다. The visible light image sensor includes a form in which fine pixels composed of an optical conversion semiconductor and a coupling device are precisely integrated, and each pixel can be transferred after accumulating electric charges generated by light energy through a lens. In the present invention, for convenience of explanation, it will be described that the device for obtaining a visible light image is a visible light camera, but the present invention is not limited thereto, and an image camera including a visible light image sensor, a dome camera, a low light camera, a zoom camera, It may be a variety of devices such as a web camera.

가시광 이미지 센서는 기설정되었거나 사용자의 요구에 의해 정해진 감시 영역에 대한 영상 데이터를 수집한다.The visible light image sensor collects image data for a surveillance area that is preset or determined by a user's request.

열화상 카메라(TC)는 열화상 이미지 센서를 포함한다. The thermal imaging camera TC includes a thermal imaging sensor.

열화상 이미지 센서는 열이 발생하는 물체에서 나오는 적외선을 전기적 신호로 변경하여 그 크기에 따라 색상으로 표시하는 장치이다. 본 발명에서는 설명의 편의를 위해 열화상 이미지를 획득하는 장치가 열화상 카메라인 것으로 설명하기로 하나, 이에 한정되지 않으며, 열화상 이미지 센서를 포함하는 적외선 카메라 등 다양한 장치일 수 있다. A thermal image sensor is a device that converts infrared rays from an object generating heat into electrical signals and displays them in color according to their size. In the present invention, for convenience of explanation, it will be described that an apparatus for obtaining a thermal image is a thermal imaging camera, but the present invention is not limited thereto, and may be various devices such as an infrared camera including a thermal image sensor.

열화상 이미지 센서는 기설정되었거나 사용자의 요구에 의해 정해진 감시 영역에 대한 온도 데이터를 수집한다. The thermal image sensor collects temperature data for a monitoring area that is preset or determined by a user's request.

한편, 도 1의 A부분에 도시된 화재 감지 장치에서 가시광 카메라와 열화상 카메라가 이격된 거리는 후술하는 중첩 이미지 생성에 활용될 수 있다. 가시광 카메라와 열화상 카메라의 초점 거리는 각각으로부터 획득되는 가시광 이미지와 열화상 이미지를 중첩하는 맵핑 과정에 활용될 수 있다. Meanwhile, the distance between the visible light camera and the thermal imaging camera in the fire detection device shown in part A of FIG. 1 may be used to generate a superimposed image to be described later. The focal length of the visible light camera and the thermal imaging camera may be used in a mapping process of overlapping the visible light image and the thermal image obtained from each.

이와 같이 화재 감지 장치는 화재 감지에 가시광 이미지와 열화상 이미지를 모두 활용함으로써 화재 감지의 정확도를 높인다. 예를 들면, 가시광 이미지만을 이용할 때에 오탐률이 높은 몇몇 상황들에 대해, 온도에 관한 열화상 이미지까지 함께 이용하면 상기 상황들(빨강색 장갑 등과 같이)에 대해 오탐률을 크게 낮출 수 있다. In this way, the fire detection device improves the accuracy of fire detection by utilizing both visible light images and thermal images for fire detection. For example, in some situations in which the false detection rate is high when only visible light images are used, the false detection rate for the above situations (such as red gloves) can be greatly reduced by using a thermal image related to temperature together.

이를 위해 본 발명의 실시예에 따른 화재 감지 장치는 가시광 이미지와 열화상 이미지를 생성하여 서버로 전송한다. 이때 화재 감지 장치는 에지형 감시 시스템으로서 이벤트 발생을 자체적으로 판단하고, 이벤트 영상만을 서버로 전송한다. To this end, the fire detection apparatus according to an embodiment of the present invention generates a visible light image and a thermal image and transmits it to the server. At this time, the fire detection device is an edge-type monitoring system that determines the occurrence of an event by itself and transmits only the event image to the server.

이하 화재 감지 장치의 이벤트 영상 전송 과정을 보다 상세히 살펴본다.Hereinafter, a process of transmitting an event image by the fire detection device will be described in more detail.

도 2는 본 발명의 실시예에 따른 화재 감지 장치의 구성을 보다 상세하게 도시하는 도면이다. 2 is a view showing in more detail the configuration of a fire detection device according to an embodiment of the present invention.

도 2에 도시된 바와 같이 화재 감지 장치(200)는 가시광 이미지 센서(210), 제1 판단부(220), 열화상 이미지 센서(230), 제2 판단부(240), 처리부(250) 및 통신부(260)를 포함할 수 있다. As shown in FIG. 2, the fire detection device 200 includes a visible light image sensor 210, a first determination unit 220, a thermal image sensor 230, a second determination unit 240, a processing unit 250, and It may include a communication unit 260.

가시광 이미지 센서(210)와 열화상 이미지 센서(230)의 동작은 상술한 바와 동일한 바, 이하에서는 판단부들, 처리부 및 통신부의 동작을 중심으로 살펴본다. The operations of the visible light image sensor 210 and the thermal image sensor 230 are the same as described above. Hereinafter, operations of the determination units, the processing unit, and the communication unit will be described.

제1 판단부(220)는 가시광 이미지 센서(210)에 의해 수집된 영상 데이터를 분석하여, 기설정된 조건을 만족하는 경우 제1 이벤트 발생으로 판단한다. The first determination unit 220 analyzes the image data collected by the visible light image sensor 210 and determines that a first event occurs when a predetermined condition is satisfied.

예를 들어, 가시광 이미지 센서에 의해 획득된 가시광 이미지를 분석하여 화염 패턴이 포함된 경우 제1 이벤트를 발생시킬 수 있다. For example, when a flame pattern is included by analyzing a visible light image acquired by a visible light image sensor, a first event may be generated.

이때, 가시광 이미지로부터 화염 패턴을 인식하기 위한 여러 기술들 중 하나 이상이 적용될 수 있다. 일례로, 화염이 갖는 색상의 레벨 값이 문턱값을 초과하는지로부터 화염을 판단하는 명도 문턱값을 이용한 알고리즘이 적용될 수 있다. 다른 예로, 화염 후보 영역의 질감 분석이나 그 윤곽의 주파수 성분을 분석하는 공간 영역 분석을 이용한 알고리즘이 적용될 수 있다. 또 다른 예로는, 시간에 따라 변화하는 화염 후보영역의 특정 레벨값의 주파수를 분석하는 시간 영역 주파수 분석 알고리즘이 적용될 수 있다. 어느 경우나, 이벤트 발생을 판단하기 위해 기설정된 조건(즉, 문턱값을 설정하고, 그 문턱값을 초과하는지)을 만족하는지 여부로부터 제1 이벤트를 발생시킨다는 점에서는 공통된다. At this time, one or more of several techniques for recognizing a flame pattern from a visible light image may be applied. For example, an algorithm using a brightness threshold value for determining a flame based on whether a color level value of a flame exceeds a threshold value may be applied. As another example, an algorithm using a spatial domain analysis for analyzing a texture of a candidate flame region or a frequency component of the outline may be applied. As another example, a time domain frequency analysis algorithm for analyzing a frequency of a specific level value of a flame candidate region that changes with time may be applied. In any case, it is common in that the first event is generated based on whether a predetermined condition (ie, setting a threshold value and exceeding the threshold value) is satisfied to determine the occurrence of the event.

한편, 화염 대신에 또는 화염과 함께 연기 패턴이 포함된 경우 제1 이벤트를 발생시킬 수도 있다. 마찬가지로 가시광 이미지로부터 연기 패턴을 인식하기 위한 하나 이상의 기술이 적용될 수 있다. 일례로, 적응적 가우시안 혼합모델, 시간 도함수 영상의 일시적 축적 기법 등이 적용될 수 있다. Meanwhile, when a smoke pattern is included instead of or with the flame, the first event may be generated. Likewise, one or more techniques for recognizing smoke patterns from visible light images may be applied. For example, an adaptive Gaussian mixed model, a temporal accumulation technique of a temporal derivative image, etc. may be applied.

제2 판단부(240)는 열화상 이미지 센서(230)에 의해 수집된 온도 데이터를 분석하여, 기설정된 조건을 만족하는 경우 제2 이벤트 발생으로 판단한다. The second determination unit 240 analyzes the temperature data collected by the thermal image sensor 230 and determines that a second event occurs when a preset condition is satisfied.

예를 들어, 온도 데이터를 분석하여 기설정된 온도를 초과하는 온도 값이 포함된 경우 제2 이벤트를 발생시킬 수 있다. For example, when a temperature value exceeding a preset temperature is included by analyzing temperature data, a second event may be generated.

일례로, 문턱값을 50℃로 설정한 경우, 열화상 이미지 센서에 의해 수집된 온도 데이터에 50℃를 초과하는 값이 존재하면 제2 이벤트를 발생시킨다. For example, when the threshold value is set to 50° C., a second event is generated when a value exceeding 50° C. exists in temperature data collected by the thermal image sensor.

또한 온도 데이터에 문턱값을 초과하는 값이 1개라도 존재하면 이벤트를 발생시킬 수도 있으나 이웃하는 2개 이상의 값이 존재하는 경우로 한정하여 이벤트를 발생시킬 수도 있다. 화재 감지 장치의 사용목적이나 사용환경에 따라 변경될 수 있다. In addition, if there is even one value exceeding the threshold value in the temperature data, an event may be generated, but the event may be generated by limiting to the case where two or more neighboring values exist. It can be changed according to the purpose of use or the environment of use of the fire detection device.

한편, 열화상 이미지 센서는 온도 데이터를 수집하여 색상 데이터(즉, 열화상 이미지)로 변환하는 바, 변환 후의 색상 데이터를 활용하여(즉, 열화상 이미지 중에서 문턱값을 초과하는 색상 값이 존재하는지 여부로부터) 제2 이벤트 발생을 판단할 수도 있으나, 본 발명에서는 변환 전의 온도 데이터를 활용하는 실시예를 중심으로 설명한다. On the other hand, the thermal image sensor collects temperature data and converts it to color data (i.e., thermal image), and utilizes the color data after conversion (i.e., whether there is a color value exceeding the threshold value in the thermal image). The occurrence of the second event may be determined from whether or not), but in the present invention, an embodiment using temperature data before conversion will be mainly described.

처리부(250)는 제1 이벤트 및 제2 이벤트 중 적어도 하나 발생시 가시광 카메라(VC)라에 의해 획득된 가시광 이미지와 열화상 카메라(TC)에 의해 획득된 열화상 이미지를 중첩하고 서버(100)로 전송되도록 처리한다. When at least one of the first event and the second event occurs, the processor 250 superimposes the visible light image acquired by the visible light camera VC and the thermal image acquired by the thermal imaging camera TC, and sends the image to the server 100. Process to be transmitted.

전송은 통신부(260)에 의해 수행될 수 있다. 화재 감지 장치는 서버와 통신하기 위한 통신부를 더 포함한다. Transmission may be performed by the communication unit 260. The fire detection device further includes a communication unit for communicating with the server.

본 발명의 실시예에 따른 처리부의 중첩 과정은 가시광 이미지의 제1 레이어와 열화상 이미지의 제2 레이어를 중첩하는 맵핑 과정을 포함할 수 있다. The overlapping process of the processing unit according to an embodiment of the present invention may include a mapping process of overlapping the first layer of the visible light image and the second layer of the thermal image.

이때, 가시광 이미지의 제1 레이어(이하 간단히 '제1 레이어'라 함)는 전방의 소정의 영역에 대한 가시광 이미지가 그대로 활용됨에 비해, 열화상 이미지의 제2 레이어(이하 간단히 '제2 레이어'라 함)는 전방의 소정의 영역에 대한 일부 온도 값(즉, 문턱값을 초과하는 온도 값)만이 추출된 열화상 이미지라는 점에 주목한다. At this time, the first layer of the visible light image (hereinafter simply referred to as the'first layer') is the second layer of the thermal image (hereinafter simply referred to as the'second layer'), whereas the visible light image for a predetermined area in front is used as it is. Note that only some temperature values (ie, temperature values exceeding a threshold value) for a predetermined area in front are extracted thermal images.

구체적으로, 제2 레이어는 제1 레이어와의 중첩 과정 이전에, 문턱값을 초과하는 부분에 대해서만 추출 과정이 이루어진 후에 제1 레이어와 중첩된다. Specifically, the second layer overlaps with the first layer after the extraction process is performed only for a portion exceeding the threshold value before the process of overlapping with the first layer.

본 발명의 실시예에 따르면, 제2 레이어를 위한 문턱값과 상술한 제2 이벤트 발생 판단을 위한 문턱값은 서로 다르게 설정될 수 있다. 제2 이벤트 발생 판단 과정과 제2 레이어 생성 과정은 서로 별도의 프로세스에 해당하기 때문이다. 이벤트 발생 판단은 감시 영상의 전송 시작 시점에 관한 것이고, 제2 레이어 생성은 실제로 관리자에게 제공될 감시 영상에 관한 것이기 때문이다. According to an embodiment of the present invention, the threshold value for the second layer and the threshold value for determining the occurrence of the second event may be set differently from each other. This is because the process of determining the occurrence of the second event and the process of creating the second layer correspond to separate processes. This is because the event occurrence determination relates to the transmission start point of the surveillance image, and the second layer generation relates to the surveillance image to be actually provided to the manager.

예를 들어, 제2 레이어를 위한 문턱값이 제2 이벤트 발생 판단을 위한 문턱값보다 낮을 수 있다. 일례로, 전자가 30℃이고, 후자가 50℃일 수도 있다. 제2 레이어 문턱값을 상대적으로 낮게 설정함으로써 (관리자가 디스플레이 장치를 통해 육안으로 확인하면서 수행되는) 관리자에 의한 실제 모니터링이 보다 낮은 온도에서 보다 정밀하게 이루어지도록 한다. For example, the threshold value for the second layer may be lower than the threshold value for determining the occurrence of the second event. For example, the former may be 30°C and the latter may be 50°C. By setting the second layer threshold relatively low, actual monitoring by the manager (which is performed while the manager visually checks through the display device) is performed more precisely at a lower temperature.

본 발명의 실시예에 따르면, 추출 과정은 문턱값을 초과하는 온도 데이터에 대해서만 색상 데이터로 변환하는 과정을 포함한다. 즉, 제2 이벤트가 발생된 부분만 추출된 후 제2 레이어가 된다. 만약 제2 이벤트가 발생된 부분이 없다면 추출될 것이 없으므로 제로 데이터가 제2 레이어가 될 수 있다. 또는 제로 데이터는 투명한 이미지를 나타내는 데이터를 포함할 수 있다. According to an embodiment of the present invention, the extraction process includes converting only temperature data exceeding the threshold value into color data. That is, after only the portion in which the second event has occurred is extracted, it becomes the second layer. If there is no part in which the second event has occurred, since there is no extraction, zero data may be the second layer. Alternatively, the zero data may include data representing a transparent image.

도 3a 내지 도 3c는 이러한 과정을 개략적으로 보여준다. 3a to 3c schematically show this process.

도 3a에 도시된 바와 같이, 전방의 소정의 영역(예를 들어, ESS 설치 구역)에서 화재 발생으로 인해 제1 이벤트 및 제2 이벤트가 발생하였고, 이에 대한 가시광 이미지의 제1 레이어(L1) 및 열화상 이미지의 제2 레이어(L2)가 중첩되어 서버로 전송될 수 있다. 서버 관리자는 디스플레이 장치를 통해 중첩 이미지(OL)를 보고서 화재 발생을 가시광 영상뿐만 아니라 열화상을 통해 신속히 판단할 수 있다. As shown in FIG. 3A, a first event and a second event occurred due to a fire occurrence in a predetermined area in front (for example, an ESS installation area), and the first layer L1 of the visible light image and The second layer L2 of the thermal image may be overlapped and transmitted to the server. The server administrator can see the superimposed image (OL) through the display device and quickly determine the occurrence of fire through visible light images as well as thermal images.

도면에서 화염영역이 도면부호 F로, 고온영역이 도면부호 T로 참조된다. 도 3a의 중첩 이미지에서 화염영역(F)과 고온영역(T)이 대체로 일치한다. In the drawings, the flame region is referred to as F, and the high temperature region is referred to as T. In the superimposed image of FIG. 3A, the flame region F and the high temperature region T substantially coincide.

도 3b에 도시된 바와 같이, 전방의 소정의 영역에서 빨간색 모자를 쓴 작업자의 등장으로 인해 제1 이벤트가 발생하였고, 이에 대한 가시광 이미지의 제1 레이어(L1) 및 열화상 이미지의 제2 레이어(L2)가 중첩되어 서버로 전송될 수 있다. 이때, 열화상 이미지의 제2 레이어(L2)는 제로 데이터임을 주목한다. 제2 이벤트가 발생하지 않았기 때문이다. 중첩 이미지에서 고온영역이 존재하지 않음으로써, 감시 영역 내 빨간색 모자의 등장으로 인한 오탐 상황은 서버 관리자에 의해 쉽게 인지될 수 있다.As shown in FIG. 3B, a first event occurred due to the appearance of a worker wearing a red hat in a predetermined area in front, and the first layer L1 of the visible light image and the second layer of the thermal image ( L2) can be overlapped and transmitted to the server. At this time, note that the second layer L2 of the thermal image is zero data. This is because the second event has not occurred. Since the high temperature region does not exist in the superimposed image, a false detection situation due to the appearance of a red hat in the monitoring region can be easily recognized by the server administrator.

도면에서 빨간색 모자가 도면부호 C로 참조된다. 도 3b에서는 기설정된 조건을 만족하는 고온영역이 존재하지 않아 중첩 이미지(OL)에서도 고온영역이 존재하지 않는다. In the drawings, the red hat is referred to as C. In FIG. 3B, the high temperature region that satisfies the preset condition does not exist, and thus the high temperature region does not exist in the superimposed image OL.

도 3c에 도시된 바와 같이, 전방의 소정의 영역에서 반대편 화재 발생으로 인해 제2 이벤트가 발생하였고, 이에 대한 가시광 이미지의 제1 레이어(L1) 및 열화상 이미지의 제2 레이어(L2)가 중첩되어 서버로 전송될 수 있다. 상술한 도 3b의 경우처럼 두 이벤트들 중 하나의 이벤트만이 발생하였음에도 중첩 이미지(OL)가 생성되어 서버로 전송됨에 주목한다. 서버 관리자는 디스플레이 장치를 통해 화재 발생을 가시광 영상으로부터는 드러나지 않는 열 감지를 통해 신속히 판단할 수 있다. As shown in FIG. 3C, a second event occurred due to the occurrence of a fire on the other side in a predetermined area in front, and the first layer L1 of the visible light image and the second layer L2 of the thermal image overlap. Can be sent to the server. Note that, as in the case of FIG. 3B described above, even though only one of the two events occurs, an overlapping image OL is generated and transmitted to the server. The server administrator can quickly determine the occurrence of a fire through the display device through heat detection that is not exposed from the visible light image.

도 3c에서는 가시광 이미지에서 화염영역이 존재하지 않고 열화상 이미지에서 고온영역이 존재하며, 중첩 이미지(OL)에서도 화염영역 없이 고온영역만이 존재한다. In FIG. 3C, a flame region does not exist in the visible light image, a high temperature region exists in the thermal image, and only a high temperature region exists without a flame region in the superimposed image OL.

상기와 같이 이벤트가 발생함으로서 화재 감지 장치단에서 서버단으로 영상의 전송이 이루어진다. 이하 영상의 전송이 시작된 이후 종료되는 과정을 살펴본다. When the event occurs as described above, an image is transmitted from the fire detection device to the server. Hereinafter, a process in which transmission of an image is started and then terminated is described.

에지형 감시 시스템은 중앙 센터의 부하를 분산하고 전체 트래픽의 양을 줄이기 위한 것인 바, 언제 중첩 이미지의 전송을 종료할 것인지에 관한 전송의 종료 시점 또한 설정될 필요가 있다. Since the edge-type monitoring system is to distribute the load of the central center and reduce the total amount of traffic, it is necessary to set the transmission end point of when to end transmission of the superimposed image.

도 4는 본 발명의 실시예에 따른 화재 감지 시스템이 설치된 감시 구역을 위에서 바라본 개략적인 상황을 도시하는 도면이다. 4 is a diagram showing a schematic situation as viewed from above of a surveillance area in which a fire detection system according to an embodiment of the present invention is installed.

도 5는 도 4에서 각 화재 감지 장치들로부터 수신된 이벤트 영상(즉, 중첩 이미지)이 서버와 연결된 디스플레이 장치를 통해 표시되는 일례를 도시하는 도면이다. 5 is a diagram illustrating an example in which event images (ie, superimposed images) received from each fire detection device in FIG. 4 are displayed through a display device connected to a server.

그리고, 도 6은 도 4에서 각 화재 감지 장치들이 이벤트 영상을 서버로 전송하는 시점과 전송을 종료하는 시점에 관한 타임 라인을 보여주는 도면이다. In addition, FIG. 6 is a view showing a timeline of a time point at which each fire detection device transmits an event image to a server and a time point at which the transmission ends.

먼저 도 4를 참조하면, 4대의 화재 감지 장치들(200A 내지 200D)이 소정의 감시 구역에 설치된다. 소정의 감시 구역은 (ESS 설치 구역일 수 있다. 설명의 편의를 위해 화재 감지 장치가 4대인 경우를 가정할 뿐 본 발명이 개수에 한정되지 않는다. First, referring to FIG. 4, four fire detection devices 200A to 200D are installed in a predetermined monitoring area. The predetermined monitoring area (may be an ESS installation area. For convenience of explanation, it is assumed that there are 4 fire detection devices, but the present invention is not limited to the number.

각 화재 감지 장치는 전방의 영역(점선으로 표시된 감시 가능 영역)을 감시하면서, 제1 이벤트 및 제2 이벤트 중 적어도 하나 발생시 중첩 이미지를 서버(100)로 전송한다. 이로써, 도 5에 도시된 바와 같은 감시 영상이 디스플레이 장치(Monitor)를 통해 표시된다. Each fire detection device monitors a front area (a monitorable area indicated by a dotted line) and transmits an overlapping image to the server 100 when at least one of the first event and the second event occurs. Accordingly, the surveillance image as shown in FIG. 5 is displayed through the display device (Monitor).

도면상 좌측 상단의 화재 감지 장치부터 차례대로 제1 화재 감지 장치(200A), 제2 화재 감지 장치(200B), 제3 화재 감지 장치(200C) 및 제4 화재 감지 장치(200D)로 참조한다. 도면상 좌측 상단의 에너지저장모듈부터 차례대로 제1 에너지저장모듈(R1), 제2 에너지저장모듈(R2), 제3 에너지저장모듈(R3) 및 제4 에너지저장모듈(R4)로 참조한다. Reference is made to the first fire detection device 200A, the second fire detection device 200B, the third fire detection device 200C, and the fourth fire detection device 200D in order from the fire detection device on the upper left of the drawing. The first energy storage module R1, the second energy storage module R2, the third energy storage module R3 and the fourth energy storage module R4 are referred to in order from the energy storage module on the upper left of the drawing.

이벤트 발생시 제1 화재 감지 장치(200A)가 전송한 이벤트 영상이 디스플레이 장치에서 채널1(CH1)로 표시된다. 순서대로, 제2 화재 감지 장치(200B)가 전송한 이벤트 영상이 채널2(CH2)로, 제3 화재 감지 장치(200C)가 전송한 이벤트 영상이 채널3(CH3)으로, 그리고, 제24화재 감지 장치(200D)가 전송한 이벤트 영상이 채널4(CH4)로 참조된다. When an event occurs, the event image transmitted from the first fire detection device 200A is displayed as channel 1 (CH1) on the display device. In order, the event image transmitted from the second fire detection device 200B is to channel 2 (CH2), the event image transmitted from the third fire detection device 200C is to channel 3 (CH3), and the 24th fire The event image transmitted by the sensing device 200D is referred to as channel 4 (CH4).

도 4 및 도 5에 도시된 바와 같이, 제1 에너지저장모듈(R1)에서 화재(FI)가 발생함에 따라, 제1 이벤트 및 제2 이벤트를 감지한 제1 화재 감지 장치(200A)가 화염영역(F)과 고온영역(T)을 포함하는 이벤트 영상을 채널1(CH1)을 통해 보내온다. As shown in FIGS. 4 and 5, as a fire FI occurs in the first energy storage module R1, the first fire detection device 200A detecting the first event and the second event is An event video including (F) and high temperature region (T) is sent through channel 1 (CH1).

상대적으로, 제2 화재 감지 장치, 제3 화재 감지 장치 및 제4 화재 감지 장치는 제1 이벤트는 감지하지 못하였으나, 제2 이벤트를 감지함으로써 고온영역(T)을 포함하는 이벤트 영상을 각각의 채널들(CH2 내지 CH4)을 통해 보내온다. Relatively, the second fire detection device, the third fire detection device, and the fourth fire detection device did not detect the first event, but by detecting the second event, the event image including the high temperature region T is displayed on each channel. It is sent through the field (CH2 to CH4).

화재(FI)의 발생 위치나 크기 등은 매우 다양하게 나타날 수 있으나, 본 발명에서는 도면상 제1 에너지저장모듈(R1)의 좌측에 그리고 높이상으로는 중간정도에 화재가 발생한 상황을 가정하기로 한다. The location or size of the fire FI may appear in a wide variety, but in the present invention, it is assumed that a fire occurs on the left side of the first energy storage module R1 in the drawing and in the middle of the height.

화재(FI)의 발생 위치 및 크기를 고려할 때, 제1 화재 감지 장치(200A)와 제3 화재 감지 장치(200C)가 제일 먼저 이벤트 발생을 감지하게 된다. 따라서, 도 6에 도시된 바와 같이, 제1 화재 감지 장치(200A)와 제3 화재 감지 장치(200C)의 이벤트 영상 전송 시작 시점은 대체로 일치할 수 있다. 물론 도면상 화재 발생 위치를 고려할 때 제1 화재 감지 장치의 이벤트 영상 전송 시작 시점이 약간 더 빠르다. 이때, 제1 화재 감지 장치는 제1 및 제2 이벤트 발생을 모두 감지함으로써 이벤트 영상의 전송을 시작하게 되고, 제3 화재 감지 장치는 도 4에 도시된 그 감시 영역의 위치상 제2 이벤트 발생만을 감지함으로써 이벤트 영상의 전송을 시작하게 된다. When considering the location and size of the fire FI, the first fire detection device 200A and the third fire detection device 200C first detect the occurrence of the event. Accordingly, as illustrated in FIG. 6, the start time of event image transmission of the first fire detection device 200A and the third fire detection device 200C may be substantially the same. Of course, when considering the location of the fire in the drawing, the start time of the event image transmission of the first fire detection device is slightly earlier. At this time, the first fire detection device starts transmitting the event image by detecting both the occurrence of the first and the second event, and the third fire detection device only generates the second event on the location of the monitoring area shown in FIG. 4. By sensing, the transmission of the event video starts.

상대적으로, 제2 화재 감지 장치(200B)는 제1 및 제3 화재 감지 장치들(200A 및 200C)보다 늦게 이벤트 발생을 감지하게 된다. 또한 제4 화재 감지 장치(200D)는 제2 화재 감지 장치(200B)보다 더 늦게 이벤트 발생을 감지하게 된다. 화재(FI)로부터 거리가 가장 멀기 때문에 온도 데이터에 기반한 제2 이벤트 발생의 판단이 뒤늦게 나타나기 때문이다. Relatively, the second fire detection device 200B detects the occurrence of an event later than the first and third fire detection devices 200A and 200C. In addition, the fourth fire detection device 200D detects the occurrence of the event later than the second fire detection device 200B. This is because the determination of the occurrence of the second event based on the temperature data appears belatedly because the distance from the fire (FI) is the farthest.

이러한 이벤트 발생 기반의 전송 시작은 모두 능동 전송 동작에 해당한다. 즉, 각각의 화재 감지 장치들은 자체적으로 판단한 이벤트 발생(제1 이벤트 및/또는 제2 이벤트 발생)으로부터 능동적으로 이벤트 영상을 서버로 전송하는 동작이다. All of these event-based transmission starts correspond to active transmission operations. That is, each of the fire detection devices is an operation of actively transmitting an event image to the server from the occurrence of an event (first event and/or second event occurrence) determined by itself.

계속하여 도 6을 참조하여 전송의 종료 시점에 관해 살펴본다. 전송의 시작 시점에는 능동 전송 동작만이 관여하였으나 전송의 종료 시점에는 수동 전송 동작 또한 관여한다. 수동 전송 동작은 능동 전송 동작과 대비된다. 수동 전송 동작은 다른 화재 감지 장치의 능동 전송 동작이 기인한 전송이다. 이하 상세히 설명한다.Subsequently, with reference to FIG. 6, the transmission end time point will be described. At the start of transmission, only active transmission is involved, but at the end of transmission, passive transmission is also involved. The passive transmission operation is contrasted with the active transmission operation. The passive transmission operation is transmission due to the active transmission operation of another fire detection device. It will be described in detail below.

기본적으로 각 화재 감지 장치들은, 제1 이벤트 발생 및 제2 이벤트 발생 중 어느 것도 감지되지 않는 경우 전송을 종료하게 되나, 본 발명의 실시예에 따르면, 즉각 종료하지 않고, 예비적으로 전송을 지속하는 예비 전송 지속시간 및 다른 화재 감지 장치들에 의해 전송을 지속하는 수동 전송 지속시간을 포함한다.Basically, each fire detection device terminates the transmission when neither the occurrence of the first event nor the occurrence of the second event is detected, but according to the embodiment of the present invention, the transmission is not immediately terminated, but the transmission is preliminarily continued. It includes a preliminary transmission duration and a passive transmission duration to continue transmission by other fire detection devices.

이러한 동작들은 모두 가장 효율적으로 부하를 분산하고 전체 트래픽 양을 줄이기 위한 최적의 설계이다. All of these operations are optimal designs to most efficiently distribute the load and reduce the total amount of traffic.

구체적으로, 제1 화재 감지 장치(200A)는 제1 이벤트 및 제2 이벤트 모두가 소멸한 경우 바로 종료하지 않고 일정 시간동안전송을 지속한다. 예비 전송 지속시간에 해당한다. 일례로, 5분일 수 있다. Specifically, when both the first event and the second event disappear, the first fire detection device 200A does not immediately end and continues transmission for a predetermined time. Corresponds to the reserve transmission duration. For example, it may be 5 minutes.

이때, 예비 전송 지속시간 중 제1 화재 감지 장치(200A)는 다른 화재 감지 장치들(200B 내지 200D)의 능동 전송 동작에 따른 알림 메시지가 서버(100)를 통해 수신되는지를 판단한다. 메시지의 수신에는 통신부가 관여할 수 있다. 즉, 예비 전송 지속시간으로 돌입한 제1 화재 감지 장치는 중첩 이미지의 전송을 지속하면서 서버측에 능동 전송 동작이 있는지를 문의할 수 있다.At this time, during the preliminary transmission duration, the first fire detection device 200A determines whether a notification message according to the active transmission operation of the other fire detection devices 200B to 200D is received through the server 100. The communication unit may be involved in receiving the message. That is, the first fire detection device that has entered the preliminary transmission duration may inquire whether there is an active transmission operation on the server side while continuing to transmit the superimposed image.

본 발명의 실시예에 따른 서버(100)는 어느 하나의 화재 감지 장치로부터 이벤트 기반의 능동 전송 동작에 따른 이벤트 영상 수신시 다른 화재 감지 장치로 능동 전송 진행 중임을 알리는 메시지를 발신한다. 본 발명의 실시예에 따른 서버는 예비 전송 지속시간으로 돌입한 어느 하나의 화재 감지 장치가 문의해 올 때 다른 화재 감지 장치에 의한 능동 전송 동작이 있는지에 관한 메시지를 회신할 수 있다. The server 100 according to an embodiment of the present invention transmits a message indicating that active transmission is in progress to another fire detection device when an event image according to an event-based active transmission operation is received from any one fire detection device. The server according to an embodiment of the present invention may return a message indicating whether there is an active transmission operation by another fire detection device when any one fire detection device that has entered the preliminary transmission duration makes an inquiry.

일례로, 제1 화재 감지 장치가 제1 이벤트 및 제2 이벤트 발생을 감지함에 따라 이벤트 영상을 서버로 전송하면, 이를 수신한 서버는 어느 하나의 장치로부터 이벤트 발생에 따른 능동 전송이 이루어지고 있음을 알리는 메시지를 다른 장치들, 즉, 제2 화재 감지 장치 내지 제4 화재 감지 장치로 전송한다. 알림 메시지는 어떠한 하나 이상의 화재 감지 장치에 의해 능동 전송이 이루어지고 있다는 정보를 포함하면 족하며, 화재 감지 장치의 식별까지는 필요로 하지는 않는다.For example, when the first fire detection device transmits the event image to the server as it detects the occurrence of the first event and the second event, the server receiving the event indicates that active transmission is performed according to the occurrence of the event from any one device. The informing message is transmitted to other devices, that is, the second to fourth fire detection devices. The notification message suffices to include information that active transmission is being made by any one or more fire detection devices, and does not require identification of the fire detection devices.

즉, 서버(100)는 이벤트 기반 능동 전송에 따른 이벤트 영상을 수신하면 이를 송신한 장치를 제외한 나머지 장치들로 알림 메시지를 전송한다. 알림 메시지의 전송은 이벤트 영상 수신간 주기적으로 이루어질 수 있다. That is, when the server 100 receives an event image according to an event-based active transmission, the server 100 transmits a notification message to other devices except for the transmitting device. Transmission of the notification message may be performed periodically between reception of event images.

본 발명의 실시예에 따른 서버(100)는 알림 메시지를 네트워크를 통해 연결된 각각의 화재 감지 장치로 전송하기 위한 전송부(미도시)를 포함할 수 있다. The server 100 according to an embodiment of the present invention may include a transmission unit (not shown) for transmitting a notification message to each fire detection device connected through a network.

화재 감지 장치는 예비 전송 지속시간 중 알림 메시지가 수신되면 예비 전송 지속시간 이후에도 중첩 이미지의 전송을 지속한다. 이벤트가 발생하지 않았음에도 전송된다. 상술한 이벤트 기반 능동 전송과 대비된다. 수동 전송 지속시간에 해당한다. 알림 메시지가 더 이상 수신되지 않을 때까지 수동 전송 동작은 지속된다. 이벤트가 발생하지 않았지만 일정 시간 동안 중첩 이미지의 전송을 지속함으로써 관리자에 의한 화재 발생(내지는 화재와 유사한 상황의 발생)에 따른 후속 조치의 대처 효율을 높인다. 에지형 관리 시스템에서 이벤트 영상만이 전송됨으로 인해 관리의 허점이 생기는 것을 보완한다. 또한 에지형 관리 시스템에서 이벤트 발생 판단의 오류 내지는 이벤트 발생을 위한 문턱값의 과도한 상향 설정으로부터 생기는 미전송 상황을 보완한다. When the notification message is received during the preliminary transmission duration, the fire detection device continues to transmit the superimposed image even after the preliminary transmission duration. Sent even though no event has occurred. It is contrasted with the event-based active transmission described above. Corresponds to the passive transmission duration. The manual transmission operation continues until no more notification messages are received. Although no event has occurred, the transmission of superimposed images is continued for a certain period of time, thereby enhancing the efficiency of coping with follow-up measures in response to a fire occurrence (or a fire-like situation) by the manager. In the edge-type management system, only the event video is transmitted, which makes up for a management loophole. In addition, in the edge-type management system, a non-transmission situation resulting from an error in determining the occurrence of an event or an excessively upward setting of a threshold for event occurrence is compensated.

예를 들어, 제3 화재 감지 장치(200C)는 제2 이벤트 발생 판단에 따라 중첩 이미지의 전송을 시작한 이후, 제2 이벤트 발생이 더 이상 감지되지 않는 경우 전송을 종료하되, 예비 전송 지속시간 및 수동 전송 지속시간 동안 중첩 이미지의 전송을 지속할 수 있다. 예비 전송 지속시간 중 제3 화재 감지 장치는 다른 화재 감지 장치들의 능동 전송 동작에 따른 알림 메시지가 서버를 통해 수신되는지를 판단하고, 도 6에 도시된 바와 같이, 제1 화재 감지 장치(200A)가 이벤트 기반의 능동 전송 동작을 수행하고 있고 따라서 제1 화재 감지 장치에 의한 능동 전송 진행 중임을 알리는 메시지를 서버(100)로부터 수신함으로써 수동 전송 동작을 수행한다. For example, after starting the transmission of the superimposed image according to the determination of the occurrence of the second event, the third fire detection device 200C terminates the transmission when the occurrence of the second event is no longer detected, but the preliminary transmission duration and manual Transmission of the superimposed image can be continued for the duration of the transmission. During the preliminary transmission duration, the third fire detection device determines whether a notification message according to the active transmission operation of other fire detection devices is received through the server, and as shown in FIG. 6, the first fire detection device 200A The passive transmission operation is performed by receiving a message from the server 100 indicating that the active transmission is in progress by the first fire detection device.

이벤트 기반의 능동 전송 동작이 아닌, 이벤트가 모두 소멸하였음에도 다른 화재 감지 장치의 능동 전송 동작에 따른 수동 전송 동작이 이루어짐에 주목한다. Note that not an event-based active transmission operation, but a passive transmission operation according to the active transmission operation of other fire detection devices even though all events have disappeared.

능동 전송 진행 중임을 알리는 메시지가 더 이상 수신되지 않으면 제3 화재 감지 장치는 중첩 이미지의 전송을 종료한다. When a message indicating that the active transmission is in progress is no longer received, the third fire detection device ends transmission of the superimposed image.

또한 예를 들어, 제2 화재 감지 장치(200B)는 제2 이벤트 발생 판단에 따라 중첩 이미지의 전송을 (제1 및 제3 화재 감지 장치들보다 늦게) 시작한 이후, 제2 이벤트 발생이 더 이상 감지되지 않는 경우 전송을 종료하되, 예비 전송 지속시간 및 수동 전송 지속시간 동안 중첩 이미지의 전송을 지속할 수 있다. 예비 전송 지속시간 중 제2 화재 감지 장치는 다른 화재 감지 장치들의 능동 전송 동작에 따른 알림 메시지가 서버를 통해 수신되는지를 판단하고, 도 6에 도시된 바와 같이, 제1 화재 감지 장치(200A)가 이벤트 기반의 능동 전송 동작을 수행하고 있고 따라서 제1 화재 감지 장치에 의한 능동 전송 진행 중임을 알리는 메시지를 서버(100)로부터 수신함으로써 수동 전송 동작을 수행한다. Also, for example, after the second fire detection device 200B starts transmitting the superimposed image (later than the first and third fire detection devices) according to the determination of the occurrence of the second event, the occurrence of the second event is no longer detected. If not, the transmission is terminated, but the transmission of the superimposed image can be continued for the preliminary transmission duration and the manual transmission duration. During the preliminary transmission duration, the second fire detection device determines whether a notification message according to the active transmission operation of other fire detection devices is received through the server, and as shown in FIG. 6, the first fire detection device 200A The passive transmission operation is performed by receiving a message from the server 100 indicating that the active transmission is in progress by the first fire detection device.

이 과정에서 제1 화재 감지 장치뿐만 아니라 제3 화재 감지 장치에 따른 능동 전송 진행 중임을 알리는 메시지를 서버로부터 수신할 수도 있고, 이로써 제2 화재 감지 장치가 수동 전송 동작을 수행할 수도 있으나, 본 발명에서는 가장 오래 능동 전송 동작을 수행하는 제1 화재 감지 장치의 능동 전송 진행을 기준으로 설명한다. In this process, not only the first fire detection device but also a message indicating that active transmission according to the third fire detection device is in progress may be received from the server, whereby the second fire detection device may perform a passive transmission operation. In the following description, the active transmission progress of the first fire detection device that performs the active transmission operation for the longest time will be described.

능동 전송 진행 중임을 알리는 메시지가 더 이상 수신되지 않으면 제2 화재 감지 장치는 중첩 이미지의 전송을 종료한다. When a message indicating that the active transmission is in progress is no longer received, the second fire detection device ends transmission of the superimposed image.

또한 예를 들어, 제4 화재 감지 장치(200D)는 제2 이벤트 발생 판단에 따라 중첩 이미지의 전송을 (제1, 제2 및 제3 화재 감지 장치들보다 늦게) 시작한 이후, 제2 이벤트 발생이 더 이상 감지되지 않는 경우 전송을 종료하되, 예비 전송 지속시간 및 수동 전송 지속시간 동안 중첩 이미지의 전송을 지속할 수 있다. 예비 전송 지속시간 중 제4 화재 감지 장치는 다른 화재 감지 장치들의 능동 전송 동작에 따른 알림 메시지가 서버를 통해 수신되는지를 판단하고, 도 6에 도시된 바와 같이, 제1 화재 감지 장치(200A)가 이벤트 기반의 능동 전송 동작을 수행하고 있고 따라서 제1 화재 감지 장치에 의한 능동 전송 진행 중임을 알리는 메시지를 서버(100)로부터 수신함으로써 수동 전송 동작을 수행한다.Also, for example, after the fourth fire detection device 200D starts transmitting the superimposed image (later than the first, second, and third fire detection devices) according to the determination of the occurrence of the second event, the occurrence of the second event If it is no longer detected, the transmission is terminated, but the transmission of the superimposed image can be continued for the preliminary transmission duration and the manual transmission duration. During the preliminary transmission duration, the fourth fire detection device determines whether a notification message according to the active transmission operation of other fire detection devices is received through the server, and as shown in FIG. 6, the first fire detection device 200A The passive transmission operation is performed by receiving a message from the server 100 indicating that the active transmission is in progress by the first fire detection device.

이 과정에서도 제1 화재 감지 장치뿐만 아니라 제2 화재 감지 장치나 제3 화재 감지 장치에 따른 능동 전송 진행 중임을 알리는 메시지를 서버로부터 수신할 수도 있고, 이로써 제4 화재 감지 장치가 수동 전송 동작을 수행할 수도 있으나, 본 발명에서는 가장 오래 능동 전송 동작을 수행하는 제1 화재 감지 장치의 능동 전송 진행을 기준으로 설명한다. In this process, as well as the first fire detection device, a message indicating that active transmission is in progress according to the second fire detection device or the third fire detection device may be received from the server, whereby the fourth fire detection device performs a passive transmission operation. However, in the present invention, the description will be made based on the active transmission progress of the first fire detection device that performs the active transmission operation for the longest time.

능동 전송 진행 중임을 알리는 메시지가 더 이상 수신되지 않으면 제4 화재 감지 장치는 중첩 이미지의 전송을 종료한다. When a message indicating that active transmission is in progress is no longer received, the fourth fire detection device ends transmission of the superimposed image.

상술한 바와 같이, 제1 이벤트 및 제2 이벤트 중 하나 이상의 발생시(즉, 제1 시점) 각 화재 감지 장치는 중첩 이미지의 전송을 시작한다. 이벤트 발생의 판단 시점에 따라 화재 감지 장치별 전송의 시작 시점은 차이를 가질 수 있다(도 4 내지 도 6에 도시된 바와 같이 화재로부터의 멀수록 이벤트 발생이 늦어져 전송의 시작 시점 또한 느려지는 경향을 갖는다).As described above, when at least one of the first event and the second event occurs (ie, the first time point), each fire detection device starts transmitting the superimposed image. The start point of transmission for each fire detection device may have a difference depending on the timing of determination of the occurrence of the event (as shown in FIGS. 4 to 6, the further the event occurs, the slower the start point of transmission is Has).

또한, 발생한 것으로 판단된 이벤트가 모두 소멸한 경우(즉, 제2 시점) 각 화재 감지 장치는 중첩 이미지의 전송을 종료하되, 즉시 종료하지 않고 일정 시간 전송을 지속한다. 즉, 소정의 예비 전송 지속시간 동안 전송을 지속하며, 다른 장치에 의한 능동 전송이 지속되고 있는지로부터 전송을 더욱 지속한다. 이로써, 이벤트 발생 후로도 충분한 감시 영상을 확보 및 관리자에 의한 신속한 후속 조치가 가능하도록 한다. 제3 시점은 다른 화재 감지 장치에 의한 능동 전송이 더 이상 없는 시점, 즉, 메시지가 더 이상 수신되지 않는 시점을 가리킨다. 다시 말해, 모든 화재 감지 장치들은 이벤트 발생이 종료되더라도 모든 화재 감지 장치의 이벤트 발생이 종료될 때까지 이벤트 영상의 전송을 지속하도록 설계된다. In addition, when all of the events determined to have occurred have disappeared (ie, the second time point), each fire detection device terminates the transmission of the superimposed image, but does not immediately terminate the transmission and continues the transmission for a certain period of time. That is, transmission is continued for a predetermined preliminary transmission duration, and transmission is further continued from whether active transmission by another device continues. As a result, sufficient surveillance images are secured even after an event occurs, and prompt follow-up actions by the manager are possible. The third point in time refers to a point in time when there is no more active transmission by another fire detection device, that is, a point in time when a message is no longer received. In other words, all fire detection devices are designed to continue to transmit event images until the event occurrence of all fire detection devices ends even when the event occurrence ends.

기존에는 이벤트 발생에 따른 이벤트 영상의 전송 시작 단계에만 관심이 있었지만, 본 발명의 실시예에 따른 스마트 화재 감지 시스템에서는 이벤트 영상의 전송 종료 단계에까지 최적의 설계를 통해 화재 감지의 초동 대처 및 후속 대처를 위한 충분한 감시 영상을 확보함과 동시에 부하 분산 및 트래픽 절감의 효과를 갖는다. Previously, interest was only in the start stage of transmission of the event image according to the occurrence of an event, but in the smart fire detection system according to the embodiment of the present invention, the initial response and follow-up response of fire detection are performed through an optimal design up to the end of transmission of the event image. It has the effect of load balancing and traffic reduction while securing sufficient surveillance video for the purpose.

본 발명의 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 일 실시예들의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Examples of program instructions such as magneto-optical, ROM, RAM, flash memory, etc., can be executed by a computer using an interpreter as well as machine code such as those made by a compiler. Contains high-level language code. The above-described hardware device may be configured to operate as at least one software module to perform the operation of the embodiments of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.As described above, in the present invention, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but this is provided only to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , If a person of ordinary skill in the field to which the present invention belongs, various modifications and variations are possible from these descriptions. Therefore, the spirit of the present invention is limited to the described embodiments and should not be defined, and all things that are equivalent or equivalent to the claims as well as the claims to be described later fall within the scope of the spirit of the present invention. .

1 : 스마트 화재 감지 시스템
100 : 서버
200, 200A, 200B, 200C, 200D : 화재 감지 장치
210 : 가시광 이미지 센서
220 : 제1 판단부
230 : 열화상 이미지 센서
240 : 제2 판단부
250 : 처리부
260 : 통신부
1: smart fire detection system
100: server
200, 200A, 200B, 200C, 200D: fire detection device
210: visible light image sensor
220: first judgment unit
230: thermal image sensor
240: second judgment unit
250: processing unit
260: Ministry of Communications

Claims (6)

서버(100); 및
감시 영역에 대한 영상 데이터를 수집하는 가시광 이미지 센서(210)와, 상기 감시 영역에 대한 온도 데이터를 수집하는 열화상 이미지 센서(230)를 포함하는 서로 이격된 다수의 화재 감지 장치(200)들;을 포함하되,
상기 화재 감지 장치(200)들은 각각,
상기 영상 데이터로부터 기설정된 조건을 만족하는 경우 제1 이벤트 발생으로 판단하는 제1 판단부(220);
상기 온도 데이터로부터 기설정된 조건을 만족하는 경우 제2 이벤트 발생으로 판단하는 제2 판단부(240); 및
상기 제1 이벤트 및 제2 이벤트 중 적어도 하나 발생시, 상기 가시광 이미지와 상기 온도 데이터 중 기설정된 조건을 만족하는 온도 데이터로부터 생성된 열화상 이미지를 중첩하고 상기 서버로 전송되도록 처리하는 처리부(250)를 포함하며,
상기 처리부는, 상기 제1 이벤트 및 상기 제2 이벤트 중 적어도 하나의 발생시점(제1 시점)과 동시에 상기 중첩 이미지의 전송이 시작되도록 하고, 발생된 이벤트 모두의 소멸시점(제2 시점) 이후에 상기 중첩 이미지의 전송이 종료되도록 처리하는 것을 특징으로 하는 스마트 화재 감지 시스템.
Server 100; And
A plurality of fire detection devices 200 spaced apart from each other including a visible light image sensor 210 for collecting image data for the surveillance area and a thermal image sensor 230 for collecting temperature data for the surveillance area; Including,
Each of the fire detection devices 200,
A first determination unit 220 that determines that a first event occurs when a predetermined condition is satisfied from the image data;
A second determination unit 240 that determines that a second event occurs when a predetermined condition is satisfied from the temperature data; And
When at least one of the first event and the second event occurs, a processing unit 250 that superimposes the visible light image and the thermal image generated from the temperature data satisfying a preset condition among the temperature data and processes to be transmitted to the server. Includes,
The processing unit causes the transmission of the superimposed image to start at the same time as at least one of the first event and the second event (a first time point), and after the disappearance time of all the events (second time point) Smart fire detection system, characterized in that processing to terminate the transmission of the superimposed image.
삭제delete 제1항에 있어서,
상기 서버는 상기 중첩 이미지의 전송이 제1 화재 감지 장치로부터 수신되는 경우 상기 제1 화재 감지 장치에 의한 이벤트 기반 능동 전송이 수행되고 있음을 알리는 메시지를 제2 화재 감지 장치로 전송하고,
상기 제2 화재 감지 장치의 처리부는, 상기 발생된 이벤트 모두의 소멸시점(제2 시점) 이후 및 상기 알림 메시지 수신의 종료시점(제3 시점) 이후에 상기 중첩 이미지의 전송이 종료되도록 처리하는 것을 특징으로 하는 스마트 화재 감지 시스템.
The method of claim 1,
When the transmission of the superimposed image is received from the first fire detection device, the server transmits a message indicating that event-based active transmission by the first fire detection device is being performed to the second fire detection device,
The processing unit of the second fire detection device may process the transmission of the superimposed image to be terminated after the disappearance of all of the generated events (second time point) and after the end time of reception of the notification message (third time point). Smart fire detection system characterized by.
제3항에 있어서,
상기 제2 화재 감지 장치의 처리부는 상기 발생된 이벤트 모두의 소멸시점(제2 시점) 이후에 소정의 시간(예비 전송 지속시간)동안 전송을 유지하면서 상기 알림 메시지의 수신 여부를 판단하는 것을 특징으로 하는 스마트 화재 감지 시스템.
The method of claim 3,
The processing unit of the second fire detection device is characterized in that it determines whether or not the notification message is received while maintaining transmission for a predetermined time (preliminary transmission duration) after the extinguishing point (second time point) of all of the generated events. Smart fire detection system.
제1항에 있어서,
상기 제1 이벤트 발생을 판단하기 위한 기설정된 조건과 상기 중첩 이미지를 생성하기 위한 기설정된 조건은 서로 다른 온도값을 갖는 것을 특징으로 하는 스마트 화재 감지 시스템.
The method of claim 1,
Smart fire detection system, characterized in that the preset condition for determining the occurrence of the first event and the preset condition for generating the superimposed image have different temperature values.
서버(100)와 네트워크를 통해 연결된 화재 감지 장치(200)로서,
소정의 감시 영역에 대한 영상 데이터를 수집하는 가시광 이미지 센서(210);
상기 소정의 감시 영역에 대한 온도 데이터를 수집하는 열화상 이미지 센서(230);
상기 영상 데이터로부터 기설정된 조건을 만족하는 경우 제1 이벤트 발생으로 판단하는 제1 판단부(220);
상기 온도 데이터로부터 기설정된 조건을 만족하는 경우 제2 이벤트 발생으로 판단하는 제2 판단부(240); 및
상기 제1 이벤트 및 제2 이벤트 중 적어도 하나 발생시(제1 시점) 상기 가시광 이미지와 상기 온도 데이터 중 기설정된 조건을 만족하는 온도 데이터로부터 생성된 열화상 이미지를 중첩하고 상기 서버로 전송되도록 처리하는 처리부(250);를 포함하되,
상기 처리부는 상기 발생된 이벤트 모두의 소멸시점(제2 시점) 이후에 소정의 제1 시간동안 상기 중첩 이미지의 전송을 유지하면서 상기 서버로부터 전송 유지 메시지가 수신되는지를 확인하고, 상기 전송 유지 메시지가 수신되는 경우 소정의 제2 시간동안 상기 중첩 이미지의 전송을 더 유지하는 것을 특징으로 하는 스마트 화재 감지 장치.
A fire detection device 200 connected to the server 100 through a network,
A visible light image sensor 210 for collecting image data for a predetermined surveillance area;
A thermal image sensor 230 for collecting temperature data for the predetermined monitoring area;
A first determination unit 220 that determines that a first event occurs when a predetermined condition is satisfied from the image data;
A second determination unit 240 that determines that a second event occurs when a predetermined condition is satisfied from the temperature data; And
When at least one of the first event and the second event occurs (a first time point), a processing unit that superimposes the visible light image and a thermal image generated from temperature data satisfying a preset condition among the temperature data and processes to be transmitted to the server (250); including,
The processing unit checks whether a transmission maintenance message is received from the server while maintaining the transmission of the superimposed image for a predetermined first time after the disappearance of all the events (second time), and the transmission maintenance message When received, the smart fire detection device, characterized in that further maintaining the transmission of the superimposed image for a second predetermined time.
KR1020200052930A 2020-04-29 2020-04-29 Smart system for detecting fire and device for the same KR102153465B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200052930A KR102153465B1 (en) 2020-04-29 2020-04-29 Smart system for detecting fire and device for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200052930A KR102153465B1 (en) 2020-04-29 2020-04-29 Smart system for detecting fire and device for the same

Publications (1)

Publication Number Publication Date
KR102153465B1 true KR102153465B1 (en) 2020-09-09

Family

ID=72451591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200052930A KR102153465B1 (en) 2020-04-29 2020-04-29 Smart system for detecting fire and device for the same

Country Status (1)

Country Link
KR (1) KR102153465B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220057783A (en) * 2020-10-30 2022-05-09 주식회사 브라이튼 Integrated fire monitoring system based on artificial intelligence
KR20240104613A (en) 2022-12-28 2024-07-05 주식회사 교림정보통신 Method for executing inspection process of fire detection device and detecting fire using real image and thermal image, and fire detection system therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101635000B1 (en) * 2015-06-26 2016-07-08 (주) 비엑스 솔루션 Fire detector and system using plural cameras
KR20190124454A (en) * 2018-04-26 2019-11-05 (주) 비엑스 솔루션 Fire detector and system capable of measuring heat distribution

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101635000B1 (en) * 2015-06-26 2016-07-08 (주) 비엑스 솔루션 Fire detector and system using plural cameras
KR20190124454A (en) * 2018-04-26 2019-11-05 (주) 비엑스 솔루션 Fire detector and system capable of measuring heat distribution

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220057783A (en) * 2020-10-30 2022-05-09 주식회사 브라이튼 Integrated fire monitoring system based on artificial intelligence
KR102507540B1 (en) * 2020-10-30 2023-03-08 주식회사 브라이튼 Integrated fire monitoring system based on artificial intelligence
KR20240104613A (en) 2022-12-28 2024-07-05 주식회사 교림정보통신 Method for executing inspection process of fire detection device and detecting fire using real image and thermal image, and fire detection system therefor

Similar Documents

Publication Publication Date Title
US20230300466A1 (en) Video surveillance system and video surveillance method
KR100920266B1 (en) Visual surveillance camera and visual surveillance method using collaboration of cameras
KR100995569B1 (en) Intelligence cctv system for preventing crime and crime prevent system and method using the same
KR102507540B1 (en) Integrated fire monitoring system based on artificial intelligence
KR101471846B1 (en) The FX controlling box and FX protecting system and its controlling way of FX system
EP2966852B1 (en) Video monitoring method, device and system
KR102153465B1 (en) Smart system for detecting fire and device for the same
KR102407327B1 (en) Apparatus for Monitoring Fire And System having the same
CN104581081A (en) Passenger-flow analysis method based on video information
KR101049758B1 (en) Method for monitoring total of school zone and system thereof
KR102113527B1 (en) Thermal ip cctv system and method for detecting fire by using the same
KR101005568B1 (en) Intelligent security system
KR102088198B1 (en) Integrated fire control system using triple detectors and method thereof
JP7314973B2 (en) VIDEO MONITORING DEVICE, VIDEO MONITORING METHOD AND PROGRAM
KR101372327B1 (en) Safety management system of school zone and the service method
KR102084687B1 (en) Security operation service method and system for detecting illegal photography
KR101046819B1 (en) Method and system for watching an intrusion by software fence
KR102164802B1 (en) The surveillance camera with passive detectors and active detectors
JP2024009906A (en) Monitoring device, monitoring method, and program
CN100483471C (en) Signalling system with imaging sensor
KR102630275B1 (en) Multi-camera fire detector
KR101167605B1 (en) Intelligent controller using camera and method thereof
JP2003317171A (en) Monitor system
KR20140057225A (en) Methods of cctv video take advantage and surveillance system improved using multi-sensor and thermal imaging
KR100902275B1 (en) Cctv system for intelligent security and method thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]