KR20230080522A - Fire monitoring system using artificial intelligence and method thereof - Google Patents

Fire monitoring system using artificial intelligence and method thereof Download PDF

Info

Publication number
KR20230080522A
KR20230080522A KR1020210167807A KR20210167807A KR20230080522A KR 20230080522 A KR20230080522 A KR 20230080522A KR 1020210167807 A KR1020210167807 A KR 1020210167807A KR 20210167807 A KR20210167807 A KR 20210167807A KR 20230080522 A KR20230080522 A KR 20230080522A
Authority
KR
South Korea
Prior art keywords
fire
image
real image
monitoring system
control method
Prior art date
Application number
KR1020210167807A
Other languages
Korean (ko)
Inventor
차희준
옥기윤
유규제
박현근
이상무
고아라
Original Assignee
주식회사 비투코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비투코리아 filed Critical 주식회사 비투코리아
Priority to KR1020210167807A priority Critical patent/KR20230080522A/en
Publication of KR20230080522A publication Critical patent/KR20230080522A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0014Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation from gases, flames
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/48Thermography; Techniques using wholly visual means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06T5/007
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Fire-Detection Mechanisms (AREA)
  • Fire Alarms (AREA)

Abstract

본 발명은 인공 지능을 이용한 화재 감시 시스템의 제어 방법에 관한 것으로, 실화상 영상 및 열화상 영상을 로봇으로부터 수신하고, 상기 실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지하고, 상기 연기 및 불꽃 중 적어도 하나에 대응하는 감지 영역을 실화상 영상으로부터 추출하고, 상기 감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별하고, 상기 열화상 영상에서 상기 감지 영역에 대응하는 제 1 영역을 분석하여 상기 감지 영역의 최고 온도를 추출하고, 식별된 상기 객체의 개별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정하는 것을 요지로 한다. The present invention relates to a control method of a fire monitoring system using artificial intelligence, wherein a real image and a thermal image are received from a robot, the real image is analyzed to detect at least one of smoke and flame, and the smoke and A detection area corresponding to at least one of the flames is extracted from a real image, at least one object included in the detection area is individually identified, and a first area corresponding to the detection area is analyzed in the thermal image. The main point is to extract the maximum temperature of the detection area and determine the fire by comparing the individual permissible temperature of the identified object with the maximum temperature.

Description

인공 지능을 이용한 화재 감시 시스템 및 그 제어 방법 {Fire monitoring system using artificial intelligence and method thereof}Fire monitoring system using artificial intelligence and its control method {Fire monitoring system using artificial intelligence and method thereof}

본 개시는 화재 감시 시스템 및 그 제어 방법에 대한 것으로서, 구체적으로, 인공 지능을 이용한 화재 감시 시스템 및 그 제어 방법에 대한 기술이다.The present disclosure relates to a fire monitoring system and a control method thereof, and specifically, to a fire monitoring system using artificial intelligence and a control method thereof.

최근 들어 대형화재의 발생 빈도가 꾸준히 증가하며, 화재와 안전에 대한 국민적 관심이 높아지고 있다. 지난 사례로는 큰 화재로 다수의 인원이 사망하고 사상하는 등 인명피해가 다수 발생하였다. 특히, 화재발생 시 골든 타임을 지키는 것은 매우 중요한 요소로 적용되지만 최근 인명피해가 발생한 화재 사례에서는 스프링클러가 작동하지 않거나 초기 신고 및 대응이 늦어져 대형 화재로 이어졌다는 공통점이 있다. 또한 여름철 열감지기의 오작동 및 화재수신반에 대한 관리자의 의식 부족으로 인하여 화재수신기를 끈 상태를 유지하는 사례가 빈번히 발생하고 있다In recent years, the frequency of large-scale fires has steadily increased, and public interest in fire and safety has increased. In the past case, a large number of people died and many people were injured due to a large fire. In particular, keeping the golden time in the event of a fire is applied as a very important factor, but recent fire cases in which human casualties have occurred have in common that sprinklers do not work or initial reporting and response are delayed, leading to large-scale fires. In addition, due to the malfunction of the heat detector in summer and the manager's lack of awareness about the fire receiver, there are frequent cases in which the fire receiver is turned off.

화재 출동 건수와 오인출동 건수를 보여주고 있는데 매해 그 발생 건수가 증가하고 있는 추세이며, 특히 화재 출동 건수에 비해 오인출동 건수의 증가 폭이 더 큰 것으로 나타났다. 또한 전체 출동 건수 중에 60% 정도가 오인출동으로 정작 소방력을 필요로 하는 현장에 출동하지 못하는 경우가 발생할 수 있다. 따라서 감지기의 오작동을 줄이고 화재 시 화재감지기의 기능을 정상적으로 발휘할 수 있도록 유지 관리와 점검이 정확하게 이루어져야 하지만, 실제 화재 발생시 연기 감지기의 작동 지연 및 부작동 등 신뢰성 저하로 인하여 인명 및 재산 피해가 크게 증가하고 있다.It shows the number of fire dispatches and the number of misplaced dispatches, and the number of occurrences tends to increase every year. In addition, about 60% of the total number of mobilization cases may not be mobilized to the site where firefighting power is needed due to the dispatch of the wrong person. Therefore, maintenance and inspection must be performed accurately to reduce malfunction of the detector and ensure that the fire detector functions normally in the event of a fire. there is.

종래 기술의 경우, 정지된 카메라를 활용하여 이전 이미지, 이후 이미지의 변화를 감지하여 연기, 불꽃을 감지하거나 고정된 영역의 온도 변화를 감지하여 화재를 탐지하는 방식을 사용하였다. 그러나, 이러한 경우, 카메라 자체가 움직이는 환경에서는 화재 감지의 정확성이 떨어지는 문제점이 있었다. In the case of the prior art, a method of detecting smoke or flame by detecting a change in a previous image or a subsequent image using a still camera or detecting a fire by detecting a temperature change in a fixed area was used. However, in this case, there is a problem in that the accuracy of fire detection is lowered in an environment where the camera itself moves.

본 발명의 목적은 기존의 화재 감지를 위한 온도 변화 검출 방식, 불꽃 감지를 위한 칼라 필터 사용 방식의 오작동 케이스를 감소시키기 위해서 감시 대상을 정확하게 식별하고 대상 별 안전 온도 데이터 베이스를 이용하여 화재 발생을 파악하는 화재 감시 시스템 및 그 제어 방법을 제공하는데 있다.An object of the present invention is to accurately identify a monitoring target and identify fire occurrence by using a safety temperature database for each target in order to reduce malfunction cases of the existing temperature change detection method for fire detection and color filter use method for flame detection. It is to provide a fire monitoring system and its control method.

본 발명의 목적은 이동 중인 로봇에 탑재된 카메라로 인한 불꽃을 정확하게 감지하지 못하는 것을 줄이기 위하여 불꽃이 감지된 객체 영역의 온도를 측정하는 열화상 이미지를 활용하여 화재 발생을 파악하는 화재 감시 시스템 및 그 제어 방법을 제공하는데 있다.An object of the present invention is a fire monitoring system that detects the occurrence of a fire by using a thermal image that measures the temperature of an object area where a flame is detected in order to reduce the inability to accurately detect a flame caused by a camera mounted on a moving robot, and the same It is to provide a control method.

본 발명의 목적은 실화상 이미지와 열화상 이미지를 기초로 객체를 복수의 영역으로 분할하고, 영역 별로 온도를 확인하여 화재가 발생한 위치를 정확하게 감지할 수 있는 화재 감시 시스템 및 그 제어 방법을 제공하는데 있다.An object of the present invention is to provide a fire monitoring system capable of accurately detecting the location of a fire by dividing an object into a plurality of regions based on a real image and a thermal image, and checking the temperature of each region, and a control method therefor. there is.

본 개시의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 개시의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 개시의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present disclosure can be understood by the following description, and will be more clearly understood by the embodiments of the present disclosure. Furthermore, it will be readily apparent that the objects and advantages of the present disclosure may be realized by means of the instrumentalities and combinations thereof set forth in the claims.

본 개시의 일 실시예에 따른, 인공 지능을 이용한 화재 감시 시스템의 제어 방법은, 실화상 영상 및 열화상 영상을 이동 로봇으로부터 수신하는 단계; 상기 실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지하는 단계; 상기 연기 및 불꽃 중 적어도 하나에 대응하는 감지 영역을 실화상 영상으로부터 추출하는 단계; 상기 감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별하는 단계; 상기 열화상 영상에서 상기 감지 영역에 대응하는 제 1 영역을 분석하여 상기 감지 영역의 최고 온도를 추출하는 단계; 및 식별된 상기 객체의 개별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정하는 단계를 포함한다. According to an embodiment of the present disclosure, a control method of a fire monitoring system using artificial intelligence includes receiving a real image and a thermal image from a mobile robot; detecting at least one of smoke and flame by analyzing the real image; extracting a detection area corresponding to at least one of the smoke and the flame from a real image; individually identifying at least one object included in the sensing area; extracting a maximum temperature of the sensing area by analyzing a first area corresponding to the sensing area in the thermal image; and determining a fire by comparing the individual permissible temperature of the identified object with the maximum temperature.

본 발명의 일 실시예에 따르면, 기존의 화재 감지를 위한 온도 변화 검출 방식, 불꽃 감지를 위한 칼라 필터 사용 방식의 오작동 케이스를 감소시키기 위해서 감시 대상을 정확하게 식별하고 대상 별 안전 온도 데이터 베이스를 이용하여 화재 발생을 보다 정확하게 파악할 수 있으므로 사용자 편의성을 향상시킬 수 있다.According to an embodiment of the present invention, in order to reduce malfunction cases of the existing temperature change detection method for fire detection and color filter use method for flame detection, a monitoring target is accurately identified and a safety temperature database for each target is used. User convenience can be improved because fire occurrence can be identified more accurately.

본 발명의 다른 실시 예에 따르면, 이동 중인 로봇에 탑재된 카메라로 인한 불꽃을 정확하게 감지하지 못하는 것을 줄이기 위하여 불꽃이 감지된 객체 영역의 온도를 측정하는 열화상 이미지를 활용하여 화재 발생을 보다 정확하게 파악할 수 있으므로 사용자 편의성을 향상시킬 수 있다.According to another embodiment of the present invention, in order to reduce the inability to accurately detect flames caused by a camera mounted on a moving robot, a thermal image measuring the temperature of an object area where a flame is detected is used to more accurately determine the occurrence of a fire. Therefore, user convenience can be improved.

본 발명의 다른 실시 예에 따르면, 실화상 이미지와 열화상 이미지를 기초로 객체를 복수의 영역으로 분할하고, 영역 별로 온도를 확인하여 화재가 발생한 위치를 보다 정확하게 감지할 수 있으므로 화재 진압을 효과적으로 할 수 있다. According to another embodiment of the present invention, an object can be divided into a plurality of regions based on a real image and a thermal image, and the location of a fire can be more accurately detected by checking the temperature for each region, thereby effectively suppressing a fire. can

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명의 일 실시예에 따른 객체 이상 감시와 제거를 위한 시스템을 개략적으로 도시한 도면이다.
도 2는 주행 로봇의 기능 구성에 관한 블록도이다.
도 3은 주행 로봇에 관한 사시도이다.
도 4는 주행 로봇이 궤도를 따라 주행하는 것을 도시한 사시도이다.
도 5는 관제 서버의 기능 구성에 관한 블록도이다.
도 6은 본 발명의 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법을 나타내는 순서도이다.
도 7 내지 도 9는 본 발명의 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 따라 구현되는 동작을 나타낸 도면이다.
도 10은 본 발명의 또 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법을 나타내는 순서도이다.
도 11 내지 도 15는 본 발명의 또 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 따라 구현되는 동작을 나타낸 도면이다.
도 16은 본 발명의 일 실시예에 따른, 화재 감시 시스템의 구성을 도시한 도면이다.
도 17은 본 발명의 일 실시예에 따른, 화재 감시 시스템의 제어 방법을 도시한 도면이다.
도 18은 본 발명의 일 실시예에 따른, CNN의 구조를 도시한 도면이다.
도 19는 본 발명의 일 실시예에 따른, 화재 감지에 사용된 불꽃, 연기, 연무를 도시한 도면이다.
도 20은 본 발명의 일 실시예에 따른, CNN을 이용하여 불꽃, 연기를 감지하는 프로세스를 도시한 도면이다.
도 21은 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 프로세스를 도시한 도면이다.
도 22는 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 실시 예를 도시한 도면이다.
도 23은 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 실시 예를 도시한 도면이다.
도 24는 본 발명의 일 실시예에 따른, 식별된 객체의 영역을 세분화하는 실시 예를 도시한 도면이다.
도 25는 본 발명의 일 실시예에 따른, 열화상 영상에서 영역 별 최고 온도를 감지하는 실시 예를 도시한 도면이다.
도 26은 본 발명의 일 실시예에 따른, 객체 별 최고 온도와 DB에 저장된 안전 온도를 비교하여 화재 경보를 실행하는 실시 예를 도시한 도면이다.
1 is a diagram schematically illustrating a system for monitoring and removing an anomaly of an object according to an embodiment of the present invention.
2 is a block diagram of a functional configuration of a driving robot.
3 is a perspective view of a traveling robot.
4 is a perspective view illustrating a traveling robot traveling along a track.
5 is a block diagram of a functional configuration of a control server.
6 is a flowchart illustrating a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention.
7 to 9 are diagrams illustrating operations implemented according to a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention.
10 is a flowchart illustrating a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention.
11 to 15 are diagrams illustrating operations implemented according to a method for monitoring and removing an abnormal object according to another embodiment of the present invention.
16 is a diagram showing the configuration of a fire monitoring system according to an embodiment of the present invention.
17 is a diagram illustrating a control method of a fire monitoring system according to an embodiment of the present invention.
18 is a diagram showing the structure of a CNN according to an embodiment of the present invention.
19 is a diagram illustrating flame, smoke, and haze used for fire detection according to an embodiment of the present invention.
20 is a diagram illustrating a process of detecting flames and smoke using a CNN according to an embodiment of the present invention.
21 is a diagram illustrating a process of identifying an object using YOLOv2, according to an embodiment of the present invention.
22 is a diagram illustrating an example of identifying an object using YOLOv2 according to an embodiment of the present invention.
23 is a diagram illustrating an example of identifying an object using YOLOv2 according to an embodiment of the present invention.
24 is a diagram illustrating an example of subdividing an area of an identified object according to an embodiment of the present invention.
25 is a diagram illustrating an example of detecting a maximum temperature for each region in a thermal image according to an embodiment of the present invention.
26 is a diagram illustrating an example of executing a fire alarm by comparing a maximum temperature for each object with a safety temperature stored in a DB according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing the embodiments of the present disclosure, if it is determined that a detailed description of a known configuration or function may obscure the gist of the present disclosure, a detailed description thereof will be omitted. And, in the drawings, parts irrelevant to the description of the present disclosure are omitted, and similar reference numerals are attached to similar parts.

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components that are distinguished from each other are intended to clearly explain each characteristic, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form a single hardware or software unit, or a single component may be distributed to form a plurality of hardware or software units. Accordingly, even such integrated or distributed embodiments are included in the scope of the present disclosure, even if not mentioned separately.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Therefore, an embodiment composed of a subset of components described in one embodiment is also included in the scope of the present disclosure. In addition, embodiments including other components in addition to the components described in various embodiments are also included in the scope of the present disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Therefore, an embodiment composed of a subset of components described in one embodiment is also included in the scope of the present disclosure. In addition, embodiments including other components in addition to the components described in various embodiments are also included in the scope of the present disclosure.

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다.In the present disclosure, terms such as first and second are used only for the purpose of distinguishing one element from another, and do not limit the order or importance of elements unless otherwise specified. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment may be referred to as a first component in another embodiment. can also be called

본 개시의 어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 “직접 연결되어” 있다거나, “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component of the present disclosure is referred to as “connected” or “connected” to another component, it may be directly connected or connected to the other component, but there may be other components in the middle. It should be understood that it may be On the other hand, when a component is referred to as “directly connected” or “directly connected” to another component, it should be understood that no other component exists in the middle.

또한, 본 개시에 있어서 본 개시의 실시예를 도시한 일 도면이 다른 도면과 양자 택일의 실시예에 해당하지 않는 한 각 도면에 대한 설명은 서로 다른 도면에 적용될 수 있다. In addition, in the present disclosure, the description of each drawing may be applied to different drawings unless one drawing showing an embodiment of the present disclosure corresponds to another drawing and an alternative embodiment.

이하, 도면을 참조하여 본 개시에 대하여 더욱 상세하게 설명할 것이다.Hereinafter, the present disclosure will be described in more detail with reference to the drawings.

도 1 내지 도 5를 참조하여, 본 발명의 일 실시예에 따른 객체 이상 감시와 제거를 위한 시스템에 대하여 설명하기로 한다.Referring to FIGS. 1 to 5 , a system for monitoring and removing an abnormal object according to an embodiment of the present invention will be described.

도 1은 본 발명의 일 실시예에 따른 객체 이상 감시와 제거를 위한 시스템을 개략적으로 도시한 도면이다. 도 2는 주행 로봇의 기능 구성에 관한 블록도이고, 도 3은 주행 로봇에 관한 사시도이다. 1 is a diagram schematically illustrating a system for monitoring and removing an anomaly of an object according to an embodiment of the present invention. 2 is a block diagram of the functional configuration of the driving robot, and FIG. 3 is a perspective view of the driving robot.

객체 이상 감시와 제거를 위한 시스템(10; 이하, '시스템'이라 함)은 공간 내에 배치된 적어도 하나의 객체의 위험 상황의 발생 여부를 평시 감시하면서 위험 상황을 검출하면 주행 로봇(300)을 위험 상황이 유발된 이상 발생 지점(40)으로 이동시켜 이상 상황을 제거 내지 해소시키는 시스템이다. 이하에서는 위험 상황이 화재인 것을 예시하여 설명하고 있으나, 공간 경비에서 사람 내지 의심 물체의 침입, 잠입 등일 수 있으며, 이에 제한되지 않고 공간 내에서 발생가능한 다양한 이상(또는 비정상) 상황일 수 있다. The system (10; hereinafter referred to as 'the system') for monitoring and removing an abnormal object is monitoring whether or not a dangerous situation occurs in at least one object disposed in the space, and if a dangerous situation is detected, the driving robot 300 is placed in danger. It is a system that removes or solves the abnormal situation by moving to the abnormal occurrence point 40 where the situation is caused. Hereinafter, the dangerous situation is explained by exemplifying a fire, but it may be an intrusion or infiltration of a person or a suspicious object in space security, and may be various abnormal (or abnormal) situations that may occur in the space without being limited thereto.

시스템(10)은 감지 장치(100, 200), 주행 로봇(300) 및 궤도 장치(400) 및 관제 서버를 포함한다. The system 10 includes sensing devices 100 and 200, a driving robot 300 and a track device 400, and a control server.

감지 장치는 공간(20)에서 복수의 객체(30)와 상당 정도로 이격되거나 이에 근접한 위치에 설치되어 화재 등의 이상 상황의 발생 여부를 평시적으로 모니터링한다. 감지 장치(100, 200)는 이격된 위치에 배치되는 고정식 카메라(100) 혹은 근접 위치에 설치되도록 객체(30)의 표면을 따라 온도를 감지하는 광섬유 온도 센서를 구비하는 근접 감지 장치(200)일 수 있다. The sensing device is installed at a location that is considerably spaced apart from or close to the plurality of objects 30 in the space 20 and regularly monitors whether an abnormal situation such as a fire occurs. The sensing devices 100 and 200 may be a fixed camera 100 disposed at a spaced-apart position or a proximity sensing device 200 having an optical fiber temperature sensor for detecting the temperature along the surface of the object 30 so as to be installed at a close position. can

고정식 카메라(100)는 복수의 다양한 장비와 같은 다수의 객체(30)이 존재하는 공간(20)에서 다수의 객체(30)에 관한 영상을 획득하는 장소에 위치될 수 있다. 고정식 카메라(100)는 객체(30)의 영상을 획득하여 관제 서버(500)로 전송하며, 객체(30)의 영상은 화재 발생과 같은 객체 이상 여부를 판단함과 아울러서 화재 발생 지점(40)을 결정하는데 이용되는 감지 데이터일 수 있다. 고정식 카메라(100)을 이용한 화재 발생 지점(40) 및 최근접한 궤도 위치의 산출에 대한 상세 설명은 후술하기로 한다. 고정식 카메라(100)는 지면에 평행을 이루는 수평축을 중심으로 일정한 각도 범위에서 상하 방향으로 회전됨과 아울러서, 지면에 수직인 수직축을 중심으로 일정한 각도 범위에서 좌우 방향으로 회전될 수 있으며, 이에 따라 고정식 카메라(100)는 광범위한 촬영이 가능할 뿐만 아니라 복수 구비되는 경우에 촬영 범위가 상호 중첩되어 객체(30)의 이상 여부를 더욱 신속하게 확인할 수 있다. 또한, 고정식 카메라(100)는 줌 인아웃 기능을 구비함으로써 이상 여부가 의심스러운 객체(30)의 영상을 확대하여 획득하여 이상 여부를 더 정확하게 판단하는데 기여한다. 고정식 카메라(100)는 일반적인 CCTV 또는 PTZ 카메라일 수 있다.The fixed camera 100 may be located in a place where images of a plurality of objects 30 are acquired in a space 20 where a plurality of objects 30 such as a plurality of various equipment exist. The fixed camera 100 acquires an image of the object 30 and transmits it to the control server 500, and the image of the object 30 determines whether the object is abnormal, such as a fire, and also determines the fire occurrence point 40. It may be the sensing data used to make the decision. A detailed description of the calculation of the location of the fire occurrence point 40 and the nearest trajectory using the fixed camera 100 will be described later. The fixed camera 100 can be rotated up and down in a certain angular range around a horizontal axis parallel to the ground, as well as rotated left and right in a certain angular range around a vertical axis perpendicular to the ground. Accordingly, the fixed camera 100 (100) is not only possible to take a wide range of images, but also, when a plurality of them are provided, the shooting ranges overlap with each other, so that it is possible to more quickly check whether the object 30 is abnormal. In addition, the fixed camera 100 contributes to more accurately determining abnormality by acquiring an enlarged image of the object 30 having a suspicious abnormality by having a zoom in-out function. The fixed camera 100 may be a general CCTV or PTZ camera.

근접 감지 장치(200)는 공간(20) 내에서 고정식 카메라(100)의 영상 획득이 곤란한 시설물에 위치될 수 있다. 예컨대 지면의 수직 방향으로 다층으로 적층된 파이프 및/또는 전기 배선과 같은 전기계통설비인 경우에, 중간층에 있는 시설물 또는 다발 형태의 전기 배선들 내부에 배치된 전기 배선에 대해서는 고정식 카메라(100)에 의한 화재 초기 발견이 실질적으로 곤란하다. 이와 같은 객체의 이상 고온, 화재 발생 여부를 보다 신속히 파악되도록, 근접 감지 장치(200)가 구비하는 광섬유 온도 센서가 고정식 카메라(100)에 의해 감지 곤란한 객체(30)의 표면을 따라 장착되어 해당 객체(30)의 온도 및 화재 발생 여부를 감지할 수 있다. 광섬유 온도 센서는 관제 서버(500)와 광섬유를 통해 광통신이 가능한 소재로 구성될 수 있으며, 광섬유 온도 센서는 연장 방향을 따라 소정 간격으로 지정된 위치 데이터를 가질 수 있도록 관제 서버(500)에 의해 설정될 수 있다. 이에 따라, 광섬유 온도 센서가 객체(30)의 화재에 의해 단선되는 경우에, 광통신은 단선되는 이상 발생 지점(40)과 관제 서버(500)에 서만 이루어지므로, 관제 서버(500)는 광통신 가능 지점에 해당하는 위치 데이터에 의거하여 객체(30)의 이상 발생 지점(40)을 산출할 수 있다. 이상 발생 지점(40)이 산출되면 이에 기반한 최근접한 궤도 위치는 관제 서버(500)에 의해 산출될 수 있다 The proximity sensing device 200 may be located in a facility in which it is difficult to obtain an image of the fixed camera 100 within the space 20 . For example, in the case of electrical system facilities such as pipes and/or electrical wires stacked in multiple layers in the vertical direction of the ground, the fixed camera 100 for electrical wires disposed inside facilities or bundled electrical wires in the middle layer It is practically difficult to detect a fire in its early stages. In order to quickly determine whether the object has an abnormal high temperature or a fire, the optical fiber temperature sensor of the proximity sensing device 200 is mounted along the surface of the object 30, which is difficult to detect by the fixed camera 100, and It can detect the temperature of (30) and whether or not there is a fire. The optical fiber temperature sensor may be made of a material capable of optical communication with the control server 500 through an optical fiber, and the optical fiber temperature sensor may be set by the control server 500 to have location data specified at predetermined intervals along the extension direction. can Accordingly, when the optical fiber temperature sensor is disconnected due to a fire of the object 30, optical communication is performed only at the disconnected abnormal occurrence point 40 and the control server 500, so the control server 500 is an optical communication possible point. An abnormal occurrence point 40 of the object 30 may be calculated based on location data corresponding to . When the anomaly occurrence point 40 is calculated, the closest trajectory position based thereon may be calculated by the control server 500.

주행 로봇(300)은 궤도 장치의 제 1 궤도(402)를 따라 주행하여, 감지 장치와 함께 주기적으로 복수 객체(30)의 화재 발생 여부를 평시 모니터링한다. 또한, 주행 로봇(300)은 감지 장치에 의해 객체(30)의 이상이 검출된 경우, 객체(30)의 이상 발생 지점(40)과의 최소 거리 위치로 제공되도록 제어되며 객체의 이상을 확인하여 제거한다. 아울러, 주행 로봇(300)이 감지 장치(100, 200)보다 먼저 객체(30)의 이상을 감지하여 관제 서버(500)에 전송할 수 있으며, 이 경우에 주행 로봇(300)이 이상 발생 지점(40)에 최근접한 궤도 위치로 이동하면서 이상 발생 지점(40)과의 최소 거리 위치로 제공되도록 이동 혹은 주행 로봇(300)의 자세 제어가 실행될 수 있다. 다른 예로, 주행 로봇(300)이 먼저 이상을 감지한 경우에, 주행 로봇(300)은 자신이 객체(30)로부터 획득한 감지 데이터를 관제 서버(500)에 전송하며, 관제 서버(500)는 객체(30)가 이상이 있다고 판단한 경우에, 감지 장치(100, 200)와 연동하여 최근접한 궤도 위치를 산출할 수 있다. The driving robot 300 travels along the first track 402 of the track device and periodically monitors whether or not a fire occurs in the plurality of objects 30 together with the detection device. In addition, when an abnormality of the object 30 is detected by the sensing device, the driving robot 300 is controlled to be provided as the minimum distance position from the abnormality occurrence point 40 of the object 30 and checks the abnormality of the object Remove. In addition, the driving robot 300 may detect an abnormality of the object 30 before the sensing devices 100 and 200 and transmit the abnormality to the control server 500. ), posture control of the moving or traveling robot 300 may be executed so as to provide a position at the minimum distance from the anomaly occurrence point 40 while moving to a position closest to the trajectory. As another example, when the driving robot 300 detects an abnormality first, the driving robot 300 transmits the detection data it has acquired from the object 30 to the control server 500, and the control server 500 When it is determined that the object 30 has an abnormality, the closest trajectory position may be calculated in conjunction with the sensing devices 100 and 200 .

도 2 및 도 3을 참조하면, 주행 로봇(300)은 구동부(302), 감지부(304), 이상 제거부(306), 팬틸트(pan-tilt) 조정부(308), 송수신부(310), 메모리(312), 경보부(314), 전원부(316) 및 프로세서(304)를 포함할 수 있다. Referring to FIGS. 2 and 3 , the driving robot 300 includes a driving unit 302, a sensing unit 304, an anomaly removing unit 306, a pan-tilt adjusting unit 308, and a transceiving unit 310. , a memory 312, an alarm unit 314, a power supply unit 316, and a processor 304.

구동부(302)는 궤도 장치에 의해 경로가 설정된 제 1 및 제 2 궤도(402, 408)를 따라 주행 로봇(300)이 주행가능하도록, 모터, 이와 기계적으로 연결된 구동휠 등을 본체(328)에 구비할 수 있으며, 주행 로봇(300)의 이상 제거를 위한 조준의 정확성을 제고하기 위해 주행 로봇(300)을 상하 방향으로 이동시킬 수 있는 높이 조절 리프트를 구비할 수 있다. 높이 조절 리프트는 주행 로봇(300)의 본체(328)와 지지체 사이에 팬터그래프 타입의 관절 구조 또는 수직 방향으로 복수 조합된 유압 실린더를 구비할 수도 있다. The drive unit 302 attaches a motor, a drive wheel mechanically connected thereto, and the like to the main body 328 so that the driving robot 300 can travel along the first and second tracks 402 and 408 set by the track device. In addition, a height-adjustable lift capable of moving the driving robot 300 in a vertical direction may be provided in order to improve aiming accuracy for removing abnormality of the driving robot 300 . The height-adjustable lift may have a pantograph-type joint structure between the main body 328 of the traveling robot 300 and the support or a plurality of hydraulic cylinders combined in a vertical direction.

감지부(304)는 지지체(330) 및 지지 조립체(332)를 통해 본체(328)와 결합되며, 객체(30)의 실화상과 관련된 영상을 획득하는 실화상 카메라(320), 객체(30)의 열을 감지하는 열화상 카메라(318)와 아울러서, 가스 센서, 온도 센서, 소리 인식 센서, 자외선 센서, 위치 센서, 전류/전압 측정기 등의 다양한 센서들을 포함하는 센서 모듈(322)을 포함할 수 있다. The sensing unit 304 is coupled to the main body 328 through the support 330 and the support assembly 332, and includes a visual camera 320 and an object 30 that acquire an image related to the real image of the object 30. In addition to the thermal imaging camera 318 that detects heat, a sensor module 322 including various sensors such as a gas sensor, a temperature sensor, a sound recognition sensor, an ultraviolet sensor, a position sensor, and a current/voltage meter may be included. there is.

감지부(304)는 평시 감시에 있어서 활성화되어 객체(30)의 이상 여부를 확인할 수 있으며, 이상 발생, 예컨대 객체(30)에 화재 발생이 확인된 경우에, 주행 로봇(300)이 최근접한 궤도 위치에 도달하면, 화재 발생 지점(40)을 촬영하여 주행 로봇(300)을 제어하기 위해 필요한 최소 거리 위치를 산출하는데 기여한다. The sensor 304 is activated in normal monitoring to check whether the object 30 is abnormal, and when an abnormal occurrence, for example, a fire in the object 30 is confirmed, the trajectory the driving robot 300 is closest to. When the location is reached, the fire point 40 is photographed to contribute to calculating the minimum distance required to control the driving robot 300.

감지부(304)는 팬틸트 조정부(308)에 의해 좌우 방향 및 상하 방향으로 회전가능하도록 제어될 수 있다 이에 따라, 최근접한 궤도 위치에서 화재 발생 지점(40)으로 근접할수록 이동하는 과정에서, 소정의 고정된 각도로 팬틸트된 감지부(304)와 이상 발생 지점(40)의 중심점 간에 수직이 되도록, 감지부(304)가 취득한 영상에서 객체(30)의 화재 발생 지점(40)이 위치되는 경우가 최소 거리 위치로 결정될 수 있다. 최소 거리 위치는 열화상 카메라(318)로부터 감지된 화재의 최고 온도와 실화상 카메라(320)로부터 획득된 화재의 중심점에 근거하여 결정될 수 있다. 최소 거리 위치의 결정 및 위치/자세 제어의 상세 설명은 후술하기로 한다.The sensing unit 304 can be controlled to be rotatable in the left and right directions and up and down directions by the pan-tilt adjusting unit 308. Accordingly, in the process of moving from the nearest track position to the fire occurrence point 40, a predetermined The fire occurrence point 40 of the object 30 is located in the image acquired by the detection unit 304 such that it is perpendicular between the detection unit 304 pan-tilted at a fixed angle of and the center point of the anomaly occurrence point 40. A case may be determined as the minimum distance location. The minimum distance location may be determined based on the maximum temperature of the fire detected by the thermal imaging camera 318 and the central point of the fire obtained by the visual imaging camera 320 . Determination of the minimum distance position and detailed description of position/posture control will be described later.

이상 제거부(306)는 지지체(330) 및 지지 조립체(332)를 통해 본체(328)와 결합되며, 예컨대 지지 조립체(332)에 감지부(304)와 함께 탑재될 수도 있다. 이상 제거부(306)는 객체(30)의 이상이 화재인 경우에 화재에 대하여 소화제, 예컨대 에어로졸 소화제를 분사하는 소화기(324) 및 소화제를 화재 발생 지점(40)으로 유도하는 분사 유도기(326)를 포함할 수 있다. 도면에 미도시되어 있으나, 분사 유도기(326)는 소화기(324) 주변에 소화제 분사를 원할하게 가이드하는 개소이라면 어느 곳이라도 무방하고, 팬 형태로 구현될 수 있다. 소화제가 에어로졸 타입인 경우에, 화재 중심점이 아닌 주변 불에 주로 분사되면, 에어로졸 소화제로 인해 상승 기류가 발생하여 화재 진압이 원활하게 이루어지지 않을 수 있다. 따라서, 분사 유도기(326)는 실화상 카메라(320), 열화상 카메라(318), 가스 센서, 온도 센서 등의 감지 데이터에 기초하여 도출된 화재 중심점을 향하여 소화제가 분사되도록 소화제 분사 방향을 가이드할 수 있다. The abnormal removal unit 306 is coupled to the main body 328 through the support body 330 and the support assembly 332, and may be mounted together with the detection unit 304 on the support assembly 332, for example. The anomaly removal unit 306 includes a fire extinguisher 324 for injecting a fire extinguishing agent, for example, an aerosol fire extinguishing agent, and an injection inducer 326 for injecting the fire extinguishing agent to the fire occurrence point 40 when the object 30 is abnormal. can include Although not shown in the drawing, the injection inducer 326 may be any location that smoothly guides the fire extinguishing agent injection around the fire extinguisher 324, and may be implemented in a fan shape. When the fire extinguishing agent is an aerosol type, if it is mainly sprayed to the surrounding fire rather than the center of the fire, an upward air current may be generated due to the aerosol fire extinguishing agent, and the fire may not be extinguished smoothly. Therefore, the injection inducer 326 may guide the direction of the fire extinguishing agent spray so that the fire extinguishing agent is sprayed toward the center of the fire derived based on the detected data of the visible camera 320, the thermal image camera 318, the gas sensor, and the temperature sensor. can

이상 제거부(306)는 주행 로봇(300)이 최소 위치 거리에 제공되도록 이동 및/또는 자세 제어된 경우에 가동되며, 팬틸트 조정부(308)에 의해 화재 중심점 등을 감안한 화재 발생 지점(40)으로 조준된 후에, 소화제를 분사할 수 있다.The anomaly removal unit 306 is operated when the mobile robot 300 is moved and/or posture controlled so as to be provided at the minimum position distance, and the fire occurrence point 40 considering the fire center point and the like by the pan-tilt adjustment unit 308 After being aimed at, the fire extinguishing agent can be sprayed.

팬틸트 조정부(308)는 도 3에서와 같이, 본체(328)와 지지체(330) 사이에 마련되어 이상 제거부(306)를 수직축을 따라 좌우 방향으로 회전가능하도록 제어하는 팬 구동조정부(334) 및 지지체(330)와 지지 조립체(332) 사이에 제공되어 이상 제거부(306)를 수평축을 따라 상하 방향으로 회전가능하도록 제어하는 틸트 구동조정부(336)를 구비할 수 있다. As shown in FIG. 3, the pan tilt adjusting unit 308 is provided between the main body 328 and the support 330 and controls the anomaly removing unit 306 to rotate in the left and right directions along a vertical axis. The fan driving adjusting unit 334 and A tilt driving adjustment unit 336 may be provided between the support body 330 and the support assembly 332 to control the anomaly removal unit 306 to rotate in the vertical direction along a horizontal axis.

감지부(304)와 이상 제거부(306)는 일체의 지지 조립체(332)에 탑재되어 팬틸트 조정부(308)의 제어에 의해 동기화되어 소정 방향으로 회전할 수 있다. 이에 따르면, 감지부(304)의 감지 데이터에 기초하여 결정된 최소 거리 위치 및 화재 중심점 등이 이상 제거부(306)의 관점에서도 공유되므로, 이상 제거부(306)는 추가적인 조절없이 최소 거리 위치 등으로 이동/자세 제어될 수 있으며, 현 상태에서 세밀 조준하여 화재를 신속하게 진압할 수 있다. 다른 예에서, 감지부(304)와 이상 제거부(306)가 서로 다른 팬틸트 조정부들에 의해 제어될 수도 있으며, 이 경우에 이상 제거부(306)는 감지부(304)에서 제어된 위치 및 자세를 기초로 제어될 수 있다. The sensing unit 304 and the anomaly removing unit 306 are mounted on the integral support assembly 332 and can rotate in a predetermined direction synchronized by the control of the pan/tilt adjusting unit 308 . According to this, since the minimum distance location and fire center point determined based on the detection data of the sensing unit 304 are also shared from the point of view of the anomaly removal unit 306, the anomaly removal unit 306 moves to the minimum distance location without additional adjustment. Movement/position can be controlled, and the fire can be quickly extinguished by finely aiming in the current state. In another example, the sensing unit 304 and the anomaly removing unit 306 may be controlled by different pan/tilt adjusting units. In this case, the anomaly removing unit 306 controls the position and It can be controlled based on posture.

송수신부(310)는 주행 로봇(300)의 다양한 제어, 객체(30)의 이상 여부와 관련한 감지부(304)의 감지 데이터, 이상 제거와 관련된 데이터, 예컨대 화재 진압 과정의 영상 등을 관제 서버(500)와 송수신하는 모듈일 수 있다. 송수신부(310)는 관제 서버(500)와 유무선 통신을 수행할 수 있으며, 무선 통신의 경우에 근거리 통신으로서 WI-FI, 블루투스 및 지그비 통신 모듈 등으로 구성될 수 있다. The transmission/reception unit 310 transmits various controls of the driving robot 300, detection data of the detection unit 304 related to whether the object 30 is abnormal, data related to removal of anomaly, such as an image of a fire suppression process, etc. to a control server ( 500) and a module that transmits and receives. The transmitting/receiving unit 310 may perform wired/wireless communication with the control server 500, and may be configured with WI-FI, Bluetooth, and ZigBee communication modules as short-range communication in the case of wireless communication.

메모리(312)는 주행 로봇(300)을 제어함과 아울러서 관제 서버(500)로부터 수신된 데이터, 예컨대 복수의 객체 위치를 포함한 공간(20) 전체의 좌표와 같은 위치 데이터, 시스템(10)을 구성하는 장치들(100~400)의 위치 데이터, 이상 발생 지점(40)의 위치 데이터, 이상 발생 지점(40)에 최근접한 궤도 위치 데이터등을 저장할 수 있다. The memory 312 controls the driving robot 300 and configures the data received from the control server 500, for example, location data such as the coordinates of the entire space 20 including the locations of a plurality of objects, and the system 10. The location data of the devices 100 to 400, the location data of the anomaly occurrence point 40, and the trajectory location data closest to the anomaly occurrence point 40 may be stored.

경보부(314)는 이상 발생시에 공간(20) 내에 시각 및/또는 청각적으로 이상 발생 상황을 전파할 뿐만 아니라, 이상 발생 상황에 따른 다양한 방식으로 현 상황을 전파할 수 있다.When an abnormality occurs, the alarm unit 314 not only visually and/or audibly propagates the abnormal occurrence situation within the space 20 , but also may propagate the current situation in various ways according to the abnormal occurrence situation.

전원부(316)는 주행 로봇(300)의 독립적인 동작과 기능이 가능하도록 배터리를 포함할 수 있으며, 화재 등의 이상 발생에 의해 공간(20) 내에 전력 공급이 차단되더라도 주행 로봇(300) 스스로가 화재 발생 지점(40)에 근접하기 위한 위치 계산, 이동, 자세 제어 및 분사 등을 독립적으로 수행할 수 있다. 주행 로봇(300)은 배터리의 잔량이 기준치 이하일 경우에 충전 스테이션으로 이동하여 전원부(316)를 충전시킬 수도 있다. The power supply unit 316 may include a battery to enable independent operation and function of the driving robot 300, and even if power supply is cut off in the space 20 due to an abnormality such as fire, the driving robot 300 itself Position calculation, movement, posture control, spraying, etc. to approach the fire occurrence point 40 can be independently performed. The driving robot 300 may move to a charging station and charge the power supply unit 316 when the battery remaining amount is less than a reference value.

프로세서(304)는 주행 로봇(300)의 상술한 부재의 기능을 제어하고 관제 서버(500)와 송수신된 데이터의 처리를 실행한다. The processor 304 controls the functions of the above-described members of the driving robot 300 and processes data transmitted and received with the control server 500.

도 4는 주행 로봇이 궤도를 따라 주행하는 것을 도시한 사시도이다.4 is a perspective view illustrating a traveling robot traveling along a track.

궤도 장치와 관련하여 도 4 및 도 11을 참조하면, 궤도 장치는 제 1 궤도(402) 및 제 2 궤도(408)를 구비함과 아울러서, 주행 로봇(300)이 제 1 및 제 2 궤도(402, 408) 상호 간에 변경 이동가능하도록 제공되는 전환 분기부(410)를 더 포함할 수 있다. 여기서, 제 2 궤도(408)는 제 1 궤도(402)와 상이한 높이 및 상이한 방향 중 적어도 하나로 연장되도록 설치될 수 있다. 도 11의 실시예에서는 제 1 및 제 2 궤도(402, 408)만이 예시되어 있으나, 공간(20)의 객체 위치 및 시공 환경에 따라 제 1 궤도(402)에 복수의 궤도들이 연결가능하며, 연결 부위마다 전환 분기부(410)가 설치될 수 있다. 4 and 11 in relation to the track device, the track device includes a first track 402 and a second track 408, and the traveling robot 300 has first and second tracks 402 , 408) may further include switching branching units 410 provided to be mutually changeable. Here, the second track 408 may be installed to extend at least one of a different height and a different direction from the first track 402 . In the embodiment of FIG. 11 , only the first and second trajectories 402 and 408 are illustrated, but a plurality of trajectories can be connected to the first trajectory 402 according to the location of an object in the space 20 and the construction environment. A switching branch 410 may be installed for each site.

제 1 및 제 2 궤도(402, 408)는 주기적으로 설치된 로드들(404)을 통해 공간(20)의 소정 개소에 위치된 지지 프레임(406)과 연결되어 고정될 수 있다. 관제 서버(500)의 설정에 따라, 제 1 궤도(402)는 주행 로봇(300)의 평시 감시 및 이상 발생시의 주행 경로 양쪽으로 전부 활용될 수 있도록 지정되고, 제 2 궤도(408)는 이상 발생시에 해당 지점과의 최근접한 궤도 위치로 산출된 경우에 이상 발생시의 보조 주행 경로로 사용되도록 지정될 수 있다. 다른 예에서는 관제 서버(500)의 설정에 따라 제 1 및 제 2 궤도(402, 408) 전부 평시 감시 및 이상 발생시의 주행 경로로 활용될 수 있다. 제 1 궤도(402)와 상이한 높이 및/또는 방향으로 연장된 제 2 궤도(408)가 평시 감시의 경로로 이용되면, 평시 감시의 정확성 및 이상 발생의 신속한 확인이 발휘될 수 있다. The first and second tracks 402 and 408 may be connected to and fixed to a support frame 406 located at a predetermined location in the space 20 through periodically installed rods 404 . According to the settings of the control server 500, the first track 402 is designated so that it can be used for both the normal monitoring of the driving robot 300 and the driving route when an abnormality occurs, and the second track 408 is used when an abnormality occurs. In the case where it is calculated as the closest orbit position to the corresponding point, it can be designated to be used as an auxiliary driving route when an abnormality occurs. In another example, according to the setting of the control server 500, all of the first and second tracks 402 and 408 may be used as normal monitoring and driving routes in case of an abnormality. If the second trajectory 408 extending in a height and/or direction different from the first trajectory 402 is used as a route for normal monitoring, accuracy of normal monitoring and rapid confirmation of occurrence of abnormality can be exerted.

관제 서버(500)에 의해 이상 발생이 판단되어 이상 발생 지점(40)이 산출되고 최근접한 궤도 위치가 제 2 궤도의 소정 위치로 결정된 경우에, 주행 로봇(300)은 제 1 궤도(402)로 주행하는 상황에서 전환 분기부(410)를 통해 제 1 궤도에서 제 2 궤도 상의 최근접한 궤도 위치로 이송될 수 있다. 원활한 궤도 전환 변경을 위해, 전환 분기부(410)에 인접한 제 1 및 제 2 궤도(402, 408)는 전환 분기부(410)와 동일한 높이에 배치될 수 있다. 이에 따라, 주행 로봇(300)이 제 1 궤도(402)로부터 전환 분기부(410)에 진입한 경우에, 전환 분기부(410)는 주행 로봇(300)이 제 2 궤도 측으로 이동할 수 있도록 회전하여 제 2 궤도(408)와 연결되는데 기여한다. When an abnormal occurrence is determined by the control server 500 and the abnormal occurrence point 40 is calculated and the nearest orbit position is determined as a predetermined position of the second orbit, the mobile robot 300 moves to the first orbit 402 In a driving situation, it can be transferred from the first trajectory to the nearest trajectory on the second trajectory through the switching branch 410 . For smooth trajectory change, the first and second trajectories 402 and 408 adjacent to the transition branch 410 may be disposed at the same height as the transition branch 410 . Accordingly, when the driving robot 300 enters the switching branch 410 from the first track 402, the switching branch 410 rotates so that the driving robot 300 can move toward the second track. It contributes to being connected with the second orbit 408.

한편, 주행 로봇(300)이 송수신부(310)를 통해 관제 서버(500)와 WI-FI 통신을 구현하는 경우에, 제 1 궤도(402)는 CRA(Cable type WI-FI Radial Antenna) 케이블을 포함할 수 있다. Meanwhile, when the driving robot 300 implements WI-FI communication with the control server 500 through the transceiver 310, the first track 402 uses a CRA (Cable type WI-FI Radial Antenna) cable. can include

CRA는 케이블형 WI-FI 방사형 안테나를 의미할 수 있다. 일 예로, CRA는 전파가 외부로 방출되어 통신이 가능한 안테나가 구비된 케이블일 수 있다. 일 예로, CRA에는 통신이 가능하도록 슬롯(또는 홈, 영역)이 존재할 수 있다. 이때, 슬롯은 안테나에 대한 역할을 수행할 수 있으며, 슬롯의 길이 또는 기울기 등에 기초하여 통신을 위한 방출되는 전파에 대한 주파수가 다르게 선택될 수 있다. 일 예로, 주행 로봇(300)이 동작하는 주파수는 근거리 통신망에 대한 주파수일 수 있으며, 슬롯은 상술한 주파수 대역을 이용할 수 있도록 설계될 수 있다. 즉, CRA에 대한 슬롯은 주파수를 고려하여 케이블에 설정될 수 있으며, 안테나 역할을 수행할 수 있다. 보다 상세하게는, CRA는 송신기와 송신 안테나 또는 수신 안테나와 수신기 사이를 연결하여 고주파전력을 전송하기 위하여 사용되는 전송 선로를 의미할 수 있다. 이때, 케이블은 CRA에서 획득한 전파 신호를 전송 선로를 통해 서버 또는 다른 장치 등으로 전달할 수 있다. 또는, 케이블은 서버 또는 다른 장치로부터 발생한 신호를 전송 선로를 통해 전달하고, CRA에서 전파로서 방출할 수 있다. 일 예로, CRA는 누설 동축 케이블일 수 있으나, 이에 한정되지 않는다.CRA may mean a cable type WI-FI radial antenna. For example, the CRA may be a cable equipped with an antenna capable of communicating by radiating radio waves to the outside. For example, a slot (or home or area) may exist in the CRA to enable communication. In this case, the slot may serve as an antenna, and a different frequency may be selected for radio waves emitted for communication based on the length or slope of the slot. For example, the frequency at which the driving robot 300 operates may be a frequency for a local area network, and the slot may be designed to use the above-described frequency band. That is, a slot for the CRA may be set in a cable in consideration of frequency and may serve as an antenna. More specifically, the CRA may refer to a transmission line used to transmit radio frequency power by connecting a transmitter and a transmission antenna or between a reception antenna and a receiver. In this case, the cable may transmit the radio signal obtained from the CRA to a server or other device through a transmission line. Alternatively, the cable may transmit a signal generated from a server or other device through a transmission line and emit it as a radio wave at the CRA. As an example, the CRA may be a leaky coaxial cable, but is not limited thereto.

주행 로봇(300)은 구비된 케이블을 따라 이동할 수 있다. 일 예로, 주행 로봇(300)의 무게(또는 하중)는 케이블에서 이동 가능하도록 설계될 수 있다. 즉, 별도의 궤도를 설치하지 않고, 일반 궤도를 통해 주행 로봇(300)이 이동할 수 있다. 한편, 주행 로봇(300)은 구동부(302)를 통해 일반 궤도로서 기구비된 케이블을 이동할 수 있다. 이때, 주행 로봇(300)은 일반 궤도에서 CRA를 통해 무선 통신을 수행할 수 있다.The traveling robot 300 may move along the provided cables. For example, the weight (or load) of the driving robot 300 may be designed to be movable on a cable. That is, the traveling robot 300 can move through a general track without installing a separate track. On the other hand, the driving robot 300 can move the cable equipped as a general track through the drive unit 302 . At this time, the driving robot 300 may perform wireless communication through the CRA in a normal track.

또 다른 일 예로, 주행 로봇(300)은 주행 로봇(300)이 포함하는 장비 또는 장치 등을 고려하여 CRA 및 지지선(또는 강선)을 궤도로 주행할 수 있다. 이때, 주행 로봇(300)은 케이블카와 같이 일정한 강선에 연결되어 주행될 수 있다. 또 다른 일 예로, 주행 로봇(300)에 하중이 큰 장치가 탑재된 경우, 주행 로봇(300)은 CRA를 장착(또는 삽입)한 프로파일(e.g. 알루미늄 또는 강철)을 궤도로 이용하여 주행할 수 있다. 즉, 주행 로봇(300)은 CRA 삽입형 궤도로서 큰 하중을 견딜 수 있는 궤도를 통해 주행할 수 있다As another example, the driving robot 300 may travel along the CRA and the support line (or steel line) in consideration of equipment or devices included in the driving robot 300 . At this time, the traveling robot 300 may be driven by being connected to a certain steel wire like a cable car. As another example, when a device with a large load is mounted on the driving robot 300, the driving robot 300 may travel using a profile (eg aluminum or steel) to which the CRA is mounted (or inserted) as a track. . That is, the driving robot 300 can travel through a track that can withstand a large load as a CRA insertion type track.

다른 예에서는 제 1 및 제 2 궤도(402, 408) 전부 CRA 케이블을 전부 포함하도록 설치될 수도 있다.In another example, all of the first and second tracks 402 and 408 may be installed to include all of the CRA cables.

이와 같이 궤도에 포함되는 CRA 케이블은 내연성을 가지고 있어, 화재 발생으로 인한 통신 불량을 억제할 수 있다. 또한 기존에는 주행 로봇(300)이 전선 및 통신선에 접촉하여 데이터 전송이 가능할 수 있었다. 다만, 주행 로봇(300)은 사람의 접근이 어려운 지역으로 지하 시설이나 고온, 고압 등의 환경에서 주행할 수 있다. 이때, 기존과 같이 주행 로봇(300)이 접촉형 궤도를 통해 데이터를 전송하는 경우에 상술한 환경을 고려한 주행 로봇(300)을 구현하는데 한계가 있었다. 이러한 점을 고려하여 주행 로봇(300)은 CRA를 통한 무선 통신으로서 감지부(304)에서 획득한 정보를 서버(또는 CMS)에 전달할 수 있도록 설계될 수 있다.In this way, the CRA cable included in the track has flame resistance, and thus, communication failure due to a fire can be suppressed. Also, in the past, the driving robot 300 could transmit data by contacting wires and communication lines. However, the driving robot 300 may travel in an environment where human access is difficult, such as an underground facility or high temperature and high pressure. At this time, in the case where the driving robot 300 transmits data through a contact-type track as in the past, there is a limit to implementing the driving robot 300 considering the above environment. Considering this point, the driving robot 300 may be designed to transmit information obtained from the sensor 304 to a server (or CMS) through wireless communication through CRA.

도 5는 관제 서버의 기능 구성에 관한 블록도이다. 5 is a block diagram of a functional configuration of a control server.

관제 서버(500)는 감지 장치(100, 200), 주행 로봇(300) 및 궤도의 전환 변경 등을 제어함과 아울러서, 감지 장치(100, 200)와 주행 로봇(300)으로부터 수신된 감지 데이터에 기초하여 이상 발생 여부 판단, 이상 발생 지점(40) 등과 관련된 각종 위치 데이터, 이상 제거 과정 중의 주행 로봇(300)의 거동 제어 등을 처리할 수 있다. The control server 500 controls the switching and changing of the sensing devices 100 and 200, the driving robot 300 and the trajectory, as well as the detection data received from the sensing devices 100 and 200 and the driving robot 300. Based on this, it is possible to process whether or not an abnormality has occurred, various location data related to the abnormal occurrence point 40, and the like, and control the behavior of the driving robot 300 during the anomaly removal process.

관제 서버(500)는 구체적으로 송수신부(502), 메모리(504), 분석부(506), 위치 산출부(508) 및 프로세서(510)를 포함할 수 있다. The control server 500 may include a transceiver 502 , a memory 504 , an analysis unit 506 , a location calculation unit 508 and a processor 510 in detail.

송수신부(502)는 감지 장치(100, 200) 및 주행 로봇(300)과 정의된 통신 방식으로 데이터를 교환하는 모듈을 구비할 수 있으며, 주행 로봇(300)이 WI-FI로 통신하는 경우에, 송수신부(502)는 제 1 궤도(402)에 내장된 CRA 케이블을 이용하여 주행 로봇(300)과 통신할 수도 있다.The transceiver 502 may include a module for exchanging data with the sensing devices 100 and 200 and the driving robot 300 in a defined communication method, and when the driving robot 300 communicates with WI-FI , The transmission/reception unit 502 may communicate with the driving robot 300 using a CRA cable built into the first track 402 .

메모리(504)는 관제 서버(500)를 운영하는 프로그램 뿐만 아니라, 다양한 데이터를 저장할 수 있다. 저장되는 데이터는 위치 데이터, 감지 장치와 주행 로봇(300)이 평시 또는 화재시 진압 과정 등에서 취득한 영상, 온도, 가스 유무, 소리 등의 감지 데이터 등을 저장할 수 있다. The memory 504 may store various data as well as programs for operating the control server 500 . The stored data may store location data, images obtained by the sensing device and the driving robot 300 during normal or fire suppression processes, and sensing data such as temperature, presence of gas, sound, and the like.

위치 데이터는 복수의 객체(30)의 위치 정보를 포함하는 공간(20) 전체의 좌표와 같은 위치 데이터, 시스템(10)을 구성하는 장치들(100~400)의 위치 데이터, 이상 발생 지점(40)의 위치 데이터, 이상 발생 지점(40)에 최근접한 궤도 위치 데이터 등일 수 있다. 공간 전체의 좌표는 객체(30)가 배치된 공간(20) 시공시에 기초가 된 건축도면 및 3차원 스캐너(예를 들어 Lidar 스캐너)에 의해 획득된 3차원 공간 정보 중 적어도 어느 하나에 기초하여 구축될 수 있다. The location data includes location data such as coordinates of the entire space 20 including location information of a plurality of objects 30, location data of the devices 100 to 400 constituting the system 10, and anomaly occurrence point 40. ), orbital position data closest to the anomaly occurrence point 40, and the like. The coordinates of the entire space are based on at least one of the three-dimensional space information obtained by the architectural drawing and the three-dimensional scanner (for example, Lidar scanner) based on construction of the space 20 in which the object 30 is placed. can be built

분석부(506)는 머신 러닝 방식으로 학습된 모델에 의해, 감지 장치(100, 200), 실화상 카메라(320), 열화상 카메라(318), 가스 센서, 온도 센서, 소리 인식 센서, 위치 센서 등으로부터 검출된 객체(30)에 대한 화재 발생 여부를 분석하여 판단할 수 있다. 고정식 카메라(100)의 경우에, 분석부(506)는 객체(30)의 영상을 구성하는 RGB 픽셀을 분석하여 색상과 움직임 형태 등을 분석함과 아울러서, 열화상 카메라(318), 가스 센서, 소리 인식 센서 등으로부터 획득된 객체(30)의 온도 분포, 화재시 발생하는 특정 가스의 검지 정보, 화재시 유발되는 소리 검지 정보 등을 종합적으로 분석하여, 화재 발생 여부를 분석 판단할 수 있다. The analysis unit 506 uses the model learned through the machine learning method to detect devices 100 and 200, a real image camera 320, a thermal image camera 318, a gas sensor, a temperature sensor, a sound recognition sensor, and a location sensor. It can be determined by analyzing whether or not a fire has occurred in the object 30 detected from the lamp. In the case of the fixed camera 100, the analysis unit 506 analyzes the RGB pixels constituting the image of the object 30 to analyze the color and movement type, and the thermal imaging camera 318, the gas sensor, It is possible to analyze and determine whether a fire has occurred by comprehensively analyzing the temperature distribution of the object 30 obtained from the sound recognition sensor, detection information of a specific gas generated in case of fire, and detection information of sound caused in case of fire.

머신 러닝 기능에 의하면, 분석부(506)는 학습 데이터 세트(Training Data Set)를 통해 대상의 이상 여부를 판단할 수 있다. 이때, 학습 데이터 세트는 메모리(504)에 저장된 과거 입력 정보 및 머신 러닝에 의해 생성된 모델일 수 있다. 즉, 분석부(506)는 과거 입력 정보를 머신 러닝으로 학습하여 이상 여부를 판단하는 모델을 생성할 수 있고, 이에 기초하여 감지 장치(100, 200) 등으로부터 수신한 실시간 입 감지 데이터를 비교하여 이상 여부를 판단할 수 있다.According to the machine learning function, the analysis unit 506 may determine whether the object is abnormal through a training data set. In this case, the training data set may be past input information stored in the memory 504 and a model generated by machine learning. That is, the analysis unit 506 may learn past input information through machine learning to create a model for determining abnormalities, and based on this, compare real-time mouth detection data received from the detection devices 100 and 200 to abnormality can be judged.

이를 통해, 분석부(506)는 객체(30)의 이상 여부를 판단할 수 있고, 이상 여부에 대한 정보를 주행 로봇(300)으로 제공할 수 있다. 주행 로봇(300)은 관제 서버(500)로부터 받은 정보에 기초하여 객체(30)에 대한 추가 입력 정보가 필요한지 여부를 판단할 수 있다. 주행 로봇(300)이 추가 입력 정보가 필요하다고 판단한 경우, 주행 로봇(300)은 대상에 대한 보다 구체적인 정보를 획득하고, 이를 관제 서버(500)로 전송할 수 있다. 관제 서버(500)는 객체(30)에 대한 보다 구체적인 정보를 바탕으로, 객체(30)의 이상 여부를 최종적으로 판단하고, 이에 대한 정보를 저장하여 제공할 수 있다. 또한, 상술한 이상 여부에 대한 모델에 추가 정보를 재학습시켜 모델을 업데이트할 수 있다.Through this, the analysis unit 506 can determine whether the object 30 is abnormal, and can provide information on whether or not the object 30 is abnormal to the driving robot 300 . The driving robot 300 may determine whether additional input information for the object 30 is required based on information received from the control server 500 . When the driving robot 300 determines that additional input information is needed, the driving robot 300 may acquire more specific information about the target and transmit it to the control server 500 . The control server 500 may finally determine whether or not the object 30 is abnormal based on more specific information about the object 30 , and store and provide information thereon. In addition, the model may be updated by re-learning additional information on the above-described abnormalities.

위치 산출부(508)는 감지 장치(100, 200)에 의해 이상이 감지된 객체의 이상 발생 지점(40)과 아울러서 이에 기반한 최근접한 궤도 위치를 결정할 수 있다. The location calculation unit 508 may determine the nearest trajectory location based on the anomaly occurrence point 40 of the object where the anomaly is detected by the sensing devices 100 and 200 .

고정식 카메라(100)에 의한 경우에, 위치 산출부(508)는 공간(20) 전체의 위치 데이터, 고정식 카메라(100)로부터 획득된 영상 내에서 화재가 발생한 객체(30)의 화각 및 고정식 카메라(100)의 위치 데이터에 기초하여 화재 발생 지점(40)의 위치 데이터(좌표)를 산출할 수 있다. In the case of the fixed camera 100, the location calculation unit 508 includes the location data of the entire space 20, the angle of view of the object 30 on fire within the image obtained from the fixed camera 100, and the fixed camera ( Location data (coordinates) of the fire point 40 may be calculated based on the location data of 100).

광섬유 온도 센서가 구비된 근접 감지 장치(200)에 의한 경우에. 위치 산출부(508)는 화재에 의해 객체(30) 상에 설치된 광섬유 온도 센서가 단선되는 위치 데이터를 객체(30)의 화재 발생 지점(40)으로 산출할 수 있다.In the case of a proximity sensing device 200 equipped with a fiber optic temperature sensor. The location calculation unit 508 may calculate location data where an optical fiber temperature sensor installed on the object 30 is disconnected due to a fire as the fire occurrence point 40 of the object 30 .

또한, 위치 산출부(508)는 상술한 화재 발생 지점(40)에서 제 1 및 제 2 궤도들(402, 408) 중 가장 근접한 궤도를 탐색하고, 탐색된 궤도 상의 연속되는 좌표들 중 화생 발생 지점과 최근접한 궤도 위치를 산출할 수 있다. 이에 더하여, 위치 산출부(508)는 주행 로봇(300)이 최근접한 궤도 위치에 도달한 경우에, 주행 로봇(300)의 감지부(304)가 화재의 중심점과 대면하는 감지 각도가 팬틸트 조정부(308)에 의해 가변하면서 상기 각도가 90 도 또는 270도가 되도록, 화재 중심점이 감지부(304)의 영상에서 상기 각도로 해당하는 지점에 위치된 경우를 최소 거리 위치로 결정할 수 있다. 관제 서버(500)에서 결정된 최소 거리 위치에 따라, 주행 로봇(300)은 위치 이동 및 자세 제어가 이루어질 수 있다. 본 실시예에서는 최소 거리 위치가 관제 서버(500)에 의해 산출되는 것으로 예시하고 있으나, 공간(20)의 정전으로 인해 전원 공급 차단 내지 관제 서버(500)와 통신 불량 등으로 인해 주행 로봇(300)이 자율적으로 상술한 과정으로 최소 위치 거리를 결정하며, 이에 따른 위치 이동 및 자세 제어가 이루어질 수 있다. 상술한 비정상적인 상황이 아니더라도, 사용자의 설정에 따라 관제 서버(500)의 개입이 없이, 주행 로봇(300)이 최소 위치 거리를 산출 결정하도록 설정될 수 있다. In addition, the location calculation unit 508 searches for the closest trajectory among the first and second trajectories 402 and 408 from the above-described fire occurrence point 40, and the degeneration point among the consecutive coordinates on the searched trajectory. and the nearest orbit position can be calculated. In addition, the position calculation unit 508 determines that the sensing angle at which the sensing unit 304 of the driving robot 300 faces the center point of the fire when the driving robot 300 reaches the closest trajectory position is the pan-tilt adjusting unit. When the fire center point is located at a point corresponding to the angle in the image of the detector 304 so that the angle is 90 degrees or 270 degrees while being varied by 308, the minimum distance position may be determined. According to the position of the minimum distance determined by the control server 500, the driving robot 300 may be moved to a location and controlled at an attitude. In this embodiment, the minimum distance position is exemplified as being calculated by the control server 500, but the driving robot 300 due to power cutoff due to power outages in the space 20 or poor communication with the control server 500. The minimum position distance is autonomously determined through the above-described process, and thus position movement and attitude control can be performed. Even if it is not the above-described abnormal situation, the driving robot 300 may be set to calculate and determine the minimum position distance without intervention of the control server 500 according to the user's settings.

프로세서(510)는 관제 서버(500)의 상술한 부재의 기능을 제어하고, 감지 장치(100, 200), 주행 로봇(300), 궤도 장치(400)로부터 송수신된 데이터를 처리함과 아울러서 각 장치의 동작을 제어한다. The processor 510 controls the functions of the above-described members of the control server 500, processes data transmitted and received from the sensing devices 100 and 200, the driving robot 300, and the track device 400, and also processes each device. control the operation of

이하에서는, 도 1 내지 도 9를 참조하여 본 발명의 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 대해 설명하기로 한다. 이해의 편의를 위해, 객체의 이상은 화재인 것으로 예시하여 설명한다. Hereinafter, a method for monitoring and removing an abnormal object according to another embodiment of the present invention will be described with reference to FIGS. 1 to 9 . For convenience of understanding, an abnormality of an object is exemplarily described as a fire.

도 6은 본 발명의 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법을 나타내는 순서도이다. 도 7 내지 도 9는 본 발명의 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 따라 구현되는 동작을 나타낸 도면이다. 6 is a flowchart illustrating a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention. 7 to 9 are diagrams illustrating operations implemented according to a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention.

먼저, 평상시 감지 장치(100, 200)는 공간(20) 내의 복수의 객체(30)의 화재 발생 여부를 감시한다(S105). 감지 장치는 고정식 카메라(100) 및 광섬유 온도 센서가 포함된 근접 감지 장치(200)일 수 있다. 평상시의 객체 감지는 상술한 감지 장치뿐만 아니라, 주행 로봇(300)도 관제 서버(500)의 지시 또는 자율적으로 제 1 궤도(402)를 따라 각 객체(30) 마다의 화재 발생 여부를 검출한다. 이러한 검출은 실화상 카메라(320), 열화상 카메라(318), 온도 센서, 가스 센서, 자외선 센서, 소리 인식 센서 등으로부터 획득된 다양한 감지 데이터를 획득하는 것이다. 다른 예로서, 도 11에서와 같이 복수의 객체가 수직으로 배열된 경우에, 주행 로봇(300)의 감지 범위가 제 1 궤도(402)보다 하방에 배치된 제 2 궤도(408)에 인접한 객체(30)까지 커버되지 않는다면, 관제 서버(500)는 평상시 감시 경로로서 제 1 및 제 2 궤도(402, 408)를 전부 활용할 수 있다. 이에 따라, 주행 로봇(300)의 감시 경로는 다양하게 설정될 수 있으며, 가급적 효율적 경로로 편성될 수 있다. 예컨대, 감시 경로는 제 1 궤도(402), 전환 분기부(410), 제 2 궤도(408)에서 우방향 이동, 제 2 궤도(408)의 종점에서 좌방향 이동, 전환 분기부(410), 주행되지 않은 제 1 궤도(402)로 이동 순으로 될 수 있다. 다른 예로 기재된 상이한 높이로 배치된 제 1 및 제 2 궤도(402, 408)와 관련되어 주행 로봇(300)의 동작 실시예는 도 10 내지 도 15에서 설명하고, 본 실시예에서는 화재 발생한 객체(30) 주위에 단층으로 구성된 제 1 궤도(402)만이 설치되어 주행 로봇(300)이 제 1 궤도(402) 상에서 화재 진압을 행하는 것을 위주로 설명한다. First, in normal times, the detection devices 100 and 200 monitor whether a fire occurs in a plurality of objects 30 in the space 20 (S105). The sensing device may be a proximity sensing device 200 including a fixed camera 100 and an optical fiber temperature sensor. In normal object detection, not only the above-described detection device, but also the driving robot 300 detects whether or not a fire has occurred for each object 30 along the first track 402 under the direction of the control server 500 or autonomously. This detection is to obtain various sensing data obtained from the visible image camera 320, the thermal image camera 318, a temperature sensor, a gas sensor, an ultraviolet sensor, a sound recognition sensor, and the like. As another example, when a plurality of objects are vertically arranged as in FIG. 11 , the sensing range of the driving robot 300 is an object adjacent to the second trajectory 408 disposed below the first trajectory 402 ( 30), the control server 500 may utilize all of the first and second trajectories 402 and 408 as normal monitoring routes. Accordingly, the monitoring route of the driving robot 300 can be set in various ways, and can be organized as an efficient route as much as possible. For example, the monitoring path includes a first trajectory 402, a transition branch 410, a rightward movement in the second trajectory 408, a leftward movement at the end point of the second trajectory 408, a transition branch 410, It may be in the order of movement to the first trajectory 402 that is not driven. An embodiment of the operation of the driving robot 300 in relation to the first and second trajectories 402 and 408 disposed at different heights described in other examples is described in FIGS. 10 to 15, and in this embodiment, the object 30 on fire ), only the first track 402 composed of a single layer is installed around the driving robot 300 to extinguish a fire on the first track 402.

다음으로, 특정 위치의 객체(30)에서 이상, 즉 화재가 발생한 경우, 감지 장치(100, 200)는 화재가 발생된 객체(30)와 관련된 감지 데이터를 관제 서버(500)에 전송하며, 관제 서버(500)는 감지 데이터를 분석하여 객체 이상으로서 화재 발생을 판정한다(S110). Next, when an abnormality, that is, a fire occurs in the object 30 at a specific location, the sensing devices 100 and 200 transmit sensing data related to the object 30 on fire to the control server 500, The server 500 analyzes the sensing data and determines the occurrence of a fire as an object abnormality (S110).

관제 서버(500)의 분석부(506)는 머신 러닝 방식으로 학습된 모델에 의해, 감지 장치(100, 200), 실화상 카메라(320), 열화상 카메라(318), 가스 센서, 온도 센서, 소리 인식 센서, 위치 센서 등으로부터 검출된 객체(30)에 대한 화재 발생 여부를 분석하여 판단할 수 있다. 고정식 카메라(100)의 경우에, 분석부(506)는 객체(30)의 영상을 구성하는 RGB 픽셀에 기반하여 색상과 움직임 형태 등을 분석함과 아울러서, 열화상 카메라(318), 가스 센서, 소리 인식 센서 등으로부터 획득된 객체(30)의 온도 분포, 화재시 발생하는 특정 가스의 검지 정보, 화재시 유발되는 소리 검지 정보 등을 종합적으로 분석하여, 화재 발생 여부를 분석 판단할 수 있다. 근접 감지 장치(200)에 의한 경우에, 광섬유 온도 센서의 온도와 단선 등을 감안하여 특정 객체(30)의 화재 발생 여부가 판단될 수 있다. The analysis unit 506 of the control server 500 uses the machine learning method to detect devices 100 and 200, a real image camera 320, a thermal image camera 318, a gas sensor, a temperature sensor, It may be determined by analyzing whether a fire occurs in the object 30 detected by a sound recognition sensor, a location sensor, or the like. In the case of the fixed camera 100, the analysis unit 506 analyzes the color and movement type based on the RGB pixels constituting the image of the object 30, and the thermal imaging camera 318, the gas sensor, It is possible to analyze and determine whether a fire has occurred by comprehensively analyzing the temperature distribution of the object 30 obtained from the sound recognition sensor, detection information of a specific gas generated in case of fire, and detection information of sound caused in case of fire. In the case of the proximity detection device 200, it may be determined whether a specific object 30 has a fire in consideration of the temperature and disconnection of the optical fiber temperature sensor.

다음으로, 관제 서버(500)의 위치 산출부(508)는 감지 장치(100, 200)로부터 획득된 감지 데이터로부터 이상 발생 지점(40)을 산출한다(S115).Next, the location calculation unit 508 of the control server 500 calculates the abnormal occurrence point 40 from the sensing data obtained from the sensing devices 100 and 200 (S115).

고정식 카메라(100)에 의한 경우에, 위치 산출부(508)는 공간(20) 전체의 위치 데이터, 고정식 카메라(100)로부터 획득된 영상 내에서 화재가 발생한 객체(30)의 화각 및 고정식 카메라(100)의 위치 데이터에 기초하여 화재 발생 지점(40)의 위치 데이터(좌표)를 산출할 수 있다. 도 7을 참조하면, 좌측 고정식 카메라(100)의 영상 내에서 파악되는 화재 발생된 객체(30)와의 화각과 고정식 카메라(100)의 위치 데이터를 이용하여 공간(20)에 배치된 각 객체(30)의 위치 데이터와 접점이 되는 3차원 좌표를 화재 발생한 객체(30)의 위치 데이터, 즉 화재 발생 지점(40)으로 산출될 수 있다. In the case of the fixed camera 100, the location calculation unit 508 includes the location data of the entire space 20, the angle of view of the object 30 on fire within the image obtained from the fixed camera 100, and the fixed camera ( Location data (coordinates) of the fire point 40 may be calculated based on the location data of 100). Referring to FIG. 7 , each object 30 disposed in the space 20 using the angle of view with the object 30 on fire recognized in the image of the left fixed camera 100 and the location data of the fixed camera 100 ) The three-dimensional coordinates that are in contact with the location data of the fire can be calculated as the location data of the fire object 30, that is, the fire point 40.

광섬유 온도 센서가 구비된 근접 감지 장치(200)에 의한 경우에. 위치 산출부(508)는 화재에 의해 객체(30) 상에 설치된 광섬유 온도 센서가 단선되는 위치 데이터를 객체(30)의 화재 발생 지점(40)으로 산출할 수 있다.In the case of a proximity sensing device 200 equipped with a fiber optic temperature sensor. The location calculation unit 508 may calculate location data where an optical fiber temperature sensor installed on the object 30 is disconnected due to a fire as the fire occurrence point 40 of the object 30 .

이어서, 위치 산출부(508)는 도 7에서와 같이, 화재 발생 지점(40)에서 최근접한 궤도를 탐색하고, 탐색된 제 1 궤도(402) 상의 연속되는 좌표들 중 화생 발생 지점과 최근접한 궤도 위치(도 7에서 화살표)를 산출한다(S120). Next, as shown in FIG. 7, the position calculation unit 508 searches for a trajectory closest to the fire occurrence point 40, and among the consecutive coordinates on the searched first trajectory 402, the trajectory closest to the fire occurrence point The position (arrow in FIG. 7) is calculated (S120).

계속해서, 관제 서버(500)는 주행 로봇(300)에 제 1 궤도(402) 상에서의 주행을 지시하여, 주행 로봇(300)은 제 1 궤도(402)를 따라 최근접한 궤도 위치로 이송된다(S125).Subsequently, the control server 500 instructs the driving robot 300 to travel on the first track 402, and the driving robot 300 is transferred to the nearest track position along the first track 402 ( S125).

다음으로, 주행 로봇(300)은 이상 발생 지점(40), 즉 화재 발생 지점(40)으로부터 최소 거리 위치에 제공하도록 위치 이동 및 자세 제어가 이루어진다(S130). Next, the moving robot 300 is moved to a position and posture controlled so as to provide a minimum distance from the abnormal occurrence point 40, that is, the fire occurrence point 40 (S130).

도 8 및 도 9를 참조하여 최소 거리 위치의 산출을 설명하면, 위치 산출부(508)는 주행 로봇(300)이 최근접한 궤도 위치(도 8, 9의 1 지점에 해당)에 도달한 경우에, 주행 로봇(300)의 감지부(304)가 화재의 중심점과 대면하는 감지 각도가 팬틸트 조정부(308)에 의해 가변하면서 상기 각도가 90 도 또는 270도(도 8, 9의 2 지점에 해당)가 되도록, 화재 중심점이 감지부(304)의 영상(340)에서 상기 각도로 해당하는 지점(예컨대 도 9와 같이, 영상의 중앙 영역)에 위치된 경우를 최소 거리 위치로 결정할 수 있다. 화재 중심점은 예를 들어 실화상 카메라(320)의 영상으로부터 취득된 불꽃 중앙하단점 및 열화상 카메라(318)로부터 획득된 온도 분포 영상에서 파악된 최고 온도 지점 등에 의해 추정될 수 있다. 관제 서버(500)에서 결정된 최소 거리 위치에 따라, 주행 로봇(300)은 위치 이동 및 자세 제어가 이루어질 수 있다. 위치 이동은 예컨대 주행 로봇(300)이 도 8의 제 1 궤도(402) 상의 1 지점에서 2 지점으로 이동 제어되는 것일 수 있다. 자세 제어는 주행 로봇(300)의 자율 제어 또는 관제 서버(500)의 지시에 의해, 팬틸트 조정부(308)에 의한 감지부(304)의 감지 방향, 각도 조정 등과 같은 감지부(304)의 자세를 제어하는 것일 수 잇다. 본 실시예에서는 최소 거리 위치가 관제 서버(500)에 의해 산출되는 것으로 예시하고 있으나, 공간(20)의 정전으로 인해 전원 공급 차단 내지 관제 서버(500)와의 통신 불량 등으로 인해 주행 로봇(300)이 자율적으로 상술한 과정으로 최소 위치 거리를 결정할 수 있으며, 이에 따른 위치 이동 및 자세 제어가 이루어질 수 있다. 상술한 비정상적인 상황이 아니더라도, 사용자의 설정에 따라 관제 서버(500)의 개입이 없이, 주행 로봇(300)이 최소 위치 거리를 산출 결정하도록 설정될 수 있다.Referring to FIGS. 8 and 9 , the calculation of the minimum distance position is described. When the position calculation unit 508 reaches the nearest trajectory position (corresponding to point 1 in FIGS. 8 and 9 ), the position calculation unit 508 , while the detection angle at which the detection unit 304 of the driving robot 300 faces the central point of the fire is varied by the pan-tilt adjustment unit 308, the angle is 90 degrees or 270 degrees (corresponding to two points in FIGS. 8 and 9). ), a case where the central point of the fire is located at a point corresponding to the angle in the image 340 of the detector 304 (for example, the central region of the image as shown in FIG. 9) may be determined as the minimum distance location. The center point of the fire may be estimated by, for example, the lower center point of the flame acquired from the image of the visual image camera 320 and the highest temperature point found from the temperature distribution image obtained from the thermal image camera 318. According to the position of the minimum distance determined by the control server 500, the driving robot 300 may be moved to a location and controlled at an attitude. Positional movement may be, for example, movement of the driving robot 300 from one point to two points on the first trajectory 402 of FIG. 8 . Posture control is the posture of the sensing unit 304, such as adjusting the sensing direction and angle of the sensing unit 304 by the pan/tilt adjusting unit 308 according to autonomous control of the driving robot 300 or instructions from the control server 500. may be to control In this embodiment, the minimum distance location is exemplified as being calculated by the control server 500, but the driving robot 300 due to power cut off due to power outages in the space 20 or poor communication with the control server 500. The minimum position distance can be autonomously determined through the above-described process, and thus position movement and attitude control can be performed. Even if it is not the above-described abnormal situation, the driving robot 300 may be set to calculate and determine the minimum position distance without intervention of the control server 500 according to the user's setting.

다음으로, 주행 로봇(300)은 이상 제거, 즉 화재 진압을 위해 소화기(324) 및 분사 유도기(326)를 조준하여 분사하고, 경보부(314)에 의해 화재 발생 상황을 주위에 통지함과 아울러서, 화재 진압 상황과 관련된 영상을 비롯한 감지 데이터를 관제 서버(500)에 전송한다(S135).Next, the driving robot 300 aims and sprays the fire extinguisher 324 and the spray inducer 326 to eliminate abnormality, that is, to suppress the fire, and notifies the surroundings of the fire occurrence situation by the alarm unit 314, Sensing data including images related to the fire suppression situation is transmitted to the control server 500 (S135).

주행 로봇(300)은 최소 거리 위치로 제공된 후에, 감지부(304)의 화재 관련 감지 데이터를 실시간으로 획득하고 분석하고, 분석 결과에 따라 팬틸트 구동부(302)를 제어하여 소화제 분사 직전의 화재 중심점을 향하여 소화기(324)를 조준하고 소화제를 분사한다. 이와 동시에, 분사 유도기(326)를 구성하는 팬의 송풍 방향도 소화재가 화재 중심점으로 분사되도록 제어될 수 있다. After the driving robot 300 is provided at the minimum distance position, it acquires and analyzes the fire-related detection data of the sensing unit 304 in real time, and controls the pan-tilt driving unit 302 according to the analysis result to control the central point of the fire just before the fire extinguishing agent is sprayed. Aim the fire extinguisher 324 toward and spray the fire extinguishing agent. At the same time, the blowing direction of the fan constituting the injection inducer 326 may also be controlled so that the fire extinguishing agent is injected toward the center of the fire.

아울러, 주행 로봇(300)은 효율적인 화재 진압을 위해, 감지부(304)로부터 획득된 영상 등으로 분석된 화재 중심점에 맞춰 높이 조절 리프트를 구동하여 소화기(324)가 화재 중심점에 보다 정확하게 조준되도록 소화기(324)의 분사 높이를 조절할 수 있다. In addition, for efficient fire suppression, the driving robot 300 drives a height-adjustable lift according to the center point of the fire analyzed by the image obtained from the sensor 304 so that the fire extinguisher 324 is more accurately aimed at the center point of the fire. The spray height of (324) can be adjusted.

본 실시예에 의하면, 감지 장치를 통해 검출하여 결정된 이상 발생 지점(40)에 최근접한 궤도 위치로 주행 로봇을 이동시킨 후에, 주행 로봇은 자신이 감지한 데이터를 이용하여 이상 발생 지점(40)과의 최소 거리 위치로 제공되도록 정밀 제어됨으로써, 객체에 발생한 위험의 이상 상황을 효율적으로 제거할 수 있다. According to the present embodiment, after moving the driving robot to a track position closest to the abnormal occurrence point 40 determined by detection through the sensing device, the driving robot detects the anomaly occurrence point 40 and By being precisely controlled to provide the minimum distance position of , it is possible to efficiently remove the abnormal situation of danger occurring to the object.

이하에서는, 도 1 내지 도 5 및 도 10 내지 도 15를 참조하여 본 발명의 또 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 대해 설명하기로 한다.Hereinafter, a method for monitoring and removing an abnormal object according to another embodiment of the present invention will be described with reference to FIGS. 1 to 5 and 10 to 15 .

본 실시예는 도 6과 상이하게 수직 배열된 객체(30)에 따라 다층의 궤도가 설치된 경우와 관련된 것이다. 이에 따라, 본 실시예는 도 6의 실시예와 S120, S125 단계가 상이하나, 도 6의 S105~S115 및 S130, S135 단계와 실질적으로 동일하므로, 도 6과의 차이점을 위주로 기술하고, 실질적으로 동일한 전술의 단계에 대해서는 설명을 생략하기로 한다.This embodiment relates to a case in which multi-layered tracks are installed according to the vertically arranged objects 30 different from those of FIG. 6 . Accordingly, this embodiment is different from the embodiment of FIG. 6 in steps S120 and S125, but is substantially the same as steps S105 to S115 and S130 and S135 in FIG. Descriptions of the steps of the same foregoing will be omitted.

도 10은 본 발명의 또 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법을 나타내는 순서도이다. 도 11 내지 도 15는 본 발명의 또 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 따라 구현되는 동작을 나타낸 도면이다. 참고로, 도 11은 시스템(10)을 측방으로 바라볼 때의 궤도 장치를 도시한 개략도이며, 도 12 내지 도 15는 시스템(10)을 상방에서 하방을 향하여 바라볼 때의 궤도 장치를 도시한 개략도이다. 10 is a flowchart illustrating a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention. 11 to 15 are diagrams illustrating operations implemented according to a method for monitoring and removing an abnormal object according to another embodiment of the present invention. For reference, FIG. 11 is a schematic diagram showing the track device when the system 10 is viewed from the side, and FIGS. 12 to 15 show the track device when the system 10 is viewed from the top to the bottom. it is a schematic

우선, 화재 발생이 감지되어 관제 서버(500)가 화재 발생한 객체(30)의 화재 발생 지점(40)을 결정하면, 위치 산출부(508)는 제 1 및 제 2 궤도(402, 408) 중 화재 발생 지점(40)에서 최근접한 궤도를 탐색하고, 탐색된 궤도 상의 연속되는 좌표들 중 화생 발생 지점과 최근접한 궤도 위치를 산출한다(S205).First, when a fire is detected and the control server 500 determines the fire occurrence point 40 of the object 30 on fire, the location calculation unit 508 calculates a fire among the first and second tracks 402 and 408. The trajectory closest to the point of origin 40 is searched, and the location of the trajectory closest to the point of occurrence of metaplasia among consecutive coordinates on the searched trajectory is calculated (S205).

최근접한 궤도의 탐색에서 각 궤도 상의 세부 위치마다의 감지부(304)의 감시 범위 및 이상 제거부(306)의 분사 가능 범위 등을 고려하여 최적합한 궤도를 선정한다. 이해의 편의를 위해, 본 실시예에서는 주행 로봇(300)이 평상시에 제 1 궤도(402)를 주행하는 상황에서, 화재 발생 지점(40)이 제 2 궤도(408)의 특정 위치에서 인접하여, 특정 위치가 최근접한 궤도 위치로 결정된 경우를 상정하여 설명한다. 이에 의하면, 도 11에서와 같이 화재 발생 지점(40)이 제 2 궤도(408)의 특정 위치에 최근접하여 특정 위치가 최근접한 궤도 위치로 결정된다. In the search for the nearest trajectory, the most suitable trajectory is selected in consideration of the monitoring range of the sensing unit 304 and the possible injection range of the anomaly removal unit 306 for each detailed position on each trajectory. For convenience of understanding, in this embodiment, in a situation where the driving robot 300 normally travels on the first track 402, the fire point 40 is adjacent to a specific position on the second track 408, A description will be given assuming that a specific position is determined as the nearest orbital position. According to this, as shown in FIG. 11, since the fire occurrence point 40 is closest to the specific position of the second track 408, the specific position is determined as the closest track position.

다음으로, 최근접한 궤도 위치로 제 2 궤도(408)의 특정 위치가 결정되면, 도 12 및 도 13에서와 같이, 주행 로봇(300)은 제 1 궤도(402)에서 제 2 궤도(408)로 이동 변환시키는 전환 분기부(410)로 이동된다(S210).Next, when the specific location of the second trajectory 408 is determined as the closest trajectory location, as shown in FIGS. 12 and 13, the driving robot 300 moves from the first trajectory 402 to the second trajectory 408. It is moved to the conversion branching unit 410 for moving and converting (S210).

이어서, 전환 분기부(410)는 관제 서버(500) 등의 제어에 의해 회전되어 주행 로봇(300)의 주행 경로가 제 2 궤도(408)로 연결되며, 주행 로봇(300)은 제 2 궤도(408)로 변경 이동된다(S215).Subsequently, the switching branch 410 is rotated under the control of the control server 500, etc., so that the traveling path of the traveling robot 300 is connected to the second trajectory 408, and the traveling robot 300 is connected to the second trajectory ( 408) is changed and moved (S215).

계속해서, 주행 로봇(300)은 S130 단계와 마찬가지로, 이상 발생 지점(40), 즉 화재 발생 지점(40)으로부터 최소 거리 위치에 제공하도록, 제 2 궤도(408)의 최근접한 궤도 위치에서 위치 이동 및 자세 제어가 이루어질 수 있다(S220). Continuing, the driving robot 300, like step S130, moves the location from the closest trajectory position of the second trajectory 408 so as to provide the minimum distance from the abnormal occurrence point 40, that is, the fire occurrence point 40 And posture control may be made (S220).

본 실시예에서는 최소 거리 위치의 결정 전에 최근접한 궤도 위치의 산출 단계에서 제 2 궤도로 결정되는 것을 위주로 설명하였다. 다른 실시예에서는 관제 서버(500)가 감지 장치(100, 200) 등의 감지 데이터를 분석하여 최근접한 궤도 위치로 제 1 궤도(402) 상의 특정 위치를 결정하였으나, 주행 로봇(300)은 자율적으로 또는 관제 서버(500)와의 데이터 교환, 지시 등에 의해 최소 거리 위치를 제 1 궤도(402)가 아닌 제 2 궤도(408)에서 이상 발생 지점과 가장 인접한 위치로 결정하여 이송될 수 있다. 이 경우에, 주행 로봇(300)은 제 1 궤도(402)의 특정 위치에서 감지부(304)의 감지 범위, 이상 제거부(306)의 분사 범위 및 이상 발생 지점(40)에 가장 인접한 제 2 궤도(408)의 대응 위치 등을 전부 고려하여 최소 거리 위치를 결정할 수 있다. 이에 의하면, 주행 로봇(300)은 도 11의 도시 상황을 예로 들면, 화재 발생 지점(40)과 인접한 제 1 궤도(402)의 위치에서 전환 분기부(410)로 역이동하고, 전환 분기부(410)를 경유하여 최근접한 궤도 위치 및/또는 최소 거리 위치로 결정된 제 2 궤도(408)의 특정 위치로 제공되도록 제어된다. In this embodiment, it has been mainly described that the second trajectory is determined in the step of calculating the closest trajectory position before determining the minimum distance location. In another embodiment, the control server 500 analyzes sensing data such as the sensing devices 100 and 200 to determine a specific position on the first track 402 as the nearest track position, but the driving robot 300 autonomously Alternatively, by exchanging data with the control server 500 or receiving instructions, the minimum distance location may be determined as the position most adjacent to the abnormal occurrence point in the second trajectory 408 instead of the first trajectory 402 and transferred. In this case, the driving robot 300 is the second most adjacent to the detection range of the detection unit 304, the injection range of the anomaly removal unit 306, and the anomaly occurrence point 40 at a specific position of the first trajectory 402. The minimum distance position can be determined by considering all the corresponding positions of the trajectory 408 and the like. According to this, taking the urban situation of FIG. 11 as an example, the driving robot 300 reversely moves from the position of the first track 402 adjacent to the fire occurrence point 40 to the switching branch 410, and the switching branch ( 410) is controlled to be provided to a specific location of the second trajectory 408 determined as the closest trajectory location and/or the minimum distance location.

본 실시예에 따르면, 주행 로봇(300)이 다층의 궤도 중에서 화재 발생 지점에 가장 인접한 궤도로 이송되어 화재와 같은 이상을 진압함으로써 화재 진압 효율이 극대화될 수 있다. 더욱이 높이 조절 리프트에 의해 소화기(324)를 하방으로 과도하게 연장할 필요가 없어, 강한 분사 압력에 의한 소화기(324) 등의 요동이 억제되어 진압 효율이 더욱 향상될 수 있다. According to the present embodiment, the driving robot 300 is transported to a track closest to a fire occurrence point among multi-layered tracks to suppress an anomaly such as a fire, thereby maximizing fire suppression efficiency. Furthermore, since there is no need to excessively extend the fire extinguisher 324 downward by the height-adjustable lift, shaking of the fire extinguisher 324 or the like due to strong injection pressure is suppressed, and suppression efficiency can be further improved.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Exemplary methods of this disclosure are presented as a series of operations for clarity of explanation, but this is not intended to limit the order in which steps are performed, and each step may be performed concurrently or in a different order, if desired. In order to implement the method according to the present disclosure, other steps may be included in addition to the exemplified steps, other steps may be included except for some steps, or additional other steps may be included except for some steps.

또한, 이하에서도 도 16 내지 도 26을 참조하여 화재 감시 시스템 및 그 제어 방법에 대하여 상세히 설명하기로 한다. 다만, 당업자는 이전에 설명한 도 1 내지 도 15를 참조하여, 도 16 내지 도 26을 보충해석 하거나 실시 예를 변형하는 것도 가능하다. In addition, the fire monitoring system and its control method will be described in detail with reference to FIGS. 16 to 26 below. However, those skilled in the art may supplement and interpret FIGS. 16 to 26 or modify the embodiment with reference to FIGS. 1 to 15 described previously.

도 16은 본 발명의 일 실시예에 따른, 화재 감시 시스템의 구성을 도시한 도면이다.16 is a diagram showing the configuration of a fire monitoring system according to an embodiment of the present invention.

도 16을 참조하면, 화재 감시 시스템(1000)은 이동 로봇(100), 관제 서버(200), 외부 디바이스(300)를 포함한다. Referring to FIG. 16 , the fire monitoring system 1000 includes a mobile robot 100, a control server 200, and an external device 300.

이동 로봇(100)은 실화상 카메라(110), 열화상 카메라(120), 통신부(130), 제어부(140) 및 메모리(150)를 포함한다. The mobile robot 100 includes a real image camera 110, a thermal image camera 120, a communication unit 130, a controller 140, and a memory 150.

실화상 카메라(110)는 실제 이미지를 캡쳐하는 카메라를 의미한다. The real image camera 110 means a camera that captures real images.

열화상 카메라(120)는 열화상 이미지를 캡쳐하는 카메라를 의미한다. The thermal imaging camera 120 refers to a camera that captures thermal images.

이동 로봇(100)은 실화상 카메라(110)로 실화상 영상을 캡쳐하고, 상기 열화상 카메라로 상기 열화상 영상을 캡쳐한다. The mobile robot 100 captures a real image with the real image camera 110 and captures the thermal image with the thermal image camera.

통신부(130)는 외부 디바이스, 관제 서버(200)와 데이터를 송수신한다. The communication unit 130 transmits and receives data with an external device and the control server 200 .

제어부(140)는 실화상 카메라(110), 열화상 카메라(120), 통신부(150), 메모리(150)를 제어한다. The controller 140 controls the real image camera 110 , the thermal image camera 120 , the communication unit 150 , and the memory 150 .

메모리(150)는 캡쳐된 실화상 영상과 열화상 영상을 저장한다. The memory 150 stores the captured real image and thermal image.

여기서, 실화상 영상의 캡쳐 주기는 상기 열화상 영상의 캡쳐 주기와 서로 다르다. 실화상 영상의 캡쳐 주기는 열화상 영상의 캡쳐 주기보다 더 빠를 수 있다. Here, the capture cycle of the real image is different from the capture cycle of the thermal image. A capture cycle of a real image may be faster than a capture cycle of a thermal image.

이는 열화상 영상은 시간이 흐름에 따라 큰 변화가 없는데, 실화상 영상은 화재가 발생하면, 불꽃, 연기 등으로 더 큰 변화가 생기기 때문이다. This is because the thermal image does not change significantly over time, but the real image image undergoes a greater change due to flames and smoke when a fire occurs.

이동 로봇(100)은 레일을 따라 움직이는 이동식 로봇을 포함한다. The mobile robot 100 includes a mobile robot that moves along a rail.

관제 서버(200)는 통신부(210), 메모리(220), 제어부(230), 디스플레이(240)를 포함한다. The control server 200 includes a communication unit 210, a memory 220, a control unit 230, and a display 240.

통신부(210)는 이동 로봇(100), 외부 디바이스(300)와 데이터를 송수신한다. The communication unit 210 transmits and receives data with the mobile robot 100 and the external device 300 .

메모리(220)는 데이터 베이스가 될 수 있으며, 객체 별 안전 온도 정보를 저장한다. The memory 220 may be a database and stores safety temperature information for each object.

제어부(230)는 화재 감시 시스템의 전체적인 제어 로직을 수행한다. The control unit 230 performs overall control logic of the fire monitoring system.

제어부(230)는 실화상 영상 및 열화상 영상을 로봇으로부터 수신하고, 상기 실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지하고, 상기 연기 및 불꽃 중 적어도 하나에 대응하는 감지 영역을 실화상 영상으로부터 추출하고, 상기 감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별하고, 상기 열화상 영상에서 상기 감지 영역에 대응하는 제 1 영역을 분석하여 상기 감지 영역의 최고 온도를 추출하고, 식별된 상기 객체의 개별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정한다. The controller 230 receives a real image and a thermal image from the robot, analyzes the real image, detects at least one of smoke and flame, and converts a sensing area corresponding to at least one of the smoke and flame into a real image. extracting from an image, individually identifying at least one object included in the sensing area, analyzing a first area corresponding to the sensing area in the thermal image, extracting a maximum temperature of the sensing area, and identifying the A fire is determined by comparing the individual permissible temperature of the object with the maximum temperature.

제어부(230)는 상기 최고 온도가 상기 객체의 개별 허용 온도보다 높은 경우, 화재로 결정한다. The control unit 230 determines a fire when the maximum temperature is higher than the individual permissible temperature of the object.

제어부(230)는 최고 온도가 상기 객체의 개별 허용 온도보다 낮은 경우, 화재가 아님으로 결정한다. The control unit 230 determines that it is not a fire when the maximum temperature is lower than the individual permissible temperature of the object.

제어부(230)는 실화상 영상에 CNN을 이용하여 연기 및 불꽃 중 적어도 하나를 감지한다. The controller 230 detects at least one of smoke and flame by using a CNN in the real image.

구체적으로, 제어부(230)는 상기 실화상 영상을 시간순으로 실화상 이미지로 저장하고, 저장된 상기 실화상 이미지를 흑백 이미지로 변환하고, 변환된 상기 흑백 이미지를 이미지 프로세싱하고, 이미지 프로세싱된 상기 흑백 이미지로부터 윤곽선을 추출하고, 추출된 이미지 윤곽선을 CNN 입력으로 사용하여 학습을 수행하고, 학습 결과를 기초로 연기 및 불꽃 중 적어도 하나를 감지한다. Specifically, the controller 230 stores the real image as a real image in chronological order, converts the stored real image into a black and white image, image-processes the converted black and white image, and performs image processing on the black and white image. Contours are extracted from, learning is performed using the extracted image contours as an input to the CNN, and at least one of smoke and flame is detected based on the learning result.

제어부(230)는 YOLOv2 를 이용하여 상기 적어도 하나의 객체를 개별적으로 식별한다. The controller 230 individually identifies the at least one object using YOLOv2.

구체적으로, 제어부(230)는 실화상 화면을 개별 이미지로 추출하고, 추출된 개별 이미지를 소정 크기의 그리드로 분할하고, 분할된 상기 그리드의 중앙을 중심으로 기정의된 형태로 지정된 경계박스의 개수를 예측하고, 신뢰도 계산을 이용하여 상기 경계박스가 상기 적어도 하나의 객체를 포함하는지 결정하고, 결정 결과에 따라 상기 적어도 하나의 객체를 식별한다. Specifically, the control unit 230 extracts the real image screen into individual images, divides the extracted individual images into grids of a predetermined size, and the number of bounding boxes designated in a predefined shape around the center of the divided grids. predicts , determines whether the bounding box includes the at least one object using reliability calculation, and identifies the at least one object according to the determination result.

제어부(230)는 객체 별 허용 온도 정보를 포함하는 데이터 베이스를 참조하여 상기 객체 별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정한다. The control unit 230 determines a fire by comparing the allowable temperature for each object with the maximum temperature by referring to a database including permissible temperature information for each object.

제어부(230)는 데이터 베이스에 객체 별 허용 온도 정보가 없는 경우, 외부 디바이스(300)로부터 객체 별 허용 온도 정보를 요청하고, 외부 디바이스(300)에 매칭되는 객체 별 허용 온도 정보가 있는 경우, 이를 수신할 수 있다. When there is no permissible temperature information for each object in the database, the controller 230 requests permissible temperature information for each object from the external device 300, and when there is permissible temperature information for each object matched to the external device 300, it retrieves the permissible temperature information for each object. can receive

디스플레이(240)는 제어부(230)로부터의 제어 명령에 따라 그래픽 이미지를 디스플레이한다. The display 240 displays a graphic image according to a control command from the controller 230 .

외부 디바이스(300)는 객체 별 허용 온도 정보, 객체 별 안전 온도 정보를 저장한 디바이스가 될 수 있다. The external device 300 may be a device that stores allowable temperature information for each object and safety temperature information for each object.

도 17은 본 발명의 일 실시예에 따른, 화재 감시 시스템의 제어 방법을 도시한 도면이다. 본 발명은 화재 감시 시스템(1000)에 의하여 수행된다. 17 is a diagram illustrating a control method of a fire monitoring system according to an embodiment of the present invention. The present invention is carried out by means of a fire monitoring system (1000).

먼저, 실화상 영상 및 열화상 영상을 로봇으로부터 수신한다(S1710). First, a real image and a thermal image are received from the robot (S1710).

실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지한다(S1720). At least one of smoke and flame is detected by analyzing the real image (S1720).

연기 및 불꽃 중 적어도 하나에 대응하는 감지 영역을 실화상 영상으로부터 추출한다(S1730). A detection area corresponding to at least one of smoke and flame is extracted from the real image (S1730).

감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별한다(S1740). At least one object included in the sensing area is individually identified (S1740).

열화상 영상에서 상기 감지 영역에 대응하는 제 1 영역을 분석하여 상기 감지 영역의 최고 온도를 추출한다(S1750).The highest temperature of the sensing area is extracted by analyzing the first area corresponding to the sensing area in the thermal image (S1750).

식별된 상기 객체의 개별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정한다(S1760).A fire is determined by comparing the individual permissible temperature of the identified object with the maximum temperature (S1760).

도 18은 본 발명의 일 실시예에 따른, CNN의 구조를 도시한 도면이다.18 is a diagram showing the structure of a CNN according to an embodiment of the present invention.

CNN은 딥러닝 기술로, 인간의 시신경 구조가 비전 정보를 처리하는 것을 모방한 모형이다. CNN은 입력 이미지로부터 정보를 손쉽게 분류하기 위해 저차원의 정보를 고차원으로 확장해서 분류한다. 기본적으로 CNN 은 도 18과 같이 컨볼루션 계층(convolutional layer), 풀링 계층(pooling layer or sub-sampling layer), 그리고 분류 계층(classification layer)으로 구성된다.CNN is a deep learning technology, and it is a model that mimics the structure of the human optic nerve processing vision information. CNN classifies information by extending low-dimensional information to high-dimensional information in order to easily classify information from an input image. Basically, a CNN is composed of a convolutional layer, a pooling layer or sub-sampling layer, and a classification layer as shown in FIG. 18.

CNN은 컨볼루션 계층과 풀링 계층을 번갈아가며 수행함으로써 학습 영상으로부터 인식 대상의 특징을 자동으로 추출한다. 컨볼루션 계층은 이전 계층으로부터 들어오는 입력 데이터에 학습된 커널을 한 칸씩 움직이면서 컨볼루션 연산을 수행하여 이미지의 특성을 고려하면서 특징을 추출할 수 있다. 그리고 통합 계층은 컨볼루션 계층을 통해 생성된 특징 맵(feature map)의 차원 수를 줄여주는 역할을 하며, 최대 풀링(max pooling)과 평균 풀링(average pooling) 등의 방법이 있는데 일반적으로 영상 내 더 자극적인 정보를 특징으로 취득하기 위해 최대 풀링을 많이 사용한다. 이처럼 컨볼루션 계층과 풀링 계층이 번갈아가며 여러 차례 수행되고 나면 주요 패턴 정보를 가진 특징들이 자동으로 추출되며, 이를 바탕으로 분류 계층에서 최종적으로 영상의 인식 결과를 출력하게 된다.CNN automatically extracts the features of the recognition target from the learning image by alternately performing the convolutional layer and the pooling layer. The convolution layer can extract features while considering the characteristics of the image by performing a convolution operation while moving the learned kernel one by one on the input data coming from the previous layer. In addition, the integration layer serves to reduce the number of dimensions of the feature map generated through the convolution layer, and there are methods such as max pooling and average pooling. In order to acquire stimulating information as a feature, maximum pooling is often used. As such, after the convolution layer and the pooling layer are alternately performed several times, features having main pattern information are automatically extracted, and based on this, the classification layer finally outputs the image recognition result.

도 19는 본 발명의 일 실시예에 따른, 화재 감지에 사용된 불꽃, 연기, 연무를 도시한 도면이다. 도 19는 도 19(a), 도 19(b) 및 도 19(c)를 포함한다. 19 is a diagram illustrating flame, smoke, and haze used for fire detection according to an embodiment of the present invention. 19 includes FIGS. 19(a), 19(b) and 19(c).

도 19(a)는 화재 감지에 사용된 불꽃을 의미한다. 19(a) means a flame used for fire detection.

도 19(b)는 화재 감지에 사용된 연기를 의미한다. 19(b) means smoke used for fire detection.

도 19(c)는 화재 감지에 사용된 연무를 의미한다. 19(c) means the haze used for fire detection.

본 발명에 따르면, 제어부(230)는 CNN을 이용하여 실화상 이미지를 분석해서 하여 불꽃, 연기 및 연무 중 적어도 하나를 감지한다. According to the present invention, the controller 230 detects at least one of flame, smoke, and haze by analyzing a real image using a CNN.

도 20은 본 발명의 일 실시예에 따른, CNN을 이용하여 불꽃, 연기를 감지하는 프로세스를 도시한 도면이다. 본 발명은 화재 감시 시스템(1000)에 의하여 수행된다. 20 is a diagram illustrating a process of detecting flames and smoke using a CNN according to an embodiment of the present invention. The present invention is carried out by means of a fire monitoring system (1000).

도 20에 도시한 바와 같이, 실화상 영상을 시간순으로 실화상 이미지로 저장한다(S2010). As shown in FIG. 20, the real image is stored as a real image in chronological order (S2010).

구체적으로 제어부(230)는 실화상 영상을 시간순으로 버퍼에 저장한다. Specifically, the controller 230 stores the real picture images in the buffer in chronological order.

저장된 상기 실화상 이미지를 흑백 이미지로 변환한다(S2020). The stored real image is converted into a black and white image (S2020).

구체적으로 제어부(230)는 현재 이미지에서 이전 이미지를 뺄셈 처리하여 실화상 이미지를 흑백 이미지로 변환한다. Specifically, the controller 230 subtracts the previous image from the current image to convert the real image into a black and white image.

변환된 상기 흑백 이미지를 이미지 프로세싱한다(S2030).Image processing is performed on the converted black and white image (S2030).

이미지 프로세싱된 상기 흑백 이미지로부터 윤곽선을 추출한다(S2040).An outline is extracted from the image-processed black-and-white image (S2040).

구체적으로, 제어부(230)는 윤곽선을 기초로 불꽃, 연기의 색상을 비교한다. Specifically, the controller 230 compares the colors of flame and smoke based on the outline.

제어부(230)는 윤곽선의 확장을 감지한다. The controller 230 detects the extension of the outline.

제어부(230)는 윤곽선을 병합 및 분리 추정 중 적어도 하나를 실행한다. The control unit 230 executes at least one of contour merging and separation estimation.

추출된 이미지 윤곽선을 CNN 입력으로 사용하여 학습을 수행한다(S2050).Learning is performed using the extracted image contour as an input to the CNN (S2050).

학습 결과를 기초로 연기 및 불꽃 중 적어도 하나를 감지한다(S2060).Based on the learning result, at least one of smoke and flame is sensed (S2060).

본 발명에 따르면, CNN 학습을 이용하여 연기 및 불꽃을 보다 정확하게 감지할 수 있다. According to the present invention, smoke and flame can be more accurately detected using CNN learning.

도 21은 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 프로세스를 도시한 도면이다.21 is a diagram illustrating a process of identifying an object using YOLOv2, according to an embodiment of the present invention.

실화상 화면을 개별 이미지로 추출한다(S2110). A real picture screen is extracted as an individual image (S2110).

추출된 개별 이미지를 소정 크기의 그리드로 분할한다(S2120). 여기서, 소정 크기는 고정되지 않은 임의의 크기를 의미한다. The extracted individual images are divided into grids of a predetermined size (S2120). Here, the predetermined size means an arbitrary size that is not fixed.

다른 실시 예에 따르면, 추출된 개별 이미지를 동일한 크기의 그리드로 분할할 수 있다. According to another embodiment, the extracted individual images may be divided into grids of the same size.

분할된 상기 그리드의 중앙을 중심으로 기정의된 형태로 지정된 경계박스의 개수를 예측한다(S2130). The number of bounding boxes designated in a predefined shape centered on the center of the divided grid is predicted (S2130).

상기 경계박스가 상기 적어도 하나의 객체를 포함하는지 결정한다(S2140). 예를 들어, 경계박스가 적어도 하나의 객체를 포함하는지 여부는 신뢰도를 기초로 결정한다. It is determined whether the bounding box includes the at least one object (S2140). For example, whether a bounding box includes at least one object is determined based on reliability.

예를 들어, 신뢰도가 80 % 이상이면, 경계박스가 적어도 하나의 객체를 포함한다고 결정한다. For example, if the reliability is 80% or higher, it is determined that the bounding box contains at least one object.

결정 결과에 따라 상기 적어도 하나의 객체를 식별한다(S2150). According to the determination result, the at least one object is identified (S2150).

도 22는 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 실시 예를 도시한 도면이다. 22 is a diagram illustrating an example of identifying an object using YOLOv2 according to an embodiment of the present invention.

도 22에 도시한 바와 같이, 화면(2200)은 제 1 객체(2210), 제 2 객체(2220), 제 3 객체(2230)를 포함한다. As shown in FIG. 22 , a screen 2200 includes a first object 2210 , a second object 2220 and a third object 2230 .

YOLO(You Only Look Once)는 객체 감지(Object detection) 분야에서 쓰이는 모델로, 예측 이미지를 n x n 그리드 셀(Grid Cell)로 나누고 각 셀마다 하나의 객체를 예측한다. 그리고, 미리 설정된 개수의 경계박수를 통해 객체의 위치와 크기를 파악하는 알고리즘을 의미한다. YOLOv2는 YOLO를 업그레이드시킨 알고리즘이다. YOLO (You Only Look Once) is a model used in the field of object detection, which divides a prediction image into n x n grid cells and predicts one object in each cell. And, it refers to an algorithm that determines the location and size of an object through a preset number of boundary claps. YOLOv2 is an upgraded algorithm of YOLO.

제 1 영역(10)은 제 1 객체(2210)을 포함한다. The first region 10 includes a first object 2210 .

제 2 영역(20)은 제 2 객체(2220)을 포함한다. The second area 20 includes a second object 2220 .

제 3 영역(30)은 제 3 객체(2230)을 포함한다. The third area 30 includes a third object 2230 .

여기서, 제 1 객체(2210)는 사람(person)이고, 제 2 객체(2220)은 벤치(bench), 제 3 객체(2230)는 셀 폰(2230)이 될 수 있다. Here, the first object 2210 may be a person, the second object 2220 may be a bench, and the third object 2230 may be a cell phone 2230.

도 23은 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 실시 예를 도시한 도면이다. 23 is a diagram illustrating an example of identifying an object using YOLOv2 according to an embodiment of the present invention.

도 23을 참조하면, 실화상 이미지(2300)는 제 1 객체(2310), 제 2 객체(2320)를 포함한다. Referring to FIG. 23 , a real image 2300 includes a first object 2310 and a second object 2320 .

예를 들어, 제 1 객체(2310)은 YOLOv2를 이용하여 식별한 결과 제 1 기계가 될 수 있다. 이 경우, 신뢰도는 99.9 % 가 될 수 있다. For example, the first object 2310 may be the first machine as a result of identification using YOLOv2. In this case, the reliability may be 99.9%.

제 2 객체(2320)은 YOLOv2를 이용하여 식별한 결과 제 2 기계가 될 수 있다. 이 경우, 신뢰도는 99.9 % 가 될 수 있다. The second object 2320 may be a second machine as a result of identification using YOLOv2. In this case, the reliability may be 99.9%.

또한, 제어부(230)는 실화상 이미지(2300)를 분석하여, 불꽃(5)을 감지할 수 있다. Also, the controller 230 may analyze the real image 2300 to detect the flame 5 .

도 24는 본 발명의 일 실시예에 따른, 식별된 객체의 영역을 세분화하는 실시 예를 도시한 도면이다. 24 is a diagram illustrating an example of subdividing an area of an identified object according to an embodiment of the present invention.

도 24를 참조하면, 실화상 이미지(2300)는 제 1 객체(2310), 제 2 객체(2320)를 포함한다. Referring to FIG. 24 , a real image 2300 includes a first object 2310 and a second object 2320 .

제 1 객체(2310)는 제 1 영역(10), 제 2 영역(20), 제 3 영역(30)으로 구분될 수 있다. The first object 2310 may be divided into a first area 10 , a second area 20 , and a third area 30 .

제 2 객체(2320)는 제 1 영역(40), 제 2 영역(50), 제 3 영역(60)으로 구분될 수 있다. The second object 2320 may be divided into a first area 40 , a second area 50 , and a third area 60 .

또한, 제어부(230)는 실화상 이미지(2300)를 분석하여, 제 2 객체(2320)의 제 1 영역(40)의 불꽃(5)을 감지할 수 있다. Also, the controller 230 may analyze the real image 2300 to detect the flame 5 of the first area 40 of the second object 2320 .

본 발명에 따르면, 실화상 이미지(2300)에 포함된 개별 객체를 제 1 영역, 제 2 영역, 제 3 영역으로 구분할 수 있어서 화재 발생시 어느 영역에서 발생했는지를 보다 정확하게 감지할 수 있다. According to the present invention, individual objects included in the real image 2300 can be divided into a first area, a second area, and a third area, so that when a fire occurs, it is possible to more accurately detect which area the fire has occurred in.

도 25는 본 발명의 일 실시예에 따른, 열화상 영상에서 영역 별 최고 온도를 감지하는 실시 예를 도시한 도면이다. 25 is a diagram illustrating an example of detecting a maximum temperature for each region in a thermal image according to an embodiment of the present invention.

도 25를 참조하면, 열화상 이미지(2500)는 제 1 객체(2310), 제 2 객체(2320)를 포함한다. Referring to FIG. 25 , a thermal image 2500 includes a first object 2310 and a second object 2320 .

열화상 카메라는 적외선 에너지, 즉, 열을 감지하여 이를 실화상으로 변환해 주는 카메라이고, 열화상 이미지는 열화상 카메라로 캡쳐한 이미지를 의미한다. A thermal imaging camera is a camera that detects infrared energy, that is, heat, and converts it into a visible image, and a thermal image refers to an image captured by a thermal imaging camera.

제 1 객체(2310)는 제 1 영역(10), 제 2 영역(20), 제 3 영역(30)으로 구분될 수 있다. The first object 2310 may be divided into a first area 10 , a second area 20 , and a third area 30 .

여기서, 제 1 영역(10)의 최고 온도는 25도, 제 2 영역(20)의 최고 온도는 35도, 제 3 영역(30)의 최고 온도는 65도가 된다. Here, the maximum temperature of the first region 10 is 25 degrees, the maximum temperature of the second region 20 is 35 degrees, and the maximum temperature of the third region 30 is 65 degrees.

따라서, 제 1 객체(2310)의 최고 온도는 65도가 된다. Accordingly, the maximum temperature of the first object 2310 is 65 degrees.

제 2 객체(2320)는 제 1 영역(40), 제 2 영역(50), 제 3 영역(60)으로 구분될 수 있다. The second object 2320 may be divided into a first area 40 , a second area 50 , and a third area 60 .

여기서, 제 1 영역(40)의 최고 온도는 98도, 제 2 영역(50)의 최고 온도는 35도, 제 3 영역(60)의 최고 온도는 25도가 된다. Here, the maximum temperature of the first region 40 is 98 degrees, the maximum temperature of the second region 50 is 35 degrees, and the maximum temperature of the third region 60 is 25 degrees.

따라서, 제 2 객체(2310)의 최고 온도는 98도가 된다. Accordingly, the maximum temperature of the second object 2310 is 98 degrees.

또한, 제어부(230)는 실화상 이미지(2300)를 분석하여, 제 2 객체(2320)의 제 1 영역(40)의 불꽃(5)을 감지할 수 있다. Also, the controller 230 may analyze the real image 2300 to detect the flame 5 of the first area 40 of the second object 2320 .

본 발명에 따르면, 열화상 이미지(2500)에 포함된 개별 객체를 제 1 영역, 제 2 영역, 제 3 영역으로 구분할 수 있다. According to the present invention, individual objects included in the thermal image 2500 may be divided into a first area, a second area, and a third area.

여기서, 실화상 이미지(2300)의 개별 객체의 구분된 개별 영역은 열화상 이미지(2500)의 개별 객체의 구분된 개별 영역과 동일하다. Here, the divided individual regions of individual objects in the real image 2300 are the same as the divided individual regions of individual objects in the thermal image 2500 .

도 26은 본 발명의 일 실시예에 따른, 객체 별 최고 온도와 DB에 저장된 안전 온도를 비교하여 화재 경보를 실행하는 실시 예를 도시한 도면이다. 26 is a diagram illustrating an example of executing a fire alarm by comparing a maximum temperature for each object with a safety temperature stored in a DB according to an embodiment of the present invention.

제 1 객체(2310)의 최고 온도는 65도이고, 도 25에서의 제 3 영역(30)이 된다. The highest temperature of the first object 2310 is 65 degrees, which becomes the third region 30 in FIG. 25 .

DB에 저장된 제 1 객체(2310)의 안전온도 범위는 - 10 도 ~ 80 도가 된다. The safe temperature range of the first object 2310 stored in the DB is -10 degrees to 80 degrees.

따라서, 제 1 객체의 최고 온도는 안전온도 범위에 속하므로, 제어부(230)는 화재 경보를 실행하지 않는다. Therefore, since the highest temperature of the first object belongs to the safe temperature range, the controller 230 does not execute a fire alarm.

제 2 객체(2320)의 최고 온도는 98도이고, 도 25에서의 제 1 영역(40)이 된다. The highest temperature of the second object 2320 is 98 degrees, which becomes the first region 40 in FIG. 25 .

제어부(230)는 실화상 이미지(2300)를 분석하여, 제 2 객체(2320)의 제 1 영역(40)의 불꽃(5)을 감지할 수 있다. The controller 230 may analyze the real image 2300 and detect the flame 5 of the first area 40 of the second object 2320 .

제어부(230)는 열화상 이미지(2500)를 통하여 제 2 객체(2320)의 제 1 영역(40)의 최고 온도를 확인하고, 실화상 이미지(2300)를 분석하여, 불꽃(5)이 감지된 영역이 제 2 객체(2320)의 제 1 영역(40)임을 확인한다. The controller 230 checks the maximum temperature of the first region 40 of the second object 2320 through the thermal image 2500, analyzes the real image 2300, and determines that the flame 5 is detected. It is confirmed that the area is the first area 40 of the second object 2320 .

다음으로, 제어부(230)는 제 2 객체(2320)의 최고 온도 범위와 안전온도 범위를 비교하여 화재를 판단한다. Next, the controller 230 determines a fire by comparing the maximum temperature range of the second object 2320 with the safe temperature range.

DB에 저장된 제 2 객체(2320)의 안전온도 범위는 - 10 도 ~ 80 도가 된다. The safe temperature range of the second object 2320 stored in the DB is -10 degrees to 80 degrees.

따라서, 제 2 객체(2320)의 최고 온도 98도는 안전온도 범위를 초과하므로, 제어부(230)는 화재 경보를 실행한다. Therefore, since the maximum temperature of 98 degrees of the second object 2320 exceeds the safe temperature range, the controller 230 executes a fire alarm.

또한, 제어부(230)는 제 2 객체(2320)의 제 1 영역(40)에서 화재가 발생하였음을 감지할 수 있다. 따라서, 화재 발생 위치를 보다 정확하게 찾을 수 있는 장점이 있다. Also, the controller 230 may detect that a fire has occurred in the first area 40 of the second object 2320 . Therefore, there is an advantage in that the location of the fire can be found more accurately.

제어부(230)는 화재를 결정할 때, 실화상 이미지와 열화상 이미지의 가중치를 다르게 설정할 수 있다. When determining a fire, the controller 230 may set different weights between the real image and the thermal image.

구체적으로, 실화상 이미지의 가중치를 열화상 이미지의 가중치보다 낮게 설정할 수 있다. Specifically, the weight of the real image may be set lower than that of the thermal image.

예를 들어, 실화상 이미지의 가중치는 1 이고, 열화상 이미지의 가중치는 3으로 설정할 수 있다. For example, the weight of a real image may be set to 1 and the weight of a thermal image may be set to 3.

이는, 화재 여부를 결정할 때, 단순히 불꽃, 연기 이미지를 기초로 결정하는 것보다 객체의 최고 온도가 안전 온도 범위에 속하는지를 기준으로 판단하는 것이 더 정확도가 높기 때문이다. This is because, when determining whether or not there is a fire, it is more accurate to determine based on whether the maximum temperature of an object falls within a safe temperature range than simply determining based on flame and smoke images.

본 발명에 따르면, 실화상 이미지로부터 불꽃이 발생한 영역을 감지하고, 열화상 이미지로부터 영역 별로 온도를 감지하여, 최고 온도를 찾을 수 있고 데이터 베이스에 저장된 객체 별 안전 온도를 참조하여 화재 발생 여부와 화재 발생 위치를 보다 정확하게 찾을 수 있으므로 사용자 편의성을 향상시킬 수 있다. According to the present invention, it is possible to find the highest temperature by detecting a region where a flame has occurred from a visual image, and detecting a temperature for each region from a thermal image, and determine whether a fire has occurred and a fire by referring to a safe temperature for each object stored in a database. Since the occurrence location can be found more accurately, user convenience can be improved.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다. Various embodiments of the present disclosure are intended to explain representative aspects of the present disclosure, rather than listing all possible combinations, and matters described in various embodiments may be applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. 예를 들어, 종단 혹은 에지에서 사용될 수 있는 비 일시적 컴퓨터 판독가능한 매체에 저장된 프로그램의 형식이나, 에지 혹은 클라우드에서 사용될 수 있는 비 일시적 컴퓨터 판독 가능한 매체에 저장된 프로그램의 형식으로도 구현될 수 있음은 자명하다. 또한, 다양한 하드웨어 및 소프트웨어의 결합으로도 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), It may be implemented by a processor (general processor), controller, microcontroller, microprocessor, or the like. For example, it is obvious that it can be implemented in the form of a program stored in a non-transitory computer readable medium that can be used at the end or edge, or in the form of a program stored in a non-transitory computer readable medium that can be used at the edge or in the cloud. do. In addition, it may be implemented with a combination of various hardware and software.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행 가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is software or machine-executable instructions (eg, operating systems, applications, firmware, programs, etc.) that cause operations according to methods of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium in which instructions and the like are stored and executable on a device or computer.

이상에서 설명한 본 개시는, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 개시의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로, 본 개시의 범위는 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.Since the present disclosure described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present disclosure to those skilled in the art, the scope of the present disclosure is limited to the foregoing. It is not limited by one embodiment and accompanying drawings.

100 : 이동 로봇
110: 실화상 카메라부
120 : 열화상 카메라
130: 통신부
140: 제어부, 150: 메모리
100: mobile robot
110: real image camera unit
120: thermal imaging camera
130: communication department
140: control unit, 150: memory

Claims (10)

인공 지능을 이용한 화재 감시 시스템의 제어 방법에서,
실화상 영상 및 열화상 영상을 이동 로봇으로부터 수신하는 단계;
상기 실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지하는 단계;
상기 연기 및 불꽃 중 적어도 하나에 대응하는 감지 영역을 실화상 영상으로부터 추출하는 단계;
상기 감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별하는 단계;
상기 열화상 영상에서 상기 감지 영역에 대응하는 제 1 영역을 분석하여 상기 감지 영역의 최고 온도를 추출하는 단계; 및
식별된 상기 객체의 개별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정하는 단계를 포함하되,
화재 감시 시스템의 제어 방법.
In the control method of a fire monitoring system using artificial intelligence,
Receiving a real image and a thermal image from a mobile robot;
detecting at least one of smoke and flame by analyzing the real image;
extracting a detection area corresponding to at least one of the smoke and the flame from a real image;
individually identifying at least one object included in the sensing area;
extracting a maximum temperature of the sensing area by analyzing a first area corresponding to the sensing area in the thermal image; and
Including determining a fire by comparing the individual allowable temperature of the identified object with the maximum temperature,
Control method of fire monitoring system.
제 1 항에 있어서,
상기 이동 로봇은 실화상 카메라와 열화상 카메라를 포함하고,
상기 이동 로봇은
상기 실화상 카메라로 실화상 영상을 캡쳐하고,
상기 열화상 카메라로 상기 열화상 영상을 캡쳐하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
The mobile robot includes a real image camera and a thermal image camera,
The mobile robot
Capturing a real image with the real image camera;
Capturing the thermal image with the thermal imaging camera,
Control method of fire monitoring system.
제 2 항에 있어서,
상기 실화상 영상의 캡쳐 주기는 상기 열화상 영상의 캡쳐 주기와 서로 다르고,
상기 이동 로봇은 레일을 따라 움직이는 이동 로봇을 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 2,
The capture cycle of the real image is different from the capture cycle of the thermal image,
The mobile robot includes a mobile robot moving along a rail,
Control method of fire monitoring system.
제 1 항에 있어서,
상기 최고 온도가 상기 객체의 개별 허용 온도보다 높은 경우, 화재로 결정하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
Further comprising determining as a fire when the maximum temperature is higher than the individual allowable temperature of the object.
Control method of fire monitoring system.
제 1 항에 있어서,
상기 최고 온도가 상기 객체의 개별 허용 온도보다 낮은 경우, 화재가 아님으로 결정하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
Further comprising determining that it is not a fire when the maximum temperature is lower than the individual allowable temperature of the object.
Control method of fire monitoring system.
제 1 항에 있어서,
상기 실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지하는 단계는
상기 실화상 영상에 CNN을 이용하여 연기 및 불꽃 중 적어도 하나를 감지하는 단계를 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
The step of detecting at least one of smoke and flame by analyzing the real image
Including the step of detecting at least one of smoke and flame using a CNN in the real image,
Control method of fire monitoring system.
제 6 항에 있어서,
상기 실화상 영상에 CNN을 이용하여 연기 및 불꽃 중 적어도 하나를 감지하는 단계는
상기 실화상 영상을 시간순으로 실화상 이미지로 저장하는 단계;
저장된 상기 실화상 이미지를 흑백 이미지로 변환하는 단계;
변환된 상기 흑백 이미지를 이미지 프로세싱하는 단계;
이미지 프로세싱된 상기 흑백 이미지로부터 윤곽선을 추출하는 단계;
추출된 이미지 윤곽선을 CNN 입력으로 사용하여 학습을 수행하는 단계; 및
학습 결과를 기초로 연기 및 불꽃 중 적어도 하나를 감지하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 6,
The step of detecting at least one of smoke and flame using a CNN in the real image
storing the real image as a real image in chronological order;
converting the stored real image into a black and white image;
image processing the converted black and white image;
extracting outlines from the image-processed black-and-white image;
Performing learning using the extracted image contour as an input to the CNN; and
Further comprising detecting at least one of smoke and flame based on the learning result.
Control method of fire monitoring system.
제 1 항에 있어서,
상기 감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별하는 단계는,
YOLOv2를 이용하여 상기 적어도 하나의 객체를 개별적으로 식별하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
The step of individually identifying at least one object included in the sensing area,
Further comprising individually identifying the at least one object using YOLOv2,
Control method of fire monitoring system.
제 8 항에 있어서,
YOLOv2를 이용하여 상기 적어도 하나의 객체를 개별적으로 식별하는 단계는,
상기 실화상 화면을 개별 이미지로 추출하는 단계;
추출된 개별 이미지를 소정 크기의 그리드로 분할하는 단계;
분할된 상기 그리드의 중앙을 중심으로 기정의된 형태로 지정된 경계박스의 개수를 예측하는 단계;
신뢰도 계산을 이용하여 상기 경계박스가 상기 적어도 하나의 객체를 포함하는지 결정하는 단계; 및
결정 결과에 따라 상기 적어도 하나의 객체를 식별하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 8,
The step of individually identifying the at least one object using YOLOv2,
extracting the real picture screen as individual images;
Dividing the extracted individual images into grids of a predetermined size;
estimating the number of bounding boxes specified in a predefined form around the center of the divided grid;
determining whether the bounding box includes the at least one object by using reliability calculation; and
Further comprising identifying the at least one object according to a determination result.
Control method of fire monitoring system.
제 1 항에 있어서,
식별된 상기 객체 별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정하는 단계는
객체 별 허용 온도 정보를 포함하는 데이터 베이스를 참조하여 상기 객체 별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
The step of determining a fire by comparing the allowable temperature for each identified object with the maximum temperature
Further comprising determining a fire by comparing the allowable temperature for each object with the maximum temperature with reference to a database including permissible temperature information for each object,
Control method of fire monitoring system.
KR1020210167807A 2021-11-30 2021-11-30 Fire monitoring system using artificial intelligence and method thereof KR20230080522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210167807A KR20230080522A (en) 2021-11-30 2021-11-30 Fire monitoring system using artificial intelligence and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210167807A KR20230080522A (en) 2021-11-30 2021-11-30 Fire monitoring system using artificial intelligence and method thereof

Publications (1)

Publication Number Publication Date
KR20230080522A true KR20230080522A (en) 2023-06-07

Family

ID=86762000

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210167807A KR20230080522A (en) 2021-11-30 2021-11-30 Fire monitoring system using artificial intelligence and method thereof

Country Status (1)

Country Link
KR (1) KR20230080522A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116978207A (en) * 2023-09-20 2023-10-31 张家港江苏科技大学产业技术研究院 Multifunctional laboratory safety monitoring and early warning system
CN118053257A (en) * 2024-04-16 2024-05-17 爱瑞克(大连)安全技术集团有限公司 Industrial building fire early warning and disaster analysis method and system based on Internet of things

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116978207A (en) * 2023-09-20 2023-10-31 张家港江苏科技大学产业技术研究院 Multifunctional laboratory safety monitoring and early warning system
CN116978207B (en) * 2023-09-20 2023-12-01 张家港江苏科技大学产业技术研究院 Multifunctional laboratory safety monitoring and early warning system
CN118053257A (en) * 2024-04-16 2024-05-17 爱瑞克(大连)安全技术集团有限公司 Industrial building fire early warning and disaster analysis method and system based on Internet of things

Similar Documents

Publication Publication Date Title
WO2021253961A1 (en) Intelligent visual perception system
KR20230080522A (en) Fire monitoring system using artificial intelligence and method thereof
CN204288415U (en) Intelligent early-warning firefighting robot
CN205670368U (en) A kind of transmission line of electricity network intellectuality mountain fire monitoring system
KR102554662B1 (en) Safety management system using unmanned detector
CN103149893B (en) Motor-driven self-organization situation monitoring system
CN106600887A (en) Video monitoring linkage system based on substation patrol robot and method thereof
CN104299351A (en) Intelligent early warning and fire extinguishing robot
KR102335994B1 (en) Integrated control apparatus of surveillance devices for drone surveillance
JP2018012477A (en) Drone application system for achieving safe flight of drone
Kim et al. Sensor fusion based seek-and-find fire algorithm for intelligent firefighting robot
CN110379111A (en) A kind of unmanned plane inspection system for forest fire protection
KR20180001057A (en) Fire suppression system and method of using drones, Disaster information acquisition system
CN110944150A (en) Special external damage prevention intelligent identification method for electric power
CN106355805A (en) Big data substation monitoring system based on unmanned aerial vehicle and detection method thereof
CN111753780B (en) Transformer substation violation detection system and violation detection method
KR20220061312A (en) Deep learning based building management system with rail robot device
CN212439798U (en) Fire-fighting robot
JP6195447B2 (en) Shooting system
KR102262384B1 (en) DRONE OPERATIN SYSTEM and METHOD for INSPECTING POWER FACILITIES
JP2014150483A (en) Imaging system
CN112263803A (en) Unmanned vehicle intelligent security system based on real-time scene inspection and automatic detection fire extinguishing and control method
KR102430038B1 (en) System monitoring and removing the abnormality of an object and method thereof
KR20170112714A (en) System for automatic monitoring of distributed area using flying photographing unit
KR20220142865A (en) System and method for monitoring unmanned-office using mobile robot

Legal Events

Date Code Title Description
A201 Request for examination