KR20230080522A - Fire monitoring system using artificial intelligence and method thereof - Google Patents
Fire monitoring system using artificial intelligence and method thereof Download PDFInfo
- Publication number
- KR20230080522A KR20230080522A KR1020210167807A KR20210167807A KR20230080522A KR 20230080522 A KR20230080522 A KR 20230080522A KR 1020210167807 A KR1020210167807 A KR 1020210167807A KR 20210167807 A KR20210167807 A KR 20210167807A KR 20230080522 A KR20230080522 A KR 20230080522A
- Authority
- KR
- South Korea
- Prior art keywords
- fire
- image
- real image
- monitoring system
- control method
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012544 monitoring process Methods 0.000 title claims abstract description 54
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 5
- 238000001514 detection method Methods 0.000 claims abstract description 46
- 239000000779 smoke Substances 0.000 claims abstract description 28
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000001931 thermography Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 description 38
- 238000010586 diagram Methods 0.000 description 33
- 230000005856 abnormality Effects 0.000 description 25
- 238000004891 communication Methods 0.000 description 23
- 239000010410 layer Substances 0.000 description 14
- 230000008569 process Effects 0.000 description 14
- 239000003795 chemical substances by application Substances 0.000 description 12
- 239000013307 optical fiber Substances 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 9
- 238000002347 injection Methods 0.000 description 8
- 239000007924 injection Substances 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 230000001629 suppression Effects 0.000 description 6
- 239000000411 inducer Substances 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 239000007921 spray Substances 0.000 description 5
- 230000007257 malfunction Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 229910000831 Steel Inorganic materials 0.000 description 3
- 239000000443 aerosol Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000010959 steel Substances 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 206010054949 Metaplasia Diseases 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000008595 infiltration Effects 0.000 description 1
- 238000001764 infiltration Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000015689 metaplastic ossification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000001328 optic nerve Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/0014—Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation from gases, flames
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/48—Thermography; Techniques using wholly visual means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G06T5/007—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Fire-Detection Mechanisms (AREA)
- Fire Alarms (AREA)
Abstract
본 발명은 인공 지능을 이용한 화재 감시 시스템의 제어 방법에 관한 것으로, 실화상 영상 및 열화상 영상을 로봇으로부터 수신하고, 상기 실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지하고, 상기 연기 및 불꽃 중 적어도 하나에 대응하는 감지 영역을 실화상 영상으로부터 추출하고, 상기 감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별하고, 상기 열화상 영상에서 상기 감지 영역에 대응하는 제 1 영역을 분석하여 상기 감지 영역의 최고 온도를 추출하고, 식별된 상기 객체의 개별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정하는 것을 요지로 한다. The present invention relates to a control method of a fire monitoring system using artificial intelligence, wherein a real image and a thermal image are received from a robot, the real image is analyzed to detect at least one of smoke and flame, and the smoke and A detection area corresponding to at least one of the flames is extracted from a real image, at least one object included in the detection area is individually identified, and a first area corresponding to the detection area is analyzed in the thermal image. The main point is to extract the maximum temperature of the detection area and determine the fire by comparing the individual permissible temperature of the identified object with the maximum temperature.
Description
본 개시는 화재 감시 시스템 및 그 제어 방법에 대한 것으로서, 구체적으로, 인공 지능을 이용한 화재 감시 시스템 및 그 제어 방법에 대한 기술이다.The present disclosure relates to a fire monitoring system and a control method thereof, and specifically, to a fire monitoring system using artificial intelligence and a control method thereof.
최근 들어 대형화재의 발생 빈도가 꾸준히 증가하며, 화재와 안전에 대한 국민적 관심이 높아지고 있다. 지난 사례로는 큰 화재로 다수의 인원이 사망하고 사상하는 등 인명피해가 다수 발생하였다. 특히, 화재발생 시 골든 타임을 지키는 것은 매우 중요한 요소로 적용되지만 최근 인명피해가 발생한 화재 사례에서는 스프링클러가 작동하지 않거나 초기 신고 및 대응이 늦어져 대형 화재로 이어졌다는 공통점이 있다. 또한 여름철 열감지기의 오작동 및 화재수신반에 대한 관리자의 의식 부족으로 인하여 화재수신기를 끈 상태를 유지하는 사례가 빈번히 발생하고 있다In recent years, the frequency of large-scale fires has steadily increased, and public interest in fire and safety has increased. In the past case, a large number of people died and many people were injured due to a large fire. In particular, keeping the golden time in the event of a fire is applied as a very important factor, but recent fire cases in which human casualties have occurred have in common that sprinklers do not work or initial reporting and response are delayed, leading to large-scale fires. In addition, due to the malfunction of the heat detector in summer and the manager's lack of awareness about the fire receiver, there are frequent cases in which the fire receiver is turned off.
화재 출동 건수와 오인출동 건수를 보여주고 있는데 매해 그 발생 건수가 증가하고 있는 추세이며, 특히 화재 출동 건수에 비해 오인출동 건수의 증가 폭이 더 큰 것으로 나타났다. 또한 전체 출동 건수 중에 60% 정도가 오인출동으로 정작 소방력을 필요로 하는 현장에 출동하지 못하는 경우가 발생할 수 있다. 따라서 감지기의 오작동을 줄이고 화재 시 화재감지기의 기능을 정상적으로 발휘할 수 있도록 유지 관리와 점검이 정확하게 이루어져야 하지만, 실제 화재 발생시 연기 감지기의 작동 지연 및 부작동 등 신뢰성 저하로 인하여 인명 및 재산 피해가 크게 증가하고 있다.It shows the number of fire dispatches and the number of misplaced dispatches, and the number of occurrences tends to increase every year. In addition, about 60% of the total number of mobilization cases may not be mobilized to the site where firefighting power is needed due to the dispatch of the wrong person. Therefore, maintenance and inspection must be performed accurately to reduce malfunction of the detector and ensure that the fire detector functions normally in the event of a fire. there is.
종래 기술의 경우, 정지된 카메라를 활용하여 이전 이미지, 이후 이미지의 변화를 감지하여 연기, 불꽃을 감지하거나 고정된 영역의 온도 변화를 감지하여 화재를 탐지하는 방식을 사용하였다. 그러나, 이러한 경우, 카메라 자체가 움직이는 환경에서는 화재 감지의 정확성이 떨어지는 문제점이 있었다. In the case of the prior art, a method of detecting smoke or flame by detecting a change in a previous image or a subsequent image using a still camera or detecting a fire by detecting a temperature change in a fixed area was used. However, in this case, there is a problem in that the accuracy of fire detection is lowered in an environment where the camera itself moves.
본 발명의 목적은 기존의 화재 감지를 위한 온도 변화 검출 방식, 불꽃 감지를 위한 칼라 필터 사용 방식의 오작동 케이스를 감소시키기 위해서 감시 대상을 정확하게 식별하고 대상 별 안전 온도 데이터 베이스를 이용하여 화재 발생을 파악하는 화재 감시 시스템 및 그 제어 방법을 제공하는데 있다.An object of the present invention is to accurately identify a monitoring target and identify fire occurrence by using a safety temperature database for each target in order to reduce malfunction cases of the existing temperature change detection method for fire detection and color filter use method for flame detection. It is to provide a fire monitoring system and its control method.
본 발명의 목적은 이동 중인 로봇에 탑재된 카메라로 인한 불꽃을 정확하게 감지하지 못하는 것을 줄이기 위하여 불꽃이 감지된 객체 영역의 온도를 측정하는 열화상 이미지를 활용하여 화재 발생을 파악하는 화재 감시 시스템 및 그 제어 방법을 제공하는데 있다.An object of the present invention is a fire monitoring system that detects the occurrence of a fire by using a thermal image that measures the temperature of an object area where a flame is detected in order to reduce the inability to accurately detect a flame caused by a camera mounted on a moving robot, and the same It is to provide a control method.
본 발명의 목적은 실화상 이미지와 열화상 이미지를 기초로 객체를 복수의 영역으로 분할하고, 영역 별로 온도를 확인하여 화재가 발생한 위치를 정확하게 감지할 수 있는 화재 감시 시스템 및 그 제어 방법을 제공하는데 있다.An object of the present invention is to provide a fire monitoring system capable of accurately detecting the location of a fire by dividing an object into a plurality of regions based on a real image and a thermal image, and checking the temperature of each region, and a control method therefor. there is.
본 개시의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 개시의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 개시의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present disclosure can be understood by the following description, and will be more clearly understood by the embodiments of the present disclosure. Furthermore, it will be readily apparent that the objects and advantages of the present disclosure may be realized by means of the instrumentalities and combinations thereof set forth in the claims.
본 개시의 일 실시예에 따른, 인공 지능을 이용한 화재 감시 시스템의 제어 방법은, 실화상 영상 및 열화상 영상을 이동 로봇으로부터 수신하는 단계; 상기 실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지하는 단계; 상기 연기 및 불꽃 중 적어도 하나에 대응하는 감지 영역을 실화상 영상으로부터 추출하는 단계; 상기 감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별하는 단계; 상기 열화상 영상에서 상기 감지 영역에 대응하는 제 1 영역을 분석하여 상기 감지 영역의 최고 온도를 추출하는 단계; 및 식별된 상기 객체의 개별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정하는 단계를 포함한다. According to an embodiment of the present disclosure, a control method of a fire monitoring system using artificial intelligence includes receiving a real image and a thermal image from a mobile robot; detecting at least one of smoke and flame by analyzing the real image; extracting a detection area corresponding to at least one of the smoke and the flame from a real image; individually identifying at least one object included in the sensing area; extracting a maximum temperature of the sensing area by analyzing a first area corresponding to the sensing area in the thermal image; and determining a fire by comparing the individual permissible temperature of the identified object with the maximum temperature.
본 발명의 일 실시예에 따르면, 기존의 화재 감지를 위한 온도 변화 검출 방식, 불꽃 감지를 위한 칼라 필터 사용 방식의 오작동 케이스를 감소시키기 위해서 감시 대상을 정확하게 식별하고 대상 별 안전 온도 데이터 베이스를 이용하여 화재 발생을 보다 정확하게 파악할 수 있으므로 사용자 편의성을 향상시킬 수 있다.According to an embodiment of the present invention, in order to reduce malfunction cases of the existing temperature change detection method for fire detection and color filter use method for flame detection, a monitoring target is accurately identified and a safety temperature database for each target is used. User convenience can be improved because fire occurrence can be identified more accurately.
본 발명의 다른 실시 예에 따르면, 이동 중인 로봇에 탑재된 카메라로 인한 불꽃을 정확하게 감지하지 못하는 것을 줄이기 위하여 불꽃이 감지된 객체 영역의 온도를 측정하는 열화상 이미지를 활용하여 화재 발생을 보다 정확하게 파악할 수 있으므로 사용자 편의성을 향상시킬 수 있다.According to another embodiment of the present invention, in order to reduce the inability to accurately detect flames caused by a camera mounted on a moving robot, a thermal image measuring the temperature of an object area where a flame is detected is used to more accurately determine the occurrence of a fire. Therefore, user convenience can be improved.
본 발명의 다른 실시 예에 따르면, 실화상 이미지와 열화상 이미지를 기초로 객체를 복수의 영역으로 분할하고, 영역 별로 온도를 확인하여 화재가 발생한 위치를 보다 정확하게 감지할 수 있으므로 화재 진압을 효과적으로 할 수 있다. According to another embodiment of the present invention, an object can be divided into a plurality of regions based on a real image and a thermal image, and the location of a fire can be more accurately detected by checking the temperature for each region, thereby effectively suppressing a fire. can
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below. will be.
도 1은 본 발명의 일 실시예에 따른 객체 이상 감시와 제거를 위한 시스템을 개략적으로 도시한 도면이다.
도 2는 주행 로봇의 기능 구성에 관한 블록도이다.
도 3은 주행 로봇에 관한 사시도이다.
도 4는 주행 로봇이 궤도를 따라 주행하는 것을 도시한 사시도이다.
도 5는 관제 서버의 기능 구성에 관한 블록도이다.
도 6은 본 발명의 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법을 나타내는 순서도이다.
도 7 내지 도 9는 본 발명의 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 따라 구현되는 동작을 나타낸 도면이다.
도 10은 본 발명의 또 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법을 나타내는 순서도이다.
도 11 내지 도 15는 본 발명의 또 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 따라 구현되는 동작을 나타낸 도면이다.
도 16은 본 발명의 일 실시예에 따른, 화재 감시 시스템의 구성을 도시한 도면이다.
도 17은 본 발명의 일 실시예에 따른, 화재 감시 시스템의 제어 방법을 도시한 도면이다.
도 18은 본 발명의 일 실시예에 따른, CNN의 구조를 도시한 도면이다.
도 19는 본 발명의 일 실시예에 따른, 화재 감지에 사용된 불꽃, 연기, 연무를 도시한 도면이다.
도 20은 본 발명의 일 실시예에 따른, CNN을 이용하여 불꽃, 연기를 감지하는 프로세스를 도시한 도면이다.
도 21은 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 프로세스를 도시한 도면이다.
도 22는 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 실시 예를 도시한 도면이다.
도 23은 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 실시 예를 도시한 도면이다.
도 24는 본 발명의 일 실시예에 따른, 식별된 객체의 영역을 세분화하는 실시 예를 도시한 도면이다.
도 25는 본 발명의 일 실시예에 따른, 열화상 영상에서 영역 별 최고 온도를 감지하는 실시 예를 도시한 도면이다.
도 26은 본 발명의 일 실시예에 따른, 객체 별 최고 온도와 DB에 저장된 안전 온도를 비교하여 화재 경보를 실행하는 실시 예를 도시한 도면이다. 1 is a diagram schematically illustrating a system for monitoring and removing an anomaly of an object according to an embodiment of the present invention.
2 is a block diagram of a functional configuration of a driving robot.
3 is a perspective view of a traveling robot.
4 is a perspective view illustrating a traveling robot traveling along a track.
5 is a block diagram of a functional configuration of a control server.
6 is a flowchart illustrating a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention.
7 to 9 are diagrams illustrating operations implemented according to a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention.
10 is a flowchart illustrating a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention.
11 to 15 are diagrams illustrating operations implemented according to a method for monitoring and removing an abnormal object according to another embodiment of the present invention.
16 is a diagram showing the configuration of a fire monitoring system according to an embodiment of the present invention.
17 is a diagram illustrating a control method of a fire monitoring system according to an embodiment of the present invention.
18 is a diagram showing the structure of a CNN according to an embodiment of the present invention.
19 is a diagram illustrating flame, smoke, and haze used for fire detection according to an embodiment of the present invention.
20 is a diagram illustrating a process of detecting flames and smoke using a CNN according to an embodiment of the present invention.
21 is a diagram illustrating a process of identifying an object using YOLOv2, according to an embodiment of the present invention.
22 is a diagram illustrating an example of identifying an object using YOLOv2 according to an embodiment of the present invention.
23 is a diagram illustrating an example of identifying an object using YOLOv2 according to an embodiment of the present invention.
24 is a diagram illustrating an example of subdividing an area of an identified object according to an embodiment of the present invention.
25 is a diagram illustrating an example of detecting a maximum temperature for each region in a thermal image according to an embodiment of the present invention.
26 is a diagram illustrating an example of executing a fire alarm by comparing a maximum temperature for each object with a safety temperature stored in a DB according to an embodiment of the present invention.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.
본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing the embodiments of the present disclosure, if it is determined that a detailed description of a known configuration or function may obscure the gist of the present disclosure, a detailed description thereof will be omitted. And, in the drawings, parts irrelevant to the description of the present disclosure are omitted, and similar reference numerals are attached to similar parts.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components that are distinguished from each other are intended to clearly explain each characteristic, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form a single hardware or software unit, or a single component may be distributed to form a plurality of hardware or software units. Accordingly, even such integrated or distributed embodiments are included in the scope of the present disclosure, even if not mentioned separately.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Therefore, an embodiment composed of a subset of components described in one embodiment is also included in the scope of the present disclosure. In addition, embodiments including other components in addition to the components described in various embodiments are also included in the scope of the present disclosure.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Therefore, an embodiment composed of a subset of components described in one embodiment is also included in the scope of the present disclosure. In addition, embodiments including other components in addition to the components described in various embodiments are also included in the scope of the present disclosure.
본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다.In the present disclosure, terms such as first and second are used only for the purpose of distinguishing one element from another, and do not limit the order or importance of elements unless otherwise specified. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment may be referred to as a first component in another embodiment. can also be called
본 개시의 어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 “직접 연결되어” 있다거나, “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component of the present disclosure is referred to as “connected” or “connected” to another component, it may be directly connected or connected to the other component, but there may be other components in the middle. It should be understood that it may be On the other hand, when a component is referred to as “directly connected” or “directly connected” to another component, it should be understood that no other component exists in the middle.
또한, 본 개시에 있어서 본 개시의 실시예를 도시한 일 도면이 다른 도면과 양자 택일의 실시예에 해당하지 않는 한 각 도면에 대한 설명은 서로 다른 도면에 적용될 수 있다. In addition, in the present disclosure, the description of each drawing may be applied to different drawings unless one drawing showing an embodiment of the present disclosure corresponds to another drawing and an alternative embodiment.
이하, 도면을 참조하여 본 개시에 대하여 더욱 상세하게 설명할 것이다.Hereinafter, the present disclosure will be described in more detail with reference to the drawings.
도 1 내지 도 5를 참조하여, 본 발명의 일 실시예에 따른 객체 이상 감시와 제거를 위한 시스템에 대하여 설명하기로 한다.Referring to FIGS. 1 to 5 , a system for monitoring and removing an abnormal object according to an embodiment of the present invention will be described.
도 1은 본 발명의 일 실시예에 따른 객체 이상 감시와 제거를 위한 시스템을 개략적으로 도시한 도면이다. 도 2는 주행 로봇의 기능 구성에 관한 블록도이고, 도 3은 주행 로봇에 관한 사시도이다. 1 is a diagram schematically illustrating a system for monitoring and removing an anomaly of an object according to an embodiment of the present invention. 2 is a block diagram of the functional configuration of the driving robot, and FIG. 3 is a perspective view of the driving robot.
객체 이상 감시와 제거를 위한 시스템(10; 이하, '시스템'이라 함)은 공간 내에 배치된 적어도 하나의 객체의 위험 상황의 발생 여부를 평시 감시하면서 위험 상황을 검출하면 주행 로봇(300)을 위험 상황이 유발된 이상 발생 지점(40)으로 이동시켜 이상 상황을 제거 내지 해소시키는 시스템이다. 이하에서는 위험 상황이 화재인 것을 예시하여 설명하고 있으나, 공간 경비에서 사람 내지 의심 물체의 침입, 잠입 등일 수 있으며, 이에 제한되지 않고 공간 내에서 발생가능한 다양한 이상(또는 비정상) 상황일 수 있다. The system (10; hereinafter referred to as 'the system') for monitoring and removing an abnormal object is monitoring whether or not a dangerous situation occurs in at least one object disposed in the space, and if a dangerous situation is detected, the driving
시스템(10)은 감지 장치(100, 200), 주행 로봇(300) 및 궤도 장치(400) 및 관제 서버를 포함한다. The
감지 장치는 공간(20)에서 복수의 객체(30)와 상당 정도로 이격되거나 이에 근접한 위치에 설치되어 화재 등의 이상 상황의 발생 여부를 평시적으로 모니터링한다. 감지 장치(100, 200)는 이격된 위치에 배치되는 고정식 카메라(100) 혹은 근접 위치에 설치되도록 객체(30)의 표면을 따라 온도를 감지하는 광섬유 온도 센서를 구비하는 근접 감지 장치(200)일 수 있다. The sensing device is installed at a location that is considerably spaced apart from or close to the plurality of
고정식 카메라(100)는 복수의 다양한 장비와 같은 다수의 객체(30)이 존재하는 공간(20)에서 다수의 객체(30)에 관한 영상을 획득하는 장소에 위치될 수 있다. 고정식 카메라(100)는 객체(30)의 영상을 획득하여 관제 서버(500)로 전송하며, 객체(30)의 영상은 화재 발생과 같은 객체 이상 여부를 판단함과 아울러서 화재 발생 지점(40)을 결정하는데 이용되는 감지 데이터일 수 있다. 고정식 카메라(100)을 이용한 화재 발생 지점(40) 및 최근접한 궤도 위치의 산출에 대한 상세 설명은 후술하기로 한다. 고정식 카메라(100)는 지면에 평행을 이루는 수평축을 중심으로 일정한 각도 범위에서 상하 방향으로 회전됨과 아울러서, 지면에 수직인 수직축을 중심으로 일정한 각도 범위에서 좌우 방향으로 회전될 수 있으며, 이에 따라 고정식 카메라(100)는 광범위한 촬영이 가능할 뿐만 아니라 복수 구비되는 경우에 촬영 범위가 상호 중첩되어 객체(30)의 이상 여부를 더욱 신속하게 확인할 수 있다. 또한, 고정식 카메라(100)는 줌 인아웃 기능을 구비함으로써 이상 여부가 의심스러운 객체(30)의 영상을 확대하여 획득하여 이상 여부를 더 정확하게 판단하는데 기여한다. 고정식 카메라(100)는 일반적인 CCTV 또는 PTZ 카메라일 수 있다.The fixed
근접 감지 장치(200)는 공간(20) 내에서 고정식 카메라(100)의 영상 획득이 곤란한 시설물에 위치될 수 있다. 예컨대 지면의 수직 방향으로 다층으로 적층된 파이프 및/또는 전기 배선과 같은 전기계통설비인 경우에, 중간층에 있는 시설물 또는 다발 형태의 전기 배선들 내부에 배치된 전기 배선에 대해서는 고정식 카메라(100)에 의한 화재 초기 발견이 실질적으로 곤란하다. 이와 같은 객체의 이상 고온, 화재 발생 여부를 보다 신속히 파악되도록, 근접 감지 장치(200)가 구비하는 광섬유 온도 센서가 고정식 카메라(100)에 의해 감지 곤란한 객체(30)의 표면을 따라 장착되어 해당 객체(30)의 온도 및 화재 발생 여부를 감지할 수 있다. 광섬유 온도 센서는 관제 서버(500)와 광섬유를 통해 광통신이 가능한 소재로 구성될 수 있으며, 광섬유 온도 센서는 연장 방향을 따라 소정 간격으로 지정된 위치 데이터를 가질 수 있도록 관제 서버(500)에 의해 설정될 수 있다. 이에 따라, 광섬유 온도 센서가 객체(30)의 화재에 의해 단선되는 경우에, 광통신은 단선되는 이상 발생 지점(40)과 관제 서버(500)에 서만 이루어지므로, 관제 서버(500)는 광통신 가능 지점에 해당하는 위치 데이터에 의거하여 객체(30)의 이상 발생 지점(40)을 산출할 수 있다. 이상 발생 지점(40)이 산출되면 이에 기반한 최근접한 궤도 위치는 관제 서버(500)에 의해 산출될 수 있다 The
주행 로봇(300)은 궤도 장치의 제 1 궤도(402)를 따라 주행하여, 감지 장치와 함께 주기적으로 복수 객체(30)의 화재 발생 여부를 평시 모니터링한다. 또한, 주행 로봇(300)은 감지 장치에 의해 객체(30)의 이상이 검출된 경우, 객체(30)의 이상 발생 지점(40)과의 최소 거리 위치로 제공되도록 제어되며 객체의 이상을 확인하여 제거한다. 아울러, 주행 로봇(300)이 감지 장치(100, 200)보다 먼저 객체(30)의 이상을 감지하여 관제 서버(500)에 전송할 수 있으며, 이 경우에 주행 로봇(300)이 이상 발생 지점(40)에 최근접한 궤도 위치로 이동하면서 이상 발생 지점(40)과의 최소 거리 위치로 제공되도록 이동 혹은 주행 로봇(300)의 자세 제어가 실행될 수 있다. 다른 예로, 주행 로봇(300)이 먼저 이상을 감지한 경우에, 주행 로봇(300)은 자신이 객체(30)로부터 획득한 감지 데이터를 관제 서버(500)에 전송하며, 관제 서버(500)는 객체(30)가 이상이 있다고 판단한 경우에, 감지 장치(100, 200)와 연동하여 최근접한 궤도 위치를 산출할 수 있다. The driving
도 2 및 도 3을 참조하면, 주행 로봇(300)은 구동부(302), 감지부(304), 이상 제거부(306), 팬틸트(pan-tilt) 조정부(308), 송수신부(310), 메모리(312), 경보부(314), 전원부(316) 및 프로세서(304)를 포함할 수 있다. Referring to FIGS. 2 and 3 , the driving
구동부(302)는 궤도 장치에 의해 경로가 설정된 제 1 및 제 2 궤도(402, 408)를 따라 주행 로봇(300)이 주행가능하도록, 모터, 이와 기계적으로 연결된 구동휠 등을 본체(328)에 구비할 수 있으며, 주행 로봇(300)의 이상 제거를 위한 조준의 정확성을 제고하기 위해 주행 로봇(300)을 상하 방향으로 이동시킬 수 있는 높이 조절 리프트를 구비할 수 있다. 높이 조절 리프트는 주행 로봇(300)의 본체(328)와 지지체 사이에 팬터그래프 타입의 관절 구조 또는 수직 방향으로 복수 조합된 유압 실린더를 구비할 수도 있다. The
감지부(304)는 지지체(330) 및 지지 조립체(332)를 통해 본체(328)와 결합되며, 객체(30)의 실화상과 관련된 영상을 획득하는 실화상 카메라(320), 객체(30)의 열을 감지하는 열화상 카메라(318)와 아울러서, 가스 센서, 온도 센서, 소리 인식 센서, 자외선 센서, 위치 센서, 전류/전압 측정기 등의 다양한 센서들을 포함하는 센서 모듈(322)을 포함할 수 있다. The
감지부(304)는 평시 감시에 있어서 활성화되어 객체(30)의 이상 여부를 확인할 수 있으며, 이상 발생, 예컨대 객체(30)에 화재 발생이 확인된 경우에, 주행 로봇(300)이 최근접한 궤도 위치에 도달하면, 화재 발생 지점(40)을 촬영하여 주행 로봇(300)을 제어하기 위해 필요한 최소 거리 위치를 산출하는데 기여한다. The
감지부(304)는 팬틸트 조정부(308)에 의해 좌우 방향 및 상하 방향으로 회전가능하도록 제어될 수 있다 이에 따라, 최근접한 궤도 위치에서 화재 발생 지점(40)으로 근접할수록 이동하는 과정에서, 소정의 고정된 각도로 팬틸트된 감지부(304)와 이상 발생 지점(40)의 중심점 간에 수직이 되도록, 감지부(304)가 취득한 영상에서 객체(30)의 화재 발생 지점(40)이 위치되는 경우가 최소 거리 위치로 결정될 수 있다. 최소 거리 위치는 열화상 카메라(318)로부터 감지된 화재의 최고 온도와 실화상 카메라(320)로부터 획득된 화재의 중심점에 근거하여 결정될 수 있다. 최소 거리 위치의 결정 및 위치/자세 제어의 상세 설명은 후술하기로 한다.The
이상 제거부(306)는 지지체(330) 및 지지 조립체(332)를 통해 본체(328)와 결합되며, 예컨대 지지 조립체(332)에 감지부(304)와 함께 탑재될 수도 있다. 이상 제거부(306)는 객체(30)의 이상이 화재인 경우에 화재에 대하여 소화제, 예컨대 에어로졸 소화제를 분사하는 소화기(324) 및 소화제를 화재 발생 지점(40)으로 유도하는 분사 유도기(326)를 포함할 수 있다. 도면에 미도시되어 있으나, 분사 유도기(326)는 소화기(324) 주변에 소화제 분사를 원할하게 가이드하는 개소이라면 어느 곳이라도 무방하고, 팬 형태로 구현될 수 있다. 소화제가 에어로졸 타입인 경우에, 화재 중심점이 아닌 주변 불에 주로 분사되면, 에어로졸 소화제로 인해 상승 기류가 발생하여 화재 진압이 원활하게 이루어지지 않을 수 있다. 따라서, 분사 유도기(326)는 실화상 카메라(320), 열화상 카메라(318), 가스 센서, 온도 센서 등의 감지 데이터에 기초하여 도출된 화재 중심점을 향하여 소화제가 분사되도록 소화제 분사 방향을 가이드할 수 있다. The
이상 제거부(306)는 주행 로봇(300)이 최소 위치 거리에 제공되도록 이동 및/또는 자세 제어된 경우에 가동되며, 팬틸트 조정부(308)에 의해 화재 중심점 등을 감안한 화재 발생 지점(40)으로 조준된 후에, 소화제를 분사할 수 있다.The
팬틸트 조정부(308)는 도 3에서와 같이, 본체(328)와 지지체(330) 사이에 마련되어 이상 제거부(306)를 수직축을 따라 좌우 방향으로 회전가능하도록 제어하는 팬 구동조정부(334) 및 지지체(330)와 지지 조립체(332) 사이에 제공되어 이상 제거부(306)를 수평축을 따라 상하 방향으로 회전가능하도록 제어하는 틸트 구동조정부(336)를 구비할 수 있다. As shown in FIG. 3, the pan
감지부(304)와 이상 제거부(306)는 일체의 지지 조립체(332)에 탑재되어 팬틸트 조정부(308)의 제어에 의해 동기화되어 소정 방향으로 회전할 수 있다. 이에 따르면, 감지부(304)의 감지 데이터에 기초하여 결정된 최소 거리 위치 및 화재 중심점 등이 이상 제거부(306)의 관점에서도 공유되므로, 이상 제거부(306)는 추가적인 조절없이 최소 거리 위치 등으로 이동/자세 제어될 수 있으며, 현 상태에서 세밀 조준하여 화재를 신속하게 진압할 수 있다. 다른 예에서, 감지부(304)와 이상 제거부(306)가 서로 다른 팬틸트 조정부들에 의해 제어될 수도 있으며, 이 경우에 이상 제거부(306)는 감지부(304)에서 제어된 위치 및 자세를 기초로 제어될 수 있다. The
송수신부(310)는 주행 로봇(300)의 다양한 제어, 객체(30)의 이상 여부와 관련한 감지부(304)의 감지 데이터, 이상 제거와 관련된 데이터, 예컨대 화재 진압 과정의 영상 등을 관제 서버(500)와 송수신하는 모듈일 수 있다. 송수신부(310)는 관제 서버(500)와 유무선 통신을 수행할 수 있으며, 무선 통신의 경우에 근거리 통신으로서 WI-FI, 블루투스 및 지그비 통신 모듈 등으로 구성될 수 있다. The transmission/
메모리(312)는 주행 로봇(300)을 제어함과 아울러서 관제 서버(500)로부터 수신된 데이터, 예컨대 복수의 객체 위치를 포함한 공간(20) 전체의 좌표와 같은 위치 데이터, 시스템(10)을 구성하는 장치들(100~400)의 위치 데이터, 이상 발생 지점(40)의 위치 데이터, 이상 발생 지점(40)에 최근접한 궤도 위치 데이터등을 저장할 수 있다. The
경보부(314)는 이상 발생시에 공간(20) 내에 시각 및/또는 청각적으로 이상 발생 상황을 전파할 뿐만 아니라, 이상 발생 상황에 따른 다양한 방식으로 현 상황을 전파할 수 있다.When an abnormality occurs, the
전원부(316)는 주행 로봇(300)의 독립적인 동작과 기능이 가능하도록 배터리를 포함할 수 있으며, 화재 등의 이상 발생에 의해 공간(20) 내에 전력 공급이 차단되더라도 주행 로봇(300) 스스로가 화재 발생 지점(40)에 근접하기 위한 위치 계산, 이동, 자세 제어 및 분사 등을 독립적으로 수행할 수 있다. 주행 로봇(300)은 배터리의 잔량이 기준치 이하일 경우에 충전 스테이션으로 이동하여 전원부(316)를 충전시킬 수도 있다. The
프로세서(304)는 주행 로봇(300)의 상술한 부재의 기능을 제어하고 관제 서버(500)와 송수신된 데이터의 처리를 실행한다. The
도 4는 주행 로봇이 궤도를 따라 주행하는 것을 도시한 사시도이다.4 is a perspective view illustrating a traveling robot traveling along a track.
궤도 장치와 관련하여 도 4 및 도 11을 참조하면, 궤도 장치는 제 1 궤도(402) 및 제 2 궤도(408)를 구비함과 아울러서, 주행 로봇(300)이 제 1 및 제 2 궤도(402, 408) 상호 간에 변경 이동가능하도록 제공되는 전환 분기부(410)를 더 포함할 수 있다. 여기서, 제 2 궤도(408)는 제 1 궤도(402)와 상이한 높이 및 상이한 방향 중 적어도 하나로 연장되도록 설치될 수 있다. 도 11의 실시예에서는 제 1 및 제 2 궤도(402, 408)만이 예시되어 있으나, 공간(20)의 객체 위치 및 시공 환경에 따라 제 1 궤도(402)에 복수의 궤도들이 연결가능하며, 연결 부위마다 전환 분기부(410)가 설치될 수 있다. 4 and 11 in relation to the track device, the track device includes a
제 1 및 제 2 궤도(402, 408)는 주기적으로 설치된 로드들(404)을 통해 공간(20)의 소정 개소에 위치된 지지 프레임(406)과 연결되어 고정될 수 있다. 관제 서버(500)의 설정에 따라, 제 1 궤도(402)는 주행 로봇(300)의 평시 감시 및 이상 발생시의 주행 경로 양쪽으로 전부 활용될 수 있도록 지정되고, 제 2 궤도(408)는 이상 발생시에 해당 지점과의 최근접한 궤도 위치로 산출된 경우에 이상 발생시의 보조 주행 경로로 사용되도록 지정될 수 있다. 다른 예에서는 관제 서버(500)의 설정에 따라 제 1 및 제 2 궤도(402, 408) 전부 평시 감시 및 이상 발생시의 주행 경로로 활용될 수 있다. 제 1 궤도(402)와 상이한 높이 및/또는 방향으로 연장된 제 2 궤도(408)가 평시 감시의 경로로 이용되면, 평시 감시의 정확성 및 이상 발생의 신속한 확인이 발휘될 수 있다. The first and
관제 서버(500)에 의해 이상 발생이 판단되어 이상 발생 지점(40)이 산출되고 최근접한 궤도 위치가 제 2 궤도의 소정 위치로 결정된 경우에, 주행 로봇(300)은 제 1 궤도(402)로 주행하는 상황에서 전환 분기부(410)를 통해 제 1 궤도에서 제 2 궤도 상의 최근접한 궤도 위치로 이송될 수 있다. 원활한 궤도 전환 변경을 위해, 전환 분기부(410)에 인접한 제 1 및 제 2 궤도(402, 408)는 전환 분기부(410)와 동일한 높이에 배치될 수 있다. 이에 따라, 주행 로봇(300)이 제 1 궤도(402)로부터 전환 분기부(410)에 진입한 경우에, 전환 분기부(410)는 주행 로봇(300)이 제 2 궤도 측으로 이동할 수 있도록 회전하여 제 2 궤도(408)와 연결되는데 기여한다. When an abnormal occurrence is determined by the
한편, 주행 로봇(300)이 송수신부(310)를 통해 관제 서버(500)와 WI-FI 통신을 구현하는 경우에, 제 1 궤도(402)는 CRA(Cable type WI-FI Radial Antenna) 케이블을 포함할 수 있다. Meanwhile, when the driving
CRA는 케이블형 WI-FI 방사형 안테나를 의미할 수 있다. 일 예로, CRA는 전파가 외부로 방출되어 통신이 가능한 안테나가 구비된 케이블일 수 있다. 일 예로, CRA에는 통신이 가능하도록 슬롯(또는 홈, 영역)이 존재할 수 있다. 이때, 슬롯은 안테나에 대한 역할을 수행할 수 있으며, 슬롯의 길이 또는 기울기 등에 기초하여 통신을 위한 방출되는 전파에 대한 주파수가 다르게 선택될 수 있다. 일 예로, 주행 로봇(300)이 동작하는 주파수는 근거리 통신망에 대한 주파수일 수 있으며, 슬롯은 상술한 주파수 대역을 이용할 수 있도록 설계될 수 있다. 즉, CRA에 대한 슬롯은 주파수를 고려하여 케이블에 설정될 수 있으며, 안테나 역할을 수행할 수 있다. 보다 상세하게는, CRA는 송신기와 송신 안테나 또는 수신 안테나와 수신기 사이를 연결하여 고주파전력을 전송하기 위하여 사용되는 전송 선로를 의미할 수 있다. 이때, 케이블은 CRA에서 획득한 전파 신호를 전송 선로를 통해 서버 또는 다른 장치 등으로 전달할 수 있다. 또는, 케이블은 서버 또는 다른 장치로부터 발생한 신호를 전송 선로를 통해 전달하고, CRA에서 전파로서 방출할 수 있다. 일 예로, CRA는 누설 동축 케이블일 수 있으나, 이에 한정되지 않는다.CRA may mean a cable type WI-FI radial antenna. For example, the CRA may be a cable equipped with an antenna capable of communicating by radiating radio waves to the outside. For example, a slot (or home or area) may exist in the CRA to enable communication. In this case, the slot may serve as an antenna, and a different frequency may be selected for radio waves emitted for communication based on the length or slope of the slot. For example, the frequency at which the driving
주행 로봇(300)은 구비된 케이블을 따라 이동할 수 있다. 일 예로, 주행 로봇(300)의 무게(또는 하중)는 케이블에서 이동 가능하도록 설계될 수 있다. 즉, 별도의 궤도를 설치하지 않고, 일반 궤도를 통해 주행 로봇(300)이 이동할 수 있다. 한편, 주행 로봇(300)은 구동부(302)를 통해 일반 궤도로서 기구비된 케이블을 이동할 수 있다. 이때, 주행 로봇(300)은 일반 궤도에서 CRA를 통해 무선 통신을 수행할 수 있다.The traveling
또 다른 일 예로, 주행 로봇(300)은 주행 로봇(300)이 포함하는 장비 또는 장치 등을 고려하여 CRA 및 지지선(또는 강선)을 궤도로 주행할 수 있다. 이때, 주행 로봇(300)은 케이블카와 같이 일정한 강선에 연결되어 주행될 수 있다. 또 다른 일 예로, 주행 로봇(300)에 하중이 큰 장치가 탑재된 경우, 주행 로봇(300)은 CRA를 장착(또는 삽입)한 프로파일(e.g. 알루미늄 또는 강철)을 궤도로 이용하여 주행할 수 있다. 즉, 주행 로봇(300)은 CRA 삽입형 궤도로서 큰 하중을 견딜 수 있는 궤도를 통해 주행할 수 있다As another example, the driving
다른 예에서는 제 1 및 제 2 궤도(402, 408) 전부 CRA 케이블을 전부 포함하도록 설치될 수도 있다.In another example, all of the first and
이와 같이 궤도에 포함되는 CRA 케이블은 내연성을 가지고 있어, 화재 발생으로 인한 통신 불량을 억제할 수 있다. 또한 기존에는 주행 로봇(300)이 전선 및 통신선에 접촉하여 데이터 전송이 가능할 수 있었다. 다만, 주행 로봇(300)은 사람의 접근이 어려운 지역으로 지하 시설이나 고온, 고압 등의 환경에서 주행할 수 있다. 이때, 기존과 같이 주행 로봇(300)이 접촉형 궤도를 통해 데이터를 전송하는 경우에 상술한 환경을 고려한 주행 로봇(300)을 구현하는데 한계가 있었다. 이러한 점을 고려하여 주행 로봇(300)은 CRA를 통한 무선 통신으로서 감지부(304)에서 획득한 정보를 서버(또는 CMS)에 전달할 수 있도록 설계될 수 있다.In this way, the CRA cable included in the track has flame resistance, and thus, communication failure due to a fire can be suppressed. Also, in the past, the driving
도 5는 관제 서버의 기능 구성에 관한 블록도이다. 5 is a block diagram of a functional configuration of a control server.
관제 서버(500)는 감지 장치(100, 200), 주행 로봇(300) 및 궤도의 전환 변경 등을 제어함과 아울러서, 감지 장치(100, 200)와 주행 로봇(300)으로부터 수신된 감지 데이터에 기초하여 이상 발생 여부 판단, 이상 발생 지점(40) 등과 관련된 각종 위치 데이터, 이상 제거 과정 중의 주행 로봇(300)의 거동 제어 등을 처리할 수 있다. The
관제 서버(500)는 구체적으로 송수신부(502), 메모리(504), 분석부(506), 위치 산출부(508) 및 프로세서(510)를 포함할 수 있다. The
송수신부(502)는 감지 장치(100, 200) 및 주행 로봇(300)과 정의된 통신 방식으로 데이터를 교환하는 모듈을 구비할 수 있으며, 주행 로봇(300)이 WI-FI로 통신하는 경우에, 송수신부(502)는 제 1 궤도(402)에 내장된 CRA 케이블을 이용하여 주행 로봇(300)과 통신할 수도 있다.The
메모리(504)는 관제 서버(500)를 운영하는 프로그램 뿐만 아니라, 다양한 데이터를 저장할 수 있다. 저장되는 데이터는 위치 데이터, 감지 장치와 주행 로봇(300)이 평시 또는 화재시 진압 과정 등에서 취득한 영상, 온도, 가스 유무, 소리 등의 감지 데이터 등을 저장할 수 있다. The
위치 데이터는 복수의 객체(30)의 위치 정보를 포함하는 공간(20) 전체의 좌표와 같은 위치 데이터, 시스템(10)을 구성하는 장치들(100~400)의 위치 데이터, 이상 발생 지점(40)의 위치 데이터, 이상 발생 지점(40)에 최근접한 궤도 위치 데이터 등일 수 있다. 공간 전체의 좌표는 객체(30)가 배치된 공간(20) 시공시에 기초가 된 건축도면 및 3차원 스캐너(예를 들어 Lidar 스캐너)에 의해 획득된 3차원 공간 정보 중 적어도 어느 하나에 기초하여 구축될 수 있다. The location data includes location data such as coordinates of the
분석부(506)는 머신 러닝 방식으로 학습된 모델에 의해, 감지 장치(100, 200), 실화상 카메라(320), 열화상 카메라(318), 가스 센서, 온도 센서, 소리 인식 센서, 위치 센서 등으로부터 검출된 객체(30)에 대한 화재 발생 여부를 분석하여 판단할 수 있다. 고정식 카메라(100)의 경우에, 분석부(506)는 객체(30)의 영상을 구성하는 RGB 픽셀을 분석하여 색상과 움직임 형태 등을 분석함과 아울러서, 열화상 카메라(318), 가스 센서, 소리 인식 센서 등으로부터 획득된 객체(30)의 온도 분포, 화재시 발생하는 특정 가스의 검지 정보, 화재시 유발되는 소리 검지 정보 등을 종합적으로 분석하여, 화재 발생 여부를 분석 판단할 수 있다. The
머신 러닝 기능에 의하면, 분석부(506)는 학습 데이터 세트(Training Data Set)를 통해 대상의 이상 여부를 판단할 수 있다. 이때, 학습 데이터 세트는 메모리(504)에 저장된 과거 입력 정보 및 머신 러닝에 의해 생성된 모델일 수 있다. 즉, 분석부(506)는 과거 입력 정보를 머신 러닝으로 학습하여 이상 여부를 판단하는 모델을 생성할 수 있고, 이에 기초하여 감지 장치(100, 200) 등으로부터 수신한 실시간 입 감지 데이터를 비교하여 이상 여부를 판단할 수 있다.According to the machine learning function, the
이를 통해, 분석부(506)는 객체(30)의 이상 여부를 판단할 수 있고, 이상 여부에 대한 정보를 주행 로봇(300)으로 제공할 수 있다. 주행 로봇(300)은 관제 서버(500)로부터 받은 정보에 기초하여 객체(30)에 대한 추가 입력 정보가 필요한지 여부를 판단할 수 있다. 주행 로봇(300)이 추가 입력 정보가 필요하다고 판단한 경우, 주행 로봇(300)은 대상에 대한 보다 구체적인 정보를 획득하고, 이를 관제 서버(500)로 전송할 수 있다. 관제 서버(500)는 객체(30)에 대한 보다 구체적인 정보를 바탕으로, 객체(30)의 이상 여부를 최종적으로 판단하고, 이에 대한 정보를 저장하여 제공할 수 있다. 또한, 상술한 이상 여부에 대한 모델에 추가 정보를 재학습시켜 모델을 업데이트할 수 있다.Through this, the
위치 산출부(508)는 감지 장치(100, 200)에 의해 이상이 감지된 객체의 이상 발생 지점(40)과 아울러서 이에 기반한 최근접한 궤도 위치를 결정할 수 있다. The
고정식 카메라(100)에 의한 경우에, 위치 산출부(508)는 공간(20) 전체의 위치 데이터, 고정식 카메라(100)로부터 획득된 영상 내에서 화재가 발생한 객체(30)의 화각 및 고정식 카메라(100)의 위치 데이터에 기초하여 화재 발생 지점(40)의 위치 데이터(좌표)를 산출할 수 있다. In the case of the fixed
광섬유 온도 센서가 구비된 근접 감지 장치(200)에 의한 경우에. 위치 산출부(508)는 화재에 의해 객체(30) 상에 설치된 광섬유 온도 센서가 단선되는 위치 데이터를 객체(30)의 화재 발생 지점(40)으로 산출할 수 있다.In the case of a
또한, 위치 산출부(508)는 상술한 화재 발생 지점(40)에서 제 1 및 제 2 궤도들(402, 408) 중 가장 근접한 궤도를 탐색하고, 탐색된 궤도 상의 연속되는 좌표들 중 화생 발생 지점과 최근접한 궤도 위치를 산출할 수 있다. 이에 더하여, 위치 산출부(508)는 주행 로봇(300)이 최근접한 궤도 위치에 도달한 경우에, 주행 로봇(300)의 감지부(304)가 화재의 중심점과 대면하는 감지 각도가 팬틸트 조정부(308)에 의해 가변하면서 상기 각도가 90 도 또는 270도가 되도록, 화재 중심점이 감지부(304)의 영상에서 상기 각도로 해당하는 지점에 위치된 경우를 최소 거리 위치로 결정할 수 있다. 관제 서버(500)에서 결정된 최소 거리 위치에 따라, 주행 로봇(300)은 위치 이동 및 자세 제어가 이루어질 수 있다. 본 실시예에서는 최소 거리 위치가 관제 서버(500)에 의해 산출되는 것으로 예시하고 있으나, 공간(20)의 정전으로 인해 전원 공급 차단 내지 관제 서버(500)와 통신 불량 등으로 인해 주행 로봇(300)이 자율적으로 상술한 과정으로 최소 위치 거리를 결정하며, 이에 따른 위치 이동 및 자세 제어가 이루어질 수 있다. 상술한 비정상적인 상황이 아니더라도, 사용자의 설정에 따라 관제 서버(500)의 개입이 없이, 주행 로봇(300)이 최소 위치 거리를 산출 결정하도록 설정될 수 있다. In addition, the
프로세서(510)는 관제 서버(500)의 상술한 부재의 기능을 제어하고, 감지 장치(100, 200), 주행 로봇(300), 궤도 장치(400)로부터 송수신된 데이터를 처리함과 아울러서 각 장치의 동작을 제어한다. The
이하에서는, 도 1 내지 도 9를 참조하여 본 발명의 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 대해 설명하기로 한다. 이해의 편의를 위해, 객체의 이상은 화재인 것으로 예시하여 설명한다. Hereinafter, a method for monitoring and removing an abnormal object according to another embodiment of the present invention will be described with reference to FIGS. 1 to 9 . For convenience of understanding, an abnormality of an object is exemplarily described as a fire.
도 6은 본 발명의 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법을 나타내는 순서도이다. 도 7 내지 도 9는 본 발명의 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 따라 구현되는 동작을 나타낸 도면이다. 6 is a flowchart illustrating a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention. 7 to 9 are diagrams illustrating operations implemented according to a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention.
먼저, 평상시 감지 장치(100, 200)는 공간(20) 내의 복수의 객체(30)의 화재 발생 여부를 감시한다(S105). 감지 장치는 고정식 카메라(100) 및 광섬유 온도 센서가 포함된 근접 감지 장치(200)일 수 있다. 평상시의 객체 감지는 상술한 감지 장치뿐만 아니라, 주행 로봇(300)도 관제 서버(500)의 지시 또는 자율적으로 제 1 궤도(402)를 따라 각 객체(30) 마다의 화재 발생 여부를 검출한다. 이러한 검출은 실화상 카메라(320), 열화상 카메라(318), 온도 센서, 가스 센서, 자외선 센서, 소리 인식 센서 등으로부터 획득된 다양한 감지 데이터를 획득하는 것이다. 다른 예로서, 도 11에서와 같이 복수의 객체가 수직으로 배열된 경우에, 주행 로봇(300)의 감지 범위가 제 1 궤도(402)보다 하방에 배치된 제 2 궤도(408)에 인접한 객체(30)까지 커버되지 않는다면, 관제 서버(500)는 평상시 감시 경로로서 제 1 및 제 2 궤도(402, 408)를 전부 활용할 수 있다. 이에 따라, 주행 로봇(300)의 감시 경로는 다양하게 설정될 수 있으며, 가급적 효율적 경로로 편성될 수 있다. 예컨대, 감시 경로는 제 1 궤도(402), 전환 분기부(410), 제 2 궤도(408)에서 우방향 이동, 제 2 궤도(408)의 종점에서 좌방향 이동, 전환 분기부(410), 주행되지 않은 제 1 궤도(402)로 이동 순으로 될 수 있다. 다른 예로 기재된 상이한 높이로 배치된 제 1 및 제 2 궤도(402, 408)와 관련되어 주행 로봇(300)의 동작 실시예는 도 10 내지 도 15에서 설명하고, 본 실시예에서는 화재 발생한 객체(30) 주위에 단층으로 구성된 제 1 궤도(402)만이 설치되어 주행 로봇(300)이 제 1 궤도(402) 상에서 화재 진압을 행하는 것을 위주로 설명한다. First, in normal times, the
다음으로, 특정 위치의 객체(30)에서 이상, 즉 화재가 발생한 경우, 감지 장치(100, 200)는 화재가 발생된 객체(30)와 관련된 감지 데이터를 관제 서버(500)에 전송하며, 관제 서버(500)는 감지 데이터를 분석하여 객체 이상으로서 화재 발생을 판정한다(S110). Next, when an abnormality, that is, a fire occurs in the
관제 서버(500)의 분석부(506)는 머신 러닝 방식으로 학습된 모델에 의해, 감지 장치(100, 200), 실화상 카메라(320), 열화상 카메라(318), 가스 센서, 온도 센서, 소리 인식 센서, 위치 센서 등으로부터 검출된 객체(30)에 대한 화재 발생 여부를 분석하여 판단할 수 있다. 고정식 카메라(100)의 경우에, 분석부(506)는 객체(30)의 영상을 구성하는 RGB 픽셀에 기반하여 색상과 움직임 형태 등을 분석함과 아울러서, 열화상 카메라(318), 가스 센서, 소리 인식 센서 등으로부터 획득된 객체(30)의 온도 분포, 화재시 발생하는 특정 가스의 검지 정보, 화재시 유발되는 소리 검지 정보 등을 종합적으로 분석하여, 화재 발생 여부를 분석 판단할 수 있다. 근접 감지 장치(200)에 의한 경우에, 광섬유 온도 센서의 온도와 단선 등을 감안하여 특정 객체(30)의 화재 발생 여부가 판단될 수 있다. The
다음으로, 관제 서버(500)의 위치 산출부(508)는 감지 장치(100, 200)로부터 획득된 감지 데이터로부터 이상 발생 지점(40)을 산출한다(S115).Next, the
고정식 카메라(100)에 의한 경우에, 위치 산출부(508)는 공간(20) 전체의 위치 데이터, 고정식 카메라(100)로부터 획득된 영상 내에서 화재가 발생한 객체(30)의 화각 및 고정식 카메라(100)의 위치 데이터에 기초하여 화재 발생 지점(40)의 위치 데이터(좌표)를 산출할 수 있다. 도 7을 참조하면, 좌측 고정식 카메라(100)의 영상 내에서 파악되는 화재 발생된 객체(30)와의 화각과 고정식 카메라(100)의 위치 데이터를 이용하여 공간(20)에 배치된 각 객체(30)의 위치 데이터와 접점이 되는 3차원 좌표를 화재 발생한 객체(30)의 위치 데이터, 즉 화재 발생 지점(40)으로 산출될 수 있다. In the case of the fixed
광섬유 온도 센서가 구비된 근접 감지 장치(200)에 의한 경우에. 위치 산출부(508)는 화재에 의해 객체(30) 상에 설치된 광섬유 온도 센서가 단선되는 위치 데이터를 객체(30)의 화재 발생 지점(40)으로 산출할 수 있다.In the case of a
이어서, 위치 산출부(508)는 도 7에서와 같이, 화재 발생 지점(40)에서 최근접한 궤도를 탐색하고, 탐색된 제 1 궤도(402) 상의 연속되는 좌표들 중 화생 발생 지점과 최근접한 궤도 위치(도 7에서 화살표)를 산출한다(S120).
Next, as shown in FIG. 7, the
계속해서, 관제 서버(500)는 주행 로봇(300)에 제 1 궤도(402) 상에서의 주행을 지시하여, 주행 로봇(300)은 제 1 궤도(402)를 따라 최근접한 궤도 위치로 이송된다(S125).Subsequently, the
다음으로, 주행 로봇(300)은 이상 발생 지점(40), 즉 화재 발생 지점(40)으로부터 최소 거리 위치에 제공하도록 위치 이동 및 자세 제어가 이루어진다(S130). Next, the moving
도 8 및 도 9를 참조하여 최소 거리 위치의 산출을 설명하면, 위치 산출부(508)는 주행 로봇(300)이 최근접한 궤도 위치(도 8, 9의 1 지점에 해당)에 도달한 경우에, 주행 로봇(300)의 감지부(304)가 화재의 중심점과 대면하는 감지 각도가 팬틸트 조정부(308)에 의해 가변하면서 상기 각도가 90 도 또는 270도(도 8, 9의 2 지점에 해당)가 되도록, 화재 중심점이 감지부(304)의 영상(340)에서 상기 각도로 해당하는 지점(예컨대 도 9와 같이, 영상의 중앙 영역)에 위치된 경우를 최소 거리 위치로 결정할 수 있다. 화재 중심점은 예를 들어 실화상 카메라(320)의 영상으로부터 취득된 불꽃 중앙하단점 및 열화상 카메라(318)로부터 획득된 온도 분포 영상에서 파악된 최고 온도 지점 등에 의해 추정될 수 있다. 관제 서버(500)에서 결정된 최소 거리 위치에 따라, 주행 로봇(300)은 위치 이동 및 자세 제어가 이루어질 수 있다. 위치 이동은 예컨대 주행 로봇(300)이 도 8의 제 1 궤도(402) 상의 1 지점에서 2 지점으로 이동 제어되는 것일 수 있다. 자세 제어는 주행 로봇(300)의 자율 제어 또는 관제 서버(500)의 지시에 의해, 팬틸트 조정부(308)에 의한 감지부(304)의 감지 방향, 각도 조정 등과 같은 감지부(304)의 자세를 제어하는 것일 수 잇다. 본 실시예에서는 최소 거리 위치가 관제 서버(500)에 의해 산출되는 것으로 예시하고 있으나, 공간(20)의 정전으로 인해 전원 공급 차단 내지 관제 서버(500)와의 통신 불량 등으로 인해 주행 로봇(300)이 자율적으로 상술한 과정으로 최소 위치 거리를 결정할 수 있으며, 이에 따른 위치 이동 및 자세 제어가 이루어질 수 있다. 상술한 비정상적인 상황이 아니더라도, 사용자의 설정에 따라 관제 서버(500)의 개입이 없이, 주행 로봇(300)이 최소 위치 거리를 산출 결정하도록 설정될 수 있다.Referring to FIGS. 8 and 9 , the calculation of the minimum distance position is described. When the
다음으로, 주행 로봇(300)은 이상 제거, 즉 화재 진압을 위해 소화기(324) 및 분사 유도기(326)를 조준하여 분사하고, 경보부(314)에 의해 화재 발생 상황을 주위에 통지함과 아울러서, 화재 진압 상황과 관련된 영상을 비롯한 감지 데이터를 관제 서버(500)에 전송한다(S135).Next, the driving
주행 로봇(300)은 최소 거리 위치로 제공된 후에, 감지부(304)의 화재 관련 감지 데이터를 실시간으로 획득하고 분석하고, 분석 결과에 따라 팬틸트 구동부(302)를 제어하여 소화제 분사 직전의 화재 중심점을 향하여 소화기(324)를 조준하고 소화제를 분사한다. 이와 동시에, 분사 유도기(326)를 구성하는 팬의 송풍 방향도 소화재가 화재 중심점으로 분사되도록 제어될 수 있다. After the driving
아울러, 주행 로봇(300)은 효율적인 화재 진압을 위해, 감지부(304)로부터 획득된 영상 등으로 분석된 화재 중심점에 맞춰 높이 조절 리프트를 구동하여 소화기(324)가 화재 중심점에 보다 정확하게 조준되도록 소화기(324)의 분사 높이를 조절할 수 있다. In addition, for efficient fire suppression, the driving
본 실시예에 의하면, 감지 장치를 통해 검출하여 결정된 이상 발생 지점(40)에 최근접한 궤도 위치로 주행 로봇을 이동시킨 후에, 주행 로봇은 자신이 감지한 데이터를 이용하여 이상 발생 지점(40)과의 최소 거리 위치로 제공되도록 정밀 제어됨으로써, 객체에 발생한 위험의 이상 상황을 효율적으로 제거할 수 있다. According to the present embodiment, after moving the driving robot to a track position closest to the
이하에서는, 도 1 내지 도 5 및 도 10 내지 도 15를 참조하여 본 발명의 또 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 대해 설명하기로 한다.Hereinafter, a method for monitoring and removing an abnormal object according to another embodiment of the present invention will be described with reference to FIGS. 1 to 5 and 10 to 15 .
본 실시예는 도 6과 상이하게 수직 배열된 객체(30)에 따라 다층의 궤도가 설치된 경우와 관련된 것이다. 이에 따라, 본 실시예는 도 6의 실시예와 S120, S125 단계가 상이하나, 도 6의 S105~S115 및 S130, S135 단계와 실질적으로 동일하므로, 도 6과의 차이점을 위주로 기술하고, 실질적으로 동일한 전술의 단계에 대해서는 설명을 생략하기로 한다.This embodiment relates to a case in which multi-layered tracks are installed according to the vertically arranged
도 10은 본 발명의 또 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법을 나타내는 순서도이다. 도 11 내지 도 15는 본 발명의 또 다른 실시예에 따른 객체 이상 감시와 제거를 위한 방법에 따라 구현되는 동작을 나타낸 도면이다. 참고로, 도 11은 시스템(10)을 측방으로 바라볼 때의 궤도 장치를 도시한 개략도이며, 도 12 내지 도 15는 시스템(10)을 상방에서 하방을 향하여 바라볼 때의 궤도 장치를 도시한 개략도이다. 10 is a flowchart illustrating a method for monitoring and removing an anomaly of an object according to another embodiment of the present invention. 11 to 15 are diagrams illustrating operations implemented according to a method for monitoring and removing an abnormal object according to another embodiment of the present invention. For reference, FIG. 11 is a schematic diagram showing the track device when the
우선, 화재 발생이 감지되어 관제 서버(500)가 화재 발생한 객체(30)의 화재 발생 지점(40)을 결정하면, 위치 산출부(508)는 제 1 및 제 2 궤도(402, 408) 중 화재 발생 지점(40)에서 최근접한 궤도를 탐색하고, 탐색된 궤도 상의 연속되는 좌표들 중 화생 발생 지점과 최근접한 궤도 위치를 산출한다(S205).First, when a fire is detected and the
최근접한 궤도의 탐색에서 각 궤도 상의 세부 위치마다의 감지부(304)의 감시 범위 및 이상 제거부(306)의 분사 가능 범위 등을 고려하여 최적합한 궤도를 선정한다. 이해의 편의를 위해, 본 실시예에서는 주행 로봇(300)이 평상시에 제 1 궤도(402)를 주행하는 상황에서, 화재 발생 지점(40)이 제 2 궤도(408)의 특정 위치에서 인접하여, 특정 위치가 최근접한 궤도 위치로 결정된 경우를 상정하여 설명한다. 이에 의하면, 도 11에서와 같이 화재 발생 지점(40)이 제 2 궤도(408)의 특정 위치에 최근접하여 특정 위치가 최근접한 궤도 위치로 결정된다. In the search for the nearest trajectory, the most suitable trajectory is selected in consideration of the monitoring range of the
다음으로, 최근접한 궤도 위치로 제 2 궤도(408)의 특정 위치가 결정되면, 도 12 및 도 13에서와 같이, 주행 로봇(300)은 제 1 궤도(402)에서 제 2 궤도(408)로 이동 변환시키는 전환 분기부(410)로 이동된다(S210).Next, when the specific location of the
이어서, 전환 분기부(410)는 관제 서버(500) 등의 제어에 의해 회전되어 주행 로봇(300)의 주행 경로가 제 2 궤도(408)로 연결되며, 주행 로봇(300)은 제 2 궤도(408)로 변경 이동된다(S215).Subsequently, the switching
계속해서, 주행 로봇(300)은 S130 단계와 마찬가지로, 이상 발생 지점(40), 즉 화재 발생 지점(40)으로부터 최소 거리 위치에 제공하도록, 제 2 궤도(408)의 최근접한 궤도 위치에서 위치 이동 및 자세 제어가 이루어질 수 있다(S220). Continuing, the driving
본 실시예에서는 최소 거리 위치의 결정 전에 최근접한 궤도 위치의 산출 단계에서 제 2 궤도로 결정되는 것을 위주로 설명하였다. 다른 실시예에서는 관제 서버(500)가 감지 장치(100, 200) 등의 감지 데이터를 분석하여 최근접한 궤도 위치로 제 1 궤도(402) 상의 특정 위치를 결정하였으나, 주행 로봇(300)은 자율적으로 또는 관제 서버(500)와의 데이터 교환, 지시 등에 의해 최소 거리 위치를 제 1 궤도(402)가 아닌 제 2 궤도(408)에서 이상 발생 지점과 가장 인접한 위치로 결정하여 이송될 수 있다. 이 경우에, 주행 로봇(300)은 제 1 궤도(402)의 특정 위치에서 감지부(304)의 감지 범위, 이상 제거부(306)의 분사 범위 및 이상 발생 지점(40)에 가장 인접한 제 2 궤도(408)의 대응 위치 등을 전부 고려하여 최소 거리 위치를 결정할 수 있다. 이에 의하면, 주행 로봇(300)은 도 11의 도시 상황을 예로 들면, 화재 발생 지점(40)과 인접한 제 1 궤도(402)의 위치에서 전환 분기부(410)로 역이동하고, 전환 분기부(410)를 경유하여 최근접한 궤도 위치 및/또는 최소 거리 위치로 결정된 제 2 궤도(408)의 특정 위치로 제공되도록 제어된다. In this embodiment, it has been mainly described that the second trajectory is determined in the step of calculating the closest trajectory position before determining the minimum distance location. In another embodiment, the
본 실시예에 따르면, 주행 로봇(300)이 다층의 궤도 중에서 화재 발생 지점에 가장 인접한 궤도로 이송되어 화재와 같은 이상을 진압함으로써 화재 진압 효율이 극대화될 수 있다. 더욱이 높이 조절 리프트에 의해 소화기(324)를 하방으로 과도하게 연장할 필요가 없어, 강한 분사 압력에 의한 소화기(324) 등의 요동이 억제되어 진압 효율이 더욱 향상될 수 있다. According to the present embodiment, the driving
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Exemplary methods of this disclosure are presented as a series of operations for clarity of explanation, but this is not intended to limit the order in which steps are performed, and each step may be performed concurrently or in a different order, if desired. In order to implement the method according to the present disclosure, other steps may be included in addition to the exemplified steps, other steps may be included except for some steps, or additional other steps may be included except for some steps.
또한, 이하에서도 도 16 내지 도 26을 참조하여 화재 감시 시스템 및 그 제어 방법에 대하여 상세히 설명하기로 한다. 다만, 당업자는 이전에 설명한 도 1 내지 도 15를 참조하여, 도 16 내지 도 26을 보충해석 하거나 실시 예를 변형하는 것도 가능하다. In addition, the fire monitoring system and its control method will be described in detail with reference to FIGS. 16 to 26 below. However, those skilled in the art may supplement and interpret FIGS. 16 to 26 or modify the embodiment with reference to FIGS. 1 to 15 described previously.
도 16은 본 발명의 일 실시예에 따른, 화재 감시 시스템의 구성을 도시한 도면이다.16 is a diagram showing the configuration of a fire monitoring system according to an embodiment of the present invention.
도 16을 참조하면, 화재 감시 시스템(1000)은 이동 로봇(100), 관제 서버(200), 외부 디바이스(300)를 포함한다. Referring to FIG. 16 , the
이동 로봇(100)은 실화상 카메라(110), 열화상 카메라(120), 통신부(130), 제어부(140) 및 메모리(150)를 포함한다. The
실화상 카메라(110)는 실제 이미지를 캡쳐하는 카메라를 의미한다. The
열화상 카메라(120)는 열화상 이미지를 캡쳐하는 카메라를 의미한다. The
이동 로봇(100)은 실화상 카메라(110)로 실화상 영상을 캡쳐하고, 상기 열화상 카메라로 상기 열화상 영상을 캡쳐한다. The
통신부(130)는 외부 디바이스, 관제 서버(200)와 데이터를 송수신한다. The
제어부(140)는 실화상 카메라(110), 열화상 카메라(120), 통신부(150), 메모리(150)를 제어한다. The controller 140 controls the
메모리(150)는 캡쳐된 실화상 영상과 열화상 영상을 저장한다. The memory 150 stores the captured real image and thermal image.
여기서, 실화상 영상의 캡쳐 주기는 상기 열화상 영상의 캡쳐 주기와 서로 다르다. 실화상 영상의 캡쳐 주기는 열화상 영상의 캡쳐 주기보다 더 빠를 수 있다. Here, the capture cycle of the real image is different from the capture cycle of the thermal image. A capture cycle of a real image may be faster than a capture cycle of a thermal image.
이는 열화상 영상은 시간이 흐름에 따라 큰 변화가 없는데, 실화상 영상은 화재가 발생하면, 불꽃, 연기 등으로 더 큰 변화가 생기기 때문이다. This is because the thermal image does not change significantly over time, but the real image image undergoes a greater change due to flames and smoke when a fire occurs.
이동 로봇(100)은 레일을 따라 움직이는 이동식 로봇을 포함한다. The
관제 서버(200)는 통신부(210), 메모리(220), 제어부(230), 디스플레이(240)를 포함한다. The
통신부(210)는 이동 로봇(100), 외부 디바이스(300)와 데이터를 송수신한다. The
메모리(220)는 데이터 베이스가 될 수 있으며, 객체 별 안전 온도 정보를 저장한다. The
제어부(230)는 화재 감시 시스템의 전체적인 제어 로직을 수행한다. The
제어부(230)는 실화상 영상 및 열화상 영상을 로봇으로부터 수신하고, 상기 실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지하고, 상기 연기 및 불꽃 중 적어도 하나에 대응하는 감지 영역을 실화상 영상으로부터 추출하고, 상기 감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별하고, 상기 열화상 영상에서 상기 감지 영역에 대응하는 제 1 영역을 분석하여 상기 감지 영역의 최고 온도를 추출하고, 식별된 상기 객체의 개별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정한다. The
제어부(230)는 상기 최고 온도가 상기 객체의 개별 허용 온도보다 높은 경우, 화재로 결정한다. The
제어부(230)는 최고 온도가 상기 객체의 개별 허용 온도보다 낮은 경우, 화재가 아님으로 결정한다. The
제어부(230)는 실화상 영상에 CNN을 이용하여 연기 및 불꽃 중 적어도 하나를 감지한다. The
구체적으로, 제어부(230)는 상기 실화상 영상을 시간순으로 실화상 이미지로 저장하고, 저장된 상기 실화상 이미지를 흑백 이미지로 변환하고, 변환된 상기 흑백 이미지를 이미지 프로세싱하고, 이미지 프로세싱된 상기 흑백 이미지로부터 윤곽선을 추출하고, 추출된 이미지 윤곽선을 CNN 입력으로 사용하여 학습을 수행하고, 학습 결과를 기초로 연기 및 불꽃 중 적어도 하나를 감지한다. Specifically, the
제어부(230)는 YOLOv2 를 이용하여 상기 적어도 하나의 객체를 개별적으로 식별한다. The
구체적으로, 제어부(230)는 실화상 화면을 개별 이미지로 추출하고, 추출된 개별 이미지를 소정 크기의 그리드로 분할하고, 분할된 상기 그리드의 중앙을 중심으로 기정의된 형태로 지정된 경계박스의 개수를 예측하고, 신뢰도 계산을 이용하여 상기 경계박스가 상기 적어도 하나의 객체를 포함하는지 결정하고, 결정 결과에 따라 상기 적어도 하나의 객체를 식별한다. Specifically, the
제어부(230)는 객체 별 허용 온도 정보를 포함하는 데이터 베이스를 참조하여 상기 객체 별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정한다. The
제어부(230)는 데이터 베이스에 객체 별 허용 온도 정보가 없는 경우, 외부 디바이스(300)로부터 객체 별 허용 온도 정보를 요청하고, 외부 디바이스(300)에 매칭되는 객체 별 허용 온도 정보가 있는 경우, 이를 수신할 수 있다. When there is no permissible temperature information for each object in the database, the
디스플레이(240)는 제어부(230)로부터의 제어 명령에 따라 그래픽 이미지를 디스플레이한다. The
외부 디바이스(300)는 객체 별 허용 온도 정보, 객체 별 안전 온도 정보를 저장한 디바이스가 될 수 있다. The
도 17은 본 발명의 일 실시예에 따른, 화재 감시 시스템의 제어 방법을 도시한 도면이다. 본 발명은 화재 감시 시스템(1000)에 의하여 수행된다. 17 is a diagram illustrating a control method of a fire monitoring system according to an embodiment of the present invention. The present invention is carried out by means of a fire monitoring system (1000).
먼저, 실화상 영상 및 열화상 영상을 로봇으로부터 수신한다(S1710). First, a real image and a thermal image are received from the robot (S1710).
실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지한다(S1720). At least one of smoke and flame is detected by analyzing the real image (S1720).
연기 및 불꽃 중 적어도 하나에 대응하는 감지 영역을 실화상 영상으로부터 추출한다(S1730). A detection area corresponding to at least one of smoke and flame is extracted from the real image (S1730).
감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별한다(S1740). At least one object included in the sensing area is individually identified (S1740).
열화상 영상에서 상기 감지 영역에 대응하는 제 1 영역을 분석하여 상기 감지 영역의 최고 온도를 추출한다(S1750).The highest temperature of the sensing area is extracted by analyzing the first area corresponding to the sensing area in the thermal image (S1750).
식별된 상기 객체의 개별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정한다(S1760).A fire is determined by comparing the individual permissible temperature of the identified object with the maximum temperature (S1760).
도 18은 본 발명의 일 실시예에 따른, CNN의 구조를 도시한 도면이다.18 is a diagram showing the structure of a CNN according to an embodiment of the present invention.
CNN은 딥러닝 기술로, 인간의 시신경 구조가 비전 정보를 처리하는 것을 모방한 모형이다. CNN은 입력 이미지로부터 정보를 손쉽게 분류하기 위해 저차원의 정보를 고차원으로 확장해서 분류한다. 기본적으로 CNN 은 도 18과 같이 컨볼루션 계층(convolutional layer), 풀링 계층(pooling layer or sub-sampling layer), 그리고 분류 계층(classification layer)으로 구성된다.CNN is a deep learning technology, and it is a model that mimics the structure of the human optic nerve processing vision information. CNN classifies information by extending low-dimensional information to high-dimensional information in order to easily classify information from an input image. Basically, a CNN is composed of a convolutional layer, a pooling layer or sub-sampling layer, and a classification layer as shown in FIG. 18.
CNN은 컨볼루션 계층과 풀링 계층을 번갈아가며 수행함으로써 학습 영상으로부터 인식 대상의 특징을 자동으로 추출한다. 컨볼루션 계층은 이전 계층으로부터 들어오는 입력 데이터에 학습된 커널을 한 칸씩 움직이면서 컨볼루션 연산을 수행하여 이미지의 특성을 고려하면서 특징을 추출할 수 있다. 그리고 통합 계층은 컨볼루션 계층을 통해 생성된 특징 맵(feature map)의 차원 수를 줄여주는 역할을 하며, 최대 풀링(max pooling)과 평균 풀링(average pooling) 등의 방법이 있는데 일반적으로 영상 내 더 자극적인 정보를 특징으로 취득하기 위해 최대 풀링을 많이 사용한다. 이처럼 컨볼루션 계층과 풀링 계층이 번갈아가며 여러 차례 수행되고 나면 주요 패턴 정보를 가진 특징들이 자동으로 추출되며, 이를 바탕으로 분류 계층에서 최종적으로 영상의 인식 결과를 출력하게 된다.CNN automatically extracts the features of the recognition target from the learning image by alternately performing the convolutional layer and the pooling layer. The convolution layer can extract features while considering the characteristics of the image by performing a convolution operation while moving the learned kernel one by one on the input data coming from the previous layer. In addition, the integration layer serves to reduce the number of dimensions of the feature map generated through the convolution layer, and there are methods such as max pooling and average pooling. In order to acquire stimulating information as a feature, maximum pooling is often used. As such, after the convolution layer and the pooling layer are alternately performed several times, features having main pattern information are automatically extracted, and based on this, the classification layer finally outputs the image recognition result.
도 19는 본 발명의 일 실시예에 따른, 화재 감지에 사용된 불꽃, 연기, 연무를 도시한 도면이다. 도 19는 도 19(a), 도 19(b) 및 도 19(c)를 포함한다. 19 is a diagram illustrating flame, smoke, and haze used for fire detection according to an embodiment of the present invention. 19 includes FIGS. 19(a), 19(b) and 19(c).
도 19(a)는 화재 감지에 사용된 불꽃을 의미한다. 19(a) means a flame used for fire detection.
도 19(b)는 화재 감지에 사용된 연기를 의미한다. 19(b) means smoke used for fire detection.
도 19(c)는 화재 감지에 사용된 연무를 의미한다. 19(c) means the haze used for fire detection.
본 발명에 따르면, 제어부(230)는 CNN을 이용하여 실화상 이미지를 분석해서 하여 불꽃, 연기 및 연무 중 적어도 하나를 감지한다. According to the present invention, the
도 20은 본 발명의 일 실시예에 따른, CNN을 이용하여 불꽃, 연기를 감지하는 프로세스를 도시한 도면이다. 본 발명은 화재 감시 시스템(1000)에 의하여 수행된다. 20 is a diagram illustrating a process of detecting flames and smoke using a CNN according to an embodiment of the present invention. The present invention is carried out by means of a fire monitoring system (1000).
도 20에 도시한 바와 같이, 실화상 영상을 시간순으로 실화상 이미지로 저장한다(S2010). As shown in FIG. 20, the real image is stored as a real image in chronological order (S2010).
구체적으로 제어부(230)는 실화상 영상을 시간순으로 버퍼에 저장한다. Specifically, the
저장된 상기 실화상 이미지를 흑백 이미지로 변환한다(S2020). The stored real image is converted into a black and white image (S2020).
구체적으로 제어부(230)는 현재 이미지에서 이전 이미지를 뺄셈 처리하여 실화상 이미지를 흑백 이미지로 변환한다. Specifically, the
변환된 상기 흑백 이미지를 이미지 프로세싱한다(S2030).Image processing is performed on the converted black and white image (S2030).
이미지 프로세싱된 상기 흑백 이미지로부터 윤곽선을 추출한다(S2040).An outline is extracted from the image-processed black-and-white image (S2040).
구체적으로, 제어부(230)는 윤곽선을 기초로 불꽃, 연기의 색상을 비교한다. Specifically, the
제어부(230)는 윤곽선의 확장을 감지한다. The
제어부(230)는 윤곽선을 병합 및 분리 추정 중 적어도 하나를 실행한다. The
추출된 이미지 윤곽선을 CNN 입력으로 사용하여 학습을 수행한다(S2050).Learning is performed using the extracted image contour as an input to the CNN (S2050).
학습 결과를 기초로 연기 및 불꽃 중 적어도 하나를 감지한다(S2060).Based on the learning result, at least one of smoke and flame is sensed (S2060).
본 발명에 따르면, CNN 학습을 이용하여 연기 및 불꽃을 보다 정확하게 감지할 수 있다. According to the present invention, smoke and flame can be more accurately detected using CNN learning.
도 21은 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 프로세스를 도시한 도면이다.21 is a diagram illustrating a process of identifying an object using YOLOv2, according to an embodiment of the present invention.
실화상 화면을 개별 이미지로 추출한다(S2110). A real picture screen is extracted as an individual image (S2110).
추출된 개별 이미지를 소정 크기의 그리드로 분할한다(S2120). 여기서, 소정 크기는 고정되지 않은 임의의 크기를 의미한다. The extracted individual images are divided into grids of a predetermined size (S2120). Here, the predetermined size means an arbitrary size that is not fixed.
다른 실시 예에 따르면, 추출된 개별 이미지를 동일한 크기의 그리드로 분할할 수 있다. According to another embodiment, the extracted individual images may be divided into grids of the same size.
분할된 상기 그리드의 중앙을 중심으로 기정의된 형태로 지정된 경계박스의 개수를 예측한다(S2130). The number of bounding boxes designated in a predefined shape centered on the center of the divided grid is predicted (S2130).
상기 경계박스가 상기 적어도 하나의 객체를 포함하는지 결정한다(S2140). 예를 들어, 경계박스가 적어도 하나의 객체를 포함하는지 여부는 신뢰도를 기초로 결정한다. It is determined whether the bounding box includes the at least one object (S2140). For example, whether a bounding box includes at least one object is determined based on reliability.
예를 들어, 신뢰도가 80 % 이상이면, 경계박스가 적어도 하나의 객체를 포함한다고 결정한다. For example, if the reliability is 80% or higher, it is determined that the bounding box contains at least one object.
결정 결과에 따라 상기 적어도 하나의 객체를 식별한다(S2150). According to the determination result, the at least one object is identified (S2150).
도 22는 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 실시 예를 도시한 도면이다. 22 is a diagram illustrating an example of identifying an object using YOLOv2 according to an embodiment of the present invention.
도 22에 도시한 바와 같이, 화면(2200)은 제 1 객체(2210), 제 2 객체(2220), 제 3 객체(2230)를 포함한다. As shown in FIG. 22 , a
YOLO(You Only Look Once)는 객체 감지(Object detection) 분야에서 쓰이는 모델로, 예측 이미지를 n x n 그리드 셀(Grid Cell)로 나누고 각 셀마다 하나의 객체를 예측한다. 그리고, 미리 설정된 개수의 경계박수를 통해 객체의 위치와 크기를 파악하는 알고리즘을 의미한다. YOLOv2는 YOLO를 업그레이드시킨 알고리즘이다. YOLO (You Only Look Once) is a model used in the field of object detection, which divides a prediction image into n x n grid cells and predicts one object in each cell. And, it refers to an algorithm that determines the location and size of an object through a preset number of boundary claps. YOLOv2 is an upgraded algorithm of YOLO.
제 1 영역(10)은 제 1 객체(2210)을 포함한다. The
제 2 영역(20)은 제 2 객체(2220)을 포함한다. The
제 3 영역(30)은 제 3 객체(2230)을 포함한다. The
여기서, 제 1 객체(2210)는 사람(person)이고, 제 2 객체(2220)은 벤치(bench), 제 3 객체(2230)는 셀 폰(2230)이 될 수 있다. Here, the
도 23은 본 발명의 일 실시예에 따른, YOLOv2를 이용하여 객체를 식별하는 실시 예를 도시한 도면이다. 23 is a diagram illustrating an example of identifying an object using YOLOv2 according to an embodiment of the present invention.
도 23을 참조하면, 실화상 이미지(2300)는 제 1 객체(2310), 제 2 객체(2320)를 포함한다. Referring to FIG. 23 , a
예를 들어, 제 1 객체(2310)은 YOLOv2를 이용하여 식별한 결과 제 1 기계가 될 수 있다. 이 경우, 신뢰도는 99.9 % 가 될 수 있다. For example, the
제 2 객체(2320)은 YOLOv2를 이용하여 식별한 결과 제 2 기계가 될 수 있다. 이 경우, 신뢰도는 99.9 % 가 될 수 있다. The
또한, 제어부(230)는 실화상 이미지(2300)를 분석하여, 불꽃(5)을 감지할 수 있다. Also, the
도 24는 본 발명의 일 실시예에 따른, 식별된 객체의 영역을 세분화하는 실시 예를 도시한 도면이다. 24 is a diagram illustrating an example of subdividing an area of an identified object according to an embodiment of the present invention.
도 24를 참조하면, 실화상 이미지(2300)는 제 1 객체(2310), 제 2 객체(2320)를 포함한다. Referring to FIG. 24 , a
제 1 객체(2310)는 제 1 영역(10), 제 2 영역(20), 제 3 영역(30)으로 구분될 수 있다. The
제 2 객체(2320)는 제 1 영역(40), 제 2 영역(50), 제 3 영역(60)으로 구분될 수 있다. The
또한, 제어부(230)는 실화상 이미지(2300)를 분석하여, 제 2 객체(2320)의 제 1 영역(40)의 불꽃(5)을 감지할 수 있다. Also, the
본 발명에 따르면, 실화상 이미지(2300)에 포함된 개별 객체를 제 1 영역, 제 2 영역, 제 3 영역으로 구분할 수 있어서 화재 발생시 어느 영역에서 발생했는지를 보다 정확하게 감지할 수 있다. According to the present invention, individual objects included in the
도 25는 본 발명의 일 실시예에 따른, 열화상 영상에서 영역 별 최고 온도를 감지하는 실시 예를 도시한 도면이다. 25 is a diagram illustrating an example of detecting a maximum temperature for each region in a thermal image according to an embodiment of the present invention.
도 25를 참조하면, 열화상 이미지(2500)는 제 1 객체(2310), 제 2 객체(2320)를 포함한다. Referring to FIG. 25 , a
열화상 카메라는 적외선 에너지, 즉, 열을 감지하여 이를 실화상으로 변환해 주는 카메라이고, 열화상 이미지는 열화상 카메라로 캡쳐한 이미지를 의미한다. A thermal imaging camera is a camera that detects infrared energy, that is, heat, and converts it into a visible image, and a thermal image refers to an image captured by a thermal imaging camera.
제 1 객체(2310)는 제 1 영역(10), 제 2 영역(20), 제 3 영역(30)으로 구분될 수 있다. The
여기서, 제 1 영역(10)의 최고 온도는 25도, 제 2 영역(20)의 최고 온도는 35도, 제 3 영역(30)의 최고 온도는 65도가 된다. Here, the maximum temperature of the
따라서, 제 1 객체(2310)의 최고 온도는 65도가 된다. Accordingly, the maximum temperature of the
제 2 객체(2320)는 제 1 영역(40), 제 2 영역(50), 제 3 영역(60)으로 구분될 수 있다. The
여기서, 제 1 영역(40)의 최고 온도는 98도, 제 2 영역(50)의 최고 온도는 35도, 제 3 영역(60)의 최고 온도는 25도가 된다. Here, the maximum temperature of the
따라서, 제 2 객체(2310)의 최고 온도는 98도가 된다. Accordingly, the maximum temperature of the
또한, 제어부(230)는 실화상 이미지(2300)를 분석하여, 제 2 객체(2320)의 제 1 영역(40)의 불꽃(5)을 감지할 수 있다. Also, the
본 발명에 따르면, 열화상 이미지(2500)에 포함된 개별 객체를 제 1 영역, 제 2 영역, 제 3 영역으로 구분할 수 있다. According to the present invention, individual objects included in the
여기서, 실화상 이미지(2300)의 개별 객체의 구분된 개별 영역은 열화상 이미지(2500)의 개별 객체의 구분된 개별 영역과 동일하다. Here, the divided individual regions of individual objects in the
도 26은 본 발명의 일 실시예에 따른, 객체 별 최고 온도와 DB에 저장된 안전 온도를 비교하여 화재 경보를 실행하는 실시 예를 도시한 도면이다. 26 is a diagram illustrating an example of executing a fire alarm by comparing a maximum temperature for each object with a safety temperature stored in a DB according to an embodiment of the present invention.
제 1 객체(2310)의 최고 온도는 65도이고, 도 25에서의 제 3 영역(30)이 된다. The highest temperature of the
DB에 저장된 제 1 객체(2310)의 안전온도 범위는 - 10 도 ~ 80 도가 된다. The safe temperature range of the
따라서, 제 1 객체의 최고 온도는 안전온도 범위에 속하므로, 제어부(230)는 화재 경보를 실행하지 않는다. Therefore, since the highest temperature of the first object belongs to the safe temperature range, the
제 2 객체(2320)의 최고 온도는 98도이고, 도 25에서의 제 1 영역(40)이 된다. The highest temperature of the
제어부(230)는 실화상 이미지(2300)를 분석하여, 제 2 객체(2320)의 제 1 영역(40)의 불꽃(5)을 감지할 수 있다. The
제어부(230)는 열화상 이미지(2500)를 통하여 제 2 객체(2320)의 제 1 영역(40)의 최고 온도를 확인하고, 실화상 이미지(2300)를 분석하여, 불꽃(5)이 감지된 영역이 제 2 객체(2320)의 제 1 영역(40)임을 확인한다. The
다음으로, 제어부(230)는 제 2 객체(2320)의 최고 온도 범위와 안전온도 범위를 비교하여 화재를 판단한다. Next, the
DB에 저장된 제 2 객체(2320)의 안전온도 범위는 - 10 도 ~ 80 도가 된다. The safe temperature range of the
따라서, 제 2 객체(2320)의 최고 온도 98도는 안전온도 범위를 초과하므로, 제어부(230)는 화재 경보를 실행한다. Therefore, since the maximum temperature of 98 degrees of the
또한, 제어부(230)는 제 2 객체(2320)의 제 1 영역(40)에서 화재가 발생하였음을 감지할 수 있다. 따라서, 화재 발생 위치를 보다 정확하게 찾을 수 있는 장점이 있다. Also, the
제어부(230)는 화재를 결정할 때, 실화상 이미지와 열화상 이미지의 가중치를 다르게 설정할 수 있다. When determining a fire, the
구체적으로, 실화상 이미지의 가중치를 열화상 이미지의 가중치보다 낮게 설정할 수 있다. Specifically, the weight of the real image may be set lower than that of the thermal image.
예를 들어, 실화상 이미지의 가중치는 1 이고, 열화상 이미지의 가중치는 3으로 설정할 수 있다. For example, the weight of a real image may be set to 1 and the weight of a thermal image may be set to 3.
이는, 화재 여부를 결정할 때, 단순히 불꽃, 연기 이미지를 기초로 결정하는 것보다 객체의 최고 온도가 안전 온도 범위에 속하는지를 기준으로 판단하는 것이 더 정확도가 높기 때문이다. This is because, when determining whether or not there is a fire, it is more accurate to determine based on whether the maximum temperature of an object falls within a safe temperature range than simply determining based on flame and smoke images.
본 발명에 따르면, 실화상 이미지로부터 불꽃이 발생한 영역을 감지하고, 열화상 이미지로부터 영역 별로 온도를 감지하여, 최고 온도를 찾을 수 있고 데이터 베이스에 저장된 객체 별 안전 온도를 참조하여 화재 발생 여부와 화재 발생 위치를 보다 정확하게 찾을 수 있으므로 사용자 편의성을 향상시킬 수 있다. According to the present invention, it is possible to find the highest temperature by detecting a region where a flame has occurred from a visual image, and detecting a temperature for each region from a thermal image, and determine whether a fire has occurred and a fire by referring to a safe temperature for each object stored in a database. Since the occurrence location can be found more accurately, user convenience can be improved.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다. Various embodiments of the present disclosure are intended to explain representative aspects of the present disclosure, rather than listing all possible combinations, and matters described in various embodiments may be applied independently or in combination of two or more.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. 예를 들어, 종단 혹은 에지에서 사용될 수 있는 비 일시적 컴퓨터 판독가능한 매체에 저장된 프로그램의 형식이나, 에지 혹은 클라우드에서 사용될 수 있는 비 일시적 컴퓨터 판독 가능한 매체에 저장된 프로그램의 형식으로도 구현될 수 있음은 자명하다. 또한, 다양한 하드웨어 및 소프트웨어의 결합으로도 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), It may be implemented by a processor (general processor), controller, microcontroller, microprocessor, or the like. For example, it is obvious that it can be implemented in the form of a program stored in a non-transitory computer readable medium that can be used at the end or edge, or in the form of a program stored in a non-transitory computer readable medium that can be used at the edge or in the cloud. do. In addition, it may be implemented with a combination of various hardware and software.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행 가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is software or machine-executable instructions (eg, operating systems, applications, firmware, programs, etc.) that cause operations according to methods of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium in which instructions and the like are stored and executable on a device or computer.
이상에서 설명한 본 개시는, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 개시의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로, 본 개시의 범위는 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.Since the present disclosure described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present disclosure to those skilled in the art, the scope of the present disclosure is limited to the foregoing. It is not limited by one embodiment and accompanying drawings.
100 : 이동 로봇
110: 실화상 카메라부
120 : 열화상 카메라
130: 통신부
140: 제어부, 150: 메모리100: mobile robot
110: real image camera unit
120: thermal imaging camera
130: communication department
140: control unit, 150: memory
Claims (10)
실화상 영상 및 열화상 영상을 이동 로봇으로부터 수신하는 단계;
상기 실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지하는 단계;
상기 연기 및 불꽃 중 적어도 하나에 대응하는 감지 영역을 실화상 영상으로부터 추출하는 단계;
상기 감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별하는 단계;
상기 열화상 영상에서 상기 감지 영역에 대응하는 제 1 영역을 분석하여 상기 감지 영역의 최고 온도를 추출하는 단계; 및
식별된 상기 객체의 개별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정하는 단계를 포함하되,
화재 감시 시스템의 제어 방법.
In the control method of a fire monitoring system using artificial intelligence,
Receiving a real image and a thermal image from a mobile robot;
detecting at least one of smoke and flame by analyzing the real image;
extracting a detection area corresponding to at least one of the smoke and the flame from a real image;
individually identifying at least one object included in the sensing area;
extracting a maximum temperature of the sensing area by analyzing a first area corresponding to the sensing area in the thermal image; and
Including determining a fire by comparing the individual allowable temperature of the identified object with the maximum temperature,
Control method of fire monitoring system.
상기 이동 로봇은 실화상 카메라와 열화상 카메라를 포함하고,
상기 이동 로봇은
상기 실화상 카메라로 실화상 영상을 캡쳐하고,
상기 열화상 카메라로 상기 열화상 영상을 캡쳐하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
The mobile robot includes a real image camera and a thermal image camera,
The mobile robot
Capturing a real image with the real image camera;
Capturing the thermal image with the thermal imaging camera,
Control method of fire monitoring system.
상기 실화상 영상의 캡쳐 주기는 상기 열화상 영상의 캡쳐 주기와 서로 다르고,
상기 이동 로봇은 레일을 따라 움직이는 이동 로봇을 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 2,
The capture cycle of the real image is different from the capture cycle of the thermal image,
The mobile robot includes a mobile robot moving along a rail,
Control method of fire monitoring system.
상기 최고 온도가 상기 객체의 개별 허용 온도보다 높은 경우, 화재로 결정하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
Further comprising determining as a fire when the maximum temperature is higher than the individual allowable temperature of the object.
Control method of fire monitoring system.
상기 최고 온도가 상기 객체의 개별 허용 온도보다 낮은 경우, 화재가 아님으로 결정하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
Further comprising determining that it is not a fire when the maximum temperature is lower than the individual allowable temperature of the object.
Control method of fire monitoring system.
상기 실화상 영상을 분석하여 연기 및 불꽃 중 적어도 하나를 감지하는 단계는
상기 실화상 영상에 CNN을 이용하여 연기 및 불꽃 중 적어도 하나를 감지하는 단계를 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
The step of detecting at least one of smoke and flame by analyzing the real image
Including the step of detecting at least one of smoke and flame using a CNN in the real image,
Control method of fire monitoring system.
상기 실화상 영상에 CNN을 이용하여 연기 및 불꽃 중 적어도 하나를 감지하는 단계는
상기 실화상 영상을 시간순으로 실화상 이미지로 저장하는 단계;
저장된 상기 실화상 이미지를 흑백 이미지로 변환하는 단계;
변환된 상기 흑백 이미지를 이미지 프로세싱하는 단계;
이미지 프로세싱된 상기 흑백 이미지로부터 윤곽선을 추출하는 단계;
추출된 이미지 윤곽선을 CNN 입력으로 사용하여 학습을 수행하는 단계; 및
학습 결과를 기초로 연기 및 불꽃 중 적어도 하나를 감지하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 6,
The step of detecting at least one of smoke and flame using a CNN in the real image
storing the real image as a real image in chronological order;
converting the stored real image into a black and white image;
image processing the converted black and white image;
extracting outlines from the image-processed black-and-white image;
Performing learning using the extracted image contour as an input to the CNN; and
Further comprising detecting at least one of smoke and flame based on the learning result.
Control method of fire monitoring system.
상기 감지 영역에 포함된 적어도 하나의 객체를 개별적으로 식별하는 단계는,
YOLOv2를 이용하여 상기 적어도 하나의 객체를 개별적으로 식별하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
The step of individually identifying at least one object included in the sensing area,
Further comprising individually identifying the at least one object using YOLOv2,
Control method of fire monitoring system.
YOLOv2를 이용하여 상기 적어도 하나의 객체를 개별적으로 식별하는 단계는,
상기 실화상 화면을 개별 이미지로 추출하는 단계;
추출된 개별 이미지를 소정 크기의 그리드로 분할하는 단계;
분할된 상기 그리드의 중앙을 중심으로 기정의된 형태로 지정된 경계박스의 개수를 예측하는 단계;
신뢰도 계산을 이용하여 상기 경계박스가 상기 적어도 하나의 객체를 포함하는지 결정하는 단계; 및
결정 결과에 따라 상기 적어도 하나의 객체를 식별하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 8,
The step of individually identifying the at least one object using YOLOv2,
extracting the real picture screen as individual images;
Dividing the extracted individual images into grids of a predetermined size;
estimating the number of bounding boxes specified in a predefined form around the center of the divided grid;
determining whether the bounding box includes the at least one object by using reliability calculation; and
Further comprising identifying the at least one object according to a determination result.
Control method of fire monitoring system.
식별된 상기 객체 별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정하는 단계는
객체 별 허용 온도 정보를 포함하는 데이터 베이스를 참조하여 상기 객체 별 허용 온도와 상기 최고 온도를 비교하여 화재를 결정하는 단계를 더 포함하는,
화재 감시 시스템의 제어 방법.
According to claim 1,
The step of determining a fire by comparing the allowable temperature for each identified object with the maximum temperature
Further comprising determining a fire by comparing the allowable temperature for each object with the maximum temperature with reference to a database including permissible temperature information for each object,
Control method of fire monitoring system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210167807A KR20230080522A (en) | 2021-11-30 | 2021-11-30 | Fire monitoring system using artificial intelligence and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210167807A KR20230080522A (en) | 2021-11-30 | 2021-11-30 | Fire monitoring system using artificial intelligence and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230080522A true KR20230080522A (en) | 2023-06-07 |
Family
ID=86762000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210167807A KR20230080522A (en) | 2021-11-30 | 2021-11-30 | Fire monitoring system using artificial intelligence and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230080522A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116978207A (en) * | 2023-09-20 | 2023-10-31 | 张家港江苏科技大学产业技术研究院 | Multifunctional laboratory safety monitoring and early warning system |
CN118053257A (en) * | 2024-04-16 | 2024-05-17 | 爱瑞克(大连)安全技术集团有限公司 | Industrial building fire early warning and disaster analysis method and system based on Internet of things |
-
2021
- 2021-11-30 KR KR1020210167807A patent/KR20230080522A/en active Search and Examination
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116978207A (en) * | 2023-09-20 | 2023-10-31 | 张家港江苏科技大学产业技术研究院 | Multifunctional laboratory safety monitoring and early warning system |
CN116978207B (en) * | 2023-09-20 | 2023-12-01 | 张家港江苏科技大学产业技术研究院 | Multifunctional laboratory safety monitoring and early warning system |
CN118053257A (en) * | 2024-04-16 | 2024-05-17 | 爱瑞克(大连)安全技术集团有限公司 | Industrial building fire early warning and disaster analysis method and system based on Internet of things |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021253961A1 (en) | Intelligent visual perception system | |
KR20230080522A (en) | Fire monitoring system using artificial intelligence and method thereof | |
CN204288415U (en) | Intelligent early-warning firefighting robot | |
CN205670368U (en) | A kind of transmission line of electricity network intellectuality mountain fire monitoring system | |
KR102554662B1 (en) | Safety management system using unmanned detector | |
CN103149893B (en) | Motor-driven self-organization situation monitoring system | |
CN106600887A (en) | Video monitoring linkage system based on substation patrol robot and method thereof | |
CN104299351A (en) | Intelligent early warning and fire extinguishing robot | |
KR102335994B1 (en) | Integrated control apparatus of surveillance devices for drone surveillance | |
JP2018012477A (en) | Drone application system for achieving safe flight of drone | |
Kim et al. | Sensor fusion based seek-and-find fire algorithm for intelligent firefighting robot | |
CN110379111A (en) | A kind of unmanned plane inspection system for forest fire protection | |
KR20180001057A (en) | Fire suppression system and method of using drones, Disaster information acquisition system | |
CN110944150A (en) | Special external damage prevention intelligent identification method for electric power | |
CN106355805A (en) | Big data substation monitoring system based on unmanned aerial vehicle and detection method thereof | |
CN111753780B (en) | Transformer substation violation detection system and violation detection method | |
KR20220061312A (en) | Deep learning based building management system with rail robot device | |
CN212439798U (en) | Fire-fighting robot | |
JP6195447B2 (en) | Shooting system | |
KR102262384B1 (en) | DRONE OPERATIN SYSTEM and METHOD for INSPECTING POWER FACILITIES | |
JP2014150483A (en) | Imaging system | |
CN112263803A (en) | Unmanned vehicle intelligent security system based on real-time scene inspection and automatic detection fire extinguishing and control method | |
KR102430038B1 (en) | System monitoring and removing the abnormality of an object and method thereof | |
KR20170112714A (en) | System for automatic monitoring of distributed area using flying photographing unit | |
KR20220142865A (en) | System and method for monitoring unmanned-office using mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |