KR20220061312A - Deep learning based building management system with rail robot device - Google Patents

Deep learning based building management system with rail robot device Download PDF

Info

Publication number
KR20220061312A
KR20220061312A KR1020200146858A KR20200146858A KR20220061312A KR 20220061312 A KR20220061312 A KR 20220061312A KR 1020200146858 A KR1020200146858 A KR 1020200146858A KR 20200146858 A KR20200146858 A KR 20200146858A KR 20220061312 A KR20220061312 A KR 20220061312A
Authority
KR
South Korea
Prior art keywords
real image
rail
robot device
learning
image
Prior art date
Application number
KR1020200146858A
Other languages
Korean (ko)
Other versions
KR102470131B1 (en
Inventor
강대경
임민정
박진혁
최근석
권용준
Original Assignee
덕산메카시스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 덕산메카시스 주식회사 filed Critical 덕산메카시스 주식회사
Priority to KR1020200146858A priority Critical patent/KR102470131B1/en
Publication of KR20220061312A publication Critical patent/KR20220061312A/en
Application granted granted Critical
Publication of KR102470131B1 publication Critical patent/KR102470131B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/02Manipulators mounted on wheels or on carriages travelling along a guideway
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/19Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using infrared-radiation detection systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Robotics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mechanical Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Marketing (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Mathematical Physics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Alarm Systems (AREA)

Abstract

An objective of the present invention is to protect equipment of a building and minimize the entry of people into the space in which the equipment is positioned to protect a manager from the risk of accidents. A building monitoring system using a rail robot device (200) moving along a rail previously installed on a ceiling comprises: the rail (100) previously designed on the ceiling side based on the position of equipment to be monitored; the rail robot device (200) having a real image camera module (210) and a thermal image camera module (220), using the rail (100) as a track to run in accordance with a preset rule, acquiring a real image and a thermal image of a target area from the real image camera module (210) and the thermal image camera module (220) respectively, and having a communication module (230) transmitting the acquired real image and the acquired thermal image wirelessly or in a wired manner; and an integrated server (300) analyzing the real image and the thermal image transmitted from the communication module (230) of the rail robot device (200) by a preset artificial intelligence method. The integrated server (300) uses a deep neural network (DNN) among artificial intelligence methods to analyze the real image and the thermal image, and determines at least one among the smoke generation status, flooding determination status, fire occurrence status, flame occurrence status, and intruder occurrence status of a target area of a building through the real image and the thermal image.

Description

레일로봇장치가 구비된 딥러닝 기반의 건물 관리 시스템{Deep learning based building management system with rail robot device} Deep learning based building management system with rail robot device

본 발명은 레일로봇장치가 구비된 딥러닝 기반의 건물 관리 시스템에 관한 기술이다. The present invention relates to a deep learning-based building management system equipped with a rail robot device.

주택, 아파트, 상가, 상업용 빌딩, 공장, 대형 창고 등의 건물에는 각종 현장 장비, 즉 각종 전기설비, 가스설비, 냉난방설비, 급수설비, 통신설비, 보안설비, 공조설비, 각종 개폐설비 등의 장비들의 설치된다. 이러한 장비들의 작동 상태를 확인하기 위하여, 종래에는 관리자가 직접 현장 장비들을 육안으로 살펴 보거나, 현장 장비를 촬영할 수 있는 고정식 카메라를 설치하여 모니터링하는 것이 일반적이었다. In buildings such as houses, apartments, shopping malls, commercial buildings, factories, and large warehouses, various on-site equipment, such as various electrical equipment, gas equipment, air conditioning equipment, water supply equipment, communication equipment, security equipment, air conditioning equipment, and various switching equipment of them are installed In order to check the operating state of these equipment, it has been conventional for an administrator to directly inspect the field equipment with the naked eye or to install and monitor a stationary camera capable of photographing the field equipment.

그러나, 관리자가 직접 현장 장비들을 육안으로 살펴 보는 것은, 관측 시간이 매우 길어지고, 관리에 소요되는 인원이 증가되는 등의 비경제적인 문제점이 있다. 고정식 카메라를 사용할 경우, 관측 대상인 현장 장비의 종류나 개수가 많아질수록 필요한 카메라의 개수 역시 증대되는 바, 이 역시 매우 비경제적이며, 현실적으로 고정식 카메라는 관측의 사각지대가 존재할 수 있는 바, 관측의 사각지대에서 발생되는 이벤트에 대해 즉각 대응할 수 없는 치명적인 문제가 존재한다. However, there are uneconomical problems such as a very long observation time and an increase in the number of people required for management when the manager directly inspects the field equipment with the naked eye. In the case of using a fixed camera, the number of necessary cameras increases as the type or number of field equipment to be observed increases, which is also very uneconomical. There is a fatal problem that cannot immediately respond to an event occurring in a blind spot.

아울러, 하나의 고정식 카메라로 촬영할 수 있는 관측 영역 역시, 해상도나 현장 설비와의 거리 등에 따라 한계가 있어서, 보다 정밀하고 보다 정확한 관측이 어려웠었던 문제점이 있었다. In addition, the observation area that can be photographed with a single fixed camera also has a limitation depending on the resolution or the distance to the field equipment, so more precise and more accurate observation has been difficult.

한편, 최근에는 영상분석 기술이 발달함에 따라, 건물의 이벤트 상황을 관리하고, 이에 대한 대처를 하기 위해, 다양한 영상분석 기술이 적용되고 있다. On the other hand, in recent years, as image analysis technology develops, various image analysis technologies are applied to manage event situations in buildings and to cope with them.

지능형 영상분석 기술은 영상의 정보를 분석하여 자동으로 이상 행위, 물체를 탐지하고 관리자에게 경보를 전송하는 기술로써, 사고를 사전에 예방할 수도 있으며, 사고가 발생한 경우에는 신속하게 대응하여 피해를 줄일 수 있다. 이러한 영상분석을 이용하여 사전 정의된 이벤트가 발생될 때, 관리자에게 경보를 생성하여 알려주는 바, 모든 영상을 지속적으로 감시하지 않고, 경보가 발생할 때 해당 화면을 보고 실시간으로 상황을 판단하고 대처하면 된다. Intelligent video analysis technology is a technology that automatically detects abnormal behaviors and objects by analyzing video information, and sends an alert to the manager. there is. When a predefined event occurs using this image analysis, an alarm is created and notified to the manager. Instead of continuously monitoring all images, when an alarm occurs, the user sees the corresponding screen to judge and respond to the situation in real time. do.

이와 같이, 지능형 영상분석 기술을 사용할 경우, 건물의 관리가 용이하며, 사람의 육안으로 판단하는 것에 비해, 이벤트 상황을 더욱 정확하게 진단할 수 있는 바, 사고의 사전예방이 가능할 뿐만 아니라, 사고의 발생시에도 신속하게 인지하여 대응함으로써, 피해를 최소화할 수 있다. As such, when intelligent image analysis technology is used, the management of the building is easy, and compared to judging with the human eye, it is possible to diagnose the event situation more accurately. By quickly recognizing and responding to the situation, damage can be minimized.

지능형 영상분석 기술을 이용하여 건물을 관리하는 종래기술로는, 한국등록특허 제10-2096175호가 개시된다. 상기 종래기술은 '천장 레일형 IoT 기반 감시 로봇 장치'로서, 실화상, 열화상 적외선 카메라 영상을 촬영하고, 이를 인공지능 서버로 전송한 후, 합성곱신경망(CNN)을 이용하여 영상의 정상/비정상 여부를 판단하는 구성을 개시한다. 다만, 상기 종래기술은 특정 재난상황(예로, 홍수, 누수, 연기발생, 화재, 스파크 발생)에 최적화된 영상분석 방법을 개시하지는 않고, 합성곱신경망(CNN)을 이용하는 바, 매우 많은 영상 및 작업시간이 수반되어 비용의 측면에서 경제적이지 않다는 단점이 존재한다. As a prior art for managing buildings using intelligent image analysis technology, Korean Patent Registration No. 10-2096175 is disclosed. The prior art is a 'ceiling rail-type IoT-based monitoring robot device', which takes real and thermal infrared camera images, transmits them to an artificial intelligence server, and uses a convolutional neural network (CNN) to A configuration for determining whether abnormality is disclosed. However, the prior art does not disclose an image analysis method optimized for a specific disaster situation (eg, flood, water leak, smoke generation, fire, spark generation), but uses a convolutional neural network (CNN), so many images and tasks There is a disadvantage in that it is not economical in terms of cost as time is involved.

이에 따라, 최근에는, 고정식 카메라가 아닌, 이동식 카메라를 이용하여 실시간으로 촬영된 영상을 전송받고, 상기 영상을 딥러닝을 이용하여 분석하되, 특정 재난상황인 홍수, 누수, 연기발생, 화재 및 스파크 발생 각각에 대해 최적화된 영상분석 기술의 필요성이 증대되는 실정이다. Accordingly, recently, not a stationary camera, but a mobile camera is used to receive an image captured in real time, and the image is analyzed using deep learning. The need for an image analysis technology optimized for each occurrence is increasing.

한국등록특허 제10-2096175호Korean Patent Registration No. 10-2096175

본 발명은 전술한 종래 기술의 문제점을 해결하기 위해 안출된 것이다.The present invention has been devised to solve the problems of the prior art described above.

본 발명은 건물의 설비가 위치된 공간에는 많은 전기장치 또는 설비장치들이 구비되는 바, 이러한 설비들을 보호함과 동시에, 상기 공간으로의 사람 출입을 최소화함으로써, 사고의 위험으로부터 관리자를 보호하기 위한 기술을 제안하고자 한다. The present invention is a technology for protecting a manager from the risk of an accident by minimizing a person's entry into the space at the same time as protecting these facilities, since many electric devices or facilities are provided in the space where the facilities of the building are located. would like to propose

또한, 본 발명은 건물의 설비가 위치된 공간을 감시자가 직접 모니터링할 경우, 감시자에 따른 편차가 존재하며, 가령, 누수와 관련하여 소량의 물을 사람이 확인하는 것은 매우 부정확한 바, 사고의 초기 단계부터 사고를 감지할 수 있는 기술을 제안하고자 한다. In addition, according to the present invention, when a supervisor directly monitors a space in which a facility of a building is located, there is a deviation depending on the supervisor, for example, it is very inaccurate for a person to check a small amount of water in relation to a water leak. We would like to propose a technology that can detect accidents from an early stage.

본 발명은 천장에 미리 설치된 레일을 따라 이동하는 레일로봇장치(200)를 이용하는 건물 모니터링 시스템으로서, 모니터링 대상이 되는 설비의 위치를 기반으로, 천장 측에 미리 설계된 상기 레일(100); 실화상카메라모듈(210) 및 열화상카메라모듈(220)을 구비하는 상기 레일로봇장치(200)로서, 상기 레일(100)을 궤도로 하여 기설정된 규칙에 따라 운행되며, 상기 실화상카메라모듈(210) 및 상기 열화상카메라모듈(220)로부터 대상영역에 대한 실화상영상 및 열화상영상을 각각 획득하고, 획득된 상기 실화상영상 및 열화상영상을 무선 또는 유선으로 전송하는 통신모듈(230)이 구비된, 레일로봇장치(200); 및 상기 레일로봇장치(200)의 통신모듈(230)로부터 전송된 실화상영상 및 열화상영상을 기설정된 인공지능방식으로 분석하는 통합서버(300); 를 포함하며, 상기 통합서버(300)는, 인공지능방식 중 심층신경망(Deep Neural Network, DNN)을 이용하여, 실화상영상 및 열화상영상을 분석하되, 상기 실화상영상 및 열화상영상을 통해, 건물의 대상영역의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부 중 적어도 하나를 판단하는, 건물 모니터링 시스템을 제공한다. The present invention is a building monitoring system using a rail robot device 200 that moves along a rail installed in advance on a ceiling. Based on the location of a facility to be monitored, the rail 100 designed in advance on the ceiling side; As the rail robot device 200 having a real image camera module 210 and a thermal image camera module 220, it is operated according to a preset rule with the rail 100 as a track, and the real image camera module ( 210) and a communication module 230 for acquiring a real image and a thermal image of the target area from the thermal imaging camera module 220, respectively, and transmitting the acquired real image and thermal image wirelessly or by wire This is provided, the rail robot device 200; and an integrated server 300 for analyzing the real image and thermal image transmitted from the communication module 230 of the rail robot device 200 in a preset artificial intelligence method; Including, the integrated server 300 uses a deep neural network (DNN) of the artificial intelligence method to analyze a real image and a thermal image, but through the real image and thermal image , to provide a building monitoring system for determining at least one of smoke occurrence, flood judgment, fire occurrence, flame occurrence, and intruder occurrence in a target area of a building.

또한, 본 발명은 전술한 건물 모니터링 시스템을 이용하는 방법으로서, 상기 통합서버(300)는, 실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 연기발생 여부를 판단하는, 제1 판단모듈(310); 을 더 포함하고, (A1) 제1 판단학습부(312)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 비연기영역 및 연기영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 연기영역이 학습되는 단계(S110); (A2) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제1 판단모듈(310)로 전송되는 단계(S120); (A3) 상기 제1 판단모듈(310)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 (A1) 단계에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 연기영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계(S130); (A4) 상기 (A3) 단계에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하는 단계(S140); (A5) 상기 (A4) 단계에서, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 연기영역을 생성하는 단계(S150); 및 (A6) 상기 실화상영상에 포함된 제1 내지 제N 실화상영상 프레임에 대해 상기 (A3) 내지 (A5) 단계를 반복하여 수행하는 단계(S160); 를 포함하는, 방법을 제공한다. In addition, the present invention is a method of using the above-described building monitoring system, wherein the integrated server 300 determines whether smoke occurs in a target area through a real image frame constituting a real image image, a first determination module (310); Further comprising, (A1) a step of inputting a real image frame for learning to the first judgment and learning unit 312, wherein the real image frame for learning is divided into predetermined blocks, a non-smoking area and a smoke area After being input in this divided state, the step of learning the acting area by a preset method (S110); (A2) the step of transmitting the real image from the rail robot device 200 to the first determination module 310 (S120); (A3) A step of dividing, by the first determination module 310, a real image frame constituting the real image into predetermined blocks, using the acting area learned in the step (A1), dividing an area corresponding to a smoke area among the preset blocks into block groups, and then generating an edge portion for the block group (S130); (A4) when a plurality of block groups are formed in the real image frame in the step (A3), comparing edge portions generated for each block group (S140); (A5) when the edges of the first and second block groups overlap each other in step (A4), merging the first and second block groups to create a smoke area (S150); and (A6) repeating steps (A3) to (A5) for the first to Nth real image frames included in the real image (S160); It provides a method comprising:

또한, 본 발명은 전술한 건물 모니터링 시스템을 이용하는 방법으로서, 상기 통합서버(300)는, 실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 홍수발생 여부를 판단하는, 제2 판단모듈(320); 을 더 포함하고, (B1) 제2 판단학습부(322)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 정상영역 및 홍수영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 홍수영역이 학습되는 단계(S210); (B2) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제2 판단모듈(320)로 전송되는 단계(S220); (B3) 상기 제2 판단모듈(320)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 (B1) 단계에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 홍수영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계(S230); (B4) 상기 (B3) 단계에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하되, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 홍수영역을 생성하는 단계(S240); 및 (B5) 상기 (B4) 단계에서 생성된 홍수영역의 면적 및 물의 양을 기설정된 방식에 의해, 연산하는 단계(S250); 를 포함하는, 방법을 제공한다. In addition, the present invention is a method of using the above-described building monitoring system, wherein the integrated server 300 determines whether a flood occurs in a target area through a real image frame constituting a real image image, a second determination module (320); Further comprising, (B1) a step of inputting a real image frame for learning to the second judgment learning unit 322, wherein the real image frame for learning is divided into predetermined blocks, and a normal region and a flood region are After being input in a divided state, the step of learning the flood zone by a preset method (S210); (B2) the step of transmitting the real image image from the rail robot device 200 to the second determination module 320 (S220); (B3) dividing the real image frame constituting the real image into predetermined blocks by the second determination module 320, using the acting area learned in the step (B1), dividing an area corresponding to a flood area among the preset blocks into block groups, and then generating an edge portion for the block group (S230); (B4) In the step (B3), when a plurality of block groups are formed in the real image frame, the edges generated for each block group are compared, but each of the first block group and the second block group generating a flood zone by merging the first and second block groups when the edges overlap (S240); and (B5) calculating the area of the flood zone and the amount of water generated in the step (B4) by a preset method (S250); It provides a method comprising:

또한, 본 발명은 전술한 건물 모니터링 시스템을 이용하는 방법으로서, 실화상영상을 구성하는 실화상영상 프레임을 통해, 이벤트발생여부를 판단하는 제3 판단모듈(330)로서, 상기 이벤트발생은 대상영역의 화재발생 여부, 불꽃발생 여부 및 침입자발생인, 제3 판단모듈(330); 을 더 포함하고, (C1) 제3 판단학습부(332)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 딥러닝(deep learning) 기반 심층신경망 모델의 학습이 수행되는 단계(S310); (C2) 상기 (C1) 단계에 의해, 상기 이벤트발생여부에 대한 심층신경망 모델이 형성되는 단계(S320); (C3) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제3 판단모듈(330)로 전송되는 단계로서, 상기 (C2) 단계에 생성된 심층신경망 모델에 상기 실화상영상이 입력되는 단계(S330); 및 (C4) 상기 심층신경망 모델은, 상기 (C3) 단계에서 입력된 실화상영상에 대해, 최종 출력층의 노드를 상이하게 형성함으로써, 화재발생, 불꽃발생 및 침입자발생 여부를 판단하는 단계(S340); 를 포함하며, 상기 이벤트발생은, 침입자발생, 화재발생 및 불꽃발생 순서로 관심영역의 범위가 작게 설정되고, 상기 (C4) 단계는, 상기 관심영역의 범위가 작게 설정될수록, 최종 출력층의 노드값은 더 크게 설정된, 방법을 제공한다. In addition, the present invention is a method of using the above-described building monitoring system, as a third determination module 330 for determining whether an event has occurred through a real image frame constituting a real image, wherein the occurrence of the event occurs in the target area. a third determination module 330; Further comprising, (C1) a step in which a real image image frame for learning is input to the third judgment learning unit 332, wherein the real image image frame for learning is a deep learning-based deep neural network model learning performed step (S310); (C2) by the step (C1), the step of forming a deep neural network model for the occurrence of the event (S320); (C3) a step of transmitting a real image from the rail robot device 200 to the third determination module 330, wherein the real image is input to the deep neural network model generated in the step (C2) ( S330); And (C4) the deep neural network model, for the real image input in the step (C3), by forming the nodes of the final output layer differently, determining whether a fire, flame, or intruder occurs (S340) ; In the event occurrence, the range of the region of interest is set to be small in the order of intruder occurrence, fire occurrence, and flame generation, and in step (C4), the smaller the range of the region of interest is set, the smaller the node value of the final output layer provides a larger set, method.

또한, (C5) 상기 이벤트발생으로 판단된 실화상영상 및 상기 열화상카메라모듈(220)로부터 취득된 열화상영상을 비교하는 단계로서, 상기 실화상영상 중 상기 이벤트발생으로 판단된 영역 및 상기 열화상영상에서의 영역별 온도정보를 매칭시킴으로써, 상기 이벤트발생 여부를 판단하는 단계(S350); 를 더 포함할 수 있다. In addition, (C5) comparing the real image determined as the occurrence of the event and the thermal image acquired from the thermal imaging camera module 220, the region determined as the occurrence of the event and the deterioration of the real image determining whether the event has occurred by matching the temperature information for each area on the screening (S350); may further include.

또한, 상기 심층신경망 모델은, YOLO(You Only Look Once)의 네트워크 구조를 기반으로, 상기 학습용 실화상영상 프레임을 통해, 학습할 수 있다. In addition, the deep neural network model, based on the network structure of YOLO (You Only Look Once), can be learned through the real image frame for learning.

또한, 상기 레일로봇장치(200)는, 위치센서(240)를 더 포함하고, 상기 위치센서(240)로부터 획득된 위치정보는 상기 통신모듈(230)을 통해, 상기 통합서버(300)로 전송되고, 상기 통합서버(300)는, 대상영역의 도면정보, 상기 레일의 설계정보 및 상기 대상영역에 구비된 설비의 위치정보가 미리 입력되어 있으며, 상기 도면정보 상에 상기 레일로봇장치(200)의 이동정보를 맵핑하는 맵핑모듈(340); 을 더 포함하며, 상기 건물 모니터링 시스템은, 상기 맵핑모듈(340)로부터 전송된 상기 레일로봇장치(200)의 이동정보를 시각적으로 표시하는 디스플레이부(400); 를 더 포함하며, 상기 디스플레이부(400)를 통해, 상기 레일로봇장치(200)의 이동정보, 상기 대상영역에서의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부 중 적어도 하나를 제공할 수 있다. In addition, the rail robot device 200 further includes a position sensor 240 , and the position information obtained from the position sensor 240 is transmitted to the integrated server 300 through the communication module 230 . In the integrated server 300, drawing information of the target area, design information of the rail, and location information of facilities provided in the target area are input in advance, and the rail robot device 200 on the drawing information. a mapping module 340 for mapping movement information of ; Further comprising, the building monitoring system, the display unit 400 for visually displaying the movement information of the rail robot device 200 transmitted from the mapping module 340; It further includes, through the display unit 400, the movement information of the rail robot device 200, whether or not smoke is generated in the target area, whether a flood is judged, whether a fire occurs, whether a flame is generated, and whether an intruder occurs. At least one may be provided.

또한, 상기 레일로봇장치(200)는, 상기 레일(100) 상에 이동 가능하도록 결합되며, 상기 레일(100)에 구비된 전원부(120)로부터 전원을 공급받는, 구동부(250); 및 상기 실화상카메라모듈(210) 및 열화상카메라모듈(220)이 구비된 촬영부(260); 로 구성되며, 상기 구동부(250)의 전방 및 후방에는 근접센서(252)가 구비되고, 상기 촬영부(260)는, 수평방향을 기준으로, 360도 회전가능하도록 구성되며, 상하방향으로 촬영각도의 조절이 가능하도록 구성될 수 있다. In addition, the rail robot device 200 is coupled to be movable on the rail 100 and receives power from the power supply unit 120 provided in the rail 100, the driving unit 250; and a photographing unit 260 provided with the real image camera module 210 and the thermal image camera module 220; A proximity sensor 252 is provided in front and rear of the driving unit 250, and the photographing unit 260 is configured to be rotatable 360 degrees with respect to the horizontal direction, and the photographing angle in the vertical direction. may be configured to be adjustable.

또한, 상기 레일로봇장치(200)의 통신모듈(230)은, 대상영역 내의 소정의 거리에 있는 개인단말기(500)와 무선연결되도록 구성되고, 상기 건물 모니터링 시스템은, 상기 레일로봇장치(200)로부터 취득된 실화상영상 및 열화상영상의 상기 통합서버(300)로의 전송을 중계하는 중계기부(600)가 구비되며, 상기 개인단말기(500)는, 상기 중계기부(600)를 통해, 무선네트워크망과 연결됨으로써, 상기 통합서버(300)로부터 정보를 송수신하도록 구성될 수 있다. In addition, the communication module 230 of the rail robot device 200 is configured to be wirelessly connected to the personal terminal 500 at a predetermined distance within the target area, and the building monitoring system is the rail robot device 200 . A repeater unit 600 relaying the transmission of the real image and thermal image obtained from the integrated server 300 is provided, and the personal terminal 500 is provided with a wireless network By being connected to the network, it may be configured to transmit and receive information from the integrated server 300 .

또한, 상기 열화상카메라모듈(220)은, 대상영역의 영역별 온도정보를 기설정된 방식으로 이용하여, 상기 대상영역 내의 화재발생 여부, 불꽃발생 여부, 설비의 이상발생 여부 및 침입자발생 여부를 판단할 수 있다. In addition, the thermal imaging camera module 220 uses the temperature information for each area of the target area in a preset manner, and determines whether a fire or flame occurs in the target area, whether an abnormality occurs in the facility, and whether an intruder occurs. can do.

상기한 바와 같은 본 발명은 다음과 같은 효과가 있다. The present invention as described above has the following effects.

본 발명은 건물의 설비가 위치된 공간에는 많은 전기장치 또는 설비장치들이 구비되는 바, 이러한 설비들을 보호함과 동시에, 상기 공간으로의 사람 출입을 최소화함으로써, 사고의 위험으로부터 관리자를 보호할 수 있다. According to the present invention, many electric devices or equipment are provided in the space where the facilities of the building are located, and at the same time, it is possible to protect the facilities and, at the same time, by minimizing the entry of people into the space, it is possible to protect the manager from the risk of an accident. .

또한, 건물의 설비가 위치된 공간을 감시자가 직접 모니터링할 경우, 감시자에 따른 편차가 존재하며, 가령, 누수와 관련하여 소량의 물을 사람이 확인하는 것은 매우 부정확한 바, 사고의 초기 단계부터 사고를 감지할 수 있다. In addition, when the observer directly monitors the space where the facility of the building is located, there is a deviation depending on the observer. accidents can be detected.

도 1은 본 발명에 따른 건물 모니터링 시스템의 개략적인 모식도이다.
도 2는 본 발명에 따른 건물 모니터링 시스템의 전체 구성을 나타내는 블록도이다.
도 3은 본 발명에 따른 건물 모니터링 시스템에서, 레일에 레일로봇장치가 결합된 상태를 개략적으로 도시하는 사시도이다.
도 4의 (a) 및 (b)는 레일로봇장치의 구동부를 개략적으로 도시한다.
도 5는 본 발명에 따른 건물 모니터링 시스템에서, 레일로봇장치의 전체 구성을 나타내는 블록도이다.
도 6은 본 발명에 따른 건물 모니터링 시스템에서, 이벤트 상황이 발생된 경우를 개략적으로 도시한다.
도 7은 본 발명에 따른 건물 모니터링 시스템을 이용하여 연기발생 여부를 판단하는 방법의 순서도이다.
도 8은 도 7에서 심층신경망을 이용하여 연기발생 여부를 판단하는 과정을 개략적으로 도시하는 개념도이다.
도 9는 본 발명에 따른 건물 모니터링 시스템을 이용하여 홍수발생 여부를 판단하는 방법의 순서도이다.
도 10은 도 9에서 심층신경망을 이용하여 홍수발생 여부를 판단하는 과정을 개략적으로 도시하는 개념도이다.
도 11은 본 발명에 따른 건물 모니터링 시스템을 이용하여 이벤트상황(화재, 불꽃, 침입자) 발생 여부를 판단하는 방법의 순서도이다.
도 12는 도 11에서 인공지능방식의 일 예시인 YOLO V3 Model을 이용하여 이벤트상황 발생 여부를 판단하는 과정을 개략적으로 도시하는 개념도이다.
1 is a schematic schematic diagram of a building monitoring system according to the present invention.
2 is a block diagram showing the overall configuration of a building monitoring system according to the present invention.
3 is a perspective view schematically illustrating a state in which a rail robot device is coupled to a rail in the building monitoring system according to the present invention.
4 (a) and (b) schematically show the driving part of the rail robot device.
5 is a block diagram showing the overall configuration of the rail robot device in the building monitoring system according to the present invention.
6 schematically illustrates a case in which an event situation occurs in the building monitoring system according to the present invention.
7 is a flowchart of a method for determining whether smoke is generated using the building monitoring system according to the present invention.
8 is a conceptual diagram schematically illustrating a process of determining whether smoke is generated using a deep neural network in FIG. 7 .
9 is a flowchart of a method for determining whether a flood occurs using the building monitoring system according to the present invention.
FIG. 10 is a conceptual diagram schematically illustrating a process of determining whether a flood occurs using a deep neural network in FIG. 9 .
11 is a flowchart of a method of determining whether an event situation (fire, flame, intruder) has occurred using the building monitoring system according to the present invention.
12 is a conceptual diagram schematically illustrating a process of determining whether an event situation occurs using the YOLO V3 Model, which is an example of an artificial intelligence method in FIG. 11 .

이하, 도면을 참조하여 본 발명에 따른 건물 모니터링 시스템을 설명한다. 본 발명은 건물의 종류와는 무관하게 모두 적용 가능한 기술로써, 무인화를 통해, 판단의 정확성 및 신속성을 증대시키는 기술이다. 예를 들어, 관리자가 직접 상주하여 모니터링하기 어려운, 지하 전력구, 변전설비, 의료시설, 통제지역, 철도역사 등과 같은 모든 장소에 적용될 수 있음을 미리 명시한다. 이하에서 사용되는 '대상영역'이라는 용어는 후술하는 레일로봇장치를 이용하여 모니터링 가능한 영역을 의미한다. 예를 들어, 지하설비실에 레일 및 레일로봇장치가 설치된 경우, 지하설비실 전체의 공간을 의미한다. 대상영역 내의 일 공간에 모니터링 대상이 되는 설비가 위치되는 바, 대상영역 및 모니터링 대상은 개념적으로 구분된다. Hereinafter, a building monitoring system according to the present invention will be described with reference to the drawings. The present invention is a technology applicable to all regardless of the type of building, and is a technology for increasing the accuracy and speed of judgment through unmanned technology. For example, specify in advance that it can be applied to all places, such as underground power outlets, substation facilities, medical facilities, controlled areas, and railway stations, where it is difficult for a manager to directly reside and monitor. The term 'target area' used below means an area that can be monitored using a rail robot device to be described later. For example, when rails and rail robot devices are installed in an underground facility room, it means the entire space of the underground facility room. A facility to be monitored is located in a work space within the target area, and the target area and the monitoring target are conceptually separated.

건물 모니터링 시스템의 구성Construction of the building monitoring system

도 1 및 2를 참조하여, 본 발명에 따른 건물 모니터링 시스템을 설명한다. 1 and 2, a building monitoring system according to the present invention will be described.

건물 모니터링 시스템은, 크게 레일(100), 레일로봇장치(200), 통합서버(300) 및 디스플레이부(400)로 구성된다. The building monitoring system is largely composed of a rail 100 , a rail robot device 200 , an integrated server 300 , and a display unit 400 .

레일(100)은 모니터링 대상이 되는 설비의 위치를 기반으로 설계되며, 레일로봇장치(200)가 주행하는 궤도의 역할을 수행한다. 레일(100)은 대상영역의 천장 측에 설치되는 것이 바람직하다. 다만, 천장이 아니더라도, 기설치된 배관 등에 결합되도록 구성될 수도 있으며, 대상영역의 모니터링이 가능한 배치라면, 어느 위치라도 가능하다. 일 예시로, 레일(100)은 최대 25도의 경사도를 갖도록 구성될 수 있고, 곡률반경은 1000mm, 레일(100)의 최대길이는 1Km 미만으로 구성될 수 있다. The rail 100 is designed based on the location of the facility to be monitored, and serves as a track on which the rail robot device 200 travels. The rail 100 is preferably installed on the ceiling side of the target area. However, even if it is not a ceiling, it may be configured to be coupled to an already installed pipe or the like, and any location is possible as long as the monitoring of the target area is possible. As an example, the rail 100 may be configured to have an inclination of up to 25 degrees, the radius of curvature may be 1000mm, and the maximum length of the rail 100 may be less than 1Km.

레일로봇장치(200)는 무인으로 레일(100)을 주행하면서, 대상영역을 모니터링하는 장치이다. 기설정된 규칙에 따라, 운행되며, 관리자의 설정에 따라, 순차적 순회감시를 수행하는 자동순찰모드를 수행할 수 있다. 또한, 순찰구간설정 및 이동속도의 조절도 가능하다. 레일로봇장치(200)는 실화상카메라모듈(210) 및 열화상카메라모듈(220)을 구비한다. The rail robot device 200 is a device for monitoring a target area while driving the rail 100 unattended. It is operated according to a preset rule, and an automatic patrol mode in which sequential patrol monitoring is performed according to the setting of an administrator may be performed. In addition, it is possible to set the patrol section and control the movement speed. The rail robot device 200 includes a real image camera module 210 and a thermal image camera module 220 .

실화상카메라모듈(210)은 실시간으로 대상영역을 촬영하여 실화상영상을 제공한다. 일 예로, 실화상카메라모듈(210)의 해상도는 1920*1080, 10Hz로 형성될 수 있다. 열화상카메라모듈(220)은 온도분석을 통해, 화재 및 설비의 이상징후를 감시함과 동시에, 인체의 열까지 감시할 수 있다. 일 예로, 17um pitch의 열상 검출기에서 7.5 내지 13.5um 파장의 적외선을 검출하여 열의 강도에 따른 색상의 변화로 온도를 시각적으로 표현할 수 있다. 적용 해상도는 336*254, 10Hz로 형성될 수 있다. The real image camera module 210 provides a real image by photographing the target area in real time. For example, the resolution of the real image camera module 210 may be 1920 * 1080, 10 Hz. The thermal imaging camera module 220 may monitor fire and abnormal signs of equipment through temperature analysis, and at the same time monitor the heat of the human body. For example, a thermal image detector with a 17um pitch detects infrared rays having a wavelength of 7.5 to 13.5um, and a temperature can be visually expressed by a change in color according to the intensity of heat. The applied resolution may be 336*254, 10Hz.

또한, 레일로봇장치(200)는 통신모듈(230)을 더 포함한다. 통신모듈(230)은 실화상카메라모듈(210) 및 열화상카메라모듈(220)로부터 대상영역에 대한 실화상영상 및 열화상영상을 각각 획득하고, 획득된 실화상영상 및 열화상영상을 무선 또는 유선으로 전송하도록 구성된다. 이 때, 통신모듈(230)은 Wi-Fi모듈로 구성될 수 있는 바, 실화상영상 및 열화상영상을 무선으로 관리자 또는 사용자의 개인단말기(500)로 전송할 수 있다. 또한, 통신모듈(230)은 후술하는 중계기부(600)와 영상정보를 송수신하도록 구성되는 바, 실화상영상 및 열화상영상을 통합서버(300)로 전송 가능하도록 구성된다. In addition, the rail robot device 200 further includes a communication module 230 . The communication module 230 acquires a real image and a thermal image of the target area from the real image camera module 210 and the thermal image camera module 220, respectively, and transmits the obtained real image and thermal image wirelessly or It is configured to transmit over the wire. In this case, the communication module 230 may be configured as a Wi-Fi module, and may wirelessly transmit a real image image and a thermal image image to the personal terminal 500 of the manager or user. In addition, the communication module 230 is configured to transmit and receive image information with the repeater unit 600 to be described later, and is configured to transmit a real image and a thermal image to the integrated server 300 .

레일로봇장치(200)는 음성통화모듈(미도시)을 더 포함할 수 있으며, 음성통화모듈을 통해, 중앙관제실 및/또는 관리자와 음성통화가 가능하도록 구성되는 것이 바람직하다. 대상영역에서(예로, 지하층), 작업자의 개인단말기(500) 사용이 제한된 경우, 매우 유용하게 사용될 수 있는 기능이다. The rail robot device 200 may further include a voice communication module (not shown), and it is preferable that the voice communication module is configured to enable voice communication with the central control room and/or the manager. In the target area (eg, the basement), when the use of the personal terminal 500 of the operator is limited, this is a function that can be very usefully used.

도 5를 참조하여, 레일로봇장치(200)에 대해 보다 자세히 설명하며, 도 5에는 레일로봇장치(200)의 구성들을 도시하며, 각각의 기능에 따라, 구분하고 있다. With reference to FIG. 5, the rail robot device 200 will be described in more detail, and FIG. 5 shows the configurations of the rail robot device 200, and is classified according to each function.

레일로봇장치(200)는 구동부(250) 및 촬영부(260)로 구분된다. The rail robot device 200 is divided into a driving unit 250 and a photographing unit 260 .

구동부(250)는 전원부(251), 센서그룹(252), 모터그룹(253), 메인보드모듈(254), 배터리그룹(255)으로 구분될 수 있다. 메인보드모듈(254)에서는 소정의 연산처리가 수행되며, 중계기부(600)로 영상정보들을 송신하도록 구성됨과 동시에, 중계기부(600)를 통해 제어명령이 입력되도록 구성되며, 상기 제어명령에 따라, 레일로봇장치(200)의 동작이 제어된다. 또한, 메인보드모듈(254)에는 스케줄저장부(미도시)가 더 포함될 수 있다. 스케줄저장부에는 레일로봇장치(200)의 운행시간, 운행방식 등에 대한 정보가 미리 저장될 수도 있고, 관리자에 의해, 수정 가능할 수도 있다. 스케줄저장부에 저장된 정보를 바탕으로, 레일로봇장치(200)는 구동된다. The driving unit 250 may be divided into a power supply unit 251 , a sensor group 252 , a motor group 253 , a main board module 254 , and a battery group 255 . In the main board module 254, a predetermined operation processing is performed, and it is configured to transmit image information to the repeater unit 600, and at the same time is configured to input a control command through the repeater unit 600, and according to the control command , the operation of the rail robot device 200 is controlled. In addition, the main board module 254 may further include a schedule storage unit (not shown). In the schedule storage unit, information on the operating time and operating method of the rail robot device 200 may be stored in advance, or may be modified by an administrator. Based on the information stored in the schedule storage unit, the rail robot device 200 is driven.

레일로봇장치(200)는 롤러(256)를 통해, 레일(256)에 장착되며, 롤러(100)는 4륜 구동방식이며, 일 예로, 직경이 50mm Wheel 우레탄재질을 사용하여 등판능력을 향상시킬 수 있다. 또한, 모터그룹(253)은 고성능 BLDC 모터 및 구동 드라이버를 적용할 수 있고, 일 예시로, 75W 출력의 모터 및 24V/3.6A 구동 드라이버를 적용할 수 있다. 이를 통해, 레일로봇장치(200)는 1m/sec의 속도로 주행 가능하되, 가변 주행이 가능하도록 구성될 수 있다. The rail robot device 200 is mounted on the rail 256 through a roller 256, and the roller 100 is a four-wheel drive method. can In addition, the motor group 253 may apply a high-performance BLDC motor and a driving driver, and as an example, a motor of 75W output and a 24V/3.6A driving driver may be applied. Through this, the rail robot device 200 can be run at a speed of 1 m/sec, but can be configured to be variable running.

또한, 레일로봇장치(200) 중 구동부(250)의 전방 및 후방에는 각각 근접센서(252)가 구비될 수 있다. 근접센서(252)를 통해, 레일로봇장치(200)는 레일(100) 끝에 도달시, 자동으로 정지할 수 있으며, 주행하는 과정에서 레일(100)의 중간에 물체가 있을 경우, 자동으로 정지하도록 구성될 수 있다. In addition, a proximity sensor 252 may be provided at the front and rear of the driving unit 250 of the rail robot device 200 , respectively. Through the proximity sensor 252, the rail robot device 200 can automatically stop when reaching the end of the rail 100, and automatically stop when there is an object in the middle of the rail 100 in the process of driving can be configured.

레일로봇장치(200)에는 위치센서(240)가 내장된다. 위치센서는 고성능 엔코더(Encoder) 및 바코드(Barcode)를 포함함으로써, 엔코더를 통해 실시간 위치를 계산하고, 바코드를 통해 절대위치를 계산한 후, 이러한 위치정보를 통신모듈(230)을 통해 통합서버(300)로 전송하도록 구성된다. A position sensor 240 is built in the rail robot device 200 . The position sensor includes a high-performance encoder and barcode, so that the real-time position is calculated through the encoder, the absolute position is calculated through the barcode, and then this position information is transmitted through the communication module 230 to the integrated server ( 300) is configured to transmit.

통합서버(300)는 레일로봇장치(200)의 통신모듈(230)로부터 전송된 실화상영상 및 열화상영상을 기설정된 인공지능방식으로 분석하도록 구성된다. The integrated server 300 is configured to analyze the real image and thermal image transmitted from the communication module 230 of the rail robot device 200 in a preset artificial intelligence method.

구체적으로, 통합서버(300)는 제1 내지 제3 판단모듈(310, 320, 330) 및 맵핑모듈(340)을 포함한다. 여기서, 본원발명에 따른 건물 모니터링 시스템은 인공지능방식인 심층신경망(Deep Neural Network, DNN) 및/또는 합성곱신경망(Convolutional neural network, CNN)을 이용하는 바, 학습의 선행이 필요하다. 이에 제1 내지 제3 판단모듈(330)은 각각 대응되는 제1 내지 제3 판단학습부(312, 322, 332)를 포함한다. Specifically, the integrated server 300 includes first to third determination modules 310 , 320 , 330 and a mapping module 340 . Here, the building monitoring system according to the present invention uses a deep neural network (DNN) and/or a convolutional neural network (CNN), which are artificial intelligence methods, and thus requires prior learning. Accordingly, the first to third determination modules 330 include first to third determination learning units 312 , 322 , and 332 corresponding to each other.

통합서버(300)는 통신모듈(230)로부터 전송된 실화상영상 및 열화상영상을 통해, 건물의 대상영역의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부를 판단할 수 있으며, 이에 대해서는 후술하도록 한다. The integrated server 300 determines whether smoke occurs in the target area of the building, whether a flood occurs, whether a fire occurs, whether a flame occurs, and whether an intruder occurs through the real image and thermal image transmitted from the communication module 230 . can be done, which will be described later.

통합서버(300)는 대상영역의 도면정보, 레일의 설계정보(레일의 배치정보) 및 대상영역에 구비된 설비의 위치정보가 미리 입력되어 있으며, 도면정보 상에 레일로봇장치(200)의 이동정보를 맵핑하는 맵핑모듈(340)을 포함한다. 즉, 맵핑모듈(340)을 통해, 레일로봇장치(200)의 동선을 실시간으로 생성한다. 레일로봇장치(200)의 이동정보는 통합서버(300)에 누적하여 저장되는 바, 관리자 내지 사용자는 통합서버(300)로부터 원하는 시간의 동선정보를 로딩할 수 있다. 이 때, 건물 모니터링 시스템은 맵핑모듈(340)로부터 전송된 레일로봇장치(200)의 이동정보를 시각적으로 표시하는 디스플레이부(400)를 더 포함하는 바, 상기 디스플레이부(400)를 통해, 관리자 내지 사용자에게 레일로봇장치(200)의 이동정보, 상기 대상영역에서의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부를 제공할 수 있다. 디스플레이부(400)는 별도의 공간인 건물의 중앙관제실에 구비될 수 있으며, 디스플레이부(400)를 통해, 관리자에게 알람을 제공할 수 있다. 다만, 상기의 정보들은 관리자 내지 사용자의 개인단말기(500)로도 제공될 수 있는 바, 개인단말기(500)가 디스플레이부(400)의 기능을 수행할 수도 있다. In the integrated server 300, the drawing information of the target area, the design information of the rail (the arrangement information of the rail), and the location information of the equipment provided in the target area are input in advance, and the movement of the rail robot device 200 on the drawing information and a mapping module 340 for mapping information. That is, through the mapping module 340, the movement of the rail robot device 200 is generated in real time. Since the movement information of the rail robot device 200 is accumulated and stored in the integrated server 300 , an administrator or a user can load the movement information of a desired time from the integrated server 300 . At this time, the building monitoring system further includes a display unit 400 that visually displays the movement information of the rail robot device 200 transmitted from the mapping module 340, and through the display unit 400, the manager to the user, movement information of the rail robot device 200, whether smoke occurs in the target area, whether a flood is determined, whether a fire occurs, whether a flame occurs, and whether an intruder occurs. The display unit 400 may be provided in a separate space, the central control room of the building, and may provide an alarm to the manager through the display unit 400 . However, the above information may be provided to the personal terminal 500 of an administrator or a user, and the personal terminal 500 may perform the function of the display unit 400 .

전술한 바와 같이, 디스플레이부(400)는 설치된 레일(100)을 도식화하며, 레일로봇장치(200)의 현재위치 및 개별 설비들의 마지막 상태값을 표시할 수 있다. 또한, 최근 1시간 동안의 온도변화를 그래프로 제공하며, 디스플레이부(400) 상의 최고온도 및 평균온도 역시 기록하여 표시한다. As described above, the display unit 400 diagrams the installed rail 100 , and may display the current position of the rail robot device 200 and the last state value of individual facilities. In addition, the temperature change over the last hour is provided as a graph, and the maximum temperature and average temperature on the display unit 400 are also recorded and displayed.

또한, 통합서버(300)에는 모니터링 대상이 되는 설비의 정보가 더 저장된다. 구체적으로, 각 설비마다 정상온도의 범위가 개별적으로 설정되며, 설비의 특성에 따라, 모니터링이 필요한 구체적인 방식이 상이할 수 있는 바, 레일로봇장치(200)의 촬영부(260)의 각도, 상승높이 등에 대한 정보가 개별 설비에 최적화되도록 설정된다. In addition, information on equipment to be monitored is further stored in the integrated server 300 . Specifically, the range of the normal temperature is individually set for each facility, and the specific method required for monitoring may be different depending on the characteristics of the facility. Information on height, etc. is set to be optimized for each facility.

통합서버(300)는 보고서생성모듈(미도시)을 더 포함할 수 있다. 보고서생성모듈은 레일로봇장치(200)의 자동운행기록을 기반으로, 기설정된 양식에 따라, 관리자에게 보고서를 제공한다. 또한, 통합서버(300)는 자가진단모듈(미도시)을 더 포함할 수 있다. 레일로봇장치(200)의 자가진단을 통해, 레일(100)의 각 위치마다, 전원공급 및 통신상태를 기록하여 그래프화시켜 관리자에게 제공하며, 전원공급 및 통신상태가 불량한 특정위치는 자동으로 운행을 회피하도록 설정될 수 있다. 일 예시로, 레일로봇장치(200)의 운행 중 통신불능위치일 경우, 빠르게 해당 위치를 탈출한 후, 다음 제어명령을 대기하도록 설계될 수 있다. The integrated server 300 may further include a report generation module (not shown). The report generation module provides a report to the manager according to a preset format based on the automatic operation record of the rail robot device 200 . In addition, the integrated server 300 may further include a self-diagnosis module (not shown). Through self-diagnosis of the rail robot device 200, for each location of the rail 100, the power supply and communication status are recorded and graphed and provided to the manager, and a specific location with poor power supply and communication status is automatically operated can be set to avoid. As an example, when the rail robot device 200 is in a communication disabled position during operation, it may be designed to quickly escape from the corresponding position and then wait for the next control command.

한편, 관리자 및 사용자(또는 작업자)의 편의를 위해, 본 발명에 따른 건물 모니터링 시스템은 이들의 개인단말기(500)와 무선연결되도록 구성될 수 있다. Meanwhile, for the convenience of managers and users (or workers), the building monitoring system according to the present invention may be configured to be wirelessly connected to their personal terminals 500 .

먼저, 레일로봇장치(200)에 내장된 통신모듈(230)은 대상영역 내의 소정의 거리에 있는 개인단말기(500)와 무선연결되도록 구성된다. 전술한 바와 같이, Wi-fi방식으로 연결될 수도 있으나, 연결방식은 이에 제한되지 않으며, 근거리통신방식이 적용될 수 있다. 이 때, 근거리통신방식은 와이파이(WiFi, Wireless-Fidelity), 저전력 블루투스(Bluetooth Low Energy, BLE), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-Wideband), ZigBee 기술 중 적어도 하나를 이용하도록 구성될 수 있다. 또한, 무선통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SCFDMA(single carrier frequency division multiple access) 기술 중 적어도 하나를 이용하도록 구성될 수도 있다. First, the communication module 230 built into the rail robot device 200 is configured to be wirelessly connected to the personal terminal 500 at a predetermined distance within the target area. As described above, the Wi-Fi method may be connected, but the connection method is not limited thereto, and a short-distance communication method may be applied. At this time, the short-distance communication method is Wi-Fi (Wireless-Fidelity), Bluetooth Low Energy (BLE), RFID (Radio Frequency Identification), infrared communication (IrDA, Infrared Data Association), UWB (Ultra-Wideband), and may be configured to use at least one of ZigBee technologies. In addition, wireless communication includes at least one of code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SCFDMA) technologies. It may be configured to use one.

또한, 대상영역이 건물의 지하에 위치하거나, LTE망과 같은 외부 무선네트워크망에 접속되지 않는 위치일 경우, 개인단말기(500)는 중계기부(600)를 통해, 무선네트워크망과 연결될 수 있다. 즉, 개인단말기(500) 자체로 외부 무선네트워크망과 연결이 어려울 때, 중계기부(600)를 경유하여, 무선연결이 활성화됨을 의미한다. In addition, when the target area is located in the basement of a building or is not connected to an external wireless network such as an LTE network, the personal terminal 500 may be connected to the wireless network through the repeater unit 600 . That is, when the personal terminal 500 itself is difficult to connect to the external wireless network, it means that the wireless connection is activated via the repeater unit 600 .

도 6을 참고하여, 이벤트 상황이 발생된 경우를 개략적으로 도시한다. 여기서, 이벤트 상황은 대상영역의 연기발생, 홍수판단, 화재발생, 불꽃발생 및 침입자발생 및 침수발생을 모두 포함하는 포괄적인 개념이다. Referring to FIG. 6 , a case in which an event situation occurs is schematically illustrated. Here, the event situation is a comprehensive concept that includes all of the occurrence of smoke, flood judgment, fire, spark, intruder, and flood in the target area.

도 6은 본 발명에 따른 일 예시를 도시한다. 대상영역 내에 제1 및 제2 설비가 위치되며, 이러한 설비 위치를 고려하여, 대상영역의 천장 측에는 레일(100)이 설계된다. 레일로봇장치(200)는 레일(100)을 궤도로 하여 자동으로 순찰을 수행하면서, 실화상영상 및 열화상영상을 촬영하여 통합서버(300)로 전송한다. 제1 설비에서 화재가 발생됨을 감지한 경우, 화재의 상태를 더욱 정확하게 판단하기 위해, 기설정된 인접한 위치까지 접근하며, 실시간으로 이에 대한 정보를 통합서버(300) 및 개인단말기(500)로 전송한다. 물론, 이 과정에서, 사이렌 또는 별도의 알람이 동작되어 관리자에게 비상상황발생을 알려줄 수 있다. 또한, 이러한 상황은 통합관제실에 위치된 디스플레이부(400)를 통해서도, 제공될 수 있다. 6 shows an example according to the present invention. The first and second facilities are located in the target area, and in consideration of the location of the facilities, the rail 100 is designed on the ceiling side of the target area. The rail robot device 200 automatically performs patrol with the rail 100 as a track, and captures a real image and a thermal image and transmits it to the integrated server 300 . When it detects that a fire has occurred in the first facility, in order to more accurately determine the state of the fire, it approaches a preset adjacent location, and transmits information about it to the integrated server 300 and the personal terminal 500 in real time. . Of course, in this process, a siren or a separate alarm may be operated to inform the manager of the occurrence of an emergency. In addition, this situation may be provided through the display unit 400 located in the integrated control room.

건물 모니터링 시스템을 이용한 방법How to use a building monitoring system

도 7 및 8을 참조하여, 건물 모니터링 시스템을 이용하여 연기발생 여부를 판단하는 과정을 설명한다. A process of determining whether smoke is generated using a building monitoring system will be described with reference to FIGS. 7 and 8 .

통합서버(300)는 실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 연기발생 여부를 판단하는 제1 판단모듈(310)을 포함하며, 제1 판단모듈(310)은 제1 판단학습부(312)에 의해 학습된 모델을 적용한다. The integrated server 300 includes a first determination module 310 that determines whether smoke occurs in the target area through the real image frame constituting the real image, and the first determination module 310 determines the first determination The model learned by the learning unit 312 is applied.

본 방법은 단계(S110) 내지 단계(S160)을 포함한다. The method includes steps S110 to S160.

단계(S110)은 제1 판단학습부(312)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 비연기영역 및 연기영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 연기영역이 학습되는 단계이다. Step S110 is a step in which a real image image frame for learning is input to the first judgment learning unit 312, wherein the real image image frame for learning is divided into predetermined blocks, and a non-smoking region and a smoke region are separated. After being input as a state, it is a step in which the acting area is learned by a preset method.

이 때, 제1 판단모듈(310)은 학습과 테스트를 위해 영상정보를 사용한다. 영상정보가 주어지면 각 영상프레임마다 먼저 움직이는 전경(이 경우 연기)을 고정 배경과 분리한다. 이 때, OpenCV에서 구현된 가우시안 혼합 기반 배경/전경 분할 알고리즘을 cv:: BackgroundSubtractorMOG2로 사용하는 것이 바람직하다. 제1 판단모듈(310)은, 영상정보의 이미지를 고려하고, 각각을 반복함으로써, 전경을 분리하고 cv:: findContoures를 적용하여 전경을 윤곽으로 분할한다. 각 윤곽선은 40 x 40 개의 이미지 블록으로 분할되며. 연기 및 비연기 물질이 포함된 블록은 별도로 수집된다. DNN은 도 8과 같이 개발되었으며, DNN은 블록으로 훈련된다.At this time, the first determination module 310 uses the image information for learning and testing. Given image information, the moving foreground (in this case, smoke) is first separated from the fixed background for each image frame. In this case, it is preferable to use the Gaussian mixing-based background/foreground segmentation algorithm implemented in OpenCV as cv::BackgroundSubtractorMOG2. The first determination module 310 considers the image of the image information, and by repeating each, separates the foreground and divides the foreground into contours by applying cv::findContoures. Each contour is divided into 40 x 40 image blocks. Blocks containing smoke and non-smoke materials are collected separately. The DNN was developed as shown in FIG. 8, and the DNN is trained with blocks.

단계(S120)은 상기 레일로봇장치(200)로부터 실화상영상이 상기 제1 판단모듈(310)로 전송되는 단계이다. Step S120 is a step in which a real image is transmitted from the rail robot device 200 to the first determination module 310 .

단계(S130)은 상기 제1 판단모듈(310)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 단계(S110)에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 연기영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계이다. Step (S130) is a step of dividing the real image frame constituting the real image image into predetermined blocks by the first determination module 310. In the step (S110), the learned acting area is used. Thus, it is a step of dividing an area corresponding to a smoke area among the preset blocks into block groups, and then generating an edge part for the block group.

단계(S140)은 상기 단계(S130)에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하는 단계이다. Step S140 is a step of comparing edge portions generated for each block group when a plurality of block groups are formed in the real image frame in step S130.

단계(S150)은 상기 단계(S140)에서, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 연기영역을 생성하는 단계이다. Step S150 is a step of generating a smoke region by merging the first and second block groups when the edges of the first and second block groups respectively overlap in the step S140.

단계(S160)은 상기 실화상영상에 포함된 제1 내지 제N 실화상영상 프레임에 대해 상기 단계(S130) 내지 단계(S150)를 반복하여 수행하는 단계이다. Step S160 is a step of repeatedly performing steps S130 to S150 with respect to the first to Nth real image frames included in the real image.

도 9 및 10을 참조하여, 건물 모니터링 시스템을 이용하여 연기발생 여부를 판단하는 과정을 설명한다. A process of determining whether smoke is generated using a building monitoring system will be described with reference to FIGS. 9 and 10 .

통합서버(300)는, 실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 홍수발생 여부를 판단하는, 제2 판단모듈(320)을 더 포함하며, 제2 판단모듈(320)은 제2 판단학습부(322)에 의해 학습된 모델을 적용한다. The integrated server 300 further includes a second determination module 320 that determines whether a flood occurs in the target area through the real image frame constituting the real image, and the second determination module 320 includes: The model learned by the second judgment learning unit 322 is applied.

본 방법은 단계(S210) 내지 단계(S250)을 포함한다. The method includes steps S210 to S250.

단계(S210)은 제2 판단학습부(322)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 정상영역 및 홍수영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 홍수영역이 학습되는 단계이다. Step S210 is a step in which a real image image frame for learning is input to the second judgment learning unit 322, wherein the real image image frame for learning is divided into predetermined blocks, and a normal region and a flood region are separated. After being input as , it is a step in which the flood zone is learned by a preset method.

단계(S220)은 상기 레일로봇장치(200)로부터 실화상영상이 상기 제2 판단모듈(320)로 전송되는 단계이다. Step S220 is a step in which the real image image is transmitted from the rail robot device 200 to the second determination module 320 .

단계(S230)은 상기 제2 판단모듈(320)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 (B1) 단계에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 홍수영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계이다. Step (S230) is a step of dividing the real image frame constituting the real image image into predetermined blocks by the second determination module 320. In the step (B1), the learned acting area is used. Thus, it is a step of dividing an area corresponding to a flood area among the preset blocks into block groups, and then generating an edge portion for the block group.

단계(S240)은 상기 단계(S230)에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하되, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 홍수영역을 생성하는 단계이다. In step S240, when a plurality of block groups are formed in the real image frame in step S230, edge portions generated for each block group are compared, but the first block group and the second block group are compared. When each edge portion overlaps, the first and second block groups are merged to create a flood area.

단계(S250)은 단계(S240)에서 생성된 홍수영역의 면적 및 물의 양을 기설정된 방식에 의해, 연산하는 단계(S250)이다. Step S250 is a step S250 of calculating the area of the flood zone and the amount of water generated in step S240 by a preset method.

좀 더 부연하여 설명하면, 홍수판단은 크게 두 단계로 구분된다. 첫 번째 단계에서는 실화상영상 내에서 바닥영역이 감지되고 두 번째 단계에서는 바닥영역에서만 물을 감지한다. 제1 판단모듈(310)과 달리 제2 판단모듈(320)은, 정지된 이미지에서 작동하므로 비디오 클립(동영상을 의미함) 형태의 실화상영상이 필요하지 않는다. 학습 및 판단을 위해 실화상영상 프레임 각각은, 32 x 32 크기의 블록으로 분할된다.To elaborate a little more, the flood judgment is largely divided into two stages. In the first step, the bottom area is detected in the real image, and in the second step, water is detected only in the bottom area. Unlike the first determination module 310, the second determination module 320 operates on a still image, so a real image in the form of a video clip (meaning a moving picture) is not required. For learning and judgment, each real image frame is divided into blocks of a size of 32 x 32.

바닥 탐지 부분의 경우, 많은 양의 바닥 이미지 및 상기 바닥 이미지를 제외한 부분의 이미지가 수집되고, 다음 DNN이 이미지 세트의 일부로 훈련된다. 제1 판단모듈(310)의 경우와 마찬가지로 연결된 블록을 찾고 그룹의 구성 요소 수가 매우 적으면 해당 그룹을 제외한다. 이는 오류의 탐지 플로어 블록을 제거하는 데 도움이 된다. 마지막으로 각 블록 그룹에서 물감지 분류기를 적용하고 바닥의 물의 대략적인 양을 계산한다. 제2 판단모듈(320)의 구성은 바닥면적감지와 구성과 동일하며, 이는 도 10에 도시된다. 그러나 제2 판단모듈(320)은 물이 포함된 블록과 빈바닥이 포함된 블록 등 다양한 이미지 블록 세트로 학습된다. 적은 수의 블록을 포함하는 블록 그룹을 필터링하면 적절한 결과를 얻을 수 있다. For the floor detection part, a large amount of floor images and images of parts except for the floor image are collected, and then the DNN is trained as part of the image set. As in the case of the first determination module 310, when a connected block is found and the number of elements in the group is very small, the group is excluded. This helps to eliminate the erroneous detection floor block. Finally, we apply a water-sensing classifier to each block group and calculate the approximate amount of water on the floor. The configuration of the second determination module 320 is the same as that of sensing the floor area, which is illustrated in FIG. 10 . However, the second determination module 320 is learned with a set of various image blocks, such as a block containing water and a block containing an empty floor. Filtering a group of blocks containing a small number of blocks can give an appropriate result.

본 발명은 누수를 판단하는 제4 판단모듈(미도시)을 더 포함할 수 있다. The present invention may further include a fourth determination module (not shown) for determining the leak.

제4 판단모듈은 제1 판단모듈(310) 유사하게 비디오 클립에서 작동된다. 처음에는 움직이는 부분(여기서는 물의 흐름)이 고정 부분에서 분리된다. 다만, 제1 판단모듈(310)의 경우와 달리 이동하는 물을 감지하기가 쉽지 않다. 그 이유는 일반적으로 연기가 퍼지려고 하지만, 속도가 낮을 때 물의 흐름이 감지하기 어려운 매우 얇은 빔을 만들기 때문이다. 이에 이미지 시퀀스의 시간 영역에서 1차원 컨볼루션을 적용한 다음, 이미지의 공간 영역에서 2차원 컨벌루션을 적용한다. 여기서, 1차원 컨볼루션 레이어는 낙하의 모션 패턴을 인코딩하고, 2차원 컨볼루션 레이어는 낙수의 이미지를 인코딩하는 것이 바람직하다. The fourth determination module operates on video clips similarly to the first determination module 310 . Initially, the moving part (here the water flow) is separated from the stationary part. However, unlike the case of the first determination module 310, it is not easy to detect moving water. The reason is that the smoke normally tries to spread, but at low velocities the water flow creates a very thin beam that is difficult to detect. To this, one-dimensional convolution is applied in the temporal domain of the image sequence, and then two-dimensional convolution is applied in the spatial domain of the image. Here, it is preferable that the one-dimensional convolution layer encodes a motion pattern of falling water, and the two-dimensional convolution layer encodes an image of the falling water.

통합서버(300)는, 실화상영상을 구성하는 실화상영상 프레임을 통해, 이벤트발생여부를 판단하는 제3 판단모듈(330)로서, 이벤트발생은 대상영역의 화재발생 여부, 불꽃발생 여부 및 침입자발생인, 제3 판단모듈(330)을 더 포함한다. The integrated server 300 is a third determination module 330 that determines whether an event has occurred through the real image frame constituting the real image, and the event occurrence determines whether a fire occurs in the target area, whether a flame occurs, and whether an intruder The generator further includes a third determination module 330 .

본 방법은 단계(S310) 내지 단계(S350)을 포함한다. The method includes steps S310 to S350.

단계(S310)은 제3 판단학습부(332)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 딥러닝(deep learning) 기반 심층신경망 모델의 학습이 수행되는 단계이다. Step S310 is a step in which a real image image frame for learning is input to the third judgment learning unit 332, wherein the real image image frame for learning is a step in which learning of a deep learning-based deep neural network model is performed am.

단계(S320)은 상기 단계(S310)에 의해, 상기 이벤트발생여부에 대한 심층신경망 모델이 형성되는 단계이다. Step S320 is a step in which a deep neural network model for whether the event has occurred is formed by the step S310.

단계(S330)은 상기 레일로봇장치(200)로부터 실화상영상이 상기 제3 판단모듈(330)로 전송되는 단계로서, 상기 단계(S320)에 생성된 심층신경망 모델에 상기 실화상영상이 입력되는 단계이다. Step (S330) is a step in which a real image is transmitted from the rail robot device 200 to the third determination module 330, and the real image is input to the deep neural network model generated in the step (S320). is a step

단계(S340)은 상기 심층신경망 모델은, 상기 단계(S330)에서 입력된 실화상영상에 대해, 최종 출력층의 노드를 상이하게 형성함으로써, 화재발생, 불꽃발생 및 침입자발생 여부를 판단하는 단계이다. Step S340 is a step in which the deep neural network model determines whether a fire, flame, or intruder occurs by forming different nodes of the final output layer with respect to the real image input in step S330.

단계(S340)에서, 관심영역의 범위가 작게 설정될수록, 최종 출력층의 노드값은 더 크게 설정될 수 있다. In operation S340 , as the range of the ROI is set smaller, the node value of the final output layer may be set larger.

단계(S350)은 상기 이벤트발생으로 판단된 실화상영상 및 상기 열화상카메라모듈(220)로부터 취득된 열화상영상을 비교하는 단계로서, 상기 실화상영상 중 상기 이벤트발생으로 판단된 영역 및 상기 열화상영상에서의 영역별 온도정보를 매칭시킴으로써, 상기 이벤트발생 여부를 판단하는 단계이다. Step S350 is a step of comparing the real image determined as the occurrence of the event with the thermal image acquired from the thermal imaging camera module 220, and the region determined as the occurrence of the event among the real image images and the deterioration It is a step of determining whether the event has occurred by matching the temperature information for each area on the screen.

여기서, 심층신경망 모델은, YOLO(You Only Look Once)의 네트워크 구조를 기반으로, 상기 학습용 실화상영상 프레임을 통해 학습하도록 구성된다. Here, the deep neural network model is configured to learn through the real image frame for learning based on the network structure of YOLO (You Only Look Once).

구체적으로 설명하면, 화재, 불꽃 및 침입자 감지를 위해 단일모델을 사용한다. 모델을 선택하는 동안 두 가지 요소를 고려한다. 제1 요소는 탐지는 매우 빠르며, 제2 요소는 스파크와 같은 작은 물체와 소량의 화재처럼 침입자와 같은 큰 물체를 탐지하는 것이다. 이를 통해, 스파크 및 침입자 감지를 위해, YOLO V3를 공통 모델로 결정하였다. 학습을 위해, 다양한 형태의 불, 불꽃, 사람이 포함 된 약 500개의 이미지가 캡쳐되는 것이 필요하다. 각 이미지에 대해 라벨링 및 경계 상자가 만들어지며, 학습을 위해 약 400개의 이미지가 무작위로 선택되고, 나머지 이미지는 유효성 검사를 위해 선택된다. 상기의 사항은 본 출원인에 의해 실험된 바 있으며, CUDA 지원 GPU가있는 표준 컴퓨터로 약 3일이 소요되었다. Specifically, a single model is used for fire, flame and intruder detection. Two factors are considered while choosing a model. The first factor is to detect very fast, and the second factor is to detect small objects such as sparks and large objects such as intruders such as small amounts of fire. Through this, YOLO V3 was decided as a common model for spark and intruder detection. For learning, it is necessary to capture about 500 images containing various types of fires, flames and people. Labeling and bounding boxes are created for each image, about 400 images are randomly selected for training, and the remaining images are selected for validation. The above has been tested by the applicant, and it took about 3 days with a standard computer with a CUDA supported GPU.

YOLO(You Only Look Once)의 핵심은 한 번의 패스로 사물을 인식 할 수 있다는 것이다. 이것의 목표는 움직이는 카메라에서 시스템을 사용하는 것이고 실시간으로 이상을 감지하는 것이다. 모듈들은 모든 카메라에서 실시간 스트림을 수신하는 더 큰 시스템과 결합됩니다. 주기적으로 많은 이미지 세트가 탐지 모듈로 전달되고 탐지 모듈은 이상이 있는지 확인하며, 의심스러운 이벤트가 발견되면 경보를 울리고 이에 따라, 관리자가 필요한 조치를 취하도록 구성된다. The key to YOLO (You Only Look Once) is that it can recognize objects with one pass. The goal of this is to use the system on a moving camera and detect anomalies in real time. Modules are combined with a larger system that receives live streams from all cameras. Periodically, a large set of images is passed to the detection module, which is configured to check for anomalies, raise an alert if a suspicious event is found and, accordingly, the administrator to take the necessary action.

도 12는 YOLO-V3 모델의 아키텍처를 보여준다. 도 12에 도시된 바와 같이, 3가지 다른 척도로 산출물을 추출한다. 일 예시로써, 침입자와 같은 더 큰 물체는 노드 82에서 생성된 출력에 의해 감지되고, 불꽃 또는 소량의 화재와 같은 작은 물체는 노드 106에서 생성된 출력에 의해 감지된다. 12 shows the architecture of the YOLO-V3 model. As shown in Fig. 12, products are extracted with three different scales. As an example, a larger object, such as an intruder, is detected by the output generated at node 82, and a smaller object, such as a flame or small amount of fire, is detected by the output generated at node 106.

컨볼루션 레이어에 대해 사전 훈련된 가중치를 사용하더라도 YOLO의 훈련 시간은 매우 길다. 그러나 일단 훈련을 받으면 탐지가 정말 빠른 효과가 있다. 실험적으로, Titan X GPU가있는 표준 데스크톱 컴퓨터에서 YOLO는 초당 약 45 프레임을 처리할 수 있다. 초당 15 프레임으로 캡처된 이미지에 감지기를 적용될 수 있다. 물체가 가까운 터널 내에서 움직이는 카메라를 사용할 때 이상을 감지하려면 높은 감지 속도가 필요하며, 그 결과 촬영을 통해, 캡처한 이미지에서 매우 짧은 시간 동안 유지된다. 이 시스템은 초고해상도 카메라에서 가장 잘 작동하지만, 일반 IP 카메라로 캡처된 이미지에서 테스트 한 결과 역시 만족스러운 결과를 보였다. 그리고 분명히 이들과 유사한 카메라를 사용하여 훈련 및 테스트 샘플을 채취할 경우, 성능이 더욱 향상될 수 있다. Even with pre-trained weights for the convolutional layer, the training time of YOLO is very long. But once trained, detection works really fast. Experimentally, on a standard desktop computer with a Titan X GPU, YOLO can process about 45 frames per second. Detectors can be applied to images captured at 15 frames per second. When using a camera in which an object is moving within a nearby tunnel, high detection rates are required to detect anomalies, which results in a very short duration in the captured image, taken as a result. This system works best with ultra-high-resolution cameras, but testing on images captured with regular IP cameras also showed satisfactory results. And obviously, performance could be further improved if training and test samples were taken using cameras similar to these.

이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다. In the above, the present specification has been described with reference to the embodiments shown in the drawings so that those skilled in the art can easily understand and reproduce the present invention, but these are merely exemplary, and those skilled in the art can make various modifications and equivalent other modifications from the embodiments of the present invention. It will be appreciated that embodiments are possible. Therefore, the protection scope of the present invention should be defined by the claims.

100: 레일
200: 레일로봇장치
210: 실화상카메라모듈
220: 열화상카메라모듈
230: 통신모듈
240: 위치센서
250: 구동부
260: 촬영부
300: 통합서버
310: 제1 판단모듈
320: 제2 판단모듈
330: 제3 판단모듈
340: 맵핑모듈
400: 디스플레이부
500: 개인단말기
600: 중계기부
100: rail
200: rail robot device
210: real image camera module
220: thermal imaging camera module
230: communication module
240: position sensor
250: driving unit
260: shooting department
300: integrated server
310: first determination module
320: second determination module
330: third determination module
340: mapping module
400: display unit
500: personal terminal
600: relay donation

Claims (10)

천장에 미리 설치된 레일을 따라 이동하는 레일로봇장치(200)를 이용하는 건물 모니터링 시스템으로서,
모니터링 대상이 되는 설비의 위치를 기반으로, 천장 측에 미리 설계된 상기 레일(100);
실화상카메라모듈(210) 및 열화상카메라모듈(220)을 구비하는 상기 레일로봇장치(200)로서, 상기 레일(100)을 궤도로 하여 기설정된 규칙에 따라 운행되며, 상기 실화상카메라모듈(210) 및 상기 열화상카메라모듈(220)로부터 대상영역에 대한 실화상영상 및 열화상영상을 각각 획득하고, 획득된 상기 실화상영상 및 열화상영상을 무선 또는 유선으로 전송하는 통신모듈(230)이 구비된, 레일로봇장치(200); 및
상기 레일로봇장치(200)의 통신모듈(230)로부터 전송된 실화상영상 및 열화상영상을 기설정된 인공지능방식으로 분석하는 통합서버(300);를 포함하며,
상기 통합서버(300)는,
인공지능방식 중 심층신경망(Deep Neural Network, DNN)을 이용하여, 실화상영상 및 열화상영상을 분석하되,
상기 실화상영상 및 열화상영상을 통해, 건물의 대상영역의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부 중 적어도 하나를 판단하는,
건물 모니터링 시스템.
As a building monitoring system using a rail robot device 200 that moves along a rail installed in advance on the ceiling,
The rail 100 designed in advance on the ceiling side based on the location of the facility to be monitored;
As the rail robot device 200 having a real image camera module 210 and a thermal image camera module 220, it is operated according to a preset rule with the rail 100 as a track, and the real image camera module ( 210) and a communication module 230 for acquiring a real image and a thermal image of the target area from the thermal imaging camera module 220, respectively, and transmitting the acquired real image and thermal image wirelessly or by wire This is provided, the rail robot device 200; and
Including; and the integrated server 300 for analyzing the real image and thermal image transmitted from the communication module 230 of the rail robot device 200 in a preset artificial intelligence method;
The integrated server 300,
Analyze real image and thermal image using Deep Neural Network (DNN) among artificial intelligence methods,
Determining at least one of whether smoke occurs in a target area of a building, whether a flood is determined, whether a fire occurs, whether a flame occurs, and whether an intruder occurs through the real image and thermal image,
Building monitoring system.
청구항 1에 따른 건물 모니터링 시스템을 이용하는 방법으로서,
상기 통합서버(300)는,
실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 연기발생 여부를 판단하는, 제1 판단모듈(310); 을 더 포함하고,
(A1) 제1 판단학습부(312)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 비연기영역 및 연기영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 연기영역이 학습되는 단계(S110);
(A2) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제1 판단모듈(310)로 전송되는 단계(S120);
(A3) 상기 제1 판단모듈(310)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 (A1) 단계에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 연기영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계(S130);
(A4) 상기 (A3) 단계에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하는 단계(S140);
(A5) 상기 (A4) 단계에서, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 연기영역을 생성하는 단계(S150); 및
(A6) 상기 실화상영상에 포함된 제1 내지 제N 실화상영상 프레임에 대해 상기 (A3) 내지 (A5) 단계를 반복하여 수행하는 단계(S160); 를 포함하는,
방법.
A method of using the building monitoring system according to claim 1, comprising:
The integrated server 300,
a first determination module 310 that determines whether or not smoke is generated in the target area through the real image frame constituting the real image; further comprising,
(A1) A step of inputting a real image frame for learning to the first judgment learning unit 312, wherein the real image frame for learning is divided into predetermined blocks, and a non-smoking region and a smoke region are separated. After being input, the step of learning the acting area by a preset method (S110);
(A2) the step of transmitting the real image from the rail robot device 200 to the first determination module 310 (S120);
(A3) A step of dividing, by the first determination module 310, a real image frame constituting the real image into predetermined blocks, using the acting area learned in the step (A1), dividing an area corresponding to a smoke area among the preset blocks into block groups, and then generating an edge portion for the block group (S130);
(A4) when a plurality of block groups are formed in the real image frame in step (A3), comparing edge portions generated for each block group (S140);
(A5) when the edges of the first and second block groups overlap each other in step (A4), merging the first and second block groups to create a smoke area (S150); and
(A6) repeating steps (A3) to (A5) for the first to Nth real image frames included in the real image (S160); containing,
Way.
청구항 1에 따른 건물 모니터링 시스템을 이용하는 방법으로서,
상기 통합서버(300)는, 실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 홍수발생 여부를 판단하는, 제2 판단모듈(320); 을 더 포함하고,
(B1) 제2 판단학습부(322)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 정상영역 및 홍수영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 홍수영역이 학습되는 단계(S210);
(B2) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제2 판단모듈(320)로 전송되는 단계(S220);
(B3) 상기 제2 판단모듈(320)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 (B1) 단계에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 홍수영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계(S230);
(B4) 상기 (B3) 단계에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하되, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 홍수영역을 생성하는 단계(S240); 및
(B5) 상기 (B4) 단계에서 생성된 홍수영역의 면적 및 물의 양을 기설정된 방식에 의해, 연산하는 단계(S250); 를 포함하는,
방법.
A method of using the building monitoring system according to claim 1, comprising:
The integrated server 300 includes, through a real image frame constituting a real image, a second determination module 320 that determines whether a flood occurs in a target area; further comprising,
(B1) A step of inputting a real image image frame for learning to the second judgment learning unit 322, wherein the real image image frame for learning is divided into predetermined blocks, and is input in a state in which a normal region and a flood region are separated After that, by a preset method, the step of learning the flood zone (S210);
(B2) the step of transmitting the real image image from the rail robot device 200 to the second determination module 320 (S220);
(B3) dividing the real image frame constituting the real image into predetermined blocks by the second determination module 320, using the acting area learned in the step (B1), dividing an area corresponding to a flood area among the preset blocks into block groups, and then generating an edge portion for the block group (S230);
(B4) In the step (B3), when a plurality of block groups are formed in the real image frame, the edges generated for each block group are compared, but each of the first block group and the second block group generating a flood zone by merging the first and second block groups when the edges overlap (S240); and
(B5) calculating the area of the flood zone and the amount of water generated in the step (B4) by a preset method (S250); containing,
Way.
청구항 1에 따른 건물 모니터링 시스템을 이용하는 방법으로서,
실화상영상을 구성하는 실화상영상 프레임을 통해, 이벤트발생여부를 판단하는 제3 판단모듈(330)로서, 상기 이벤트발생은 대상영역의 화재발생 여부, 불꽃발생 여부 및 침입자발생인, 제3 판단모듈(330); 을 더 포함하고,
(C1) 제3 판단학습부(332)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 딥러닝(deep learning) 기반 심층신경망 모델의 학습이 수행되는 단계(S310);
(C2) 상기 (C1) 단계에 의해, 상기 이벤트발생여부에 대한 심층신경망 모델이 형성되는 단계(S320);
(C3) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제3 판단모듈(330)로 전송되는 단계로서, 상기 (C2) 단계에 생성된 심층신경망 모델에 상기 실화상영상이 입력되는 단계(S330); 및
(C4) 상기 심층신경망 모델은, 상기 (C3) 단계에서 입력된 실화상영상에 대해, 최종 출력층의 노드를 상이하게 형성함으로써, 화재발생, 불꽃발생 및 침입자발생 여부를 판단하는 단계(S340); 를 포함하며,
상기 이벤트발생은, 침입자발생, 화재발생 및 불꽃발생 순서로 관심영역의 범위가 작게 설정되고,
상기 (C4) 단계는,
상기 관심영역의 범위가 작게 설정될수록, 최종 출력층의 노드값은 더 크게 설정된,
방법.
A method of using the building monitoring system according to claim 1, comprising:
A third determination module 330 for determining whether an event has occurred through a real image frame constituting a real image, wherein the event occurrence is a third determination whether a fire occurs in a target area, whether a flame occurs, and an intruder module 330; further comprising,
(C1) a step in which a real image frame for learning is input to the third judgment learning unit 332, wherein the real image frame for learning is a step in which learning of a deep learning-based deep neural network model is performed (S310) );
(C2) by the step (C1), the step of forming a deep neural network model for the occurrence of the event (S320);
(C3) a step of transmitting a real image from the rail robot device 200 to the third determination module 330, wherein the real image is input to the deep neural network model generated in the step (C2) ( S330); and
(C4) The deep neural network model, for the real image input in the step (C3), by forming the nodes of the final output layer differently, determining whether a fire, a spark, and an intruder occurs (S340); includes,
In the event occurrence, the range of the region of interest is set small in the order of intruder occurrence, fire occurrence and flame generation,
The step (C4) is,
The smaller the range of the region of interest is set, the larger the node value of the final output layer is set.
Way.
청구항 4에 있어서,
(C5) 상기 이벤트발생으로 판단된 실화상영상 및 상기 열화상카메라모듈(220)로부터 취득된 열화상영상을 비교하는 단계로서, 상기 실화상영상 중 상기 이벤트발생으로 판단된 영역 및 상기 열화상영상에서의 영역별 온도정보를 매칭시킴으로써, 상기 이벤트발생 여부를 판단하는 단계(S350); 를 더 포함하는,
방법.
5. The method according to claim 4,
(C5) comparing the real image determined as the occurrence of the event and the thermal image acquired from the thermal imaging camera module 220, in the region determined as the occurrence of the event in the real image and in the thermal image determining whether the event has occurred by matching the temperature information for each area (S350); further comprising,
Way.
청구항 4에 있어서,
상기 심층신경망 모델은, YOLO(You Only Look Once)의 네트워크 구조를 기반으로, 상기 학습용 실화상영상 프레임을 통해, 학습하는,
방법.
5. The method according to claim 4,
The deep neural network model, based on the network structure of YOLO (You Only Look Once), learns through the real image frame for learning,
Way.
청구항 1에 있어서,
상기 레일로봇장치(200)는,
위치센서(240)를 더 포함하고, 상기 위치센서(240)로부터 획득된 위치정보는 상기 통신모듈(230)을 통해, 상기 통합서버(300)로 전송되고,
상기 통합서버(300)는,
대상영역의 도면정보, 상기 레일의 설계정보 및 상기 대상영역에 구비된 설비의 위치정보가 미리 입력되어 있으며, 상기 도면정보 상에 상기 레일로봇장치(200)의 이동정보를 맵핑하는 맵핑모듈(340); 을 더 포함하며,
상기 건물 모니터링 시스템은,
상기 맵핑모듈(340)로부터 전송된 상기 레일로봇장치(200)의 이동정보를 시각적으로 표시하는 디스플레이부(400); 를 더 포함하며,
상기 디스플레이부(400)를 통해,
상기 레일로봇장치(200)의 이동정보, 상기 대상영역에서의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부 중 적어도 하나를 제공하는,
건물 모니터링 시스템.
The method according to claim 1,
The rail robot device 200,
Further comprising a position sensor 240, the position information obtained from the position sensor 240 is transmitted to the integrated server 300 through the communication module 230,
The integrated server 300,
Drawing information of the target area, design information of the rail, and location information of facilities provided in the target area are input in advance, and a mapping module 340 for mapping movement information of the rail robot device 200 on the drawing information. ); further comprising,
The building monitoring system,
a display unit 400 for visually displaying movement information of the rail robot device 200 transmitted from the mapping module 340; further comprising,
Through the display unit 400,
Providing at least one of movement information of the rail robot device 200, whether smoke is generated in the target area, whether a flood is determined, whether a fire occurs, whether a flame is generated, and whether an intruder occurs,
Building monitoring system.
청구항 1에 있어서,
상기 레일로봇장치(200)는,
상기 레일(100) 상에 이동 가능하도록 결합되며, 상기 레일(100)에 구비된 전원부(120)로부터 전원을 공급받는, 구동부(250); 및
상기 실화상카메라모듈(210) 및 열화상카메라모듈(220)이 구비된 촬영부(260); 로 구성되며,
상기 구동부(250)의 전방 및 후방에는 근접센서(252)가 구비되고,
상기 촬영부(260)는, 수평방향을 기준으로, 360도 회전가능하도록 구성되며, 상하방향으로 촬영각도의 조절이 가능하도록 구성된,
건물 모니터링 시스템.
The method according to claim 1,
The rail robot device 200,
a driving unit 250 coupled to be movable on the rail 100 and receiving power from a power supply unit 120 provided on the rail 100; and
a photographing unit 260 provided with the real image camera module 210 and the thermal image camera module 220; is composed of
A proximity sensor 252 is provided at the front and rear of the driving unit 250,
The photographing unit 260 is configured to be rotatable by 360 degrees with respect to the horizontal direction, and configured to be able to adjust the photographing angle in the vertical direction,
Building monitoring system.
청구항 1에 있어서,
상기 레일로봇장치(200)의 통신모듈(230)은,
대상영역 내의 소정의 거리에 있는 개인단말기(500)와 무선연결되도록 구성되고,
상기 건물 모니터링 시스템은,
상기 레일로봇장치(200)로부터 취득된 실화상영상 및 열화상영상의 상기 통합서버(300)로의 전송을 중계하는 중계기부(600)가 구비되며,
상기 개인단말기(500)는,
상기 중계기부(600)를 통해, 무선네트워크망과 연결됨으로써, 상기 통합서버(300)로부터 정보를 송수신하도록 구성된,
건물 모니터링 시스템.
The method according to claim 1,
The communication module 230 of the rail robot device 200,
It is configured to be wirelessly connected to the personal terminal 500 at a predetermined distance within the target area,
The building monitoring system,
A repeater unit 600 for relaying the transmission to the integrated server 300 of the real image and thermal image acquired from the rail robot device 200 is provided,
The personal terminal 500,
Through the repeater unit 600, by being connected to a wireless network network, configured to transmit and receive information from the integrated server 300,
Building monitoring system.
청구항 1에 있어서,
상기 열화상카메라모듈(220)은,
대상영역의 영역별 온도정보를 기설정된 방식으로 이용하여, 상기 대상영역 내의 화재발생 여부, 불꽃발생 여부, 설비의 이상발생 여부 및 침입자발생 여부를 판단하는,
건물 모니터링 시스템.
The method according to claim 1,
The thermal imaging camera module 220,
Using the temperature information for each area of the target area in a preset manner, determining whether a fire occurred, whether a flame occurred, whether an abnormality occurred in the facility, and whether an intruder occurred in the target area,
Building monitoring system.
KR1020200146858A 2020-11-05 2020-11-05 Deep learning based building management system with rail robot device KR102470131B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200146858A KR102470131B1 (en) 2020-11-05 2020-11-05 Deep learning based building management system with rail robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200146858A KR102470131B1 (en) 2020-11-05 2020-11-05 Deep learning based building management system with rail robot device

Publications (2)

Publication Number Publication Date
KR20220061312A true KR20220061312A (en) 2022-05-13
KR102470131B1 KR102470131B1 (en) 2022-11-28

Family

ID=81583223

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200146858A KR102470131B1 (en) 2020-11-05 2020-11-05 Deep learning based building management system with rail robot device

Country Status (1)

Country Link
KR (1) KR102470131B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115050154A (en) * 2022-06-10 2022-09-13 中国建设科技集团股份有限公司 Multifunctional indoor security monitoring and alarming system
KR102447369B1 (en) * 2022-06-13 2022-09-27 주식회사 디코엔 Mobile IOT rail robot monitoring system
KR102505521B1 (en) * 2022-09-22 2023-03-02 (주)퀀티파이드이에스지 Corporate ESG Rating System
CN116608985A (en) * 2023-05-09 2023-08-18 广州市市政工程试验检测有限公司 Bolt fastening monitoring system and method for track
KR102635862B1 (en) * 2023-02-14 2024-02-13 김지원 Facility supervision and inspection reporting system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101543561B1 (en) * 2015-01-13 2015-08-12 (주)금성보안 Hybrid fire monitoring apparatus and method
KR101953342B1 (en) * 2017-12-08 2019-05-23 주식회사 비젼인 Multi-sensor fire detection method and system
KR20190103855A (en) * 2018-02-28 2019-09-05 주식회사 비젼하이텍 Apparatus and method of searching fire image based on imaging area of the ptz camera
KR102096175B1 (en) 2018-09-14 2020-04-01 주식회사 아이엠알 Ceiling rail type IoT based surveillance robot device
KR20200043010A (en) * 2018-10-17 2020-04-27 포인드 주식회사 Action Detection System and Method Using Deep Learning with Camera Input Image
KR20200061578A (en) * 2018-11-26 2020-06-03 한국로봇융합연구원 System and method for searching disaster scene based multiple robot
KR20200071799A (en) * 2018-11-30 2020-06-22 (주)케이아이오티 object recognition and counting method using deep learning artificial intelligence technology
KR20200074503A (en) * 2018-12-17 2020-06-25 (주)스핀어웹 Fire mornitoring method and system using cctv image recognition based on deep learning

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101543561B1 (en) * 2015-01-13 2015-08-12 (주)금성보안 Hybrid fire monitoring apparatus and method
KR101953342B1 (en) * 2017-12-08 2019-05-23 주식회사 비젼인 Multi-sensor fire detection method and system
KR20190103855A (en) * 2018-02-28 2019-09-05 주식회사 비젼하이텍 Apparatus and method of searching fire image based on imaging area of the ptz camera
KR102096175B1 (en) 2018-09-14 2020-04-01 주식회사 아이엠알 Ceiling rail type IoT based surveillance robot device
KR20200043010A (en) * 2018-10-17 2020-04-27 포인드 주식회사 Action Detection System and Method Using Deep Learning with Camera Input Image
KR20200061578A (en) * 2018-11-26 2020-06-03 한국로봇융합연구원 System and method for searching disaster scene based multiple robot
KR20200071799A (en) * 2018-11-30 2020-06-22 (주)케이아이오티 object recognition and counting method using deep learning artificial intelligence technology
KR20200074503A (en) * 2018-12-17 2020-06-25 (주)스핀어웹 Fire mornitoring method and system using cctv image recognition based on deep learning

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115050154A (en) * 2022-06-10 2022-09-13 中国建设科技集团股份有限公司 Multifunctional indoor security monitoring and alarming system
CN115050154B (en) * 2022-06-10 2024-01-30 中国建设科技集团股份有限公司 Multifunctional indoor security monitoring alarm system
KR102447369B1 (en) * 2022-06-13 2022-09-27 주식회사 디코엔 Mobile IOT rail robot monitoring system
KR102505521B1 (en) * 2022-09-22 2023-03-02 (주)퀀티파이드이에스지 Corporate ESG Rating System
KR102635862B1 (en) * 2023-02-14 2024-02-13 김지원 Facility supervision and inspection reporting system
CN116608985A (en) * 2023-05-09 2023-08-18 广州市市政工程试验检测有限公司 Bolt fastening monitoring system and method for track

Also Published As

Publication number Publication date
KR102470131B1 (en) 2022-11-28

Similar Documents

Publication Publication Date Title
KR102470131B1 (en) Deep learning based building management system with rail robot device
KR101949525B1 (en) Safety management system using unmanned detector
CN111770266B (en) Intelligent visual perception system
KR102096175B1 (en) Ceiling rail type IoT based surveillance robot device
KR102554662B1 (en) Safety management system using unmanned detector
KR101723283B1 (en) Worker Behavior Based Safety Management System and Method
US20190228641A1 (en) System and Method for the Verified Determining of a Fire Status, as well as Vehicle and Central Unit for this Purpose
CN112288984A (en) Three-dimensional visual unattended substation intelligent linkage system based on video fusion
KR20070029760A (en) Monitoring devices
KR102174784B1 (en) Method for Recognizing and Tracking Large-scale Object using Deep learning and Multi-Agent
CN111562745A (en) Intelligent control system and intelligent control method
KR102550069B1 (en) Firing detection and early distinguish system with auto rechargerable mobile robot
JP6172958B2 (en) Shooting system
KR20210097500A (en) Apparatus for Monitoring Fire And System having the same
CN112286190A (en) Security patrol early warning method and system
KR20220071880A (en) Digital twin disaster management system customized for underground public areas
CN114913663A (en) Anomaly detection method and device, computer equipment and storage medium
JP6140436B2 (en) Shooting system
CN110928305B (en) Patrol method and system for patrol robot of railway passenger station
KR101695127B1 (en) Group action analysis method by image
KR102095986B1 (en) System of early fire detection and safety evacution and method thereof
CN110807345A (en) Building evacuation method and building evacuation system
JP5982273B2 (en) Shooting system
CN111508194A (en) Intelligent building monitoring system based on big data
KR20180099098A (en) Fusion Type Image Monitoring System Camera with Movement Tracking Function of Shooting Target

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right