KR20220061312A - Deep learning based building management system with rail robot device - Google Patents
Deep learning based building management system with rail robot device Download PDFInfo
- Publication number
- KR20220061312A KR20220061312A KR1020200146858A KR20200146858A KR20220061312A KR 20220061312 A KR20220061312 A KR 20220061312A KR 1020200146858 A KR1020200146858 A KR 1020200146858A KR 20200146858 A KR20200146858 A KR 20200146858A KR 20220061312 A KR20220061312 A KR 20220061312A
- Authority
- KR
- South Korea
- Prior art keywords
- real image
- rail
- robot device
- learning
- image
- Prior art date
Links
- 238000013135 deep learning Methods 0.000 title claims description 6
- 238000000034 method Methods 0.000 claims abstract description 53
- 238000012544 monitoring process Methods 0.000 claims abstract description 44
- 238000004891 communication Methods 0.000 claims abstract description 30
- 239000000779 smoke Substances 0.000 claims abstract description 29
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims abstract description 6
- 238000003062 neural network model Methods 0.000 claims description 15
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 15
- 230000033001 locomotion Effects 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 12
- 238000001931 thermography Methods 0.000 claims description 9
- 230000005856 abnormality Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 3
- 230000000391 smoking effect Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000010191 image analysis Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004092 self-diagnosis Methods 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/02—Manipulators mounted on wheels or on carriages travelling along a guideway
-
- G06K9/62—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/19—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using infrared-radiation detection systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Tourism & Hospitality (AREA)
- Robotics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- Marketing (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Mathematical Physics (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Alarm Systems (AREA)
Abstract
Description
본 발명은 레일로봇장치가 구비된 딥러닝 기반의 건물 관리 시스템에 관한 기술이다. The present invention relates to a deep learning-based building management system equipped with a rail robot device.
주택, 아파트, 상가, 상업용 빌딩, 공장, 대형 창고 등의 건물에는 각종 현장 장비, 즉 각종 전기설비, 가스설비, 냉난방설비, 급수설비, 통신설비, 보안설비, 공조설비, 각종 개폐설비 등의 장비들의 설치된다. 이러한 장비들의 작동 상태를 확인하기 위하여, 종래에는 관리자가 직접 현장 장비들을 육안으로 살펴 보거나, 현장 장비를 촬영할 수 있는 고정식 카메라를 설치하여 모니터링하는 것이 일반적이었다. In buildings such as houses, apartments, shopping malls, commercial buildings, factories, and large warehouses, various on-site equipment, such as various electrical equipment, gas equipment, air conditioning equipment, water supply equipment, communication equipment, security equipment, air conditioning equipment, and various switching equipment of them are installed In order to check the operating state of these equipment, it has been conventional for an administrator to directly inspect the field equipment with the naked eye or to install and monitor a stationary camera capable of photographing the field equipment.
그러나, 관리자가 직접 현장 장비들을 육안으로 살펴 보는 것은, 관측 시간이 매우 길어지고, 관리에 소요되는 인원이 증가되는 등의 비경제적인 문제점이 있다. 고정식 카메라를 사용할 경우, 관측 대상인 현장 장비의 종류나 개수가 많아질수록 필요한 카메라의 개수 역시 증대되는 바, 이 역시 매우 비경제적이며, 현실적으로 고정식 카메라는 관측의 사각지대가 존재할 수 있는 바, 관측의 사각지대에서 발생되는 이벤트에 대해 즉각 대응할 수 없는 치명적인 문제가 존재한다. However, there are uneconomical problems such as a very long observation time and an increase in the number of people required for management when the manager directly inspects the field equipment with the naked eye. In the case of using a fixed camera, the number of necessary cameras increases as the type or number of field equipment to be observed increases, which is also very uneconomical. There is a fatal problem that cannot immediately respond to an event occurring in a blind spot.
아울러, 하나의 고정식 카메라로 촬영할 수 있는 관측 영역 역시, 해상도나 현장 설비와의 거리 등에 따라 한계가 있어서, 보다 정밀하고 보다 정확한 관측이 어려웠었던 문제점이 있었다. In addition, the observation area that can be photographed with a single fixed camera also has a limitation depending on the resolution or the distance to the field equipment, so more precise and more accurate observation has been difficult.
한편, 최근에는 영상분석 기술이 발달함에 따라, 건물의 이벤트 상황을 관리하고, 이에 대한 대처를 하기 위해, 다양한 영상분석 기술이 적용되고 있다. On the other hand, in recent years, as image analysis technology develops, various image analysis technologies are applied to manage event situations in buildings and to cope with them.
지능형 영상분석 기술은 영상의 정보를 분석하여 자동으로 이상 행위, 물체를 탐지하고 관리자에게 경보를 전송하는 기술로써, 사고를 사전에 예방할 수도 있으며, 사고가 발생한 경우에는 신속하게 대응하여 피해를 줄일 수 있다. 이러한 영상분석을 이용하여 사전 정의된 이벤트가 발생될 때, 관리자에게 경보를 생성하여 알려주는 바, 모든 영상을 지속적으로 감시하지 않고, 경보가 발생할 때 해당 화면을 보고 실시간으로 상황을 판단하고 대처하면 된다. Intelligent video analysis technology is a technology that automatically detects abnormal behaviors and objects by analyzing video information, and sends an alert to the manager. there is. When a predefined event occurs using this image analysis, an alarm is created and notified to the manager. Instead of continuously monitoring all images, when an alarm occurs, the user sees the corresponding screen to judge and respond to the situation in real time. do.
이와 같이, 지능형 영상분석 기술을 사용할 경우, 건물의 관리가 용이하며, 사람의 육안으로 판단하는 것에 비해, 이벤트 상황을 더욱 정확하게 진단할 수 있는 바, 사고의 사전예방이 가능할 뿐만 아니라, 사고의 발생시에도 신속하게 인지하여 대응함으로써, 피해를 최소화할 수 있다. As such, when intelligent image analysis technology is used, the management of the building is easy, and compared to judging with the human eye, it is possible to diagnose the event situation more accurately. By quickly recognizing and responding to the situation, damage can be minimized.
지능형 영상분석 기술을 이용하여 건물을 관리하는 종래기술로는, 한국등록특허 제10-2096175호가 개시된다. 상기 종래기술은 '천장 레일형 IoT 기반 감시 로봇 장치'로서, 실화상, 열화상 적외선 카메라 영상을 촬영하고, 이를 인공지능 서버로 전송한 후, 합성곱신경망(CNN)을 이용하여 영상의 정상/비정상 여부를 판단하는 구성을 개시한다. 다만, 상기 종래기술은 특정 재난상황(예로, 홍수, 누수, 연기발생, 화재, 스파크 발생)에 최적화된 영상분석 방법을 개시하지는 않고, 합성곱신경망(CNN)을 이용하는 바, 매우 많은 영상 및 작업시간이 수반되어 비용의 측면에서 경제적이지 않다는 단점이 존재한다. As a prior art for managing buildings using intelligent image analysis technology, Korean Patent Registration No. 10-2096175 is disclosed. The prior art is a 'ceiling rail-type IoT-based monitoring robot device', which takes real and thermal infrared camera images, transmits them to an artificial intelligence server, and uses a convolutional neural network (CNN) to A configuration for determining whether abnormality is disclosed. However, the prior art does not disclose an image analysis method optimized for a specific disaster situation (eg, flood, water leak, smoke generation, fire, spark generation), but uses a convolutional neural network (CNN), so many images and tasks There is a disadvantage in that it is not economical in terms of cost as time is involved.
이에 따라, 최근에는, 고정식 카메라가 아닌, 이동식 카메라를 이용하여 실시간으로 촬영된 영상을 전송받고, 상기 영상을 딥러닝을 이용하여 분석하되, 특정 재난상황인 홍수, 누수, 연기발생, 화재 및 스파크 발생 각각에 대해 최적화된 영상분석 기술의 필요성이 증대되는 실정이다. Accordingly, recently, not a stationary camera, but a mobile camera is used to receive an image captured in real time, and the image is analyzed using deep learning. The need for an image analysis technology optimized for each occurrence is increasing.
본 발명은 전술한 종래 기술의 문제점을 해결하기 위해 안출된 것이다.The present invention has been devised to solve the problems of the prior art described above.
본 발명은 건물의 설비가 위치된 공간에는 많은 전기장치 또는 설비장치들이 구비되는 바, 이러한 설비들을 보호함과 동시에, 상기 공간으로의 사람 출입을 최소화함으로써, 사고의 위험으로부터 관리자를 보호하기 위한 기술을 제안하고자 한다. The present invention is a technology for protecting a manager from the risk of an accident by minimizing a person's entry into the space at the same time as protecting these facilities, since many electric devices or facilities are provided in the space where the facilities of the building are located. would like to propose
또한, 본 발명은 건물의 설비가 위치된 공간을 감시자가 직접 모니터링할 경우, 감시자에 따른 편차가 존재하며, 가령, 누수와 관련하여 소량의 물을 사람이 확인하는 것은 매우 부정확한 바, 사고의 초기 단계부터 사고를 감지할 수 있는 기술을 제안하고자 한다. In addition, according to the present invention, when a supervisor directly monitors a space in which a facility of a building is located, there is a deviation depending on the supervisor, for example, it is very inaccurate for a person to check a small amount of water in relation to a water leak. We would like to propose a technology that can detect accidents from an early stage.
본 발명은 천장에 미리 설치된 레일을 따라 이동하는 레일로봇장치(200)를 이용하는 건물 모니터링 시스템으로서, 모니터링 대상이 되는 설비의 위치를 기반으로, 천장 측에 미리 설계된 상기 레일(100); 실화상카메라모듈(210) 및 열화상카메라모듈(220)을 구비하는 상기 레일로봇장치(200)로서, 상기 레일(100)을 궤도로 하여 기설정된 규칙에 따라 운행되며, 상기 실화상카메라모듈(210) 및 상기 열화상카메라모듈(220)로부터 대상영역에 대한 실화상영상 및 열화상영상을 각각 획득하고, 획득된 상기 실화상영상 및 열화상영상을 무선 또는 유선으로 전송하는 통신모듈(230)이 구비된, 레일로봇장치(200); 및 상기 레일로봇장치(200)의 통신모듈(230)로부터 전송된 실화상영상 및 열화상영상을 기설정된 인공지능방식으로 분석하는 통합서버(300); 를 포함하며, 상기 통합서버(300)는, 인공지능방식 중 심층신경망(Deep Neural Network, DNN)을 이용하여, 실화상영상 및 열화상영상을 분석하되, 상기 실화상영상 및 열화상영상을 통해, 건물의 대상영역의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부 중 적어도 하나를 판단하는, 건물 모니터링 시스템을 제공한다. The present invention is a building monitoring system using a
또한, 본 발명은 전술한 건물 모니터링 시스템을 이용하는 방법으로서, 상기 통합서버(300)는, 실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 연기발생 여부를 판단하는, 제1 판단모듈(310); 을 더 포함하고, (A1) 제1 판단학습부(312)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 비연기영역 및 연기영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 연기영역이 학습되는 단계(S110); (A2) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제1 판단모듈(310)로 전송되는 단계(S120); (A3) 상기 제1 판단모듈(310)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 (A1) 단계에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 연기영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계(S130); (A4) 상기 (A3) 단계에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하는 단계(S140); (A5) 상기 (A4) 단계에서, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 연기영역을 생성하는 단계(S150); 및 (A6) 상기 실화상영상에 포함된 제1 내지 제N 실화상영상 프레임에 대해 상기 (A3) 내지 (A5) 단계를 반복하여 수행하는 단계(S160); 를 포함하는, 방법을 제공한다. In addition, the present invention is a method of using the above-described building monitoring system, wherein the integrated
또한, 본 발명은 전술한 건물 모니터링 시스템을 이용하는 방법으로서, 상기 통합서버(300)는, 실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 홍수발생 여부를 판단하는, 제2 판단모듈(320); 을 더 포함하고, (B1) 제2 판단학습부(322)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 정상영역 및 홍수영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 홍수영역이 학습되는 단계(S210); (B2) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제2 판단모듈(320)로 전송되는 단계(S220); (B3) 상기 제2 판단모듈(320)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 (B1) 단계에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 홍수영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계(S230); (B4) 상기 (B3) 단계에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하되, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 홍수영역을 생성하는 단계(S240); 및 (B5) 상기 (B4) 단계에서 생성된 홍수영역의 면적 및 물의 양을 기설정된 방식에 의해, 연산하는 단계(S250); 를 포함하는, 방법을 제공한다. In addition, the present invention is a method of using the above-described building monitoring system, wherein the integrated
또한, 본 발명은 전술한 건물 모니터링 시스템을 이용하는 방법으로서, 실화상영상을 구성하는 실화상영상 프레임을 통해, 이벤트발생여부를 판단하는 제3 판단모듈(330)로서, 상기 이벤트발생은 대상영역의 화재발생 여부, 불꽃발생 여부 및 침입자발생인, 제3 판단모듈(330); 을 더 포함하고, (C1) 제3 판단학습부(332)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 딥러닝(deep learning) 기반 심층신경망 모델의 학습이 수행되는 단계(S310); (C2) 상기 (C1) 단계에 의해, 상기 이벤트발생여부에 대한 심층신경망 모델이 형성되는 단계(S320); (C3) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제3 판단모듈(330)로 전송되는 단계로서, 상기 (C2) 단계에 생성된 심층신경망 모델에 상기 실화상영상이 입력되는 단계(S330); 및 (C4) 상기 심층신경망 모델은, 상기 (C3) 단계에서 입력된 실화상영상에 대해, 최종 출력층의 노드를 상이하게 형성함으로써, 화재발생, 불꽃발생 및 침입자발생 여부를 판단하는 단계(S340); 를 포함하며, 상기 이벤트발생은, 침입자발생, 화재발생 및 불꽃발생 순서로 관심영역의 범위가 작게 설정되고, 상기 (C4) 단계는, 상기 관심영역의 범위가 작게 설정될수록, 최종 출력층의 노드값은 더 크게 설정된, 방법을 제공한다. In addition, the present invention is a method of using the above-described building monitoring system, as a
또한, (C5) 상기 이벤트발생으로 판단된 실화상영상 및 상기 열화상카메라모듈(220)로부터 취득된 열화상영상을 비교하는 단계로서, 상기 실화상영상 중 상기 이벤트발생으로 판단된 영역 및 상기 열화상영상에서의 영역별 온도정보를 매칭시킴으로써, 상기 이벤트발생 여부를 판단하는 단계(S350); 를 더 포함할 수 있다. In addition, (C5) comparing the real image determined as the occurrence of the event and the thermal image acquired from the thermal
또한, 상기 심층신경망 모델은, YOLO(You Only Look Once)의 네트워크 구조를 기반으로, 상기 학습용 실화상영상 프레임을 통해, 학습할 수 있다. In addition, the deep neural network model, based on the network structure of YOLO (You Only Look Once), can be learned through the real image frame for learning.
또한, 상기 레일로봇장치(200)는, 위치센서(240)를 더 포함하고, 상기 위치센서(240)로부터 획득된 위치정보는 상기 통신모듈(230)을 통해, 상기 통합서버(300)로 전송되고, 상기 통합서버(300)는, 대상영역의 도면정보, 상기 레일의 설계정보 및 상기 대상영역에 구비된 설비의 위치정보가 미리 입력되어 있으며, 상기 도면정보 상에 상기 레일로봇장치(200)의 이동정보를 맵핑하는 맵핑모듈(340); 을 더 포함하며, 상기 건물 모니터링 시스템은, 상기 맵핑모듈(340)로부터 전송된 상기 레일로봇장치(200)의 이동정보를 시각적으로 표시하는 디스플레이부(400); 를 더 포함하며, 상기 디스플레이부(400)를 통해, 상기 레일로봇장치(200)의 이동정보, 상기 대상영역에서의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부 중 적어도 하나를 제공할 수 있다. In addition, the
또한, 상기 레일로봇장치(200)는, 상기 레일(100) 상에 이동 가능하도록 결합되며, 상기 레일(100)에 구비된 전원부(120)로부터 전원을 공급받는, 구동부(250); 및 상기 실화상카메라모듈(210) 및 열화상카메라모듈(220)이 구비된 촬영부(260); 로 구성되며, 상기 구동부(250)의 전방 및 후방에는 근접센서(252)가 구비되고, 상기 촬영부(260)는, 수평방향을 기준으로, 360도 회전가능하도록 구성되며, 상하방향으로 촬영각도의 조절이 가능하도록 구성될 수 있다. In addition, the
또한, 상기 레일로봇장치(200)의 통신모듈(230)은, 대상영역 내의 소정의 거리에 있는 개인단말기(500)와 무선연결되도록 구성되고, 상기 건물 모니터링 시스템은, 상기 레일로봇장치(200)로부터 취득된 실화상영상 및 열화상영상의 상기 통합서버(300)로의 전송을 중계하는 중계기부(600)가 구비되며, 상기 개인단말기(500)는, 상기 중계기부(600)를 통해, 무선네트워크망과 연결됨으로써, 상기 통합서버(300)로부터 정보를 송수신하도록 구성될 수 있다. In addition, the
또한, 상기 열화상카메라모듈(220)은, 대상영역의 영역별 온도정보를 기설정된 방식으로 이용하여, 상기 대상영역 내의 화재발생 여부, 불꽃발생 여부, 설비의 이상발생 여부 및 침입자발생 여부를 판단할 수 있다. In addition, the thermal
상기한 바와 같은 본 발명은 다음과 같은 효과가 있다. The present invention as described above has the following effects.
본 발명은 건물의 설비가 위치된 공간에는 많은 전기장치 또는 설비장치들이 구비되는 바, 이러한 설비들을 보호함과 동시에, 상기 공간으로의 사람 출입을 최소화함으로써, 사고의 위험으로부터 관리자를 보호할 수 있다. According to the present invention, many electric devices or equipment are provided in the space where the facilities of the building are located, and at the same time, it is possible to protect the facilities and, at the same time, by minimizing the entry of people into the space, it is possible to protect the manager from the risk of an accident. .
또한, 건물의 설비가 위치된 공간을 감시자가 직접 모니터링할 경우, 감시자에 따른 편차가 존재하며, 가령, 누수와 관련하여 소량의 물을 사람이 확인하는 것은 매우 부정확한 바, 사고의 초기 단계부터 사고를 감지할 수 있다. In addition, when the observer directly monitors the space where the facility of the building is located, there is a deviation depending on the observer. accidents can be detected.
도 1은 본 발명에 따른 건물 모니터링 시스템의 개략적인 모식도이다.
도 2는 본 발명에 따른 건물 모니터링 시스템의 전체 구성을 나타내는 블록도이다.
도 3은 본 발명에 따른 건물 모니터링 시스템에서, 레일에 레일로봇장치가 결합된 상태를 개략적으로 도시하는 사시도이다.
도 4의 (a) 및 (b)는 레일로봇장치의 구동부를 개략적으로 도시한다.
도 5는 본 발명에 따른 건물 모니터링 시스템에서, 레일로봇장치의 전체 구성을 나타내는 블록도이다.
도 6은 본 발명에 따른 건물 모니터링 시스템에서, 이벤트 상황이 발생된 경우를 개략적으로 도시한다.
도 7은 본 발명에 따른 건물 모니터링 시스템을 이용하여 연기발생 여부를 판단하는 방법의 순서도이다.
도 8은 도 7에서 심층신경망을 이용하여 연기발생 여부를 판단하는 과정을 개략적으로 도시하는 개념도이다.
도 9는 본 발명에 따른 건물 모니터링 시스템을 이용하여 홍수발생 여부를 판단하는 방법의 순서도이다.
도 10은 도 9에서 심층신경망을 이용하여 홍수발생 여부를 판단하는 과정을 개략적으로 도시하는 개념도이다.
도 11은 본 발명에 따른 건물 모니터링 시스템을 이용하여 이벤트상황(화재, 불꽃, 침입자) 발생 여부를 판단하는 방법의 순서도이다.
도 12는 도 11에서 인공지능방식의 일 예시인 YOLO V3 Model을 이용하여 이벤트상황 발생 여부를 판단하는 과정을 개략적으로 도시하는 개념도이다. 1 is a schematic schematic diagram of a building monitoring system according to the present invention.
2 is a block diagram showing the overall configuration of a building monitoring system according to the present invention.
3 is a perspective view schematically illustrating a state in which a rail robot device is coupled to a rail in the building monitoring system according to the present invention.
4 (a) and (b) schematically show the driving part of the rail robot device.
5 is a block diagram showing the overall configuration of the rail robot device in the building monitoring system according to the present invention.
6 schematically illustrates a case in which an event situation occurs in the building monitoring system according to the present invention.
7 is a flowchart of a method for determining whether smoke is generated using the building monitoring system according to the present invention.
8 is a conceptual diagram schematically illustrating a process of determining whether smoke is generated using a deep neural network in FIG. 7 .
9 is a flowchart of a method for determining whether a flood occurs using the building monitoring system according to the present invention.
FIG. 10 is a conceptual diagram schematically illustrating a process of determining whether a flood occurs using a deep neural network in FIG. 9 .
11 is a flowchart of a method of determining whether an event situation (fire, flame, intruder) has occurred using the building monitoring system according to the present invention.
12 is a conceptual diagram schematically illustrating a process of determining whether an event situation occurs using the YOLO V3 Model, which is an example of an artificial intelligence method in FIG. 11 .
이하, 도면을 참조하여 본 발명에 따른 건물 모니터링 시스템을 설명한다. 본 발명은 건물의 종류와는 무관하게 모두 적용 가능한 기술로써, 무인화를 통해, 판단의 정확성 및 신속성을 증대시키는 기술이다. 예를 들어, 관리자가 직접 상주하여 모니터링하기 어려운, 지하 전력구, 변전설비, 의료시설, 통제지역, 철도역사 등과 같은 모든 장소에 적용될 수 있음을 미리 명시한다. 이하에서 사용되는 '대상영역'이라는 용어는 후술하는 레일로봇장치를 이용하여 모니터링 가능한 영역을 의미한다. 예를 들어, 지하설비실에 레일 및 레일로봇장치가 설치된 경우, 지하설비실 전체의 공간을 의미한다. 대상영역 내의 일 공간에 모니터링 대상이 되는 설비가 위치되는 바, 대상영역 및 모니터링 대상은 개념적으로 구분된다. Hereinafter, a building monitoring system according to the present invention will be described with reference to the drawings. The present invention is a technology applicable to all regardless of the type of building, and is a technology for increasing the accuracy and speed of judgment through unmanned technology. For example, specify in advance that it can be applied to all places, such as underground power outlets, substation facilities, medical facilities, controlled areas, and railway stations, where it is difficult for a manager to directly reside and monitor. The term 'target area' used below means an area that can be monitored using a rail robot device to be described later. For example, when rails and rail robot devices are installed in an underground facility room, it means the entire space of the underground facility room. A facility to be monitored is located in a work space within the target area, and the target area and the monitoring target are conceptually separated.
건물 모니터링 시스템의 구성Construction of the building monitoring system
도 1 및 2를 참조하여, 본 발명에 따른 건물 모니터링 시스템을 설명한다. 1 and 2, a building monitoring system according to the present invention will be described.
건물 모니터링 시스템은, 크게 레일(100), 레일로봇장치(200), 통합서버(300) 및 디스플레이부(400)로 구성된다. The building monitoring system is largely composed of a
레일(100)은 모니터링 대상이 되는 설비의 위치를 기반으로 설계되며, 레일로봇장치(200)가 주행하는 궤도의 역할을 수행한다. 레일(100)은 대상영역의 천장 측에 설치되는 것이 바람직하다. 다만, 천장이 아니더라도, 기설치된 배관 등에 결합되도록 구성될 수도 있으며, 대상영역의 모니터링이 가능한 배치라면, 어느 위치라도 가능하다. 일 예시로, 레일(100)은 최대 25도의 경사도를 갖도록 구성될 수 있고, 곡률반경은 1000mm, 레일(100)의 최대길이는 1Km 미만으로 구성될 수 있다. The
레일로봇장치(200)는 무인으로 레일(100)을 주행하면서, 대상영역을 모니터링하는 장치이다. 기설정된 규칙에 따라, 운행되며, 관리자의 설정에 따라, 순차적 순회감시를 수행하는 자동순찰모드를 수행할 수 있다. 또한, 순찰구간설정 및 이동속도의 조절도 가능하다. 레일로봇장치(200)는 실화상카메라모듈(210) 및 열화상카메라모듈(220)을 구비한다. The
실화상카메라모듈(210)은 실시간으로 대상영역을 촬영하여 실화상영상을 제공한다. 일 예로, 실화상카메라모듈(210)의 해상도는 1920*1080, 10Hz로 형성될 수 있다. 열화상카메라모듈(220)은 온도분석을 통해, 화재 및 설비의 이상징후를 감시함과 동시에, 인체의 열까지 감시할 수 있다. 일 예로, 17um pitch의 열상 검출기에서 7.5 내지 13.5um 파장의 적외선을 검출하여 열의 강도에 따른 색상의 변화로 온도를 시각적으로 표현할 수 있다. 적용 해상도는 336*254, 10Hz로 형성될 수 있다. The real
또한, 레일로봇장치(200)는 통신모듈(230)을 더 포함한다. 통신모듈(230)은 실화상카메라모듈(210) 및 열화상카메라모듈(220)로부터 대상영역에 대한 실화상영상 및 열화상영상을 각각 획득하고, 획득된 실화상영상 및 열화상영상을 무선 또는 유선으로 전송하도록 구성된다. 이 때, 통신모듈(230)은 Wi-Fi모듈로 구성될 수 있는 바, 실화상영상 및 열화상영상을 무선으로 관리자 또는 사용자의 개인단말기(500)로 전송할 수 있다. 또한, 통신모듈(230)은 후술하는 중계기부(600)와 영상정보를 송수신하도록 구성되는 바, 실화상영상 및 열화상영상을 통합서버(300)로 전송 가능하도록 구성된다. In addition, the
레일로봇장치(200)는 음성통화모듈(미도시)을 더 포함할 수 있으며, 음성통화모듈을 통해, 중앙관제실 및/또는 관리자와 음성통화가 가능하도록 구성되는 것이 바람직하다. 대상영역에서(예로, 지하층), 작업자의 개인단말기(500) 사용이 제한된 경우, 매우 유용하게 사용될 수 있는 기능이다. The
도 5를 참조하여, 레일로봇장치(200)에 대해 보다 자세히 설명하며, 도 5에는 레일로봇장치(200)의 구성들을 도시하며, 각각의 기능에 따라, 구분하고 있다. With reference to FIG. 5, the
레일로봇장치(200)는 구동부(250) 및 촬영부(260)로 구분된다. The
구동부(250)는 전원부(251), 센서그룹(252), 모터그룹(253), 메인보드모듈(254), 배터리그룹(255)으로 구분될 수 있다. 메인보드모듈(254)에서는 소정의 연산처리가 수행되며, 중계기부(600)로 영상정보들을 송신하도록 구성됨과 동시에, 중계기부(600)를 통해 제어명령이 입력되도록 구성되며, 상기 제어명령에 따라, 레일로봇장치(200)의 동작이 제어된다. 또한, 메인보드모듈(254)에는 스케줄저장부(미도시)가 더 포함될 수 있다. 스케줄저장부에는 레일로봇장치(200)의 운행시간, 운행방식 등에 대한 정보가 미리 저장될 수도 있고, 관리자에 의해, 수정 가능할 수도 있다. 스케줄저장부에 저장된 정보를 바탕으로, 레일로봇장치(200)는 구동된다. The driving
레일로봇장치(200)는 롤러(256)를 통해, 레일(256)에 장착되며, 롤러(100)는 4륜 구동방식이며, 일 예로, 직경이 50mm Wheel 우레탄재질을 사용하여 등판능력을 향상시킬 수 있다. 또한, 모터그룹(253)은 고성능 BLDC 모터 및 구동 드라이버를 적용할 수 있고, 일 예시로, 75W 출력의 모터 및 24V/3.6A 구동 드라이버를 적용할 수 있다. 이를 통해, 레일로봇장치(200)는 1m/sec의 속도로 주행 가능하되, 가변 주행이 가능하도록 구성될 수 있다. The
또한, 레일로봇장치(200) 중 구동부(250)의 전방 및 후방에는 각각 근접센서(252)가 구비될 수 있다. 근접센서(252)를 통해, 레일로봇장치(200)는 레일(100) 끝에 도달시, 자동으로 정지할 수 있으며, 주행하는 과정에서 레일(100)의 중간에 물체가 있을 경우, 자동으로 정지하도록 구성될 수 있다. In addition, a
레일로봇장치(200)에는 위치센서(240)가 내장된다. 위치센서는 고성능 엔코더(Encoder) 및 바코드(Barcode)를 포함함으로써, 엔코더를 통해 실시간 위치를 계산하고, 바코드를 통해 절대위치를 계산한 후, 이러한 위치정보를 통신모듈(230)을 통해 통합서버(300)로 전송하도록 구성된다. A
통합서버(300)는 레일로봇장치(200)의 통신모듈(230)로부터 전송된 실화상영상 및 열화상영상을 기설정된 인공지능방식으로 분석하도록 구성된다. The
구체적으로, 통합서버(300)는 제1 내지 제3 판단모듈(310, 320, 330) 및 맵핑모듈(340)을 포함한다. 여기서, 본원발명에 따른 건물 모니터링 시스템은 인공지능방식인 심층신경망(Deep Neural Network, DNN) 및/또는 합성곱신경망(Convolutional neural network, CNN)을 이용하는 바, 학습의 선행이 필요하다. 이에 제1 내지 제3 판단모듈(330)은 각각 대응되는 제1 내지 제3 판단학습부(312, 322, 332)를 포함한다. Specifically, the
통합서버(300)는 통신모듈(230)로부터 전송된 실화상영상 및 열화상영상을 통해, 건물의 대상영역의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부를 판단할 수 있으며, 이에 대해서는 후술하도록 한다. The
통합서버(300)는 대상영역의 도면정보, 레일의 설계정보(레일의 배치정보) 및 대상영역에 구비된 설비의 위치정보가 미리 입력되어 있으며, 도면정보 상에 레일로봇장치(200)의 이동정보를 맵핑하는 맵핑모듈(340)을 포함한다. 즉, 맵핑모듈(340)을 통해, 레일로봇장치(200)의 동선을 실시간으로 생성한다. 레일로봇장치(200)의 이동정보는 통합서버(300)에 누적하여 저장되는 바, 관리자 내지 사용자는 통합서버(300)로부터 원하는 시간의 동선정보를 로딩할 수 있다. 이 때, 건물 모니터링 시스템은 맵핑모듈(340)로부터 전송된 레일로봇장치(200)의 이동정보를 시각적으로 표시하는 디스플레이부(400)를 더 포함하는 바, 상기 디스플레이부(400)를 통해, 관리자 내지 사용자에게 레일로봇장치(200)의 이동정보, 상기 대상영역에서의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부를 제공할 수 있다. 디스플레이부(400)는 별도의 공간인 건물의 중앙관제실에 구비될 수 있으며, 디스플레이부(400)를 통해, 관리자에게 알람을 제공할 수 있다. 다만, 상기의 정보들은 관리자 내지 사용자의 개인단말기(500)로도 제공될 수 있는 바, 개인단말기(500)가 디스플레이부(400)의 기능을 수행할 수도 있다. In the
전술한 바와 같이, 디스플레이부(400)는 설치된 레일(100)을 도식화하며, 레일로봇장치(200)의 현재위치 및 개별 설비들의 마지막 상태값을 표시할 수 있다. 또한, 최근 1시간 동안의 온도변화를 그래프로 제공하며, 디스플레이부(400) 상의 최고온도 및 평균온도 역시 기록하여 표시한다. As described above, the
또한, 통합서버(300)에는 모니터링 대상이 되는 설비의 정보가 더 저장된다. 구체적으로, 각 설비마다 정상온도의 범위가 개별적으로 설정되며, 설비의 특성에 따라, 모니터링이 필요한 구체적인 방식이 상이할 수 있는 바, 레일로봇장치(200)의 촬영부(260)의 각도, 상승높이 등에 대한 정보가 개별 설비에 최적화되도록 설정된다. In addition, information on equipment to be monitored is further stored in the
통합서버(300)는 보고서생성모듈(미도시)을 더 포함할 수 있다. 보고서생성모듈은 레일로봇장치(200)의 자동운행기록을 기반으로, 기설정된 양식에 따라, 관리자에게 보고서를 제공한다. 또한, 통합서버(300)는 자가진단모듈(미도시)을 더 포함할 수 있다. 레일로봇장치(200)의 자가진단을 통해, 레일(100)의 각 위치마다, 전원공급 및 통신상태를 기록하여 그래프화시켜 관리자에게 제공하며, 전원공급 및 통신상태가 불량한 특정위치는 자동으로 운행을 회피하도록 설정될 수 있다. 일 예시로, 레일로봇장치(200)의 운행 중 통신불능위치일 경우, 빠르게 해당 위치를 탈출한 후, 다음 제어명령을 대기하도록 설계될 수 있다. The
한편, 관리자 및 사용자(또는 작업자)의 편의를 위해, 본 발명에 따른 건물 모니터링 시스템은 이들의 개인단말기(500)와 무선연결되도록 구성될 수 있다. Meanwhile, for the convenience of managers and users (or workers), the building monitoring system according to the present invention may be configured to be wirelessly connected to their
먼저, 레일로봇장치(200)에 내장된 통신모듈(230)은 대상영역 내의 소정의 거리에 있는 개인단말기(500)와 무선연결되도록 구성된다. 전술한 바와 같이, Wi-fi방식으로 연결될 수도 있으나, 연결방식은 이에 제한되지 않으며, 근거리통신방식이 적용될 수 있다. 이 때, 근거리통신방식은 와이파이(WiFi, Wireless-Fidelity), 저전력 블루투스(Bluetooth Low Energy, BLE), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-Wideband), ZigBee 기술 중 적어도 하나를 이용하도록 구성될 수 있다. 또한, 무선통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SCFDMA(single carrier frequency division multiple access) 기술 중 적어도 하나를 이용하도록 구성될 수도 있다. First, the
또한, 대상영역이 건물의 지하에 위치하거나, LTE망과 같은 외부 무선네트워크망에 접속되지 않는 위치일 경우, 개인단말기(500)는 중계기부(600)를 통해, 무선네트워크망과 연결될 수 있다. 즉, 개인단말기(500) 자체로 외부 무선네트워크망과 연결이 어려울 때, 중계기부(600)를 경유하여, 무선연결이 활성화됨을 의미한다. In addition, when the target area is located in the basement of a building or is not connected to an external wireless network such as an LTE network, the
도 6을 참고하여, 이벤트 상황이 발생된 경우를 개략적으로 도시한다. 여기서, 이벤트 상황은 대상영역의 연기발생, 홍수판단, 화재발생, 불꽃발생 및 침입자발생 및 침수발생을 모두 포함하는 포괄적인 개념이다. Referring to FIG. 6 , a case in which an event situation occurs is schematically illustrated. Here, the event situation is a comprehensive concept that includes all of the occurrence of smoke, flood judgment, fire, spark, intruder, and flood in the target area.
도 6은 본 발명에 따른 일 예시를 도시한다. 대상영역 내에 제1 및 제2 설비가 위치되며, 이러한 설비 위치를 고려하여, 대상영역의 천장 측에는 레일(100)이 설계된다. 레일로봇장치(200)는 레일(100)을 궤도로 하여 자동으로 순찰을 수행하면서, 실화상영상 및 열화상영상을 촬영하여 통합서버(300)로 전송한다. 제1 설비에서 화재가 발생됨을 감지한 경우, 화재의 상태를 더욱 정확하게 판단하기 위해, 기설정된 인접한 위치까지 접근하며, 실시간으로 이에 대한 정보를 통합서버(300) 및 개인단말기(500)로 전송한다. 물론, 이 과정에서, 사이렌 또는 별도의 알람이 동작되어 관리자에게 비상상황발생을 알려줄 수 있다. 또한, 이러한 상황은 통합관제실에 위치된 디스플레이부(400)를 통해서도, 제공될 수 있다. 6 shows an example according to the present invention. The first and second facilities are located in the target area, and in consideration of the location of the facilities, the
건물 모니터링 시스템을 이용한 방법How to use a building monitoring system
도 7 및 8을 참조하여, 건물 모니터링 시스템을 이용하여 연기발생 여부를 판단하는 과정을 설명한다. A process of determining whether smoke is generated using a building monitoring system will be described with reference to FIGS. 7 and 8 .
통합서버(300)는 실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 연기발생 여부를 판단하는 제1 판단모듈(310)을 포함하며, 제1 판단모듈(310)은 제1 판단학습부(312)에 의해 학습된 모델을 적용한다. The
본 방법은 단계(S110) 내지 단계(S160)을 포함한다. The method includes steps S110 to S160.
단계(S110)은 제1 판단학습부(312)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 비연기영역 및 연기영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 연기영역이 학습되는 단계이다. Step S110 is a step in which a real image image frame for learning is input to the first
이 때, 제1 판단모듈(310)은 학습과 테스트를 위해 영상정보를 사용한다. 영상정보가 주어지면 각 영상프레임마다 먼저 움직이는 전경(이 경우 연기)을 고정 배경과 분리한다. 이 때, OpenCV에서 구현된 가우시안 혼합 기반 배경/전경 분할 알고리즘을 cv:: BackgroundSubtractorMOG2로 사용하는 것이 바람직하다. 제1 판단모듈(310)은, 영상정보의 이미지를 고려하고, 각각을 반복함으로써, 전경을 분리하고 cv:: findContoures를 적용하여 전경을 윤곽으로 분할한다. 각 윤곽선은 40 x 40 개의 이미지 블록으로 분할되며. 연기 및 비연기 물질이 포함된 블록은 별도로 수집된다. DNN은 도 8과 같이 개발되었으며, DNN은 블록으로 훈련된다.At this time, the
단계(S120)은 상기 레일로봇장치(200)로부터 실화상영상이 상기 제1 판단모듈(310)로 전송되는 단계이다. Step S120 is a step in which a real image is transmitted from the
단계(S130)은 상기 제1 판단모듈(310)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 단계(S110)에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 연기영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계이다. Step (S130) is a step of dividing the real image frame constituting the real image image into predetermined blocks by the
단계(S140)은 상기 단계(S130)에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하는 단계이다. Step S140 is a step of comparing edge portions generated for each block group when a plurality of block groups are formed in the real image frame in step S130.
단계(S150)은 상기 단계(S140)에서, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 연기영역을 생성하는 단계이다. Step S150 is a step of generating a smoke region by merging the first and second block groups when the edges of the first and second block groups respectively overlap in the step S140.
단계(S160)은 상기 실화상영상에 포함된 제1 내지 제N 실화상영상 프레임에 대해 상기 단계(S130) 내지 단계(S150)를 반복하여 수행하는 단계이다. Step S160 is a step of repeatedly performing steps S130 to S150 with respect to the first to Nth real image frames included in the real image.
도 9 및 10을 참조하여, 건물 모니터링 시스템을 이용하여 연기발생 여부를 판단하는 과정을 설명한다. A process of determining whether smoke is generated using a building monitoring system will be described with reference to FIGS. 9 and 10 .
통합서버(300)는, 실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 홍수발생 여부를 판단하는, 제2 판단모듈(320)을 더 포함하며, 제2 판단모듈(320)은 제2 판단학습부(322)에 의해 학습된 모델을 적용한다. The
본 방법은 단계(S210) 내지 단계(S250)을 포함한다. The method includes steps S210 to S250.
단계(S210)은 제2 판단학습부(322)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 정상영역 및 홍수영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 홍수영역이 학습되는 단계이다. Step S210 is a step in which a real image image frame for learning is input to the second
단계(S220)은 상기 레일로봇장치(200)로부터 실화상영상이 상기 제2 판단모듈(320)로 전송되는 단계이다. Step S220 is a step in which the real image image is transmitted from the
단계(S230)은 상기 제2 판단모듈(320)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 (B1) 단계에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 홍수영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계이다. Step (S230) is a step of dividing the real image frame constituting the real image image into predetermined blocks by the
단계(S240)은 상기 단계(S230)에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하되, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 홍수영역을 생성하는 단계이다. In step S240, when a plurality of block groups are formed in the real image frame in step S230, edge portions generated for each block group are compared, but the first block group and the second block group are compared. When each edge portion overlaps, the first and second block groups are merged to create a flood area.
단계(S250)은 단계(S240)에서 생성된 홍수영역의 면적 및 물의 양을 기설정된 방식에 의해, 연산하는 단계(S250)이다. Step S250 is a step S250 of calculating the area of the flood zone and the amount of water generated in step S240 by a preset method.
좀 더 부연하여 설명하면, 홍수판단은 크게 두 단계로 구분된다. 첫 번째 단계에서는 실화상영상 내에서 바닥영역이 감지되고 두 번째 단계에서는 바닥영역에서만 물을 감지한다. 제1 판단모듈(310)과 달리 제2 판단모듈(320)은, 정지된 이미지에서 작동하므로 비디오 클립(동영상을 의미함) 형태의 실화상영상이 필요하지 않는다. 학습 및 판단을 위해 실화상영상 프레임 각각은, 32 x 32 크기의 블록으로 분할된다.To elaborate a little more, the flood judgment is largely divided into two stages. In the first step, the bottom area is detected in the real image, and in the second step, water is detected only in the bottom area. Unlike the
바닥 탐지 부분의 경우, 많은 양의 바닥 이미지 및 상기 바닥 이미지를 제외한 부분의 이미지가 수집되고, 다음 DNN이 이미지 세트의 일부로 훈련된다. 제1 판단모듈(310)의 경우와 마찬가지로 연결된 블록을 찾고 그룹의 구성 요소 수가 매우 적으면 해당 그룹을 제외한다. 이는 오류의 탐지 플로어 블록을 제거하는 데 도움이 된다. 마지막으로 각 블록 그룹에서 물감지 분류기를 적용하고 바닥의 물의 대략적인 양을 계산한다. 제2 판단모듈(320)의 구성은 바닥면적감지와 구성과 동일하며, 이는 도 10에 도시된다. 그러나 제2 판단모듈(320)은 물이 포함된 블록과 빈바닥이 포함된 블록 등 다양한 이미지 블록 세트로 학습된다. 적은 수의 블록을 포함하는 블록 그룹을 필터링하면 적절한 결과를 얻을 수 있다. For the floor detection part, a large amount of floor images and images of parts except for the floor image are collected, and then the DNN is trained as part of the image set. As in the case of the
본 발명은 누수를 판단하는 제4 판단모듈(미도시)을 더 포함할 수 있다. The present invention may further include a fourth determination module (not shown) for determining the leak.
제4 판단모듈은 제1 판단모듈(310) 유사하게 비디오 클립에서 작동된다. 처음에는 움직이는 부분(여기서는 물의 흐름)이 고정 부분에서 분리된다. 다만, 제1 판단모듈(310)의 경우와 달리 이동하는 물을 감지하기가 쉽지 않다. 그 이유는 일반적으로 연기가 퍼지려고 하지만, 속도가 낮을 때 물의 흐름이 감지하기 어려운 매우 얇은 빔을 만들기 때문이다. 이에 이미지 시퀀스의 시간 영역에서 1차원 컨볼루션을 적용한 다음, 이미지의 공간 영역에서 2차원 컨벌루션을 적용한다. 여기서, 1차원 컨볼루션 레이어는 낙하의 모션 패턴을 인코딩하고, 2차원 컨볼루션 레이어는 낙수의 이미지를 인코딩하는 것이 바람직하다. The fourth determination module operates on video clips similarly to the
통합서버(300)는, 실화상영상을 구성하는 실화상영상 프레임을 통해, 이벤트발생여부를 판단하는 제3 판단모듈(330)로서, 이벤트발생은 대상영역의 화재발생 여부, 불꽃발생 여부 및 침입자발생인, 제3 판단모듈(330)을 더 포함한다. The
본 방법은 단계(S310) 내지 단계(S350)을 포함한다. The method includes steps S310 to S350.
단계(S310)은 제3 판단학습부(332)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 딥러닝(deep learning) 기반 심층신경망 모델의 학습이 수행되는 단계이다. Step S310 is a step in which a real image image frame for learning is input to the third
단계(S320)은 상기 단계(S310)에 의해, 상기 이벤트발생여부에 대한 심층신경망 모델이 형성되는 단계이다. Step S320 is a step in which a deep neural network model for whether the event has occurred is formed by the step S310.
단계(S330)은 상기 레일로봇장치(200)로부터 실화상영상이 상기 제3 판단모듈(330)로 전송되는 단계로서, 상기 단계(S320)에 생성된 심층신경망 모델에 상기 실화상영상이 입력되는 단계이다. Step (S330) is a step in which a real image is transmitted from the
단계(S340)은 상기 심층신경망 모델은, 상기 단계(S330)에서 입력된 실화상영상에 대해, 최종 출력층의 노드를 상이하게 형성함으로써, 화재발생, 불꽃발생 및 침입자발생 여부를 판단하는 단계이다. Step S340 is a step in which the deep neural network model determines whether a fire, flame, or intruder occurs by forming different nodes of the final output layer with respect to the real image input in step S330.
단계(S340)에서, 관심영역의 범위가 작게 설정될수록, 최종 출력층의 노드값은 더 크게 설정될 수 있다. In operation S340 , as the range of the ROI is set smaller, the node value of the final output layer may be set larger.
단계(S350)은 상기 이벤트발생으로 판단된 실화상영상 및 상기 열화상카메라모듈(220)로부터 취득된 열화상영상을 비교하는 단계로서, 상기 실화상영상 중 상기 이벤트발생으로 판단된 영역 및 상기 열화상영상에서의 영역별 온도정보를 매칭시킴으로써, 상기 이벤트발생 여부를 판단하는 단계이다. Step S350 is a step of comparing the real image determined as the occurrence of the event with the thermal image acquired from the thermal
여기서, 심층신경망 모델은, YOLO(You Only Look Once)의 네트워크 구조를 기반으로, 상기 학습용 실화상영상 프레임을 통해 학습하도록 구성된다. Here, the deep neural network model is configured to learn through the real image frame for learning based on the network structure of YOLO (You Only Look Once).
구체적으로 설명하면, 화재, 불꽃 및 침입자 감지를 위해 단일모델을 사용한다. 모델을 선택하는 동안 두 가지 요소를 고려한다. 제1 요소는 탐지는 매우 빠르며, 제2 요소는 스파크와 같은 작은 물체와 소량의 화재처럼 침입자와 같은 큰 물체를 탐지하는 것이다. 이를 통해, 스파크 및 침입자 감지를 위해, YOLO V3를 공통 모델로 결정하였다. 학습을 위해, 다양한 형태의 불, 불꽃, 사람이 포함 된 약 500개의 이미지가 캡쳐되는 것이 필요하다. 각 이미지에 대해 라벨링 및 경계 상자가 만들어지며, 학습을 위해 약 400개의 이미지가 무작위로 선택되고, 나머지 이미지는 유효성 검사를 위해 선택된다. 상기의 사항은 본 출원인에 의해 실험된 바 있으며, CUDA 지원 GPU가있는 표준 컴퓨터로 약 3일이 소요되었다. Specifically, a single model is used for fire, flame and intruder detection. Two factors are considered while choosing a model. The first factor is to detect very fast, and the second factor is to detect small objects such as sparks and large objects such as intruders such as small amounts of fire. Through this, YOLO V3 was decided as a common model for spark and intruder detection. For learning, it is necessary to capture about 500 images containing various types of fires, flames and people. Labeling and bounding boxes are created for each image, about 400 images are randomly selected for training, and the remaining images are selected for validation. The above has been tested by the applicant, and it took about 3 days with a standard computer with a CUDA supported GPU.
YOLO(You Only Look Once)의 핵심은 한 번의 패스로 사물을 인식 할 수 있다는 것이다. 이것의 목표는 움직이는 카메라에서 시스템을 사용하는 것이고 실시간으로 이상을 감지하는 것이다. 모듈들은 모든 카메라에서 실시간 스트림을 수신하는 더 큰 시스템과 결합됩니다. 주기적으로 많은 이미지 세트가 탐지 모듈로 전달되고 탐지 모듈은 이상이 있는지 확인하며, 의심스러운 이벤트가 발견되면 경보를 울리고 이에 따라, 관리자가 필요한 조치를 취하도록 구성된다. The key to YOLO (You Only Look Once) is that it can recognize objects with one pass. The goal of this is to use the system on a moving camera and detect anomalies in real time. Modules are combined with a larger system that receives live streams from all cameras. Periodically, a large set of images is passed to the detection module, which is configured to check for anomalies, raise an alert if a suspicious event is found and, accordingly, the administrator to take the necessary action.
도 12는 YOLO-V3 모델의 아키텍처를 보여준다. 도 12에 도시된 바와 같이, 3가지 다른 척도로 산출물을 추출한다. 일 예시로써, 침입자와 같은 더 큰 물체는 노드 82에서 생성된 출력에 의해 감지되고, 불꽃 또는 소량의 화재와 같은 작은 물체는 노드 106에서 생성된 출력에 의해 감지된다. 12 shows the architecture of the YOLO-V3 model. As shown in Fig. 12, products are extracted with three different scales. As an example, a larger object, such as an intruder, is detected by the output generated at
컨볼루션 레이어에 대해 사전 훈련된 가중치를 사용하더라도 YOLO의 훈련 시간은 매우 길다. 그러나 일단 훈련을 받으면 탐지가 정말 빠른 효과가 있다. 실험적으로, Titan X GPU가있는 표준 데스크톱 컴퓨터에서 YOLO는 초당 약 45 프레임을 처리할 수 있다. 초당 15 프레임으로 캡처된 이미지에 감지기를 적용될 수 있다. 물체가 가까운 터널 내에서 움직이는 카메라를 사용할 때 이상을 감지하려면 높은 감지 속도가 필요하며, 그 결과 촬영을 통해, 캡처한 이미지에서 매우 짧은 시간 동안 유지된다. 이 시스템은 초고해상도 카메라에서 가장 잘 작동하지만, 일반 IP 카메라로 캡처된 이미지에서 테스트 한 결과 역시 만족스러운 결과를 보였다. 그리고 분명히 이들과 유사한 카메라를 사용하여 훈련 및 테스트 샘플을 채취할 경우, 성능이 더욱 향상될 수 있다. Even with pre-trained weights for the convolutional layer, the training time of YOLO is very long. But once trained, detection works really fast. Experimentally, on a standard desktop computer with a Titan X GPU, YOLO can process about 45 frames per second. Detectors can be applied to images captured at 15 frames per second. When using a camera in which an object is moving within a nearby tunnel, high detection rates are required to detect anomalies, which results in a very short duration in the captured image, taken as a result. This system works best with ultra-high-resolution cameras, but testing on images captured with regular IP cameras also showed satisfactory results. And obviously, performance could be further improved if training and test samples were taken using cameras similar to these.
이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다. In the above, the present specification has been described with reference to the embodiments shown in the drawings so that those skilled in the art can easily understand and reproduce the present invention, but these are merely exemplary, and those skilled in the art can make various modifications and equivalent other modifications from the embodiments of the present invention. It will be appreciated that embodiments are possible. Therefore, the protection scope of the present invention should be defined by the claims.
100: 레일
200: 레일로봇장치
210: 실화상카메라모듈
220: 열화상카메라모듈
230: 통신모듈
240: 위치센서
250: 구동부
260: 촬영부
300: 통합서버
310: 제1 판단모듈
320: 제2 판단모듈
330: 제3 판단모듈
340: 맵핑모듈
400: 디스플레이부
500: 개인단말기
600: 중계기부100: rail
200: rail robot device
210: real image camera module
220: thermal imaging camera module
230: communication module
240: position sensor
250: driving unit
260: shooting department
300: integrated server
310: first determination module
320: second determination module
330: third determination module
340: mapping module
400: display unit
500: personal terminal
600: relay donation
Claims (10)
모니터링 대상이 되는 설비의 위치를 기반으로, 천장 측에 미리 설계된 상기 레일(100);
실화상카메라모듈(210) 및 열화상카메라모듈(220)을 구비하는 상기 레일로봇장치(200)로서, 상기 레일(100)을 궤도로 하여 기설정된 규칙에 따라 운행되며, 상기 실화상카메라모듈(210) 및 상기 열화상카메라모듈(220)로부터 대상영역에 대한 실화상영상 및 열화상영상을 각각 획득하고, 획득된 상기 실화상영상 및 열화상영상을 무선 또는 유선으로 전송하는 통신모듈(230)이 구비된, 레일로봇장치(200); 및
상기 레일로봇장치(200)의 통신모듈(230)로부터 전송된 실화상영상 및 열화상영상을 기설정된 인공지능방식으로 분석하는 통합서버(300);를 포함하며,
상기 통합서버(300)는,
인공지능방식 중 심층신경망(Deep Neural Network, DNN)을 이용하여, 실화상영상 및 열화상영상을 분석하되,
상기 실화상영상 및 열화상영상을 통해, 건물의 대상영역의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부 중 적어도 하나를 판단하는,
건물 모니터링 시스템.
As a building monitoring system using a rail robot device 200 that moves along a rail installed in advance on the ceiling,
The rail 100 designed in advance on the ceiling side based on the location of the facility to be monitored;
As the rail robot device 200 having a real image camera module 210 and a thermal image camera module 220, it is operated according to a preset rule with the rail 100 as a track, and the real image camera module ( 210) and a communication module 230 for acquiring a real image and a thermal image of the target area from the thermal imaging camera module 220, respectively, and transmitting the acquired real image and thermal image wirelessly or by wire This is provided, the rail robot device 200; and
Including; and the integrated server 300 for analyzing the real image and thermal image transmitted from the communication module 230 of the rail robot device 200 in a preset artificial intelligence method;
The integrated server 300,
Analyze real image and thermal image using Deep Neural Network (DNN) among artificial intelligence methods,
Determining at least one of whether smoke occurs in a target area of a building, whether a flood is determined, whether a fire occurs, whether a flame occurs, and whether an intruder occurs through the real image and thermal image,
Building monitoring system.
상기 통합서버(300)는,
실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 연기발생 여부를 판단하는, 제1 판단모듈(310); 을 더 포함하고,
(A1) 제1 판단학습부(312)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 비연기영역 및 연기영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 연기영역이 학습되는 단계(S110);
(A2) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제1 판단모듈(310)로 전송되는 단계(S120);
(A3) 상기 제1 판단모듈(310)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 (A1) 단계에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 연기영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계(S130);
(A4) 상기 (A3) 단계에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하는 단계(S140);
(A5) 상기 (A4) 단계에서, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 연기영역을 생성하는 단계(S150); 및
(A6) 상기 실화상영상에 포함된 제1 내지 제N 실화상영상 프레임에 대해 상기 (A3) 내지 (A5) 단계를 반복하여 수행하는 단계(S160); 를 포함하는,
방법.
A method of using the building monitoring system according to claim 1, comprising:
The integrated server 300,
a first determination module 310 that determines whether or not smoke is generated in the target area through the real image frame constituting the real image; further comprising,
(A1) A step of inputting a real image frame for learning to the first judgment learning unit 312, wherein the real image frame for learning is divided into predetermined blocks, and a non-smoking region and a smoke region are separated. After being input, the step of learning the acting area by a preset method (S110);
(A2) the step of transmitting the real image from the rail robot device 200 to the first determination module 310 (S120);
(A3) A step of dividing, by the first determination module 310, a real image frame constituting the real image into predetermined blocks, using the acting area learned in the step (A1), dividing an area corresponding to a smoke area among the preset blocks into block groups, and then generating an edge portion for the block group (S130);
(A4) when a plurality of block groups are formed in the real image frame in step (A3), comparing edge portions generated for each block group (S140);
(A5) when the edges of the first and second block groups overlap each other in step (A4), merging the first and second block groups to create a smoke area (S150); and
(A6) repeating steps (A3) to (A5) for the first to Nth real image frames included in the real image (S160); containing,
Way.
상기 통합서버(300)는, 실화상영상을 구성하는 실화상영상 프레임을 통해, 대상영역의 홍수발생 여부를 판단하는, 제2 판단모듈(320); 을 더 포함하고,
(B1) 제2 판단학습부(322)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 기설정된 블록으로 구획되되, 정상영역 및 홍수영역이 구분된 상태로 입력된 후, 기설정된 방식에 의해, 홍수영역이 학습되는 단계(S210);
(B2) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제2 판단모듈(320)로 전송되는 단계(S220);
(B3) 상기 제2 판단모듈(320)에 의해, 상기 실화상영상을 구성하는 실화상영상 프레임을 기설정된 블록으로 구획하는 단계로서, 상기 (B1) 단계에서, 학습된 연기영역을 이용하여, 상기 기설정된 블록 중 홍수영역에 해당되는 영역을 블록그룹으로 구분한 후, 상기 블록그룹에 대해 가장자리부를 생성하는 단계(S230);
(B4) 상기 (B3) 단계에서, 상기 실화상영상 프레임에서, 복수의 블록그룹이 형성될 경우, 각각의 블록그룹에 대해 생성된 가장자리부를 비교하되, 제1 블록그룹 및 제2 블록그룹 각각의 가장자리부가 겹치는 경우, 상기 제1 및 제2 블록그룹을 병합하여 홍수영역을 생성하는 단계(S240); 및
(B5) 상기 (B4) 단계에서 생성된 홍수영역의 면적 및 물의 양을 기설정된 방식에 의해, 연산하는 단계(S250); 를 포함하는,
방법.
A method of using the building monitoring system according to claim 1, comprising:
The integrated server 300 includes, through a real image frame constituting a real image, a second determination module 320 that determines whether a flood occurs in a target area; further comprising,
(B1) A step of inputting a real image image frame for learning to the second judgment learning unit 322, wherein the real image image frame for learning is divided into predetermined blocks, and is input in a state in which a normal region and a flood region are separated After that, by a preset method, the step of learning the flood zone (S210);
(B2) the step of transmitting the real image image from the rail robot device 200 to the second determination module 320 (S220);
(B3) dividing the real image frame constituting the real image into predetermined blocks by the second determination module 320, using the acting area learned in the step (B1), dividing an area corresponding to a flood area among the preset blocks into block groups, and then generating an edge portion for the block group (S230);
(B4) In the step (B3), when a plurality of block groups are formed in the real image frame, the edges generated for each block group are compared, but each of the first block group and the second block group generating a flood zone by merging the first and second block groups when the edges overlap (S240); and
(B5) calculating the area of the flood zone and the amount of water generated in the step (B4) by a preset method (S250); containing,
Way.
실화상영상을 구성하는 실화상영상 프레임을 통해, 이벤트발생여부를 판단하는 제3 판단모듈(330)로서, 상기 이벤트발생은 대상영역의 화재발생 여부, 불꽃발생 여부 및 침입자발생인, 제3 판단모듈(330); 을 더 포함하고,
(C1) 제3 판단학습부(332)에, 학습용 실화상영상 프레임이 입력되는 단계로서, 상기 학습용 실화상영상 프레임은, 딥러닝(deep learning) 기반 심층신경망 모델의 학습이 수행되는 단계(S310);
(C2) 상기 (C1) 단계에 의해, 상기 이벤트발생여부에 대한 심층신경망 모델이 형성되는 단계(S320);
(C3) 상기 레일로봇장치(200)로부터 실화상영상이 상기 제3 판단모듈(330)로 전송되는 단계로서, 상기 (C2) 단계에 생성된 심층신경망 모델에 상기 실화상영상이 입력되는 단계(S330); 및
(C4) 상기 심층신경망 모델은, 상기 (C3) 단계에서 입력된 실화상영상에 대해, 최종 출력층의 노드를 상이하게 형성함으로써, 화재발생, 불꽃발생 및 침입자발생 여부를 판단하는 단계(S340); 를 포함하며,
상기 이벤트발생은, 침입자발생, 화재발생 및 불꽃발생 순서로 관심영역의 범위가 작게 설정되고,
상기 (C4) 단계는,
상기 관심영역의 범위가 작게 설정될수록, 최종 출력층의 노드값은 더 크게 설정된,
방법.
A method of using the building monitoring system according to claim 1, comprising:
A third determination module 330 for determining whether an event has occurred through a real image frame constituting a real image, wherein the event occurrence is a third determination whether a fire occurs in a target area, whether a flame occurs, and an intruder module 330; further comprising,
(C1) a step in which a real image frame for learning is input to the third judgment learning unit 332, wherein the real image frame for learning is a step in which learning of a deep learning-based deep neural network model is performed (S310) );
(C2) by the step (C1), the step of forming a deep neural network model for the occurrence of the event (S320);
(C3) a step of transmitting a real image from the rail robot device 200 to the third determination module 330, wherein the real image is input to the deep neural network model generated in the step (C2) ( S330); and
(C4) The deep neural network model, for the real image input in the step (C3), by forming the nodes of the final output layer differently, determining whether a fire, a spark, and an intruder occurs (S340); includes,
In the event occurrence, the range of the region of interest is set small in the order of intruder occurrence, fire occurrence and flame generation,
The step (C4) is,
The smaller the range of the region of interest is set, the larger the node value of the final output layer is set.
Way.
(C5) 상기 이벤트발생으로 판단된 실화상영상 및 상기 열화상카메라모듈(220)로부터 취득된 열화상영상을 비교하는 단계로서, 상기 실화상영상 중 상기 이벤트발생으로 판단된 영역 및 상기 열화상영상에서의 영역별 온도정보를 매칭시킴으로써, 상기 이벤트발생 여부를 판단하는 단계(S350); 를 더 포함하는,
방법.
5. The method according to claim 4,
(C5) comparing the real image determined as the occurrence of the event and the thermal image acquired from the thermal imaging camera module 220, in the region determined as the occurrence of the event in the real image and in the thermal image determining whether the event has occurred by matching the temperature information for each area (S350); further comprising,
Way.
상기 심층신경망 모델은, YOLO(You Only Look Once)의 네트워크 구조를 기반으로, 상기 학습용 실화상영상 프레임을 통해, 학습하는,
방법.
5. The method according to claim 4,
The deep neural network model, based on the network structure of YOLO (You Only Look Once), learns through the real image frame for learning,
Way.
상기 레일로봇장치(200)는,
위치센서(240)를 더 포함하고, 상기 위치센서(240)로부터 획득된 위치정보는 상기 통신모듈(230)을 통해, 상기 통합서버(300)로 전송되고,
상기 통합서버(300)는,
대상영역의 도면정보, 상기 레일의 설계정보 및 상기 대상영역에 구비된 설비의 위치정보가 미리 입력되어 있으며, 상기 도면정보 상에 상기 레일로봇장치(200)의 이동정보를 맵핑하는 맵핑모듈(340); 을 더 포함하며,
상기 건물 모니터링 시스템은,
상기 맵핑모듈(340)로부터 전송된 상기 레일로봇장치(200)의 이동정보를 시각적으로 표시하는 디스플레이부(400); 를 더 포함하며,
상기 디스플레이부(400)를 통해,
상기 레일로봇장치(200)의 이동정보, 상기 대상영역에서의 연기발생 여부, 홍수판단 여부, 화재발생 여부, 불꽃발생 여부 및 침입자발생 여부 중 적어도 하나를 제공하는,
건물 모니터링 시스템.
The method according to claim 1,
The rail robot device 200,
Further comprising a position sensor 240, the position information obtained from the position sensor 240 is transmitted to the integrated server 300 through the communication module 230,
The integrated server 300,
Drawing information of the target area, design information of the rail, and location information of facilities provided in the target area are input in advance, and a mapping module 340 for mapping movement information of the rail robot device 200 on the drawing information. ); further comprising,
The building monitoring system,
a display unit 400 for visually displaying movement information of the rail robot device 200 transmitted from the mapping module 340; further comprising,
Through the display unit 400,
Providing at least one of movement information of the rail robot device 200, whether smoke is generated in the target area, whether a flood is determined, whether a fire occurs, whether a flame is generated, and whether an intruder occurs,
Building monitoring system.
상기 레일로봇장치(200)는,
상기 레일(100) 상에 이동 가능하도록 결합되며, 상기 레일(100)에 구비된 전원부(120)로부터 전원을 공급받는, 구동부(250); 및
상기 실화상카메라모듈(210) 및 열화상카메라모듈(220)이 구비된 촬영부(260); 로 구성되며,
상기 구동부(250)의 전방 및 후방에는 근접센서(252)가 구비되고,
상기 촬영부(260)는, 수평방향을 기준으로, 360도 회전가능하도록 구성되며, 상하방향으로 촬영각도의 조절이 가능하도록 구성된,
건물 모니터링 시스템.
The method according to claim 1,
The rail robot device 200,
a driving unit 250 coupled to be movable on the rail 100 and receiving power from a power supply unit 120 provided on the rail 100; and
a photographing unit 260 provided with the real image camera module 210 and the thermal image camera module 220; is composed of
A proximity sensor 252 is provided at the front and rear of the driving unit 250,
The photographing unit 260 is configured to be rotatable by 360 degrees with respect to the horizontal direction, and configured to be able to adjust the photographing angle in the vertical direction,
Building monitoring system.
상기 레일로봇장치(200)의 통신모듈(230)은,
대상영역 내의 소정의 거리에 있는 개인단말기(500)와 무선연결되도록 구성되고,
상기 건물 모니터링 시스템은,
상기 레일로봇장치(200)로부터 취득된 실화상영상 및 열화상영상의 상기 통합서버(300)로의 전송을 중계하는 중계기부(600)가 구비되며,
상기 개인단말기(500)는,
상기 중계기부(600)를 통해, 무선네트워크망과 연결됨으로써, 상기 통합서버(300)로부터 정보를 송수신하도록 구성된,
건물 모니터링 시스템.
The method according to claim 1,
The communication module 230 of the rail robot device 200,
It is configured to be wirelessly connected to the personal terminal 500 at a predetermined distance within the target area,
The building monitoring system,
A repeater unit 600 for relaying the transmission to the integrated server 300 of the real image and thermal image acquired from the rail robot device 200 is provided,
The personal terminal 500,
Through the repeater unit 600, by being connected to a wireless network network, configured to transmit and receive information from the integrated server 300,
Building monitoring system.
상기 열화상카메라모듈(220)은,
대상영역의 영역별 온도정보를 기설정된 방식으로 이용하여, 상기 대상영역 내의 화재발생 여부, 불꽃발생 여부, 설비의 이상발생 여부 및 침입자발생 여부를 판단하는,
건물 모니터링 시스템.
The method according to claim 1,
The thermal imaging camera module 220,
Using the temperature information for each area of the target area in a preset manner, determining whether a fire occurred, whether a flame occurred, whether an abnormality occurred in the facility, and whether an intruder occurred in the target area,
Building monitoring system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200146858A KR102470131B1 (en) | 2020-11-05 | 2020-11-05 | Deep learning based building management system with rail robot device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200146858A KR102470131B1 (en) | 2020-11-05 | 2020-11-05 | Deep learning based building management system with rail robot device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220061312A true KR20220061312A (en) | 2022-05-13 |
KR102470131B1 KR102470131B1 (en) | 2022-11-28 |
Family
ID=81583223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200146858A KR102470131B1 (en) | 2020-11-05 | 2020-11-05 | Deep learning based building management system with rail robot device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102470131B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115050154A (en) * | 2022-06-10 | 2022-09-13 | 中国建设科技集团股份有限公司 | Multifunctional indoor security monitoring and alarming system |
KR102447369B1 (en) * | 2022-06-13 | 2022-09-27 | 주식회사 디코엔 | Mobile IOT rail robot monitoring system |
KR102505521B1 (en) * | 2022-09-22 | 2023-03-02 | (주)퀀티파이드이에스지 | Corporate ESG Rating System |
CN116608985A (en) * | 2023-05-09 | 2023-08-18 | 广州市市政工程试验检测有限公司 | Bolt fastening monitoring system and method for track |
KR102635862B1 (en) * | 2023-02-14 | 2024-02-13 | 김지원 | Facility supervision and inspection reporting system |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101543561B1 (en) * | 2015-01-13 | 2015-08-12 | (주)금성보안 | Hybrid fire monitoring apparatus and method |
KR101953342B1 (en) * | 2017-12-08 | 2019-05-23 | 주식회사 비젼인 | Multi-sensor fire detection method and system |
KR20190103855A (en) * | 2018-02-28 | 2019-09-05 | 주식회사 비젼하이텍 | Apparatus and method of searching fire image based on imaging area of the ptz camera |
KR102096175B1 (en) | 2018-09-14 | 2020-04-01 | 주식회사 아이엠알 | Ceiling rail type IoT based surveillance robot device |
KR20200043010A (en) * | 2018-10-17 | 2020-04-27 | 포인드 주식회사 | Action Detection System and Method Using Deep Learning with Camera Input Image |
KR20200061578A (en) * | 2018-11-26 | 2020-06-03 | 한국로봇융합연구원 | System and method for searching disaster scene based multiple robot |
KR20200071799A (en) * | 2018-11-30 | 2020-06-22 | (주)케이아이오티 | object recognition and counting method using deep learning artificial intelligence technology |
KR20200074503A (en) * | 2018-12-17 | 2020-06-25 | (주)스핀어웹 | Fire mornitoring method and system using cctv image recognition based on deep learning |
-
2020
- 2020-11-05 KR KR1020200146858A patent/KR102470131B1/en active IP Right Grant
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101543561B1 (en) * | 2015-01-13 | 2015-08-12 | (주)금성보안 | Hybrid fire monitoring apparatus and method |
KR101953342B1 (en) * | 2017-12-08 | 2019-05-23 | 주식회사 비젼인 | Multi-sensor fire detection method and system |
KR20190103855A (en) * | 2018-02-28 | 2019-09-05 | 주식회사 비젼하이텍 | Apparatus and method of searching fire image based on imaging area of the ptz camera |
KR102096175B1 (en) | 2018-09-14 | 2020-04-01 | 주식회사 아이엠알 | Ceiling rail type IoT based surveillance robot device |
KR20200043010A (en) * | 2018-10-17 | 2020-04-27 | 포인드 주식회사 | Action Detection System and Method Using Deep Learning with Camera Input Image |
KR20200061578A (en) * | 2018-11-26 | 2020-06-03 | 한국로봇융합연구원 | System and method for searching disaster scene based multiple robot |
KR20200071799A (en) * | 2018-11-30 | 2020-06-22 | (주)케이아이오티 | object recognition and counting method using deep learning artificial intelligence technology |
KR20200074503A (en) * | 2018-12-17 | 2020-06-25 | (주)스핀어웹 | Fire mornitoring method and system using cctv image recognition based on deep learning |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115050154A (en) * | 2022-06-10 | 2022-09-13 | 中国建设科技集团股份有限公司 | Multifunctional indoor security monitoring and alarming system |
CN115050154B (en) * | 2022-06-10 | 2024-01-30 | 中国建设科技集团股份有限公司 | Multifunctional indoor security monitoring alarm system |
KR102447369B1 (en) * | 2022-06-13 | 2022-09-27 | 주식회사 디코엔 | Mobile IOT rail robot monitoring system |
KR102505521B1 (en) * | 2022-09-22 | 2023-03-02 | (주)퀀티파이드이에스지 | Corporate ESG Rating System |
KR102635862B1 (en) * | 2023-02-14 | 2024-02-13 | 김지원 | Facility supervision and inspection reporting system |
CN116608985A (en) * | 2023-05-09 | 2023-08-18 | 广州市市政工程试验检测有限公司 | Bolt fastening monitoring system and method for track |
Also Published As
Publication number | Publication date |
---|---|
KR102470131B1 (en) | 2022-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102470131B1 (en) | Deep learning based building management system with rail robot device | |
KR101949525B1 (en) | Safety management system using unmanned detector | |
CN111770266B (en) | Intelligent visual perception system | |
KR102096175B1 (en) | Ceiling rail type IoT based surveillance robot device | |
KR102554662B1 (en) | Safety management system using unmanned detector | |
KR101723283B1 (en) | Worker Behavior Based Safety Management System and Method | |
US20190228641A1 (en) | System and Method for the Verified Determining of a Fire Status, as well as Vehicle and Central Unit for this Purpose | |
CN112288984A (en) | Three-dimensional visual unattended substation intelligent linkage system based on video fusion | |
KR20070029760A (en) | Monitoring devices | |
KR102174784B1 (en) | Method for Recognizing and Tracking Large-scale Object using Deep learning and Multi-Agent | |
CN111562745A (en) | Intelligent control system and intelligent control method | |
KR102550069B1 (en) | Firing detection and early distinguish system with auto rechargerable mobile robot | |
JP6172958B2 (en) | Shooting system | |
KR20210097500A (en) | Apparatus for Monitoring Fire And System having the same | |
CN112286190A (en) | Security patrol early warning method and system | |
KR20220071880A (en) | Digital twin disaster management system customized for underground public areas | |
CN114913663A (en) | Anomaly detection method and device, computer equipment and storage medium | |
JP6140436B2 (en) | Shooting system | |
CN110928305B (en) | Patrol method and system for patrol robot of railway passenger station | |
KR101695127B1 (en) | Group action analysis method by image | |
KR102095986B1 (en) | System of early fire detection and safety evacution and method thereof | |
CN110807345A (en) | Building evacuation method and building evacuation system | |
JP5982273B2 (en) | Shooting system | |
CN111508194A (en) | Intelligent building monitoring system based on big data | |
KR20180099098A (en) | Fusion Type Image Monitoring System Camera with Movement Tracking Function of Shooting Target |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |