KR20190114155A - The Mobile Unmanned Monitoring System and Method - Google Patents

The Mobile Unmanned Monitoring System and Method Download PDF

Info

Publication number
KR20190114155A
KR20190114155A KR1020180036399A KR20180036399A KR20190114155A KR 20190114155 A KR20190114155 A KR 20190114155A KR 1020180036399 A KR1020180036399 A KR 1020180036399A KR 20180036399 A KR20180036399 A KR 20180036399A KR 20190114155 A KR20190114155 A KR 20190114155A
Authority
KR
South Korea
Prior art keywords
information
input information
cms
model
input
Prior art date
Application number
KR1020180036399A
Other languages
Korean (ko)
Inventor
이창하
김지형
옥기윤
차희준
강기용
이동형
Original Assignee
주식회사 비투코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비투코리아 filed Critical 주식회사 비투코리아
Priority to KR1020180036399A priority Critical patent/KR20190114155A/en
Priority to CN201810509264.8A priority patent/CN110324569B/en
Publication of KR20190114155A publication Critical patent/KR20190114155A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • G05D2201/0207

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Manipulator (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

The present invention provides a method for operating a movable unmanned monitoring system, which is capable of monitoring an object placed in an area difficult to access. According to the present invention, the method for operating a movable unmanned monitoring system comprises the steps of: allowing a pipebot to acquire first input information about a first object; transmitting the first input information to a central monitoring system (CMS); allowing the CMS to generate a first model based on the first input information; allowing the pipebot to acquire second input information about the first object and transmit the same to the CMS; allowing the CMS to compare the first model with the second input information to determine whether the first object is abnormal; and providing output information including information about whether the first object is abnormal, wherein the first and second input information about the first object include real image information and thermal image information, and the first model is a model generated by training a training data set based on the first input information in a machine learning type.

Description

이동식 무인 감시 시스템 및 그 방법 {The Mobile Unmanned Monitoring System and Method}Mobile Unmanned Monitoring System and Method

본 명세서는 이동식 무인 감시 시스템 및 그 방법을 제공할 수 있다. 특히, 머신 러닝을 고려하여 감시 정보를 제공하는 이동식 무인 감시 시스템을 제공할 수 있다.The present disclosure can provide a mobile unmanned surveillance system and method thereof. In particular, it is possible to provide a mobile unmanned surveillance system that provides surveillance information in consideration of machine learning.

산업 발전과 더불어 다양한 설비들이 생겨났고, 다양한 설비들에 대한 유지 및 관리에 대한 요구 사항이 커지고 있다. 일 예로, 산업 발전과 더불어 지하에 매설되었던 파이프 등이 이미 오랜 시간 동안 지하에 매설되어 있었으며, 매설된 파이프 등에 문제점이 발생하고, 이에 대한 사고가 증가하고 있는 추세이다. 다만, 상술한 지하 파이프들은 사람이 접근하여 전체 영역을 감시 및 유지하는데 한계가 있다. 또한, 산업화가 진행되면서 설계가 복잡한 건물 내부와 같이 사람의 접근이 쉽지 않은 곳이 증가하고 있다. 그러나, 이러한 영역에 대한 관리 및 유지 보수에 대한 특별한 방법이 없는 실정이고, 이에 기초한 많은 문제들이 발생하고 있다.With the development of the industry, various facilities have emerged, and the requirements for the maintenance and management of the various facilities are increasing. For example, pipes that were buried underground with industrial development have already been buried underground for a long time. Problems occur in buried pipes, and accidents are increasing. However, the above-mentioned underground pipes have a limitation in that a person approaches and monitors and maintains the entire area. In addition, as industrialization progresses, there are an increasing number of places where human access is difficult, such as inside a complex building. However, there is no special method for management and maintenance of these areas, and many problems are generated based on this.

상술한 영역에 대한 관리 및 유지 보수를 위해 열화상 카메라가 사용될 수 있지만, 열화상 카메라는 고가의 장비라 넓은 영역에 다수의 장비를 설치하기 어려울 수 있다. 또한, 열화상 카메라는 열화상에 대한 이미지인 바, 목표물을 정확히 인식하는 것이 어려울 수 있다. 또한, CCTV의 경우에도 고정된 위치에서 고정된 영역만을 촬영하기 때문에 넓은 영역을 관리 및 유지 보수하기에는 한계가 있다.Thermal imaging cameras may be used for management and maintenance of the above-described areas, but since thermal imaging cameras are expensive equipment, it may be difficult to install a plurality of equipments in large areas. In addition, since a thermal imaging camera is an image of a thermal image, it may be difficult to accurately recognize a target. In addition, in the case of CCTV, since only the fixed area is photographed at a fixed position, there is a limit in managing and maintaining a large area.

최근, 인공 지능에 대한 기술이 발전하고 있으며, 이를 적용한 사례들이 늘고 있다. 인공 지능으로서 머신 러닝은 관련 데이터를 수집하여 스스로 학습하고, 이를 바탕으로, 스스로 더 나은 결과를 도출하는 시스템일 수 있다.Recently, the technology for artificial intelligence has been developed, and the cases of applying it have been increasing. As an artificial intelligence, machine learning can be a system that collects relevant data to learn by itself and, based on it, produces better results on its own.

본 발명은 이동식 감시 시스템 및 방법을 제공함으로써, 상술한 문제점을 해결할 수 있다.The present invention can solve the above problems by providing a mobile monitoring system and method.

본 명세서는, 이동식 무인 감시 시스템 및 방법을 제공하는 목적을 가지고 있다.It is an object of the present invention to provide a mobile unmanned surveillance system and method.

본 명세서는 사람이 접근하기 어려운 영역에 위치하는 대상을 감시하는 방법을 제공하는 목적을 가지고 있다.An object of the present specification is to provide a method for monitoring an object located in an area inaccessible to a person.

본 명세서의 일 실시예에 따라, 이동식 무인 감시 시스템의 동작 방법을 제공할 수 있다. 이때, 이동식 무인 감시 시스템의 동작 방법은 파이프봇이 제 1 오브젝트에 대한 제 1 입력 정보를 획득하는 단계, 제 1 입력 정보를 CMS(Central Monitoring System)로 전송하는 단계, CMS가 제 1 입력 정보에 기초하여 제 1 모델을 생성하는 단계, 파이프봇이 제 1 오브젝트에 대한 제 2 입력 정보를 획득하고, 제 2 입력 정보를 CMS로 전송하는 단계, CMS가 제 1 모델과 제 2 입력 정보를 비교하여 제 1 오브젝트의 이상 여부를 판단하는 단계 및 판단된 이상 여부에 대한 정보를 포함하는 출력 정보를 제공하는 단계를 포함할 수 있다. 이때, 제 1 오브젝트에 대한 제 1 입력 정보 및 제 2 입력 정보는 실화상 이미지 정보 및 열화상 이미지 정보를 포함하고, 제 1 모델은 제 1 입력 정보에 기초한 학습데이터 세트를 머신 러닝 방식으로 학습시켜 생성되는 모델일 수 있다.According to one embodiment of the present specification, a method of operating a mobile unmanned surveillance system may be provided. In this case, the operation method of the mobile unmanned surveillance system, the pipebot obtains the first input information for the first object, transmitting the first input information to the Central Monitoring System (CMS), the CMS to the first input information Generating a first model based on the method, the pipebot obtaining second input information about the first object, transmitting the second input information to the CMS, and comparing the first model with the second input information by the CMS. The method may include determining whether the first object is abnormal and providing output information including information on the determined abnormality. In this case, the first input information and the second input information for the first object include real image information and thermal image information, and the first model trains the training data set based on the first input information in a machine learning manner. It may be a model generated.

또한, 본 명세서의 일 실시예에 따라, 이동식 무인 감시 시스템을 제공할 수 있다. 이동식 무인 감시 시스템은 파이프봇 및 CMS를 포함할 수 있다. 이때, 파이프봇이 제 1 오브젝트에 대한 제 1 입력 정보를 획득하고, 제 1 입력 정보를 CMS(Central Monitoring System)로 전송하고, CMS가 제 1 입력 정보에 기초하여 제 1 모델을 생성하고, 파이프봇이 제 1 오브젝트에 대한 제 2 입력 정보를 획득하고, 제 2 입력 정보를 CMS로 전송하고, CMS가 제 1 모델과 제 2 입력 정보를 비교하여 제 1 오브젝트의 이상 여부를 판단하고, 및 판단된 이상 여부에 대한 정보를 포함하는 출력 정보를 제공할 수 있다. 이때, 제 1 오브젝트에 대한 제 1 입력 정보 및 제 2 입력 정보는 실화상 이미지 정보 및 열화상 이미지 정보를 포함하고, 제 1 모델은 제 1 입력 정보에 기초한 학습데이터 세트를 머신 러닝 방식으로 학습시켜 생성되는 모델일 수 있다.In addition, according to one embodiment of the present specification, a mobile unmanned surveillance system may be provided. The mobile unmanned surveillance system may include a pipebot and a CMS. At this time, the pipebot obtains the first input information about the first object, transmits the first input information to the central monitoring system (CMS), the CMS generates the first model based on the first input information, and the pipe The bot obtains the second input information about the first object, transmits the second input information to the CMS, and the CMS compares the first model and the second input information to determine whether the first object is abnormal, and to determine Output information including information on whether there is a problem may be provided. In this case, the first input information and the second input information for the first object include real image information and thermal image information, and the first model trains the training data set based on the first input information in a machine learning manner. It may be a model generated.

또한, 본 명세서의 일 실시예에 따라, 파이프봇은 신호를 송수신하는 송수신부, 입력 정보를 획득하는 입력부 및 송수신부와 입력부를 제어하는 프로세서를 포함할 수 있다. 이때, 입력부는 HD(High Definition) 카메라 및 열화상 카메라를 포함할 수 있다.In addition, according to an embodiment of the present disclosure, the pipebot may include a transceiver for transmitting and receiving a signal, an input unit for obtaining input information, and a processor for controlling the transceiver and the input unit. In this case, the input unit may include a high definition (HD) camera and a thermal imaging camera.

또한, 본 명세서의 일 실시예에 따라, CMS는 신호를 송수신하는 송수신부, 입력 데이터에 머신 러닝을 적용하는 머신 러닝 학습부 및 송수신부와 머신 러닝 학습부를 제어하는 프로세서를 포함할 수 있다.In addition, according to one embodiment of the present specification, the CMS may include a transceiver for transmitting and receiving a signal, a machine learning learner applying machine learning to input data, and a processor controlling the transceiver and the machine learning learner.

또한, 이동식 무인 감시 시스템 및 동작 방법에 대해서 다음 사항들은 공통으로 적용될 수 있다.In addition, the followings may be commonly applied to the mobile unmanned surveillance system and its operation method.

본 명세서의 일 실시예에 따라, 제 1 입력 정보 및 제 2 입력 정보는 위치 정보, 시간 정보, 오디오 정보, 전압 정보 및 전류 정보 중 적어도 어느 하나 이상을 더 포함할 수 있다.According to one embodiment of the present specification, the first input information and the second input information may further include at least one or more of location information, time information, audio information, voltage information, and current information.

이때, 본 명세서의 일 실시예에 따라, 제 1 입력 정보 및 제 2 입력 정보는 제 1 오브젝트의 속성에 기초하여 결정될 수 있다.In this case, according to one embodiment of the present specification, the first input information and the second input information may be determined based on the attributes of the first object.

이때, 본 명세서의 일 실시예에 따라, 제 1 오브젝트의 속성은 제 1 오브젝트의 위치 정보, 크기 정보, 시간 정보 및 주변 환경 정보 중 적어도 어느 하나에 기초하여 결정될 수 있다.In this case, according to one embodiment of the present specification, an attribute of the first object may be determined based on at least one of location information, size information, time information, and surrounding environment information of the first object.

또한, 본 명세서의 일 실시예에 따라, 머신 러닝에 대한 분석 방법은 제 1 오브젝트의 속성에 기초하여 결정될 수 있다.In addition, according to one embodiment of the present specification, an analysis method for machine learning may be determined based on an attribute of the first object.

이때, 본 명세서의 일 실시예에 따라, CMS는 제 1 입력 정보를 통해 학습데이터 세트를 생성하고, 생성된 학습데이터 세트를 통해 제 1 모델을 생성할 수 있다.In this case, according to one embodiment of the present specification, the CMS may generate the training data set through the first input information, and generate the first model through the generated training data set.

이때, 본 명세서의 일 실시예에 따라, CMS는 제 1 모델에서 제 2 입력 정보에 대응되는 정보를 추출하고, 추출된 정보와 제 2 입력 정보를 비교하여 제 1 오브젝트에 대한 이상 여부를 판단할 수 있다.In this case, according to one embodiment of the present specification, the CMS extracts information corresponding to the second input information from the first model, compares the extracted information with the second input information, and determines whether there is an abnormality with respect to the first object. Can be.

또한, 본 명세서의 일 실시예에 따라, 제 2 입력 정보는 실시간 입력 정보이고, 제 1 모델은 제 2 입력 정보를 획득할 때마다, 학습을 통해 업데이트될 수 있다.Further, according to one embodiment of the present specification, the second input information is real time input information, and the first model may be updated through learning every time the second input information is obtained.

또한, 본 명세서의 일 실시예에 따라, 제 1 오브젝트의 속성에 대한 기준값이 기설정되어 있는 경우, 제 1 모델은 머신 러닝의 지도 학습 분석 방법에 기초하여 수행될 수 있다.In addition, according to one embodiment of the present specification, when a reference value for an attribute of the first object is preset, the first model may be performed based on a supervised learning analysis method of machine learning.

또한, 본 명세서의 일 실시예에 따라, 제공되는 출력 정보는 제 2 입력 정보 및 제 1 모델에 기초하여 제 1 오브젝트에 대한 이상이 검출된 정보로만 구성될 수 있다.In addition, according to one embodiment of the present specification, the output information provided may be configured only with information on which an abnormality with respect to the first object is detected based on the second input information and the first model.

본 명세서는 이동식 무인 감시 시스템 및 방법을 제공할 수 있다.The present disclosure can provide a mobile unmanned surveillance system and method.

본 명세서는 사람이 접근하기 어려운 영역에 위치하는 대상을 감시하는 방법을 제공할 수 있다.The present disclosure may provide a method for monitoring an object located in an area inaccessible to a person.

본 명세서에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtained in the present specification are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.

도 1은 본 명세서의 일 실시예에 따라 이동식 무인 감시 시스템의 구조를 개념적으로 도시한 도면이다.
도 2는 본 명세서의 일 실시예에 따라 이동식 무인 감시를 수행하는 방법을 나타낸 도면이다.
도 3 은 본 명세서의 일 실시예에 따라 이동식 무인 감시를 수행하는 방법을 나타낸 순서도이다.
도 4는 본 명세서의 일 실시예에 따라 이동식 무인 감시 시스템을 간략하게 나타낸 도면이다.
도 5는 본 명세서의 일 실시예에 따라 이동식 무인 감시 시스템에 대한 구체적인 실시예를 나타낸 도면이다.
도 6은 본 명세서의 일 실시예에 따라 이동식 무인 감시 시스템의 동작 순서를 나타낸 도면이다.
도 7은 본 명세서의 일 실시예에 따라 파이프봇 및 CMS의 상호 동작 방법에 대한 순서도이다.
1 is a view conceptually showing the structure of a mobile unmanned surveillance system according to an embodiment of the present disclosure.
2 is a diagram illustrating a method for performing mobile unattended monitoring according to one embodiment of the present specification.
3 is a flowchart illustrating a method for performing mobile unattended monitoring according to an embodiment of the present specification.
4 is a view briefly illustrating a mobile unmanned surveillance system according to an embodiment of the present disclosure.
5 is a view showing a specific embodiment of a mobile unmanned surveillance system according to an embodiment of the present disclosure.
6 is a view showing the operation sequence of the mobile unmanned surveillance system according to an embodiment of the present disclosure.
7 is a flowchart illustrating a method of interoperating between a pipe bot and a CMS according to one embodiment of the present specification.

이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The detailed description, which will be given below with reference to the accompanying drawings, is intended to explain exemplary embodiments of the present invention and is not intended to represent the only embodiments in which the present invention may be practiced. The following detailed description includes specific details in order to provide a thorough understanding of the present invention. However, one of ordinary skill in the art appreciates that the present invention may be practiced without these specific details.

이하의 실시예들은 본 발명의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성할 수도 있다. 본 발명의 실시예 들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments combine the components and features of the present invention in a predetermined form. Each component or feature may be considered to be optional unless otherwise stated. Each component or feature may be embodied in a form that is not combined with other components or features. In addition, some components and / or features may be combined to form an embodiment of the present invention. The order of the operations described in the embodiments of the present invention may be changed. Some components or features of one embodiment may be included in another embodiment or may be replaced with corresponding components or features of another embodiment.

이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.Specific terms used in the following description are provided to help the understanding of the present invention, and the use of such specific terms may be changed to other forms without departing from the technical spirit of the present invention.

몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시된다. 또한, 본 명세서 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.In some instances, well-known structures and devices are omitted or shown in block diagram form, centering on the core functions of each structure and device, in order to avoid obscuring the concepts of the present invention. In addition, the same components will be described with the same reference numerals throughout the present specification.

또한, 본 명세서에서 제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 명세서의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게, 제2 구성요소는 제1 구성요소로도 명명될 수 있다.In addition, terms such as first and / or second may be used herein to describe various components, but the components should not be limited by the terms. The terms are only for the purpose of distinguishing one component from another component, for example, without departing from the scope of rights in accordance with the concepts herein, the first component may be called a second component, and similarly The second component may also be referred to as a first component.

또한 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 그리고 명세서에 기재된 "?유닛", "?부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.In addition, throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding the other components unless otherwise stated. In addition, the terms “unit” and “unit” described in the specification mean a unit that processes at least one function or operation, which may be implemented by a combination of hardware and / or software.

도 1은 본 명세서의 일 실시예에 따라 이동식 감시 시스템의 구조를 개념적으로 도시한 도면이다.1 is a diagram conceptually illustrating a structure of a mobile monitoring system according to an embodiment of the present specification.

이때, 일 예로, 이동식 감시 시스템은 파이프봇 (PipeBot, 100) 및 CMS(Central Monitoring System, 200)을 포함할 수 있다. 또한, 이동식 감시 시스템에 기초한 이동식 감시 방법을 수행하기 위해 필요한 장치들이 더 포함될 수 있으며, 상술한 실시예로 한정되지 않는다.In this case, as an example, the mobile monitoring system may include a PipeBot 100 and a Central Monitoring System 200. In addition, apparatuses necessary for performing the mobile monitoring method based on the mobile monitoring system may be further included, and are not limited to the above-described embodiment.

일 예로, 이동식 감시 시스템은 서버나 데이터베이스 등을 더 포함할 수 있다. 또한, 정보를 전달하는 통신 장치 등이 더 포함될 수 있다. For example, the mobile monitoring system may further include a server or a database. In addition, a communication device for transmitting information may be further included.

또한, 일 예로, 파이프봇(100)은 송수신부(110), 프로세서(120) 및 입력부(130)로 구성될 수 있다. 또한, 그 밖에도 메모리나 데이터 수집을 위해 필요한 장비를 더 포함할 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 파이프봇(100)은 명명일 뿐, 그 명칭에 한정되지 않는다. 보다 상세하게는, 파이프봇(100)은 이동이 가능한 장치일 수 있다. 이때, 파이프봇(100)은 감시를 수행하는 영역에 기초하여 다양한 크기를 가질 수 있다. 일 예로, 좁은 영역을 위해서 초소형 카메라를 장착한 파이프봇(100)도 가능할 수 있다. 또는, 넓은 영역을 고려하여 성능이 우수한 카메라를 장착한 파이프봇(100)도 가능할 수 있다. 또한, 일 예로, 파이브봇(100)은 기설정된 이동 경로로 이동되는 장치를 의미할 수 있다. 또 다른 일 예로, 파이프봇(100)은 카메라를 통해 물체를 인지하고, 스스로 이동 경로를 설정하는 장치를 의미할 수 있다. 즉, 파이프봇(100)은 카메라를 장착하고, 무인으로 동작할 수 있는 장치를 의미할 수 있으며, 상술한 명칭에 한정되지 않는다.In addition, as an example, the pipe bot 100 may be composed of a transceiver 110, a processor 120, and an input unit 130. In addition, the device may further include equipment necessary for memory or data collection, and is not limited to the above-described embodiment. In addition, the pipe bot 100 is only a name, it is not limited to the name. In more detail, the pipe bot 100 may be a movable device. In this case, the pipe bot 100 may have various sizes based on the monitoring area. For example, a pipe bot 100 equipped with a micro camera for a narrow area may be possible. Alternatively, a pipebot 100 equipped with a camera having excellent performance in consideration of a wide area may be possible. Also, as an example, the five bots 100 may refer to a device that is moved in a predetermined movement path. As another example, the pipe bot 100 may refer to a device that recognizes an object through a camera and sets a moving path by itself. That is, the pipe bot 100 may mean a device that is equipped with a camera and can operate unattended, and is not limited to the above-mentioned name.

또 다른 일 예로, 파이프봇(100)은 입력부(130)를 포함하는 장치일 수 있다. 이때, 입력부는 상술한 카메라를 포함할 수 있으며, 그 밖의 소리나 다른 입력 정보를 수신할 수 있다.As another example, the pipe bot 100 may be a device including the input unit 130. In this case, the input unit may include the camera described above, and may receive other sounds or other input information.

일 예로, 파이프봇(100)의 입력부(130)는 HD(High Definition) 카메라(131) 및 열화상 카메라(132)를 포함할 수 있다. 또한, 일 예로서, 파이프봇(100)은 입력부(130)로서 위치 센서, 마이크, 전압 측정기, 전류 측정기 중 적어도 어느 하나 이상을 더 포함할 수 있다. 일 예로, 파이프봇(100)은 HD 카메라(131)를 통해 대상의 이미지 정보로서 대상의 형태 정보를 획득할 수 있다. 또한, 파이프봇(100)은 열화상 카메라(132)를 통해 대상의 이미지 정보로서 온도 정보를 획득할 수 있다. 또한, 파이프봇(100)은 위치 센서를 통해 파이프봇(100)의 위치 정보를 획득할 수 있다. 또한, 파이프봇(100)은 전압 측정기 및 전류 측정기 중 적어도 어느 하나를 이용하여 전력 관련 정보를 획득할 수 있다. 또한, 일 예로, 파이프봇(100)은 마이크부를 이용하여 오디오 정보를 획득할 수 있다. 즉, 입력부(130)는 정보를 획득하기 위해 센싱을 수행하는 부분을 의미할 수 있으며, 상술한 실시예로 한정되지 않는다.For example, the input unit 130 of the pipe bot 100 may include a high definition (HD) camera 131 and a thermal imaging camera 132. Also, as an example, the pipe bot 100 may further include at least one of a position sensor, a microphone, a voltage meter, and a current meter as the input unit 130. As an example, the pipebot 100 may obtain shape information of the object as image information of the object through the HD camera 131. In addition, the pipe bot 100 may obtain temperature information as image information of the object through the thermal imaging camera 132. In addition, the pipe bot 100 may obtain the position information of the pipe bot 100 through the position sensor. In addition, the pipebot 100 may obtain power related information using at least one of a voltage meter and a current meter. Also, as an example, the pipebot 100 may obtain audio information by using the microphone unit. That is, the input unit 130 may refer to a part for performing sensing to obtain information, and is not limited to the above-described embodiment.

이때, 하기 표 1 은 상술한 파이프봇(100)이 획득 가능한 정보에 대한 예시일 수 있다. 다만, 하기 표 1은 하나의 예시일 뿐, 상술한 실시예로 한정되지 않는다.In this case, Table 1 may be an example of information that can be obtained by the pipe bot 100 described above. However, Table 1 below is only one example and is not limited to the above-described embodiment.

[표 1]TABLE 1

Figure pat00001
Figure pat00001

또한, 파이프봇(100)의 프로세서(120)는 상술한 정보들을 송수신부(110)를 통해 CMS(200)로 전송할 수 있다. 일 예로, 프로세서(120)는 머신 러닝 기능을 포함할 수 있다. 프로세서(120)는 머신 러닝 기능을 통해 자체적으로 입력 정보를 분석하여 대상의 이상 여부를 확인하여 대상에 대한 감시를 수행할 수 있다. 다만, 머신 러닝을 수행하는 경우에는 데이터 처리 효율이 우수해야 할 필요성이 있으며, 처리 속도나 전력 소모 등을 고려하면 파이프봇(100)의 프로세서(120)가 직접 데이터를 처리하는 것은 바람직하지 않을 수 있다. 따라서, 프로세서(120)는 입력 정보를 송수신부(110)를 통해 CMS(200)로 전송하고, CMS(200)는 입력 정보에 대한 데이터를 분석할 수 있으며, 이에 대해서는 후술한다. 다만, 파이프봇(100)의 크기가 크고, 처리 능력이나 전력 소모에 제약이 적은 경우에는 CMS(200)에 대한 기능을 직접 수행하는 것도 가능할 수 있으며, 후술하는 CMS(200)의 동작을 파이프봇(100)도 수행할 수 있으며, 상술한 실시예로 한정되지 않는다.In addition, the processor 120 of the pipebot 100 may transmit the above-described information to the CMS 200 through the transceiver 110. For example, the processor 120 may include a machine learning function. The processor 120 may analyze the input information through the machine learning function to check whether the target is abnormal and perform monitoring on the target. However, when performing machine learning, the data processing efficiency needs to be excellent, and considering the processing speed or power consumption, it may not be desirable for the processor 120 of the pipebot 100 to directly process the data. have. Therefore, the processor 120 transmits input information to the CMS 200 through the transceiver 110, and the CMS 200 may analyze data about the input information, which will be described later. However, when the size of the pipe bot 100 is large and the processing power or the power consumption is less limited, it may be possible to directly perform a function for the CMS 200. 100 may also be performed and the present invention is not limited to the above-described embodiment.

또한, 일 예로, 파이프봇(100)의 프로세서(120)는 파이프봇의 이동 경로 또는 순찰 경로를 제어할 수 있다. 보다 상세하게는, 파이프봇(100)은 일정 주기에 기초하여 일정 영역을 감시하는 장치일 수 있다. 따라서, 파이프봇(100)의 이동 경도에 대한 제어가 필요할 수 있으며, 프로세서(120)는 기설정된 경로에 기초하여 파이프봇(100)을 이동시키도록 할 수 있다.Also, as an example, the processor 120 of the pipe bot 100 may control a movement path or a patrol path of the pipe bot. More specifically, the pipe bot 100 may be a device for monitoring a certain area based on a certain period. Therefore, it may be necessary to control the movement hardness of the pipe bot 100, the processor 120 may be to move the pipe bot 100 based on a predetermined path.

또 다른 일 예로, 파이프봇(100)의 프로세서(120)는 입력부(130)의 입력 정보에 기초하여 이동 경로를 스스로 설정할 수 있다. 보다 상세하게는, 입력부(130)는 입력 정보로서 실시간 입력 정보를 획득할 수 있다. 이때, 파이프봇(100)은 입력부(130)의 입력 정보를 CMS로 전송 후, CMS부터 대상의 이상 여부에 대한 응답을 수신할 수 있다. 이때, 파이프봇(100)은 CMS로부터 수신한 이상 여부에 대한 정보를 통해 이동 경로를 설정할 수 있다. 일 예로, 대상에 대한 이상이 검출된 경우, 대상 주변을 이동 경로로 설정하여 보다 상세한 입력 정보를 획득할 수 있다. 반면, 이상이 검출되지 않으면, 파이프봇(100)은 기존의 이동 경로로 이동하고, 다른 대상에 대한 입력 정보를 획득할 수 있으며, 상술한 실시예로 한정되지 않는다.As another example, the processor 120 of the pipe bot 100 may set the movement path by itself based on the input information of the input unit 130. In more detail, the input unit 130 may obtain real-time input information as input information. In this case, the pipe bot 100 may transmit the input information of the input unit 130 to the CMS, and then receive a response about whether the target is abnormal from the CMS. At this time, the pipe bot 100 may set the movement path through the information on whether or not received from the CMS. For example, when an abnormality with respect to the object is detected, more detailed input information may be obtained by setting a surrounding of the object as a moving path. On the other hand, if no abnormality is detected, the pipe bot 100 may move to an existing movement path and obtain input information about another object, and is not limited to the above-described embodiment.

이때, 일 예로, CMS(200)는 학습 데이터 세트(Training Data Set)를 통해 대상의 이상 여부를 판단할 수 있다. 이때, 학습 데이터 세트는 CMS(200) 데이터베이스에 저장된 과거 입력 정보 및 머신 러닝에 의해 생성된 모델일 수 있다. 즉, CMS(200)는 과거 입력 정보를 머신 러닝으로 학습하여 이상 여부를 판단하는 모델을 생성할 수 있고, 이에 기초하여 파이프봇(100)으로부터 수신한 실시간 입력 정보를 비교하여 이상 여부를 판단할 수 있다.In this case, as an example, the CMS 200 may determine whether an object is abnormal through a training data set. In this case, the training data set may be a model generated by machine learning and past input information stored in the CMS 200 database. That is, the CMS 200 may generate a model for determining whether or not abnormality by learning the past input information by machine learning, and compare the real-time input information received from the pipebot 100 to determine whether there is an abnormality. Can be.

이를 통해, CMS(200)는 대상의 이상 여부를 판단할 수 있고, 이상 여부에 대한 정보를 다시 파이프봇(100)으로 제공할 수 있다. 파이프봇(100)은 CMS(200)로부터 받은 정보에 기초하여 대상에 대한 추가 입력 정보가 필요한지 여부를 판단할 수 있다. 파이프봇(100)이 추가 입력 정보가 필요하다고 판단한 경우, 파이프봇(100)은 대상에 대한 보다 구체적인 정보를 획득하고, 이를 CMS(200)로 전송할 수 있다. CMS(200)는 대상에 대한 보다 구체적인 정보를 바탕으로, 대상의 이상 여부를 최종적으로 판단하고, 이에 대한 정보를 저장하여 제공할 수 있다. 또한, 상술한 이상 여부에 대한 모델에 추가 정보를 재학습시켜 모델을 업데이트할 수 있다.Through this, the CMS 200 may determine whether the object is abnormal, and may provide information about the abnormality to the pipebot 100 again. The pipebot 100 may determine whether additional input information about the object is needed based on the information received from the CMS 200. If the pipebot 100 determines that additional input information is needed, the pipebot 100 may obtain more specific information about the object and transmit it to the CMS 200. The CMS 200 may finally determine whether an object is abnormal based on more specific information about the object, and store and provide information about the object. In addition, the model may be updated by relearning additional information in the model of the above-described abnormality.

다음으로, CMS(200)는 송수신부(210), 프로세서(220) 및 머신 러닝 학습부(230) 중 적어도 어느 하나 이상을 포함할 수 있다. 이때, CMS(200)의 송수신부(210)는 파이프봇(100)으로부터 입력 데이터를 수신할 수 있다. 이때, 일 예로, 입력 데이터는 상술한 HD 카메라(131)로부터 획득한 이미지 정보, 열화상 카메라(132)로부터 획득한 이미지 온도 정보 등일 수 있으며, 상술한 실시예로 한정되지 않는다.Next, the CMS 200 may include at least one of the transceiver 210, the processor 220, and the machine learning learner 230. In this case, the transceiver 210 of the CMS 200 may receive input data from the pipebot 100. In this case, as an example, the input data may be image information obtained from the above-described HD camera 131, image temperature information obtained from the thermal camera 132, and the like, and are not limited thereto.

CMS(200)의 프로세서(220)는 상술한 송수신부(210)를 제어할 수 있다. 또한, CMS(200)의 프로세서(220)는 머신 러닝 학습부(230)를 더 제어할 수 있으며, 상술한 실시예로 한정되지 않는다. 이때, 일 예로, 머신 러닝 학습부(230)는 선택적으로 포함될 수 있다. 일 예로, 프로세서(220)가 머신 러닝 학습부(230)을 기능을 직접 수행할 수 있다. 즉, 머신 러닝 학습부(230)로서 별도의 러신 머닝을 수행하는 구성이 존재하거나 프로세서(220)가 이 기능을 대신할 수 있으며, 상술한 실시예로 한정되지 않는다. 이때, CMS(200)의 머신 러닝 학습(230)는 수신한 입력 데이터에 기초하여 머신 러닝 작업을 통해 대상에 대한 모니터링 및 제어를 수행할 수 있다. 이때, 머신 러닝 작업에 기초하여 비디오 요약본 정보가 추출되어 제공될 수 있으며, 이를 통해 대상에 대한 감시를 수행할 수 있다. The processor 220 of the CMS 200 may control the transceiver 210 described above. In addition, the processor 220 of the CMS 200 may further control the machine learning learner 230, which is not limited to the above-described embodiment. In this case, as an example, the machine learning unit 230 may be selectively included. For example, the processor 220 may directly perform the function of the machine learning learner 230. That is, the machine learning learning unit 230 may be configured to perform a separate rush machining, or the processor 220 may replace this function, and is not limited to the above-described embodiment. In this case, the machine learning learning 230 of the CMS 200 may monitor and control an object through a machine learning task based on the received input data. In this case, the video summary information may be extracted and provided based on the machine learning task, thereby performing monitoring on the target.

또 다른 일 예로, CMS(200)는 머신 러닝을 통해 대상에 대한 이상 여부를 검출할 수 있다. 즉, CMS(200)는 파이프봇(100)으로부터 수신한 입력 정보를 머신 러닝을 통해 처리한 후, 대상의 이상 여부를 확인할 수 있다. 이때, 상술한 비디오 요약본 정보는 이상이 검출된 정보로 요약될 수 있다. 또한, 일 예로, CMS(200)는 이상 여부에 대한 정보를 파이프봇(100)으로 피드백할 수 있다. 파이프봇(100)은 피드백 받은 이상 여부에 대한 정보에 기초하여 추가로 입력 정보를 획득할지 여부를 결정할 수 있다. 일 예로, 파이프봇(100)은 대상의 이상 여부가 검출되면 이동 경로를 바꾸고, 대상에 대한 구체적인 입력 정보를 추가로 획득하여 CMS(200)로 전송할 수 있으며, 상술한 실시예로 한정되지 않는다.As another example, the CMS 200 may detect whether an object is abnormal through machine learning. That is, the CMS 200 may process the input information received from the pipebot 100 through machine learning, and then check whether the target is abnormal. In this case, the above-described video summary information may be summarized as information in which an abnormality is detected. In addition, as an example, the CMS 200 may feed back information on whether or not the abnormality to the pipe bot 100. The pipebot 100 may further determine whether to obtain input information based on the information on whether the feedback is abnormal. For example, the pipe bot 100 may change the movement path when it detects an abnormality of the object, additionally obtain specific input information about the object, and transmit it to the CMS 200, but is not limited to the above-described embodiment.

즉, 이동식 무인 감시 시스템은 파이프봇(100) 및 CMS(200)로 구성된 시스템일 수 있으며, 구체적인 동작에 대해서는 후술한다.That is, the mobile unmanned surveillance system may be a system consisting of the pipe bot 100 and the CMS 200, and a detailed operation thereof will be described later.

도 2 및 도 3은 파이프봇으로부터 수신한 정보에 기초하여 대상에 대한 모니터링을 수행하는 방법을 나타낸 도면이다.2 and 3 are diagrams illustrating a method of monitoring an object based on information received from a pipebot.

보다 상세하게는, CMS는 파이프봇으로부터 입력 데이터를 수신할 수 있다. 이때, 입력 데이터는 HD 카메라로 측정된 대상의 형태 정보 및 열화상 카메라로 측정된 대상의 열화상 정보일 수 있다. More specifically, the CMS can receive input data from a pipebot. In this case, the input data may be shape information of the object measured by the HD camera and thermal image information of the object measured by the thermal image camera.

이때, 모니터링을 수행해야 하는 대상에 대한 정보를 포함할 수 있다. 일 예로, 모니터링을 수행해야하는 대상은 지하에 매설되어 있는 파이프일 수 있다. 지하에 매설된 파이프는 사람의 접근이 어려울 수 있는 바, 무인으로 이동하는 파이프봇을 파이프 안에서 이동시켜 파이프의 이상 여부를 판단하도록 할 수 있다.At this time, it may include information on the target to be monitored. For example, the object to be monitored may be a pipe buried underground. Underground pipes can be difficult for people to access, so unmanned pipebots can be moved within the pipes to determine whether the pipes are abnormal.

또 다른 일 예로, SVC(Static VAR compensator) 시스템을 관리하기 위해 사용될 수 있다. 이때, 발전소나 용광로와 같이 대규모 전력을 사용하는 곳에서는 시스템 전체의 전압 및 전류가 크게 변동될 수 있다. 이를 대비해서 SVC 시스템을 갖출 수 있으며, 파이프봇이 SVC 시스템과 결합하여 이상 여부를 확인할 수 있다. 또한, 화력/원자력 발전소 터빈 등과 같이 사람이 접근하기 어려운 장치에 적용할 수 있다.As another example, it may be used to manage a static VAR compensator (SVC) system. At this time, in a place where a large amount of power is used, such as a power plant or a furnace, the voltage and current of the entire system may be greatly changed. In preparation for this, the SVC system can be equipped, and pipebots can be combined with the SVC system to check for abnormalities. In addition, the present invention can be applied to devices that are difficult to access, such as a turbine for a thermal / nuclear power plant.

즉, 모니터링을 수행해야 하는 대상은 다양할 수 있으며, 상술한 실시예로 한정되지 않는다. 따라서, 파이프봇은 모니터링을 수행해야 하는 대상의 속성 또는 특징에 기초하여 입력 정보를 다르게 획득할 수 있다. 또한, 일 예로, 파이프봇은 모니터링을 수행하는 대상의 속성 또는 특징에 기초하여 추가적인 입력 정보를 획득하거나, 확인하는 것도 가능할 수 있으며, 상술한 실시예로 한정되지 않는다.That is, objects to be monitored may be various and are not limited to the above-described embodiment. Accordingly, the pipebot may obtain input information differently based on the attribute or characteristic of the object to be monitored. In addition, as an example, the pipebot may be able to acquire or confirm additional input information based on an attribute or feature of a target to be monitored, and is not limited to the above-described embodiment.

한편, CMS는 모니터링을 수행해야 하는 대상에 기초하여 입력 데이터를 이용하여 머신 러닝을 수행할 수 있다. 이때, 머신 러닝은 데이터를 이용해서 컴퓨터를 학습시키는 방법론을 의미할 수 있다. 일 예로, 머신 러닝 알고리즘은 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning) 및 강화 학습(Reinforcement Learning)으로 구별될 수 있다. 일 예로, 지도 학습은 명시적으로 정보의 기준이 결정된 데이터에 기초하여 학습 시키는 방법일 수 있다. 또한, 비지도 학습은 명시적으로 정보의 기준이 정해지지 않은 상태에서 데이터를 통해 학습 시키는 방법일 수 있다. 또한, 강화 학습은 보상 및 상태 정보를 피드백하여 학습 시키는 방법일 수 있다. Meanwhile, the CMS may perform machine learning using input data based on an object to be monitored. In this case, machine learning may refer to a methodology for learning a computer using data. For example, the machine learning algorithm may be classified into supervised learning, unsupervised learning, and reinforcement learning. For example, supervised learning may be a method of learning based on data in which information criteria are explicitly determined. In addition, unsupervised learning may be a method of learning through data in a state in which information is not explicitly determined. In addition, reinforcement learning may be a method of learning by feeding back the reward and status information.

이때, 일 예로, CMS는 파이프봇으로부터 수신한 입력 데이터를 머신 러닝을 통해 학습하고, 그에 기초하여 대상의 이상 여부에 대한 모델을 생성할 수 있다. 즉, CMS는 파이프봇으로부터 수신한 정보들을 이용하여 이상 여부를 도출하는 모델을 생성할 수 있고, 파이프봇으로부터 수신되는 실시간 정보를 재학습하는 방식을 통해 상술한 모델을 업데이트할 수 있다. 또한, CMS는 상술한 모델에 기초하여 대상의 이상 여부에 대한 출력값을 도출할 수 있다. 이때, 출력값은 HD 카메라 및 열화상 카메라에 기초하여 도출될 수 있다. 일 예로, HD 카메라를 통해 모니터링이 수행되어야 하는 주요 오브젝트 및 그에 대한 위치 정보를 판단할 수 있다. 또한, 열화상 카메라로부터 획득한 열화상 시퀀스를 통해 주요 오브젝트에 대한 온도 정보를 획득할 수 있다. 이때, CMS는 카메라로부터 영상에서 상술한 머신 러닝에 기초하여 생성된 모델과 실시간 정보를 비교하여 이상 여부를 판단할 수 있다. 그 후, CMS는 이상 여부에 대한 비디오 요약본을 생성할 수 있다. 일 예로, 머신 러닝에 기초한 이상 여부 모델을 통해 대상에 설정된 조건 중 기준값 이상이 되는 조건이 있는 경우만을 추출하여 비디오 요약본을 생성할 수 있다. 즉, 모든 영상을 처리하지 않고, 실시간 입력 데이터를 머신 러닝의 모델과 비교하여 이상이 감지된 부분에 대한 영상을 추출하여 출력값으로 제공할 수 있으며, 이를 통해 모니터링 시간을 절약하여 효율적인 관리를 수행할 수 있다.In this case, as an example, the CMS may learn the input data received from the pipebot through machine learning, and generate a model of whether the object is abnormal based on the learning. That is, the CMS may generate a model that derives an abnormality using information received from the pipebot, and may update the above-described model by relearning real-time information received from the pipebot. In addition, the CMS may derive an output value of whether the object is abnormal based on the above-described model. In this case, the output value may be derived based on the HD camera and the thermal imaging camera. As an example, a main object and location information thereof to be monitored may be determined through an HD camera. In addition, temperature information about the main object may be obtained through the thermal image sequence obtained from the thermal imager. In this case, the CMS may determine whether there is an abnormality by comparing the model generated on the basis of the above-described machine learning in the image from the camera and the real-time information. Thereafter, the CMS may generate a video summary of whether there is an error. For example, a video summary may be generated by extracting only a case where a condition that is equal to or greater than a reference value among conditions set in the target is generated through an abnormality model based on machine learning. In other words, by comparing the real-time input data with the model of machine learning, it is possible to extract the image of the detected part and provide it as an output value without processing all the images. Can be.

이때, 일 예로서, 파이프봇이 모니터링을 수행하는 대상에 따라 다른 러닝 머신 학습 방법이 적용될 수 있다. 일 예로, 모니터링을 수행하는 대상의 속성 또는 특징이 명확하고, 그에 기초한 기준값이 정해진 경우라면 머신 러닝은 상술한 지도 학습 방법에 기초하여 동작할 수 있다. 일 예로, 대상이 터빈이고, 이상 여부는 특정 온도 값에 기초하여 결정되는 경우라면, 머신 러닝 중 지도 학습 방법을 통해 이상 여부에 대한 모델을 생성하고, 실시간 입력 정보를 비교하여 이상 여부를 검출하여 제공할 수 있다.In this case, as an example, another treadmill learning method may be applied according to a target to which the pipebot performs monitoring. For example, if the property or characteristic of the object to be monitored is clear and a reference value based thereon is determined, machine learning may operate based on the above-described supervised learning method. As an example, if the target is a turbine, and whether the abnormality is determined based on a specific temperature value, a model of abnormality is generated through a supervised learning method during machine learning, and the abnormality is detected by comparing real-time input information. Can provide.

또 다른 일 예로, 모니터링을 수행하는 대상의 속성 또는 특징이 명확하지 않아 종합적인 분석이 필요한 경우라면 비지도 학습 방법이 적용될 수 있다. 이때, CMS는 머신 러닝에 기초하여 입력 정보를 통해 히스토리 정보를 구축하고, 히스토리 정보를 이용하여 머신 러닝에 대한 모델을 도출할 수 있다. 또한, CMS는 실시간 입력 정보를 획득할 때마다 재학습을 통해 생성된 모델 정보를 업데이트할 수 있다. 이때, CMS는 현재 획득하는 입력 정보와 모델 정보의 차이값을 비교하여 이상 여부를 감지할 수 있다.As another example, if a comprehensive analysis is required because an attribute or characteristic of a monitoring target is not clear, an unsupervised learning method may be applied. In this case, the CMS may build history information through input information based on machine learning, and derive a model for machine learning using history information. In addition, the CMS may update model information generated through relearning whenever the real-time input information is acquired. In this case, the CMS may detect an abnormality by comparing a difference value between the currently obtained input information and the model information.

즉, 파이프봇으로부터 수신한 실시간 입력 정보를 이상 여부를 감지하기 위해 사용되는 동시에 머신 러닝을 통해 생성된 모델의 재학습을 위해 사용할 수 있다.That is, the real-time input information received from the pipebot can be used to detect anomalies and can be used for relearning a model generated through machine learning.

일 예로, 대상이 파이프인 경우, 이상 여부에 대한 판단은 종합적일 수 있다. 이때, 파이프봇은 입력 정보로서 실화상 이미지, 열화상 이미지에 대한 정보를 획득할 수 있다. 또한, 파이프봇은 대상이 되는 영역 주변의 파이프에 대한 정보를 입력 정보로서 더 활용할 수 있다. CMS는 상술한 정보들을 종합하여 파이프의 이상 여부를 확인할 수 있으며, 이때, 비지도 학습 방법에 기초한 러닝 머신 방법을 통해 모델이 생성될 수 있다.For example, when the object is a pipe, the determination on whether an abnormality may be comprehensive. In this case, the pipebot may obtain information about the real image image and the thermal image image as input information. In addition, the pipebot may further use information about pipes around the target area as input information. The CMS may check whether the pipe is abnormal by combining the above-described information. In this case, the model may be generated through a treadmill method based on the unsupervised learning method.

도 4는 이동식 무인 감시 시스템을 간략히 나타낸 도면이다. 4 is a view schematically showing a mobile unmanned surveillance system.

상술한 바와 같이, 이동식 무인 감시 시스템은 파이프봇 및 CMS로 구성될 수 있다. 이때, 파이프봇은 주된 입력 값으로서, 실화상 카메라 이미지(HD 카메라로 촬영된 이미지) 및 열화상 카메라 이미지를 획득할 수 있다. 상술한 바와 같이, 파이프봇은 이동하면서 대상에 대한 이미지 영상을 획득할 수 있다. 그 후, 파이프봇은 CMS로 실시간 입력 값 또는 입력 데이터를 전송하고, CMS는 상술한 머신 러닝 방법에 기초하여 입력 데이터를 프로세싱하여 이상 여부에 대한 모델을 생성할 수 있다. 이때, CMS는 생성된 모델과 새롭게 입력되는 실시간 입력 정보를 비교하여 대상의 이상 여부를 판단할 수 있다. 이때, CMS가 실시간 입력 정보 및 이상 여부에 대한 모델에 기초하여 이상 여부를 감지한 경우, CMS는 출력 데이터를 획득할 수 있다. 이때, 출력 데이터는 입력 데이터 및 머신 러닝에 기초하여 획득한 영상으로 비디오 요약본 이미지일 수 있다. 즉, 이상이 감지된 영역에 대한 영상만을 추출하여 출력 값으로 제공할 수 있으며, 이는 상술한 바와 같다.As mentioned above, the mobile unmanned surveillance system may be composed of a pipebot and a CMS. In this case, the pipebot may acquire a real image camera image (image captured by the HD camera) and a thermal image camera as main input values. As described above, the pipebot may acquire an image image of the object while moving. Thereafter, the pipebot may transmit real-time input values or input data to the CMS, and the CMS may process the input data based on the above-described machine learning method to generate a model of whether there is an error. In this case, the CMS may determine whether the target is abnormal by comparing the generated model with newly input real-time input information. In this case, when the CMS detects the abnormality based on the real-time input information and the model of the abnormality, the CMS may obtain output data. In this case, the output data may be a video summary image as an image acquired based on input data and machine learning. That is, only an image of an area where an abnormality is detected may be extracted and provided as an output value, as described above.

도 5는 이동식 무인 감시 시스템의 구체적인 일 실시예를 나타낸 도면이다.5 is a view showing a specific embodiment of a mobile unmanned surveillance system.

상술한 바와 같이, 이동식 무인 감시 시스템은 대상에 대한 감시를 수행할 수 있다. 이때, 일 예로, 대상은 사람이 접근하기 힘든 영역에 위치할 수 있다. 이때, 접근 불가능성은 지하 매설이나 높은 온도 등과 같은 이유에 기인할 수 있으며, 상술한 실시예로 한정되지 않는다.As described above, the mobile unmanned surveillance system may monitor the target. In this case, as an example, the object may be located in an area that is difficult for a person to access. In this case, the inaccessibility may be due to reasons such as underground buried or high temperature, and is not limited to the above-described embodiment.

또한, 대상에 대한 이상 여부는 기설정된 기준에 따라 판단될 수 있다. 일 예로, 대상의 온도가 스레스홀드 온도 이상인 경우에 대상이 이상이 있음을 확인할 수 있다. 또 다른 일 예로, 대상의 이상 여부는 복수 개의 기준을 설정하여 종합적인 판단으로 결정될 수 있다. 종합적인 판단은 머신 러닝에 기초하여 수행될 수 있으며, 이를 위해 CMS는 과거 입력 정보를 통해 이상 여부에 대한 모델을 생성할 수 있다. 그 후, CMS는 이상 여부에 대한 모델 및 실시간 입력 정보를 비교하여 대상의 이상 여부를 판단할 수 있다. 구체적인 일 예로, CMS는 과거 입력 정보로서, 넓은 영역에 매설된 파이프는 파이프가 위치한 지역적 특징, 파이프봇이 센싱을 수행하는 시점, 히스토리 정보, 주변 영역 정보 및 이미지 정보를 종합하여 이상 여부에 대한 모델을 생성할 수 있다. 이때, CMS가 파이프봇으로부터 실시간 입력 정보를 수신하면 실시간 입력 정보와 이상 여부에 대한 모델을 비교하여 이상 여부가 판단될 수 있다. In addition, whether or not the object is abnormal may be determined according to a predetermined criterion. As an example, it may be confirmed that the target is abnormal when the temperature of the target is greater than or equal to the threshold temperature. As another example, the abnormality of the object may be determined by comprehensive judgment by setting a plurality of criteria. Comprehensive determination may be performed based on machine learning, and for this, the CMS may generate a model of abnormality based on past input information. Thereafter, the CMS may determine whether the object is abnormal by comparing the model with respect to the abnormality and real-time input information. As a specific example, CMS is historical input information, and a pipe embedded in a wide area is a model of abnormality by combining local characteristics of a pipe, a time when a pipe bot performs sensing, history information, surrounding area information, and image information. Can be generated. In this case, when the CMS receives the real-time input information from the pipebot, it may be determined whether or not the abnormality by comparing the real-time input information and the model for the abnormality.

보다 상세하게는, 일 예로, 상술한 파이프 중 특정 영역으로 제 1 영역은 실화상 이미지 및 열화상 이미지 정보만을 이용하여 이상 여부가 충분히 판단될 수 있다. 즉, CMS는 과거 입력 정보로서 실화상 이미지 및 열화상 이미지만을 기초하여 이상 여부에 대한 모델을 생성하고, 이를 실시간 입력 정보와 비교하여 이상 여부를 판단할 수 있다. 반면, 파이프 중 특정 영역으로서 제 2 영역은 상술한 실화상 이미지 및 열화상 이미지만으로 이상 여부를 판단하는게 충분하지 않을 수 있다. 일 예로, 파이프 주변에 물이 흐르고(지역적 특징), 파이프봇이 겨울에 센싱을 수행하는(수행 시점 특징) 경우에서 내부적으로 이상이 발생한 경우라면 실화상 이미지 및 열화상 이미지만으로는 이상 여부를 도출하기 어려울 수 있다. 따라서, CMS는 과거 입력 정보로서 이미지 정보, 주변 영역 정보 및 동일 지점에서의 히스토리 정보를 종합적으로 분석하여 이상 여부에 대한 모델을 생성하고, 이를 실시간 입력 정보와 비교하여 이상 여부를 판정할 수 있다. 즉, 파이프봇이 감시하는 대상 또는 영역에 기초하여 서로 다른 모델 정보가 설정될 수 있으며, 이를 통해 이상 여부에 대한 효율을 높일 수 있다.In more detail, as an example, whether or not an abnormality may be sufficiently determined using only the real image image and the thermal image information of the first region as the specific region of the pipe. That is, the CMS may generate a model for abnormality based on only the real image and the thermal image as past input information and compare the result with real-time input information to determine whether the abnormality exists. On the other hand, it may not be enough to determine whether the second region as the specific region of the pipe is abnormal only with the above-described real image and thermal image. For example, if water flows around a pipe (local feature), and the pipebot performs sensing in winter (performed at the time of execution), and there is an internal problem, the real image and the thermal image alone are used to derive the abnormality. It can be difficult. Accordingly, the CMS may comprehensively analyze image information, surrounding area information, and history information at the same point as past input information, generate a model for abnormality, and compare the result with real-time input information to determine whether the abnormality is present. That is, different model information may be set based on an object or region monitored by the pipebot, and thus, efficiency of abnormality may be increased.

또한, CMS는 머신 러닝의 모델을 통해 감지한 이상 여부에 대한 정보를 요약본 정보로서 출력할 수 있다. In addition, the CMS may output information on whether the abnormality detected through the model of machine learning as summary information.

또 다른 일 예로, 모니터링하는 대상에 따라 이동식 무인 감시 시스템이 다르게 동작할 수 있다. 상술한 바와 같이, 파이프는 감시해야 하는 영역이 상대적으로 넓고 연속적일 수 있다. 반면, 감시해야 하는 영역 또는 대상이 특정되어 있고, 주기적으로 순찰을 통해 대상에 대한 모니터링이 수행될 수 있다. 즉, 파이프봇이 이동하면서 지속적으로 입력에 대한 센싱을 수행하고 있는지 또는 특정 지점 및 시점에서만 입력값을 수신해야 하는지가 다를 수 있다. 이때, 일 예로, 파이프봇이 이동하면서 지속적으로 입력에 대한 센싱을 수행하고, 입력값을 CMS로 전송하는 경우에 이상 여부는 주변 정보 우선 순위가 높게 설정될 수 있다. 이때, 비디오 요약본 정보는 주변 정보에 기초하여 이상이 발생되는 지점에 대한 정보들만으로 추출될 수 있다.As another example, the mobile unmanned surveillance system may operate differently according to a monitoring target. As mentioned above, the pipe may be relatively large and continuous in the area to be monitored. On the other hand, an area or object to be monitored is specified, and monitoring of the object may be performed periodically through patrol. That is, it may be different whether the pipe bot is continuously sensing the input while receiving the input value or receiving the input value only at a specific point and time. In this case, as an example, when the pipebot continuously performs sensing on the input and transmits the input value to the CMS, the priority of the surrounding information may be set to be high. In this case, the video summary information may be extracted only with information on a point where an abnormality occurs based on the surrounding information.

반면, 모니터링해야 하는 대상이 정해져있고, 파이프봇이 지속적으로 입력에 대한 센싱을 수행하지 않는 경우라면 대상에 대한 히스토리 정보가 이상 여부를 판단하는 주요 정보로서 우선 순위가 높게 설정될 수 있다. 즉, 모니터링하고자 하는 대상에 따라 이동식 무인 이동 시스템은 다르게 동작할 수 있으며, 상술한 실시예로 한정되지 않는다.On the other hand, if the target to be monitored is determined and the pipebot does not continuously sense the input, the priority may be set as the main information for determining whether the history information of the target is abnormal. That is, the mobile unmanned mobile system may operate differently according to the target to be monitored, and is not limited to the above-described embodiment.

도 5는 일 예로서, 구체적인 사례일 수 있다. 일 예로, 파이프봇은 파이프 배관이 설치된 영역을 일정한 속도(또는 일정한 주기)로 순찰할 수 있다. 이때, 파이프는 영역 전체에 설치되어 있는 바, 파이프봇은 이동 중에 지속적으로 입력 값을 센싱 할 필요성이 있다. 즉, 파이프봇은 실화상 카메라 및 열화상 카메라를 이용하여 지속적으로 영상을 획득하고, 이를 CMS로 전송할 수 있다. 또한, 그 밖에 입력을 CMS로 전송할 수 있다. 이때, CMS는 파이프봇으로부터 수신한 입력 정보를 바탕으로 머신 러닝을 수행하여 이상 여부에 대한 모델을 생성할 수 있으며, 실시간으로 입력되는 정보를 이상 여부에 대한 모델과 비교하여 이상 여부를 판단할 수 있다. 그 후, CMS는 이상 여부가 검출되면 출력 값을 획득할 수 있다. 일 예로, 파이프에 대해서는 명시적으로 정해진 기준 값이 없는 바, 비지도 학습에 기초한 머신 러닝 방법을 통해 데이터가 처리될 수 있다. 이때, 처리된 데이터에서 이상 여부는 이동에 기초하여 주변 파이프 데이터와 비교하여 판단될 수 있다. 또한, 상술한 비디오 요약본은 이상 여부가 있는 것으로 판단되는 일정 영역에 대한 요약본 영상일 수 있으며, 이는 상술한 바와 같다.5 may be a specific example as an example. For example, the pipebot may patrol the area where the pipe pipe is installed at a constant speed (or a constant cycle). At this time, the pipe is installed throughout the area, the pipe bot needs to continuously sense the input value during the movement. That is, Pipebot can continuously acquire an image using a real image camera and a thermal image camera, and transmit the image to the CMS. In addition, other inputs can be sent to the CMS. In this case, the CMS may generate a model for abnormality by performing machine learning based on the input information received from the pipebot, and determine the abnormality by comparing the information input in real time with the model for the abnormality. have. Thereafter, the CMS may acquire an output value when it detects an abnormality. For example, since there is no explicitly defined reference value for the pipe, data may be processed through a machine learning method based on unsupervised learning. At this time, whether the abnormality in the processed data may be determined by comparing with the surrounding pipe data based on the movement. In addition, the above-described video summary may be a summary image of a certain area determined to be abnormal, as described above.

도 6 및 도 7은 이동식 무인 감시 시스템의 동작을 나타낸 순서도이다.6 and 7 are flowcharts showing the operation of the mobile unmanned surveillance system.

도 6 및 도 7을 참조하면, 이동식 무인 감시 시스템에서 파이프봇은 제 1 오브젝트에 대한 제 1 입력 정보를 획득할 수 있다.(S710) 이때, 도 1 내지 도 4에서 상술한 바와 같이, 제 1 오브젝트에 대한 제 1 입력 정보는 상술한 실화상 이미지 및 열화상 이미지일 수 있다. 이때, 일 예로, 제 1 입력 정보는 상술한 과거 입력 정보일 수 있다. 또한, 일 예로, CMS는 제 1 입력 정보를 이용하여 학습데이터 세트를 생성할 수 있다. 즉, CMS는 파이프봇을 통해 획득한 과거 입력 정보를 이용하여 머신 러닝 방식으로 모델에 대한 학습을 수행하기 위해 학습데이터 세트를 생성할 수 있다. 또한, 일 예로, 제 1 입력 정보는 제 1 오브젝트에 대한 위치 정보를 포함할 수 있다. 또한, 제 1 입력 정보는 제 1 오브젝트에 대한 정보를 획득하는 시간을 의미하는 시간 정보를 포함할 수 있다. 또한, 제 1 입력 정보는 마이크를 통해 획득되는 오디오 정보일 수 있다. 또한, 제 1 입력 정보는 전압 정보일 수 있다. 또한, 제 1 입력 정보는 전류 정보일 수 있다. 즉, 제 1 입력 정보는 제 1 오브젝트와 관련하여 측정 또는 센싱되는 정보를 의미할 수 있으며, 상술한 실시예로 한정되지 않는다. 6 and 7, in the mobile unmanned surveillance system, the pipebot may obtain first input information about the first object. (S710) In this case, as described above with reference to FIGS. 1 to 4, the first The first input information about the object may be the above-described real image image and thermal image image. In this case, as an example, the first input information may be the above-described past input information. Also, as an example, the CMS may generate a training data set using the first input information. That is, the CMS may generate a training data set to perform training on a model in a machine learning manner using past input information acquired through pipebots. Also, as an example, the first input information may include location information about the first object. In addition, the first input information may include time information indicating a time for obtaining information about the first object. In addition, the first input information may be audio information obtained through a microphone. In addition, the first input information may be voltage information. In addition, the first input information may be current information. That is, the first input information may refer to information measured or sensed with respect to the first object, and is not limited to the above-described embodiment.

일 예로, 제 1 입력 정보는 제 1 오브젝트의 속성에 기초하여 결정될 수 있다. 이때, 제 1 오브젝트의 속성은 제 1 오브젝트의 위치 정보 및 크기 정보 중 적어도 어느 하나를 포함할 수 있다. 또한, 제 1 오브젝트의 속성은 제 1 오브젝트에 대한 입력 정보가 수신되는 시점을 의미할 수 있다. 또한, 제 1 오브젝트의 속성으로서 제 1 오브젝트의 온도, 전압, 전류 등과 같이 특정한 정보를 의미할 수 있다. 또한, 일 예로, 제 1 오브젝트에 대한 주변 환경 정보도 상술한 속성일 수 있다.For example, the first input information may be determined based on the attribute of the first object. In this case, the attribute of the first object may include at least one of position information and size information of the first object. Also, an attribute of the first object may mean a time point at which input information about the first object is received. In addition, as the attribute of the first object, it may mean specific information such as temperature, voltage, current, etc. of the first object. In addition, as an example, the surrounding environment information about the first object may also be the above-described attribute.

일 예로, 제 1 오브젝트가 파이프인 경우, 제 1 오브젝트의 속성은 파이프의 크기, 위치, 주변 파이프에 대한 정보, 파이프에 대한 이미지를 측정하는 시간 정보 등일 수 있다.For example, when the first object is a pipe, the property of the first object may be a size, a location of the pipe, information about a surrounding pipe, time information for measuring an image of the pipe, and the like.

또한, 일 예로, 제 1 오브젝트가 터빈인 경우, 제 1 오브젝트에 대한 온도 정보, 제 1 오브젝트에 대한 전압 및 전류 정보 등이 속성일 수 있다. 즉, 제 1 오브젝트의 특징에 대한 정보일 수 있다.In addition, as an example, when the first object is a turbine, the attribute may include temperature information about the first object, voltage and current information about the first object, and the like. That is, the information may be information about a feature of the first object.

다음으로, 파이프봇은 제 1 오브젝트에 대한 제 1 입력 정보를 CMS로 전송할 수 있다.(S720) 그 후, CMS는 제 1 입력 정보에 기초하여 제 1 모델을 생성할 수 있다. (S730) 이때, 도 1 내지 도 4에서 상술한 바와 같이, CMS는 머신 러닝에 기초하여 제 1 입력 정보를 처리할 수 있다. 이때, 제 1 모델은 제 1 오브젝트의 이상 여부를 판단하기 위한 모델일 수 있다. 즉, 제 1 입력 정보는 과거 입력 정보로서 상술한 학습데이터 세트를 구성할 수 있다. CMS는 학습데이터 세트를 이용하여 머신러닝 방식으로 제 1 모델을 학습할 수 있으며, 이를 통해 제 1 오브젝트의 이상 여부를 판단할 수 있다. 또 다른 일 예로, CMS는 제 1 오브젝트의 속성에 기초하여 머신 러닝 적용 방법을 결정할 수 있다. 일 예로, 제 1 오브젝트가 터빈이고, 터빈이 일정한 온도 이상이 되면 이상을 감지하는 경우처럼 오브젝트의 속성에 기초하여 기준값이 명확한 경우라면 머신 러닝은 지도 학습 방법에 기초하여 적용될 수 있다.Next, the pipebot may transmit first input information about the first object to the CMS (S720). The CMS may then generate a first model based on the first input information. In this case, as described above with reference to FIGS. 1 to 4, the CMS may process the first input information based on the machine learning. In this case, the first model may be a model for determining whether the first object is abnormal. That is, the first input information may constitute the above-described learning data set as past input information. The CMS may train the first model by using a learning data set in a machine learning manner, thereby determining whether the first object is abnormal. As another example, the CMS may determine a method of applying machine learning based on the attributes of the first object. As an example, if the first object is a turbine and the reference value is clear based on the property of the object, for example, when the turbine detects an abnormality when the turbine reaches a certain temperature or more, machine learning may be applied based on a supervised learning method.

반면, 제 1 오브젝트가 파이프이고, 파이프는 주변 환경이나 종합적인 정보로서 이상 여부가 판단되는 경우처럼 오브젝트의 속성을 종합적으로 고려하는 경우라면 머신 러닝은 비지도 학습 방법에 기초하여 수행될 수 있다. 보다 상세하게는, CMS는 파이프봇으로부터 수신한 입력 정보에 기초하여 학습데이터 세트를 구축할 수 있다. 이때, 학습데이터 세트는 상술한 입력 정보들을 종합하여 획득한 정보일 수 있다. 이때, CMS는 학습데이터 세트를 통해 제 1 모델을 생성할 수 있고, 이를 통해 제 1 오브젝트가 일반 상태를 벗어났는지 여부를 판단할 수 있다.On the other hand, if the first object is a pipe, and the pipe is a comprehensive consideration of the attributes of the object, such as when the abnormality is determined as the surrounding environment or comprehensive information, machine learning may be performed based on the unsupervised learning method. More specifically, the CMS may build a training data set based on input information received from the pipebot. In this case, the learning data set may be information obtained by combining the above-described input information. In this case, the CMS may generate the first model through the training data set, and may determine whether the first object deviates from the normal state.

다음으로, 파이프봇은 제 1 오브젝트에 대한 제 2 입력 정보를 획득하고, 이를 CMS로 전송할 수 있다.(S740) 이때, 도 1 내지 도 6에서 상술한 바와 같이, 제 2 입력 정보는 실시간 입력 정보일 수 있다. 즉, 제 1 입력 정보가 과거 입력 정보를 의미하는 것이라면, 제 2 입력 정보는 현재 입력되는 실시간 입력 정보를 의미할 수 있다. 그 후, CMS는 제 1 모델 및 제 2 입력 정보를 비교하여 제 1 오브젝트에 대한 이상 여부를 판단할 수 있다.(S750) 이때, 도 1 내지 도 6에서 상술한 바와 같이, 제 1 모델은 제 1 오브젝트에 대한 이상 여부를 판단하기 위해 머신 러닝을 통해 생성된 모델일 수 있다. 이때, 제 1 모델은 제 2 입력 정보로서 실시간 입력 정보를 학습하여 다시 업데이트될 수 있다. 또한, 제 1 모델에 기초한 정보 중 제 2 입력 정보에 대응되는 정보를 추출하여 비교함으로써, 제 1 오브젝트의 이상 여부가 판단될 수 있다. 즉, 실시간 정보로서 제 2 입력 정보는 대상의 이상 여부를 판단하는 정보임과 동시에 대상에 대한 모델을 업데이트하기 위한 정보일 수 있다.Next, the pipebot may acquire second input information about the first object and transmit it to the CMS (S740). At this time, as described above with reference to FIGS. 1 to 6, the second input information may be real-time input information. Can be. That is, if the first input information means past input information, the second input information may mean real time input information that is currently input. Thereafter, the CMS may determine whether the first object is abnormal by comparing the first model and the second input information (S750). In this case, as described above with reference to FIGS. 1 may be a model generated through machine learning to determine whether the object is abnormal. In this case, the first model may be updated again by learning real-time input information as second input information. Also, by extracting and comparing information corresponding to the second input information among the information based on the first model, it may be determined whether the first object is abnormal. That is, the second input information as the real time information may be information for determining whether the object is abnormal and at the same time, information for updating the model of the object.

다음으로, CMS는 판단된 이상 여부에 대한 정보를 포함하는 출력 정보를 제공할 수 있다.(S760) 이때, 도 1 내지 도 4에서 상술한 바처럼 출력 정보는 비디오 요약본일 수 있다. 보다 상세하게는, 제 1 입력 정보 및 제 2 입력 정보는 HD 카메라 및 열화상 카메라에 기초하여 영상 정보로서 획득될 수 있다. 다만, 모든 영상 정보를 출력 정보로 제공하는 경우라면 이상 여부에 대한 판단을 위해서는 많은 시간이 소요되는 바, 이에 대한 추출 정보를 제공할 필요성이 있다. 이를 위해, 머신 러닝을 통해 획득한 정보 중 이상 여부를 나타내는 정보만을 출력 대상 정보로 획득하고, 이를 비디오 요약본으로 제공할 수 있다.Next, the CMS may provide output information including information on the determined abnormality (S760). At this time, as described above with reference to FIGS. 1 to 4, the output information may be a video summary. In more detail, the first input information and the second input information may be obtained as image information based on the HD camera and the thermal image camera. However, if all the image information is provided as output information, it takes a lot of time to determine whether the abnormality, it is necessary to provide the extraction information. To this end, only information indicating whether abnormality is obtained from machine learning may be obtained as output target information, and the information may be provided as a video summary.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. Embodiments of the present invention described above may be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.For implementation in hardware, a method according to embodiments of the present invention may include one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), and Programmable Logic Devices (PLDs). It may be implemented by field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, a procedure, or a function that performs the functions or operations described above. The software code may be stored in a memory unit and driven by a processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various known means.

상술한 바와 같이 개시된 본 발명의 바람직한 실시형태에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시 형태를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 이상에서는 본 명세서의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 명세서의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.The detailed description of the preferred embodiments of the invention disclosed as described above is provided to enable any person skilled in the art to make and practice the invention. Although the above has been described with reference to the preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention without departing from the spirit and scope of the invention as set forth in the claims below. I can understand that you can. Thus, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, while the preferred embodiments of the present specification have been shown and described, the present specification is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present specification claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present specification.

그리고 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.In the present specification, both the object invention and the method invention are described, and the description of both inventions may be supplementarily applied as necessary.

100 : 파이프봇
110 : 파이프봇의 송수신부
120 : 파이프봇의 프로세서
130 : 파이프봇의 입력부
131 : 파이프봇의 HD 카메라
132 : 파이프봇의 열화상 카메라
200 : CMS
210 : 송수신부
220 : 프로세서
230 : 머신 러닝 학습부
100: Pipebot
110: transceiver of the pipebot
120: Pipebot's Processor
130: pipebot input unit
131: Pipebot HD Camera
132: PipeBot's Thermal Camera
200: CMS
210: transceiver
220: processor
230: machine learning learning unit

Claims (13)

이동식 무인 감시 시스템의 동작 방법에 있어서,
파이프봇이 제 1 오브젝트에 대한 제 1 입력 정보를 획득하는 단계;
상기 제 1 입력 정보를 CMS(Central Monitoring System)로 전송하는 단계;
상기 CMS가 상기 제 1 입력 정보에 기초하여 제 1 모델을 생성하는 단계;
상기 파이프봇이 상기 제 1 오브젝트에 대한 제 2 입력 정보를 획득하고, 상기 제 2 입력 정보를 상기 CMS로 전송하는 단계;
상기 CMS가 상기 제 1 모델과 상기 제 2 입력 정보를 비교하여 상기 제 1 오브젝트의 이상 여부를 판단하는 단계; 및
상기 판단된 이상 여부에 대한 정보를 포함하는 출력 정보를 제공하는 단계;를 포함하되,
상기 제 1 오브젝트에 대한 상기 제 1 입력 정보 및 상기 제 2 입력 정보는 실화상 이미지 정보 및 열화상 이미지 정보를 포함하고,
상기 제 1 모델은 상기 제 1 입력 정보에 기초한 학습데이터 세트를 머신 러닝 방식으로 학습시켜 생성되는 모델인, 이동식 무인 감시 시스템의 동작 방법.
In the operation method of the mobile unmanned surveillance system,
Obtaining, by the pipebot, first input information about the first object;
Transmitting the first input information to a central monitoring system (CMS);
Generating, by the CMS, a first model based on the first input information;
Obtaining, by the pipebot, second input information about the first object, and transmitting the second input information to the CMS;
Determining, by the CMS, whether the first object is abnormal by comparing the first model with the second input information; And
Providing output information including information on the determined abnormality;
The first input information and the second input information for the first object include real image image information and thermal image image information,
The first model is a model generated by learning a training data set based on the first input information by a machine learning method.
제 1 항에 있어서,
상기 제 1 입력 정보 및 상기 제 2 입력 정보는 위치 정보, 시간 정보, 오디오 정보, 전압 정보 및 전류 정보 중 적어도 어느 하나 이상을 더 포함하는, 이동식 무인 감시 시스템의 동작 방법.
The method of claim 1,
The first input information and the second input information further comprises at least one or more of position information, time information, audio information, voltage information and current information.
제 2 항에 있어서,
상기 제 1 입력 정보 및 제 2 입력 정보는 상기 제 1 오브젝트의 속성에 기초하여 결정되는, 이동식 무인 감시 시스템의 동작 방법.
The method of claim 2,
And the first input information and the second input information are determined based on attributes of the first object.
제 3 항에 있어서,
상기 제 1 오브젝트의 속성은 상기 제 1 오브젝트의 위치 정보, 크기 정보, 시간 정보 및 주변 환경 정보 중 적어도 어느 하나에 기초하여 결정되는, 이동식 무인 감시 시스템의 동작 방법.
The method of claim 3, wherein
The attribute of the first object is determined based on at least one of location information, size information, time information, and surrounding environment information of the first object.
제 3 항에 있어서,
상기 머신 러닝에 대한 분석 방법은 상기 제 1 오브젝트의 속성에 기초하여 결정되는, 이동식 무인 감시 시스템의 동작 방법.
The method of claim 3, wherein
The method of analyzing the machine learning is determined based on the attributes of the first object.
제 5 항에 있어서,
상기 CMS는 상기 제 1 입력 정보를 통해 상기 학습데이터 세트를 생성하고,
상기 생성된 학습데이터 세트를 통해 상기 제 1 모델을 생성하는, 이동식 무인 감시 시스템의 동작 방법.
The method of claim 5,
The CMS generates the learning data set through the first input information,
And generating the first model through the generated training data set.
제 6 항에 있어서,
상기 CMS는 상기 제 1 모델에서 상기 제 2 입력 정보에 대응되는 정보를 추출하고,
상기 추출된 정보와 상기 제 2 입력 정보를 비교하여 상기 제 1 오브젝트에 대한 이상 여부를 판단하는, 이동식 무인 감시 시스템의 동작 방법.
The method of claim 6,
The CMS extracts information corresponding to the second input information from the first model,
And comparing the extracted information with the second input information to determine whether there is an abnormality with respect to the first object.
제 7 항에 있어서,
상기 제 2 입력 정보는 실시간 입력 정보이고,
상기 제 1 모델은 상기 제 2 입력 정보를 획득할때마다, 학습을 통해 업데이트되는, 이동식 무인 감시 시스템의 동작 방법.
The method of claim 7, wherein
The second input information is real time input information,
And the first model is updated through learning every time the second input information is acquired.
제 5 항에 있어서,
상기 제 1 오브젝트의 속성에 대한 기준값이 기설정되어 있는 경우, 상기 제 1 모델은 머신 러닝의 지도 학습 분석 방법에 기초하여 수행되는, 이동식 무인 감시 시스템의 동작 방법.
The method of claim 5,
And when the reference value for the attribute of the first object is preset, the first model is performed based on a supervised learning analysis method of machine learning.
제 1 항에 있어서,
상기 제공되는 출력 정보는 상기 제 2 입력 정보 및 상기 제 1 모델에 기초하여 상기 제 1 오브젝트에 대한 이상이 검출된 정보로만 구성되는, 이동식 무인 감시 시스템의 동작 방법.
The method of claim 1,
And the output information provided is composed only of information on which an abnormality has been detected for the first object based on the second input information and the first model.
이동식 무인 감시 시스템에 있어서,
파이프봇; 및
CMS;를 포함하되,
상기 파이프봇이 제 1 오브젝트에 대한 제 1 입력 정보를 획득하고,
상기 제 1 입력 정보를 상기 CMS(Central Monitoring System)로 전송하고,
상기 CMS가 상기 제 1 입력 정보에 기초하여 제 1 모델을 생성하고,
상기 파이프봇이 상기 제 1 오브젝트에 대한 제 2 입력 정보를 획득하고, 상기 제 2 입력 정보를 상기 CMS로 전송하고,
상기 CMS가 상기 제 1 모델과 상기 제 2 입력 정보를 비교하여 상기 제 1 오브젝트의 이상 여부를 판단하고, 및
상기 판단된 이상 여부에 대한 정보를 포함하는 출력 정보를 제공하되,
상기 제 1 오브젝트에 대한 상기 제 1 입력 정보 및 상기 제 2 입력 정보는 실화상 이미지 정보 및 열화상 이미지 정보를 포함하고,
상기 제 1 모델은 상기 제 1 입력 정보에 기초한 학습데이터 세트를 머신 러닝 방식으로 학습시켜 생성되는 모델인, 이동식 무인 감시 시스템.
In the mobile unmanned surveillance system,
Pipebots; And
CMS;
The pipebot obtains first input information about a first object,
Transmitting the first input information to the central monitoring system (CMS),
The CMS generates a first model based on the first input information,
The pipebot obtains second input information about the first object, sends the second input information to the CMS,
The CMS compares the first model with the second input information to determine whether the first object is abnormal; and
Providing output information including information on the determined abnormality,
The first input information and the second input information for the first object include real image image information and thermal image image information,
And the first model is a model generated by learning a training data set based on the first input information in a machine learning manner.
제 11 항에 있어서,
상기 파이프봇은,
신호를 송수신하는 송수신부;
입력 정보를 획득하는 입력부; 및
상기 송수신부 및 상기 입력부를 제어하는 프로세서;를 포함하되,
상기 입력부는 HD(High Definition) 카메라 및 열화상 카메라를 포함하는, 이동식 무인 감시 시스템.
The method of claim 11,
The pipe bot,
Transmitting and receiving unit for transmitting and receiving a signal;
An input unit for obtaining input information; And
Includes; Processor for controlling the transceiver and the input unit,
And the input unit includes a high definition (HD) camera and a thermal imaging camera.
제 11 항에 있어서,
상기 CMS는,
신호를 송수신하는 송수신부;
상기 입력 데이터에 머신 러닝을 적용하는 머신 러닝 학습부; 및
상기 송수신부 및 상기 머신 러닝 학습부를 제어하는 프로세서를 포함하는, 이동식 무인 감시 시스템.
The method of claim 11,
The CMS,
Transmitting and receiving unit for transmitting and receiving a signal;
A machine learning learner applying machine learning to the input data; And
And a processor for controlling the transceiver and the machine learning unit.
KR1020180036399A 2018-03-29 2018-03-29 The Mobile Unmanned Monitoring System and Method KR20190114155A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180036399A KR20190114155A (en) 2018-03-29 2018-03-29 The Mobile Unmanned Monitoring System and Method
CN201810509264.8A CN110324569B (en) 2018-03-29 2018-05-24 Mobile automatic monitoring system and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180036399A KR20190114155A (en) 2018-03-29 2018-03-29 The Mobile Unmanned Monitoring System and Method

Publications (1)

Publication Number Publication Date
KR20190114155A true KR20190114155A (en) 2019-10-10

Family

ID=68112590

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180036399A KR20190114155A (en) 2018-03-29 2018-03-29 The Mobile Unmanned Monitoring System and Method

Country Status (2)

Country Link
KR (1) KR20190114155A (en)
CN (1) CN110324569B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210132995A (en) * 2020-04-28 2021-11-05 주식회사 비투코리아 System monitoring and removing the abnormality of an object and method thereof
WO2023180878A1 (en) * 2022-03-23 2023-09-28 Ricoh Company, Ltd. Control server, information processing system, traveling body, method for controlling traveling body, and recording medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111815496B (en) * 2020-06-11 2024-09-06 浙江华感科技有限公司 Correlation detection method, related equipment and device
US11868230B2 (en) 2022-03-11 2024-01-09 International Business Machines Corporation Automated unsupervised machine learning utilizing meta-learning
CN114993229B (en) * 2022-06-02 2024-06-11 西南石油大学 Ovality online detection method based on multi-sensor data fusion

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100570200C (en) * 2008-06-03 2009-12-16 东南大学 A kind of self-adapting pipe robot
CN205278673U (en) * 2015-12-31 2016-06-01 浙江理工大学 Bevel gear directly drives formula pipeline detection robot
JP6164709B1 (en) * 2016-05-30 2017-07-19 株式会社amuse oneself Structure inspection method
KR101765235B1 (en) * 2016-11-28 2017-08-04 한국건설기술연구원 FACILITY MAINTENANCE SYSTEM USING INTERNET OF THINGS (IoT) BASED SENSOR AND UNMANNED AIR VEHICLE (UAV), AND METHOD FOR THE SAME
CN106597377A (en) * 2016-12-15 2017-04-26 北京科创三思科技发展有限公司 Infrasonic wave in-pipe robot quick positioning system and infrasonic wave in-pipe robot quick positioning method
KR101772916B1 (en) * 2016-12-30 2017-08-31 한양대학교 에리카산학협력단 Device for measuring crack width of concretestructure
CN107270029A (en) * 2017-07-19 2017-10-20 广州市欧树环保科技有限公司 A kind of pipe robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210132995A (en) * 2020-04-28 2021-11-05 주식회사 비투코리아 System monitoring and removing the abnormality of an object and method thereof
WO2023180878A1 (en) * 2022-03-23 2023-09-28 Ricoh Company, Ltd. Control server, information processing system, traveling body, method for controlling traveling body, and recording medium

Also Published As

Publication number Publication date
CN110324569A (en) 2019-10-11
CN110324569B (en) 2021-03-30

Similar Documents

Publication Publication Date Title
KR20190114155A (en) The Mobile Unmanned Monitoring System and Method
CN104333736B (en) Unmanned substation's intelligent recognition monitoring system and method
US20200160207A1 (en) Automated model update based on model deterioration
US11729597B2 (en) Digital twin disaster management system customized for underground public areas
Zhou et al. Computer vision enabled building digital twin using building information model
CN101867789A (en) Method and apparatus for monitoring using a movable video device
CN112669316A (en) Power production abnormity monitoring method and device, computer equipment and storage medium
CN117674140B (en) Power distribution network measurement and control system and method
CN110427882A (en) For the intelligent analysis method of tour, device, equipment and its storage medium
US11277526B2 (en) Distributed sensing and video capture system and apparatus
CN102169017A (en) Online monitoring system for infrared thermal imaging of converting station
KR102319083B1 (en) Artificial intelligence based fire prevention device and method
US20200104779A1 (en) Non-intrusive workflow assessment (niwa) for manufacturing optimization
CN103944264A (en) Power distribution terminal intelligent monitoring device and method
Jiang et al. Research on infrared image recognition method of power equipment based on deep learning
US20210397837A1 (en) Apparatus for monitoring a switchgear
CN117671814B (en) AIoT technology-based space visual night patrol method and system
CN115248873A (en) Cable tunnel safety monitoring method and system based on data fusion
CN111885349B (en) Pipe gallery abnormality detection system and method
CN113538513A (en) Method, device and equipment for controlling access of monitored object and storage medium
KR101499456B1 (en) Facility anomaly detection System and Method using image
KR20160093253A (en) Video based abnormal flow detection method and system
KR102257875B1 (en) Providing method, apparatus and computer-readable medium of remote measurement and integrated management of environmental information in pipes
KR20200093275A (en) System, apparatus and method for detecting disaster of target area using edge computing
KR20200039970A (en) System and method for transmission of power time series data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application