KR102369229B1 - Risk prediction system and risk prediction method based on a rail robot specialized in an underground tunnel - Google Patents

Risk prediction system and risk prediction method based on a rail robot specialized in an underground tunnel Download PDF

Info

Publication number
KR102369229B1
KR102369229B1 KR1020210123930A KR20210123930A KR102369229B1 KR 102369229 B1 KR102369229 B1 KR 102369229B1 KR 1020210123930 A KR1020210123930 A KR 1020210123930A KR 20210123930 A KR20210123930 A KR 20210123930A KR 102369229 B1 KR102369229 B1 KR 102369229B1
Authority
KR
South Korea
Prior art keywords
image
rail robot
learning
robot
rail
Prior art date
Application number
KR1020210123930A
Other languages
Korean (ko)
Inventor
조영중
고현준
김광현
장민기
김성기
백지완
Original Assignee
주식회사 시티랩스
주식회사 넥스트케이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 시티랩스, 주식회사 넥스트케이 filed Critical 주식회사 시티랩스
Priority to KR1020210123930A priority Critical patent/KR102369229B1/en
Application granted granted Critical
Publication of KR102369229B1 publication Critical patent/KR102369229B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/02Manipulators mounted on wheels or on carriages travelling along a guideway
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/10Actuation by presence of smoke or gases, e.g. automatic alarm devices for analysing flowing fluid materials by the use of optical means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Robotics (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Development Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Emergency Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Fuzzy Systems (AREA)
  • Computational Linguistics (AREA)
  • Educational Administration (AREA)
  • Analytical Chemistry (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a risk prediction system and a risk prediction method based on a rail robot specialized in an underground tunnel. According to the present invention, artificial intelligence-based analysis is performed with image data taken by a CCTV in an underground tunnel and taken by a rail robot and sensor data collected by various environmental sensors installed on the rail robot. As a result, it is possible to provide real-time risk prediction and early response safety management service by checking whether an entering person is authorized, detecting a falling worker, detecting facility water leakage, performing flame and smoke detection, and detecting another abnormal situation. According to the present invention, based on the image and sensor information of the CCTV in the underground tunnel and the rail robot, an optimal artificial intelligence deep learning algorithm is applied and AI data learning is performed. As a result, high-accuracy risk prediction and early response safety management services can be provided. In addition, it is possible to enhance security and minimize human damage by automatically identifying authorized and unauthorized persons related to the underground tunnel and building a monitoring system capable of immediate detection and response in the event of an abnormal situation such as falling.

Description

지하공동구 특화 레일로봇 기반 위험예측시스템 및 위험예측방법{RISK PREDICTION SYSTEM AND RISK PREDICTION METHOD BASED ON A RAIL ROBOT SPECIALIZED IN AN UNDERGROUND TUNNEL}Risk prediction system and risk prediction method based on rail robot specialized in underground tunnel

본 발명은 영상 및 각종 센서데이터를 인공지능으로 분석하여 지하공동구 내의 위험을 예측하고 안전관리 업무를 지원할 수 있도록 하는 지하공동구 특화 레일로봇 기반 위험예측시스템 및 위험예측방법에 관한 것이다.The present invention relates to a risk prediction system and risk prediction method based on a rail robot specialized in an underground tunnel that can predict risks in an underground tunnel and support safety management work by analyzing images and various sensor data with artificial intelligence.

지하공동구는 전력, 통신, 수도, 난방 등 기반시설을 도시의 지하에 공동으로 설치하여 운영하는 국가중요시설 및 국가보안시설이며 지하공동구 재난사고 발생 시 전력·통신·금융·주거 등 사회적 기능 마비는 물론 막대한 재산피해가 발생한다.The underground tunnel is a national important facility and national security facility that jointly installs and operates infrastructure such as electric power, communication, water supply, and heating underground in the city. Of course, huge property damage occurs.

전기와 통신, 가스, 수도, 하수관 등 생활에 필요한 지하매설물이 잔뜩 깔려있는 지하 시설인 공동구는 근무자가 매일 2인 1조 순찰을 기본으로 운영되고 있다. 그러나 공동구 내에서 발생하는 설비고장 또는 화재 등을 모니터링 할 수 있는 시스템을 갖추고 있지 못하며, 공동구 내의 안전사고와 관련된 정보 및 상황을 정확하게 파악하기 위해서는 순찰 인력 또는 업무 담당자가 직접 현장으로 이동하여 육안으로 확인해야 하고, 수 km 이상 길이의 터널이 미로처럼 연결돼 재난이 발생해도 위치를 빠르게 파악하기 어려울 뿐만 아니라, 소방관 진입도 어려워 사고가 발생하면 많은 피해가 발생한다.Gonggu, an underground facility with a lot of underground facilities necessary for daily life, such as electricity, communication, gas, water supply, and sewage pipes, is operated on the basis of daily patrols by two people in one group. However, there is no system in place to monitor equipment failures or fires occurring in the common area, and in order to accurately grasp information and circumstances related to safety accidents in the common area, patrol personnel or business personnel directly go to the site and check with the naked eye. Since tunnels of several kilometers or more are connected like a maze, it is difficult to quickly determine the location even if a disaster occurs, and it is difficult for firefighters to enter, resulting in a lot of damage when an accident occurs.

종래의 현장의 업무특성에 따라 노동집약적 육안점검에 의한 관리방법에서 인공지능을 통해 수집한 영상데이터 등을 활용하여 시스템 중심의 과학적 관리체계로 전환이 필요하며, 증대되는 안전 수요에 대한 선제적 대응을 위해 인공지능위험예측 서비스를 통해 재난 위험요인을 사전에 제거하여 안전 관리 체계를 사전예방체계로 전환해야 할 필요가 있다.According to the nature of work in the field, it is necessary to switch from the labor-intensive visual inspection management method to a system-oriented scientific management system using image data collected through artificial intelligence, and to respond preemptively to the increasing safety demand. For this purpose, it is necessary to convert the safety management system to a preventive system by removing disaster risk factors in advance through the artificial intelligence risk prediction service.

등록특허 제10-2219809호Registered Patent No. 10-2219809

본 발명은 지하공동구 내의 CCTV가 촬영하는 영상데이터와 레일로봇에 설치된 각종 환경센서가 수집하는 센서데이터 및 레일로봇이 촬영하는 영상데이터를 인공지능으로 분석하여 출입자 인가 여부 확인, 작업자의 쓰러짐 검출, 시설물 누수검출, 불꽃 및 연기검출 및 기타 이상상황감지를 통해 실시간 위험예측 및 조기대응 안전관리 서비스를 제공할 수 있는 지하공동구 특화 레일로봇 기반 위험예측시스템 및 위험예측방법을 제공하는 것을 목적으로 한다. The present invention analyzes the image data captured by CCTV in the underground tunnel, the sensor data collected by various environmental sensors installed in the rail robot, and the image data photographed by the rail robot with artificial intelligence to confirm whether an occupant is authorized, detect a worker's collapse, and facilities The purpose of this is to provide a rail robot-based risk prediction system and risk prediction method specialized in underground tunnels that can provide real-time risk prediction and early response safety management services through leak detection, flame and smoke detection, and other abnormal situation detection.

상기 과제를 해결하기 위하여, 지하공동구에 설치된 고정형 감시카메라가 송출하는 영상과 지하공동구의 레일을 따라 이동하는 레일로봇이 송출하는 영상 및 환경센서 데이터를 딥러닝 기반의 학습모델로 분석하여 위치별, 시설별, 환경정보별 정확도 높은 위험예측정보를 실시간으로 제공하는 지하공동구 특화 레일로봇 기반 위험예측시스템이 제공된다.In order to solve the above problem, the image transmitted by the fixed surveillance camera installed in the underground tunnel and the image and environmental sensor data transmitted by the rail robot moving along the rail of the underground tunnel are analyzed with a deep learning-based learning model, A rail robot-based risk prediction system specializing in underground tunnels that provides high-accuracy risk prediction information for each facility and environment information in real time is provided.

지하공동구 특화 레일로봇 기반 위험예측시스템은, 지하공동구에 설치된 레일을 따라 이동하며 카메라와 복수 개의 환경센서가 설치된 레일로봇; 지하공동구에 설치된 고정형 감시카메라; 상기 레일로봇과 고정형 감시카메라가 촬영하여 전송한 영상 이미지를 수신하여 실시간으로 전송하는 영상수집부; 상기 영상수집부가 전송한 영상 이미지를 디코딩 및 전처리 하는 영상처리부; 상기 레일로봇이 측정하여 전송한 복수 개의 센서 데이터와 측정 위치정보를 수신하여 실시간으로 전송하고, 레일로봇을 제어하는 로봇제어부; 상기 영상처리부가 전처리 한 영상 이미지와 로봇제어부가 전송한 복수 개의 센서 데이터를 데이터베이스에 저장하고, 딥러닝 기반의 학습엔진으로 학습하는 공동구데이터학습부; 상기 영상수집부가 전송한 영상 이미지와 로봇제어부가 전송한 센서 데이터를 상기 공동구데이터학습부가 학습한 딥러닝 기반의 학습엔진에 적용하여 출입자의 인가 여부와 작업자 및 시설물의 위험상황을 실시간으로 진단하는 공동구상황진단부; 및 상기 공동구상황진단부의 진단 내용을 토대로 출입자 인가 여부와 지하공동구의 위험상황을 파악하고 실시간으로 표출하는 공동구상황제공부를 포함한다.The rail robot-based risk prediction system specialized in the underground tunnel includes: a rail robot that moves along the rail installed in the underground tunnel and is equipped with a camera and a plurality of environmental sensors; Fixed surveillance cameras installed in the underground tunnels; an image collecting unit for receiving and transmitting the video image captured by the rail robot and the fixed surveillance camera in real time; an image processing unit for decoding and pre-processing the image image transmitted by the image collection unit; a robot control unit that receives and transmits a plurality of sensor data and measurement location information measured and transmitted by the rail robot in real time, and controls the rail robot; a joint data learning unit that stores the image image pre-processed by the image processing unit and a plurality of sensor data transmitted by the robot control unit in a database, and learns with a deep learning-based learning engine; Common area for diagnosing in real time whether or not entrants and workers and facilities are dangerous by applying the image image transmitted by the image collection unit and the sensor data transmitted by the robot control unit to the deep learning-based learning engine learned by the common area data learning unit situation diagnosis department; And based on the diagnosis of the common area situation diagnosis unit, it includes a common area situation providing unit that identifies whether access is authorized and the dangerous situation of the underground common area and displays it in real time.

구체적으로, 상기 공동구데이터학습부는 영상 이미지에서 객체까지의 거리 측정, 검출된 객체의 크기, 폭, 넓이를 추정하여 객체를 검출하는 객체검출모듈; 검출된 객체의 궤적을 예측하여 객체를 추적하는 객체추적모듈; 추적된 객체의 검출, 쓰러짐을 검출하는 이상이벤트검출모듈; 및 상기 객체추적모듈이 추적한 객체에 부착된 아루코 마커를 인식하여 인가자 및 비인가자 여부를 판단하는 마커검출모듈로 구성되는 딥러닝 기반의 객체 검출 및 추적 학습엔진을 포함하도록 구성될 수 있다.Specifically, the cavity data learning unit includes: an object detection module for detecting an object by measuring a distance from an image image to an object and estimating the size, width, and width of the detected object; an object tracking module that tracks the object by predicting the trajectory of the detected object; an abnormal event detection module for detecting the tracked object and detecting the collapse; and a deep learning-based object detection and tracking learning engine comprising a marker detection module that recognizes an Aruko marker attached to an object tracked by the object tracking module and determines whether an authorized person or a non-authorized person. .

상기 공동구데이터학습부는 영상 이미지에서 누수를 검출하기 위해 인공지능 기반의 이미지 세그멘테이션 컨볼루션 신경망(DeepLab V3+) 또는 Mask R-CNN을 사용하도록 구성될 수 있다.The cavity data learning unit may be configured to use an artificial intelligence-based image segmentation convolutional neural network (DeepLab V3+) or Mask R-CNN to detect a leak in an image image.

상기 영상처리부는 레일로봇에서 수신되는 영상 프레임을 디코딩 후 딥러닝 기반의 특징맵 추출엔진을 이용하여 각 프레임 이미지에서 특징점을 추출하고, 각 프레임 이미지의 특징점들 중 같은 특징점을 매칭하고 매칭된 특징점의 이동성을 계산하여 이동 방향 반대 방향 및 크기 만큼 특징점을 이동하는 영상 흔들림 보정모듈을 포함하도록 구성될 수 있다.The image processing unit decodes the image frame received from the rail robot, extracts feature points from each frame image using a deep learning-based feature map extraction engine, matches the same feature points among feature points of each frame image, and It may be configured to include an image shake correction module that calculates mobility and moves the feature point in a direction opposite to the movement direction and by a size.

상기 레일로봇은 순찰 중 출입자를 검출하면, 상기 로봇제어부의 제어를 통해 출입자의 얼굴인식이 가능한 일정 거리 이내로 이동한 후 정지상태에서 출입자의 얼굴을 촬영한 영상을 실시간으로 전송하고, 상기 공동구상황진단부는 레일로봇이 정지상태에서 촬영한 출입자의 얼굴 이미지를 딥러닝 기반의 학습엔진에 적용하여 출입자의 인가 여부를 확인한 후 상기 로봇제어부를 통해 레일로봇이 다시 순찰을 진행하도록 구성할 수 있다.When the rail robot detects an occupant during patrol, the rail robot moves within a certain distance capable of recognizing the occupant's face through the control of the robot controller, and then transmits an image of the occupant's face in a stationary state in real time, diagnosing the joint sphere situation The unit can be configured so that the rail robot patrols again through the robot controller after confirming whether the person is authorized by applying the face image of the person who is photographed in the stationary state of the rail robot to a deep learning-based learning engine.

여기서, 상기 공동구데이터학습부는 딥러닝 기반의 객체 검출 및 추적 학습엔진을 이용하여 레일로봇이 촬영한 실시간 영상 이미지에서 출입자를 검출하고, 검출된 출입자까지의 거리를 측정하여 출입자의 얼굴인식이 가능한 일정 거리 이내로 레일로봇이 이동하도록 상기 로봇제어부를 통해 제어하고, 얼굴인식이 가능한 일정 거리 이내에서 레일로봇이 전송하는 출입자의 실시간 이미지를 딥러닝 기반의 얼굴 검출 및 인식 학습엔진에 적용하여 출입자의 얼굴을 검출 및 인식하여 출입자 인가 여부를 확인하도록 구성할 수 있다.Here, the communal data learning unit uses a deep learning-based object detection and tracking learning engine to detect an occupant from a real-time video image taken by the rail robot, and measure the distance to the detected entrant so that the face recognition of the entrant is possible. The robot control unit controls the rail robot to move within a distance, and the real-time image of the person transmitted by the rail robot is applied to the deep learning-based face detection and recognition learning engine within a certain distance where face recognition is possible to detect the person's face. It can be configured to detect and recognize whether or not an occupant is authorized.

상기 공동구데이터학습부는 지하공동구 구역별로 수집된 복수 개의 센서 데이터를 One-Class SVM 기반의 센서 위험예측 학습엔진에 적용하여 지하공동구의 환경 위험상황을 학습하거나, LSTM(Long Short-term Memory) 기반의 센서 위험예측 학습엔진에 적용하여 지하공동구의 환경 위험상황을 학습하도록 구성할 수 있다.The common tunnel data learning unit applies a plurality of sensor data collected for each underground tunnel area to the One-Class SVM-based sensor risk prediction learning engine to learn the environmental risk situation of the underground tunnel, or LSTM (Long Short-term Memory)-based It can be configured to learn the environmental risk situation of the underground tunnel by applying it to the sensor risk prediction learning engine.

한편, 과제를 해결하기 위하여 지하공동구 특화 레일로봇 기반 위험예측방법은, 지하공동구에 설치된 레일을 따라 이동하며 카메라와 복수 개의 환경센서가 설치된 레일로봇이 영상을 촬영하고, 복수 개의 센서 데이터를 측정하여 실시간으로 전송하는 단계; 지하공동구에 설치된 고정형 감시카메라가 영상을 촬영하여 실시간으로 전송하는 단계; 레일로봇에서 수신되는 영상 이미지를 딥러닝 기반의 특징맵 추출엔진을 이용하여 실시간 영상 흔들림을 보정하는 단계; 레일로봇과 고정형 감시카메라가 전송한 영상 이미지와 로봇제어부가 전송한 복수 개의 센서 데이터를 데이터베이스에 저장하고, 딥러닝 기반의 학습엔진으로 학습하는 단계; 레일로봇과 고정형 감시카메라가 전송한 영상 이미지와 레일로봇이 전송한 센서 데이터를 딥러닝 기반의 학습엔진에 적용하여 출입자의 인가 여부와 작업자 및 시설물의 위험상황을 실시간으로 진단하는 단계; 및 진단 내용을 토대로 출입자 인가 여부와 지하공동구의 위험상황을 파악하고 실시간으로 표출하는 단계를 포함한다.On the other hand, in order to solve the problem, the rail robot-based risk prediction method specialized in the underground tunnel moves along the rail installed in the underground tunnel, and the rail robot installed with a camera and a plurality of environmental sensors shoots an image, and measures a plurality of sensor data. transmitting in real time; A fixed-type surveillance camera installed in the underground communal area capturing an image and transmitting the image in real time; Compensating the video image received from the rail robot in real time using a deep learning-based feature map extraction engine; Storing the video image transmitted by the rail robot and the fixed surveillance camera and the plurality of sensor data transmitted by the robot controller in a database, and learning with a deep learning-based learning engine; A step of diagnosing in real time whether a person is authorized or not and a dangerous situation of workers and facilities by applying the video image transmitted by the rail robot and the fixed surveillance camera and the sensor data transmitted by the rail robot to a deep learning-based learning engine; And based on the diagnosis, it includes the step of identifying whether or not access is authorized and the dangerous situation of the underground common area, and displaying it in real time.

상기 레일로봇이 영상을 촬영하여 실시간으로 전송하는 단계는, 레일로봇은 순찰 중 출입자를 검출하면, 서버의 제어를 통해 출입자의 얼굴인식이 가능한 일정 거리 이내로 이동한 후 정지상태에서 출입자의 얼굴을 촬영한 영상을 실시간으로 전송하고, 상기 진단하는 단계는, 레일로봇이 정지상태에서 촬영한 출입자의 얼굴 이미지를 딥러닝 기반의 학습엔진에 적용하여 출입자의 인가 여부를 확인한 후 레일로봇이 다시 순찰을 진행하도록 구성할 수 있다.In the step of the rail robot taking an image and transmitting it in real time, when the rail robot detects an entrant during patrol, it moves within a certain distance where the entrant's face recognition is possible through the control of the server, and then shoots the entrant's face in a stationary state In the step of transmitting an image in real time and diagnosing, the rail robot patrols again after checking whether the person is authorized by applying the face image of the person who is photographed in the stationary state to a deep learning-based learning engine. can be configured to do so.

구체적으로, 상기 학습하는 단계는, 딥러닝 기반의 객체 검출 및 추적 학습엔진을 이용하여 레일로봇이 촬영한 실시간 영상 이미지에서 출입자를 검출하고, 검출된 출입자까지의 거리를 측정하여 출입자의 얼굴인식이 가능한 일정 거리 이내로 레일로봇이 이동하도록 제어하고, 상기 진단하는 단계는, 얼굴인식이 가능한 일정 거리 이내에서 레일로봇이 전송하는 출입자의 실시간 이미지를 딥러닝 기반의 얼굴 검출 및 인식 학습엔진에 적용하여 출입자의 얼굴을 검출 및 인식하여 출입자 인가 여부를 확인하도록 구성할 수 있다.Specifically, in the learning step, a person's face recognition is performed by detecting an occupant from a real-time video image taken by the rail robot using a deep learning-based object detection and tracking learning engine, and measuring the distance to the detected entrant. Controlling the rail robot to move within a predetermined distance as possible, and diagnosing includes applying a real-time image of an occupant transmitted by the rail robot to a deep learning-based face detection and recognition learning engine within a certain distance where face recognition is possible. It can be configured to detect and recognize the face of the person and confirm whether the person is an entrant or not.

본 발명에 따른 지하공동구 특화 레일로봇 기반 위험예측시스템 및 위험예측방법에 의하면, 지하공동구 내부의 위험예측(화재, 누수, 안전사고, 보행자 쓰러짐), 비인가자 출입여부 확인 등과 같은 지하공동구 순찰업무와 시설물 모니터링을 레일로봇과 인공지능 기술을 이용하여 해결함으로써 지하공동구 시설관리 전문 인력 부족의 문제를 해결할 수 있고, 작업자가 수행하기 힘든 업무를 대체하거나 보완이 가능하여 작업자의 안전성을 확보할 수 있고 위험시설에 대한 실시간 모니터링 및 신속한 대응이 가능하다.According to the risk prediction system and risk prediction method based on the rail robot specialized in the underground tunnel according to the present invention, it is possible to predict the risks inside the underground tunnel (fire, water leakage, safety accident, pedestrian collapse), and to patrol the underground tunnel, such as checking whether unauthorized persons enter or not. By resolving facility monitoring using rail robots and artificial intelligence technology, it is possible to solve the problem of shortage of professional manpower for facility management in the underground tunnel, and it is possible to replace or supplement tasks that are difficult for workers to perform, thereby ensuring worker safety and risk Real-time monitoring of facilities and rapid response are possible.

본 발명에 의하면, 지하공동구 인가자/비인가자를 자동으로 식별하고, 쓰러짐 등의 이상 상황 발생 시 즉시 감지·대응 가능한 모니터링 체계를 구축하여 보안을 강화하고, 인명피해를 최소화 할 수 있다.According to the present invention, it is possible to strengthen security and minimize human casualties by automatically identifying authorized/non-authorized underground tunnels, and building a monitoring system that can detect and respond immediately when an abnormal situation such as a collapse occurs.

도 1은 본 발명에 따른 지하공동구 특화 레일로봇 기반 위험예측시스템 구성도이다.
도 2는 인공지능 분석 서버에 포함되는 영상처리부의 두 가지 기능도이다.
도 3은 영상처리부에 포함되는 영상흔들림보정모듈의 작업 순서도이다.
도 4는 인공지능 분석 서버에 포함되는 딥러닝 기반의 학습엔진을 구성하는 다양한 학습엔진의 기능도이다.
도 5는 객체 검출 및 추적 학습엔진의 구체적인 기능도이다.
도 6은 딥러닝 기반의 학습엔진이 영상을 분류하고 영상을 이미지로 변환 후 어노테이션 과정을 통해 학습데이터로 가공하는 과정을 나타내는 예시도이다.
도 7은 고정형 감시카메라와 레일로봇으로 촬영한 출입자의 안면 영상을 딥러닝 기반의 얼굴 검출 및 인식 학습엔진에 적용하여 인가자 여부를 판단하는 시스템 화면을 나타낸 예시도이다.
도 8은 레일로봇으로 촬영한 지하공동구 보행자의 영상을 객체 검출 및 추적 학습엔진에 적용하여 보행자를 검출 및 추적하고, 보행자에 부착된 아루코 마커(Aruco marker)를 인식하여 인가자 여부를 판단하는 시스템 화면을 나타낸 예시도이다.
도 9는 레일로봇이 지하공동구를 순찰 중에 출입자를 발견한 경우 출입자의 얼굴을 인증하는 시나리오를 나타낸 예시도이다.
도 10은 레일로봇으로 촬영한 지하공동구 영상을 객체 검출 및 추적 학습엔진에 적용하여 다양한 종류의 이상이벤트를 검출하는 시스템 화면을 나타낸 예시도이다.
도 11은 레일로봇으로 촬영한 지하공동구의 누수 영상을 누수 검출 학습엔진에 적용하여 누수 영역을 검출하는 과정을 나타낸 흐름도이다.
도 12는 레일로봇이 지하공동구 구역별로 측정한 환경 센서 데이터를 센서 위험예측 학습엔진에 적용하여 지하공동구의 환경 위험상황을 진단하는 과정을 나타낸 예시도이다.
도 13은 본 발명에 따른 지하공동구 특화 레일로봇 기반 위험예측방법이 수행되는 과정을 나타낸 순서도이다.
1 is a configuration diagram of a risk prediction system based on a rail robot specialized in an underground tunnel according to the present invention.
2 is two functional diagrams of an image processing unit included in an artificial intelligence analysis server.
3 is a flowchart of an image shake correction module included in the image processing unit.
4 is a functional diagram of various learning engines constituting a deep learning-based learning engine included in an artificial intelligence analysis server.
5 is a detailed functional diagram of an object detection and tracking learning engine.
6 is an exemplary diagram illustrating a process in which a deep learning-based learning engine classifies an image, converts an image into an image, and then processes the image into learning data through an annotation process.
7 is an exemplary diagram illustrating a system screen for determining whether a person is authorized by applying a facial image of an occupant taken with a fixed surveillance camera and a rail robot to a deep learning-based face detection and recognition learning engine.
8 is a method for detecting and tracking pedestrians by applying the image of pedestrians in the underground tunnel taken with a rail robot to an object detection and tracking learning engine, and recognizing Aruco markers attached to pedestrians to determine whether an authorized person is It is an example diagram showing the system screen.
9 is an exemplary diagram illustrating a scenario in which the rail robot authenticates the face of an entrant when the rail robot detects an entrant while patrolling the underground common area.
10 is an exemplary diagram illustrating a system screen for detecting various types of abnormal events by applying an underground tunnel image taken with a rail robot to an object detection and tracking learning engine.
11 is a flowchart illustrating a process of detecting a leak area by applying a leak image of an underground tunnel taken with a rail robot to a leak detection learning engine.
12 is an exemplary diagram illustrating a process of diagnosing an environmental risk situation of a rail robot by applying environmental sensor data measured for each underground tunnel area to a sensor risk prediction learning engine.
13 is a flowchart showing a process in which the underground tunnel specialized rail robot-based risk prediction method according to the present invention is performed.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시 예를 참조하면 명확해질 것이다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.

그러나, 본 발명은 이하에서 개시되는 실시 예로 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이다.However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms.

본 명세서에서 본 실시 예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.In the present specification, the present embodiment is provided so that the disclosure of the present invention is complete, and to completely inform those of ordinary skill in the art to which the present invention belongs, the scope of the invention.

그리고 본 발명은 청구항의 범주에 의해 정의될 뿐이다.And the invention is only defined by the scope of the claims.

따라서, 몇몇 실시 예에서, 잘 알려진 구성 요소, 잘 알려진 동작 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다.Accordingly, in some embodiments, well-known components, well-known operations, and well-known techniques have not been specifically described to avoid obscuring the present invention.

또한, 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하고, 본 명세서에서 사용된(언급된) 용어들은 실시 예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.In addition, the same reference numerals refer to the same elements throughout the specification, and the terms used (referred to) in this specification are for the purpose of describing the embodiments, and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함하며, '포함(또는, 구비)한다'로 언급된 구성 요소 및 동작은 하나 이상의 다른 구성요소 및 동작의 존재 또는 추가를 배제하지 않는다.In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase, and elements and operations referred to as 'comprising (or having)' do not exclude the presence or addition of one or more other elements and operations. .

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs.

또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.In addition, terms defined in a commonly used dictionary are not ideally or excessively interpreted unless they are defined.

이하, 첨부된 도면을 참고로 본 발명의 바람직한 실시 예에 대하여 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

도 1을 참고하면, 본 발명에 따른 지하공동구 특화 레일로봇 기반 위험예측시스템은 레일로봇(100), 감시카메라(200), 영상수집부(300), 로봇제어부(400), 인공지능 분석 서버(500)를 포함하여 구성된다. 인공지능 분석 서버(500)는 영상처리부(510), 딥러닝 기반의 학습엔진(530)을 탑재한 공동구데이터학습부(520), 공동구상황진단부(590) 및 공동구상황제공부(600)를 포함한다.Referring to Figure 1, the rail robot-based risk prediction system specialized in the underground tunnel according to the present invention is a rail robot 100, a surveillance camera 200, an image collection unit 300, a robot control unit 400, an artificial intelligence analysis server ( 500) is included. The artificial intelligence analysis server 500 includes an image processing unit 510, a common ball data learning unit 520 equipped with a deep learning-based learning engine 530, a common ball situation diagnosis unit 590, and a common ball situation providing unit 600. include

복수 개의 레일로봇(100)이 지하공동구에 설치된 레일을 따라 이동하면서 현장 상황을 자동으로 탐지한다. 레일로봇(100)의 전력은 레일로부터 공급받고, 데이터 송수신은 전력선통신(PLC)을 이용하거나 무선으로도 가능하다. 레일로봇(100)에는 카메라와 환경 데이터 측정을 위한 다양한 센서가 구비된다. 여기서 환경 데이터 측정을 위한 다양한 센서는 온도, 습도, 산소, 일산화탄소, 이산화탄소, 이산화질소, 황화수소, VOC(휘발성 유기화합물), 미세먼지 등이 해당된다. 지하공동구에는 여러 대의 레일로봇(100)이 순찰하기 때문에 각 레일로봇(100)은 서로 망을 구성하여 통신을 수행할 수 있다. A plurality of rail robots 100 automatically detect the on-site situation while moving along the rail installed in the underground tunnel. Power of the rail robot 100 is supplied from the rail, and data transmission and reception is possible using power line communication (PLC) or wirelessly. The rail robot 100 is provided with a camera and various sensors for measuring environmental data. Here, various sensors for measuring environmental data include temperature, humidity, oxygen, carbon monoxide, carbon dioxide, nitrogen dioxide, hydrogen sulfide, VOC (volatile organic compounds), and fine dust. Since several rail robots 100 patrol the underground tunnel, each rail robot 100 can communicate with each other by forming a network.

고정형 감시카메라(CCTV, 200)는 지하공동구의 출입구와 중요 시설물이 있는 현장에 설치된다. 고정형 감시카메라(200)와 레일로봇(100)에 장착된 카메라는 출입자 검출, 쓰러짐 검지, 화재/연기 검출, 누수 등 다양한 영상을 촬영하여 송출한다.A fixed surveillance camera (CCTV, 200) is installed at the entrance of the underground common area and at the site where important facilities are located. The fixed surveillance camera 200 and the camera mounted on the rail robot 100 shoot and transmit various images such as occupant detection, fall detection, fire/smoke detection, and water leakage.

영상수집부(300)는 레일로봇(100)과 고정형 감시카메라(200)가 촬영하여 전송한 영상 이미지를 수신하여 인공지능 분석 서버(500)에 실시간으로 전송한다. 영상수집부(300)는 NVR(Network Video Recorder)을 사용하며 다수의 카메라에서 전송되는 영상으로 실시간 관제와 저장 및 관리기능을 가지고 있다.The image collection unit 300 receives the video image captured by the rail robot 100 and the fixed surveillance camera 200 and transmitted to the artificial intelligence analysis server 500 in real time. The image collection unit 300 uses a network video recorder (NVR) and has real-time control, storage and management functions with images transmitted from a plurality of cameras.

로봇제어부(400)는 레일로봇(100)이 측정하여 전송한 복수 개의 센서 데이터와 측정 위치정보를 수신하여 인공지능 분석 서버(500)에 실시간으로 전송하고, 레일로봇(100)을 제어한다. 센서를 이용하여 측정한 환경 데이터와 해당 환경 데이터가 측정된 위치 정보를 같이 전송하여 서버에서 확인이 가능하게 한다. 로봇제어부(400)는 레일로봇(100)에서 데이터를 수신하여 서버(500)에 전송하는 것 뿐만 아니라 서버(500)로부터 제어정보를 수신하여 각 레일로봇(100)의 움직임을 제어할 수도 있다.The robot control unit 400 receives a plurality of sensor data and measurement location information measured and transmitted by the rail robot 100 and transmits it to the artificial intelligence analysis server 500 in real time, and controls the rail robot 100 . The environmental data measured using the sensor and the location information where the corresponding environmental data was measured are transmitted together to enable confirmation on the server. The robot control unit 400 may receive data from the rail robot 100 and transmit it to the server 500 as well as receive control information from the server 500 to control the movement of each rail robot 100 .

영상처리부(510)는 영상수집부(300)가 전송한 영상 이미지를 수신하여 디코딩 및 전처리하는 기능을 수행한다. 도 2를 참고하면, 영상처리부(510)는 영상 이미지의 일반적인 가공 및 전처리를 수행하는 영상처리부(510a)와 본 발명의 특화된 기능인 실시간 영상 흔들림 보정을 통해 이미지 안정화 기능을 수행하는 영상처리부(510b)의 두 가지를 가지고 있다. 레일로봇(100)에서 수신되는 영상 이미지는 이미지 안정화 기능을 포함하는 영상처리부(510b)에서 전처리하는 것이 바람직할 것이다.The image processing unit 510 receives, decodes, and pre-processes the image transmitted by the image collection unit 300 . Referring to FIG. 2 , the image processing unit 510 includes an image processing unit 510a that performs general processing and pre-processing of a video image, and an image processing unit 510b that performs an image stabilization function through real-time image shake correction, which is a specialized function of the present invention. has two of It is preferable that the image image received from the rail robot 100 be pre-processed by the image processing unit 510b including the image stabilization function.

영상처리부(510a)는 레일로봇(100)과 감시카메라(200)가 송출하는 영상 이미지를 수신하는 영상수신모듈(511)과 디코딩을 수행하는 영상디코딩모듈(512) 그리고 전처리를 수행하는 영상전처리모듈(513)로 구성된다. 실시간 영상 흔들림 보정을 통해 이미지 안정화 기능을 수행하는 영상처리부(510b)는 영상수신모듈(511)과 영상디코딩모듈(512)을 동일하게 포함하며, 전처리 기능을 위해 영상흔들림보정모듈(513)을 포함한다.The image processing unit 510a includes an image receiving module 511 for receiving a video image transmitted by the rail robot 100 and the surveillance camera 200, an image decoding module 512 for decoding, and an image preprocessing module for performing pre-processing (513). The image processing unit 510b, which performs an image stabilization function through real-time image shake correction, includes an image receiving module 511 and an image decoding module 512 identically, and includes an image shake correction module 513 for a pre-processing function. do.

도 3을 참고하면, 영상 흔들림 보정모듈(513)은 움직이는 이미지의 각 프레임을 이전 프레임과 비교해 얼마나 이동했는지 파악하고, 움직임과 반대 방향으로 이미지를 이동해 흔들림을 보정한다. 영상 흔들림 보정모듈(513)이 특징점을 이용하여 흔들림을 보정하는 과정은 다음과 같다. Referring to FIG. 3 , the image shake compensation module 513 determines how much each frame of a moving image is moved compared to the previous frame, and corrects the shake by moving the image in the opposite direction to the movement. The process of correcting the shake by the image shake correction module 513 using the feature points is as follows.

레일로봇(100)에서 수신되는 영상 프레임을 디코딩 후 ① 딥러닝 기반의 특징맵 추출엔진을 이용하여 각 프레임 이미지에서 특징점을 추출하고, ② 각 프레임 이미지의 특징점들 중 같은 특징점을 매칭하고, ③ 매칭된 특징점의 이동성을 계산하여 ④ 이동 방향 반대 방향 및 크기 만큼 특징점을 이동시킨다. After decoding the video frame received from the rail robot 100, ① extracting feature points from each frame image using a deep learning-based feature map extraction engine, ② matching the same feature points among the feature points of each frame image, ③ matching Calculate the mobility of the selected feature point and move the feature point in the opposite direction and size.

각 특징들의 이동 크기와 방향은 이전 프레임과 비교하면 알 수 있다. 흔들림 영상의 현재 프레임과 이전 프레임의 간의 특징점 비교 및 매칭 과정에서 발생되는 특징점 이동을 딥러닝을 활용하여 이동 방향 및 크기를 추출하여 좀 더 정밀하고 빠른 흔들림 보정을 할 수 있다. 본 발명은 CNN(Convolutional Neural Network)을 통해 특징점을 추출할 수 있다.The size and direction of movement of each feature can be known by comparing it with the previous frame. It is possible to perform more precise and faster shake correction by extracting the movement direction and size by using deep learning from the movement of the key points generated during the comparison and matching process between the current frame and the previous frame of the shake image. The present invention can extract feature points through a Convolutional Neural Network (CNN).

공동구데이터학습부(520)는 영상처리부(510)가 전처리 한 영상 이미지와 로봇제어부(400)가 전송한 복수 개의 센서 데이터를 데이터베이스에 저장하고, 딥러닝 기반의 학습엔진(530)으로 학습한다. 딥러닝 기반의 학습엔진(530)은 각 이벤트 상황(보행자, 쓰러짐, 화재·연기, 얼굴인식, 누수 등)에 맞게 다양한 학습엔진으로 구성된다. 공동구데이터학습부(520)는 영상수집부(300)에서 수신되는 영상을 분류하고, 이미지로 변환 후 어노테이션(Annotation) 과정을 통해 학습데이터로 가공한다. 도 6을 참고하면, (A) 출입자 얼굴인식 학습데이터 가공 프로세스, (B) 보행자 검출, 쓰러짐 학습데이터 가공 프로세스, (C) 화재 및 연기 검지 학습데이터 가공 프로세스에서 볼 수 있듯이 공동구데이터학습부(520)는 수신되는 각 영상 이미지를 분류하여 이상이벤트 상황에 맞게 별도의 학습데이터를 구축하는 모델을 가지고 있다.The common data learning unit 520 stores the image image pre-processed by the image processing unit 510 and the plurality of sensor data transmitted by the robot control unit 400 in a database, and learns with the deep learning-based learning engine 530 . The deep learning-based learning engine 530 is composed of various learning engines to suit each event situation (pedestrian, collapse, fire/smoke, face recognition, water leak, etc.). The common sphere data learning unit 520 classifies the images received from the image collection unit 300, converts them into images, and processes them into learning data through an annotation process. Referring to FIG. 6, as can be seen in (A) entrant face recognition learning data processing process, (B) pedestrian detection, falling learning data processing process, (C) fire and smoke detection learning data processing process, the common data learning unit 520 ) has a model that classifies each received video image and builds separate learning data according to the abnormal event situation.

도 4를 참고하면, 딥러닝 기반의 학습엔진(530)은 객체 검출 및 추적 학습엔진(540), 얼굴 검출 및 인식 학습엔진(550), 누수 검출 학습엔진(560), 센서 위험예측 학습엔진(570), 화재 및 연기 검출 학습엔진(580)을 가지고 있다. 본 발명은 검출의 정확성을 높이기 얼굴 이미지 데이터, 보행자 검출 데이터, 쓰러짐 데이터, 화재/연기 데이터, 누수 데이터 등을 수개월 동안 지속적으로 수집 및 가공하여 학습하였다. 수집기간(7개월 기준) 동안 레일로봇(100)과 감시카메라(200)가 수집하는 영상 데이터는 연간 4,572,288,000장이 예상된다. Referring to FIG. 4 , the deep learning-based learning engine 530 includes an object detection and tracking learning engine 540 , a face detection and recognition learning engine 550 , a leak detection learning engine 560 , and a sensor risk prediction learning engine ( 570), and a fire and smoke detection learning engine 580. In the present invention, face image data, pedestrian detection data, collapse data, fire/smoke data, leak data, etc. were continuously collected and processed for several months to improve detection accuracy. During the collection period (based on 7 months), the image data collected by the rail robot 100 and the surveillance camera 200 is expected to be 4,572,288,000 pieces per year.

수집량 산식 : 수집 데이터(1초당 20fps) x 14대(카메라) x 60초 x 60분 x 24시간 x 210일 x 목표가동률(90%) = 4,572,288,000장Collection amount formula: Collected data (20fps per second) x 14 units (cameras) x 60 seconds x 60 minutes x 24 hours x 210 days x target operation rate (90%) = 4,572,288,000 sheets

도 5를 참고하면, 딥러닝 기반의 객체 검출 및 추적 학습엔진(540)은 영상 이미지에서 객체까지의 거리 측정, 검출된 객체의 크기, 폭, 넓이를 추정하여 객체를 검출하는 객체검출모듈(541), 검출된 객체의 궤적을 예측하여 객체를 추적하는 객체추적모듈(542), 추적된 객체의 검출, 쓰러짐을 검출하는 이상이벤트검출모듈(543) 및 객체추적모듈(542)이 추적한 객체에 부착된 아루코 마커(Aruco marker)를 인식하여 인가자 및 비인가자 여부를 판단하는 마커검출모듈(544)로 구성된다. 객체 검출 및 추적 학습엔진(540)은 Yolo v4 알고리즘을 사용하여 객체를 검출 및 추적한다.Referring to FIG. 5 , the deep learning-based object detection and tracking learning engine 540 measures the distance from the video image to the object, and the object detection module 541 detects the object by estimating the size, width, and width of the detected object. ), the object tracking module 542 that tracks the object by predicting the trajectory of the detected object, the abnormal event detection module 543 that detects the detection of the tracked object, and the collapse of the object tracking module 542 on the tracked object It consists of a marker detection module 544 that recognizes the attached Aruco marker and determines whether an authorized person or a non-authorized person is present. The object detection and tracking learning engine 540 detects and tracks the object using the Yolo v4 algorithm.

마커검출모듈(544)은 추적한 객체의 영상 이미지로부터 마커 이미지를 추출할 수 있다. 여기서, 마커는 아루코마커를 사용하는 것이 바람직하나, QR(Quick Response) 코드를 사용할 수도 있다. 이외에도, 영상처리를 통하여 인식할 수 있는 것이면 어떠한 것도 마커로 활용 가능하다.The marker detection module 544 may extract a marker image from the video image of the tracked object. Here, it is preferable to use an Aruko marker as the marker, but a Quick Response (QR) code may also be used. In addition, anything that can be recognized through image processing can be used as a marker.

아루코마커의 경우, OpenCV의 Aruco 모듈 등 소프트웨어를 이용하여 식별점의 좌표정보를 추출할 수 있으며, 추출한 식별점들을 이용하여 각각의 마커이미지를 정확하게 식별하는 것이 가능하다. 따라서, 마커검출모듈(544)을 통해 인가자/비인가자 여부를 정확하게 판단할 수 있다.In the case of Aruco markers, the coordinate information of the identification points can be extracted using software such as the Aruco module of OpenCV, and it is possible to accurately identify each marker image using the extracted identification points. Accordingly, it is possible to accurately determine whether an authorized person/non-authorized person is present through the marker detection module 544 .

도 8을 참고하면, 객체 검출 및 추적 학습엔진(540)은 Yolo v4 알고리즘을 사용하여 지하공동구의 보행자를 검출 및 추적하고, 보행자에 부착된 아루코 마커를 인식하여 인가자 및 비인가자 여부를 판단하고 알람을 발생시킨다.Referring to FIG. 8 , the object detection and tracking learning engine 540 detects and tracks the pedestrian in the underground tunnel using the Yolo v4 algorithm, recognizes the Aruko marker attached to the pedestrian, and determines whether the person is authorized or not. and generate an alarm.

딥러닝 기반의 얼굴 검출 및 인식 학습엔진(550)은 먼저 얼굴을 검출하고, 검출된 얼굴에서 특징을 검출하며, 얼굴을 인식하는 과정을 거쳐서 출입자를 인증한다. 얼굴 검출 및 얼굴 랜드마크 검출에 Yolo v4 알고리즘을 사용하고, 얼굴인식에 Deep-Face DNN을 사용한다. 도 7을 참고하면, 얼굴 검출 및 인식 학습엔진(550)은 Yolo v4 알고리즘을 사용하여 지하공동구 출입자의 얼굴 및 특징점을 검출하여 얼굴을 인식하고, 인가자 및 비인가자 여부를 판단하여 알람을 발생시킨다. 화재 및 연기 검출 학습엔진(580)도 Yolo v4 알고리즘을 사용하여 동일한 방식으로 화재 및 연기를 검출한다. The deep learning-based face detection and recognition learning engine 550 first detects a face, detects a feature from the detected face, and authenticates the entrant through the process of recognizing the face. Yolo v4 algorithm is used for face detection and face landmark detection, and Deep-Face DNN is used for face recognition. Referring to FIG. 7 , the face detection and recognition learning engine 550 uses the Yolo v4 algorithm to detect faces and feature points of people entering the underground tunnel to recognize faces, and to determine whether an authorized person or a non-authorized person is used to generate an alarm. . The fire and smoke detection learning engine 580 also uses the Yolo v4 algorithm to detect fire and smoke in the same way.

도 10을 참고하면, Yolo v4 알고리즘을 사용하여 작업자 검출, 인가자/비인가자 여부 검출, 쓰러짐 검출, 누수 검출, 화재/연기 검출 등을 수행한 예를 나타내고 있다. 누수 검출 학습엔진(560) 및 센서 위험예측 학습엔진(570)의 차별화되는 특징에 대해서는 아래에서 다시 설명하겠다. 보행자 검출, 쓰러짐 검출, 얼굴 인식, 화재/연기 검출은 레일로봇(100)과 감시카메라(200)가 촬영하여 전송한 avi 데이터를 txt 파일(json 포맷)로 가공하여 학습하며, 레일로봇(100)이 촬영하여 전송한 열화상 영상 avi 데이터를 txt 파일(json 포맷)로 가공 및 학습하여 화재 연기 검출에 사용할 수 있다.Referring to FIG. 10 , an example in which operator detection, authorization/non-authorization detection, collapse detection, leak detection, fire/smoke detection, etc. are performed using the Yolo v4 algorithm is shown. Differentiating features of the leak detection learning engine 560 and the sensor risk prediction learning engine 570 will be described again below. Pedestrian detection, fall detection, face recognition, and fire/smoke detection are learned by processing avi data photographed and transmitted by the rail robot 100 and the surveillance camera 200 into a txt file (json format), and the rail robot 100 The thermal image image avi data taken and transmitted can be processed and learned into a txt file (json format) and used for fire smoke detection.

상기에서 검토한 바와 같이 본 발명의 딥러닝 기반의 학습엔진(530)은 객체를 검출하고, 검출된 객체를 추적하며, 추적 결과를 객체의 이상행동 여부를 판단한다. 도 10의 예에서 보는 바와 같이 딥러닝 기반의 객체 검출 및 추적 학습엔진(540)은 객체를 검출하고 추적하여 다양한 이상행동을 분석할 수 있다.As discussed above, the deep learning-based learning engine 530 of the present invention detects an object, tracks the detected object, and determines whether the object behaves abnormally based on the tracking result. As shown in the example of FIG. 10 , the deep learning-based object detection and tracking learning engine 540 may analyze various abnormal behaviors by detecting and tracking the object.

본 실시예에서는, 지하공동구의 다양한 조명 및 환경 조건에서의 객체 검출을 위해 CNN(Convolution Neural Network) 기반의 객체 검출 방법을 사용한다. YOLOv4는 YOLOv3이후에 나온 딥러닝의 정확도를 개선하는 다양한 방법을 적용해 YOLO의 성능을 극대화 하였다. 본 실시예의 객체검출모듈(541) 및 객체추적모듈(542)에서 사용한 객체 검출 네트워크는 YOLOv4 네트워크를 기반으로 한다.In this embodiment, a CNN (Convolution Neural Network)-based object detection method is used for object detection under various lighting and environmental conditions of the underground pit. YOLOv4 maximized the performance of YOLO by applying various methods to improve the accuracy of deep learning that emerged after YOLOv3. The object detection network used by the object detection module 541 and the object tracking module 542 of this embodiment is based on the YOLOv4 network.

누수 검출 학습엔진(560)은 영상 이미지에서 누수를 검출하기 위해 인공지능 기반의 이미지 세그멘테이션 컨볼루션 신경망(DeepLab V3+) 또는 Mask R-CNN을 사용한다. The leak detection learning engine 560 uses an artificial intelligence-based image segmentation convolutional neural network (DeepLab V3+) or Mask R-CNN to detect a leak in an image image.

누수 검출 학습엔진(560)에서 사용하는 인공지능 네트워크는 이미지 세그멘터이션을 위한 딥 컨볼루션 아키텍쳐인 DeepLab V3+으로 이미지 인식 분야에서 널리 쓰이는 네트워크인 합성곱신경망(CNN)을 기반으로 한다. 본 발명에서는 누수 검출 유사데이터를 약 5,000장 수집하였으며, 지하공동구 누수 데이터를 약 45,000장 수집하여 테스트하였다. 수집된 유사데이터 및 누수데이터를 업로드 및 Object 별 클래스를 정의하고, 이미지 세그멘테이션을 통해 학습데이터를 가공 및 학습데이터 파일을 생성하여 DeepLab V3+ 기반 누수 검출 학습엔진(560)을 학습하였다.The artificial intelligence network used by the leak detection learning engine 560 is DeepLab V3+, a deep convolution architecture for image segmentation, and is based on a convolutional neural network (CNN), a network widely used in the image recognition field. In the present invention, about 5,000 pieces of leak detection similar data were collected, and about 45,000 pieces of leak data from underground pits were collected and tested. By uploading the collected similar data and leak data, defining a class for each object, processing the learning data through image segmentation, and creating a learning data file, the DeepLab V3+ based leak detection learning engine 560 was learned.

또한 누수 검출 학습엔진(560)은 Mask R-CNN(Regions with Convolution Neural Networks)을 사용하여 영상 이미지에서 누수를 검출할 수 있다. 외부 환경으로 인해 발생하는 예측할 수 없는 이미지 왜곡 및 다양한 형태의 노즐 특성을 이미지 처리 및 신호 처리 방식으로 해결하기에는 한계가 있다. 이를 극복하기 위해서 이미지 왜곡에도 강인하고 다양한 노즐 형태를 인식하여 그에 맞는 특징을 추출할 수 있는 딥러닝 학습 방법을 적용한다. 딥러닝 학습 방법 중 컨볼루션 신경망(CNN, Convolution Neural Networks)은 다양한 이미지를 분류하는데 탁월한 성능을 보이며, 컴퓨터 비전 분야에 많이 활용되고 있다. In addition, the leak detection learning engine 560 may detect a leak in the video image using Mask R-CNN (Regions with Convolution Neural Networks). There is a limit to solving the unpredictable image distortion caused by the external environment and various types of nozzle characteristics through image processing and signal processing methods. In order to overcome this, a deep learning learning method that is robust to image distortion and can recognize various nozzle shapes and extract appropriate features is applied. Among the deep learning learning methods, convolutional neural networks (CNNs) show excellent performance in classifying various images and are widely used in computer vision fields.

도 11을 참고하면, 누수 검출 학습엔진(560)은 레일로봇(100)이 촬영하여 전송한 지하공동구 영상 이미지를 Backbone architecture 에 입력시킨다. Backbone architecture를 통과하여 추출한 특징맵을 RPN(Region Proposal Network)에 적용하여 후보 영역을 추출한다. 추출한 후보 영역 중 스코어가 가장 높은 영역만을 선택하여 누수 영역을 검출하고 세그멘테이션(segmentation)한다.Referring to FIG. 11 , the leak detection learning engine 560 inputs the underground tunnel video image captured by the rail robot 100 and transmitted to the Backbone architecture. The candidate region is extracted by applying the feature map extracted through the backbone architecture to the RPN (Region Proposal Network). Among the extracted candidate regions, only the region with the highest score is selected to detect the leak region and perform segmentation.

공동구데이터학습부(520)는 지하공동구 구역별로 수집된 복수 개의 센서 데이터를 One-Class SVM 기반의 센서 위험예측 학습엔진(570)에 적용하여 지하공동구의 환경 위험상황을 학습하거나, LSTM(Long Short-term Memory) 기반의 센서 위험예측 학습엔진(570)에 적용하여 지하공동구의 환경 위험상황을 학습한다. The common tunnel data learning unit 520 applies a plurality of sensor data collected for each underground common area to the One-Class SVM-based sensor risk prediction learning engine 570 to learn the environmental risk situation of the underground common area, or LSTM (Long Short -term Memory)-based sensor risk prediction learning engine 570 to learn the environmental risk situation of the underground tunnel.

One-Class SVM 기반의 센서 위험예측 학습엔진(570)은 정상 데이터와 비정상 데이터가 분류되어 있지 않을 경우 이상치(anomaly)를 탐지하는 기능을 수행한다. 정상 sample만 이용해서 모델을 학습하기도 하며, 이 방법론의 핵심 아이디어는 정상 sample들을 둘러싸는 discriminative boundary를 설정하고, 이 boundary를 최대한 좁혀 boundary 밖에 있는 sample들을 모두 비정상으로 간주한다. 이를 통해 시설이나 장비의 상태를 진단하여 고장이 발생하기 전에 정비를 통해 가동 중단이나 사고 발생을 예방할 수 있다.The sensor risk prediction learning engine 570 based on One-Class SVM performs a function of detecting anomalies when normal data and abnormal data are not classified. The model is also trained using only normal samples, and the core idea of this methodology is to establish a discriminative boundary surrounding normal samples, and narrow this boundary as much as possible to consider all samples outside the boundary as abnormal. Through this, it is possible to diagnose the condition of facilities or equipment and prevent the occurrence of downtime or accidents through maintenance before failure occurs.

도 12를 참고하면, 본 발명은 지하공동구 840개 지점의 해당 센서 데이터(온도, 습도, 산소, 일산화탄소, 이산화탄소, 이산화질소, 황화수소, VOC(휘발성 유기화합물), 미세먼지)를 1시간 단위로 확보하고, One-Class SVM 기반의 센서 위험예측 학습엔진(570)에 적용하여 학습하였다. 12, the present invention secures the corresponding sensor data (temperature, humidity, oxygen, carbon monoxide, carbon dioxide, nitrogen dioxide, hydrogen sulfide, VOC (volatile organic compound), fine dust) of 840 underground pits in units of 1 hour, and , was learned by applying the One-Class SVM-based sensor risk prediction learning engine (570).

One-Class SVM 기반의 센서 위험예측 학습엔진(570)은 입력 데이터에 이상치를 생성하고 학습을 진행하여 이상치를 탐지하고 정상(normal)과 비정상(Abnormal)을 분류한다. One-Class SVM 기반의 센서 위험예측 학습엔진(570)은 입력 데이터에서 일정한 범위를 데이터 셋으로 사용하며 여기에 무작위로 생성된 이상치를 추가하여 학습용 데이터 셋으로 생성한다. One-Class SVM 기반의 센서 위험예측 학습엔진(570)으로 학습 결과 1시간 후 환경 위험을 예측하여 경고할 수 있다.One-Class SVM-based sensor risk prediction learning engine 570 generates an outlier in the input data, performs learning, detects the outlier, and classifies normal and abnormal. One-Class SVM-based sensor risk prediction learning engine 570 uses a certain range from input data as a data set, and adds randomly generated outliers to it to create a training data set. One-Class SVM-based sensor risk prediction learning engine 570 can predict and warn of environmental risks 1 hour after the learning result.

LSTM(Long Short-term Memory) 기반의 센서 위험예측 학습엔진(570)은 각 센서 값(온도, 습도, 산소, 이산화탄소, 일산화탄소, 이산화질소, 황화수소, VOC(휘발성 유기화합물), 미세먼지) 측정을 시계열의 데이터를 활용하여 위험예측을 한다. 시계열의 예측 시스템을 많이 사용되는 순환신경망(RNN)은 과거의 이벤트가 미래의 결과에 영향을 줄 수 있는 순환 구조(directed cycle)를 가지고 있다. LSTM(Long Short-term Memory) 기반의 센서 위험예측 학습엔진(570)은 공동구 환경 센서 데이터 기반 시계열 분석을 통해 지하 공동구의 환경 위험을 예측할 수 있다.LSTM (Long Short-term Memory)-based sensor risk prediction learning engine 570 time-series measurement of each sensor value (temperature, humidity, oxygen, carbon dioxide, carbon monoxide, nitrogen dioxide, hydrogen sulfide, VOC (volatile organic compounds), fine dust) Risk prediction is made using the data of Recurrent neural networks (RNNs), which are widely used in time series prediction systems, have a directed cycle in which past events can influence future outcomes. The long short-term memory (LSTM)-based sensor risk prediction learning engine 570 may predict the environmental risk of the underground pit through time series analysis based on the communal environmental sensor data.

도 9를 참고하면, ① 레일로봇(100)은 순찰 중 출입자를 검출하면, ② 로봇제어부(400)의 제어를 통해 출입자의 얼굴인식이 가능한 일정 거리 이내로 이동한 후 ③ 정지상태에서 출입자의 얼굴을 촬영한 영상을 실시간으로 전송한다. ④ 공동구상황진단부(590)는 레일로봇(100)이 정지상태에서 촬영한 출입자의 얼굴 이미지를 딥러닝 기반의 학습엔진(530)에 적용하여 출입자의 인가 여부를 확인한 후 로봇제어부(400)를 통해 레일로봇(100)이 다시 순찰을 진행하도록 한다.Referring to FIG. 9 , ① when the rail robot 100 detects an occupant during patrol, ② moves within a certain distance where the occupant’s face can be recognized through the control of the robot controller 400, and ③ the face of the entrant is detected in a stationary state. The captured video is transmitted in real time. ④ The common sphere situation diagnosis unit 590 applies the face image of the entrant photographed in the stationary state of the rail robot 100 to the deep learning-based learning engine 530 to check whether the entrant is authorized or not, and then operates the robot control unit 400. Through this, the rail robot 100 proceeds to patrol again.

구체적으로, 공동구데이터학습부(520)는 딥러닝 기반의 객체 검출 및 추적 학습엔진(540)을 이용하여 레일로봇(100)이 촬영한 실시간 영상 이미지에서 출입자를 검출하고, 검출된 출입자까지의 거리를 측정하여 출입자의 얼굴인식이 가능한 일정 거리 이내로 레일로봇(100)이 이동하도록 로봇제어부(400)를 통해 제어하고, 얼굴인식이 가능한 일정 거리 이내에서 레일로봇(100)이 전송하는 출입자의 실시간 이미지를 딥러닝 기반의 얼굴 검출 및 인식 학습엔진(550)에 적용하여 출입자의 얼굴을 검출 및 인식하여 출입자 인가 여부를 확인할 수 있다. Specifically, the common data learning unit 520 detects the occupants from the real-time video image taken by the rail robot 100 using the deep learning-based object detection and tracking learning engine 540, and the distance to the detected entrants The rail robot 100 is controlled through the robot control unit 400 to move within a certain distance where the face recognition of the person is possible by measuring can be applied to the deep learning-based face detection and recognition learning engine 550 to detect and recognize the face of an occupant and confirm whether or not the entrant is authorized.

도 9의 예에서 자동순찰 모드 중 약 4m의 거리에서 출입자를 검출하였다. 출입자 검출에는 딥러닝 기반의 객체 검출 및 추적 학습엔진(540)을 이용한다. 딥러닝 기반의 객체 검출 및 추적 학습엔진(540)의 구체적인 구성에 대해서는 상기에서 자세하게 설명하였다. 그리고 언굴 인식이 가능한 약 3m 이내의 거리로 이동하여 정지상태에서 출입자의 얼굴을 촬영한 영상을 전송하며, 출입자의 얼굴 인식에는 딥러닝 기반의 얼굴 검출 및 인식 학습엔진(550)을 이용한다. 딥러닝 기반의 얼굴 검출 및 인식 학습엔진(550)의 구체적인 구성에 대해서는 상기에서 자세하게 설명하였다. In the example of FIG. 9 , an occupant was detected at a distance of about 4 m in the automatic patrol mode. A deep learning-based object detection and tracking learning engine 540 is used for occupant detection. The detailed configuration of the deep learning-based object detection and tracking learning engine 540 has been described in detail above. Then, it moves to a distance of about 3 m or less where face recognition is possible, and transmits an image of the face of the occupant in a stationary state, and a deep learning-based face detection and recognition learning engine 550 is used for face recognition of the entrant. The detailed configuration of the deep learning-based face detection and recognition learning engine 550 has been described in detail above.

공동구상황진단부(590)는 영상수집부(300)가 전송한 영상 이미지와 로봇제어부(400)가 전송한 센서 데이터를 공동구데이터학습부(520)가 학습한 딥러닝 기반의 학습엔진(530)에 적용하여 출입자의 인가 여부와 작업자 및 시설물의 위험상황을 실시간으로 진단한다. 딥러닝 기반의 학습엔진(530)의 종류와 기능에 대해서는 상기에서 자세하게 설명하였으며, 각 상황에 맞는 딥러닝 기반의 학습엔진(530)을 적용한다.The joint sphere situation diagnosis unit 590 is a deep learning-based learning engine 530 in which the joint sphere data learning unit 520 learns the image image transmitted by the image collection unit 300 and the sensor data transmitted by the robot control unit 400 . diagnosing in real time whether access is authorized or not, and the dangerous situation of workers and facilities. The types and functions of the deep learning-based learning engine 530 have been described in detail above, and the deep learning-based learning engine 530 suitable for each situation is applied.

공동구상황제공부(600)는 공동구상황진단부(590)의 진단 내용을 토대로 출입자 인가 여부와 지하공동구의 위험상황을 파악하고 실시간으로 표출한다. 즉, 출입자 인가/비인가 여부와 지하공동구의 쓰러짐, 화재/연기, 누수, 환경 센서 데이터가 측정한 환경 위험상황을 위험징후 단계별(정상, 경고, 위험 등)로 구분하여 실시간으로 관리자에게 제공한다.Based on the diagnosis of the common area situation diagnosis unit 590, the common area situation providing unit 600 identifies whether or not an occupant is authorized and the dangerous situation of the underground common area, and displays it in real time. In other words, whether access is authorized/unauthorized, collapse of underground tunnels, fire/smoke, water leakage, and environmental risk situations measured by environmental sensor data are classified into risk symptom stages (normal, warning, dangerous, etc.) and provided to the manager in real time.

도 13을 참고하면, 지하공동구 특화 레일로봇 기반 위험예측방법은 다음과 같은 단계로 수행된다. 상기에서 설명한 내용과 중복되는 부분에 대해서는 자세한 설명을 생략하였다.Referring to FIG. 13 , the risk prediction method based on the rail robot specialized in the underground tunnel is performed in the following steps. A detailed description of the parts overlapping with those described above has been omitted.

먼저, 지하공동구에 설치된 레일을 따라 이동하며 카메라와 복수 개의 환경센서가 설치된 레일로봇(100)이 영상을 촬영하고, 복수 개의 센서 데이터를 측정하여 실시간으로 전송한다(S610).First, while moving along the rail installed in the underground tunnel, the rail robot 100 with a camera and a plurality of environmental sensors installed takes an image, measures a plurality of sensor data, and transmits it in real time (S610).

지하공동구에 설치된 고정형 감시카메라(200)가 영상을 촬영하여 실시간으로 전송한다(S620).The fixed surveillance camera 200 installed in the underground pit takes an image and transmits it in real time (S620).

레일로봇(100)에서 수신되는 영상 이미지를 딥러닝 기반의 특징맵 추출엔진을 이용하여 실시간 영상 흔들림을 보정한다(S630).The video image received from the rail robot 100 is corrected for real-time image shake using a deep learning-based feature map extraction engine (S630).

공동구데이터학습부(520)는 레일로봇(100)과 고정형 감시카메라(200)가 전송한 영상 이미지와 로봇제어부(400)가 전송한 복수 개의 센서 데이터를 데이터베이스에 저장하고, 딥러닝 기반의 학습엔진으로 학습한다(S640).The joint data learning unit 520 stores the video image transmitted by the rail robot 100 and the fixed monitoring camera 200 and the plurality of sensor data transmitted by the robot control unit 400 in a database, and a deep learning-based learning engine to learn (S640).

공동구상황진단부(590)는 레일로봇(100)과 고정형 감시카메라(200)가 전송한 영상 이미지와 레일로봇(100)이 전송한 센서 데이터를 딥러닝 기반의 학습엔진에 적용하여 출입자의 인가 여부와 작업자 및 시설물의 위험상황을 실시간으로 진단한다(S650).The joint sphere situation diagnosis unit 590 applies the image image transmitted by the rail robot 100 and the fixed surveillance camera 200 and the sensor data transmitted by the rail robot 100 to a deep learning-based learning engine to determine whether or not the person is authorized. and dangerous situations of workers and facilities are diagnosed in real time (S650).

공동구상황제공부(600)는 진단 내용을 토대로 출입자 인가 여부와 지하공동구의 위험상황을 파악하고 실시간으로 표출한다(S660).The common area situation providing unit 600 detects whether or not an occupant is authorized based on the diagnosis and the dangerous situation of the underground common area, and displays it in real time (S660).

레일로봇이 영상을 촬영하여 실시간으로 전송하는 단계(S610)는, 레일로봇은 순찰 중 출입자를 검출하면, 서버의 제어를 통해 출입자의 얼굴인식이 가능한 일정 거리 이내로 이동한 후 정지상태에서 출입자의 얼굴을 촬영한 영상을 실시간으로 전송하고, 진단하는 단계(S650)는, 레일로봇이 정지상태에서 촬영한 출입자의 얼굴 이미지를 딥러닝 기반의 학습엔진에 적용하여 출입자의 인가 여부를 확인한 후 레일로봇이 다시 순찰을 진행하도록 한다.In the step (S610) of the rail robot taking an image and transmitting it in real time, when the rail robot detects an occupant during patrol, it moves within a certain distance where the occupant's face can be recognized through the control of the server, and then moves to the occupant's face in a stationary state. In the step of diagnosing and transmitting the captured image in real time (S650), the rail robot applies the face image of the person who is photographed in the stationary state to the deep learning-based learning engine to check whether the person is authorized or not, and then the rail robot Let the patrol proceed again.

또한, 학습하는 단계(S640)는, 딥러닝 기반의 객체 검출 및 추적 학습엔진(540)을 이용하여 레일로봇(100)이 촬영한 실시간 영상 이미지에서 출입자를 검출하고, 검출된 출입자까지의 거리를 측정하여 출입자의 얼굴인식이 가능한 일정 거리 이내로 레일로봇이 이동하도록 제어하고, 진단하는 단계(S650)는, 얼굴인식이 가능한 일정 거리 이내에서 레일로봇(100)이 전송하는 출입자의 실시간 이미지를 딥러닝 기반의 얼굴 검출 및 인식 학습엔진(550)에 적용하여 출입자의 얼굴을 검출 및 인식하여 출입자 인가 여부를 확인한다.In addition, the learning step (S640) uses the deep learning-based object detection and tracking learning engine 540 to detect the occupants from the real-time video image taken by the rail robot 100, and determine the distance to the detected entrants. In the step of measuring and controlling the rail robot to move within a certain distance where face recognition is possible, and diagnosing (S650), the real-time image of the person transmitted by the rail robot 100 is deep learning within a certain distance where face recognition is possible. It is applied to the face detection and recognition learning engine 550 based on detecting and recognizing the face of the entrant to confirm whether or not the entrant is authorized.

이상 본 발명에 대해서 설명하였다. 본 발명은 지하공동구내 CCTV, 레일로봇의 영상정보 및 센서 정보를 기반으로 최적의 인공지능 딥러닝 알고리즘을 적용하고 AI데이터 학습을 통해 정확도 높은 위험예측 서비스 및 조기대응 안전관리 서비스 개발하였으며, 지하공동구 인가자/비인가자를 자동으로 식별하고, 쓰러짐 등의 이상 상황 발생 시 즉시 감지·대응 가능한 모니터링 체계를 구축하여 보안강화 및 인명피해 최소화 할 수 있다는데 큰 의미가 있다.The present invention has been described above. The present invention applies an optimal artificial intelligence deep learning algorithm based on CCTV, rail robot image information and sensor information in the underground common area, and develops a high-accuracy risk prediction service and early response safety management service through AI data learning. It is of great significance in that it can automatically identify authorized persons/unauthorized persons and establish a monitoring system that can detect and respond immediately in case of abnormal situations such as collapse, to strengthen security and minimize human casualties.

지금까지 본 발명을 바람직한 실시 예를 참조하여 상세히 설명하였지만, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시할 수 있으므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. Although the present invention has been described in detail with reference to preferred embodiments so far, those skilled in the art to which the present invention pertains can practice the present invention in other specific forms without changing the technical spirit or essential features thereof, The embodiments are to be understood in all respects as illustrative and not restrictive.

그리고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 특정되는 것이며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.And, the scope of the present invention is to be specified by the claims to be described later rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts are included in the scope of the present invention. should be interpreted as

100...레일로봇
200...감시카메라
300...영상수집부
400...로봇제어부
500...인공지능 분석 서버
510...영상처리부
511...영상수신모듈
512...영상디코딩모듈
513...영상전처리모듈, 영상흔들림보정모듈
520...공동구데이터학습부
530...딥러닝 기반의 학습엔진
540...객체 검출 및 추적 학습엔진
541...객체검출모듈
542...객체추적모듈
543...이상이벤트검출모듈
544...마커검출모듈
550...얼굴 검출 및 인식 학습엔진
560...누수 검출 엔진
570...센서 위험예측 엔진
580...화재 및 연기 검출 학습엔진
590...공동구상황진단부
600...공동구상황제공부
100...rail robot
200...Surveillance camera
300...image collection unit
400...Robot control unit
500...Artificial Intelligence Analysis Server
510...image processing unit
511...Video receiving module
512...Video decoding module
513...image preprocessing module, image shake correction module
520...
530... a learning engine based on deep learning
540...Object detection and tracking learning engine
541...object detection module
542...object tracking module
543...abnormal event detection module
544...Marker detection module
550... face detection and recognition learning engine
560...Leak Detection Engine
570...Sensor Hazard Prediction Engine
580...fire and smoke detection learning engine
590...Community Situation Diagnosis Department
600...Community Situation Provision Department

Claims (10)

지하공동구에 설치된 레일을 따라 이동하며 카메라와 복수 개의 환경센서가 설치된 레일로봇;
지하공동구에 설치된 고정형 감시카메라;
상기 레일로봇과 고정형 감시카메라가 촬영하여 전송한 영상 이미지를 수신하여 실시간으로 전송하는 영상수집부;
상기 영상수집부가 전송한 영상 이미지를 디코딩 및 전처리 하는 영상처리부;
상기 레일로봇이 측정하여 전송한 복수 개의 센서 데이터와 측정 위치정보를 수신하여 실시간으로 전송하고, 레일로봇을 제어하는 로봇제어부;
상기 영상처리부가 전처리 한 영상 이미지와 로봇제어부가 전송한 복수 개의 센서 데이터를 데이터베이스에 저장하고, 딥러닝 기반의 학습엔진으로 학습하는 공동구데이터학습부;
상기 영상수집부가 전송한 영상 이미지와 로봇제어부가 전송한 센서 데이터를 상기 공동구데이터학습부가 학습한 딥러닝 기반의 학습엔진에 적용하여 출입자의 인가 여부와 작업자 및 시설물의 위험상황을 실시간으로 진단하는 공동구상황진단부; 및
상기 공동구상황진단부의 진단 내용을 토대로 출입자 인가 여부와 지하공동구의 위험상황을 파악하고 실시간으로 표출하는 공동구상황제공부를 포함하되,
상기 레일로봇은 순찰 중 출입자를 검출하면, 상기 로봇제어부의 제어를 통해 출입자의 얼굴인식이 가능한 일정 거리 이내로 이동한 후 정지상태에서 출입자의 얼굴을 촬영한 영상을 실시간으로 전송하고,
상기 공동구상황진단부는 레일로봇이 정지상태에서 촬영한 출입자의 얼굴 이미지를 딥러닝 기반의 학습엔진에 적용하여 출입자의 인가 여부를 확인한 후 상기 로봇제어부를 통해 레일로봇이 다시 순찰을 진행하도록 하는 것을 특징으로 하는 지하공동구 특화 레일로봇 기반 위험예측시스템.
A rail robot that moves along the rail installed in the underground tunnel and is equipped with a camera and a plurality of environmental sensors;
Fixed surveillance cameras installed in the underground tunnels;
an image collection unit for receiving and transmitting the video image captured by the rail robot and the fixed surveillance camera in real time;
an image processing unit for decoding and pre-processing the image image transmitted by the image collection unit;
a robot control unit that receives and transmits a plurality of sensor data and measurement location information measured and transmitted by the rail robot in real time, and controls the rail robot;
a joint data learning unit for storing the image image preprocessed by the image processing unit and a plurality of sensor data transmitted by the robot control unit in a database, and learning with a deep learning-based learning engine;
Common area for diagnosing in real time whether or not entrants and workers and facilities are dangerous by applying the image image transmitted by the image collection unit and the sensor data transmitted by the robot control unit to the deep learning-based learning engine learned by the common area data learning unit situation diagnosis department; and
Including a common area situation providing unit that identifies whether access is authorized and the dangerous situation of an underground common area based on the diagnosis of the common area situation diagnosis unit and displays it in real time,
When the rail robot detects an occupant during patrol, the rail robot moves within a certain distance capable of recognizing the occupant's face through the control of the robot controller and then transmits an image of the entrant's face in a stationary state in real time,
The common sphere situation diagnosis unit applies the face image of the entrant photographed in the stationary state of the rail robot to a deep learning-based learning engine to check whether the entrant is authorized, and then allows the rail robot to patrol again through the robot control unit. A rail robot-based risk prediction system specialized for underground tunnels.
제1항에 있어서,
상기 공동구데이터학습부는
영상 이미지에서 객체까지의 거리 측정, 검출된 객체의 크기, 폭, 넓이를 추정하여 객체를 검출하는 객체검출모듈;
검출된 객체의 궤적을 예측하여 객체를 추적하는 객체추적모듈;
추적된 객체의 검출, 쓰러짐을 검출하는 이상이벤트검출모듈; 및
상기 객체추적모듈이 추적한 객체에 부착된 아루코 마커(Aruco marker)를 인식하여 인가자 및 비인가자 여부를 판단하는 마커검출모듈로 구성되는 딥러닝 기반의 객체 검출 및 추적 학습엔진을 포함하는 것을 특징으로 하는 지하공동구 특화 레일로봇 기반 위험예측시스템.
According to claim 1,
The joint data learning unit
an object detection module for detecting an object by measuring the distance from the video image to the object and estimating the size, width, and area of the detected object;
an object tracking module that tracks the object by predicting the trajectory of the detected object;
an abnormal event detection module for detecting the tracked object and detecting the collapse; and
Including a deep learning-based object detection and tracking learning engine consisting of a marker detection module that recognizes an Aruco marker attached to an object tracked by the object tracking module and determines whether an authorized person or a non-authorized person is A rail robot-based risk prediction system specializing in underground tunnels.
제1항에 있어서,
상기 공동구데이터학습부는 영상 이미지에서 누수를 검출하기 위해 인공지능 기반의 이미지 세그멘테이션 컨볼루션 신경망(DeepLab V3+) 또는 Mask R-CNN을 사용하는 것을 특징으로 하는 지하공동구 특화 레일로봇 기반 위험예측시스템.
According to claim 1,
The common tunnel data learning unit uses an artificial intelligence-based image segmentation convolutional neural network (DeepLab V3+) or Mask R-CNN to detect a leak in an image image.
제1항에 있어서,
상기 영상처리부는
레일로봇에서 수신되는 영상 프레임을 디코딩 후 딥러닝 기반의 특징맵 추출엔진을 이용하여 각 프레임 이미지에서 특징점을 추출하고, 각 프레임 이미지의 특징점들 중 같은 특징점을 매칭하고 매칭된 특징점의 이동성을 계산하여 이동 방향 반대 방향 및 크기 만큼 특징점을 이동하는 영상 흔들림 보정모듈을 포함하는 것을 특징으로 하는 지하공동구 특화 레일로봇 기반 위험예측시스템.
According to claim 1,
The image processing unit
After decoding the video frame received from the rail robot, using a deep learning-based feature map extraction engine, feature points are extracted from each frame image, the same feature points are matched among the feature points of each frame image, and the mobility of the matched feature points is calculated. A rail robot-based risk prediction system specializing in underground tunnels, characterized in that it includes an image shake correction module that moves the feature point in the opposite direction and size of the movement direction.
삭제delete 제1항에 있어서,
상기 공동구데이터학습부는 딥러닝 기반의 객체 검출 및 추적 학습엔진을 이용하여 레일로봇이 촬영한 실시간 영상 이미지에서 출입자를 검출하고, 검출된 출입자까지의 거리를 측정하여 출입자의 얼굴인식이 가능한 일정 거리 이내로 레일로봇이 이동하도록 상기 로봇제어부를 통해 제어하고,
얼굴인식이 가능한 일정 거리 이내에서 레일로봇이 전송하는 출입자의 실시간 이미지를 딥러닝 기반의 얼굴 검출 및 인식 학습엔진에 적용하여 출입자의 얼굴을 검출 및 인식하여 출입자 인가 여부를 확인하는 것을 특징으로 하는 지하공동구 특화 레일로봇 기반 위험예측시스템.
According to claim 1,
The communal data learning unit uses a deep learning-based object detection and tracking learning engine to detect occupants from real-time video images taken by the rail robot, measure the distance to the detected occupants, and within a certain distance where the face recognition of the entrants is possible. Control the rail robot through the robot control unit to move,
Underground characterized in that it detects and recognizes the face of an occupant by applying the real-time image of the occupant transmitted by the rail robot to a deep learning-based face detection and recognition learning engine within a certain distance where face recognition is possible to check whether entrants are authorized. A rail robot-based risk prediction system specializing in the common area.
제1항에 있어서,
상기 공동구데이터학습부는 지하공동구 구역별로 수집된 복수 개의 센서 데이터를 One-Class SVM 기반의 센서 위험예측 학습엔진에 적용하여 지하공동구의 환경 위험상황을 학습하거나, LSTM(Long Short-term Memory) 기반의 센서 위험예측 학습엔진에 적용하여 지하공동구의 환경 위험상황을 학습하는 것을 특징으로 하는 지하공동구 특화 레일로봇 기반 위험예측시스템.
According to claim 1,
The common tunnel data learning unit applies a plurality of sensor data collected for each underground tunnel area to the One-Class SVM-based sensor risk prediction learning engine to learn the environmental risk situation of the underground tunnel, or LSTM (Long Short-term Memory) based A rail robot-based risk prediction system specializing in underground tunnels, characterized in that it learns the environmental risk situation of the underground tunnel by applying it to the sensor risk prediction learning engine.
지하공동구에 설치된 레일을 따라 이동하며 카메라와 복수 개의 환경센서가 설치된 레일로봇이 영상을 촬영하고, 복수 개의 센서 데이터를 측정하여 실시간으로 전송하는 단계;
지하공동구에 설치된 고정형 감시카메라가 영상을 촬영하여 실시간으로 전송하는 단계;
레일로봇에서 수신되는 영상 이미지를 딥러닝 기반의 특징맵 추출엔진을 이용하여 실시간 영상 흔들림을 보정하는 단계;
레일로봇과 고정형 감시카메라가 전송한 영상 이미지와 로봇제어부가 전송한 복수 개의 센서 데이터를 데이터베이스에 저장하고, 딥러닝 기반의 학습엔진으로 학습하는 단계;
레일로봇과 고정형 감시카메라가 전송한 영상 이미지와 레일로봇이 전송한 센서 데이터를 딥러닝 기반의 학습엔진에 적용하여 출입자의 인가 여부와 작업자 및 시설물의 위험상황을 실시간으로 진단하는 단계; 및
진단 내용을 토대로 출입자 인가 여부와 지하공동구의 위험상황을 파악하고 실시간으로 표출하는 단계를 포함하되,
상기 레일로봇이 영상을 촬영하여 실시간으로 전송하는 단계는,
레일로봇은 순찰 중 출입자를 검출하면, 서버의 제어를 통해 출입자의 얼굴인식이 가능한 일정 거리 이내로 이동한 후 정지상태에서 출입자의 얼굴을 촬영한 영상을 실시간으로 전송하고,
상기 진단하는 단계는,
레일로봇이 정지상태에서 촬영한 출입자의 얼굴 이미지를 딥러닝 기반의 학습엔진에 적용하여 출입자의 인가 여부를 확인한 후 레일로봇이 다시 순찰을 진행하도록 하는 것을 특징으로 하는 지하공동구 특화 레일로봇 기반 위험예측방법.
A step of moving along the rail installed in the underground tunnel, the rail robot installed with a camera and a plurality of environmental sensors to take an image, measure a plurality of sensor data and transmit the data in real time;
A fixed-type surveillance camera installed in the underground communal area capturing an image and transmitting it in real time;
Compensating the video image received from the rail robot in real time using a deep learning-based feature map extraction engine;
Storing the video image transmitted by the rail robot and the fixed surveillance camera and the plurality of sensor data transmitted by the robot controller in a database, and learning with a deep learning-based learning engine;
A step of diagnosing in real time whether a person is authorized or not and a dangerous situation of workers and facilities by applying the video image transmitted by the rail robot and the fixed surveillance camera and the sensor data transmitted by the rail robot to a deep learning-based learning engine; and
Based on the diagnosis, it includes the step of identifying whether access is authorized and the dangerous situation of the underground common area and expressing it in real time,
The step of the rail robot taking an image and transmitting it in real time,
When the rail robot detects an occupant during patrol, the rail robot moves within a certain distance where the occupant's face can be recognized through the control of the server, and then transmits an image of the occupant's face in a stationary state in real time.
The diagnosing step is
Rail robot-based risk prediction based on rail robot specializing in underground tunnels, characterized in that the rail robot performs patrol again after confirming whether or not the person is authorized by applying the face image of the person who is photographed in the stationary state to the deep learning-based learning engine method.
삭제delete 제8항에 있어서,
상기 학습하는 단계는,
딥러닝 기반의 객체 검출 및 추적 학습엔진을 이용하여 레일로봇이 촬영한 실시간 영상 이미지에서 출입자를 검출하고, 검출된 출입자까지의 거리를 측정하여 출입자의 얼굴인식이 가능한 일정 거리 이내로 레일로봇이 이동하도록 제어하고,
상기 진단하는 단계는,
얼굴인식이 가능한 일정 거리 이내에서 레일로봇이 전송하는 출입자의 실시간 이미지를 딥러닝 기반의 얼굴 검출 및 인식 학습엔진에 적용하여 출입자의 얼굴을 검출 및 인식하여 출입자 인가 여부를 확인하는 것을 특징으로 하는 지하공동구 특화 레일로봇 기반 위험예측방법.
9. The method of claim 8,
The learning step is
Using a deep learning-based object detection and tracking learning engine, the rail robot detects entrants from the real-time video image taken by the rail robot, and measures the distance to the detected entrant so that the rail robot moves within a certain distance where the entrant's face recognition is possible. control,
The diagnosing step is
Underground characterized in that it detects and recognizes the face of an occupant by applying the real-time image of the occupant transmitted by the rail robot to a deep learning-based face detection and recognition learning engine within a certain distance where face recognition is possible to check whether entrants are authorized. A risk prediction method based on a rail robot specialized in a common area.
KR1020210123930A 2021-09-16 2021-09-16 Risk prediction system and risk prediction method based on a rail robot specialized in an underground tunnel KR102369229B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210123930A KR102369229B1 (en) 2021-09-16 2021-09-16 Risk prediction system and risk prediction method based on a rail robot specialized in an underground tunnel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210123930A KR102369229B1 (en) 2021-09-16 2021-09-16 Risk prediction system and risk prediction method based on a rail robot specialized in an underground tunnel

Publications (1)

Publication Number Publication Date
KR102369229B1 true KR102369229B1 (en) 2022-03-03

Family

ID=80819025

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210123930A KR102369229B1 (en) 2021-09-16 2021-09-16 Risk prediction system and risk prediction method based on a rail robot specialized in an underground tunnel

Country Status (1)

Country Link
KR (1) KR102369229B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114505872A (en) * 2022-03-18 2022-05-17 河南思软电子科技有限公司 Underground multifunctional four-foot intelligent inspection robot for coal mine
KR102553692B1 (en) * 2023-01-16 2023-07-10 정미영 Deep learning system for disaster detection in the underground power facility
KR102553690B1 (en) * 2023-01-16 2023-07-10 정미영 Deep learning system for disaster detection and automatic fire suppression in the underground power facility
CN116740900A (en) * 2023-08-15 2023-09-12 中铁七局集团电务工程有限公司武汉分公司 SVM-based power construction early warning method and system
CN117841028A (en) * 2024-03-08 2024-04-09 安徽国智数据技术有限公司 Comprehensive pipe gallery inspection robot based on artificial intelligence
KR102668178B1 (en) * 2023-12-21 2024-05-22 주식회사 해림종합기술 Underground distribution line tray with fire monitoring
KR102672635B1 (en) 2024-02-27 2024-06-05 (주)영의 (System for anomaly detection in underground power distribution line using ConvLSTM and AutoEncoder model
KR102672631B1 (en) 2024-02-27 2024-06-05 (주)영의 Monitoring system for underground power distribution line using 3D CNN AutoEncoder model

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200449583Y1 (en) * 2010-03-22 2010-07-21 (주) 상원티앤에스 Utility tunnel Control System,equipped with local controller, transmitting its signal to Information Provider's Base ones
KR101949525B1 (en) * 2017-11-16 2019-03-18 주식회사 아이오티봇 Safety management system using unmanned detector
KR102093805B1 (en) * 2019-08-30 2020-03-26 김동관 Operating platform system using the faec of worker and special label number analysis module in the construction site
KR102177686B1 (en) * 2019-08-29 2020-11-11 (주)엘라이트 Automatic photography for tunnel inspection apparatus
KR102219809B1 (en) 2020-05-19 2021-02-24 주식회사 넥스트코어테크놀로지 Safety Work Management System by Image Analysis
KR102233351B1 (en) * 2021-01-07 2021-03-30 주식회사 유오케이 Management system and method for facility management based on 3d lidar
KR20210079052A (en) * 2019-12-19 2021-06-29 한전케이디엔주식회사 Underground facility monitoring and diagnosis system and method using autonomous-federated learning enable robot
KR20210079536A (en) * 2019-12-20 2021-06-30 주식회사 포스코 Facilities diagnosis robot and active avoidance method thereof
KR102277633B1 (en) * 2020-11-03 2021-07-15 주식회사 혜성안전기술원 Automatic robot measuring system for transit tunnel safety inspection

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200449583Y1 (en) * 2010-03-22 2010-07-21 (주) 상원티앤에스 Utility tunnel Control System,equipped with local controller, transmitting its signal to Information Provider's Base ones
KR101949525B1 (en) * 2017-11-16 2019-03-18 주식회사 아이오티봇 Safety management system using unmanned detector
KR102177686B1 (en) * 2019-08-29 2020-11-11 (주)엘라이트 Automatic photography for tunnel inspection apparatus
KR102093805B1 (en) * 2019-08-30 2020-03-26 김동관 Operating platform system using the faec of worker and special label number analysis module in the construction site
KR20210079052A (en) * 2019-12-19 2021-06-29 한전케이디엔주식회사 Underground facility monitoring and diagnosis system and method using autonomous-federated learning enable robot
KR20210079536A (en) * 2019-12-20 2021-06-30 주식회사 포스코 Facilities diagnosis robot and active avoidance method thereof
KR102219809B1 (en) 2020-05-19 2021-02-24 주식회사 넥스트코어테크놀로지 Safety Work Management System by Image Analysis
KR102277633B1 (en) * 2020-11-03 2021-07-15 주식회사 혜성안전기술원 Automatic robot measuring system for transit tunnel safety inspection
KR102233351B1 (en) * 2021-01-07 2021-03-30 주식회사 유오케이 Management system and method for facility management based on 3d lidar

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114505872A (en) * 2022-03-18 2022-05-17 河南思软电子科技有限公司 Underground multifunctional four-foot intelligent inspection robot for coal mine
KR102553692B1 (en) * 2023-01-16 2023-07-10 정미영 Deep learning system for disaster detection in the underground power facility
KR102553690B1 (en) * 2023-01-16 2023-07-10 정미영 Deep learning system for disaster detection and automatic fire suppression in the underground power facility
CN116740900A (en) * 2023-08-15 2023-09-12 中铁七局集团电务工程有限公司武汉分公司 SVM-based power construction early warning method and system
CN116740900B (en) * 2023-08-15 2023-10-13 中铁七局集团电务工程有限公司武汉分公司 SVM-based power construction early warning method and system
KR102668178B1 (en) * 2023-12-21 2024-05-22 주식회사 해림종합기술 Underground distribution line tray with fire monitoring
KR102672635B1 (en) 2024-02-27 2024-06-05 (주)영의 (System for anomaly detection in underground power distribution line using ConvLSTM and AutoEncoder model
KR102672631B1 (en) 2024-02-27 2024-06-05 (주)영의 Monitoring system for underground power distribution line using 3D CNN AutoEncoder model
CN117841028A (en) * 2024-03-08 2024-04-09 安徽国智数据技术有限公司 Comprehensive pipe gallery inspection robot based on artificial intelligence
CN117841028B (en) * 2024-03-08 2024-05-24 安徽国智数据技术有限公司 Comprehensive pipe gallery inspection robot based on artificial intelligence

Similar Documents

Publication Publication Date Title
KR102369229B1 (en) Risk prediction system and risk prediction method based on a rail robot specialized in an underground tunnel
KR101949525B1 (en) Safety management system using unmanned detector
CN110620906A (en) Electric power construction safety management system based on thing networking
CN112396658B (en) Indoor personnel positioning method and system based on video
CN108830390A (en) A kind of intelligent operational system and method for charging station
CN112738468B (en) Safety early warning method for intelligent park
CN113206978B (en) Intelligent monitoring and early warning system and method for security protection of oil and gas pipeline station
CN116010826B (en) Construction safety early warning method and system for building engineering
CN112906441B (en) Image recognition system and method for exploration and maintenance in communication industry
CN112911156B (en) Patrol robot and security system based on computer vision
CN115457449B (en) Early warning system based on AI video analysis and monitoring security protection
CN112163497B (en) Construction site accident prediction method and device based on image recognition
CN208207896U (en) A kind of intelligent operational system for charging station
CN111523386B (en) High-speed railway platform door monitoring and protecting method and system based on machine vision
CN112885013A (en) Monitoring and early warning method and device and readable storage medium
CN118091054B (en) Dangerous gas on-line monitoring system and method
CN116740833A (en) Line inspection and card punching method based on unmanned aerial vehicle
CN115056236A (en) Intelligent inspection robot for power plant
CN116978152B (en) Noninductive safety monitoring method and system based on radio frequency identification technology
CN113554364A (en) Disaster emergency management method, device, equipment and computer storage medium
CN116757422A (en) Building engineering safety supervision early warning method and monitoring system
CN116012784A (en) AI robot recognition-based coal mining process inspection method and system
CN116311034A (en) Robot inspection system based on contrast detection
CN116052075A (en) Hoisting operation behavior detection and evaluation method and equipment based on computer vision
KR20200078736A (en) Method for safely managing and monitoring railroad station and the periphery zone

Legal Events

Date Code Title Description
GRNT Written decision to grant