KR20230017595A - Management Robot and Method for Underground Facility - Google Patents

Management Robot and Method for Underground Facility Download PDF

Info

Publication number
KR20230017595A
KR20230017595A KR1020210099282A KR20210099282A KR20230017595A KR 20230017595 A KR20230017595 A KR 20230017595A KR 1020210099282 A KR1020210099282 A KR 1020210099282A KR 20210099282 A KR20210099282 A KR 20210099282A KR 20230017595 A KR20230017595 A KR 20230017595A
Authority
KR
South Korea
Prior art keywords
obstacle
image
driving
waterway
passage
Prior art date
Application number
KR1020210099282A
Other languages
Korean (ko)
Other versions
KR102568565B1 (en
Inventor
류서현
박준영
박재헌
왕세래
김석태
Original Assignee
한국전력공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전력공사 filed Critical 한국전력공사
Priority to KR1020210099282A priority Critical patent/KR102568565B1/en
Publication of KR20230017595A publication Critical patent/KR20230017595A/en
Application granted granted Critical
Publication of KR102568565B1 publication Critical patent/KR102568565B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/002Manipulators for defensive or military tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Abstract

The present invention relates to a facility management robot and a method thereof. In accordance with the present invention, an autonomous driving management robot photographs the inside of a tunnel through a camera, generates a three-dimensional point cloud based on the photographed image and depth information to recognize an area in which the robot cannot be driven on a three-dimensional space based on the point cloud, and sets a driving route based thereon to control a main body such that the main body is moved. Therefore, the present invention can have an effect of controlling the management robot by easily analyzing an internal environment and setting a driving route to effectively avoid an obstacle, and an effect of preventing an accident and improving safety by inspecting a facility which is confined and difficult to access.

Description

시설물 관리 로봇 및 그 방법{Management Robot and Method for Underground Facility}Facility management robot and its method {Management Robot and Method for Underground Facility}

본 발명은 지하에 설치되는 시설물의 내부를 이동하면서 설비의 상태를 모니터링하고 관리하는 시설물 관리 로봇 및 그 방법에 관한 것이다. The present invention relates to a facility management robot that monitors and manages the state of a facility while moving inside a facility installed underground and a method thereof.

전력설비 또는 송전선 등의 시설물은 지하에 매설되거나 지하에 형성된 터널에 설치되는 것이 일반적이다. Facilities such as power facilities or transmission lines are generally buried underground or installed in tunnels formed underground.

일정 규모의 전력설비인 경우 지하층의 일정 크기 이상의 공간에 설치될 수 있으나, 송전선로의 경우 폭이 좁고 천장이 낮은 전력구에 설치되는 경우가 많다. In the case of a power facility of a certain size, it can be installed in a space of a certain size or more in the basement, but in the case of a transmission line, it is often installed in a power outlet with a narrow width and a low ceiling.

또한, 송전선로의 경우, 특정 지점에서 다른 지점으로 전력을 전달하고 공급하기 위한 시설이므로, 전력을 공급하기 위한 거리만큼 전력구가 형성된다. In addition, in the case of a transmission line, since it is a facility for transmitting and supplying power from a specific point to another point, a power outlet is formed as much as the distance for supplying power.

전력구 내 송전선로의 고장을 예방하기 위해서는 주기적인 점검이 필요하다. In order to prevent breakdowns of transmission lines in power outlets, periodic inspections are required.

전력구의 송전선로를 점검하기 위해 인력이 직접 전력구에 진입하여 점검을 실시하였으나, 전력구가 지하에 위치하므로 접근이 어렵고, 내부환경이 좋지 않아 인력이 일정시간 이상 체류하기 어려운 문제가 있다. 특히 전력구가 협소하므로 인력의 진입이 어려울 뿐 아니라. 전력구 내에서 이동이 어려워 송전선로를 점검하는데 한계가 있다. In order to inspect the transmission line of the power outlet, manpower directly entered the power outlet and inspected it, but since the power outlet is located underground, it is difficult to access and the internal environment is not good, so it is difficult for manpower to stay for a certain period of time. In particular, since the power outlet is narrow, it is difficult for manpower to enter. It is difficult to move within the power tunnel, so there is a limit to inspecting the transmission line.

이러한 문제를 해소하기 위하여, 대한민국 등록특허 제10-1480543호에는 지하시설물을 관리하기 위한 이동 감시 유닛 및 감시시스템을 개시하고 있다. 지하 시설물의 천장에 레일이 설치되고, 레일을 통해 이동하면서 지하 시설물의 상태를 감지하는 이동 감시 유닛과, 이동 감시 유닛과 연결되어 정보를 수신하고 관리하는 감시 시스템을 개시한다. In order to solve this problem, Korean Patent Registration No. 10-1480543 discloses a mobile monitoring unit and monitoring system for managing underground facilities. Disclosed are a mobile monitoring unit in which a rail is installed on the ceiling of an underground facility and moves through the rail to detect a state of the underground facility, and a monitoring system connected to the mobile monitoring unit to receive and manage information.

그러나 이러한 이동 감시 유닛은 시설물이 설치된 지하 공간에 레일이 설치되어야만 이동 유닛을 통한 감시가 가능하다는 점에서 초기에 설비되지 않는 경우 적용하기 어려운 문제가 있다. However, such a mobile monitoring unit has a problem in that it is difficult to apply when it is not initially installed in that monitoring through the mobile unit is possible only when a rail is installed in the underground space where the facility is installed.

또한, 이동 유닛이 천장의 레일에 연결됨에 따라, 지하 시설의 크기나 형태, 천장의 높이에 따라 시설물과의 거리가 상이하고, 바닥면에 설치되는 시설물에 접근하여 그 상태를 상세하게 확인하기는 어렵고, 천장에 설치되는 이동 감시 유닛이 시설물에 접근하여 확인할 수 없으므로 시설물의 상태를 확인하고 감시하는데 한계가 있다. In addition, as the mobile unit is connected to the rail of the ceiling, the distance to the facility is different depending on the size or shape of the underground facility and the height of the ceiling, and it is difficult to approach the facility installed on the floor and check its condition in detail. It is difficult, and since the mobile monitoring unit installed on the ceiling cannot access and check the facility, there is a limit to checking and monitoring the state of the facility.

그에 따라 자율 주행 로봇을 투입하는 사례가 증가하고 있으나, 전력구 내에 형성된 수로 또는 통로에 위치하는 장애물에 의해 주행에 어려움이 있다. Accordingly, there are increasing cases of introducing autonomous robots, but there is difficulty in driving due to obstacles located in waterways or passages formed in power outlets.

대한민국 등록특허 제10-1480543호Republic of Korea Patent No. 10-1480543

본 발명은 상기와 같은 필요성에 의해 창출된 것으로서, 협소한 전력구에 자율 주행 로봇을 투입하고, 촬영되는 영상을 분석하여 전력구의 내부 환경을 분석하여 장애물을 회피하면서 목표지점까지 경로를 설정하여 주행하면서 송전선로를 점검하는 시설물 관리 로봇 및 그 방법을 제공하는데 그 목적이 있다. The present invention was created by the above necessity, and the self-driving robot is put into a narrow power outlet, and the captured image is analyzed to analyze the internal environment of the power outlet to set a path to the target point while avoiding obstacles. Its purpose is to provide a facility management robot and its method that checks the transmission line while doing so.

또한, 본 발명은 전력구 내부 환경을 분석하는 데 있어서, 3차원의 데이터를 바탕으로 수로와 통로를 구분하여 장애물의 위치와 크기를 고려하여 주행을 제어하는 시설물 관리 로봇 및 그 방법을 제공하는데 그 목적이 있다. In addition, the present invention provides a facility management robot and method for controlling driving in consideration of the location and size of obstacles by dividing waterways and passages based on three-dimensional data in analyzing the internal environment of a power outlet, and a method therefor. There is a purpose.

상기한 목적을 달성하기 위하여 본 발명에 따른 시설물 관리 로봇은, 시설물 내의 영상을 촬영하며 깊이정보를 획득하는 카메라; 상기 카메라를 통해 촬영된 영상을 분석하여 영역을 분할하여, 상기 시설물 내에 위치하는 수로를 검출하는 영상처리부; 상기 영상과 상기 깊이정보를 바탕으로 3차원의 포인트 클라우드로 변환하는 포인트 클라우드부; 상기 포인트 클라우드로부터 상기 수로에 대한 경계선을 산출하여 상기 시설물 내의 통로를 검출하는 연산부; 상기 통로 상에 위치하는 장애물을 검출하여 그 위치를 산출하는 장애물인식부; 장애물 정보를 바탕으로 상기 통로 상에 주행경로를 설정하여 주행을 제어하는 주행제어부; 및 주행 중, 상기 영상을 분석하여 상기 시설물 내의 설비에 대한 상태를 점검하는 제어부;를 포함한다. In order to achieve the above object, a facility management robot according to the present invention includes a camera that captures an image inside a facility and obtains depth information; an image processing unit which analyzes the image captured by the camera, divides the area, and detects a waterway located in the facility; a point cloud unit that converts the image and the depth information into a 3D point cloud; a calculation unit calculating a boundary line for the waterway from the point cloud and detecting a passage in the facility; an obstacle recognizing unit that detects an obstacle located on the passage and calculates its position; a driving control unit that controls driving by setting a driving path on the passage based on obstacle information; and a control unit that analyzes the image while driving and checks the state of equipment within the facility.

상기 포인트 클라우드부는 상기 영상과, 상기 수로에 대한 영상, 상기 깊이정보를 바탕으로, 3차원의 포인트 클라우드로 변환하여, 상기 영상에 대한 포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 각각 생성하고, 오인식 포인트를 제거하는 것을 특징으로 한다. The point cloud unit converts the image into a 3D point cloud based on the image, the image of the waterway, and the depth information, and converts the image into a point cloud, a left channel point cloud, and a right channel point cloud, respectively. It is characterized by generating and removing misrecognized points.

상기 포인트 클라우드부는 상기 수로의 좌표를 기준으로, 상기 수로로 인식된 포인트 중, 상기 수로보다 높은 위치의 포인트를 제거하는 것을 특징으로 한다. The point cloud unit may remove points located higher than the waterway among points recognized as the waterway based on the coordinates of the waterway.

상기 연산부는 상기 포인트 클라우드를 바탕으로, 상기 수로의 경계선에 대한 직선방정식을 산출하고, 상기 수로와 상기 통로의 경계선을 산출하여, 상기 통로를 검출하는 것을 특징으로 한다. The calculation unit may calculate a linear equation for a boundary line of the waterway based on the point cloud, calculate a boundary line between the waterway and the passage, and detect the passage.

상기 연산부는 상기 수로의 외측 경계선을 산출한 후, 상기 수로의 폭을 기준으로 상기 수로의 내측 경계선을 산출하여, 상기 수로와 상기 통로의 경계선으로 설정하는 것을 특징으로 한다. The operation unit may calculate an outer boundary of the waterway, then calculate an inner boundary of the waterway based on the width of the waterway, and set it as a boundary between the waterway and the passage.

상기 장애물인식부는 상기 관리 로봇의 높이, 상기 통로의 폭, 검출하고자 하는 거리를 기준으로 장애물 인식영역을 상기 통로 상에 설정하고, 상기 장애물 인식영역 내에 위치하는 장애물을 검출하는 것을 특징으로 한다. The obstacle recognizing unit may set an obstacle recognition area on the passage based on a height of the management robot, a width of the passage, and a distance to be detected, and detect an obstacle located within the obstacle recognition region.

본 발명에 따른 시설물 관리 로봇의 제어방법은, 카메라를 통해 영상을 촬영하고 깊이정보를 획득하는 단계; 상기 영상의 영역을 분할하여 시설물 내에 위치하는 수로를 검출하는 단계; 상기 영상과 상기 깊이정보를 바탕으로 3차원의 포인트 클라우드로 변환하는 단계; 상기 포인트 클라우드로부터 상기 수로에 대한 경계선을 산출하여 상기 시설물 내의 통로를 검출하는 단계; 상기 통로 상에 위치하는 장애물을 검출하여 그 위치를 산출하는 단계; 검출된 장애물의 정보를 바탕으로 상기 통로 상에 주행경로를 설정하여 주행하는 단계; 및 주행 중, 상기 영상을 분석하여 상기 시설물 내의 설비에 대한 상태를 점검하는 단계;를 포함한다. A control method of a facility management robot according to the present invention includes the steps of photographing an image through a camera and acquiring depth information; detecting a waterway located in a facility by dividing an area of the image; converting the image and the depth information into a 3D point cloud; detecting a passage in the facility by calculating a boundary line for the waterway from the point cloud; detecting an obstacle located on the passage and calculating its position; setting a driving path on the passage based on the information of the detected obstacle and driving; and checking the state of equipment in the facility by analyzing the image while driving.

상기 포인트 클라우드로 변환하는 단계는, 상기 영상과, 상기 수로에 대한 영상, 상기 깊이정보를 바탕으로, 3차원의 포인트 클라우드로 변환하는 단계; 상기 영상에 대한 포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 각각 생성하는 단계; 상기 수로의 좌표를 기준으로, 상기 수로로 인식된 포인트 중, 상기 수로보다 높은 위치의 오인식 포인트를 제거하는 단계를 더 포함한다. The converting into a point cloud may include converting the image into a 3D point cloud based on the image, the image of the waterway, and the depth information; generating a point cloud for the image, a point cloud for the left number, and a point cloud for the right number, respectively; The method may further include removing an erroneously recognized point higher than the waterway among points recognized as the waterway based on the coordinates of the waterway.

상기 장애물을 검출하는 경우, 상기 관리 로봇의 높이, 상기 통로의 폭, 검출하고자 하는 거리를 기준으로 장애물 인식영역을 상기 통로 상에 설정하여 상기 장애물 인식영역 내에 위치하는 장애물을 검출하는 단계; 및 상기 장애물 인식영역에서 검출된 장애물의 위치에 대응하여 통과 가능 여부를 판단하는 단계;를 더 포함한다. When detecting the obstacle, setting an obstacle recognition area on the passage based on the height of the management robot, the width of the passage, and a distance to be detected to detect an obstacle located within the obstacle recognition region; and determining whether passing is possible in response to the position of the obstacle detected in the obstacle recognition area.

상기 장애물을 검출하는 경우, 주행불가영역인 상기 통로 외의 영역에 위치하는 장애물은 무시하고, 상기 통로 상에 위치하는 장애물을 검출하고, 관리 로봇의 높이보다 높은 위치의 장애물은 통과 가능으로 판단하는 것을 특징으로 한다. In the case of detecting the obstacle, obstacles located in an area other than the passage, which is a non-running area, are ignored, obstacles located on the passage are detected, and obstacles located higher than the height of the management robot are judged to be passable. to be characterized

상기 설비에 대한 상태를 점검하는 단계는, 상기 영상을 분석하여 상기 설비를 검출하고, 상기 설비의 상태를 분석하여 상기 설비의 이상을 검출하는 단계; 및 상기 설비의 이상 발생 시, 현재 위치 및 상기 설비의 상태에 대한 점검데이터를 생성하여 전송하는 단계;를 더 포함한다.The step of inspecting the state of the facility may include: detecting the facility by analyzing the image, and detecting an abnormality of the facility by analyzing the state of the facility; and generating and transmitting inspection data on the current location and state of the facility when an abnormality occurs in the facility.

본 발명의 일 측면에 따르면, 시설물 관리 로봇 및 그 방법은 주행 통로보다 낮은 수로를 용이하게 인식하고, 지정된 영역에 대한 장애물을 분석함으로써, 주행이 용이한 경로를 설정할 수 있다. According to one aspect of the present invention, the facility management robot and its method can easily recognize a waterway lower than a driving passage and analyze obstacles in a designated area, thereby setting an easy driving route.

일 측면에 따르면, 본 발명은 바닥면에 위치하는 장애물뿐 아니라. 상부에 위치하는 장애물을 인식하여 3차원 공간에 대한 장애물 분석을 통해 로봇의 통과 가능한 최적의 경로를 설정하여 주행할 수 있다. According to one aspect, the present invention provides a barrier as well as an obstacle located on the floor. By recognizing the obstacles located on the upper part and analyzing the obstacles in the 3D space, the optimal path through which the robot can pass can be set and driven.

또한, 본 발명은 협소하고 접근이 어려운 시설물을 로봇을 통해 점검하고 관리할 수 있고, 송전선로의 관리를 통해 사고의 발생을 방지하고 안전성을 향상시키는 효과가 있다. In addition, the present invention can inspect and manage narrow and difficult-to-access facilities through a robot, and has an effect of preventing accidents and improving safety through management of transmission lines.

도 1 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 구성이 간략하게 도시된 블록도이다.
도 2 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 위한 데이터 흐름을 설명하는데 참조되는 도이다.
도 3 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 통한 수로 검출을 설명하는데 참조되는 도이다.
도 4 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 통한 통로 검출을 설명하는데 참조되는 도이다.
도 5 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 인식영역을 설명하는데 참조되는 도이다.
도 6 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 검출을 설명하는데 참조되는 도이다.
도 7 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 분석에 따라 주행 결정을 설명하는데 참조되는 도이다.
도 8 및 도 9 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석방법을 설명하는데 참조되는 도이다.
도 10 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 제어방법을 설명하는데 참조되는 순서도이다.
1 is a block diagram briefly showing the configuration of a facility management robot according to an embodiment of the present invention.
2 is a diagram referenced to describe a data flow for environment analysis of a facility management robot according to an embodiment of the present invention.
3 is a diagram referenced to explain waterway detection through environment analysis of a facility management robot according to an embodiment of the present invention.
FIG. 4 is a diagram referenced to explain passage detection through environment analysis of a facility management robot according to an embodiment of the present invention.
5 is a diagram referenced to describe an obstacle recognition area of a facility management robot according to an embodiment of the present invention.
6 is a diagram referenced to describe obstacle detection of a facility management robot according to an embodiment of the present invention.
FIG. 7 is a reference diagram for explaining driving determination according to an obstacle analysis of a facility management robot according to an embodiment of the present invention.
8 and 9 are diagrams referenced to explain an environment analysis method of a facility management robot according to an embodiment of the present invention.
10 is a flowchart referenced to describe a control method of a facility management robot according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명을 설명하도록 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, the present invention will be described with reference to the accompanying drawings. In this process, the thickness of lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of description. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of a user or operator. Therefore, definitions of these terms will have to be made based on the content throughout this specification.

도 1 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 구성이 간략하게 도시된 블록도이다. 1 is a block diagram briefly showing the configuration of a facility management robot according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 관리 로봇은, 카메라(170), 영상처리부(130), 포인트 클라우드부(140), 연산부(150), 주행제어부(120), 장애물인식부(160), 데이터부(190), 통신부(210), 입출력부(220), 구동부(230) 및 동작 전반을 제어하는 제어부(110)를 포함한다. As shown in FIG. 1, the management robot according to the present invention includes a camera 170, an image processing unit 130, a point cloud unit 140, a calculation unit 150, a driving control unit 120, and an obstacle recognition unit 160. ), a data unit 190, a communication unit 210, an input/output unit 220, a driving unit 230, and a control unit 110 that controls overall operations.

또한, 관리 로봇(100)은 배터리(미도시)를 포함하고 배터리의 충전 전원을 동력으로 주행한다. 관리 로봇(100)은 전, 후, 좌, 우로 주행하기 위한 복수의 휠(미도시)과 회전수단을 포함할 수 있다. In addition, the management robot 100 includes a battery (not shown) and drives by using the charging power of the battery. The management robot 100 may include a plurality of wheels (not shown) and rotation means for traveling forward, backward, left, and right.

데이터부(190)에는 카메라를 통해 촬영되는 영상, 영상처리부에 의해 생성되는 RGB영상, 포인트 클라우드 데이터, 장애물정보, 본체의 위치정보, 전력구 내부의 구조에 대한 데이터, 주행경로에 대한 데이터, 주행기록, 송전선로의 점검데이터가 저장된다.The data unit 190 includes images captured by the camera, RGB images generated by the image processing unit, point cloud data, obstacle information, body location information, data on the structure inside the power outlet, data on the driving route, and driving Records and transmission line inspection data are stored.

또한, 데이터부(190)에는 관리 로봇이 주행하는데 필요한 데이터, 고장을 판단하기 위한 기준데이터, 외부와의 통신을 위한 데이터가 저장된다. In addition, the data unit 190 stores data necessary for the management robot to drive, reference data for determining failure, and data for communication with the outside.

통신부(210)는 적어도 하나의 통신모듈을 포함하여, 관리서버와 통신할 수 있다. 경우에 따라 통신부(210)는 근거리 통신을 이용하여 전력구 내부에 구비되는 설비와 통신하여 해당 설비의 데이터를 수신할 수 있다. The communication unit 210 may communicate with the management server by including at least one communication module. In some cases, the communication unit 210 may communicate with a facility provided inside the power outlet using short-range communication and receive data from the facility.

통신부(210)는 제어부(110)의 제어명령에 따라 영상데이터와 전력구로부터 수집된 데이터를 외부, 예를 들어 관리서버로 전송한다. The communication unit 210 transmits the image data and the data collected from the power outlet to the outside, for example, the management server according to the control command of the control unit 110.

또한, 통신부(210)는 관리 로봇이 주행 중에 사고가 발생하거나, 주행불가 상태가 되는 경우 알림신호를 전송할 수 있다. In addition, the communication unit 210 may transmit a notification signal when an accident occurs while the management robot is driving or the driving is disabled.

입출력부(220)는 관리 로봇(100)으로 사용자의 요구사항을 입력하기 위한 입력수단, 관리 로봇(100)의 동작상태, 설정된 모드에 대한 정보를 출력하는 출력수단을 포함한다. 입력수단은 터치패드, 버튼, 스위치 등을 포함하고, 출력수단은 디스플레이(미도시), 스피커(미도시), 램프 등을 포함할 수 있다. The input/output unit 220 includes an input means for inputting a user's requirements to the management robot 100 and an output means for outputting information about an operating state of the management robot 100 and a set mode. The input unit may include a touch pad, a button, a switch, and the like, and the output unit may include a display (not shown), a speaker (not shown), a lamp, and the like.

입출력부(220)는 관리 로봇(100)이 주행할 수 없는 상태이거나 또는 목적지에 도달하지 못하는 경우 그에 대한 경고를 출력할 수 있다. 경고는 효과음, 경고음, 음성안내 중 적어도 하나가 스피커를 통해 출력될 수 있고, 문자, 숫자, 이미지 및 이모티콘 중 적어도 하나의 조합으로 구성되는 메시지가 디스플레이될 수 있다.The input/output unit 220 may output a warning when the management robot 100 cannot drive or does not reach a destination. As for the warning, at least one of effect sounds, warning sounds, and voice guidance may be output through a speaker, and a message composed of a combination of at least one of letters, numbers, images, and emoticons may be displayed.

구동부(230)는 배터리로부터 인가되는 동작전원에 의해 모터를 동작시키고 구동축을 통해 구동력을 복수의 휠로 전달하여 로봇이 주행하도록 한다. The driving unit 230 operates a motor by operating power applied from a battery and transmits driving force to a plurality of wheels through a driving shaft so that the robot drives.

구동부(230)는 관리 로봇(100)이 전, 후, 좌, 우로 이동하기 위한 복수의 휠이 회전동작하도록 구동력을 전달한다. 구동부(230)는 적어도 하나의 모터(미도시), 모터로부터 생성되는 구동력을 휠로 전달하기 위한 구동축을 포함할 수 있고, 그 외 복수의 구동력 전달 수단, 회전수단 등이 구비되나 그에 대한 설명은 하기에서 생략하기로 한다. The driving unit 230 transmits driving force so that a plurality of wheels for moving the management robot 100 forward, backward, left, and right rotate. The driving unit 230 may include at least one motor (not shown), a driving shaft for transmitting driving force generated from the motor to the wheel, and a plurality of other driving force transmitting means, rotating means, etc. are provided, but descriptions thereof are given below. to be omitted from

카메라(170)는 주행 방향에 대한 영상을 촬영한다. 카메라(170)는 영상 촬영과 함께 깊이정보를 포함하는 RGB-D 카메라가 사용될 수 있다. 카메라(170)는 입사되는 빛을 이용하여 영상을 생성할 뿐 아니라, 빛 또는 신호를 송출하여 되돌아오는 시간을 이용하여 깊이정보(Depth)를 생성한다. The camera 170 captures an image of the driving direction. The camera 170 may be an RGB-D camera that captures images and includes depth information. The camera 170 not only generates an image using incident light, but also generates depth information using the time it takes for light or signal to be transmitted and returned.

카메라(170)는 적어도 하나 구비되며, 상하좌우 각도조절이 가능하거나 또는 회전 가능하도록 조절수단을 더 포함할 수 있다. At least one camera 170 is provided, and may further include an adjustment means to be able to adjust the angle up and down, left and right, or to be rotatable.

경우에 따라 로봇(100)은 카메라(170) 외에도 본체 주변에 일정 거리 내에 위치하는 장애물을 감지하는 라이다, 레이더, 초음파센서 등을 더 포함하여 카메라와 함께 장애물을 감지하도록 구성할 수 있다. 다만 로봇(100)의 크기를 최소화하는 경우 카메라(170)만으로 장애물을 감지하는 것이 바람직하다. In some cases, in addition to the camera 170, the robot 100 may further include lidar, radar, and ultrasonic sensors for detecting obstacles located within a certain distance around the main body to detect obstacles together with the camera. However, when minimizing the size of the robot 100, it is preferable to detect an obstacle only with the camera 170.

영상처리부(130)는 카메라(170)의 영상을 변환하여 영상데이터를 생성한다. 영상처리부(130)는 영상으로부터 깊이정보를 추출하고, RGB영상을 생성한다. The image processing unit 130 converts the image of the camera 170 to generate image data. The image processing unit 130 extracts depth information from the image and generates an RGB image.

영상처리부(130)는 각각의 카메라에 의해 촬영된 영상으로부터 노이즈를 제거하고 밝기를 조정하여 영상데이터를 생성한다. 영상처리부(130)는 자동 화이트 발란스(Auto White Balance) 기능과 자동 노출(Auto Exposure) 기능을 수행하여, 자동적으로 색온도를 조정하고 자동적으로 노출 정도를 조정하여 영상데이터를 생성한다. The image processing unit 130 generates image data by removing noise from images captured by each camera and adjusting brightness. The image processing unit 130 generates image data by automatically adjusting color temperature and automatically adjusting exposure by performing auto white balance and auto exposure functions.

또한, 영상처리부(130)는 설정에 따라 동영상데이터 또는 이미지데이터로 영상데이터를 생성할 수 있다.Also, the image processor 130 may generate image data as video data or image data according to settings.

영상처리부(130)는 영상으로부터 영역을 분할하여 영역라벨과 객체박스를 생성할 수 있다. The image processing unit 130 may create region labels and object boxes by dividing regions from the image.

영상처리부(130)는 영역라벨과 객체박스를 바탕으로 수로를 추출한다. 영상처리부(130)는 추출된 수로에 대하여 좌측수로 영상과 우측수로 영상을 각각 생성한다. The image processing unit 130 extracts a channel based on the region label and the object box. The image processing unit 130 generates a left channel image and a right channel image for the extracted channel, respectively.

포인트 클라우드부(140)는 깊이정보와 영상데이터(RGB영상)를 결합하여 3차원의 포인트 클라우드로 변환한다. 포인트 클라우드부(140)는 2차원 데이터인 영상데이터를 깊이정보와 결합하여 3차원의 데이터로 변환한다. The point cloud unit 140 combines depth information and image data (RGB image) and converts them into a 3D point cloud. The point cloud unit 140 converts 2-dimensional image data into 3-dimensional data by combining it with depth information.

포인트 클라우드부(140)는 포인트 클라우드 변환을 통해 RGB포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 생성한다. 포인트 클라우드부(140)는 포인트 클라우드 변환 후, 오인식 포인트를 제거한다. The point cloud unit 140 generates an RGB point cloud, a point cloud with left numbers, and a point cloud with right numbers through point cloud conversion. The point cloud unit 140 removes misrecognized points after converting the point cloud.

포인트 클라우드(Point Cloud)는 3D공간상의 포인트들의 집합으로, 공간에 대한 기본 구조를 포인트로 표현하는 것은 물론, 공간 내에 위치하는 오브젝트 또한 포인트로 표현된다. A point cloud is a set of points in a 3D space, and not only expresses the basic structure of the space as points, but also objects located in the space are expressed as points.

포인트 클라우드는 3차원의 공간에 대한 구조와 내부의 오브젝트에 대한 정보를 포함하므로, 관리 로봇(100)은, 전력구와 같은 시설물의 구조와 내부에 위치하는 장애물을 용이하게 파악할 수 있다. Since the point cloud includes information on the structure of a three-dimensional space and objects inside, the management robot 100 can easily grasp the structure of a facility such as a power tunnel and obstacles located inside.

연산부(150)는 수로에 대한 직선방정식을 연산한다. 연산부(150)는 좌측수로 포인트 클라우드와 우측수로 포인트 클라우드를 바탕으로 직성방정식을 이용하여 좌측수로 직선 파라미터와 우측수로 직선 파라미터를 산출한다. The calculation unit 150 calculates a straight line equation for the waterway. The calculation unit 150 calculates a straight line parameter for the left number and a straight line parameter for the right number using an intuition equation based on the point cloud as the left number and the point cloud as the right number.

장애물인식부(160)는 로봇(100)의 본체로부터 일정 거리 내에 위치하는 객체를 감지한다. 장애물인식부(160)는 장애물의 위치, 장애물과의 거리, 장애물의 크기를 산출한다. 경우에 따라 장애물인식부(160)는 장애물의 종류를 판단할 수 있다. The obstacle recognizing unit 160 detects an object located within a certain distance from the main body of the robot 100 . The obstacle recognizing unit 160 calculates the position of the obstacle, the distance to the obstacle, and the size of the obstacle. In some cases, the obstacle recognizing unit 160 may determine the type of obstacle.

장애물인식부(160)는 영상의 포인트 클라우드와, 로봇의 높이, 주행 목표거리를 바탕으로, 주행방향에 장애물이 위치하는지 여부를 판단하여 장애물을 검출한다. The obstacle recognizing unit 160 detects the obstacle by determining whether or not the obstacle is located in the driving direction based on the point cloud of the image, the height of the robot, and the target driving distance.

또한, 장애물인식부(160)는 검출된 장애물을 상세 분석하여, 로봇이 주행 가능한지 또는 장애물에 의해 주행이 불가능한지 여부를 판단한다. In addition, the obstacle recognizing unit 160 analyzes the detected obstacle in detail to determine whether the robot can drive or cannot drive due to the obstacle.

주행제어부(120)는 목표지점까지의 주행경로를 설정한다. The travel controller 120 sets a travel route to a target point.

주행제어부(120)는 인식된 통로를 바탕으로 목표지점까지의 주행경로를 설정하되, 장애물인식부(160)를 통해 감지되는 장애물에 대응하여, 장애물을 회피하거나 통과하여 주행하도록 주행경로를 변경한다. The driving control unit 120 sets a driving route to the target point based on the recognized passage, but changes the driving route to avoid or pass through the obstacle in response to an obstacle detected through the obstacle recognizing unit 160. .

주행제어부(120)는 설정되는 주행경로를 바탕으로 구동부(230)를 제어하여 로봇이 목표지점까지 이동하도록 제어한다. The driving controller 120 controls the driving unit 230 based on the set driving path to control the robot to move to the target point.

주행제어부(120)는 주행 중 장애물이 감지되는 경우 장애물인식부의 장애물 분석결과를 바탕으로 구동부(230)를 제어하여 장애물을 회피하거나 통과하여 주행하도록 한다. When an obstacle is detected during driving, the driving control unit 120 controls the driving unit 230 based on the obstacle analysis result of the obstacle recognizing unit to avoid or pass through the obstacle to drive.

또한 주행제어부(120)는 주행 불가능한 상황이 발생하는 경우 그에 대한 신호를 제어부(110)로 인가하고, 구동부(230)를 제어하여 본체의 이동을 정지한다. In addition, the driving control unit 120 applies a signal to the control unit 110 when an impossible driving situation occurs and controls the driving unit 230 to stop the movement of the main body.

제어부(110)는 카메라(170)의 구동을 제어하고, 입출력부(220)를 통해 입력되는 설정에 따라 본체가 주행하도록 설정하고, 주행 상태에 대한 정보를 출력한다. The controller 110 controls driving of the camera 170, sets the main body to drive according to settings input through the input/output unit 220, and outputs information about the driving state.

제어부(110)는 촬영되는 영상에 대한 데이터, 감지되는 장애물에 대한 정보, 주행 중 촬영된 영상을 바탕으로 전력구 내의 설비에 대한 데이터를 데이터부(190)에 저장한다. The control unit 110 stores data on facilities in the power outlet in the data unit 190 based on data on captured images, information on detected obstacles, and images captured while driving.

제어부(110)는 영상을 바탕으로 전력구 내의 설비를 점검하고 이상 여부를 판단한다. 제어부(110)는 영상처리부(130)를 통해 분석된 영상을 기반으로 전력구 내의 설비를 검출하고, 설비의 상태를 판단하고 기저장된 데이터와 비교하여 이상을 검출한다. The control unit 110 checks the equipment in the power outlet based on the image and determines whether there is an abnormality. The control unit 110 detects facilities in the electric power outlet based on the image analyzed by the image processing unit 130, determines the state of the facilities, and compares them with pre-stored data to detect abnormalities.

제어부(110)는 설비 이상 시, 점검데이터를 데이터부(190)에 저장하고, 통신부(210)를 통해 위치정보와 점검데이터를 전송한다. The control unit 110 stores the inspection data in the data unit 190 when the equipment is abnormal, and transmits the location information and inspection data through the communication unit 210.

제어부(110)는 주행 중 이상 발생 시, 예를 들어 점검이 완료되기 전 목적지까지 주행할 수 없는 경우, 통신부(210)를 통해 외부의 서버와 통신하여 전력구 내의 상황에 대한 데이터를 전송한다. The controller 110 communicates with an external server through the communication unit 210 to transmit data about the situation in the power outlet when an abnormality occurs while driving, for example, when the vehicle cannot drive to the destination before the inspection is completed.

제어부(110)는 주행할 수 없는 경우, 현재 위치에 대한 정보를 통신부(210)를 통해 전송한다. The controller 110 transmits information about the current location through the communication unit 210 when driving is impossible.

또한, 제어부(110)는 지정된 위치로 복귀하도록 주행제어부(120)로 제어신호를 인가한다. In addition, the control unit 110 applies a control signal to the driving control unit 120 to return to the designated position.

따라서, 관리 로봇(100)은 RGB-D 카메라를 통해 촬영되는 RGB 영상정보를 활용하여, 주행 가능한 경로를 산출하고, 깊이 정보 영상과 결합하여 3차원 포인트 클라우드로 변환함으로써 주행 가능한 경로를 산출한다. Therefore, the management robot 100 calculates a drivable route by utilizing the RGB image information captured by the RGB-D camera, and converts the drivable route into a 3D point cloud by combining with the depth information image.

관리 로봇(100)은 포인트 클라우드를 바탕으로, 3차원 공간상에서 로봇이 주행하지 못하는 영역을 인식하고, 이를 기반으로 주행경로를 설정하고, 설정된 주행경로에 따라 본체가 이동하도록 주행을 제어한다.Based on the point cloud, the management robot 100 recognizes an area where the robot cannot travel in a 3D space, sets a travel path based on this, and controls the main body to move according to the set travel path.

그에 따라 관리 로봇(100)은 목표지점까지 이동하면서 전력구 내의 설비에 대한 상태를 확인하고, 전력구 내의 환경에 따라 지정된 지점으로 복귀한다. Accordingly, the management robot 100 moves to the target point, checks the state of facilities in the power district, and returns to a designated point according to the environment in the power district.

도 2 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 위한 데이터 흐름을 설명하는데 참조되는 도이다. 2 is a diagram referenced to describe a data flow for environment analysis of a facility management robot according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 관리 로봇(100)은 영상을 촬영하여 단계별로 데이터를 처리하여 목적지까지의 경로를 설정하여 점검을 실시한다. As shown in FIG. 2 , the management robot 100 takes an image, processes data step by step, sets a route to a destination, and performs inspection.

도 2의 (a)에 도시된 바와 같이, 관리 로봇(100)은 카메라(170)를 통해 촬영된 RGB영상으로부터 수로를 인식하는 단계, 도 2의 (b)에 도시된 바와 같이, 3차원의 포인트 클라우드로 변환하는 단계, 도 2의 (c)와 같이 장애물을 인식하고 경로를 설정하는 단계로 데이터를 처리하여 전력구 등의 시설물에서 자율 주행한다. As shown in (a) of FIG. 2, the management robot 100 recognizes the channel from the RGB image taken through the camera 170, and as shown in (b) of FIG. 2, the three-dimensional Converting to a point cloud, recognizing obstacles and setting a route as shown in (c) of FIG.

도 2의 (a)를 참조하면, 수로를 인식하는 단계를 다음과 같다. Referring to (a) of FIG. 2, the steps of recognizing a waterway are as follows.

관리 로봇(100)은 카메라(170)에서 촬영된 영상에서 RGB영상을 생성하고(S11), RGB영상을 바탕으로 영상처리부(130)가 영상 내의 영역을 분할한다(S12). 영상처리부(130)는 영역에서 분할된 영역을 바탕으로 영역라벨을 지정하고 객체박스를 설정한다(S13). 영상처리부(130)는 영역라벨과 객체박스를 바탕으로, 수로를 추출한다(S14). 영상처리부(130)는 추출된 수로에 대하여, 영역의 중앙점을 기준으로 좌측의 수로에 대한 좌측수로 영상과 우측의 수로에 대한 우측수로 영상을 생성한다(S15). The management robot 100 generates an RGB image from the image captured by the camera 170 (S11), and the image processing unit 130 divides an area within the image based on the RGB image (S12). The image processing unit 130 designates a region label based on the divided region and sets an object box (S13). The image processing unit 130 extracts a channel based on the region label and the object box (S14). The image processing unit 130 generates a left channel image for the left channel and a right channel image for the right channel with respect to the extracted channel based on the center point of the region (S15).

도 2의 (b)를 참조하면, 포인트 클라우드를 변환하는 단계는 다음과 같다. Referring to (b) of FIG. 2, the step of converting the point cloud is as follows.

포인트 클라우드부(140)는 RGB영상, 좌측수로 영상, 우측수로 영상, 깊이 영상을 바탕으로(S21), 3차원의 포인트 클라우드로 변환한다(S22). 변환을 통해 포인트 클라우드부(140)는 RGB포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 생성한다(S23). 포인트 클라우드부(140)는 생성된 포인트 클라우드 중 오인식된 포인트를 제거한다. The point cloud unit 140 converts the RGB image, the left channel image, the right channel image, and the depth image into a 3D point cloud (S21). Through conversion, the point cloud unit 140 generates an RGB point cloud, a point cloud with left numbers, and a point cloud with right numbers (S23). The point cloud unit 140 removes misrecognized points from among the generated point clouds.

연산부(150)는 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 이용하여 수로에 대한 직선방정식을 연산한다(S25). 그에 따라 연산부(150)는 좌측수로 직선 파라미터와 우측수로 직선 파라미터를 산출한다(S26). The calculation unit 150 calculates a straight line equation for the waterway using the point cloud as the left number and the point cloud as the right number (S25). Accordingly, the calculation unit 150 calculates the linear parameter as the left number and the linear parameter as the right number (S26).

도2의 (c)와 같이 장애물을 인식하고 경로를 설정하는 단계는 다음과 같다.Steps for recognizing an obstacle and setting a path as shown in (c) of FIG. 2 are as follows.

장애물인식부(160)는 포인트 클라우드부(140)에 의해 생성된 RGB 포인트 클라우드, 좌측수로 직선 파라미터, 우측수로 직선 파라미터, 로봇의 높이, 및 주행 목표거리를 바탕으로, 로봇이 주행할 영역에 위치하는 장애물을 1차 검출한다(S32). 장애물인식부(160)는 장애물의 유무를 판단한다. The obstacle recognizing unit 160 determines the area where the robot will travel based on the RGB point cloud generated by the point cloud unit 140, the linear parameters of the left channel, the linear parameters of the right channel, the height of the robot, and the target driving distance. Obstacles located at are firstly detected (S32). The obstacle recognizing unit 160 determines whether or not there is an obstacle.

장애물인식부(160)는 장애물이 존재하는 경우, RGB 포인트 클라우드, 좌측수로 직선 파라미터, 우측수로 직선 파라미터, 로봇의 모양, 및 장애물 거리를 바탕으로(S34) 장애물을 상세 분석한다(S35). If there is an obstacle, the obstacle recognizing unit 160 analyzes the obstacle in detail (S34) based on the RGB point cloud, the linear parameters of the left number, the linear parameters of the right number, the shape of the robot, and the obstacle distance (S35). .

장애물인식부(160)는 장애물의 구체적인 위치를 바탕으로 로봇이 회피 또는 통과 가능한지 여부를 판단하고, 그에 대응하여 목표지점까지의 경로를 설정한다(S36).The obstacle recognizing unit 160 determines whether the robot can avoid or pass based on the specific position of the obstacle, and sets a path to the target point in response thereto (S36).

도 3 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 통한 수로 검출을 설명하는데 참조되는 도이다. 3 is a diagram referenced to explain waterway detection through environment analysis of a facility management robot according to an embodiment of the present invention.

도 3의 (a)에 도시된 바와 같이, 관리 로봇(100)은 시설물에 진입하여 카메라(170)를 통해 시설물의 내부를 촬영한다. 도 2의 (a)는 RGB영상이다. As shown in (a) of FIG. 3 , the management robot 100 enters the facility and photographs the inside of the facility through the camera 170 . 2(a) is an RGB image.

전력구 등의 시설물에는 송전선로 등의 설비가 설치되고, 시설물에는 내부를 이동할 수 있는 통로(1)가 형성된다. 통로(1)는 시설물 내의 중앙에 설치되거나 좌측 또는 우측의 어느 일측에 형성되는 것 또한 가능하다. In facilities such as power outlets, facilities such as transmission lines are installed, and passages 1 for moving inside are formed in the facilities. It is also possible that the passage 1 is installed in the center of the facility or formed on either side of the left or right side.

시설물에는 지하에 위치하므로, 물이 흐르는 수로(2, 3)가 형성될 수 있다. 수로(2,3)는 통로(1)를 중심으로 좌측 및 우측에 설치되고, 경우에 따라 어느 일측에 설치될 수 있다. Since the facility is located underground, waterways 2 and 3 through which water flows may be formed. The waterways 2 and 3 are installed on the left and right sides of the passage 1, and may be installed on either side depending on the case.

또한, 시설물에는 설비를 지지하기 위한 구조물, 설비를 설치하거나 관리하기 위한 도구 또는 장치 등이 배치된다. In addition, a structure for supporting the facility, a tool or device for installing or managing the facility, and the like are disposed in the facility.

도 3의 (b)에 도시된 바와 같이, 관리 로봇(100)은 RGB영상으로부터 영역을 분할한다. As shown in (b) of FIG. 3, the management robot 100 divides an area from an RGB image.

관리 로봇(100)은 시설물 내를 이동하면서 송전선로 등의 설비를 점검하므로, 시설물 내에서의 통로를 주행영역으로 설정하고, 수로(2,3)는 주행불가능영역으로 설정한다. Since the management robot 100 inspects facilities such as power transmission lines while moving within the facility, the passage within the facility is set as a driving area, and the waterways 2 and 3 are set as non-running areas.

영상처리부(130)는 RGB영상으로부터 수로(2, 3)를 검출한다. 수로(2, 3)는 통로를 따라 형성되며, 시설물의 구조에 따라 직선 또는 곡선으로 형성된다. 영상처리부(130)는 RGB영상을 분석하여 영역을 분할하고, 주행불가능영역인 좌측수로(2)와 우측수로(3)를 검출하고, 영역을 구분한다. The image processing unit 130 detects the channels 2 and 3 from the RGB image. The waterways 2 and 3 are formed along the passage and are formed in a straight line or a curve depending on the structure of the facility. The image processing unit 130 divides the area by analyzing the RGB image, detects the left waterway 2 and the right waterway 3, which are non-driving areas, and divides the area.

영상처리부(130)는 RGB영상에서 통로 및 수로를 인식하기 위해, 다양한 객체 영역 분할 알고리즘을 적용하여, 객체 영역 분할을 실시할 수 있다. The image processing unit 130 may perform object region segmentation by applying various object region segmentation algorithms in order to recognize passages and waterways in the RGB image.

그에 따라, 도 3의 (c)에 도시된 바와 같이, 영상처리부(130)는 검출된 수로 중, 좌측수로(2)가 포함된 영상, 즉 좌측수로 영상을 생성한다. 또한, 도 3의 (d)에 도시된 바와 같이, 영상처리부(130)는 검출된 수로 중, 우측수로(3)가 포함된 영상인 우측수로 영상을 생성한다. Accordingly, as shown in (c) of FIG. 3 , the image processing unit 130 generates an image including the left waterway 2 among the detected waterways, that is, an image of the left waterway. In addition, as shown in (d) of FIG. 3 , the image processing unit 130 generates an image of the right water channel, which is an image including the right water channel 3, among the detected water channels.

도 4 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 통한 통로 검출을 설명하는데 참조되는 도이다. FIG. 4 is a diagram referenced to explain passage detection through environment analysis of a facility management robot according to an embodiment of the present invention.

포인트 클라우드부(140)는 좌측수로 영상, 우측수로 영상, RGB영상과, 깊이 영상(깊이 정보)을 바탕으로 3차원의 포인트 클라우드로 변환한다. 깊이 영상은 RGB-D카메라에 의해 영상촬영 시 획득되는 깊이 정보 이다. The point cloud unit 140 converts a left channel image, a right channel image, an RGB image, and a depth image (depth information) into a 3D point cloud. Depth image is the depth information obtained when capturing an image by an RGB-D camera.

포인트 클라우드부(140)는 핀홀 카메라 모델(pinhole camera model)을 이용하여 다음 수학식 1과 같이 RGB 영상과 깊이 영상을 3D 포인트 클라우드로 변환할 수 있다. The point cloud unit 140 may convert an RGB image and a depth image into a 3D point cloud as shown in Equation 1 using a pinhole camera model.

Figure pat00001
Figure pat00001

여기서

Figure pat00002
,
Figure pat00003
는 영상에서의 pixel 값,
Figure pat00004
,
Figure pat00005
는 영상 원점 정보와 카메라 광학축 원점과의 이동변환 값,
Figure pat00006
,
Figure pat00007
는 초점 값, depth는 깊이 영상에 기록된 값이다.here
Figure pat00002
,
Figure pat00003
is the pixel value in the image,
Figure pat00004
,
Figure pat00005
is the movement conversion value between the video origin information and the camera optical axis origin,
Figure pat00006
,
Figure pat00007
is a focus value, and depth is a value recorded in the depth image.

이 값은 카메라 좌표계에서의 좌표이므로, 다음 수학식 2와 같이 로봇 좌표계로 좌표 변환을 실시한다.Since this value is a coordinate in the camera coordinate system, coordinate conversion is performed in the robot coordinate system as shown in Equation 2 below.

Figure pat00008
Figure pat00008

여기서,

Figure pat00009
는 로봇 좌표계에서 i번째 포인트 클라우드, T는 카메라 좌표계에서 로봇 좌표계로 좌표변환 행렬,
Figure pat00010
는 카메라 좌표계에서 i번째 포인트 클라우드다. here,
Figure pat00009
is the ith point cloud in the robot coordinate system, T is the coordinate transformation matrix from the camera coordinate system to the robot coordinate system,
Figure pat00010
is the ith point cloud in the camera coordinate system.

그에 따라 포인트 클라우드부(140)는 도 4와 같이 변환된 포인트 클라우드를 생성한다. Accordingly, the point cloud unit 140 generates a converted point cloud as shown in FIG. 4 .

포인트 클라우드부(140)는 RGB영상에 대한 RGB포인트 클라우드, 좌측수로에 대한 좌측수로 포인트 클라우드, 우측수로에 대한 우측수로 포인트 클라우드를 각각 생성한다. The point cloud unit 140 generates an RGB point cloud for an RGB image, a point cloud for a left channel for a left channel, and a point cloud for a right channel for a right channel.

포인트 클라우드부(140)는 포인트 클라우드를 바탕으로 앞서 검출된 좌측수로(2)와 우측수로(3)를 설정한다. 포인트 클라우드부(140)는 로봇의 위치를 좌표축으로 하여, X축, Y축, Z축을 설정하고, 각 포인트를 처리한다. The point cloud unit 140 sets the previously detected left channel 2 and right channel 3 based on the point cloud. The point cloud unit 140 sets the X-axis, Y-axis, and Z-axis using the position of the robot as a coordinate axis, and processes each point.

포인트 클라우드부(140)는 잘못 인식된 정보를 없애기 위하여, 오인식된 포인트를 제거한다. The point cloud unit 140 removes misrecognized points to eliminate misrecognized information.

예를 들어, 포인트 클라우드부는 수로의 좌표를 기준으로, 상기 수로로 인식된 포인트 중, 상기 수로보다 높은 위치의 포인트를 제거한다. 포인트 클라우드부(140)는, 수로의 좌표가 Z축값이 0 미만이므로, Z축 좌표값이 0 이상인 좌측수로 포인트 클라우드와 우측수로 포인트 클라우드에서, Z축 좌표값이 0 이상인 수로 포인트 클라우드를 제거한다. For example, the point cloud unit removes points located higher than the waterway among points recognized as the waterway based on the coordinates of the waterway. Since the coordinates of the waterways have a Z-axis value less than 0, the point cloud unit 140 generates a point cloud with numbers having a Z-axis coordinate value of 0 or more, from a point cloud with a left number having a Z-axis coordinate value of 0 or more and a point cloud with a right-hand number having a Z-axis coordinate value of 0 or more. Remove.

연산부(150)는 포인트 클라우드부(140)의 처리결과를 바탕으로 좌측수로(2)와 우측수로(3)에 대한 경계선을 검출한다. The calculation unit 150 detects a boundary line between the left waterway 2 and the right waterway 3 based on the processing result of the point cloud unit 140.

연산부(150)는 좌측수로(2)와 우측수로(3)에 대하여, 좌측수로 포인트 클라우드와 우측수로 포인트 클라우드를 기반으로, 수로에 대한 직선의 방정식을 산출한다. 이때, 연산부(150)는 로봇좌표계에서 X-Y 평면에서 분석이 필요하기 때문에, Z 좌표는 무시하고 직선의 방정식을 산출할 수 있다. The calculation unit 150 calculates an equation of a straight line for the left waterway 2 and the right waterway 3 based on the left waterway point cloud and the right waterway point cloud. At this time, since the calculation unit 150 requires analysis in the X-Y plane in the robot coordinate system, the Z coordinate may be ignored and the equation of the straight line may be calculated.

연산부(150)는 좌측수로의 직선 L과 평행한 단위벡터를

Figure pat00011
, 해당 단위벡터를 지나는 한점을
Figure pat00012
, 우측수로의 직선의 R과 평행한 단위벡터를
Figure pat00013
, 해당 단위백터를 지나는 한점을
Figure pat00014
이라고 설정한다. The operation unit 150 generates a unit vector parallel to the straight line L in the left channel.
Figure pat00011
, a point passing through the unit vector
Figure pat00012
, the unit vector parallel to R of the straight line in the right channel
Figure pat00013
, a point passing through the unit vector
Figure pat00014
set as

실제 수로는 왼쪽과 오른쪽의 직선의 기울기가 크게 차이 나지 않으나, 영상으로부터 이를 인식하는 과정과, 직선의 방정식을 추정하는 과정에서 약간의 오차가 발생할 수 있다. Although there is not much difference in the slope of the straight line between the left and right sides of the actual waterway, a slight error may occur in the process of recognizing it from the image and estimating the equation of the straight line.

연산부(150)는 이를 단순화를 위해, 왼쪽 직선 L과 평행한 단위벡터

Figure pat00015
와, 오른쪽 직선 R의 평행한 단위 벡터
Figure pat00016
의 평균단위벡터를 최종적으로 직선 L 및 R과 평행한 단위벡터로 변경한다. For simplicity, the operation unit 150 is a unit vector parallel to the left straight line L.
Figure pat00015
and unit vector parallel to the right-hand straight line R
Figure pat00016
The average unit vector of is finally changed to a unit vector parallel to the straight lines L and R.

평균단위벡터는 다음의 수학식3과 같다. The average unit vector is expressed by Equation 3 below.

Figure pat00017
Figure pat00017

이때, 산출된 직선의 방정식의 경우 수로와 통로의 경계선이 아닌, 수로 바깥쪽의 외측 경계선(13, 14)를 나타낸다. At this time, in the case of the equation of the calculated straight line, it represents the outer boundary lines 13 and 14 outside the waterway, not the boundary line between the waterway and the passage.

수로의 폭은 표준으로 정해져 있으므로, 연산부(150)는 구해진 직선을 아래의 수학식4를 이용하여, 직선의 방정식을 변경한다. Since the width of the channel is determined by standard, the calculation unit 150 changes the equation of the straight line using Equation 4 below for the obtained straight line.

Figure pat00018
Figure pat00018

산출된 직선방정식은 다음과 같으며 그에 대한 그래프는 도 8의 (a)와 같다. The calculated linear equation is as follows, and the graph thereof is shown in (a) of FIG.

연산부(150)는 산출된 직선방정식을 이용하여 수로의 경계선 중, 통로측의 내측 경계선(11, 12)을 산출한다. 또한, 연산부(150)는 내측 경계선(11, 12)이 수로와 통로의 경계선이므로, 이를 기준으로 통로(1)를 설정한다. The calculation unit 150 calculates the inner boundary lines 11 and 12 on the passage side among the boundary lines of the waterway using the calculated linear equation. In addition, since the inner boundary lines 11 and 12 are the boundary lines between the channel and the passage, the calculation unit 150 sets the passage 1 based on them.

그에 따라 연산부(150)는 경계선(11, 12)에 대한, 좌측수로 직선 파라미터와 우측수로 직선 파라미터를 산출할 수 있다. Accordingly, the calculation unit 150 may calculate a straight line parameter as a left number and a straight line parameter as a right number for the boundary lines 11 and 12 .

도 5 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 인식영역을 설명하는데 참조되는 도이다. 5 is a diagram referenced to describe an obstacle recognition area of a facility management robot according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 관리 로봇(100)은 통로에 위치하는 장애물을 검출한다. As shown in FIG. 5 , the management robot 100 detects an obstacle located in a passage.

좌측수로(2)의 우측경계선(11)과, 우측수로(3)의 좌측경계선(12)을 기준으로 통로(1)가 설정되면, 관리 로봇(100)은 통로(1) 상에 위치하는 장애물(21, 22)를 검출한다. When the passage 1 is set based on the right boundary 11 of the left waterway 2 and the left boundary 12 of the right waterway 3, the management robot 100 is located on the passage 1 obstacles (21, 22) to be detected.

시설물의 내부에는 송전선로를 지지하기 위한 지지대가 복수로 설치되므로, 전체 영역에 대하여 장애물을 감지하는 경우 복수의 지지대 등이 장애물로 검출될 수 있으므로, 관리 로봇(100)은 일정거리 내의 장애물을 검출한다. Since a plurality of supports for supporting the power transmission line are installed inside the facility, the management robot 100 detects obstacles within a certain distance since the plurality of supports may be detected as obstacles when detecting obstacles in the entire area. do.

또한, 관리 로봇(100)은 통로(1)를 주행하고, 그 외의 영역으로는 주행하지 않으므로, 통로 외의 영역에 위치하는 장애물은 무시한다. In addition, since the management robot 100 travels along the aisle 1 and does not travel to other areas, obstacles located in areas other than the aisle are ignored.

장애물인식부(160)는 통로(1) 상에 본체로부터 일정 거리 내에 장애물 인식영역(15)을 설정하고, 해당 영역에 포함되는 장애물을 검출한다. The obstacle recognizing unit 160 sets an obstacle recognition area 15 within a certain distance from the main body on the passage 1 and detects obstacles included in the corresponding area.

장애물 인식영역(15)은 세로는 로봇 최대 높이(b), 가로는 통로의 길이(a), 두께는 로봇으로 부터 일정거리(d)로 설정할 수 있다. The obstacle recognition area 15 can be set to the maximum robot height (b) vertically, the length (a) of the passage horizontally, and a certain distance (d) from the robot in thickness.

즉, 관리 로봇(100)이 통로 상에, 로봇으로부터 일정거리 d까지의 범위 내에서 로봇의 높이 내에 위치하는 장애물을 검출한다. That is, the management robot 100 detects an obstacle located within a height of the robot within a range of a certain distance d from the robot on the passage.

장애물 인식영역(15)을 X-Y 평면으로 나타내면 도 8의 (b)에 도시된 바와 같다. When the obstacle recognition area 15 is expressed in the X-Y plane, it is as shown in FIG. 8(b).

장애물인식부(160)는 장애물 인식영역(15) 내에 장애물이 위치하지 않는 경우 장애물 없음에 대한 신호를 제어부(110)로 인가하고, 제어부(110)는 주행제어부(120)를 제어하여 목표점까지의 주행경로를 설정하여 주행하도록 한다. When an obstacle is not located within the obstacle recognition area 15, the obstacle recognizing unit 160 applies a signal indicating that there is no obstacle to the controller 110, and the controller 110 controls the driving controller 120 to reach the target point. Set the driving route to drive.

또한, 장애물인식부(160)는 주행 중에, 도 8의 (b)의 T점, 즉 로봇으로부터 거리 d에 위치하는 통로의 중앙점을 기준으로 새로운 장애물 인식영역을 설정하여 장애물을 검출할 수 있다. In addition, the obstacle recognizing unit 160 may detect an obstacle by setting a new obstacle recognition area based on point T of FIG. .

장애물인식부(160)는 주행 중에 지속적으로 장애물 인식영역을 설정하여, 통로 상에 위치하는 장애물을 검출한다. The obstacle recognizing unit 160 continuously sets an obstacle recognition area while driving to detect obstacles located on the passage.

도 6 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 검출을 설명하는데 참조되는 도이고, 도 7 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 분석에 따라 주행 결정을 설명하는데 참조되는 도이다. 6 is a reference diagram for explaining obstacle detection of a facility management robot according to an embodiment of the present invention, and FIG. 7 is a reference for explaining driving determination according to an obstacle analysis of a facility management robot according to an embodiment of the present invention. It is the way to become

장애물인식부(160)는 장애물 인식영역(15)에 장애물이 위치하는 경우, 장애물을 상세 분석하여 그 위치를 산출한다. When an obstacle is located in the obstacle recognizing area 15, the obstacle recognizing unit 160 analyzes the obstacle in detail to calculate its position.

도 6의 (a)에 도시된 바와 같이, 장애물인식부(160)는 제 1 장애물(21)을 검출한다. As shown in (a) of FIG. 6 , the obstacle recognizing unit 160 detects the first obstacle 21 .

장애물인식부(160)는 제 1 장애물(21)을 상세 분석하여 그 위치와 크기를 산출한다. 장애물인식부(160)는 장애물이 위치하는 평면에 대하여 제 1 장애물에 대하여 분석을 실시한다. The obstacle recognizing unit 160 analyzes the first obstacle 21 in detail and calculates its position and size. The obstacle recognizing unit 160 analyzes the first obstacle on the plane where the obstacle is located.

도 9의 (a)와 같이 제 1 장애물(21)까지의 거리 d0에서의 평면을 기준으로 검출한다. As shown in (a) of FIG. 9, the plane at the distance d0 to the first obstacle 21 is detected as a reference.

또한, 장애물인식부(160)는 관리 로봇(100)이 장애물을 통과하거나 회피하여 주행 가능한지 여부를 판단한다. In addition, the obstacle recognizing unit 160 determines whether the management robot 100 can drive through or avoid the obstacle.

도 7의 (a)와 같이, 장애물인식부(160)는 제 1 장애물(21)이 위치하는 경우, 제 1 장애물(21)이 통로의 우측에 위치하므로, 장애물을 제외한 영역의 크기와 관리 로봇의 단면적(50)과 비교하여, 주행 가능여부를 판단할 수 있다. As shown in (a) of FIG. 7, when the first obstacle 21 is located, the obstacle recognizing unit 160 determines the size of the area excluding the obstacle and the management robot since the first obstacle 21 is located on the right side of the passage. By comparing with the cross-sectional area 50 of , it is possible to determine whether driving is possible.

도 6의 (b)에 도시된 바와 같이, 장애물인식부(160)는 제 2 장애물(22)을 검출한다. As shown in (b) of FIG. 6 , the obstacle recognizing unit 160 detects the second obstacle 22 .

장애물인식부(160)는 제 2 장애물(22)의 거리를 판단하고, 제 2 장애물(22)의 위치를 분석한 후, 통과 가능 여부를 판단한다. The obstacle recognizing unit 160 determines the distance of the second obstacle 22, analyzes the position of the second obstacle 22, and determines whether passing is possible.

도 7의 (b)에 도시된 바와 같이, 장애물인식부(160)는 제 2 장애물(22)의 통로(1)의 어느 일측에 위치하고, 관리 로봇(100)의 단면적(50)을 고려할 때, 관리 로봇(100)의 주행경로 상에 제 2 장애물(22)이 위치하여 충돌영역(31)이 발생하므로, 통과 불가능으로 판단한다. As shown in (b) of FIG. 7, the obstacle recognizing unit 160 is located on either side of the passage 1 of the second obstacle 22, and considering the cross-sectional area 50 of the management robot 100, Since the second obstacle 22 is located on the driving path of the management robot 100 and the collision area 31 occurs, it is determined that the passage is impossible.

한편, 도 7의 (c)에 도시된 바와 같이, 제 3 장애물(23)이 검출되는 경우, 장애물인식부(160)는 제 3 장애물(23)의 위치를 분석하여, 로봇의 높이(b)보다 높은 곳에 위치하는 경우 관리 로봇(100)의 제 3 장애물(23)의 하부를 통과할 수 있다고 판단한다. On the other hand, as shown in (c) of FIG. 7 , when the third obstacle 23 is detected, the obstacle recognizing unit 160 analyzes the position of the third obstacle 23 and determines the height b of the robot. When located at a higher place, it is determined that the management robot 100 can pass through the lower part of the third obstacle 23 .

장애물인식부(160)는 검출된 장애물에 대한 정보과 통과 가능 여부를 주행제어부(120)로 인가한다. The obstacle recognizing unit 160 applies information about the detected obstacle and whether it is possible to pass the obstacle to the driving control unit 120 .

주행제어부(120)는 장애물 정보와 목표지점, 통로에 대한 정보 등을 바탕으로 목표지점까지의 주행경로를 설정한다. The driving controller 120 sets a driving route to the target point based on obstacle information, the target point, and information on passages.

주행제어부(120)는 인식된 통로(1)의 범위 내에서 주행하되, 인식된 장애물을 회피하거나 통과하는 경로를 설정한다. The travel control unit 120 sets a path that travels within the range of the recognized passage 1 and avoids or passes through the recognized obstacle.

또한, 주행제어부(120)는 주행 중, 장애물인식부(160)에 의해 장애물이 검출되면, 새로운 장애물에 대한 정보를 바탕으로 주행경로를 수정한다. In addition, when an obstacle is detected by the obstacle recognizing unit 160 while driving, the driving controller 120 corrects the driving path based on information about the new obstacle.

주행제어부(120)는 다양한 주행방정식을 적용하여 주행경로를 설정하고 그에 따라 구동부를 제어할 수 있다. 예를 들어 주행제어부(120)는 직진 신호 및 회전신호 2가지로 제어하는 차동 구동 방식으로 주행을 제어할 수 있다. The driving control unit 120 may apply various driving equations to set a driving route and control the driving unit accordingly. For example, the driving control unit 120 may control driving by using a differential driving method in which two signals are used, such as a straight ahead signal and a turn signal.

주행신호의 계산을 위한 식을 도식화하면 도 9의 (b)와 같다.The equation for calculating the driving signal is schematized as shown in (b) of FIG.

주행제어부(120)는 관리 로봇(100)의 주행 목표 지점을

Figure pat00019
라고 할 때, 차동 구동 방식에 따라, 원 운동을 실시하므로, 직진 속도를 v, 회전속도를 w라고 하면 아래의 수학식5와 같다. The driving control unit 120 determines the driving target point of the management robot 100.
Figure pat00019
When it is said, since circular motion is performed according to the differential drive method, if the straight speed is v and the rotational speed is w, Equation 5 is shown below.

Figure pat00020
Figure pat00020

여기서 r은 회전운동의 반경을 나타낸다. r값을 연산하여, 임의의 직진속도에 대해 회전속도를 계산할 수 있다. where r represents the radius of rotation. By calculating the r value, the rotational speed can be calculated for an arbitrary straight speed.

이때,

Figure pat00021
와 r과의 관계는 다음 수학식6과 같다.At this time,
Figure pat00021
The relationship between and r is shown in Equation 6 below.

Figure pat00022
Figure pat00022

여기서 삼각함수 공식을 이용하여 정리하면 회전속도 w는 다음의 수학식7과 같다.Here, when organized using the trigonometric formula, the rotational speed w is as shown in Equation 7 below.

Figure pat00023
Figure pat00023

그에 따라, 주행제어부(120)는 주행경로를 설정하고, 산출된 회전속도에 따라 구동부(230)를 제어하여 본체가 이동하도록 한다. Accordingly, the driving control unit 120 sets a driving route and controls the driving unit 230 according to the calculated rotational speed so that the main body moves.

도 8 및 도 9 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석방법을 설명하는데 참조되는 도이다. 8 and 9 are diagrams referenced to explain an environment analysis method of a facility management robot according to an embodiment of the present invention.

도 8의 (a)는 도 4에서 설명한 연산부(150)에 의해 설정되는 수로에 대한 직선방정식이다. (a) of FIG. 8 is a linear equation for a waterway set by the calculation unit 150 described in FIG. 4 .

연산부(150)는 좌측수로(2)의 좌측경계선(13)과 우측수로(3)의 우측경계선(14)을 산출한 후, 이를 바탕으로, 지정된 수로의 폭을 기준으로 좌측수로(2)의 우측경계선(11)과 우측수로(3)의 좌측경계선(12)에 대한 직선방정식을 도 8의(a)와 같이 산출할 수 있다. After calculating the left boundary line 13 of the left waterway 2 and the right boundary line 14 of the right waterway 3, the calculation unit 150 calculates the left waterway (14) based on the width of the designated waterway. The linear equation for the right boundary line 11 of 2) and the left boundary line 12 of the right channel 3 can be calculated as shown in FIG. 8(a).

또한, 연산부(150)는 경계선(11, 12)을 기준으로 통로(1)를 설정한다. In addition, the calculation unit 150 sets the passage 1 based on the boundary lines 11 and 12 .

도 8의 (b)는 도 5에서 설명한 장애물 인식영역(15)을 X-Y 평면으로 나타낸 것이다. 8(b) shows the obstacle recognition area 15 described in FIG. 5 in the X-Y plane.

장애물 인식영역(15)의 가로는 통로의 폭(a)이고, 세로는 관리 로봇(100)의 높이이며, 두께는 관리 로봇(100)으로부터 장애물을 확인하고자 하는 거리(d)이다. The width of the obstacle recognition area 15 is the width (a) of the passage, the length is the height of the management robot 100, and the thickness is the distance (d) to check the obstacle from the management robot 100.

이때, 거리(d)는 카메라 또는 센서를 통해 감지할 수 있는 영역을 기준으로 설정될 수 있다. In this case, the distance d may be set based on an area that can be detected by a camera or sensor.

도 9의 (a)는 장애물인식부(160)에 의해 검출되는 장애물의 위치에 X-Y평면이다. 9(a) is an X-Y plane at the position of an obstacle detected by the obstacle recognizing unit 160.

장애물인식부(160)는 제 1 장애물(21)까지의 거리 d0에서의 평면을 기준으로 장애물을 분석한다. The obstacle recognizing unit 160 analyzes the obstacle based on a plane at a distance d0 to the first obstacle 21 .

도 9의 (b)는 주행제어부(120)의 목표지점까지의 주행경로를 설정하기 위하여 주행신호를 계산하는 도이다. 9(b) is a diagram for calculating a driving signal in order to set a driving route to a target point of the driving control unit 120.

주행제어부(120)는 관리 로봇(100)의 주행 목표 지점을

Figure pat00024
라고 할 때, 차동 구동 방식에 따라, 원 운동을 실시하므로, 직진 속도 v, 회전속도 w를 산출하여 주행을 제어한다. The driving control unit 120 determines the driving target point of the management robot 100.
Figure pat00024
In this case, since the circular motion is performed according to the differential driving method, the driving is controlled by calculating the straight speed v and the rotational speed w.

도 10 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 제어방법을 설명하는데 참조되는 순서도이다. 10 is a flowchart referenced to describe a control method of a facility management robot according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 관리 로봇(100)은 시설물에 진입하여 카메라(170)를 통해 영상을 촬영한다(S310).As shown in FIG. 10 , the management robot 100 enters the facility and captures an image through a camera 170 (S310).

영상처리부(130)는 촬영된 영상을 분석하고, 영상영역을 분할하여(S320), 시설물 내에 위치하는 수로(2, 3)를 영상으로부터 추출한다(S330). The image processing unit 130 analyzes the captured image, divides the image area (S320), and extracts the waterways 2 and 3 located in the facility from the image (S330).

포인트 클라우드부(140)는 촬영된 영상(RGB영상)과, 수로영상, 깊이영상을 바탕으로 3차원의 포인트 클라우드로 변환한다(S340). The point cloud unit 140 converts the captured image (RGB image), the channel image, and the depth image into a 3D point cloud (S340).

또한, 포인트 클라우드부(140)는 잘못 인식된 포인트를 제거한다(S350). Also, the point cloud unit 140 removes erroneously recognized points (S350).

그에 따라 관리 로봇(100)은 시설물 내의 구조에 대한 3차원의 정보를 획득한다. Accordingly, the management robot 100 acquires three-dimensional information about structures within the facility.

연산부(150)는 3차원의 포인트 클라우드를 바탕으로 수로에 대한 직선방정식을 연산하고, 이를 바탕으로 통로(1)를 검출한다. The calculation unit 150 calculates a linear equation for the waterway based on the 3D point cloud, and detects the passage 1 based on this.

연산부(150)는 3차원의 포인트 클라우드를 바탕으로 수로의 경계선을 검출하고, 수로의 경계선으로부터 통로와 수로의 경계선을 산출하여, 통로의 경계선에 대한 직선 파라미터를 산출한다(S360). The calculation unit 150 detects the boundary line of the waterway based on the 3D point cloud, calculates the boundary line between the passage and the waterway from the boundary line of the waterway, and calculates a linear parameter for the boundary line of the passage (S360).

장애물인식부(160)는 통로 상에 장애물 인식영역(15)을 설정하고, 해당 영역 내에 위치하는 장애물을 검출한다(S370). The obstacle recognizing unit 160 sets an obstacle recognition area 15 on the passage and detects an obstacle located in the corresponding area (S370).

장애물인식부(160)는 장애물의 유무를 판단하고(S380), 장애물이 존재하는 경우 장애물을 상세 분석하여 그 위치를 산출한다(S390). The obstacle recognizing unit 160 determines whether or not there is an obstacle (S380), and if there is an obstacle, analyzes the obstacle in detail to calculate its location (S390).

장애물인식부(160)는 장애물의 위치와 관리 로봇(100)의 크기를 고려하여 장애물 통과가 가능한지 여부를 판단한다(S400). The obstacle recognizing unit 160 determines whether it is possible to pass through the obstacle in consideration of the position of the obstacle and the size of the management robot 100 (S400).

장애물인식부(160)는 장애물 통과가 가능한지 여부를 판단하여 장애물 정보를 주행제어부(120)로 인가한다. The obstacle recognizing unit 160 determines whether it is possible to pass through the obstacle and applies the obstacle information to the driving control unit 120 .

주행제어부(120)는 장애물이 없거나 또는 장애물 통과가 가능한 경우, 목표지점을 산출하고(S410), 목표지점까지 장애물을 회피하거나 통과하는 주행경로를 설정한다(S420). When there is no obstacle or it is possible to pass through the obstacle, the driving controller 120 calculates a target point (S410), and sets a driving path that avoids or passes the obstacle to the target point (S420).

또한 주행제어부(120)는 설정된 주행경로를 바탕으로, 직진속도(v)와 바퀴의 회전속도(w)를 산출하여 구동부(230)를 제어한다. In addition, the driving control unit 120 controls the driving unit 230 by calculating the straight speed v and the rotational speed w of the wheels based on the set driving path.

그에 따라 관리 로봇(100)은 통로를 따라 주행한다(S430).Accordingly, the management robot 100 travels along the passage (S430).

관리 로봇(100)은 주행 중에 카메라(170)를 통해 촬영되는 영상을 통해 선로의 상태를 점검한다(S440). The management robot 100 checks the condition of the track through an image captured by the camera 170 while driving (S440).

한편, 장애물 통과가 불가능하다고 판단되는 경우, 주행제어부(120)는 구동부(230)를 제어하여 로봇의 주행을 정지한다(S450). 주행제어부(120)는 주행불가에 대한 신호를 제어부(110)로 인가한다. On the other hand, when it is determined that passing through the obstacle is impossible, the travel controller 120 controls the driving unit 230 to stop the robot from traveling (S450). The driving control unit 120 applies a signal for disabling driving to the control unit 110 .

제어부(110)는 주행정지 및 장애물에 대한 경고를 출력하고, 그에 대한 정보를 통신부(210)를 통해 전송한다(S460). The control unit 110 outputs a warning about a driving stop and an obstacle, and transmits information therefor through the communication unit 210 (S460).

제어부(110)는 관리 로봇(100)이 출발지점 또는 지정된 위치로 복구하도록 주행제어부(120)로 제어신호를 인가한다. The control unit 110 applies a control signal to the driving control unit 120 so that the management robot 100 returns to a starting point or a designated position.

그에 따라 주행제어부(120)는 구동부(230)를 제어하여 관리 로봇이 복귀하도록 한다(S470). Accordingly, the driving controller 120 controls the driving unit 230 so that the management robot returns (S470).

한편, 경고 출력 후, 검출된 장애물이 이동하는 경우, 장애물인식부(160)는 장애물을 재검출하여 통과가능 여부를 재판단할 수 있다. Meanwhile, if the detected obstacle moves after the warning is output, the obstacle recognizing unit 160 may re-detect the obstacle to re-determine whether passing is possible.

주행제어부(120)는 장애물의 이동에 따라 주행이 가능한 경우 주행경로를 재산출하여 주행을 제어할 수 있다. When the driving is possible according to the movement of the obstacle, the driving control unit 120 may control the driving by recalculating the driving path.

따라서 본 발명에 따른 시설물 관리 로봇은 카메라를 통해 촬영되는 영상과 깊이정보를 바탕으로 3차원의 포인트 클라우드를 생성하고, 포인트 클라우드를 바탕으로, 3차원 공간상에서 로봇이 주행하지 못하는 영역을 인식하여, 이를 기반으로 주행경로를 설정하고 설정된 주행경로에 따라 본체가 이동하도록 주행을 제어할 수 있다. Therefore, the facility management robot according to the present invention generates a 3D point cloud based on the image captured by the camera and the depth information, recognizes an area where the robot cannot drive in the 3D space based on the point cloud, Based on this, a driving route can be set and driving can be controlled so that the main body moves according to the set driving route.

그에 따라 본 발명은 접근이 어려고 내부 환경이 열악한 시설물에 대하여 용이하게 점검하고 이를 관리할 수 있다. Accordingly, the present invention can easily inspect and manage facilities that are difficult to access and have poor internal environments.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, it should be noted that this is only exemplary and various modifications and equivalent other embodiments are possible from those skilled in the art to which the technology pertains. will understand Therefore, the true technical protection scope of the present invention should be defined by the claims below.

1: 통로 1, 3: 수로
11, 12, 13, 14: 경계선 15: 장애물 인식영역
21, 22, 23: 장애물
100: 관리 로봇
110: 제어부 120: 주행제어부
130: 영상처리부 140: 포인트 클라우드부
140: 연산부 160: 장애물인식부
1: aisle 1, 3: waterway
11, 12, 13, 14: boundary line 15: obstacle recognition area
21, 22, 23: Obstacles
100: management robot
110: control unit 120: driving control unit
130: image processing unit 140: point cloud unit
140: calculation unit 160: obstacle recognition unit

Claims (19)

시설물 내의 영상을 촬영하며 깊이정보를 획득하는 카메라;
상기 카메라를 통해 촬영된 영상을 분석하여 영역을 분할하여, 상기 시설물 내에 위치하는 수로를 검출하는 영상처리부;
상기 영상과 상기 깊이정보를 바탕으로 3차원의 포인트 클라우드로 변환하는 포인트 클라우드부;
상기 포인트 클라우드로부터 상기 수로에 대한 경계선을 산출하여 상기 시설물 내의 통로를 검출하는 연산부;
상기 통로 상에 위치하는 장애물을 검출하여 그 위치를 산출하는 장애물인식부;
장애물 정보를 바탕으로 상기 통로 상에 주행경로를 설정하여 주행을 제어하는 주행제어부; 및
주행 중, 상기 영상을 분석하여 상기 시설물 내의 설비에 대한 상태를 점검하는 제어부;를 포함하는 관리 로봇.
a camera that captures an image within the facility and obtains depth information;
an image processing unit which analyzes the image captured by the camera, divides the area, and detects a waterway located in the facility;
a point cloud unit that converts the image and the depth information into a 3D point cloud;
a calculator configured to calculate a boundary line for the waterway from the point cloud and detect a passage in the facility;
an obstacle recognizing unit that detects an obstacle located on the passage and calculates its position;
a driving control unit that controls driving by setting a driving path on the passage based on obstacle information; and
A management robot comprising: a controller that analyzes the image while driving and checks the state of equipment within the facility.
제 1 항에 있어서,
상기 영상처리부는, 상기 영상으로부터 영역을 분할하여 주행가능영역인 통로의 영역과 주행불가능영역인 상기 수로의 영역을 검출하고, 상기 수로에 대한 좌측수로영상과 우측수로영상을 생성하는 것을 특징으로 하는 관리 로봇.
According to claim 1,
The image processing unit divides the area from the image, detects the area of the passage, which is a drivable area, and the area of the waterway, which is a non-drivable area, and generates a left waterway image and a right waterway image for the waterway. Characterized in that management robot.
제 1 항에 있어서,
상기 포인트 클라우드부는 상기 영상과, 상기 수로에 대한 영상, 상기 깊이정보를 바탕으로, 3차원의 포인트 클라우드로 변환하여, 상기 영상에 대한 포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 각각 생성하고, 오인식 포인트를 제거하는 것을 특징으로 하는 관리 로봇.
According to claim 1,
The point cloud unit converts the image into a 3D point cloud based on the image, the image of the waterway, and the depth information, and converts the image into a point cloud, a left channel point cloud, and a right channel point cloud, respectively. A management robot characterized by generating and removing misrecognized points.
제 1 항에 있어서,
상기 포인트 클라우드부는 상기 수로의 좌표를 기준으로, 상기 수로로 인식된 포인트 중, 상기 수로보다 높은 위치의 포인트를 제거하는 것을 특징으로 하는 관리 로봇.
According to claim 1,
The management robot according to claim 1 , wherein the point cloud unit removes a point located higher than the waterway among the points recognized as the waterway based on the coordinates of the waterway.
제 1 항에 있어서,
상기 연산부는 상기 포인트 클라우드를 바탕으로, 상기 수로의 경계선에 대한 직선방정식을 산출하고, 상기 수로와 상기 통로의 경계선을 산출하여, 상기 통로를 검출하는 것을 특징으로 하는 관리 로봇.
According to claim 1,
The management robot according to claim 1 , wherein the calculation unit calculates a linear equation for a boundary line of the waterway based on the point cloud, calculates a boundary line between the waterway and the passage, and detects the passage.
제 4 항에 있어서,
상기 연산부는 상기 수로의 외측 경계선을 산출한 후, 상기 수로의 폭을 기준으로 상기 수로의 내측 경계선을 산출하여, 상기 수로와 상기 통로의 경계선으로 설정하는 것을 특징으로 하는 관리 로봇.
According to claim 4,
The management robot, characterized in that the operation unit calculates an outer boundary of the waterway, then calculates an inner boundary of the waterway based on the width of the waterway, and sets it as a boundary between the waterway and the passage.
제 1 항에 있어서
상기 장애물인식부는 주행불가영역인 상기 통로 외의 영역에 위치하는 장애물은 무시하고, 상기 통로 상에 위치하는 장애물을 검출하는 것을 특징으로 하는 관리 로봇.
According to claim 1
The management robot according to claim 1 , wherein the obstacle recognizing unit ignores obstacles located in an area other than the passage, which is a non-running area, and detects an obstacle located on the passage.
제 1 항에 있어서,
상기 장애물인식부는 상기 관리 로봇의 높이, 상기 통로의 폭, 검출하고자 하는 거리를 기준으로 장애물 인식영역을 상기 통로 상에 설정하고, 상기 장애물 인식영역 내에 위치하는 장애물을 검출하는 것을 특징으로 하는 관리 로봇.
According to claim 1,
The obstacle recognizing unit sets an obstacle recognition area on the passage based on a height of the management robot, a width of the passage, and a distance to be detected, and detects an obstacle located within the obstacle recognition region. .
제 8 항에 있어서,
상기 장애물인식부는 검출된 장애물의 위치에 대응하여 통과 가능 여부를 판단하고, 상기 관리 로봇의 높이보다 높은 위치의 장애물은 통과 가능으로 판단하는 것을 특징으로 하는 관리 로봇.
According to claim 8,
The obstacle recognizing unit determines whether passing is possible in response to the position of the detected obstacle, and determines that an obstacle at a position higher than the height of the management robot is passable.
제 1 항에 있어서,
상기 주행제어부는 상기 통로의 범위 내에서, 상기 장애물의 정보와 목표지점을 바탕으로 주행경로를 설정하여, 상기 주행경로에 따라 직진신호 및 회전신호를 구동부로 인가하여 차동 구동방식으로 주행을 제어하며, 주행 중 감지되는 장애물을 회피 또는 통과하도록 상기 주행경로를 수정하는 것을 특징으로 하는 관리 로봇.
According to claim 1,
The driving control unit sets a driving path based on the information of the obstacle and the target point within the range of the passage, and applies a straight ahead signal and a turn signal to the driving unit according to the driving path to control driving in a differential driving method. , A management robot characterized in that it corrects the driving path to avoid or pass through obstacles detected during driving.
제 1 항에 있어서,
상기 제어부는 상기 영상을 분석하여 상기 설비의 상태변화를 판단하고, 이상이 검출되는 경우 또는 상기 장애물에 의해 주행할 수 없는 경우, 경고를 출력하고, 관련 데이터를 전송하는 것을 특징으로 하는 관리 로봇.
According to claim 1,
The control unit analyzes the image to determine a change in the state of the facility, outputs a warning, and transmits related data when an abnormality is detected or when driving is impossible due to the obstacle.
카메라를 통해 영상을 촬영하고 깊이정보를 획득하는 단계;
상기 영상의 영역을 분할하여 시설물 내에 위치하는 수로를 검출하는 단계;
상기 영상과 상기 깊이정보를 바탕으로 3차원의 포인트 클라우드로 변환하는 단계;
상기 포인트 클라우드로부터 상기 수로에 대한 경계선을 산출하여 상기 시설물 내의 통로를 검출하는 단계;
상기 통로 상에 위치하는 장애물을 검출하여 그 위치를 산출하는 단계;
검출된 장애물의 정보를 바탕으로 상기 통로 상에 주행경로를 설정하여 주행하는 단계; 및
주행 중, 상기 영상을 분석하여 상기 시설물 내의 설비에 대한 상태를 점검하는 단계;를 포함하는 관리 로봇의 제어방법.
photographing an image through a camera and acquiring depth information;
detecting a waterway located in a facility by dividing an area of the image;
converting the image and the depth information into a 3D point cloud;
detecting a passage in the facility by calculating a boundary line for the waterway from the point cloud;
detecting an obstacle located on the passage and calculating its position;
setting a driving path on the passage based on the information of the detected obstacle and driving; and
A control method of a management robot comprising: checking the state of equipment in the facility by analyzing the image while driving.
제 12 항에 있어서,
상기 수로를 검출하는 단계는,
상기 영상으로부터 주행가능영역인 통로의 영역과 주행불가능영역인 상기 수로의 영역을 검출하고, 상기 수로의 영역에 대한 영상을 생성하는 것을 특징으로 하는 관리 로봇의 제어방법.
According to claim 12,
In the step of detecting the waterway,
A method for controlling a management robot, characterized in that, from the image, an area of the passage, which is a drivable area, and an area of the waterway, which is a non-drivable area, are detected, and an image of the area of the waterway is generated.
제 12 항에 있어서,
상기 포인트 클라우드로 변환하는 단계는,
상기 영상과, 상기 수로에 대한 영상, 상기 깊이정보를 바탕으로, 3차원의 포인트 클라우드로 변환하는 단계;
상기 영상에 대한 포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 각각 생성하는 단계; 및
상기 수로의 좌표를 기준으로, 상기 수로로 인식된 포인트 중, 상기 수로보다 높은 위치의 오인식 포인트를 제거하는 단계를 더 포함하는 관리 로봇의 제어방법.
According to claim 12,
The step of converting the point cloud,
converting the image into a 3D point cloud based on the image, the image of the waterway, and the depth information;
generating a point cloud for the image, a point cloud for the left number, and a point cloud for the right number, respectively; and
The method of controlling a management robot further comprising the step of removing an erroneously recognized point higher than the waterway among the points recognized as the waterway based on the coordinates of the waterway.
제 12 항에 있어서,
상기 장애물을 검출하는 경우,
상기 관리 로봇의 높이, 상기 통로의 폭, 검출하고자 하는 거리를 기준으로 장애물 인식영역을 상기 통로 상에 설정하여 상기 장애물 인식영역 내에 위치하는 장애물을 검출하는 단계; 및
상기 장애물 인식영역에서 검출된 장애물의 위치에 대응하여 통과 가능 여부를 판단하는 단계;를 더 포함하는 관리 로봇의 제어방법.
According to claim 12,
In case of detecting the above obstacle,
Setting an obstacle recognition area on the passage based on the height of the management robot, the width of the passage, and a distance to be detected to detect an obstacle located within the obstacle recognition region; and
The management robot control method further comprising determining whether passage is possible in response to the position of the obstacle detected in the obstacle recognition area.
제 12 항에 있어서,
상기 장애물을 검출하는 경우,
주행불가영역인 상기 통로 외의 영역에 위치하는 장애물은 무시하고, 상기 통로 상에 위치하는 장애물을 검출하고, 관리 로봇의 높이보다 높은 위치의 장애물은 통과 가능으로 판단하는 것을 특징으로 하는 관리 로봇의 제어방법.
According to claim 12,
In case of detecting the above obstacle,
Control of the management robot, characterized in that ignoring obstacles located in an area other than the passage, which is a non-running area, detecting obstacles located on the passage, and determining that obstacles located higher than the height of the management robot are passable method.
제 12 항에 있어서,
상기 주행하는 단계는,
상기 통로의 범위 내에서, 상기 장애물의 정보와 목표지점의 위치를 바탕으로 상기 주행경로를 설정하고, 상기 주행경로에 따라 직진신호 및 회전신호를 구동부로 인가하여 차동 구동방식으로 주행을 제어하며, 주행 중 감지되는 장애물을 회피 또는 통과하도록 상기 주행경로를 수정하는 것을 특징으로 하는 관리 로봇의 제어방법.
According to claim 12,
The driving step is
Within the range of the passage, the driving route is set based on the information of the obstacle and the position of the target point, and the driving is controlled by a differential driving method by applying a straight ahead signal and a turn signal to the driving unit according to the driving route, A control method of a management robot, characterized in that for modifying the driving path to avoid or pass through obstacles detected during driving.
제 12 항에 있어서,
상기 주행하는 단계는,
상기 장애물을 통과할 수 없는 경우, 경고를 출력하는 단계;
상기 장애물의 위치 및 주행상태에 대한 데이터를 전송하는 단계; 및
출발지점 또는 지정된 위치로 복귀하는 단계를 더 포함하는 관리 로봇의 제어방법.
According to claim 12,
The driving step is
outputting a warning when the obstacle cannot be passed;
Transmitting data about the location and driving state of the obstacle; and
A control method of a management robot further comprising the step of returning to a starting point or a designated location.
제 12 항에 있어서,
상기 설비에 대한 상태를 점검하는 단계는,
상기 영상을 분석하여 상기 설비를 검출하고, 상기 설비의 상태를 분석하여 상기 설비의 이상을 검출하는 단계; 및
상기 설비의 이상 발생 시, 현재 위치 및 상기 설비의 상태에 대한 점검데이터를 생성하여 전송하는 단계;를 더 포함하는 관리 로봇의 제어방법.
According to claim 12,
The step of checking the status of the facility,
detecting the facility by analyzing the image, and detecting an abnormality in the facility by analyzing the state of the facility; and
The method of controlling a management robot further comprising generating and transmitting inspection data for a current location and a state of the facility when an abnormality occurs in the facility.
KR1020210099282A 2021-07-28 2021-07-28 Management Robot and Method for Underground Facility KR102568565B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210099282A KR102568565B1 (en) 2021-07-28 2021-07-28 Management Robot and Method for Underground Facility

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210099282A KR102568565B1 (en) 2021-07-28 2021-07-28 Management Robot and Method for Underground Facility

Publications (2)

Publication Number Publication Date
KR20230017595A true KR20230017595A (en) 2023-02-06
KR102568565B1 KR102568565B1 (en) 2023-08-23

Family

ID=85223771

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210099282A KR102568565B1 (en) 2021-07-28 2021-07-28 Management Robot and Method for Underground Facility

Country Status (1)

Country Link
KR (1) KR102568565B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101480543B1 (en) 2014-06-05 2015-01-08 덕산메카시스 주식회사 A moving surveillance unit and a system including the same
KR20180068484A (en) * 2016-12-14 2018-06-22 현대자동차주식회사 Apparatus and method for controlling narrow road driving of vehicle
KR20200048732A (en) * 2018-10-30 2020-05-08 한국전력공사 Mobile robot for monitoring and check and diagnosis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101480543B1 (en) 2014-06-05 2015-01-08 덕산메카시스 주식회사 A moving surveillance unit and a system including the same
KR20180068484A (en) * 2016-12-14 2018-06-22 현대자동차주식회사 Apparatus and method for controlling narrow road driving of vehicle
KR20200048732A (en) * 2018-10-30 2020-05-08 한국전력공사 Mobile robot for monitoring and check and diagnosis

Also Published As

Publication number Publication date
KR102568565B1 (en) 2023-08-23

Similar Documents

Publication Publication Date Title
KR102065975B1 (en) Safety Management System Using a Lidar for Heavy Machine
JP6132659B2 (en) Ambient environment recognition device, autonomous mobile system using the same, and ambient environment recognition method
JP6267972B2 (en) Work machine ambient monitoring device
US10065314B2 (en) System and method for manipulation platform
US6151539A (en) Autonomous vehicle arrangement and method for controlling an autonomous vehicle
JP6800166B2 (en) A device for determining the space in which a vehicle can run, running based on it, and a vehicle
KR20130067851A (en) Apparatus and method for recognizing position of vehicle
CN107161145A (en) Method and control device for avoiding rear-end collision
JP2021149968A (en) Method and system for automatic driving of vehicle
KR102568565B1 (en) Management Robot and Method for Underground Facility
KR101359649B1 (en) obstacle detection sensor
JP3740883B2 (en) Control method of unmanned mobile cart
CN111844038B (en) Robot motion information identification method, obstacle avoidance robot and obstacle avoidance system
KR20230103002A (en) System for managing safety in industrial site
KR101204086B1 (en) Method and apparatus for controlling self-driving of mobile-robot
JP2018178878A (en) Industrial vehicle
JP2021189575A (en) Parking assist device, and control method for parking assist device
CN113064425A (en) AGV equipment and navigation control method thereof
KR102492161B1 (en) Transfer Vehicle for Transfer System and Driving Method Thereof
KR101824042B1 (en) Camera-integrated laser detector and driving method thereof
KR102593014B1 (en) Driving system for an autonomous vehicles tracking grid patterns
CN210551274U (en) Robot monitoring system and robot
CN212782318U (en) Optical projection auxiliary parking and warehousing system
JP2023007548A (en) Image processing device and image processing method
CN109285202A (en) Vehicle track method and system for planning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right