KR20230017595A - Management Robot and Method for Underground Facility - Google Patents
Management Robot and Method for Underground Facility Download PDFInfo
- Publication number
- KR20230017595A KR20230017595A KR1020210099282A KR20210099282A KR20230017595A KR 20230017595 A KR20230017595 A KR 20230017595A KR 1020210099282 A KR1020210099282 A KR 1020210099282A KR 20210099282 A KR20210099282 A KR 20210099282A KR 20230017595 A KR20230017595 A KR 20230017595A
- Authority
- KR
- South Korea
- Prior art keywords
- obstacle
- image
- driving
- waterway
- passage
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 21
- 230000005856 abnormality Effects 0.000 claims description 8
- 238000007689 inspection Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 12
- 238000012544 monitoring process Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/002—Manipulators for defensive or military tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1684—Tracking a line or surface by means of sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
Abstract
Description
본 발명은 지하에 설치되는 시설물의 내부를 이동하면서 설비의 상태를 모니터링하고 관리하는 시설물 관리 로봇 및 그 방법에 관한 것이다. The present invention relates to a facility management robot that monitors and manages the state of a facility while moving inside a facility installed underground and a method thereof.
전력설비 또는 송전선 등의 시설물은 지하에 매설되거나 지하에 형성된 터널에 설치되는 것이 일반적이다. Facilities such as power facilities or transmission lines are generally buried underground or installed in tunnels formed underground.
일정 규모의 전력설비인 경우 지하층의 일정 크기 이상의 공간에 설치될 수 있으나, 송전선로의 경우 폭이 좁고 천장이 낮은 전력구에 설치되는 경우가 많다. In the case of a power facility of a certain size, it can be installed in a space of a certain size or more in the basement, but in the case of a transmission line, it is often installed in a power outlet with a narrow width and a low ceiling.
또한, 송전선로의 경우, 특정 지점에서 다른 지점으로 전력을 전달하고 공급하기 위한 시설이므로, 전력을 공급하기 위한 거리만큼 전력구가 형성된다. In addition, in the case of a transmission line, since it is a facility for transmitting and supplying power from a specific point to another point, a power outlet is formed as much as the distance for supplying power.
전력구 내 송전선로의 고장을 예방하기 위해서는 주기적인 점검이 필요하다. In order to prevent breakdowns of transmission lines in power outlets, periodic inspections are required.
전력구의 송전선로를 점검하기 위해 인력이 직접 전력구에 진입하여 점검을 실시하였으나, 전력구가 지하에 위치하므로 접근이 어렵고, 내부환경이 좋지 않아 인력이 일정시간 이상 체류하기 어려운 문제가 있다. 특히 전력구가 협소하므로 인력의 진입이 어려울 뿐 아니라. 전력구 내에서 이동이 어려워 송전선로를 점검하는데 한계가 있다. In order to inspect the transmission line of the power outlet, manpower directly entered the power outlet and inspected it, but since the power outlet is located underground, it is difficult to access and the internal environment is not good, so it is difficult for manpower to stay for a certain period of time. In particular, since the power outlet is narrow, it is difficult for manpower to enter. It is difficult to move within the power tunnel, so there is a limit to inspecting the transmission line.
이러한 문제를 해소하기 위하여, 대한민국 등록특허 제10-1480543호에는 지하시설물을 관리하기 위한 이동 감시 유닛 및 감시시스템을 개시하고 있다. 지하 시설물의 천장에 레일이 설치되고, 레일을 통해 이동하면서 지하 시설물의 상태를 감지하는 이동 감시 유닛과, 이동 감시 유닛과 연결되어 정보를 수신하고 관리하는 감시 시스템을 개시한다. In order to solve this problem, Korean Patent Registration No. 10-1480543 discloses a mobile monitoring unit and monitoring system for managing underground facilities. Disclosed are a mobile monitoring unit in which a rail is installed on the ceiling of an underground facility and moves through the rail to detect a state of the underground facility, and a monitoring system connected to the mobile monitoring unit to receive and manage information.
그러나 이러한 이동 감시 유닛은 시설물이 설치된 지하 공간에 레일이 설치되어야만 이동 유닛을 통한 감시가 가능하다는 점에서 초기에 설비되지 않는 경우 적용하기 어려운 문제가 있다. However, such a mobile monitoring unit has a problem in that it is difficult to apply when it is not initially installed in that monitoring through the mobile unit is possible only when a rail is installed in the underground space where the facility is installed.
또한, 이동 유닛이 천장의 레일에 연결됨에 따라, 지하 시설의 크기나 형태, 천장의 높이에 따라 시설물과의 거리가 상이하고, 바닥면에 설치되는 시설물에 접근하여 그 상태를 상세하게 확인하기는 어렵고, 천장에 설치되는 이동 감시 유닛이 시설물에 접근하여 확인할 수 없으므로 시설물의 상태를 확인하고 감시하는데 한계가 있다. In addition, as the mobile unit is connected to the rail of the ceiling, the distance to the facility is different depending on the size or shape of the underground facility and the height of the ceiling, and it is difficult to approach the facility installed on the floor and check its condition in detail. It is difficult, and since the mobile monitoring unit installed on the ceiling cannot access and check the facility, there is a limit to checking and monitoring the state of the facility.
그에 따라 자율 주행 로봇을 투입하는 사례가 증가하고 있으나, 전력구 내에 형성된 수로 또는 통로에 위치하는 장애물에 의해 주행에 어려움이 있다. Accordingly, there are increasing cases of introducing autonomous robots, but there is difficulty in driving due to obstacles located in waterways or passages formed in power outlets.
본 발명은 상기와 같은 필요성에 의해 창출된 것으로서, 협소한 전력구에 자율 주행 로봇을 투입하고, 촬영되는 영상을 분석하여 전력구의 내부 환경을 분석하여 장애물을 회피하면서 목표지점까지 경로를 설정하여 주행하면서 송전선로를 점검하는 시설물 관리 로봇 및 그 방법을 제공하는데 그 목적이 있다. The present invention was created by the above necessity, and the self-driving robot is put into a narrow power outlet, and the captured image is analyzed to analyze the internal environment of the power outlet to set a path to the target point while avoiding obstacles. Its purpose is to provide a facility management robot and its method that checks the transmission line while doing so.
또한, 본 발명은 전력구 내부 환경을 분석하는 데 있어서, 3차원의 데이터를 바탕으로 수로와 통로를 구분하여 장애물의 위치와 크기를 고려하여 주행을 제어하는 시설물 관리 로봇 및 그 방법을 제공하는데 그 목적이 있다. In addition, the present invention provides a facility management robot and method for controlling driving in consideration of the location and size of obstacles by dividing waterways and passages based on three-dimensional data in analyzing the internal environment of a power outlet, and a method therefor. There is a purpose.
상기한 목적을 달성하기 위하여 본 발명에 따른 시설물 관리 로봇은, 시설물 내의 영상을 촬영하며 깊이정보를 획득하는 카메라; 상기 카메라를 통해 촬영된 영상을 분석하여 영역을 분할하여, 상기 시설물 내에 위치하는 수로를 검출하는 영상처리부; 상기 영상과 상기 깊이정보를 바탕으로 3차원의 포인트 클라우드로 변환하는 포인트 클라우드부; 상기 포인트 클라우드로부터 상기 수로에 대한 경계선을 산출하여 상기 시설물 내의 통로를 검출하는 연산부; 상기 통로 상에 위치하는 장애물을 검출하여 그 위치를 산출하는 장애물인식부; 장애물 정보를 바탕으로 상기 통로 상에 주행경로를 설정하여 주행을 제어하는 주행제어부; 및 주행 중, 상기 영상을 분석하여 상기 시설물 내의 설비에 대한 상태를 점검하는 제어부;를 포함한다. In order to achieve the above object, a facility management robot according to the present invention includes a camera that captures an image inside a facility and obtains depth information; an image processing unit which analyzes the image captured by the camera, divides the area, and detects a waterway located in the facility; a point cloud unit that converts the image and the depth information into a 3D point cloud; a calculation unit calculating a boundary line for the waterway from the point cloud and detecting a passage in the facility; an obstacle recognizing unit that detects an obstacle located on the passage and calculates its position; a driving control unit that controls driving by setting a driving path on the passage based on obstacle information; and a control unit that analyzes the image while driving and checks the state of equipment within the facility.
상기 포인트 클라우드부는 상기 영상과, 상기 수로에 대한 영상, 상기 깊이정보를 바탕으로, 3차원의 포인트 클라우드로 변환하여, 상기 영상에 대한 포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 각각 생성하고, 오인식 포인트를 제거하는 것을 특징으로 한다. The point cloud unit converts the image into a 3D point cloud based on the image, the image of the waterway, and the depth information, and converts the image into a point cloud, a left channel point cloud, and a right channel point cloud, respectively. It is characterized by generating and removing misrecognized points.
상기 포인트 클라우드부는 상기 수로의 좌표를 기준으로, 상기 수로로 인식된 포인트 중, 상기 수로보다 높은 위치의 포인트를 제거하는 것을 특징으로 한다. The point cloud unit may remove points located higher than the waterway among points recognized as the waterway based on the coordinates of the waterway.
상기 연산부는 상기 포인트 클라우드를 바탕으로, 상기 수로의 경계선에 대한 직선방정식을 산출하고, 상기 수로와 상기 통로의 경계선을 산출하여, 상기 통로를 검출하는 것을 특징으로 한다. The calculation unit may calculate a linear equation for a boundary line of the waterway based on the point cloud, calculate a boundary line between the waterway and the passage, and detect the passage.
상기 연산부는 상기 수로의 외측 경계선을 산출한 후, 상기 수로의 폭을 기준으로 상기 수로의 내측 경계선을 산출하여, 상기 수로와 상기 통로의 경계선으로 설정하는 것을 특징으로 한다. The operation unit may calculate an outer boundary of the waterway, then calculate an inner boundary of the waterway based on the width of the waterway, and set it as a boundary between the waterway and the passage.
상기 장애물인식부는 상기 관리 로봇의 높이, 상기 통로의 폭, 검출하고자 하는 거리를 기준으로 장애물 인식영역을 상기 통로 상에 설정하고, 상기 장애물 인식영역 내에 위치하는 장애물을 검출하는 것을 특징으로 한다. The obstacle recognizing unit may set an obstacle recognition area on the passage based on a height of the management robot, a width of the passage, and a distance to be detected, and detect an obstacle located within the obstacle recognition region.
본 발명에 따른 시설물 관리 로봇의 제어방법은, 카메라를 통해 영상을 촬영하고 깊이정보를 획득하는 단계; 상기 영상의 영역을 분할하여 시설물 내에 위치하는 수로를 검출하는 단계; 상기 영상과 상기 깊이정보를 바탕으로 3차원의 포인트 클라우드로 변환하는 단계; 상기 포인트 클라우드로부터 상기 수로에 대한 경계선을 산출하여 상기 시설물 내의 통로를 검출하는 단계; 상기 통로 상에 위치하는 장애물을 검출하여 그 위치를 산출하는 단계; 검출된 장애물의 정보를 바탕으로 상기 통로 상에 주행경로를 설정하여 주행하는 단계; 및 주행 중, 상기 영상을 분석하여 상기 시설물 내의 설비에 대한 상태를 점검하는 단계;를 포함한다. A control method of a facility management robot according to the present invention includes the steps of photographing an image through a camera and acquiring depth information; detecting a waterway located in a facility by dividing an area of the image; converting the image and the depth information into a 3D point cloud; detecting a passage in the facility by calculating a boundary line for the waterway from the point cloud; detecting an obstacle located on the passage and calculating its position; setting a driving path on the passage based on the information of the detected obstacle and driving; and checking the state of equipment in the facility by analyzing the image while driving.
상기 포인트 클라우드로 변환하는 단계는, 상기 영상과, 상기 수로에 대한 영상, 상기 깊이정보를 바탕으로, 3차원의 포인트 클라우드로 변환하는 단계; 상기 영상에 대한 포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 각각 생성하는 단계; 상기 수로의 좌표를 기준으로, 상기 수로로 인식된 포인트 중, 상기 수로보다 높은 위치의 오인식 포인트를 제거하는 단계를 더 포함한다. The converting into a point cloud may include converting the image into a 3D point cloud based on the image, the image of the waterway, and the depth information; generating a point cloud for the image, a point cloud for the left number, and a point cloud for the right number, respectively; The method may further include removing an erroneously recognized point higher than the waterway among points recognized as the waterway based on the coordinates of the waterway.
상기 장애물을 검출하는 경우, 상기 관리 로봇의 높이, 상기 통로의 폭, 검출하고자 하는 거리를 기준으로 장애물 인식영역을 상기 통로 상에 설정하여 상기 장애물 인식영역 내에 위치하는 장애물을 검출하는 단계; 및 상기 장애물 인식영역에서 검출된 장애물의 위치에 대응하여 통과 가능 여부를 판단하는 단계;를 더 포함한다. When detecting the obstacle, setting an obstacle recognition area on the passage based on the height of the management robot, the width of the passage, and a distance to be detected to detect an obstacle located within the obstacle recognition region; and determining whether passing is possible in response to the position of the obstacle detected in the obstacle recognition area.
상기 장애물을 검출하는 경우, 주행불가영역인 상기 통로 외의 영역에 위치하는 장애물은 무시하고, 상기 통로 상에 위치하는 장애물을 검출하고, 관리 로봇의 높이보다 높은 위치의 장애물은 통과 가능으로 판단하는 것을 특징으로 한다. In the case of detecting the obstacle, obstacles located in an area other than the passage, which is a non-running area, are ignored, obstacles located on the passage are detected, and obstacles located higher than the height of the management robot are judged to be passable. to be characterized
상기 설비에 대한 상태를 점검하는 단계는, 상기 영상을 분석하여 상기 설비를 검출하고, 상기 설비의 상태를 분석하여 상기 설비의 이상을 검출하는 단계; 및 상기 설비의 이상 발생 시, 현재 위치 및 상기 설비의 상태에 대한 점검데이터를 생성하여 전송하는 단계;를 더 포함한다.The step of inspecting the state of the facility may include: detecting the facility by analyzing the image, and detecting an abnormality of the facility by analyzing the state of the facility; and generating and transmitting inspection data on the current location and state of the facility when an abnormality occurs in the facility.
본 발명의 일 측면에 따르면, 시설물 관리 로봇 및 그 방법은 주행 통로보다 낮은 수로를 용이하게 인식하고, 지정된 영역에 대한 장애물을 분석함으로써, 주행이 용이한 경로를 설정할 수 있다. According to one aspect of the present invention, the facility management robot and its method can easily recognize a waterway lower than a driving passage and analyze obstacles in a designated area, thereby setting an easy driving route.
일 측면에 따르면, 본 발명은 바닥면에 위치하는 장애물뿐 아니라. 상부에 위치하는 장애물을 인식하여 3차원 공간에 대한 장애물 분석을 통해 로봇의 통과 가능한 최적의 경로를 설정하여 주행할 수 있다. According to one aspect, the present invention provides a barrier as well as an obstacle located on the floor. By recognizing the obstacles located on the upper part and analyzing the obstacles in the 3D space, the optimal path through which the robot can pass can be set and driven.
또한, 본 발명은 협소하고 접근이 어려운 시설물을 로봇을 통해 점검하고 관리할 수 있고, 송전선로의 관리를 통해 사고의 발생을 방지하고 안전성을 향상시키는 효과가 있다. In addition, the present invention can inspect and manage narrow and difficult-to-access facilities through a robot, and has an effect of preventing accidents and improving safety through management of transmission lines.
도 1 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 구성이 간략하게 도시된 블록도이다.
도 2 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 위한 데이터 흐름을 설명하는데 참조되는 도이다.
도 3 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 통한 수로 검출을 설명하는데 참조되는 도이다.
도 4 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 통한 통로 검출을 설명하는데 참조되는 도이다.
도 5 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 인식영역을 설명하는데 참조되는 도이다.
도 6 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 검출을 설명하는데 참조되는 도이다.
도 7 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 분석에 따라 주행 결정을 설명하는데 참조되는 도이다.
도 8 및 도 9 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석방법을 설명하는데 참조되는 도이다.
도 10 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 제어방법을 설명하는데 참조되는 순서도이다. 1 is a block diagram briefly showing the configuration of a facility management robot according to an embodiment of the present invention.
2 is a diagram referenced to describe a data flow for environment analysis of a facility management robot according to an embodiment of the present invention.
3 is a diagram referenced to explain waterway detection through environment analysis of a facility management robot according to an embodiment of the present invention.
FIG. 4 is a diagram referenced to explain passage detection through environment analysis of a facility management robot according to an embodiment of the present invention.
5 is a diagram referenced to describe an obstacle recognition area of a facility management robot according to an embodiment of the present invention.
6 is a diagram referenced to describe obstacle detection of a facility management robot according to an embodiment of the present invention.
FIG. 7 is a reference diagram for explaining driving determination according to an obstacle analysis of a facility management robot according to an embodiment of the present invention.
8 and 9 are diagrams referenced to explain an environment analysis method of a facility management robot according to an embodiment of the present invention.
10 is a flowchart referenced to describe a control method of a facility management robot according to an embodiment of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명을 설명하도록 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, the present invention will be described with reference to the accompanying drawings. In this process, the thickness of lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of description. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of a user or operator. Therefore, definitions of these terms will have to be made based on the content throughout this specification.
도 1 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 구성이 간략하게 도시된 블록도이다. 1 is a block diagram briefly showing the configuration of a facility management robot according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명에 따른 관리 로봇은, 카메라(170), 영상처리부(130), 포인트 클라우드부(140), 연산부(150), 주행제어부(120), 장애물인식부(160), 데이터부(190), 통신부(210), 입출력부(220), 구동부(230) 및 동작 전반을 제어하는 제어부(110)를 포함한다. As shown in FIG. 1, the management robot according to the present invention includes a
또한, 관리 로봇(100)은 배터리(미도시)를 포함하고 배터리의 충전 전원을 동력으로 주행한다. 관리 로봇(100)은 전, 후, 좌, 우로 주행하기 위한 복수의 휠(미도시)과 회전수단을 포함할 수 있다. In addition, the
데이터부(190)에는 카메라를 통해 촬영되는 영상, 영상처리부에 의해 생성되는 RGB영상, 포인트 클라우드 데이터, 장애물정보, 본체의 위치정보, 전력구 내부의 구조에 대한 데이터, 주행경로에 대한 데이터, 주행기록, 송전선로의 점검데이터가 저장된다.The
또한, 데이터부(190)에는 관리 로봇이 주행하는데 필요한 데이터, 고장을 판단하기 위한 기준데이터, 외부와의 통신을 위한 데이터가 저장된다. In addition, the
통신부(210)는 적어도 하나의 통신모듈을 포함하여, 관리서버와 통신할 수 있다. 경우에 따라 통신부(210)는 근거리 통신을 이용하여 전력구 내부에 구비되는 설비와 통신하여 해당 설비의 데이터를 수신할 수 있다. The
통신부(210)는 제어부(110)의 제어명령에 따라 영상데이터와 전력구로부터 수집된 데이터를 외부, 예를 들어 관리서버로 전송한다. The
또한, 통신부(210)는 관리 로봇이 주행 중에 사고가 발생하거나, 주행불가 상태가 되는 경우 알림신호를 전송할 수 있다. In addition, the
입출력부(220)는 관리 로봇(100)으로 사용자의 요구사항을 입력하기 위한 입력수단, 관리 로봇(100)의 동작상태, 설정된 모드에 대한 정보를 출력하는 출력수단을 포함한다. 입력수단은 터치패드, 버튼, 스위치 등을 포함하고, 출력수단은 디스플레이(미도시), 스피커(미도시), 램프 등을 포함할 수 있다. The input/
입출력부(220)는 관리 로봇(100)이 주행할 수 없는 상태이거나 또는 목적지에 도달하지 못하는 경우 그에 대한 경고를 출력할 수 있다. 경고는 효과음, 경고음, 음성안내 중 적어도 하나가 스피커를 통해 출력될 수 있고, 문자, 숫자, 이미지 및 이모티콘 중 적어도 하나의 조합으로 구성되는 메시지가 디스플레이될 수 있다.The input/
구동부(230)는 배터리로부터 인가되는 동작전원에 의해 모터를 동작시키고 구동축을 통해 구동력을 복수의 휠로 전달하여 로봇이 주행하도록 한다. The
구동부(230)는 관리 로봇(100)이 전, 후, 좌, 우로 이동하기 위한 복수의 휠이 회전동작하도록 구동력을 전달한다. 구동부(230)는 적어도 하나의 모터(미도시), 모터로부터 생성되는 구동력을 휠로 전달하기 위한 구동축을 포함할 수 있고, 그 외 복수의 구동력 전달 수단, 회전수단 등이 구비되나 그에 대한 설명은 하기에서 생략하기로 한다. The driving
카메라(170)는 주행 방향에 대한 영상을 촬영한다. 카메라(170)는 영상 촬영과 함께 깊이정보를 포함하는 RGB-D 카메라가 사용될 수 있다. 카메라(170)는 입사되는 빛을 이용하여 영상을 생성할 뿐 아니라, 빛 또는 신호를 송출하여 되돌아오는 시간을 이용하여 깊이정보(Depth)를 생성한다. The
카메라(170)는 적어도 하나 구비되며, 상하좌우 각도조절이 가능하거나 또는 회전 가능하도록 조절수단을 더 포함할 수 있다. At least one
경우에 따라 로봇(100)은 카메라(170) 외에도 본체 주변에 일정 거리 내에 위치하는 장애물을 감지하는 라이다, 레이더, 초음파센서 등을 더 포함하여 카메라와 함께 장애물을 감지하도록 구성할 수 있다. 다만 로봇(100)의 크기를 최소화하는 경우 카메라(170)만으로 장애물을 감지하는 것이 바람직하다. In some cases, in addition to the
영상처리부(130)는 카메라(170)의 영상을 변환하여 영상데이터를 생성한다. 영상처리부(130)는 영상으로부터 깊이정보를 추출하고, RGB영상을 생성한다. The
영상처리부(130)는 각각의 카메라에 의해 촬영된 영상으로부터 노이즈를 제거하고 밝기를 조정하여 영상데이터를 생성한다. 영상처리부(130)는 자동 화이트 발란스(Auto White Balance) 기능과 자동 노출(Auto Exposure) 기능을 수행하여, 자동적으로 색온도를 조정하고 자동적으로 노출 정도를 조정하여 영상데이터를 생성한다. The
또한, 영상처리부(130)는 설정에 따라 동영상데이터 또는 이미지데이터로 영상데이터를 생성할 수 있다.Also, the
영상처리부(130)는 영상으로부터 영역을 분할하여 영역라벨과 객체박스를 생성할 수 있다. The
영상처리부(130)는 영역라벨과 객체박스를 바탕으로 수로를 추출한다. 영상처리부(130)는 추출된 수로에 대하여 좌측수로 영상과 우측수로 영상을 각각 생성한다. The
포인트 클라우드부(140)는 깊이정보와 영상데이터(RGB영상)를 결합하여 3차원의 포인트 클라우드로 변환한다. 포인트 클라우드부(140)는 2차원 데이터인 영상데이터를 깊이정보와 결합하여 3차원의 데이터로 변환한다. The
포인트 클라우드부(140)는 포인트 클라우드 변환을 통해 RGB포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 생성한다. 포인트 클라우드부(140)는 포인트 클라우드 변환 후, 오인식 포인트를 제거한다. The
포인트 클라우드(Point Cloud)는 3D공간상의 포인트들의 집합으로, 공간에 대한 기본 구조를 포인트로 표현하는 것은 물론, 공간 내에 위치하는 오브젝트 또한 포인트로 표현된다. A point cloud is a set of points in a 3D space, and not only expresses the basic structure of the space as points, but also objects located in the space are expressed as points.
포인트 클라우드는 3차원의 공간에 대한 구조와 내부의 오브젝트에 대한 정보를 포함하므로, 관리 로봇(100)은, 전력구와 같은 시설물의 구조와 내부에 위치하는 장애물을 용이하게 파악할 수 있다. Since the point cloud includes information on the structure of a three-dimensional space and objects inside, the
연산부(150)는 수로에 대한 직선방정식을 연산한다. 연산부(150)는 좌측수로 포인트 클라우드와 우측수로 포인트 클라우드를 바탕으로 직성방정식을 이용하여 좌측수로 직선 파라미터와 우측수로 직선 파라미터를 산출한다. The
장애물인식부(160)는 로봇(100)의 본체로부터 일정 거리 내에 위치하는 객체를 감지한다. 장애물인식부(160)는 장애물의 위치, 장애물과의 거리, 장애물의 크기를 산출한다. 경우에 따라 장애물인식부(160)는 장애물의 종류를 판단할 수 있다. The obstacle recognizing unit 160 detects an object located within a certain distance from the main body of the
장애물인식부(160)는 영상의 포인트 클라우드와, 로봇의 높이, 주행 목표거리를 바탕으로, 주행방향에 장애물이 위치하는지 여부를 판단하여 장애물을 검출한다. The obstacle recognizing unit 160 detects the obstacle by determining whether or not the obstacle is located in the driving direction based on the point cloud of the image, the height of the robot, and the target driving distance.
또한, 장애물인식부(160)는 검출된 장애물을 상세 분석하여, 로봇이 주행 가능한지 또는 장애물에 의해 주행이 불가능한지 여부를 판단한다. In addition, the obstacle recognizing unit 160 analyzes the detected obstacle in detail to determine whether the robot can drive or cannot drive due to the obstacle.
주행제어부(120)는 목표지점까지의 주행경로를 설정한다. The
주행제어부(120)는 인식된 통로를 바탕으로 목표지점까지의 주행경로를 설정하되, 장애물인식부(160)를 통해 감지되는 장애물에 대응하여, 장애물을 회피하거나 통과하여 주행하도록 주행경로를 변경한다. The driving
주행제어부(120)는 설정되는 주행경로를 바탕으로 구동부(230)를 제어하여 로봇이 목표지점까지 이동하도록 제어한다. The driving
주행제어부(120)는 주행 중 장애물이 감지되는 경우 장애물인식부의 장애물 분석결과를 바탕으로 구동부(230)를 제어하여 장애물을 회피하거나 통과하여 주행하도록 한다. When an obstacle is detected during driving, the driving
또한 주행제어부(120)는 주행 불가능한 상황이 발생하는 경우 그에 대한 신호를 제어부(110)로 인가하고, 구동부(230)를 제어하여 본체의 이동을 정지한다. In addition, the driving
제어부(110)는 카메라(170)의 구동을 제어하고, 입출력부(220)를 통해 입력되는 설정에 따라 본체가 주행하도록 설정하고, 주행 상태에 대한 정보를 출력한다. The
제어부(110)는 촬영되는 영상에 대한 데이터, 감지되는 장애물에 대한 정보, 주행 중 촬영된 영상을 바탕으로 전력구 내의 설비에 대한 데이터를 데이터부(190)에 저장한다. The
제어부(110)는 영상을 바탕으로 전력구 내의 설비를 점검하고 이상 여부를 판단한다. 제어부(110)는 영상처리부(130)를 통해 분석된 영상을 기반으로 전력구 내의 설비를 검출하고, 설비의 상태를 판단하고 기저장된 데이터와 비교하여 이상을 검출한다. The
제어부(110)는 설비 이상 시, 점검데이터를 데이터부(190)에 저장하고, 통신부(210)를 통해 위치정보와 점검데이터를 전송한다. The
제어부(110)는 주행 중 이상 발생 시, 예를 들어 점검이 완료되기 전 목적지까지 주행할 수 없는 경우, 통신부(210)를 통해 외부의 서버와 통신하여 전력구 내의 상황에 대한 데이터를 전송한다. The
제어부(110)는 주행할 수 없는 경우, 현재 위치에 대한 정보를 통신부(210)를 통해 전송한다. The
또한, 제어부(110)는 지정된 위치로 복귀하도록 주행제어부(120)로 제어신호를 인가한다. In addition, the
따라서, 관리 로봇(100)은 RGB-D 카메라를 통해 촬영되는 RGB 영상정보를 활용하여, 주행 가능한 경로를 산출하고, 깊이 정보 영상과 결합하여 3차원 포인트 클라우드로 변환함으로써 주행 가능한 경로를 산출한다. Therefore, the
관리 로봇(100)은 포인트 클라우드를 바탕으로, 3차원 공간상에서 로봇이 주행하지 못하는 영역을 인식하고, 이를 기반으로 주행경로를 설정하고, 설정된 주행경로에 따라 본체가 이동하도록 주행을 제어한다.Based on the point cloud, the
그에 따라 관리 로봇(100)은 목표지점까지 이동하면서 전력구 내의 설비에 대한 상태를 확인하고, 전력구 내의 환경에 따라 지정된 지점으로 복귀한다. Accordingly, the
도 2 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 위한 데이터 흐름을 설명하는데 참조되는 도이다. 2 is a diagram referenced to describe a data flow for environment analysis of a facility management robot according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 관리 로봇(100)은 영상을 촬영하여 단계별로 데이터를 처리하여 목적지까지의 경로를 설정하여 점검을 실시한다. As shown in FIG. 2 , the
도 2의 (a)에 도시된 바와 같이, 관리 로봇(100)은 카메라(170)를 통해 촬영된 RGB영상으로부터 수로를 인식하는 단계, 도 2의 (b)에 도시된 바와 같이, 3차원의 포인트 클라우드로 변환하는 단계, 도 2의 (c)와 같이 장애물을 인식하고 경로를 설정하는 단계로 데이터를 처리하여 전력구 등의 시설물에서 자율 주행한다. As shown in (a) of FIG. 2, the
도 2의 (a)를 참조하면, 수로를 인식하는 단계를 다음과 같다. Referring to (a) of FIG. 2, the steps of recognizing a waterway are as follows.
관리 로봇(100)은 카메라(170)에서 촬영된 영상에서 RGB영상을 생성하고(S11), RGB영상을 바탕으로 영상처리부(130)가 영상 내의 영역을 분할한다(S12). 영상처리부(130)는 영역에서 분할된 영역을 바탕으로 영역라벨을 지정하고 객체박스를 설정한다(S13). 영상처리부(130)는 영역라벨과 객체박스를 바탕으로, 수로를 추출한다(S14). 영상처리부(130)는 추출된 수로에 대하여, 영역의 중앙점을 기준으로 좌측의 수로에 대한 좌측수로 영상과 우측의 수로에 대한 우측수로 영상을 생성한다(S15). The
도 2의 (b)를 참조하면, 포인트 클라우드를 변환하는 단계는 다음과 같다. Referring to (b) of FIG. 2, the step of converting the point cloud is as follows.
포인트 클라우드부(140)는 RGB영상, 좌측수로 영상, 우측수로 영상, 깊이 영상을 바탕으로(S21), 3차원의 포인트 클라우드로 변환한다(S22). 변환을 통해 포인트 클라우드부(140)는 RGB포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 생성한다(S23). 포인트 클라우드부(140)는 생성된 포인트 클라우드 중 오인식된 포인트를 제거한다. The
연산부(150)는 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 이용하여 수로에 대한 직선방정식을 연산한다(S25). 그에 따라 연산부(150)는 좌측수로 직선 파라미터와 우측수로 직선 파라미터를 산출한다(S26). The
도2의 (c)와 같이 장애물을 인식하고 경로를 설정하는 단계는 다음과 같다.Steps for recognizing an obstacle and setting a path as shown in (c) of FIG. 2 are as follows.
장애물인식부(160)는 포인트 클라우드부(140)에 의해 생성된 RGB 포인트 클라우드, 좌측수로 직선 파라미터, 우측수로 직선 파라미터, 로봇의 높이, 및 주행 목표거리를 바탕으로, 로봇이 주행할 영역에 위치하는 장애물을 1차 검출한다(S32). 장애물인식부(160)는 장애물의 유무를 판단한다. The obstacle recognizing unit 160 determines the area where the robot will travel based on the RGB point cloud generated by the
장애물인식부(160)는 장애물이 존재하는 경우, RGB 포인트 클라우드, 좌측수로 직선 파라미터, 우측수로 직선 파라미터, 로봇의 모양, 및 장애물 거리를 바탕으로(S34) 장애물을 상세 분석한다(S35). If there is an obstacle, the obstacle recognizing unit 160 analyzes the obstacle in detail (S34) based on the RGB point cloud, the linear parameters of the left number, the linear parameters of the right number, the shape of the robot, and the obstacle distance (S35). .
장애물인식부(160)는 장애물의 구체적인 위치를 바탕으로 로봇이 회피 또는 통과 가능한지 여부를 판단하고, 그에 대응하여 목표지점까지의 경로를 설정한다(S36).The obstacle recognizing unit 160 determines whether the robot can avoid or pass based on the specific position of the obstacle, and sets a path to the target point in response thereto (S36).
도 3 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 통한 수로 검출을 설명하는데 참조되는 도이다. 3 is a diagram referenced to explain waterway detection through environment analysis of a facility management robot according to an embodiment of the present invention.
도 3의 (a)에 도시된 바와 같이, 관리 로봇(100)은 시설물에 진입하여 카메라(170)를 통해 시설물의 내부를 촬영한다. 도 2의 (a)는 RGB영상이다. As shown in (a) of FIG. 3 , the
전력구 등의 시설물에는 송전선로 등의 설비가 설치되고, 시설물에는 내부를 이동할 수 있는 통로(1)가 형성된다. 통로(1)는 시설물 내의 중앙에 설치되거나 좌측 또는 우측의 어느 일측에 형성되는 것 또한 가능하다. In facilities such as power outlets, facilities such as transmission lines are installed, and
시설물에는 지하에 위치하므로, 물이 흐르는 수로(2, 3)가 형성될 수 있다. 수로(2,3)는 통로(1)를 중심으로 좌측 및 우측에 설치되고, 경우에 따라 어느 일측에 설치될 수 있다. Since the facility is located underground,
또한, 시설물에는 설비를 지지하기 위한 구조물, 설비를 설치하거나 관리하기 위한 도구 또는 장치 등이 배치된다. In addition, a structure for supporting the facility, a tool or device for installing or managing the facility, and the like are disposed in the facility.
도 3의 (b)에 도시된 바와 같이, 관리 로봇(100)은 RGB영상으로부터 영역을 분할한다. As shown in (b) of FIG. 3, the
관리 로봇(100)은 시설물 내를 이동하면서 송전선로 등의 설비를 점검하므로, 시설물 내에서의 통로를 주행영역으로 설정하고, 수로(2,3)는 주행불가능영역으로 설정한다. Since the
영상처리부(130)는 RGB영상으로부터 수로(2, 3)를 검출한다. 수로(2, 3)는 통로를 따라 형성되며, 시설물의 구조에 따라 직선 또는 곡선으로 형성된다. 영상처리부(130)는 RGB영상을 분석하여 영역을 분할하고, 주행불가능영역인 좌측수로(2)와 우측수로(3)를 검출하고, 영역을 구분한다. The
영상처리부(130)는 RGB영상에서 통로 및 수로를 인식하기 위해, 다양한 객체 영역 분할 알고리즘을 적용하여, 객체 영역 분할을 실시할 수 있다. The
그에 따라, 도 3의 (c)에 도시된 바와 같이, 영상처리부(130)는 검출된 수로 중, 좌측수로(2)가 포함된 영상, 즉 좌측수로 영상을 생성한다. 또한, 도 3의 (d)에 도시된 바와 같이, 영상처리부(130)는 검출된 수로 중, 우측수로(3)가 포함된 영상인 우측수로 영상을 생성한다. Accordingly, as shown in (c) of FIG. 3 , the
도 4 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석을 통한 통로 검출을 설명하는데 참조되는 도이다. FIG. 4 is a diagram referenced to explain passage detection through environment analysis of a facility management robot according to an embodiment of the present invention.
포인트 클라우드부(140)는 좌측수로 영상, 우측수로 영상, RGB영상과, 깊이 영상(깊이 정보)을 바탕으로 3차원의 포인트 클라우드로 변환한다. 깊이 영상은 RGB-D카메라에 의해 영상촬영 시 획득되는 깊이 정보 이다. The
포인트 클라우드부(140)는 핀홀 카메라 모델(pinhole camera model)을 이용하여 다음 수학식 1과 같이 RGB 영상과 깊이 영상을 3D 포인트 클라우드로 변환할 수 있다. The
여기서 , 는 영상에서의 pixel 값, , 는 영상 원점 정보와 카메라 광학축 원점과의 이동변환 값, , 는 초점 값, depth는 깊이 영상에 기록된 값이다.here , is the pixel value in the image, , is the movement conversion value between the video origin information and the camera optical axis origin, , is a focus value, and depth is a value recorded in the depth image.
이 값은 카메라 좌표계에서의 좌표이므로, 다음 수학식 2와 같이 로봇 좌표계로 좌표 변환을 실시한다.Since this value is a coordinate in the camera coordinate system, coordinate conversion is performed in the robot coordinate system as shown in
여기서, 는 로봇 좌표계에서 i번째 포인트 클라우드, T는 카메라 좌표계에서 로봇 좌표계로 좌표변환 행렬, 는 카메라 좌표계에서 i번째 포인트 클라우드다. here, is the ith point cloud in the robot coordinate system, T is the coordinate transformation matrix from the camera coordinate system to the robot coordinate system, is the ith point cloud in the camera coordinate system.
그에 따라 포인트 클라우드부(140)는 도 4와 같이 변환된 포인트 클라우드를 생성한다. Accordingly, the
포인트 클라우드부(140)는 RGB영상에 대한 RGB포인트 클라우드, 좌측수로에 대한 좌측수로 포인트 클라우드, 우측수로에 대한 우측수로 포인트 클라우드를 각각 생성한다. The
포인트 클라우드부(140)는 포인트 클라우드를 바탕으로 앞서 검출된 좌측수로(2)와 우측수로(3)를 설정한다. 포인트 클라우드부(140)는 로봇의 위치를 좌표축으로 하여, X축, Y축, Z축을 설정하고, 각 포인트를 처리한다. The
포인트 클라우드부(140)는 잘못 인식된 정보를 없애기 위하여, 오인식된 포인트를 제거한다. The
예를 들어, 포인트 클라우드부는 수로의 좌표를 기준으로, 상기 수로로 인식된 포인트 중, 상기 수로보다 높은 위치의 포인트를 제거한다. 포인트 클라우드부(140)는, 수로의 좌표가 Z축값이 0 미만이므로, Z축 좌표값이 0 이상인 좌측수로 포인트 클라우드와 우측수로 포인트 클라우드에서, Z축 좌표값이 0 이상인 수로 포인트 클라우드를 제거한다. For example, the point cloud unit removes points located higher than the waterway among points recognized as the waterway based on the coordinates of the waterway. Since the coordinates of the waterways have a Z-axis value less than 0, the
연산부(150)는 포인트 클라우드부(140)의 처리결과를 바탕으로 좌측수로(2)와 우측수로(3)에 대한 경계선을 검출한다. The
연산부(150)는 좌측수로(2)와 우측수로(3)에 대하여, 좌측수로 포인트 클라우드와 우측수로 포인트 클라우드를 기반으로, 수로에 대한 직선의 방정식을 산출한다. 이때, 연산부(150)는 로봇좌표계에서 X-Y 평면에서 분석이 필요하기 때문에, Z 좌표는 무시하고 직선의 방정식을 산출할 수 있다. The
연산부(150)는 좌측수로의 직선 L과 평행한 단위벡터를 , 해당 단위벡터를 지나는 한점을 , 우측수로의 직선의 R과 평행한 단위벡터를 , 해당 단위백터를 지나는 한점을 이라고 설정한다. The
실제 수로는 왼쪽과 오른쪽의 직선의 기울기가 크게 차이 나지 않으나, 영상으로부터 이를 인식하는 과정과, 직선의 방정식을 추정하는 과정에서 약간의 오차가 발생할 수 있다. Although there is not much difference in the slope of the straight line between the left and right sides of the actual waterway, a slight error may occur in the process of recognizing it from the image and estimating the equation of the straight line.
연산부(150)는 이를 단순화를 위해, 왼쪽 직선 L과 평행한 단위벡터와, 오른쪽 직선 R의 평행한 단위 벡터의 평균단위벡터를 최종적으로 직선 L 및 R과 평행한 단위벡터로 변경한다. For simplicity, the
평균단위벡터는 다음의 수학식3과 같다. The average unit vector is expressed by
이때, 산출된 직선의 방정식의 경우 수로와 통로의 경계선이 아닌, 수로 바깥쪽의 외측 경계선(13, 14)를 나타낸다. At this time, in the case of the equation of the calculated straight line, it represents the
수로의 폭은 표준으로 정해져 있으므로, 연산부(150)는 구해진 직선을 아래의 수학식4를 이용하여, 직선의 방정식을 변경한다. Since the width of the channel is determined by standard, the
산출된 직선방정식은 다음과 같으며 그에 대한 그래프는 도 8의 (a)와 같다. The calculated linear equation is as follows, and the graph thereof is shown in (a) of FIG.
연산부(150)는 산출된 직선방정식을 이용하여 수로의 경계선 중, 통로측의 내측 경계선(11, 12)을 산출한다. 또한, 연산부(150)는 내측 경계선(11, 12)이 수로와 통로의 경계선이므로, 이를 기준으로 통로(1)를 설정한다. The
그에 따라 연산부(150)는 경계선(11, 12)에 대한, 좌측수로 직선 파라미터와 우측수로 직선 파라미터를 산출할 수 있다. Accordingly, the
도 5 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 인식영역을 설명하는데 참조되는 도이다. 5 is a diagram referenced to describe an obstacle recognition area of a facility management robot according to an embodiment of the present invention.
도 5에 도시된 바와 같이, 관리 로봇(100)은 통로에 위치하는 장애물을 검출한다. As shown in FIG. 5 , the
좌측수로(2)의 우측경계선(11)과, 우측수로(3)의 좌측경계선(12)을 기준으로 통로(1)가 설정되면, 관리 로봇(100)은 통로(1) 상에 위치하는 장애물(21, 22)를 검출한다. When the
시설물의 내부에는 송전선로를 지지하기 위한 지지대가 복수로 설치되므로, 전체 영역에 대하여 장애물을 감지하는 경우 복수의 지지대 등이 장애물로 검출될 수 있으므로, 관리 로봇(100)은 일정거리 내의 장애물을 검출한다. Since a plurality of supports for supporting the power transmission line are installed inside the facility, the
또한, 관리 로봇(100)은 통로(1)를 주행하고, 그 외의 영역으로는 주행하지 않으므로, 통로 외의 영역에 위치하는 장애물은 무시한다. In addition, since the
장애물인식부(160)는 통로(1) 상에 본체로부터 일정 거리 내에 장애물 인식영역(15)을 설정하고, 해당 영역에 포함되는 장애물을 검출한다. The obstacle recognizing unit 160 sets an
장애물 인식영역(15)은 세로는 로봇 최대 높이(b), 가로는 통로의 길이(a), 두께는 로봇으로 부터 일정거리(d)로 설정할 수 있다. The
즉, 관리 로봇(100)이 통로 상에, 로봇으로부터 일정거리 d까지의 범위 내에서 로봇의 높이 내에 위치하는 장애물을 검출한다. That is, the
장애물 인식영역(15)을 X-Y 평면으로 나타내면 도 8의 (b)에 도시된 바와 같다. When the
장애물인식부(160)는 장애물 인식영역(15) 내에 장애물이 위치하지 않는 경우 장애물 없음에 대한 신호를 제어부(110)로 인가하고, 제어부(110)는 주행제어부(120)를 제어하여 목표점까지의 주행경로를 설정하여 주행하도록 한다. When an obstacle is not located within the
또한, 장애물인식부(160)는 주행 중에, 도 8의 (b)의 T점, 즉 로봇으로부터 거리 d에 위치하는 통로의 중앙점을 기준으로 새로운 장애물 인식영역을 설정하여 장애물을 검출할 수 있다. In addition, the obstacle recognizing unit 160 may detect an obstacle by setting a new obstacle recognition area based on point T of FIG. .
장애물인식부(160)는 주행 중에 지속적으로 장애물 인식영역을 설정하여, 통로 상에 위치하는 장애물을 검출한다. The obstacle recognizing unit 160 continuously sets an obstacle recognition area while driving to detect obstacles located on the passage.
도 6 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 검출을 설명하는데 참조되는 도이고, 도 7 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 장애물 분석에 따라 주행 결정을 설명하는데 참조되는 도이다. 6 is a reference diagram for explaining obstacle detection of a facility management robot according to an embodiment of the present invention, and FIG. 7 is a reference for explaining driving determination according to an obstacle analysis of a facility management robot according to an embodiment of the present invention. It is the way to become
장애물인식부(160)는 장애물 인식영역(15)에 장애물이 위치하는 경우, 장애물을 상세 분석하여 그 위치를 산출한다. When an obstacle is located in the
도 6의 (a)에 도시된 바와 같이, 장애물인식부(160)는 제 1 장애물(21)을 검출한다. As shown in (a) of FIG. 6 , the obstacle recognizing unit 160 detects the
장애물인식부(160)는 제 1 장애물(21)을 상세 분석하여 그 위치와 크기를 산출한다. 장애물인식부(160)는 장애물이 위치하는 평면에 대하여 제 1 장애물에 대하여 분석을 실시한다. The obstacle recognizing unit 160 analyzes the
도 9의 (a)와 같이 제 1 장애물(21)까지의 거리 d0에서의 평면을 기준으로 검출한다. As shown in (a) of FIG. 9, the plane at the distance d0 to the
또한, 장애물인식부(160)는 관리 로봇(100)이 장애물을 통과하거나 회피하여 주행 가능한지 여부를 판단한다. In addition, the obstacle recognizing unit 160 determines whether the
도 7의 (a)와 같이, 장애물인식부(160)는 제 1 장애물(21)이 위치하는 경우, 제 1 장애물(21)이 통로의 우측에 위치하므로, 장애물을 제외한 영역의 크기와 관리 로봇의 단면적(50)과 비교하여, 주행 가능여부를 판단할 수 있다. As shown in (a) of FIG. 7, when the
도 6의 (b)에 도시된 바와 같이, 장애물인식부(160)는 제 2 장애물(22)을 검출한다. As shown in (b) of FIG. 6 , the obstacle recognizing unit 160 detects the
장애물인식부(160)는 제 2 장애물(22)의 거리를 판단하고, 제 2 장애물(22)의 위치를 분석한 후, 통과 가능 여부를 판단한다. The obstacle recognizing unit 160 determines the distance of the
도 7의 (b)에 도시된 바와 같이, 장애물인식부(160)는 제 2 장애물(22)의 통로(1)의 어느 일측에 위치하고, 관리 로봇(100)의 단면적(50)을 고려할 때, 관리 로봇(100)의 주행경로 상에 제 2 장애물(22)이 위치하여 충돌영역(31)이 발생하므로, 통과 불가능으로 판단한다. As shown in (b) of FIG. 7, the obstacle recognizing unit 160 is located on either side of the
한편, 도 7의 (c)에 도시된 바와 같이, 제 3 장애물(23)이 검출되는 경우, 장애물인식부(160)는 제 3 장애물(23)의 위치를 분석하여, 로봇의 높이(b)보다 높은 곳에 위치하는 경우 관리 로봇(100)의 제 3 장애물(23)의 하부를 통과할 수 있다고 판단한다. On the other hand, as shown in (c) of FIG. 7 , when the
장애물인식부(160)는 검출된 장애물에 대한 정보과 통과 가능 여부를 주행제어부(120)로 인가한다. The obstacle recognizing unit 160 applies information about the detected obstacle and whether it is possible to pass the obstacle to the driving
주행제어부(120)는 장애물 정보와 목표지점, 통로에 대한 정보 등을 바탕으로 목표지점까지의 주행경로를 설정한다. The driving
주행제어부(120)는 인식된 통로(1)의 범위 내에서 주행하되, 인식된 장애물을 회피하거나 통과하는 경로를 설정한다. The
또한, 주행제어부(120)는 주행 중, 장애물인식부(160)에 의해 장애물이 검출되면, 새로운 장애물에 대한 정보를 바탕으로 주행경로를 수정한다. In addition, when an obstacle is detected by the obstacle recognizing unit 160 while driving, the driving
주행제어부(120)는 다양한 주행방정식을 적용하여 주행경로를 설정하고 그에 따라 구동부를 제어할 수 있다. 예를 들어 주행제어부(120)는 직진 신호 및 회전신호 2가지로 제어하는 차동 구동 방식으로 주행을 제어할 수 있다. The driving
주행신호의 계산을 위한 식을 도식화하면 도 9의 (b)와 같다.The equation for calculating the driving signal is schematized as shown in (b) of FIG.
주행제어부(120)는 관리 로봇(100)의 주행 목표 지점을 라고 할 때, 차동 구동 방식에 따라, 원 운동을 실시하므로, 직진 속도를 v, 회전속도를 w라고 하면 아래의 수학식5와 같다. The driving
여기서 r은 회전운동의 반경을 나타낸다. r값을 연산하여, 임의의 직진속도에 대해 회전속도를 계산할 수 있다. where r represents the radius of rotation. By calculating the r value, the rotational speed can be calculated for an arbitrary straight speed.
이때, 와 r과의 관계는 다음 수학식6과 같다.At this time, The relationship between and r is shown in Equation 6 below.
여기서 삼각함수 공식을 이용하여 정리하면 회전속도 w는 다음의 수학식7과 같다.Here, when organized using the trigonometric formula, the rotational speed w is as shown in Equation 7 below.
그에 따라, 주행제어부(120)는 주행경로를 설정하고, 산출된 회전속도에 따라 구동부(230)를 제어하여 본체가 이동하도록 한다. Accordingly, the driving
도 8 및 도 9 는 본 발명의 일 실시예에 따른 시설물 관리 로봇의 환경 분석방법을 설명하는데 참조되는 도이다. 8 and 9 are diagrams referenced to explain an environment analysis method of a facility management robot according to an embodiment of the present invention.
도 8의 (a)는 도 4에서 설명한 연산부(150)에 의해 설정되는 수로에 대한 직선방정식이다. (a) of FIG. 8 is a linear equation for a waterway set by the
연산부(150)는 좌측수로(2)의 좌측경계선(13)과 우측수로(3)의 우측경계선(14)을 산출한 후, 이를 바탕으로, 지정된 수로의 폭을 기준으로 좌측수로(2)의 우측경계선(11)과 우측수로(3)의 좌측경계선(12)에 대한 직선방정식을 도 8의(a)와 같이 산출할 수 있다. After calculating the
또한, 연산부(150)는 경계선(11, 12)을 기준으로 통로(1)를 설정한다. In addition, the
도 8의 (b)는 도 5에서 설명한 장애물 인식영역(15)을 X-Y 평면으로 나타낸 것이다. 8(b) shows the
장애물 인식영역(15)의 가로는 통로의 폭(a)이고, 세로는 관리 로봇(100)의 높이이며, 두께는 관리 로봇(100)으로부터 장애물을 확인하고자 하는 거리(d)이다. The width of the
이때, 거리(d)는 카메라 또는 센서를 통해 감지할 수 있는 영역을 기준으로 설정될 수 있다. In this case, the distance d may be set based on an area that can be detected by a camera or sensor.
도 9의 (a)는 장애물인식부(160)에 의해 검출되는 장애물의 위치에 X-Y평면이다. 9(a) is an X-Y plane at the position of an obstacle detected by the obstacle recognizing unit 160.
장애물인식부(160)는 제 1 장애물(21)까지의 거리 d0에서의 평면을 기준으로 장애물을 분석한다. The obstacle recognizing unit 160 analyzes the obstacle based on a plane at a distance d0 to the
도 9의 (b)는 주행제어부(120)의 목표지점까지의 주행경로를 설정하기 위하여 주행신호를 계산하는 도이다. 9(b) is a diagram for calculating a driving signal in order to set a driving route to a target point of the driving
주행제어부(120)는 관리 로봇(100)의 주행 목표 지점을 라고 할 때, 차동 구동 방식에 따라, 원 운동을 실시하므로, 직진 속도 v, 회전속도 w를 산출하여 주행을 제어한다. The driving
도 10 은 본 발명의 일 실시예에 따른 시설물 관리 로봇의 제어방법을 설명하는데 참조되는 순서도이다. 10 is a flowchart referenced to describe a control method of a facility management robot according to an embodiment of the present invention.
도 10에 도시된 바와 같이, 관리 로봇(100)은 시설물에 진입하여 카메라(170)를 통해 영상을 촬영한다(S310).As shown in FIG. 10 , the
영상처리부(130)는 촬영된 영상을 분석하고, 영상영역을 분할하여(S320), 시설물 내에 위치하는 수로(2, 3)를 영상으로부터 추출한다(S330). The
포인트 클라우드부(140)는 촬영된 영상(RGB영상)과, 수로영상, 깊이영상을 바탕으로 3차원의 포인트 클라우드로 변환한다(S340). The
또한, 포인트 클라우드부(140)는 잘못 인식된 포인트를 제거한다(S350). Also, the
그에 따라 관리 로봇(100)은 시설물 내의 구조에 대한 3차원의 정보를 획득한다. Accordingly, the
연산부(150)는 3차원의 포인트 클라우드를 바탕으로 수로에 대한 직선방정식을 연산하고, 이를 바탕으로 통로(1)를 검출한다. The
연산부(150)는 3차원의 포인트 클라우드를 바탕으로 수로의 경계선을 검출하고, 수로의 경계선으로부터 통로와 수로의 경계선을 산출하여, 통로의 경계선에 대한 직선 파라미터를 산출한다(S360). The
장애물인식부(160)는 통로 상에 장애물 인식영역(15)을 설정하고, 해당 영역 내에 위치하는 장애물을 검출한다(S370). The obstacle recognizing unit 160 sets an
장애물인식부(160)는 장애물의 유무를 판단하고(S380), 장애물이 존재하는 경우 장애물을 상세 분석하여 그 위치를 산출한다(S390). The obstacle recognizing unit 160 determines whether or not there is an obstacle (S380), and if there is an obstacle, analyzes the obstacle in detail to calculate its location (S390).
장애물인식부(160)는 장애물의 위치와 관리 로봇(100)의 크기를 고려하여 장애물 통과가 가능한지 여부를 판단한다(S400). The obstacle recognizing unit 160 determines whether it is possible to pass through the obstacle in consideration of the position of the obstacle and the size of the management robot 100 (S400).
장애물인식부(160)는 장애물 통과가 가능한지 여부를 판단하여 장애물 정보를 주행제어부(120)로 인가한다. The obstacle recognizing unit 160 determines whether it is possible to pass through the obstacle and applies the obstacle information to the driving
주행제어부(120)는 장애물이 없거나 또는 장애물 통과가 가능한 경우, 목표지점을 산출하고(S410), 목표지점까지 장애물을 회피하거나 통과하는 주행경로를 설정한다(S420). When there is no obstacle or it is possible to pass through the obstacle, the driving
또한 주행제어부(120)는 설정된 주행경로를 바탕으로, 직진속도(v)와 바퀴의 회전속도(w)를 산출하여 구동부(230)를 제어한다. In addition, the driving
그에 따라 관리 로봇(100)은 통로를 따라 주행한다(S430).Accordingly, the
관리 로봇(100)은 주행 중에 카메라(170)를 통해 촬영되는 영상을 통해 선로의 상태를 점검한다(S440). The
한편, 장애물 통과가 불가능하다고 판단되는 경우, 주행제어부(120)는 구동부(230)를 제어하여 로봇의 주행을 정지한다(S450). 주행제어부(120)는 주행불가에 대한 신호를 제어부(110)로 인가한다. On the other hand, when it is determined that passing through the obstacle is impossible, the
제어부(110)는 주행정지 및 장애물에 대한 경고를 출력하고, 그에 대한 정보를 통신부(210)를 통해 전송한다(S460). The
제어부(110)는 관리 로봇(100)이 출발지점 또는 지정된 위치로 복구하도록 주행제어부(120)로 제어신호를 인가한다. The
그에 따라 주행제어부(120)는 구동부(230)를 제어하여 관리 로봇이 복귀하도록 한다(S470). Accordingly, the driving
한편, 경고 출력 후, 검출된 장애물이 이동하는 경우, 장애물인식부(160)는 장애물을 재검출하여 통과가능 여부를 재판단할 수 있다. Meanwhile, if the detected obstacle moves after the warning is output, the obstacle recognizing unit 160 may re-detect the obstacle to re-determine whether passing is possible.
주행제어부(120)는 장애물의 이동에 따라 주행이 가능한 경우 주행경로를 재산출하여 주행을 제어할 수 있다. When the driving is possible according to the movement of the obstacle, the driving
따라서 본 발명에 따른 시설물 관리 로봇은 카메라를 통해 촬영되는 영상과 깊이정보를 바탕으로 3차원의 포인트 클라우드를 생성하고, 포인트 클라우드를 바탕으로, 3차원 공간상에서 로봇이 주행하지 못하는 영역을 인식하여, 이를 기반으로 주행경로를 설정하고 설정된 주행경로에 따라 본체가 이동하도록 주행을 제어할 수 있다. Therefore, the facility management robot according to the present invention generates a 3D point cloud based on the image captured by the camera and the depth information, recognizes an area where the robot cannot drive in the 3D space based on the point cloud, Based on this, a driving route can be set and driving can be controlled so that the main body moves according to the set driving route.
그에 따라 본 발명은 접근이 어려고 내부 환경이 열악한 시설물에 대하여 용이하게 점검하고 이를 관리할 수 있다. Accordingly, the present invention can easily inspect and manage facilities that are difficult to access and have poor internal environments.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, it should be noted that this is only exemplary and various modifications and equivalent other embodiments are possible from those skilled in the art to which the technology pertains. will understand Therefore, the true technical protection scope of the present invention should be defined by the claims below.
1: 통로 1, 3: 수로
11, 12, 13, 14: 경계선 15: 장애물 인식영역
21, 22, 23: 장애물
100: 관리 로봇
110: 제어부 120: 주행제어부
130: 영상처리부 140: 포인트 클라우드부
140: 연산부 160: 장애물인식부1:
11, 12, 13, 14: boundary line 15: obstacle recognition area
21, 22, 23: Obstacles
100: management robot
110: control unit 120: driving control unit
130: image processing unit 140: point cloud unit
140: calculation unit 160: obstacle recognition unit
Claims (19)
상기 카메라를 통해 촬영된 영상을 분석하여 영역을 분할하여, 상기 시설물 내에 위치하는 수로를 검출하는 영상처리부;
상기 영상과 상기 깊이정보를 바탕으로 3차원의 포인트 클라우드로 변환하는 포인트 클라우드부;
상기 포인트 클라우드로부터 상기 수로에 대한 경계선을 산출하여 상기 시설물 내의 통로를 검출하는 연산부;
상기 통로 상에 위치하는 장애물을 검출하여 그 위치를 산출하는 장애물인식부;
장애물 정보를 바탕으로 상기 통로 상에 주행경로를 설정하여 주행을 제어하는 주행제어부; 및
주행 중, 상기 영상을 분석하여 상기 시설물 내의 설비에 대한 상태를 점검하는 제어부;를 포함하는 관리 로봇.a camera that captures an image within the facility and obtains depth information;
an image processing unit which analyzes the image captured by the camera, divides the area, and detects a waterway located in the facility;
a point cloud unit that converts the image and the depth information into a 3D point cloud;
a calculator configured to calculate a boundary line for the waterway from the point cloud and detect a passage in the facility;
an obstacle recognizing unit that detects an obstacle located on the passage and calculates its position;
a driving control unit that controls driving by setting a driving path on the passage based on obstacle information; and
A management robot comprising: a controller that analyzes the image while driving and checks the state of equipment within the facility.
상기 영상처리부는, 상기 영상으로부터 영역을 분할하여 주행가능영역인 통로의 영역과 주행불가능영역인 상기 수로의 영역을 검출하고, 상기 수로에 대한 좌측수로영상과 우측수로영상을 생성하는 것을 특징으로 하는 관리 로봇.According to claim 1,
The image processing unit divides the area from the image, detects the area of the passage, which is a drivable area, and the area of the waterway, which is a non-drivable area, and generates a left waterway image and a right waterway image for the waterway. Characterized in that management robot.
상기 포인트 클라우드부는 상기 영상과, 상기 수로에 대한 영상, 상기 깊이정보를 바탕으로, 3차원의 포인트 클라우드로 변환하여, 상기 영상에 대한 포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 각각 생성하고, 오인식 포인트를 제거하는 것을 특징으로 하는 관리 로봇.According to claim 1,
The point cloud unit converts the image into a 3D point cloud based on the image, the image of the waterway, and the depth information, and converts the image into a point cloud, a left channel point cloud, and a right channel point cloud, respectively. A management robot characterized by generating and removing misrecognized points.
상기 포인트 클라우드부는 상기 수로의 좌표를 기준으로, 상기 수로로 인식된 포인트 중, 상기 수로보다 높은 위치의 포인트를 제거하는 것을 특징으로 하는 관리 로봇.According to claim 1,
The management robot according to claim 1 , wherein the point cloud unit removes a point located higher than the waterway among the points recognized as the waterway based on the coordinates of the waterway.
상기 연산부는 상기 포인트 클라우드를 바탕으로, 상기 수로의 경계선에 대한 직선방정식을 산출하고, 상기 수로와 상기 통로의 경계선을 산출하여, 상기 통로를 검출하는 것을 특징으로 하는 관리 로봇.According to claim 1,
The management robot according to claim 1 , wherein the calculation unit calculates a linear equation for a boundary line of the waterway based on the point cloud, calculates a boundary line between the waterway and the passage, and detects the passage.
상기 연산부는 상기 수로의 외측 경계선을 산출한 후, 상기 수로의 폭을 기준으로 상기 수로의 내측 경계선을 산출하여, 상기 수로와 상기 통로의 경계선으로 설정하는 것을 특징으로 하는 관리 로봇.According to claim 4,
The management robot, characterized in that the operation unit calculates an outer boundary of the waterway, then calculates an inner boundary of the waterway based on the width of the waterway, and sets it as a boundary between the waterway and the passage.
상기 장애물인식부는 주행불가영역인 상기 통로 외의 영역에 위치하는 장애물은 무시하고, 상기 통로 상에 위치하는 장애물을 검출하는 것을 특징으로 하는 관리 로봇.According to claim 1
The management robot according to claim 1 , wherein the obstacle recognizing unit ignores obstacles located in an area other than the passage, which is a non-running area, and detects an obstacle located on the passage.
상기 장애물인식부는 상기 관리 로봇의 높이, 상기 통로의 폭, 검출하고자 하는 거리를 기준으로 장애물 인식영역을 상기 통로 상에 설정하고, 상기 장애물 인식영역 내에 위치하는 장애물을 검출하는 것을 특징으로 하는 관리 로봇.According to claim 1,
The obstacle recognizing unit sets an obstacle recognition area on the passage based on a height of the management robot, a width of the passage, and a distance to be detected, and detects an obstacle located within the obstacle recognition region. .
상기 장애물인식부는 검출된 장애물의 위치에 대응하여 통과 가능 여부를 판단하고, 상기 관리 로봇의 높이보다 높은 위치의 장애물은 통과 가능으로 판단하는 것을 특징으로 하는 관리 로봇.According to claim 8,
The obstacle recognizing unit determines whether passing is possible in response to the position of the detected obstacle, and determines that an obstacle at a position higher than the height of the management robot is passable.
상기 주행제어부는 상기 통로의 범위 내에서, 상기 장애물의 정보와 목표지점을 바탕으로 주행경로를 설정하여, 상기 주행경로에 따라 직진신호 및 회전신호를 구동부로 인가하여 차동 구동방식으로 주행을 제어하며, 주행 중 감지되는 장애물을 회피 또는 통과하도록 상기 주행경로를 수정하는 것을 특징으로 하는 관리 로봇.According to claim 1,
The driving control unit sets a driving path based on the information of the obstacle and the target point within the range of the passage, and applies a straight ahead signal and a turn signal to the driving unit according to the driving path to control driving in a differential driving method. , A management robot characterized in that it corrects the driving path to avoid or pass through obstacles detected during driving.
상기 제어부는 상기 영상을 분석하여 상기 설비의 상태변화를 판단하고, 이상이 검출되는 경우 또는 상기 장애물에 의해 주행할 수 없는 경우, 경고를 출력하고, 관련 데이터를 전송하는 것을 특징으로 하는 관리 로봇.According to claim 1,
The control unit analyzes the image to determine a change in the state of the facility, outputs a warning, and transmits related data when an abnormality is detected or when driving is impossible due to the obstacle.
상기 영상의 영역을 분할하여 시설물 내에 위치하는 수로를 검출하는 단계;
상기 영상과 상기 깊이정보를 바탕으로 3차원의 포인트 클라우드로 변환하는 단계;
상기 포인트 클라우드로부터 상기 수로에 대한 경계선을 산출하여 상기 시설물 내의 통로를 검출하는 단계;
상기 통로 상에 위치하는 장애물을 검출하여 그 위치를 산출하는 단계;
검출된 장애물의 정보를 바탕으로 상기 통로 상에 주행경로를 설정하여 주행하는 단계; 및
주행 중, 상기 영상을 분석하여 상기 시설물 내의 설비에 대한 상태를 점검하는 단계;를 포함하는 관리 로봇의 제어방법.photographing an image through a camera and acquiring depth information;
detecting a waterway located in a facility by dividing an area of the image;
converting the image and the depth information into a 3D point cloud;
detecting a passage in the facility by calculating a boundary line for the waterway from the point cloud;
detecting an obstacle located on the passage and calculating its position;
setting a driving path on the passage based on the information of the detected obstacle and driving; and
A control method of a management robot comprising: checking the state of equipment in the facility by analyzing the image while driving.
상기 수로를 검출하는 단계는,
상기 영상으로부터 주행가능영역인 통로의 영역과 주행불가능영역인 상기 수로의 영역을 검출하고, 상기 수로의 영역에 대한 영상을 생성하는 것을 특징으로 하는 관리 로봇의 제어방법. According to claim 12,
In the step of detecting the waterway,
A method for controlling a management robot, characterized in that, from the image, an area of the passage, which is a drivable area, and an area of the waterway, which is a non-drivable area, are detected, and an image of the area of the waterway is generated.
상기 포인트 클라우드로 변환하는 단계는,
상기 영상과, 상기 수로에 대한 영상, 상기 깊이정보를 바탕으로, 3차원의 포인트 클라우드로 변환하는 단계;
상기 영상에 대한 포인트 클라우드, 좌측수로 포인트 클라우드, 우측수로 포인트 클라우드를 각각 생성하는 단계; 및
상기 수로의 좌표를 기준으로, 상기 수로로 인식된 포인트 중, 상기 수로보다 높은 위치의 오인식 포인트를 제거하는 단계를 더 포함하는 관리 로봇의 제어방법.According to claim 12,
The step of converting the point cloud,
converting the image into a 3D point cloud based on the image, the image of the waterway, and the depth information;
generating a point cloud for the image, a point cloud for the left number, and a point cloud for the right number, respectively; and
The method of controlling a management robot further comprising the step of removing an erroneously recognized point higher than the waterway among the points recognized as the waterway based on the coordinates of the waterway.
상기 장애물을 검출하는 경우,
상기 관리 로봇의 높이, 상기 통로의 폭, 검출하고자 하는 거리를 기준으로 장애물 인식영역을 상기 통로 상에 설정하여 상기 장애물 인식영역 내에 위치하는 장애물을 검출하는 단계; 및
상기 장애물 인식영역에서 검출된 장애물의 위치에 대응하여 통과 가능 여부를 판단하는 단계;를 더 포함하는 관리 로봇의 제어방법. According to claim 12,
In case of detecting the above obstacle,
Setting an obstacle recognition area on the passage based on the height of the management robot, the width of the passage, and a distance to be detected to detect an obstacle located within the obstacle recognition region; and
The management robot control method further comprising determining whether passage is possible in response to the position of the obstacle detected in the obstacle recognition area.
상기 장애물을 검출하는 경우,
주행불가영역인 상기 통로 외의 영역에 위치하는 장애물은 무시하고, 상기 통로 상에 위치하는 장애물을 검출하고, 관리 로봇의 높이보다 높은 위치의 장애물은 통과 가능으로 판단하는 것을 특징으로 하는 관리 로봇의 제어방법.According to claim 12,
In case of detecting the above obstacle,
Control of the management robot, characterized in that ignoring obstacles located in an area other than the passage, which is a non-running area, detecting obstacles located on the passage, and determining that obstacles located higher than the height of the management robot are passable method.
상기 주행하는 단계는,
상기 통로의 범위 내에서, 상기 장애물의 정보와 목표지점의 위치를 바탕으로 상기 주행경로를 설정하고, 상기 주행경로에 따라 직진신호 및 회전신호를 구동부로 인가하여 차동 구동방식으로 주행을 제어하며, 주행 중 감지되는 장애물을 회피 또는 통과하도록 상기 주행경로를 수정하는 것을 특징으로 하는 관리 로봇의 제어방법.According to claim 12,
The driving step is
Within the range of the passage, the driving route is set based on the information of the obstacle and the position of the target point, and the driving is controlled by a differential driving method by applying a straight ahead signal and a turn signal to the driving unit according to the driving route, A control method of a management robot, characterized in that for modifying the driving path to avoid or pass through obstacles detected during driving.
상기 주행하는 단계는,
상기 장애물을 통과할 수 없는 경우, 경고를 출력하는 단계;
상기 장애물의 위치 및 주행상태에 대한 데이터를 전송하는 단계; 및
출발지점 또는 지정된 위치로 복귀하는 단계를 더 포함하는 관리 로봇의 제어방법.According to claim 12,
The driving step is
outputting a warning when the obstacle cannot be passed;
Transmitting data about the location and driving state of the obstacle; and
A control method of a management robot further comprising the step of returning to a starting point or a designated location.
상기 설비에 대한 상태를 점검하는 단계는,
상기 영상을 분석하여 상기 설비를 검출하고, 상기 설비의 상태를 분석하여 상기 설비의 이상을 검출하는 단계; 및
상기 설비의 이상 발생 시, 현재 위치 및 상기 설비의 상태에 대한 점검데이터를 생성하여 전송하는 단계;를 더 포함하는 관리 로봇의 제어방법. According to claim 12,
The step of checking the status of the facility,
detecting the facility by analyzing the image, and detecting an abnormality in the facility by analyzing the state of the facility; and
The method of controlling a management robot further comprising generating and transmitting inspection data for a current location and a state of the facility when an abnormality occurs in the facility.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210099282A KR102568565B1 (en) | 2021-07-28 | 2021-07-28 | Management Robot and Method for Underground Facility |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210099282A KR102568565B1 (en) | 2021-07-28 | 2021-07-28 | Management Robot and Method for Underground Facility |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230017595A true KR20230017595A (en) | 2023-02-06 |
KR102568565B1 KR102568565B1 (en) | 2023-08-23 |
Family
ID=85223771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210099282A KR102568565B1 (en) | 2021-07-28 | 2021-07-28 | Management Robot and Method for Underground Facility |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102568565B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101480543B1 (en) | 2014-06-05 | 2015-01-08 | 덕산메카시스 주식회사 | A moving surveillance unit and a system including the same |
KR20180068484A (en) * | 2016-12-14 | 2018-06-22 | 현대자동차주식회사 | Apparatus and method for controlling narrow road driving of vehicle |
KR20200048732A (en) * | 2018-10-30 | 2020-05-08 | 한국전력공사 | Mobile robot for monitoring and check and diagnosis |
-
2021
- 2021-07-28 KR KR1020210099282A patent/KR102568565B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101480543B1 (en) | 2014-06-05 | 2015-01-08 | 덕산메카시스 주식회사 | A moving surveillance unit and a system including the same |
KR20180068484A (en) * | 2016-12-14 | 2018-06-22 | 현대자동차주식회사 | Apparatus and method for controlling narrow road driving of vehicle |
KR20200048732A (en) * | 2018-10-30 | 2020-05-08 | 한국전력공사 | Mobile robot for monitoring and check and diagnosis |
Also Published As
Publication number | Publication date |
---|---|
KR102568565B1 (en) | 2023-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102065975B1 (en) | Safety Management System Using a Lidar for Heavy Machine | |
JP6132659B2 (en) | Ambient environment recognition device, autonomous mobile system using the same, and ambient environment recognition method | |
JP6267972B2 (en) | Work machine ambient monitoring device | |
US10065314B2 (en) | System and method for manipulation platform | |
US6151539A (en) | Autonomous vehicle arrangement and method for controlling an autonomous vehicle | |
JP6800166B2 (en) | A device for determining the space in which a vehicle can run, running based on it, and a vehicle | |
KR20130067851A (en) | Apparatus and method for recognizing position of vehicle | |
CN107161145A (en) | Method and control device for avoiding rear-end collision | |
JP2021149968A (en) | Method and system for automatic driving of vehicle | |
KR102568565B1 (en) | Management Robot and Method for Underground Facility | |
KR101359649B1 (en) | obstacle detection sensor | |
JP3740883B2 (en) | Control method of unmanned mobile cart | |
CN111844038B (en) | Robot motion information identification method, obstacle avoidance robot and obstacle avoidance system | |
KR20230103002A (en) | System for managing safety in industrial site | |
KR101204086B1 (en) | Method and apparatus for controlling self-driving of mobile-robot | |
JP2018178878A (en) | Industrial vehicle | |
JP2021189575A (en) | Parking assist device, and control method for parking assist device | |
CN113064425A (en) | AGV equipment and navigation control method thereof | |
KR102492161B1 (en) | Transfer Vehicle for Transfer System and Driving Method Thereof | |
KR101824042B1 (en) | Camera-integrated laser detector and driving method thereof | |
KR102593014B1 (en) | Driving system for an autonomous vehicles tracking grid patterns | |
CN210551274U (en) | Robot monitoring system and robot | |
CN212782318U (en) | Optical projection auxiliary parking and warehousing system | |
JP2023007548A (en) | Image processing device and image processing method | |
CN109285202A (en) | Vehicle track method and system for planning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |