KR100993241B1 - System and method for monitoring movable robot - Google Patents

System and method for monitoring movable robot Download PDF

Info

Publication number
KR100993241B1
KR100993241B1 KR1020080064904A KR20080064904A KR100993241B1 KR 100993241 B1 KR100993241 B1 KR 100993241B1 KR 1020080064904 A KR1020080064904 A KR 1020080064904A KR 20080064904 A KR20080064904 A KR 20080064904A KR 100993241 B1 KR100993241 B1 KR 100993241B1
Authority
KR
South Korea
Prior art keywords
image
robot
guide line
mobile robot
input unit
Prior art date
Application number
KR1020080064904A
Other languages
Korean (ko)
Other versions
KR20100004626A (en
Inventor
임묘택
홍대희
박신석
김영중
최윤근
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020080064904A priority Critical patent/KR100993241B1/en
Publication of KR20100004626A publication Critical patent/KR20100004626A/en
Application granted granted Critical
Publication of KR100993241B1 publication Critical patent/KR100993241B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

이동 로봇 모니터링 시스템, 및 방법이 개시된다. 이동 로봇 모니터링 시스템은 경로 영상 입력부, 가이드 라인 생성부, 및 영상 출력부를 포함한다. 영상 입력부는 이동 로봇에 탑재되어 상기 이동체가 이동하는 경로상의 영상을 입력하고, 가이드 라인 생성부는 영상 상에 영상 입력부로부터 미리 설정된 거리만큼 떨어진 위치를 표시하기 위한 가이드 라인을 생성하며, 영상 출력부는 입력된 영상에 가이드 라인을 표시하여 출력한다. 이러한 구성은 별도의 고가 장치 없이도 효과적으로 이동형 로봇의 조종자에게 정확한 작업 반경이나 경계 거리를 인식시켜 작업 효율을 향상시키고 안전 사고를 방지할 수 있도록 해 준다. A mobile robot monitoring system, and method are disclosed. The mobile robot monitoring system includes a route image input unit, a guideline generator, and an image output unit. The image input unit is mounted on a mobile robot to input an image on a path along which the moving object moves, the guide line generator generates a guide line for displaying a position separated from the image input unit by a predetermined distance on the image, and the image output unit is input. The guideline is displayed on the printed image and output. This configuration effectively recognizes the exact working radius or the boundary distance to the operator of the mobile robot without the need for additional expensive devices, thereby improving work efficiency and preventing safety accidents.

로봇, 건설, 모니터링, 배럴(Barrel) 왜곡 Robot, Construction, Monitoring, Barrel Distortion

Description

이동 로봇 모니터링 시스템, 및 방법{System and method for monitoring movable robot}System and method for monitoring movable robot}

본 발명은 로봇 모니터링 시스템, 및 방법에 관한 것으로서, 더욱 상세하게는 이동 가능한 로봇의 작업 반경이나 경계 거리 등을 모니터링하기 위한 시스템, 및 방법에 관한 것이다.TECHNICAL FIELD The present invention relates to a robot monitoring system and method, and more particularly, to a system and method for monitoring a working radius or a boundary distance of a movable robot.

일반적으로 건축물을 시공할 때, 대부분 인력에 의해 작업이 이루어지므로 건설 자재 운송 및 시공에 작업 인력의 소모가 많고 작업 시간이 오래 걸리는 문제점이 있어서 최근엔 건설 현장에 건설용 로봇을 활용하는 방안이 다각도로 연구되고 있다. In general, when a building is constructed, most of the work is performed by manpower. Therefore, there is a problem in that it takes a lot of work manpower and takes a long time for transportation and construction of construction materials. Is being studied.

현재까진 건설용 로봇이 건설현장에서 이동하거나 작업을 할 때에 기술적 한계 때문에 모든 작업이 자동으로 이루어지지 못하고, 조종자가 근거리 또는 원거리에서 직접 조종해서 로봇을 이동시키거나 작업시키는 방법을 사용한다. 이때, 로봇을 조종하는 조종자는 건설용 로봇에 설치한 영상 카메라로부터 얻어진 영상 정보를 바탕으로 조종을 하는 것이 일반적이다.Until now, when construction robots move or work in construction site, due to technical limitations, all work cannot be done automatically, and the operator uses the method of moving or working the robot by direct control from near or far. At this time, the manipulator to control the robot is generally based on the image information obtained from the image camera installed in the construction robot.

그러나 이 경우 로봇에 설치된 카메라로부터 얻은 평면 영상에 의해서는 로 봇 조종자가 로봇 작업 환경에서의 정확한 거리를 인식하기가 어려워 로봇 작업의 효율이 저하되거나 안전 사고의 우려가 있었다.However, in this case, the plane image obtained from the camera installed in the robot makes it difficult for the robot operator to recognize the exact distance from the robot's working environment, thereby reducing the efficiency of the robot's work or causing a safety accident.

또한, 별도의 거리 측정 장치를 이용하거나 영상 데이터로부터로부터 특정 지점까지의 거리를 연산하는 방법을 이용하여 로봇으로부터의 거리를 얻을 수는 있으나, 각각 별도의 거리 측정 장치나 고성능의 연산 장치가 필요할 뿐만 아니라 로봇 조종자에게 로봇의 작업 환경에 대한 개괄적인 정보를 효과적으로 제공하지는 못하는 문제점이 있다.In addition, the distance from the robot can be obtained by using a separate distance measuring device or a method of calculating the distance from the image data to a specific point, but each requires a separate distance measuring device or a high performance computing device. However, there is a problem that does not effectively provide the robot operator with general information about the working environment of the robot.

본 발명은 상술한 종래의 문제점을 해결하기 위해 안출된 것으로서, 별도의 고가 장치 없이도 효과적으로 이동형 로봇의 조종자에게 정확한 작업 반경이나 경계 거리를 인식시켜 작업 효율을 향상시키고 안전 사고를 방지할 수 있도록 해 주는 시스템, 및 방법을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above-mentioned conventional problems, to effectively recognize the correct working radius or boundary distance to the operator of the mobile robot without a separate expensive device to improve the work efficiency and prevent safety accidents It is an object to provide a system, and a method.

상기 목적을 달성하기 위해 본 발명에 따른 이동 로봇 모니터링 시스템은 경로 영상 입력부, 가이드 라인 생성부, 및 영사 출력부를 포함한다.In order to achieve the above object, the mobile robot monitoring system according to the present invention includes a route image input unit, a guideline generator, and a projection output unit.

영상 입력부는 이동 로봇에 탑재되어 상기 이동체가 이동하는 경로상의 영상을 입력한다. 가이드 라인 생성부는 영상 상에 영상 입력부로부터 미리 설정된 거리만큼 떨어진 위치를 표시하기 위한 가이드 라인을 생성하며, 영상 출력부는 입력된 영상에 가이드 라인을 표시하여 출력한다.The image input unit is mounted on a mobile robot and inputs an image on a path along which the mobile body moves. The guide line generator generates a guide line for displaying a position separated from the image input unit by a predetermined distance on the image, and the image output unit displays and outputs a guide line on the input image.

로봇 조종자에게 제공되는 영상에 로봇으로부터 미리 설정된 거리만큼 떨어진 작업 가이드 라인을 표시하여 출력하기 때문에, 별도의 고가 장치 없이도 효과적으로 이동형 로봇의 조종자에게 정확한 작업 반경이나 경계 거리를 인식시켜 작업 효율을 향상시키고 안전 사고를 방지할 수 있도록 해 준다. Since the work guideline away from the robot is displayed and printed on the image provided to the robot controller, the robot can effectively recognize the exact working radius or boundary distance of the mobile robot without the need for an additional expensive device, improving work efficiency and safety. Help prevent accidents.

가이드 라인 생성부는 영상 입력부의 경로로부터의 설치 높이와 경로에 대한 설치 각도를 이용하여 가이드 라인을 생성할 수 있다. 영상 입력부의 설치 높이와 설치 각도 정보만으로 영상 입력부로부터의 거리를 산출하기 때문에 별도의 고가 연산 장치가 없어도 효과적으로 작업 가이드 라인을 생성할 수 있게 된다.The guide line generator may generate a guide line by using an installation height from a path of the image input unit and an installation angle with respect to the path. Since the distance from the image input unit is calculated using only the installation height and the installation angle information of the image input unit, it is possible to effectively generate a work guide line without a separate expensive computing device.

가이드 라인 생성부는 영상 입력부의 특성에 따라 가이드 라인을 변형시켜 생성할 수 있으며, 가이드 라인의 변형은 배럴 왜곡일 수 있다. 이러한 구성은 영상 입력부의 특성에 따라 왜곡된 영상이 제공되는 경우에도 왜곡된 영상에 대응하는 정확한 가이드 라인을 생성할 수 있게 된다.The guide line generator may be generated by deforming the guide line according to the characteristics of the image input unit, and the deformation of the guide line may be barrel distortion. This configuration can generate accurate guide lines corresponding to the distorted image even when the distorted image is provided according to the characteristics of the image input unit.

아울러, 상기 시스템을 방법의 형태로 구현한 발명이 개시된다.In addition, an invention is disclosed in which the system is implemented in the form of a method.

본 발명은 로봇의 종류, 카메라의 종류, 설치 위치 등에 따른 복잡한 연산이 필요 없는 로봇의 조정 안내 방법을 제공하므로 신속한 안내 데이터를 제공할 수 있도록 하는 효과를 가지며, 비교적 저가의 부품을 사용하여 제조할 수 있도록 하는 효과를 갖는다. The present invention provides an adjustment guide method of the robot that does not require complex calculation according to the type of the robot, the type of the camera, the installation position, etc., and thus has the effect of providing quick guide data, and can be manufactured using relatively inexpensive components. It has the effect of making it possible.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 따른 이동형 로봇 모니터링 시스템의 일 실시예의 블록도이다.1 is a block diagram of one embodiment of a mobile robot monitoring system according to the present invention.

이동 로봇 모니터링 시스템은 경로 영상 입력부, 가이드 라인 생성부, 및 영상 출력부를 포함한다. The mobile robot monitoring system includes a route image input unit, a guideline generator, and an image output unit.

도 1에서, 경로 영상 입력부는 카메라 영상 입력부(300)로, 영상 출력부는 디스플레이 출력부(500)로 표시되어 있으며, 로봇 모니터링 시스템은 로봇 정보 입력부(100), 및 카메라 정보 입력부(200)를 더 포함하고 있다.In FIG. 1, a path image input unit is displayed as a camera image input unit 300, an image output unit is displayed as a display output unit 500, and the robot monitoring system further includes a robot information input unit 100 and a camera information input unit 200. It is included.

카메라 영상 입력부(400)는 이동 로봇에 탑재되어 이동체가 이동하는 경로상의 영상을 입력한다.The camera image input unit 400 is mounted on the mobile robot and inputs an image on a path along which the moving object moves.

도 2는 도 1의 카메라 영상 입력부가 설치된 이동 로봇의 사용 상태를 도시한 도면이다.FIG. 2 is a diagram illustrating a use state of a mobile robot provided with a camera image input unit of FIG. 1.

도 2에서와 같이 로봇에 설치된 카메라는 건설현장 바닥을 비스듬히 촬영하게 되는데 핀홀 카메라의 특성상 촬영 대상이 먼 거리에 있을수록 이미지가 작아지는 현상이 있다. 이를 위하여 다양한 좌표 모델들이 연구되고 있으나 다소 복잡한 연산 과정을 포함하고 있기 때문에 고사양의 마이크로프로세서를 사용하도록 하는 부담을 갖게 된다. 본 발명에서는 가이드라인과 로봇과의 거리 정보만을 표현하기 위하여 간단히 2차원에서 표현되는 새로운 영상 지면 좌표 모델을 사용한다.As shown in FIG. 2, the camera installed in the robot is photographed at an angle to the construction site at an oblique angle. As a result of the pinhole camera, there is a phenomenon in which the image becomes smaller as the object to be photographed is farther away. Various coordinate models have been studied for this purpose, but because they include a rather complicated computational process, there is a burden of using a high-end microprocessor. In the present invention, in order to express only the distance information between the guideline and the robot, a new image plane coordinate model expressed simply in two dimensions is used.

도 2는 특히 건설 로봇의 조정을 위한 안내 영상 생성을 위한 카메라 설치 구상도로서, 여기서 로봇에 설치된 카메라는 건설 현장 지면을 피치각 Φ만큼 기울여 비스듬히 촬영한다. 또한, 핀홀 카메라의 특성상 촬영 대상이 먼 거리에 있을수록 이미지가 작아지는 현상이 있기 때문에, 이를 표현하기 위하여 도 3에서 제시하는 새로운 영상 지면 좌표 모델을 사용하는 것을 특징으로 한다.2 is a schematic diagram of a camera installation for generating a guide image for adjusting the construction robot, in which the camera installed on the robot tilts the ground of the construction site by a pitch angle Φ. In addition, because the pinhole camera has a phenomenon in which the image becomes smaller as the object to be photographed is farther away, the new image surface coordinate model shown in FIG. 3 is used to express this.

가이드 라인 생성부(300)는 영상 상에 카메라 영상 입력부(400)로부터 미리 설정된 거리만큼 떨어진 위치를 표시하기 위한 가이드 라인을 생성한다. 특히, 가이드 라인 생성부(300)는 카메라 영상 입력부(400)의 경로로부터의 설치 높이와 경로에 대한 설치 각도를 이용하여 가이드 라인을 생성한다. The guide line generator 300 generates a guide line for displaying a position away from the camera image input unit 400 by a predetermined distance on the image. In particular, the guideline generator 300 generates a guideline by using the installation height from the path of the camera image input unit 400 and the installation angle with respect to the path.

이와 같이, 카메라 영상 입력부(400)의 설치 높이와 설치 각도 정보만으로 영상 입력부로부터의 거리를 산출하기 때문에 별도의 고가 연산 장치가 없어도 효과적으로 작업 가이드 라인을 생성할 수 있게 된다.As such, since the distance from the image input unit is calculated using only the installation height and the installation angle information of the camera image input unit 400, it is possible to effectively generate a work guide line without a separate expensive computing device.

도 3은 도 1의 이동형 로봇 모니터링 시스템이 제시하는 2차원 영상 지면 좌표 모델을 도시한 도면이다. 여기서 X는 지면을 표현하는 좌표이고, Y는 지면의 수직 좌표이다. D는 로봇의 작업 반경 최소치로 로봇 정보 입력 과정에서 입력되는 값이다. F는 카메라의 초점거리, H는 카메라의 장착 높이, θ는 카메라의 수직 광각, Φ는 카메라의 피치각으로 카메라 정보 입력 과정에서 입력되는 값이다. 미지의 사이각 Ψ는 다음의 방법에 의하여 구해지는 것을 특징으로 한다. FIG. 3 is a diagram illustrating a 2D image plane coordinate model presented by the mobile robot monitoring system of FIG. 1. Where X is the coordinate representing the ground and Y is the vertical coordinate of the ground. D is the minimum working radius of the robot and is a value input during the robot information input process. F is the focal length of the camera, H is the mounting height of the camera, θ is the vertical wide angle of the camera, Φ is the value input during the camera information input process. The unknown angle angle Ψ is obtained by the following method.

먼저, 영상에서 최상단에 촬영되는 지면의 지점을 Lmax라 하고 영상의 최하단에서 촬영되는 지면의 지점을 Lmin이라 하면, 각각의 값은 다음 식에 의하여 구해진다. First, if a point of the ground photographed at the top of the image is Lmax and a point of the ground photographed at the bottom of the image is Lmin, each value is obtained by the following equation.

(1) Lmin = H tan(φ - 0.5θ) (1) Lmin = H tan (φ-0.5θ)

(2) Lmax = H tan(φ + 0.5θ)(2) Lmax = H tan (φ + 0.5θ)

D는 임의 변경 가능한 로봇의 작업 반경 최소치로 상기 로봇 정보 입력 과정에서 입력되는 값을 기반으로 다음을 구할 수 있다.D is the minimum work radius of the robot, which can be arbitrarily changed, and can be obtained based on a value input during the robot information input process.

(3) ψ = arctan(D / H) - (φ - 0.5θ)(3) ψ = arctan (D / H)-(φ-0.5θ)

도 3에서 제시된 영상 지면 좌표를 기반하여 촬영된 영상에서 로봇으로부터 거리 D만큼 떨어진 곳 D'은 다음과 같이 구해진다. 여기서 D는 실제 지면에서의 거리이고, D'은 영상에서의 거리이다.In the image photographed on the basis of the image plane coordinates shown in FIG. Where D is the actual distance from the ground and D 'is the distance in the image.

(4) D' = F tan(ψ)(4) D '= F tan (ψ)

또한, 상기 식(3)에서 D대신 2D와 3D를 대입하여 구한 각각의 ψ를 (4)식에 대입하여 2D'과 3D'을 구할 수 있다. In addition, 2D 'and 3D' can be obtained by substituting each ψ obtained by substituting 2D and 3D in Equation (3) into Equation (4).

디스플레이 출력부(500)는 입력된 영상에 가이드 라인을 표시하여 출력한다.The display output unit 500 displays and outputs guide lines on the input image.

도 4는 도 3의 영상 지면 좌표 모델에서 얻은 결과인 가이드라인의 영상 데이터의 구상도이다. FIG. 4 is a schematic diagram of image data of a guideline, which is a result obtained from the image surface coordinate model of FIG. 3.

가이드 라인 생성부(300)는 카메라 영상 입력부(400)의 특성에 따라 가이드 라인을 변형시켜 생성할 수 있으며, 가이드 라인의 변형은 배럴 왜곡일 수 있다. 이러한 구성은 영상 입력부의 특성에 따라 왜곡된 영상이 제공되는 경우에도 왜곡된 영상에 대응하는 정확한 가이드 라인을 생성할 수 있게 된다.The guide line generator 300 may generate the guide line by deforming the guide line according to the characteristics of the camera image input unit 400, and the deformation of the guide line may be barrel distortion. This configuration can generate accurate guide lines corresponding to the distorted image even when the distorted image is provided according to the characteristics of the image input unit.

로봇의 정면에 설치된 카메라는 넓은 시야를 확보하기 위하여 어안 렌즈와 같은 광각 렌즈를 사용할 수 있으며, 카메라 영상 입력부(400)가 광각 렌즈를 사용하는 경우, 이를 광각 렌즈의 사용에 따른 배럴 왜곡된 영상에 매치시키기 위하여 배럴 왜곡시킬 필요가 있다. The camera installed in front of the robot may use a wide-angle lens such as a fisheye lens to secure a wide field of view, and when the camera image input unit 400 uses a wide-angle lens, it is applied to a barrel distorted image according to the use of the wide-angle lens. The barrel needs to be distorted to match.

도 5는 도 4의 로봇의 작업 가이드라인의 영상 데이터의 배럴 왜곡 구상도이다. 5 is a barrel distortion plot diagram of image data of a work guideline of the robot of FIG. 4.

이때 배럴 왜곡 방법으로는 일반적인 배럴 왜곡 방법을 사용하여 왜곡하며, 이에 따라 입력되는 영상은 배럴(Barrel) 왜곡된다. 이러한 배럴 왜곡된 영상에 로봇의 작업 가이드 라인을 나타내려면 이 가이드 라인 역시 배럴 왜곡된 상태로 표시되어야 한다. 즉, 로봇의 작업 가이드라인을 왜곡된 영상 입력에 일치하도록 왜곡시켜야 하며 왜곡시킨 로봇의 작업 가이드라인을 배럴 왜곡된 영상 입력과 오버레이 함으로써 작업자의 이해가 쉽도록 디스플레이하게 된다. In this case, a barrel distortion method is used to distort using a general barrel distortion method, and thus an input image is barrel distorted. In order to represent the robot's work guideline in this barrel distorted image, the guideline must also be displayed in a barrel distorted state. That is, the work guideline of the robot should be distorted to match the distorted image input, and the work guideline of the distorted robot is overlaid with the barrel distorted image input for easy display by the operator.

도 6은 도 5의 배럴 왜곡된 로봇의 작업 가이드라인을 광각 카메라로부터 획득되는 영상에 오버레이하여 출력한 화면이다. 6 is a screen output by overlaying an operation guideline of the barrel distorted robot of FIG. 5 onto an image obtained from a wide-angle camera.

본 발명은 도 6에서와 같이 건설 현장에 투입되는 건설 로봇의 작업을 보조하는 가이드라인을 오버레이하여 출력하는 모니터링 장치에 관한 것으로, 로봇의 외곽 경계로부터 일정 반경을 시각화하여 작업의 편의성 및 안전성을 도모하기 위한 장치에 대한 것이다. The present invention relates to a monitoring device that overlays and outputs a guideline for assisting the work of a construction robot that is put into a construction site as shown in FIG. 6, and visualizes a certain radius from an outer boundary of the robot to promote convenience and safety of work. It is about an apparatus for doing so.

이러한 건설로봇의 작업 가이드라인 모니터링 장치는 로봇의 정면에 설치된 카메라를 이용하여 단순히 화면을 보여주는 수준을 넘어, 카메라 영상에 작업 가이드라인 정보를 오버레이하여 출력함으로써 로봇의 작업 및 경계 반경을 조종자에게 안내해준다.The construction guideline monitoring device of the construction robot uses the camera installed in front of the robot to go beyond the level of displaying the screen, and outputs the operation guideline information on the camera image to guide the operator of the robot's work and boundary radius. .

이와 같이, 로봇 조종자에게 제공되는 영상에 로봇의 이동 경로 상에 위치하는 로봇으로부터 미리 설정된 거리만큼 떨어진 작업 가이드 라인을 표시하여 출력하기 때문에, 별도의 고가 장치 없이도 효과적으로 이동형 로봇의 조종자에게 정확한 작업 반경이나 경계 거리를 인식시켜 작업 효율을 향상시키고 안전 사고를 방지 할 수 있도록 해 준다. In this way, since the operation guideline away from the robot positioned on the robot's movement path is displayed and output on the image provided to the robot controller, the operator of the mobile robot can effectively adjust the correct working radius to the operator of the mobile robot without an additional expensive device. Recognize the boundary distance to improve work efficiency and prevent safety accidents.

도 7은 도 1의 건설 로봇의 작업 가이드라인 표현에 대한 구상도이다. FIG. 7 is a schematic diagram of a work guideline representation of the construction robot of FIG. 1.

여기서 D는 로봇의 작업 반경 최소치로 임의 변경 가능한 값이며 위험도에 따라 두 배인 2D, 세 배인 3D 거리를 가이드라인으로 표현하는데, 각각 적색, 황색, 녹색을 이용하여 표현한다. 또한, 사용되는 카메라는 넓은 시야각 확보를 위하여 어안렌즈와 같은 배럴 왜곡이 생기는 광각 카메라를 사용한다.Here, D is the minimum value of the working radius of the robot, which can be arbitrarily changed, and the 2D and 3D distances, which are doubled according to the risk, are expressed as guidelines, using red, yellow, and green, respectively. In addition, the camera used is a wide-angle camera that generates a barrel distortion, such as fisheye lens to secure a wide viewing angle.

도 8은 본 발명에 따른 이동형 로봇 모니터링 방법의 일 실시예를 수행하기 위한 개략적인 흐름도이다.8 is a schematic flowchart for performing an embodiment of a mobile robot monitoring method according to the present invention.

도 8에서와 같이, 본 발명은 해당 로봇의 정보를 입력하는 로봇 정보 입력 과정(S100), 로봇에 설치된 카메라의 정보를 입력하는 카메라 정보 입력 과정(S200), 입력된 정보들을 통해 해당 로봇의 작업 반경을 표시하기 위한 영상 데이터를 생성해 내는 가이드라인 생성 과정(S300), 상기 과정에서 생성된 결과인 가이드라인을 카메라 영상에 오버레이하여 출력하는 디스플레이 과정(S400), 상기 과정에서 출력된 가이드라인 데이터를 저장하는 결과 데이터 저장 과정(S500)으로 이루어져 있다.As shown in Figure 8, the present invention is a robot information input process for inputting the information of the robot (S100), a camera information input process (S200) for inputting the information of the camera installed in the robot, the operation of the robot through the input information Guideline generation process for generating image data for displaying a radius (S300), a display process (S400) for overlaying the output of the guideline generated in the process on the camera image (S400), the guideline data output in the process It consists of a result data storage process for storing (S500).

로봇 정보 입력 과정(S100)은 로봇 정보 입력부(100)에 로봇의 높이, 길이, 폭, 바퀴크기, 축간거리 등의 외형 정보를 입력하고(101), 작업 반경(102), 각 바퀴의 속도(103)와 로봇의 진행 방향(104)을 입력한다.Robot information input process (S100) inputs the appearance information, such as height, length, width, wheel size, wheelbase distance of the robot to the robot information input unit 100, the working radius 102, the speed of each wheel ( 103 and the direction of travel 104 of the robot.

카메라 정보 입력 과정(S200)은 카메라 정보 입력부에 로봇에 설치된 카메라의 초점거리, 광각, 설치 높이, 피치각, 카메라의 해상도 등의 카메라 정보를 입력 한다.The camera information input process (S200) inputs camera information such as a focal length, a wide angle, an installation height, a pitch angle, and a camera resolution of a camera installed in a robot to the camera information input unit.

로봇의 작업 가이드라인 생성 과정(S300)은 상기 과정에서 입력된 로봇 정보와 카메라 정보를 기반하고 도 3으로 제시한 새로운 영상 지면 좌표를 사용하여 가이드 라인을 생성하며, 광각 렌즈의 사용에 따른 배럴 왜곡된 영상에 매치시키기 위하여 생성된 로봇의 작업 가이드라인을 배럴 왜곡시키기도 한다.The operation guideline generation process of the robot (S300) generates a guideline using the new image surface coordinates shown in FIG. 3 based on the robot information and the camera information input in the above process, and the barrel distortion according to the use of the wide-angle lens. Barrel distortion may also be made to the robot's working guidelines to match the image.

가이드라인을 카메라 영상에 오버레이하여 출력하는 디스플레이 과정(S400)은 상기 과정에서 생성된 배럴 왜곡된 로봇의 작업 가이드라인을 광각 카메라로부터 획득된 영상에 오버레이 하여 영상 출력한다.The display process (S400) of overlaying the guideline on the camera image and outputting outputs the image by overlaying the work guideline of the barrel-distorted robot generated in the above process onto the image obtained from the wide-angle camera.

결과 데이터 저장 과정은 상기 과정에서 영상 형태로 변환된 로봇의 작업 가이드라인 데이터를 저장한다.The result data storing process stores the work guideline data of the robot converted into the image form in the above process.

본 발명은 건설용 로봇의 카메라를 통하여 로봇의 조정자에게 영상 정보를 제공하는 기술로써 로봇의 작업 반경이나 경계 거리 정보를 표현하는 작업 가이드 라인을 생성하는 방법과 획득한 영상에 작업 가이드라인을 오버레이하여 출력하는 모니터링 장치에 관한 것이다.The present invention is a technology for providing image information to the coordinator of the robot through the camera of the construction robot as a method for generating a work guideline representing the work radius or boundary distance information of the robot and overlaying the work guideline on the acquired image It relates to a monitoring device that outputs.

본 발명은 로봇에 설치된 광각 카메라로부터 획득되는 배럴 왜곡된 영상과 로봇의 작업 가이드 라인을 실시간으로 매치시켜 오버레이된 영상을 조종자에게 모니터링 할 수 있도록 한다.The present invention allows the operator to monitor the overlaid image by matching the barrel distorted image obtained from the wide-angle camera installed in the robot with the robot's work guidelines in real time.

본 발명은 로봇의 정보를 입력하는 로봇 정보 입력 과정: 로봇에 설치된 카메라의 정보를 입력하는 카메라 정보 입력 과정: 상기 입력된 정보들을 통해 해당 로봇의 작업 반경을 표시하기 위한 영상 데이터를 생성해 내는 가이드라인 생성 과 정: 상기 과정에서 생성된 결과인 가이드라인을 카메라 영상에 오버레이하여 출력하는 디스플레이 과정: 상기 과정에서 출력된 가이드라인 데이터를 저장하는 결과 데이터 저장 과정으로 이루어져 있다.Robot information input process for inputting the information of the robot: Camera information input process for inputting the information of the camera installed in the robot: Guide for generating image data for displaying the working radius of the robot through the input information Line generation process: a display process of overlaying a guideline, which is a result generated in the above process, on a camera image and outputting the result: a result data storing process of storing the guideline data output in the above process.

본 발명은 로봇의 정보와 로봇에 설치된 카메라의 설치 정보 등을 통해 로봇의 작업 가이드라인을 생성하는 방법과 생성된 결과물을 영상 형식의 데이터로 변환하여 이를 영상처리 보드를 이용하여 모니터링 하는 장치를 제공한다.The present invention provides a method for generating a work guideline of a robot through information of a robot and installation information of a camera installed in the robot, and converts the generated result into data in an image format and monitors the data using an image processing board. do.

또한, 본 발명은 로봇에 설치된 광각 카메라로부터 획득되는 배럴 왜곡된 영상과 로봇의 작업 가이드라인을 매치시키는 과정의 복잡도를 낮추어 실시간으로 오버레이된 영상을 조종자에게 모니터링 할 수 있도록 하는 장치를 제공한다.In addition, the present invention provides a device for monitoring the overlaid image in real time by reducing the complexity of the process of matching the barrel distorted image obtained from the wide-angle camera installed in the robot with the robot's work guidelines.

본 발명은 건설 로봇의 종류, 카메라의 종류, 설치 위치 등에 따른 복잡한 연산이 필요 없는 걸설 로봇의 조정 안내 방법을 제공하므로 신속한 안내 데이터를 제공할 수 있도록 하는 효과를 갖는다.The present invention has an effect of providing a quick guide data because it provides a guide method for adjusting the masterpiece robot that does not require complex calculation according to the type of construction robot, the type of camera, the installation position.

본 발명은 복잡한 연산 없이 비교적 단순한 방법에 의해 로봇의 작업 가이드라인 정보가 제공되므로 비교적 저가의 부품을 사용하여 건설 로봇의 조정 장치를 제조할 수 있도록 하는 효과를 갖는다.The present invention has the effect of providing the operation guide information of the robot by a relatively simple method without complicated calculations, so that the adjustment device of the construction robot can be manufactured using relatively low-cost parts.

본 발명은 로봇의 종류나 카메라의 종류에 상관없이 로봇의 작업 가이드라인을 생성하는 방법을 제공함으로써 건설용 로봇뿐만 아니라 다양한 산업용 로봇의 조정 안내 장치로도 사용될 수 있는 효과를 갖는다.The present invention has an effect that can be used as an adjustment guide device for various industrial robots as well as construction robots by providing a method for generating a work guideline of the robot regardless of the type of the robot or the type of camera.

이상에서 본 발명이 비록 일부 바람직한 실시예에 의해 설명되었지만, 본 발명의 범위는 이에 의해 제한되어서는 아니 되고, 특허청구범위에 의해 뒷받침되는 상기 실시예의 변형이나 개량에도 미쳐야 할 것이다.Although the invention has been described above by way of some preferred embodiments, the scope of the invention should not be limited by this, but modifications or improvements of the embodiments which are supported by the claims should extend.

도 1은 본 발명에 따른 이동형 로봇 모니터링 시스템의 일 실시예의 블록도.1 is a block diagram of one embodiment of a mobile robot monitoring system according to the present invention;

도 2는 도 1의 카메라 영상 입력부가 설치된 이동 로봇의 사용 상태를 도시한 도면.FIG. 2 is a view illustrating a use state of a mobile robot in which a camera image input unit of FIG. 1 is installed.

도 3은 도 1의 이동형 로봇 모니터링 시스템이 제시하는 2차원 영상 지면 좌표 모델을 도시한 도면.3 is a diagram illustrating a 2D image plane coordinate model presented by the mobile robot monitoring system of FIG. 1.

도 4는 도 3의 영상 지면 좌표 모델에서 얻은 결과인 가이드라인의 영상 데이터의 구상도. 4 is a schematic diagram of image data of a guideline which is a result obtained from the image surface coordinate model of FIG. 3.

도 5는 도 4의 로봇의 작업 가이드라인의 영상 데이터의 배럴 왜곡 구상도. 5 is a barrel distortion plot diagram of image data of a work guideline of the robot of FIG. 4.

도 6은 도 5의 배럴 왜곡된 로봇의 작업 가이드라인을 광각 카메라로부터 획득되는 영상에 오버레이하여 출력한 화면. 6 is a screen output by overlaying the operation guideline of the barrel distorted robot of FIG. 5 to the image obtained from the wide-angle camera.

도 7은 도 1의 건설 로봇의 작업 가이드라인 표현에 대한 구상도. 7 is a schematic diagram of a work guideline representation of the construction robot of FIG.

도 8은 본 발명에 따른 이동형 로봇 모니터링 방법의 일 실시예를 수행하기 위한 개략적인 흐름도.8 is a schematic flowchart for performing an embodiment of a mobile robot monitoring method according to the present invention;

Claims (8)

삭제delete 이동 로봇에 탑재되어 상기 이동 로봇이 이동하는 경로상의 영상을 입력하는 영상 입력부;An image input unit mounted on a mobile robot and inputting an image on a path along which the mobile robot moves; 상기 영상 상에 상기 영상 입력부로부터 미리 설정된 거리만큼 떨어진 위치를 표시하기 위한 가이드 라인을 생성하는 가이드 라인 생성부;A guide line generation unit generating a guide line for displaying a position separated from the image input unit by a predetermined distance on the image; 상기 입력된 영상에 상기 가이드 라인을 표시하여 출력하는 영상 출력부를 포함하는 이동 로봇 모니터링 시스템으로서,A mobile robot monitoring system comprising an image output unit to display and output the guide line on the input image. 상기 가이드 라인 생성부는 상기 영상 입력부의 상기 경로로부터의 설치 높이와 상기 경로에 대한 설치 각도를 이용하여 상기 가이드 라인을 생성하는 것을 특징으로 하는 이동 로봇 모니터링 시스템.The guide line generator generates the guide line by using the installation height from the path and the installation angle from the path of the image input unit. 제 2항에 있어서,3. The method of claim 2, 상기 가이드 라인 생성부는 상기 영상 입력부의 특성에 따라 상기 가이드 라인을 변형시켜 생성하는 것을 특징으로 하는 이동 로봇 모니터링 시스템.The guide line generation unit may be generated by modifying the guide line according to the characteristics of the image input unit. 제 3항에 있어서,The method of claim 3, wherein 상기 가이드 라인의 변형은 배럴 왜곡인 것을 특징으로 하는 이동 로봇 모니 터링 시스템.And the deformation of the guideline is barrel distortion. 삭제delete 이동 로봇에 탑재된 영상 입력 장치로부터 상기 이동 로봇이 이동하는 경로상의 영상을 입력받는 영상 입력 단계;An image input step of receiving an image on a path along which the mobile robot moves from an image input apparatus mounted on the mobile robot; 상기 영상 상에 상기 영상 입력부로부터 미리 설정된 거리만큼 떨어진 위치를 표시하기 위한 가이드 라인을 생성하는 가이드 라인 생성 단계;A guide line generating step of generating a guide line for displaying a position separated from the image input unit by a predetermined distance on the image; 상기 입력된 영상에 상기 가이드 라인을 표시하여 출력하는 영상 출력 단계를 포함하는 이동 로봇 모니터링 방법으로서,A mobile robot monitoring method comprising an image output step of displaying and outputting the guide line on the input image. 상기 가이드 라인 생성 단계는 영상 입력 장치의 상기 경로로부터의 설치 높이와 상기 경로에 대한 설치 각도를 이용하여 상기 가이드 라인을 생성하는 것을 특징으로 하는 이동 로봇 모니터링 방법.The generating of the guide line may include generating the guide line by using an installation height from the path of the image input apparatus and an installation angle with respect to the path. 제 6항에 있어서,The method of claim 6, 상기 가이드 라인 생성 단계는 상기 영상 입력 장치의 특성에 따라 상기 가이드 라인을 변형시켜 생성하는 것을 특징으로 하는 이동 로봇 모니터링 방법.The generating of the guide line may include generating the guide line by modifying the guide line according to the characteristics of the image input apparatus. 제 7항에 있어서,The method of claim 7, wherein 상기 가이드 라인의 변형은 배럴 왜곡인 것을 특징으로 하는 이동 로봇 모니 터링 방법.And the deformation of the guide line is barrel distortion.
KR1020080064904A 2008-07-04 2008-07-04 System and method for monitoring movable robot KR100993241B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080064904A KR100993241B1 (en) 2008-07-04 2008-07-04 System and method for monitoring movable robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080064904A KR100993241B1 (en) 2008-07-04 2008-07-04 System and method for monitoring movable robot

Publications (2)

Publication Number Publication Date
KR20100004626A KR20100004626A (en) 2010-01-13
KR100993241B1 true KR100993241B1 (en) 2010-11-10

Family

ID=41814185

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080064904A KR100993241B1 (en) 2008-07-04 2008-07-04 System and method for monitoring movable robot

Country Status (1)

Country Link
KR (1) KR100993241B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102462634B1 (en) * 2020-08-27 2022-11-03 네이버랩스 주식회사 Building that monitors robots driving in the building, control method and system for robot
KR20220027746A (en) * 2020-08-27 2022-03-08 네이버랩스 주식회사 A building providing safety guidelines related to robots driving in the building

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10138866A (en) 1996-11-13 1998-05-26 Nissan Motor Co Ltd Monitor for vehicle
JP2000207020A (en) * 1999-01-13 2000-07-28 Mitsubishi Heavy Ind Ltd Remote control system and remote control method
JP2002254360A (en) * 2001-02-27 2002-09-10 National Institute Of Advanced Industrial & Technology Moving manipulator remote operating device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10138866A (en) 1996-11-13 1998-05-26 Nissan Motor Co Ltd Monitor for vehicle
JP2000207020A (en) * 1999-01-13 2000-07-28 Mitsubishi Heavy Ind Ltd Remote control system and remote control method
JP2002254360A (en) * 2001-02-27 2002-09-10 National Institute Of Advanced Industrial & Technology Moving manipulator remote operating device

Also Published As

Publication number Publication date
KR20100004626A (en) 2010-01-13

Similar Documents

Publication Publication Date Title
JP5550970B2 (en) Image generating apparatus and operation support system
US20130002861A1 (en) Camera distance measurement device
WO2017135081A1 (en) Vehicle-mounted camera calibration system
KR20110019821A (en) System and method for monitoring safe operation of heavy machinery
JP4167954B2 (en) Robot and robot moving method
JP5135380B2 (en) Processing target image generation apparatus, processing target image generation method, and operation support system
JP5362639B2 (en) Image generating apparatus and operation support system
US20190387219A1 (en) Display system, display method, and remote operation system
JP5090496B2 (en) Image generating apparatus and operation support system
JP2009288152A (en) Calibration method of on-vehicle camera
JP5811327B2 (en) Camera calibration device
JP2007090481A (en) Robot simulation device
US10909748B2 (en) Image projection method and image projection device for three-dimensional object for projection
US11446822B2 (en) Simulation device that simulates operation of robot
US20110046783A1 (en) Method for training a robot or the like, and device for implementing said method
US20180063427A1 (en) Image processing system using predefined stitching configurations
JP6182044B2 (en) Camera calibration method for overhead image display device mounted on construction machine and overhead image display device using the result
CN112967344A (en) Method, apparatus, storage medium, and program product for camera external reference calibration
JP5915268B2 (en) Parameter calculation method, information processing apparatus, and program
KR100993241B1 (en) System and method for monitoring movable robot
WO2020130006A1 (en) Information projection system, control device, and information projection method
JP5638494B2 (en) Image generation method, image generation apparatus, and operation support system
CN102508495B (en) Method and system for controlling motion of tail end of execution arm
US10475154B2 (en) Machine surround view system and method for generating 3-dimensional composite surround view using same
JP2017129942A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130717

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160502

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee