KR100993241B1 - System and method for monitoring movable robot - Google Patents
System and method for monitoring movable robot Download PDFInfo
- Publication number
- KR100993241B1 KR100993241B1 KR1020080064904A KR20080064904A KR100993241B1 KR 100993241 B1 KR100993241 B1 KR 100993241B1 KR 1020080064904 A KR1020080064904 A KR 1020080064904A KR 20080064904 A KR20080064904 A KR 20080064904A KR 100993241 B1 KR100993241 B1 KR 100993241B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- robot
- guide line
- mobile robot
- input unit
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
이동 로봇 모니터링 시스템, 및 방법이 개시된다. 이동 로봇 모니터링 시스템은 경로 영상 입력부, 가이드 라인 생성부, 및 영상 출력부를 포함한다. 영상 입력부는 이동 로봇에 탑재되어 상기 이동체가 이동하는 경로상의 영상을 입력하고, 가이드 라인 생성부는 영상 상에 영상 입력부로부터 미리 설정된 거리만큼 떨어진 위치를 표시하기 위한 가이드 라인을 생성하며, 영상 출력부는 입력된 영상에 가이드 라인을 표시하여 출력한다. 이러한 구성은 별도의 고가 장치 없이도 효과적으로 이동형 로봇의 조종자에게 정확한 작업 반경이나 경계 거리를 인식시켜 작업 효율을 향상시키고 안전 사고를 방지할 수 있도록 해 준다. A mobile robot monitoring system, and method are disclosed. The mobile robot monitoring system includes a route image input unit, a guideline generator, and an image output unit. The image input unit is mounted on a mobile robot to input an image on a path along which the moving object moves, the guide line generator generates a guide line for displaying a position separated from the image input unit by a predetermined distance on the image, and the image output unit is input. The guideline is displayed on the printed image and output. This configuration effectively recognizes the exact working radius or the boundary distance to the operator of the mobile robot without the need for additional expensive devices, thereby improving work efficiency and preventing safety accidents.
로봇, 건설, 모니터링, 배럴(Barrel) 왜곡 Robot, Construction, Monitoring, Barrel Distortion
Description
본 발명은 로봇 모니터링 시스템, 및 방법에 관한 것으로서, 더욱 상세하게는 이동 가능한 로봇의 작업 반경이나 경계 거리 등을 모니터링하기 위한 시스템, 및 방법에 관한 것이다.TECHNICAL FIELD The present invention relates to a robot monitoring system and method, and more particularly, to a system and method for monitoring a working radius or a boundary distance of a movable robot.
일반적으로 건축물을 시공할 때, 대부분 인력에 의해 작업이 이루어지므로 건설 자재 운송 및 시공에 작업 인력의 소모가 많고 작업 시간이 오래 걸리는 문제점이 있어서 최근엔 건설 현장에 건설용 로봇을 활용하는 방안이 다각도로 연구되고 있다. In general, when a building is constructed, most of the work is performed by manpower. Therefore, there is a problem in that it takes a lot of work manpower and takes a long time for transportation and construction of construction materials. Is being studied.
현재까진 건설용 로봇이 건설현장에서 이동하거나 작업을 할 때에 기술적 한계 때문에 모든 작업이 자동으로 이루어지지 못하고, 조종자가 근거리 또는 원거리에서 직접 조종해서 로봇을 이동시키거나 작업시키는 방법을 사용한다. 이때, 로봇을 조종하는 조종자는 건설용 로봇에 설치한 영상 카메라로부터 얻어진 영상 정보를 바탕으로 조종을 하는 것이 일반적이다.Until now, when construction robots move or work in construction site, due to technical limitations, all work cannot be done automatically, and the operator uses the method of moving or working the robot by direct control from near or far. At this time, the manipulator to control the robot is generally based on the image information obtained from the image camera installed in the construction robot.
그러나 이 경우 로봇에 설치된 카메라로부터 얻은 평면 영상에 의해서는 로 봇 조종자가 로봇 작업 환경에서의 정확한 거리를 인식하기가 어려워 로봇 작업의 효율이 저하되거나 안전 사고의 우려가 있었다.However, in this case, the plane image obtained from the camera installed in the robot makes it difficult for the robot operator to recognize the exact distance from the robot's working environment, thereby reducing the efficiency of the robot's work or causing a safety accident.
또한, 별도의 거리 측정 장치를 이용하거나 영상 데이터로부터로부터 특정 지점까지의 거리를 연산하는 방법을 이용하여 로봇으로부터의 거리를 얻을 수는 있으나, 각각 별도의 거리 측정 장치나 고성능의 연산 장치가 필요할 뿐만 아니라 로봇 조종자에게 로봇의 작업 환경에 대한 개괄적인 정보를 효과적으로 제공하지는 못하는 문제점이 있다.In addition, the distance from the robot can be obtained by using a separate distance measuring device or a method of calculating the distance from the image data to a specific point, but each requires a separate distance measuring device or a high performance computing device. However, there is a problem that does not effectively provide the robot operator with general information about the working environment of the robot.
본 발명은 상술한 종래의 문제점을 해결하기 위해 안출된 것으로서, 별도의 고가 장치 없이도 효과적으로 이동형 로봇의 조종자에게 정확한 작업 반경이나 경계 거리를 인식시켜 작업 효율을 향상시키고 안전 사고를 방지할 수 있도록 해 주는 시스템, 및 방법을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above-mentioned conventional problems, to effectively recognize the correct working radius or boundary distance to the operator of the mobile robot without a separate expensive device to improve the work efficiency and prevent safety accidents It is an object to provide a system, and a method.
상기 목적을 달성하기 위해 본 발명에 따른 이동 로봇 모니터링 시스템은 경로 영상 입력부, 가이드 라인 생성부, 및 영사 출력부를 포함한다.In order to achieve the above object, the mobile robot monitoring system according to the present invention includes a route image input unit, a guideline generator, and a projection output unit.
영상 입력부는 이동 로봇에 탑재되어 상기 이동체가 이동하는 경로상의 영상을 입력한다. 가이드 라인 생성부는 영상 상에 영상 입력부로부터 미리 설정된 거리만큼 떨어진 위치를 표시하기 위한 가이드 라인을 생성하며, 영상 출력부는 입력된 영상에 가이드 라인을 표시하여 출력한다.The image input unit is mounted on a mobile robot and inputs an image on a path along which the mobile body moves. The guide line generator generates a guide line for displaying a position separated from the image input unit by a predetermined distance on the image, and the image output unit displays and outputs a guide line on the input image.
로봇 조종자에게 제공되는 영상에 로봇으로부터 미리 설정된 거리만큼 떨어진 작업 가이드 라인을 표시하여 출력하기 때문에, 별도의 고가 장치 없이도 효과적으로 이동형 로봇의 조종자에게 정확한 작업 반경이나 경계 거리를 인식시켜 작업 효율을 향상시키고 안전 사고를 방지할 수 있도록 해 준다. Since the work guideline away from the robot is displayed and printed on the image provided to the robot controller, the robot can effectively recognize the exact working radius or boundary distance of the mobile robot without the need for an additional expensive device, improving work efficiency and safety. Help prevent accidents.
가이드 라인 생성부는 영상 입력부의 경로로부터의 설치 높이와 경로에 대한 설치 각도를 이용하여 가이드 라인을 생성할 수 있다. 영상 입력부의 설치 높이와 설치 각도 정보만으로 영상 입력부로부터의 거리를 산출하기 때문에 별도의 고가 연산 장치가 없어도 효과적으로 작업 가이드 라인을 생성할 수 있게 된다.The guide line generator may generate a guide line by using an installation height from a path of the image input unit and an installation angle with respect to the path. Since the distance from the image input unit is calculated using only the installation height and the installation angle information of the image input unit, it is possible to effectively generate a work guide line without a separate expensive computing device.
가이드 라인 생성부는 영상 입력부의 특성에 따라 가이드 라인을 변형시켜 생성할 수 있으며, 가이드 라인의 변형은 배럴 왜곡일 수 있다. 이러한 구성은 영상 입력부의 특성에 따라 왜곡된 영상이 제공되는 경우에도 왜곡된 영상에 대응하는 정확한 가이드 라인을 생성할 수 있게 된다.The guide line generator may be generated by deforming the guide line according to the characteristics of the image input unit, and the deformation of the guide line may be barrel distortion. This configuration can generate accurate guide lines corresponding to the distorted image even when the distorted image is provided according to the characteristics of the image input unit.
아울러, 상기 시스템을 방법의 형태로 구현한 발명이 개시된다.In addition, an invention is disclosed in which the system is implemented in the form of a method.
본 발명은 로봇의 종류, 카메라의 종류, 설치 위치 등에 따른 복잡한 연산이 필요 없는 로봇의 조정 안내 방법을 제공하므로 신속한 안내 데이터를 제공할 수 있도록 하는 효과를 가지며, 비교적 저가의 부품을 사용하여 제조할 수 있도록 하는 효과를 갖는다. The present invention provides an adjustment guide method of the robot that does not require complex calculation according to the type of the robot, the type of the camera, the installation position, etc., and thus has the effect of providing quick guide data, and can be manufactured using relatively inexpensive components. It has the effect of making it possible.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명에 따른 이동형 로봇 모니터링 시스템의 일 실시예의 블록도이다.1 is a block diagram of one embodiment of a mobile robot monitoring system according to the present invention.
이동 로봇 모니터링 시스템은 경로 영상 입력부, 가이드 라인 생성부, 및 영상 출력부를 포함한다. The mobile robot monitoring system includes a route image input unit, a guideline generator, and an image output unit.
도 1에서, 경로 영상 입력부는 카메라 영상 입력부(300)로, 영상 출력부는 디스플레이 출력부(500)로 표시되어 있으며, 로봇 모니터링 시스템은 로봇 정보 입력부(100), 및 카메라 정보 입력부(200)를 더 포함하고 있다.In FIG. 1, a path image input unit is displayed as a camera
카메라 영상 입력부(400)는 이동 로봇에 탑재되어 이동체가 이동하는 경로상의 영상을 입력한다.The camera
도 2는 도 1의 카메라 영상 입력부가 설치된 이동 로봇의 사용 상태를 도시한 도면이다.FIG. 2 is a diagram illustrating a use state of a mobile robot provided with a camera image input unit of FIG. 1.
도 2에서와 같이 로봇에 설치된 카메라는 건설현장 바닥을 비스듬히 촬영하게 되는데 핀홀 카메라의 특성상 촬영 대상이 먼 거리에 있을수록 이미지가 작아지는 현상이 있다. 이를 위하여 다양한 좌표 모델들이 연구되고 있으나 다소 복잡한 연산 과정을 포함하고 있기 때문에 고사양의 마이크로프로세서를 사용하도록 하는 부담을 갖게 된다. 본 발명에서는 가이드라인과 로봇과의 거리 정보만을 표현하기 위하여 간단히 2차원에서 표현되는 새로운 영상 지면 좌표 모델을 사용한다.As shown in FIG. 2, the camera installed in the robot is photographed at an angle to the construction site at an oblique angle. As a result of the pinhole camera, there is a phenomenon in which the image becomes smaller as the object to be photographed is farther away. Various coordinate models have been studied for this purpose, but because they include a rather complicated computational process, there is a burden of using a high-end microprocessor. In the present invention, in order to express only the distance information between the guideline and the robot, a new image plane coordinate model expressed simply in two dimensions is used.
도 2는 특히 건설 로봇의 조정을 위한 안내 영상 생성을 위한 카메라 설치 구상도로서, 여기서 로봇에 설치된 카메라는 건설 현장 지면을 피치각 Φ만큼 기울여 비스듬히 촬영한다. 또한, 핀홀 카메라의 특성상 촬영 대상이 먼 거리에 있을수록 이미지가 작아지는 현상이 있기 때문에, 이를 표현하기 위하여 도 3에서 제시하는 새로운 영상 지면 좌표 모델을 사용하는 것을 특징으로 한다.2 is a schematic diagram of a camera installation for generating a guide image for adjusting the construction robot, in which the camera installed on the robot tilts the ground of the construction site by a pitch angle Φ. In addition, because the pinhole camera has a phenomenon in which the image becomes smaller as the object to be photographed is farther away, the new image surface coordinate model shown in FIG. 3 is used to express this.
가이드 라인 생성부(300)는 영상 상에 카메라 영상 입력부(400)로부터 미리 설정된 거리만큼 떨어진 위치를 표시하기 위한 가이드 라인을 생성한다. 특히, 가이드 라인 생성부(300)는 카메라 영상 입력부(400)의 경로로부터의 설치 높이와 경로에 대한 설치 각도를 이용하여 가이드 라인을 생성한다. The
이와 같이, 카메라 영상 입력부(400)의 설치 높이와 설치 각도 정보만으로 영상 입력부로부터의 거리를 산출하기 때문에 별도의 고가 연산 장치가 없어도 효과적으로 작업 가이드 라인을 생성할 수 있게 된다.As such, since the distance from the image input unit is calculated using only the installation height and the installation angle information of the camera
도 3은 도 1의 이동형 로봇 모니터링 시스템이 제시하는 2차원 영상 지면 좌표 모델을 도시한 도면이다. 여기서 X는 지면을 표현하는 좌표이고, Y는 지면의 수직 좌표이다. D는 로봇의 작업 반경 최소치로 로봇 정보 입력 과정에서 입력되는 값이다. F는 카메라의 초점거리, H는 카메라의 장착 높이, θ는 카메라의 수직 광각, Φ는 카메라의 피치각으로 카메라 정보 입력 과정에서 입력되는 값이다. 미지의 사이각 Ψ는 다음의 방법에 의하여 구해지는 것을 특징으로 한다. FIG. 3 is a diagram illustrating a 2D image plane coordinate model presented by the mobile robot monitoring system of FIG. 1. Where X is the coordinate representing the ground and Y is the vertical coordinate of the ground. D is the minimum working radius of the robot and is a value input during the robot information input process. F is the focal length of the camera, H is the mounting height of the camera, θ is the vertical wide angle of the camera, Φ is the value input during the camera information input process. The unknown angle angle Ψ is obtained by the following method.
먼저, 영상에서 최상단에 촬영되는 지면의 지점을 Lmax라 하고 영상의 최하단에서 촬영되는 지면의 지점을 Lmin이라 하면, 각각의 값은 다음 식에 의하여 구해진다. First, if a point of the ground photographed at the top of the image is Lmax and a point of the ground photographed at the bottom of the image is Lmin, each value is obtained by the following equation.
(1) Lmin = H tan(φ - 0.5θ) (1) Lmin = H tan (φ-0.5θ)
(2) Lmax = H tan(φ + 0.5θ)(2) Lmax = H tan (φ + 0.5θ)
D는 임의 변경 가능한 로봇의 작업 반경 최소치로 상기 로봇 정보 입력 과정에서 입력되는 값을 기반으로 다음을 구할 수 있다.D is the minimum work radius of the robot, which can be arbitrarily changed, and can be obtained based on a value input during the robot information input process.
(3) ψ = arctan(D / H) - (φ - 0.5θ)(3) ψ = arctan (D / H)-(φ-0.5θ)
도 3에서 제시된 영상 지면 좌표를 기반하여 촬영된 영상에서 로봇으로부터 거리 D만큼 떨어진 곳 D'은 다음과 같이 구해진다. 여기서 D는 실제 지면에서의 거리이고, D'은 영상에서의 거리이다.In the image photographed on the basis of the image plane coordinates shown in FIG. Where D is the actual distance from the ground and D 'is the distance in the image.
(4) D' = F tan(ψ)(4) D '= F tan (ψ)
또한, 상기 식(3)에서 D대신 2D와 3D를 대입하여 구한 각각의 ψ를 (4)식에 대입하여 2D'과 3D'을 구할 수 있다. In addition, 2D 'and 3D' can be obtained by substituting each ψ obtained by substituting 2D and 3D in Equation (3) into Equation (4).
디스플레이 출력부(500)는 입력된 영상에 가이드 라인을 표시하여 출력한다.The
도 4는 도 3의 영상 지면 좌표 모델에서 얻은 결과인 가이드라인의 영상 데이터의 구상도이다. FIG. 4 is a schematic diagram of image data of a guideline, which is a result obtained from the image surface coordinate model of FIG. 3.
가이드 라인 생성부(300)는 카메라 영상 입력부(400)의 특성에 따라 가이드 라인을 변형시켜 생성할 수 있으며, 가이드 라인의 변형은 배럴 왜곡일 수 있다. 이러한 구성은 영상 입력부의 특성에 따라 왜곡된 영상이 제공되는 경우에도 왜곡된 영상에 대응하는 정확한 가이드 라인을 생성할 수 있게 된다.The
로봇의 정면에 설치된 카메라는 넓은 시야를 확보하기 위하여 어안 렌즈와 같은 광각 렌즈를 사용할 수 있으며, 카메라 영상 입력부(400)가 광각 렌즈를 사용하는 경우, 이를 광각 렌즈의 사용에 따른 배럴 왜곡된 영상에 매치시키기 위하여 배럴 왜곡시킬 필요가 있다. The camera installed in front of the robot may use a wide-angle lens such as a fisheye lens to secure a wide field of view, and when the camera
도 5는 도 4의 로봇의 작업 가이드라인의 영상 데이터의 배럴 왜곡 구상도이다. 5 is a barrel distortion plot diagram of image data of a work guideline of the robot of FIG. 4.
이때 배럴 왜곡 방법으로는 일반적인 배럴 왜곡 방법을 사용하여 왜곡하며, 이에 따라 입력되는 영상은 배럴(Barrel) 왜곡된다. 이러한 배럴 왜곡된 영상에 로봇의 작업 가이드 라인을 나타내려면 이 가이드 라인 역시 배럴 왜곡된 상태로 표시되어야 한다. 즉, 로봇의 작업 가이드라인을 왜곡된 영상 입력에 일치하도록 왜곡시켜야 하며 왜곡시킨 로봇의 작업 가이드라인을 배럴 왜곡된 영상 입력과 오버레이 함으로써 작업자의 이해가 쉽도록 디스플레이하게 된다. In this case, a barrel distortion method is used to distort using a general barrel distortion method, and thus an input image is barrel distorted. In order to represent the robot's work guideline in this barrel distorted image, the guideline must also be displayed in a barrel distorted state. That is, the work guideline of the robot should be distorted to match the distorted image input, and the work guideline of the distorted robot is overlaid with the barrel distorted image input for easy display by the operator.
도 6은 도 5의 배럴 왜곡된 로봇의 작업 가이드라인을 광각 카메라로부터 획득되는 영상에 오버레이하여 출력한 화면이다. 6 is a screen output by overlaying an operation guideline of the barrel distorted robot of FIG. 5 onto an image obtained from a wide-angle camera.
본 발명은 도 6에서와 같이 건설 현장에 투입되는 건설 로봇의 작업을 보조하는 가이드라인을 오버레이하여 출력하는 모니터링 장치에 관한 것으로, 로봇의 외곽 경계로부터 일정 반경을 시각화하여 작업의 편의성 및 안전성을 도모하기 위한 장치에 대한 것이다. The present invention relates to a monitoring device that overlays and outputs a guideline for assisting the work of a construction robot that is put into a construction site as shown in FIG. 6, and visualizes a certain radius from an outer boundary of the robot to promote convenience and safety of work. It is about an apparatus for doing so.
이러한 건설로봇의 작업 가이드라인 모니터링 장치는 로봇의 정면에 설치된 카메라를 이용하여 단순히 화면을 보여주는 수준을 넘어, 카메라 영상에 작업 가이드라인 정보를 오버레이하여 출력함으로써 로봇의 작업 및 경계 반경을 조종자에게 안내해준다.The construction guideline monitoring device of the construction robot uses the camera installed in front of the robot to go beyond the level of displaying the screen, and outputs the operation guideline information on the camera image to guide the operator of the robot's work and boundary radius. .
이와 같이, 로봇 조종자에게 제공되는 영상에 로봇의 이동 경로 상에 위치하는 로봇으로부터 미리 설정된 거리만큼 떨어진 작업 가이드 라인을 표시하여 출력하기 때문에, 별도의 고가 장치 없이도 효과적으로 이동형 로봇의 조종자에게 정확한 작업 반경이나 경계 거리를 인식시켜 작업 효율을 향상시키고 안전 사고를 방지 할 수 있도록 해 준다. In this way, since the operation guideline away from the robot positioned on the robot's movement path is displayed and output on the image provided to the robot controller, the operator of the mobile robot can effectively adjust the correct working radius to the operator of the mobile robot without an additional expensive device. Recognize the boundary distance to improve work efficiency and prevent safety accidents.
도 7은 도 1의 건설 로봇의 작업 가이드라인 표현에 대한 구상도이다. FIG. 7 is a schematic diagram of a work guideline representation of the construction robot of FIG. 1.
여기서 D는 로봇의 작업 반경 최소치로 임의 변경 가능한 값이며 위험도에 따라 두 배인 2D, 세 배인 3D 거리를 가이드라인으로 표현하는데, 각각 적색, 황색, 녹색을 이용하여 표현한다. 또한, 사용되는 카메라는 넓은 시야각 확보를 위하여 어안렌즈와 같은 배럴 왜곡이 생기는 광각 카메라를 사용한다.Here, D is the minimum value of the working radius of the robot, which can be arbitrarily changed, and the 2D and 3D distances, which are doubled according to the risk, are expressed as guidelines, using red, yellow, and green, respectively. In addition, the camera used is a wide-angle camera that generates a barrel distortion, such as fisheye lens to secure a wide viewing angle.
도 8은 본 발명에 따른 이동형 로봇 모니터링 방법의 일 실시예를 수행하기 위한 개략적인 흐름도이다.8 is a schematic flowchart for performing an embodiment of a mobile robot monitoring method according to the present invention.
도 8에서와 같이, 본 발명은 해당 로봇의 정보를 입력하는 로봇 정보 입력 과정(S100), 로봇에 설치된 카메라의 정보를 입력하는 카메라 정보 입력 과정(S200), 입력된 정보들을 통해 해당 로봇의 작업 반경을 표시하기 위한 영상 데이터를 생성해 내는 가이드라인 생성 과정(S300), 상기 과정에서 생성된 결과인 가이드라인을 카메라 영상에 오버레이하여 출력하는 디스플레이 과정(S400), 상기 과정에서 출력된 가이드라인 데이터를 저장하는 결과 데이터 저장 과정(S500)으로 이루어져 있다.As shown in Figure 8, the present invention is a robot information input process for inputting the information of the robot (S100), a camera information input process (S200) for inputting the information of the camera installed in the robot, the operation of the robot through the input information Guideline generation process for generating image data for displaying a radius (S300), a display process (S400) for overlaying the output of the guideline generated in the process on the camera image (S400), the guideline data output in the process It consists of a result data storage process for storing (S500).
로봇 정보 입력 과정(S100)은 로봇 정보 입력부(100)에 로봇의 높이, 길이, 폭, 바퀴크기, 축간거리 등의 외형 정보를 입력하고(101), 작업 반경(102), 각 바퀴의 속도(103)와 로봇의 진행 방향(104)을 입력한다.Robot information input process (S100) inputs the appearance information, such as height, length, width, wheel size, wheelbase distance of the robot to the robot
카메라 정보 입력 과정(S200)은 카메라 정보 입력부에 로봇에 설치된 카메라의 초점거리, 광각, 설치 높이, 피치각, 카메라의 해상도 등의 카메라 정보를 입력 한다.The camera information input process (S200) inputs camera information such as a focal length, a wide angle, an installation height, a pitch angle, and a camera resolution of a camera installed in a robot to the camera information input unit.
로봇의 작업 가이드라인 생성 과정(S300)은 상기 과정에서 입력된 로봇 정보와 카메라 정보를 기반하고 도 3으로 제시한 새로운 영상 지면 좌표를 사용하여 가이드 라인을 생성하며, 광각 렌즈의 사용에 따른 배럴 왜곡된 영상에 매치시키기 위하여 생성된 로봇의 작업 가이드라인을 배럴 왜곡시키기도 한다.The operation guideline generation process of the robot (S300) generates a guideline using the new image surface coordinates shown in FIG. 3 based on the robot information and the camera information input in the above process, and the barrel distortion according to the use of the wide-angle lens. Barrel distortion may also be made to the robot's working guidelines to match the image.
가이드라인을 카메라 영상에 오버레이하여 출력하는 디스플레이 과정(S400)은 상기 과정에서 생성된 배럴 왜곡된 로봇의 작업 가이드라인을 광각 카메라로부터 획득된 영상에 오버레이 하여 영상 출력한다.The display process (S400) of overlaying the guideline on the camera image and outputting outputs the image by overlaying the work guideline of the barrel-distorted robot generated in the above process onto the image obtained from the wide-angle camera.
결과 데이터 저장 과정은 상기 과정에서 영상 형태로 변환된 로봇의 작업 가이드라인 데이터를 저장한다.The result data storing process stores the work guideline data of the robot converted into the image form in the above process.
본 발명은 건설용 로봇의 카메라를 통하여 로봇의 조정자에게 영상 정보를 제공하는 기술로써 로봇의 작업 반경이나 경계 거리 정보를 표현하는 작업 가이드 라인을 생성하는 방법과 획득한 영상에 작업 가이드라인을 오버레이하여 출력하는 모니터링 장치에 관한 것이다.The present invention is a technology for providing image information to the coordinator of the robot through the camera of the construction robot as a method for generating a work guideline representing the work radius or boundary distance information of the robot and overlaying the work guideline on the acquired image It relates to a monitoring device that outputs.
본 발명은 로봇에 설치된 광각 카메라로부터 획득되는 배럴 왜곡된 영상과 로봇의 작업 가이드 라인을 실시간으로 매치시켜 오버레이된 영상을 조종자에게 모니터링 할 수 있도록 한다.The present invention allows the operator to monitor the overlaid image by matching the barrel distorted image obtained from the wide-angle camera installed in the robot with the robot's work guidelines in real time.
본 발명은 로봇의 정보를 입력하는 로봇 정보 입력 과정: 로봇에 설치된 카메라의 정보를 입력하는 카메라 정보 입력 과정: 상기 입력된 정보들을 통해 해당 로봇의 작업 반경을 표시하기 위한 영상 데이터를 생성해 내는 가이드라인 생성 과 정: 상기 과정에서 생성된 결과인 가이드라인을 카메라 영상에 오버레이하여 출력하는 디스플레이 과정: 상기 과정에서 출력된 가이드라인 데이터를 저장하는 결과 데이터 저장 과정으로 이루어져 있다.Robot information input process for inputting the information of the robot: Camera information input process for inputting the information of the camera installed in the robot: Guide for generating image data for displaying the working radius of the robot through the input information Line generation process: a display process of overlaying a guideline, which is a result generated in the above process, on a camera image and outputting the result: a result data storing process of storing the guideline data output in the above process.
본 발명은 로봇의 정보와 로봇에 설치된 카메라의 설치 정보 등을 통해 로봇의 작업 가이드라인을 생성하는 방법과 생성된 결과물을 영상 형식의 데이터로 변환하여 이를 영상처리 보드를 이용하여 모니터링 하는 장치를 제공한다.The present invention provides a method for generating a work guideline of a robot through information of a robot and installation information of a camera installed in the robot, and converts the generated result into data in an image format and monitors the data using an image processing board. do.
또한, 본 발명은 로봇에 설치된 광각 카메라로부터 획득되는 배럴 왜곡된 영상과 로봇의 작업 가이드라인을 매치시키는 과정의 복잡도를 낮추어 실시간으로 오버레이된 영상을 조종자에게 모니터링 할 수 있도록 하는 장치를 제공한다.In addition, the present invention provides a device for monitoring the overlaid image in real time by reducing the complexity of the process of matching the barrel distorted image obtained from the wide-angle camera installed in the robot with the robot's work guidelines.
본 발명은 건설 로봇의 종류, 카메라의 종류, 설치 위치 등에 따른 복잡한 연산이 필요 없는 걸설 로봇의 조정 안내 방법을 제공하므로 신속한 안내 데이터를 제공할 수 있도록 하는 효과를 갖는다.The present invention has an effect of providing a quick guide data because it provides a guide method for adjusting the masterpiece robot that does not require complex calculation according to the type of construction robot, the type of camera, the installation position.
본 발명은 복잡한 연산 없이 비교적 단순한 방법에 의해 로봇의 작업 가이드라인 정보가 제공되므로 비교적 저가의 부품을 사용하여 건설 로봇의 조정 장치를 제조할 수 있도록 하는 효과를 갖는다.The present invention has the effect of providing the operation guide information of the robot by a relatively simple method without complicated calculations, so that the adjustment device of the construction robot can be manufactured using relatively low-cost parts.
본 발명은 로봇의 종류나 카메라의 종류에 상관없이 로봇의 작업 가이드라인을 생성하는 방법을 제공함으로써 건설용 로봇뿐만 아니라 다양한 산업용 로봇의 조정 안내 장치로도 사용될 수 있는 효과를 갖는다.The present invention has an effect that can be used as an adjustment guide device for various industrial robots as well as construction robots by providing a method for generating a work guideline of the robot regardless of the type of the robot or the type of camera.
이상에서 본 발명이 비록 일부 바람직한 실시예에 의해 설명되었지만, 본 발명의 범위는 이에 의해 제한되어서는 아니 되고, 특허청구범위에 의해 뒷받침되는 상기 실시예의 변형이나 개량에도 미쳐야 할 것이다.Although the invention has been described above by way of some preferred embodiments, the scope of the invention should not be limited by this, but modifications or improvements of the embodiments which are supported by the claims should extend.
도 1은 본 발명에 따른 이동형 로봇 모니터링 시스템의 일 실시예의 블록도.1 is a block diagram of one embodiment of a mobile robot monitoring system according to the present invention;
도 2는 도 1의 카메라 영상 입력부가 설치된 이동 로봇의 사용 상태를 도시한 도면.FIG. 2 is a view illustrating a use state of a mobile robot in which a camera image input unit of FIG. 1 is installed.
도 3은 도 1의 이동형 로봇 모니터링 시스템이 제시하는 2차원 영상 지면 좌표 모델을 도시한 도면.3 is a diagram illustrating a 2D image plane coordinate model presented by the mobile robot monitoring system of FIG. 1.
도 4는 도 3의 영상 지면 좌표 모델에서 얻은 결과인 가이드라인의 영상 데이터의 구상도. 4 is a schematic diagram of image data of a guideline which is a result obtained from the image surface coordinate model of FIG. 3.
도 5는 도 4의 로봇의 작업 가이드라인의 영상 데이터의 배럴 왜곡 구상도. 5 is a barrel distortion plot diagram of image data of a work guideline of the robot of FIG. 4.
도 6은 도 5의 배럴 왜곡된 로봇의 작업 가이드라인을 광각 카메라로부터 획득되는 영상에 오버레이하여 출력한 화면. 6 is a screen output by overlaying the operation guideline of the barrel distorted robot of FIG. 5 to the image obtained from the wide-angle camera.
도 7은 도 1의 건설 로봇의 작업 가이드라인 표현에 대한 구상도. 7 is a schematic diagram of a work guideline representation of the construction robot of FIG.
도 8은 본 발명에 따른 이동형 로봇 모니터링 방법의 일 실시예를 수행하기 위한 개략적인 흐름도.8 is a schematic flowchart for performing an embodiment of a mobile robot monitoring method according to the present invention;
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080064904A KR100993241B1 (en) | 2008-07-04 | 2008-07-04 | System and method for monitoring movable robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080064904A KR100993241B1 (en) | 2008-07-04 | 2008-07-04 | System and method for monitoring movable robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100004626A KR20100004626A (en) | 2010-01-13 |
KR100993241B1 true KR100993241B1 (en) | 2010-11-10 |
Family
ID=41814185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080064904A KR100993241B1 (en) | 2008-07-04 | 2008-07-04 | System and method for monitoring movable robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100993241B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102462634B1 (en) * | 2020-08-27 | 2022-11-03 | 네이버랩스 주식회사 | Building that monitors robots driving in the building, control method and system for robot |
KR20220027746A (en) * | 2020-08-27 | 2022-03-08 | 네이버랩스 주식회사 | A building providing safety guidelines related to robots driving in the building |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10138866A (en) | 1996-11-13 | 1998-05-26 | Nissan Motor Co Ltd | Monitor for vehicle |
JP2000207020A (en) * | 1999-01-13 | 2000-07-28 | Mitsubishi Heavy Ind Ltd | Remote control system and remote control method |
JP2002254360A (en) * | 2001-02-27 | 2002-09-10 | National Institute Of Advanced Industrial & Technology | Moving manipulator remote operating device |
-
2008
- 2008-07-04 KR KR1020080064904A patent/KR100993241B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10138866A (en) | 1996-11-13 | 1998-05-26 | Nissan Motor Co Ltd | Monitor for vehicle |
JP2000207020A (en) * | 1999-01-13 | 2000-07-28 | Mitsubishi Heavy Ind Ltd | Remote control system and remote control method |
JP2002254360A (en) * | 2001-02-27 | 2002-09-10 | National Institute Of Advanced Industrial & Technology | Moving manipulator remote operating device |
Also Published As
Publication number | Publication date |
---|---|
KR20100004626A (en) | 2010-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101123738B1 (en) | System and method for monitoring safe operation of heavy machinery | |
US20130002861A1 (en) | Camera distance measurement device | |
WO2017135081A1 (en) | Vehicle-mounted camera calibration system | |
CN102792685B (en) | Processing target image generation device, processing target image generation method, and operation support system | |
JP7153594B2 (en) | Calibration work support system | |
JP5362639B2 (en) | Image generating apparatus and operation support system | |
US20190387219A1 (en) | Display system, display method, and remote operation system | |
JP5090496B2 (en) | Image generating apparatus and operation support system | |
JP2009288152A (en) | Calibration method of on-vehicle camera | |
JP2009053147A (en) | Three-dimensional measuring method and three-dimensional measuring device | |
US10909748B2 (en) | Image projection method and image projection device for three-dimensional object for projection | |
US20110046783A1 (en) | Method for training a robot or the like, and device for implementing said method | |
US20190255706A1 (en) | Simulation device that simulates operation of robot | |
JP2013002820A (en) | Camera calibration apparatus | |
JP6182044B2 (en) | Camera calibration method for overhead image display device mounted on construction machine and overhead image display device using the result | |
US10475154B2 (en) | Machine surround view system and method for generating 3-dimensional composite surround view using same | |
KR100993241B1 (en) | System and method for monitoring movable robot | |
WO2020130006A1 (en) | Information projection system, control device, and information projection method | |
KR100871044B1 (en) | Automatic osd line generating method for parking assist system | |
JP5638494B2 (en) | Image generation method, image generation apparatus, and operation support system | |
CN102508495B (en) | Method and system for controlling motion of tail end of execution arm | |
JP2017129942A (en) | Information processing apparatus, information processing method, and program | |
KR101438514B1 (en) | Robot localization detecting system using a multi-view image and method thereof | |
JP5665458B2 (en) | Driving support device and display method of driving support display | |
JP2022550105A (en) | Method and Apparatus for Providing Vehicle Visualization and Vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130717 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160502 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |