KR20180116832A - Apparatus for detecting a pipe position and pose, and its method for detecting a pipe position and pose - Google Patents

Apparatus for detecting a pipe position and pose, and its method for detecting a pipe position and pose Download PDF

Info

Publication number
KR20180116832A
KR20180116832A KR1020170049596A KR20170049596A KR20180116832A KR 20180116832 A KR20180116832 A KR 20180116832A KR 1020170049596 A KR1020170049596 A KR 1020170049596A KR 20170049596 A KR20170049596 A KR 20170049596A KR 20180116832 A KR20180116832 A KR 20180116832A
Authority
KR
South Korea
Prior art keywords
pipe
image
laser
convex portion
line
Prior art date
Application number
KR1020170049596A
Other languages
Korean (ko)
Other versions
KR101970789B1 (en
Inventor
김재희
이재철
최유락
이중재
Original Assignee
한국원자력연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국원자력연구원 filed Critical 한국원자력연구원
Priority to KR1020170049596A priority Critical patent/KR101970789B1/en
Publication of KR20180116832A publication Critical patent/KR20180116832A/en
Application granted granted Critical
Publication of KR101970789B1 publication Critical patent/KR101970789B1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/005Photographing internal surfaces, e.g. of pipe

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

According to the present invention, pipe position and posture detection device and method are disclosed. The device and method obtain an image of a pipe through a laser and a camera mounted on a hand climbing a pipe, process the image, and calculate position data required for an operation by detecting the position of an adjacent pipe, thereby providing the position data to an operation requiring the position data. The disclosed pipe position and posture detection device is a device for detecting a position and a posture of a pipe to be moved in a work place in which one or more pipes are connected to each other, and comprises: a main board; a camera unit which is mounted on the upper side of the main board and includes a camera for photographing the pipe; a laser scanning unit which is mounted on the lower side of the camera unit on the main board and emits laser beams to the pipe to scan the pipe; a rotation cam which adjusts a transmission angle of the laser beams of the laser scanning unit by a rotation operation; a motor unit which provides rotation force generated according to the rotation of the motor to the rotation cam; and a control unit which transmits laser beams to the pipe through the laser scanning unit, obtains a pipe image by photographing a pipe in which laser beams appear in a line form at regular time intervals through the camera unit, and detects and controls the outline, position, and posture of the pipe by processing the obtained pipe image.

Description

파이프 위치 및 자세 탐지 장치와 이를 이용한 파이프 위치 및 자세 탐지 방법{Apparatus for detecting a pipe position and pose, and its method for detecting a pipe position and pose}TECHNICAL FIELD The present invention relates to a pipe position and posture detection apparatus, and a pipe position and posture detection method using the same.

본 발명은 파이프 위치 및 자세 탐지 장치와 이를 이용한 파이프 위치 및 자세 탐지 방법에 관한 것으로서, 더욱 자세하게는 파이프를 등반하는 로봇이나 파이프를 절단 및 가공하는 환경에서, 로봇 핸드에 장착된 카메라와 레이저를 통하여 파이프의 영상을 얻은 다음, 이 영상을 처리하여 얻은 파이프 외곽선의 기울기와 절편값을 이용하여 임의의 인근 파이프의 위치를 탐지하여 작업에 필요한 위치 데이터를 산출하여 위치 데이터가 필요한 작업에 제공함으로써, 파이프 자동 용접에 반드시 필요한 가이드 레인 설치 작업을 생략하여 생산성을 높이고, 로봇 핸드가 파이프 형상에 맞추어 작업을 위한 주변 파이프를 잘 잡을 수 있도록 하는, 파이프 위치 및 자세 탐지 장치와 이를 이용한 파이프 위치 및 자세 탐지 방법에 관한 것이다.The present invention relates to a pipe position and attitude detection apparatus and a pipe position and attitude detection method using the same. More particularly, the present invention relates to a robot and a pipe for climbing a pipe, By obtaining the image of the pipe, the position of an arbitrary nearby pipe is detected by using the slope and slice value of the pipe outline obtained by processing the image, and the position data necessary for the operation is calculated to provide the position data to the necessary work, Pipe position and attitude detection device, which improves productivity by omitting the guide lane installation work necessary for automatic welding and enables the robot hand to catch the peripheral pipe for the work according to the pipe shape, and the pipe position and attitude detection method using it .

일반적으로 파이프 등반 로봇은 원자로 격납 용기에 설치되어 있는 살수관과 같이, 매우 높은 지역에 설치되어 있어서 인간이 접근하기 매우 어려운 지점에 있는 주요 기기의 안전성 검사를 가능하게 하는 로봇을 말한다.In general, a pipe climbing robot is a robot that is installed in a very high area, such as a spray pipe installed in a reactor containment vessel, and enables safety inspection of main equipment at a point which is very difficult for human access.

대형 스타디움이나 발전소 등에 설치되어 있는 파이프로 이루어진 대형 구조물이나 배관 계통을 검사함에 있어서 매우 높은 지역까지 검사 요원이 접근해야 하는 경우에는 파이프 등반 로봇을 보내서 사람의 역할을 대신할 수 있다.When inspecting a large structure or pipe system installed in a large stadium or a power plant and inspecting a very high area, it is possible to replace a person's role by sending a pipe climbing robot.

이러한 파이프 등반 로봇이 스타디움이나 원자력 발전소의 고소 지역에 설치되어 운용 중인 배관들을 검사하러 파이프를 타고 올라가기 위해서는 대상 파이프의 위치와 자세 데이터가 필요하다.Such a pipe climbing robot is required to ascertain the position and attitude data of the target pipe in order to ascend the pipe to examine the piping installed in the stadium of the stadium or the nuclear power plant.

그런데, 파이프의 위치 데이터는 일반적으로 구하기 어렵고 정확성이 떨어지기 때문에 사람이 직접 작업에 필요한 환경을 구성하는 경우가 많다. 예를 들어 파이프를 용접하는 경우, 용접을 위해 파이프를 고정하고 가이드 레인을 설치하여 로봇 용접을 하는 경우가 많은데, 이런 경우 용접을 할 때마다 가이드 레일을 설치해야 하는 번거로움이 있다.However, since the position data of a pipe is generally difficult to obtain and its accuracy is low, it is often the case that a person constructs an environment necessary for a direct operation. For example, in the case of welding a pipe, there is a case where a pipe is fixed for welding and a guide lane is installed to perform robot welding. In such a case, it is troublesome to install a guide rail every welding.

한국 등록특허공보 제10-1502394호(등록일: 201503월09일)Korean Registered Patent No. 10-1502394 (registered on March 09, 20150)

전술한 문제점을 해결하기 위한 본 발명의 목적은, 파이프를 등반하는 로봇이나 파이프를 절단 및 가공하는 환경에서, 로봇 핸드에 장착된 카메라와 레이저를 통하여 파이프의 영상을 얻은 다음, 이 영상을 처리하여 얻은 파이프 외곽선의 기울기와 절편값을 이용하여 임의의 인근 파이프의 위치를 탐지하여 작업에 필요한 위치 데이터를 산출하여 위치 데이터가 필요한 작업에 제공함으로써, 파이프 자동 용접에 반드시 필요한 가이드 레인 설치 작업을 생략하여 생산성을 높이고, 로봇 핸드가 파이프 형상에 맞추어 작업을 위한 주변 파이프를 잘 잡을 수 있도록 하는, 파이프 위치 및 자세 탐지 장치와 이를 이용한 파이프 위치 및 자세 탐지 방법을 제공함에 있다.An object of the present invention to solve the above-mentioned problems is to obtain an image of a pipe through a camera mounted on a robot hand and a laser in an environment where a robot or pipe climbing a pipe is cut and processed, By using the slope and slice values of the obtained pipe outline, it is possible to detect the position of an arbitrary neighboring pipe, calculate the position data necessary for the work, and provide the position data to the necessary work, thereby omitting the guide lane installation work The present invention provides a pipe position and posture detection device and a pipe position and posture detection method using the pipe position and posture detection device.

전술한 목적을 달성하기 위한 본 발명에 따른 파이프 위치 및 자세 탐지 장치는, 하나 이상의 파이프가 서로 연결된 작업장에서 이동할 파이프의 위치 및 자세(Pose)를 탐지하는 장치로서, 메인보드(Main Board); 상기 메인보드의 상측에 장착되고, 상기 파이프를 촬영하기 위한 카메라를 구비하는 카메라부; 상기 메인보드 상에서 상기 카메라부의 하측에 장착되고, 상기 파이프에 레이저 빔을 송출하여 상기 파이프를 스캔하기 위한 레이저 스캔부; 상기 레이저 스캔부의 레이저 빔의 송출 각도를 회전 동작에 의해 조절하는 회전 캠; 상기 회전 캠에 모터의 회전에 따라 발생된 회전력을 제공하는 모터부; 및 상기 레이저 스캔부를 통해 상기 파이프에 레이저 빔을 송출하고, 레이저 빔이 라인 형태로 나타나는 파이프를 상기 카메라부를 통해 일정 시간마다 촬영하여 파이프 영상을 획득하며, 획득된 파이프 영상을 처리하여 파이프의 외곽선과 위치 및 자세(Pose)를 검출 제어하는 제어부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for detecting a position and a pose of a pipe to be moved in a workplace where one or more pipes are connected to each other, the apparatus comprising: a main board; A camera unit mounted on the main board and having a camera for photographing the pipe; A laser scanning unit mounted on the main board on a lower side of the camera unit, for scanning the pipe by sending a laser beam to the pipe; A rotation cam for adjusting a delivery angle of the laser beam of the laser scanning unit by a rotation operation; A motor part for providing a rotational force to the rotation cam in accordance with rotation of the motor; And a controller for controlling the laser scanning unit to transmit the laser beam to the pipe, to photograph the pipe in the form of a line of the laser beam through the camera unit at a predetermined time to acquire the pipe image, And a control unit for detecting and controlling a position and a posture.

또한, 상기 회전 캠은, 상기 모터부에 결합하기 위한 결합부; 상기 모터의 축이 삽입되도록 상기 결합부에 홀이 관통되어 있는 결합공; 상기 모터의 축 방향과 수직인 방향의 중앙선을 기준으로 일측에 볼록한 반원 형상의 단면을 갖는 제1 볼록부; 및 상기 모터의 축 방향과 수직인 방향의 중앙선을 기준으로 다른 측에 상기 제1 볼록부의 반원 형상의 절반 크기로 볼록한 반원 형상의 단면을 갖는 제2 볼록부를 포함할 수 있다.The rotation cam may include: a coupling portion for coupling to the motor portion; A coupling hole through which the shaft of the motor is inserted into the coupling portion; A first convex portion having a convex semi-circular cross section at one side with respect to a center line in a direction perpendicular to the axial direction of the motor; And a second convex portion having a semicircular shape convex to the half of the semicircular shape of the first convex portion on the other side with respect to a center line in a direction perpendicular to the axial direction of the motor.

또한, 상기 회전 캠에서, 상기 제1 볼록부와 상기 제2 볼록부는 상기 중앙선을 기준으로 대칭되게 형성되어 있으며, 상기 제1 볼록부는 상기 제2 볼록부와 대칭되지 않는 나머지 다른 부분이 상기 반원 형상의 반경에 해당하는 길이를 두 변으로 하는 직사각 면을 형성할 수 있다.In addition, in the rotation cam, the first convex portion and the second convex portion are formed symmetrically with respect to the center line, and the first convex portion is not symmetrical with the second convex portion, A rectangular surface having a length corresponding to the radius of the rectangular surface can be formed.

또한, 상기 레이저 스캔부는, 원기둥 형상을 가지고, 상기 파이프에 레이저 빔을 송출하는 송출부; 및 상기 송출부를 상기 메인보드에 고정하여 결합하기 위한 결합부를 포함하고, 상기 송출부는 상기 회전 캠에 올려져 놓여 있는 상태로 상기 회전 캠에 닿도록 상기 결합부에 의해 고정되되, 상기 회전 캠의 회전 동작에 따라 상기 레이저 빔의 송출 각도가 조정되도록 회동 가능하게 상기 결합부를 통해 상기 메인보드에 고정 결합될 수 있다.In addition, the laser scanning unit may have a cylindrical shape and may include a delivery unit for delivering a laser beam to the pipe; And a coupling part for fixing and coupling the delivery part to the main board, wherein the delivery part is fixed by the coupling part so as to contact the rotation cam in a state of being mounted on the rotation cam, And can be fixedly coupled to the main board through the coupling unit so as to be rotatable so that the feeding angle of the laser beam is adjusted according to the operation.

또한, 상기 레이저 스캔부에서 상기 송출부는, 상기 회전 캠에 올려져 놓여 있는 상태로 있다가 상기 회전 캠의 회전 동작에 따라 상기 제1 볼록부의 원호를 따라 들어올려져 상기 레이저 빔의 송출 각도가 상향 조정되어지고, 상기 회전 캠의 계속적인 회전 동작에 따라 상기 제1 볼록부의 원호가 끝나는 지점을 지나면 상기 제2 볼록부에 닿게 되어 상기 레이저 빔의 송출 각도가 최대 하향각으로 조정되어질 수 있다.In addition, in the laser scanning unit, the feeder may be lifted up along the circular arc of the first convex portion in accordance with the rotation operation of the rotation cam, and may be adjusted upwards And the second convex portion is brought into contact with the second convex portion after passing through a point where the arc of the first convex portion ends according to the continuous rotation operation of the rotation cam, so that the delivery angle of the laser beam can be adjusted to the maximum downward angle.

또한, 상기 카메라부는, 상기 파이프를 촬영하는 카메라; 상기 카메라를 고정하기 위한 고정부; 및 상기 고정부를 상기 메인보드에 안착하여 지지하기 위한 베이스부를 포함할 수 있다.The camera unit may further include: a camera for photographing the pipe; A fixing unit for fixing the camera; And a base portion for supporting and supporting the fixing portion on the main board.

또한, 상기 제어부는, 상기 파이프 영상에 대해 일정 시간마다 프레임 단위로 획득하고, 획득된 각 프레임에 나타난 레이저 라인의 두 끝점 좌표를 산출하며, 각 프레임마다 산출된 레이저 라인의 두 끝점 좌표들을 연결하여 얻는 평행한 두 직선을 파이프 외곽선으로 인식하며, 상기 파이프 영상의 크기에 대응된 파이프 객체와의 거리를 산출하게 된다.In addition, the controller obtains the pipe image at a predetermined time interval, calculates two end point coordinates of the laser line appearing in each frame obtained, connects the two end point coordinates of the laser line calculated for each frame, The two straight lines obtained are recognized as a pipe outline, and the distance to the pipe object corresponding to the size of the pipe image is calculated.

또한, 상기 제어부는, 상기 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해 이전 프레임과 현재 프레임을 비교하여 차영상을 획득하고, 획득된 차영상을 통해 레이저 라인의 두 끝점에 대한 좌표들을 산출하며, 모든 차영상에 대해 산출된 좌표들을 가지고 가장 유사한 회귀직선을 획득하여 상기 파이프 외곽선으로 인식할 수 있다.Also, the controller compares the previous frame and the current frame with respect to the pipe image obtained in units of frames at the predetermined time intervals to obtain a difference image, and calculates coordinates of the two end points of the laser line through the obtained difference image , The most similar regression line can be obtained with the coordinates calculated for all the difference images and recognized as the pipe outline.

그리고, 상기 제어부는, 상기 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해, 가우시안 필터와 캐니 엣지 검출을 통해 전처리를 실행하고, 전처리 된 영상을 허프 직선 변환(Hough Line Transform)을 통해 파이프의 외곽선 후보군을 검출하며, 각 프레임마다 검출된 외곽선 후보군들을 비교해 최종적인 파이프 외곽선을 도출할 수 있다.The control unit may perform preprocessing on the pipe image obtained on a frame-by-frame basis at predetermined time intervals through Gaussian filter and canny edge detection, and output the preprocessed image to the outline of the pipe through a Hough Line Transform The candidate group is detected, and the outline candidate groups detected for each frame are compared with each other, so that the final pipe outline can be derived.

한편, 전술한 목적을 달성하기 위한 본 발명에 따른 파이프 위치 및 자세 탐지 방법은, (a) 레이저 스캔부가 파이프에 레이저 빔을 송출하는 단계; (b) 카메라부가 상기 레이저 빔이 라인 형태로 나타나는 파이프를 카메라로 촬영하여 파이프 영상을 획득하는 단계; (c) 레이저 스캔부에서 모터부의 회전력으로 회전 캠이 회전함에 따라 상기 레이저 빔의 송출 각도가 조정되는 단계; (d) 제어부가 상기 카메라부를 통해 일정 시간마다 획득된 파이프 영상을 프레임 단위로 저장하는 단계; 및 (e) 제어부가 상기 획득된 파이프 영상을 처리하여 파이프 외곽선과 위치 및 자세(Pose)를 획득하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for detecting a pipe position and an attitude, comprising the steps of: (a) transmitting a laser beam to a laser scanning unit; (b) capturing a pipe, in which the camera unit displays the line of the laser beam, with a camera to obtain a pipe image; (c) adjusting the feeding angle of the laser beam as the rotating cam rotates by the rotational force of the motor unit in the laser scanning unit; (d) storing, by a frame, the pipe image obtained by the control unit at predetermined time intervals through the camera unit; And (e) the control unit processes the obtained pipe image to obtain a pipe outline and a position and a position.

또한, 상기 (c) 단계에서 상기 레이저 스캔부는, 송출부가 상기 회전 캠에 올려져 놓여 있는 상태로 있다가 상기 회전 캠의 회전 동작에 따라 제1 볼록부의 원호를 따라 들어올려져 상기 레이저 빔의 송출 각도가 상향 조정되어지고, 상기 회전 캠의 계속적인 회전 동작에 따라 상기 제1 볼록부의 원호가 끝나는 지점을 지나면 상기 송출부가 상기 제2 볼록부에 닿게 되어 상기 레이저 빔의 송출 각도가 최대 하향각으로 조정되어진다.In addition, in the step (c), the laser scanning unit may be lifted along the arc of the first convex portion in accordance with the rotation of the rotation cam while the delivery unit is placed on the rotation cam, And the delivery portion is brought into contact with the second convex portion so that the delivery angle of the laser beam is adjusted to the maximum downward angle when the circular arc of the first convex portion is finished according to the continuous rotation operation of the rotation cam .

또한, 상기 (e) 단계에서 상기 제어부는, 상기 파이프 영상에 대해 일정 시간마다 프레임 단위로 획득하고, 획득된 각 프레임에 나타난 레이저 라인의 두 끝점 좌표를 산출하며, 각 프레임마다 산출된 레이저 라인의 두 끝점 좌표들을 연결하여 얻는 평행한 두 직선을 파이프 외곽선으로 인식하며, 상기 파이프 영상의 크기에 대응된 파이프 객체와의 거리를 산출하게 된다.In the step (e), the controller obtains the pipe image at a predetermined time interval, calculates coordinates of two end points of the laser line in each frame obtained, Two parallel straight lines obtained by connecting the coordinates of the two end points are recognized as a pipe outline, and the distance to the pipe object corresponding to the size of the pipe image is calculated.

또한, 상기 (e) 단계에서 상기 제어부는, 상기 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해 이전 프레임과 현재 프레임을 비교하여 차영상을 획득하고, 획득된 차영상을 통해 레이저 라인의 두 끝점에 대한 좌표들을 산출하며, 모든 차영상에 대해 산출된 좌표들을 가지고 가장 유사한 회귀직선을 획득하여 상기 파이프 외곽선으로 인식하게 된다.In the step (e), the controller compares the previous frame and the current frame with respect to the pipe image obtained in units of frames at the predetermined time intervals to obtain a difference image, And obtains the most similar regression line with the calculated coordinates for all the difference images and recognizes the pipe as the pipe outline.

그리고, 상기 (e) 단계에서 상기 제어부는, 상기 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해, 가우시안 필터와 캐니 엣지 검출을 통해 전처리를 실행하고, 전처리 된 영상을 허프 직선 변환(Hough Line Transform)을 통해 파이프의 외곽선 후보군을 검출하며, 각 프레임마다 검출된 외곽선 후보군들을 비교해 최종적인 파이프 외곽선을 도출하게 된다.In the step (e), the controller performs preprocessing on the pipe image obtained on a frame-by-frame basis at predetermined time intervals through Gaussian filter and canny edge detection, and performs a Hough Line Transform ), And the outline candidate groups detected for each frame are compared with each other to derive the final pipe outline.

본 발명의 다른 양상들, 장점들 및 특징들은 다음의 섹션들: 도면의 간단한 설명, 상세한 설명 및 청구범위를 포함하는 전체 출원 명세서에 기재된 내용에 기초하여 보다 명백해질 것이다.Other aspects, advantages and features of the present invention will become more apparent on the basis of the following description in the entire specification, including the following sections: Brief Description of the Drawings, Detailed Description, and Claims.

본 발명에 의하면, 파이프 영상에 대해 레이저 라인을 통해 획득한 차영상을 이용한 방법과 허프 변환을 활용한 라인추출 방법을 융합하여 최종적으로 파이프의 외곽선을 도출함에 있어 신뢰도가 매우 높고 신속하게 파이프의 외곽선을 탐지할 수 있다. 즉 파이프 위치 및 자세를 탐지하고, 상세하게는 파이프를 등반하는 로봇이나 파이프를 절단 및 가공하는 환경에서 임의의 인근 파이프의 위치를 탐지하여 작업에 필요한 위치 데이터를 제시하여 작업의 자동화를 구현할 수 있다.According to the present invention, a method using a difference image obtained through a laser line with respect to a pipe image is combined with a line extraction method using Hough transform to finally derive the outline of the pipe. Therefore, the reliability is very high, Can be detected. In other words, it can detect the position and posture of the pipe, more specifically, detect the position of any nearby pipe in the environment of cutting and processing the robot or pipe climbing the pipe, and present the position data necessary for the work, .

또한, 파이프 등반 로봇이 그리퍼의 위치를 결정하기 위한 영상 처리 과정에서 외곽선을 검출하는 과정을 좀 더 빠르게 정확하게 완료할 수 있다. In addition, the process of detecting the outline in the image processing process for determining the position of the gripper can be completed more quickly and accurately by the pipe climbing robot.

또한, 전체적인 영상 인식부의 질량을 감소시킴으로서 로봇의 관절부에 생길 수 있는 과부하를 최소화 할 수 있다.In addition, by reducing the mass of the entire image recognition unit, it is possible to minimize the overload that may occur in the joint of the robot.

또한, 사람이 직접 파이프의 외곽선을 제어부에 직접 입력하여 주어야 하는 번거로움을 줄이고 자동으로 파이프의 외곽선을 인식하여 더욱 빠르고 정확한 파이프의 외곽선을 검출하는데 기여할 수 있다. In addition, it is possible to reduce the inconvenience that a person directly inputs the outline of the pipe to the control unit, and automatically recognize the outline of the pipe, thereby contributing to the detection of the outline of the pipe more quickly and accurately.

그리고, 파이프 위치 및 자세를 추정하여 배관 등반 로봇이 파이프를 정확하고 신속하게 파지할 수 있도록 해주고, 파이프를 절단 및 가공하는 로봇들은 임의의 인근 파이프의 위치를 탐지하여 작업에 필요한 위치 데이터를 제시하여 작업의 자동화를 위해 사용할 수 있다.Then, the pipe climbing robot estimates the position and posture of the pipe so that the robot can grasp the pipe accurately and quickly. The robot cutting and processing the pipe detects the position of the nearby pipe and presents the position data required for the work Can be used to automate tasks.

도 1은 본 발명의 실시예에 따른 파이프 위치 및 자세 탐지 장치의 구성을 개략적으로 나타낸 구성도이다.
도 2는 본 발명의 실시예에 따른 카메라부의 구성을 개략적으로 나타낸 외관 사시도이다.
도 3은 본 발명의 실시예에 따른 레이저 스캔부의 구성을 개략적으로 나타낸 외관 사시도이다.
도 4는 본 발명의 실시예에 따른 회전 캠의 구성을 나타낸 외관 사시도이다.
도 5는 본 발명의 실시예에 따른 파이프 위치 및 자세 탐지 방법을 설명하기 위한 동작 흐름도를 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 제어부의 파이프 영상 처리 과정을 나타낸 흐름도이다.
도 7은 본 발명의 실시예에 따른 파이프 등반용 로봇에 의한 실제 파이프 영상 및 카메라 이미지 영상 사이의 좌표 변환을 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 파이프 등반용 로봇의 핸드를 이동하기 전의 카메라 영상을 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 파이프 등반용 로봇의 핸드를 이동한 후의 카메라 영상을 나타낸 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram schematically showing the configuration of a pipe position and orientation detecting apparatus according to an embodiment of the present invention; FIG.
2 is an external perspective view schematically showing a configuration of a camera unit according to an embodiment of the present invention.
3 is an external perspective view schematically showing a configuration of a laser scanning unit according to an embodiment of the present invention.
4 is an external perspective view showing a configuration of a rotation cam according to an embodiment of the present invention.
5 is a flowchart illustrating a method for detecting a pipe position and posture according to an embodiment of the present invention.
6 is a flowchart illustrating a pipe image processing process of the controller according to the embodiment of the present invention.
FIG. 7 is a diagram illustrating coordinate transformation between an actual pipe image and a camera image image by a pipe climbing robot according to an embodiment of the present invention.
8 is a view showing a camera image before moving a hand of a pipe climbing robot according to an embodiment of the present invention.
9 is a view showing a camera image after moving a hand of a pipe climbing robot according to an embodiment of the present invention.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same or similar components are denoted by the same reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우 뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as " comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

어느 부분이 다른 부분의 "위에" 있다고 언급하는 경우, 이는 바로 다른 부분의 위에 있을 수 있거나 그 사이에 다른 부분이 수반될 수 있다. 대조적으로 어느 부분이 다른 부분의 "바로 위에" 있다고 언급하는 경우, 그 사이에 다른 부분이 수반되지 않는다.If any part is referred to as being " on " another part, it may be directly on the other part or may be accompanied by another part therebetween. In contrast, when a section is referred to as being " directly above " another section, no other section is involved.

제1, 제2 및 제3 등의 용어들은 다양한 부분, 성분, 영역, 층 및/또는 섹션들을 설명하기 위해 사용되나 이들에 한정되지 않는다. 이들 용어들은 어느 부분, 성분, 영역, 층 또는 섹션을 다른 부분, 성분, 영역, 층 또는 섹션과 구별하기 위해서만 사용된다. 따라서, 이하에서 서술하는 제1 부분, 성분, 영역, 층 또는 섹션은 본 발명의 범위를 벗어나지 않는 범위 내에서 제2 부분, 성분, 영역, 층 또는 섹션으로 언급될 수 있다.The terms first, second and third, etc. are used to describe various portions, components, regions, layers and / or sections, but are not limited thereto. These terms are only used to distinguish any moiety, element, region, layer or section from another moiety, moiety, region, layer or section. Thus, a first portion, component, region, layer or section described below may be referred to as a second portion, component, region, layer or section without departing from the scope of the present invention.

여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the invention. The singular forms as used herein include plural forms as long as the phrases do not expressly express the opposite meaning thereto. Means that a particular feature, region, integer, step, operation, element and / or component is specified and that the presence or absence of other features, regions, integers, steps, operations, elements, and / It does not exclude addition.

"아래", "위" 등의 상대적인 공간을 나타내는 용어는 도면에서 도시된 한 부분의 다른 부분에 대한 관계를 보다 쉽게 설명하기 위해 사용될 수 있다. 이러한 용어들은 도면에서 의도한 의미와 함께 사용 중인 장치의 다른 의미나 동작을 포함하도록 의도된다. 예를 들면, 도면 중의 장치를 뒤집으면, 다른 부분들의 "아래"에 있는 것으로 설명된 어느 부분들은 다른 부분들의 "위"에 있는 것으로 설명된다. 따라서 "아래"라는 예시적인 용어는 위와 아래 방향을 전부 포함한다. 장치는 90˚ 회전 또는 다른 각도로 회전할 수 있고, 상대적인 공간을 나타내는 용어도 이에 따라서 해석된다.Terms indicating relative space such as " below ", " above ", and the like may be used to more easily describe the relationship to other portions of a portion shown in the figures. These terms are intended to include other meanings or acts of the apparatus in use, as well as intended meanings in the drawings. For example, when inverting a device in the figures, certain portions that are described as being " below " other portions are described as being " above " other portions. Thus, an exemplary term " below " includes both up and down directions. The device can be rotated by 90 degrees or rotated at different angles, and terms indicating relative space are interpreted accordingly.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련 기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms including technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Commonly used predefined terms are further interpreted as having a meaning consistent with the relevant technical literature and the present disclosure, and are not to be construed as ideal or very formal meanings unless defined otherwise.

이하, 첨부한 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

도 1은 본 발명의 실시예에 따른 파이프 위치 및 자세 탐지 장치의 구성을 개략적으로 나타낸 구성도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram schematically showing the configuration of a pipe position and orientation detecting apparatus according to an embodiment of the present invention; FIG.

도 1을 참조하면, 본 발명에 따른 파이프 위치 및 자세 탐지 장치(100)는, 메인보드(Main Board)(110), 카메라부(120), 레이저 스캔부(130), 회전 캠(140), 제어부(150) 및 모터부(160)를 포함한다.1, a pipe position and orientation detecting apparatus 100 according to the present invention includes a main board 110, a camera unit 120, a laser scanning unit 130, a rotation cam 140, A control unit 150 and a motor unit 160.

본 발명에 따른 파이프 위치 및 자세 탐지 장치(100)는, 하나 이상의 파이프가 서로 연결된 작업장에서, 하나의 파이프를 등반하다가 다른 파이프로 이동하여 작업하기 위해 이동할 파이프의 위치와 자세를 탐지하는 것이다. 따라서, 본 발명의 실시예에서는 파이프 위치 및 자세 탐지 장치(100)에 대해 파이프 등반용 로봇으로 예를 들어 설명한다.The apparatus 100 for detecting a pipe position and attitude according to the present invention detects the position and posture of a pipe to move in order to move one pipe to another pipe while climbing one pipe in a workplace where one or more pipes are connected to each other. Therefore, in the embodiment of the present invention, the pipe position and attitude detection apparatus 100 will be described as a robot for climbing a pipe.

메인보드(110)는 카메라부(120)와 레이저 스캔부(130)를 장착하여 지지하기 위한 보드이다.The main board 110 is a board for mounting and supporting the camera unit 120 and the laser scanning unit 130.

카메라부(120)는 메인보드의 상측에 장착되고, 파이프를 촬영하기 위한 카메라를 구비하여, 카메라를 통해 레이저 라인이 나타나는 파이프를 촬영한다. 여기서, 카메라부(120)는, 도 2에 도시된 바와 같이 파이프를 촬영하는 카메라(122); 카메라를 고정하기 위한 고정부(124); 및 고정부를 메인보드에 안착하여 지지하기 위한 베이스부(126)를 포함할 수 있다. 도 2는 본 발명의 실시예에 따른 카메라부의 구성을 개략적으로 나타낸 외관 사시도이다. 여기서, 카메라부(120)는 메인보드(110)의 중앙 상단에 와셔에 의해 3mm 이격되게 고정할 수 있다.The camera unit 120 is mounted on the upper side of the main board and has a camera for photographing the pipe, and photographs the pipe through which the laser line appears through the camera. Here, the camera unit 120 includes a camera 122 for photographing a pipe as shown in FIG. 2; A fixing part (124) for fixing the camera; And a base portion 126 for seating and supporting the fixing portion on the main board. 2 is an external perspective view schematically showing a configuration of a camera unit according to an embodiment of the present invention. Here, the camera unit 120 may be fixed at a central upper end of the main board 110 by a washer at a distance of 3 mm.

레이저 스캔부(130)는 메인보드(110) 상에서 카메라부(120)의 하측에 장착되고, 파이프를 스캔하기 위한 레이저 빔을 파이프에 송출한다.The laser scanning unit 130 is mounted on the main board 110 on the lower side of the camera unit 120 and transmits a laser beam for scanning the pipe to the pipe.

이때, 레이저 스캔부(130)는, 도 3에 도시된 바와 같이 메인보드(110)의 중앙에 회전 가능하게 지그로 장착할 수 있으며, 원기둥 형상을 가지고, 파이프에 레이저 빔을 송출하는 송출부(132); 및 송출부를 메인보드에 고정하여 결합하기 위한 결합부(134)를 포함한다. 도 3은 본 발명의 실시예에 따른 레이저 스캔부의 구성을 개략적으로 나타낸 외관 사시도이다. 따라서, 송출부(132)는 회전 캠에 올려져 놓여 있는 상태로 회전 캠(140)에 닿도록 결합부(134)에 의해 고정되되, 회전 캠의 회전 동작에 따라 레이저 빔의 송출 각도가 조정되도록 회동 가능하게 결합부(134)를 통해 메인보드(110)에 고정 결합될 수 있다.3, the laser scanning unit 130 is rotatably jig-mounted at the center of the main board 110, and has a cylindrical shape and includes a feeder (not shown) for sending a laser beam to the pipe 132); And a coupling portion 134 for coupling and fixing the ejecting portion to the main board. 3 is an external perspective view schematically showing a configuration of a laser scanning unit according to an embodiment of the present invention. Therefore, the feeding part 132 is fixed by the engaging part 134 so as to come into contact with the rotating cam 140 while being placed on the rotating cam, so that the feeding angle of the laser beam is adjusted in accordance with the rotating operation of the rotating cam And can be fixedly coupled to the main board 110 through a coupling part 134 so as to be rotatable.

회전 캠(140)은 레이저 스캔부(130)의 레이저 빔의 송출 각도를 회전 동작에 의해 조정한다. 이때, 회전 캠(140)은, 도 4에 도시된 바와 같이 모터부에 결합하기 위한 결합부(142); 모터의 축이 삽입되도록 결합부에 홀이 관통되어 있는 결합공(144); 모터의 축 방향과 수직인 방향의 중앙선을 기준으로 일측에 볼록한 반원 형상의 단면을 갖는 제1 볼록부(146); 및 모터의 축 방향과 수직인 방향의 중앙선을 기준으로 다른 측에 제1 볼록부의 반원 형상의 절반 크기로 볼록한 반원 형상의 단면을 갖는 제2 볼록부(148)를 포함할 수 있다. 도 4는 본 발명의 실시예에 따른 회전 캠의 구성을 나타낸 외관 사시도이다. 도 4의 회전 캠(140)에서, 제1 볼록부(146)와 제2 볼록부(148)는 중앙선을 기준으로 대칭되게 형성되어 있으며, 제1 볼록부는 제2 볼록부와 대칭되지 않는 나머지 다른 부분이 상기 반원 형상의 반경에 해당하는 길이를 두 변으로 하는 직사각 면을 형성할 수 있다.The rotation cam 140 adjusts the delivery angle of the laser beam of the laser scanning unit 130 by a rotation operation. At this time, the rotation cam 140 includes an engaging portion 142 for engaging with the motor portion as shown in FIG. 4; An engaging hole 144 through which a hole is passed through the engaging portion so that the shaft of the motor is inserted; A first convex portion 146 having a convex semi-circular cross section at one side with respect to a center line in a direction perpendicular to the axial direction of the motor; And a second convex portion 148 having a convex semi-circular cross-section at half the size of the semicircular shape of the first convex portion on the other side with respect to the center line in the direction perpendicular to the axial direction of the motor. 4 is an external perspective view showing a configuration of a rotation cam according to an embodiment of the present invention. 4, the first convex portion 146 and the second convex portion 148 are formed symmetrically with respect to the center line, and the first convex portion is formed symmetrically with respect to the center line, Shaped portion having a length corresponding to the radius of the semicircular shape.

또한, 레이저 스캔부(130)에서 송출부(132)는, 회전 캠(140)에 올려져 놓여 있는 상태로 있다가 회전 캠(140)의 회전 동작에 따라 제1 볼록부(146)의 원호를 따라 들어올려져 레이저 빔의 송출 각도가 상향 조정되어지고, 회전 캠의 계속적인 회전 동작에 따라 제1 볼록부(146)의 원호가 끝나는 지점을 지나면 제2 볼록부(148)에 닿게 되어 레이저 빔의 송출 각도가 최대 하향각으로 조정되어질 수 있다.In the laser scanning unit 130, the feeding unit 132 is placed on the rotation cam 140, and the circular arc of the first convex portion 146 is moved in accordance with the rotation of the rotation cam 140 The angle of the laser beam is adjusted upward so that the second convex portion 148 reaches the point where the arc of the first convex portion 146 ends in accordance with the continuous rotation of the rotation cam, The delivery angle can be adjusted to the maximum downward angle.

제어부(150)는 레이저 스캔부(130)를 통해 파이프에 레이저 빔을 송출하고, 레이저 빔이 라인 형태로 나타나는 파이프를 카메라부(120)를 통해 일정 시간마다 촬영하여 파이프 영상을 획득하며, 획득된 파이프 영상을 처리하여 파이프의 외곽선과 위치 및 자세(Pose)를 검출하도록 제어한다.The control unit 150 transmits the laser beam to the pipe through the laser scanning unit 130, captures the pipe image of the laser beam in the form of a line through the camera unit 120 at predetermined time intervals to acquire the pipe image, And processes the pipe image to control the outline of the pipe and the position and posture of the pipe.

여기서, 제어부(150)는 로봇 내부에 포함되도록 구성할 수 있으나, 로봇과 무선으로 신호를 송수신하는 제어 컴퓨터 시스템으로 구현할 수도 있다.Here, the control unit 150 may be included in the robot, but may be implemented as a control computer system that transmits and receives signals wirelessly with the robot.

또한, 제어부(150)는, 파이프 영상에 대해 일정 시간마다 프레임 단위로 획득하고, 획득된 각 프레임에 나타난 레이저 라인의 두 끝점 좌표를 산출하며, 각 프레임마다 산출된 레이저 라인의 두 끝점 좌표들을 연결하여 얻는 평행한 두 직선을 파이프 외곽선(경계선)으로 인식한다.In addition, the controller 150 obtains the pipe image at a predetermined time interval, calculates the coordinates of the two end points of the laser line in each frame obtained, connects the coordinates of the two end points of the laser line calculated for each frame And recognizes the two parallel straight lines obtained as a pipe outline (boundary line).

또한, 제어부(150)는 파이프 영상의 크기에 대응된 파이프 객체와의 거리를 산출할 수 있다.Also, the controller 150 can calculate the distance to the pipe object corresponding to the size of the pipe image.

또한, 제어부(150)는, 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해 이전 프레임과 현재 프레임을 비교하여 차영상을 획득하고, 획득된 차영상을 통해 레이저 라인의 두 끝점에 대한 좌표들을 산출하며, 모든 차영상에 대해 산출된 좌표들을 가지고 가장 유사한 회귀직선을 획득하여 파이프 외곽선으로 인식할 수 있다.In addition, the control unit 150 compares the previous frame and the current frame with respect to the pipe image obtained on a frame-by-frame basis at predetermined time intervals to obtain a difference image, and calculates coordinates of the two end points of the laser line through the obtained difference image , The most similar regression line can be obtained with the coordinates calculated for all the difference images and recognized as the pipe outline.

또한, 제어부(150)는, 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해, 가우시안 필터와 캐니 엣지 검출을 통해 전처리를 실행하고, 전처리 된 영상을 허프 직선 변환(Hough Line Transform)을 통해 파이프의 외곽선 후보군을 검출하며, 각 프레임마다 검출된 외곽선 후보군들을 비교해 최종적인 파이프 외곽선을 도출할 수 있다.In addition, the controller 150 performs preprocessing on the pipe image obtained on a frame-by-frame basis at predetermined time intervals through Gaussian filter and canny edge detection, and preprocesses the preprocessed image through a Hough Line Transform The outline candidate group is detected, and the outline candidate groups detected for each frame are compared with each other to derive the final pipe outline.

그리고, 모터부(160)는 모터의 회전에 따라 발생된 회전력을 회전 캠(140)에 제공한다. 여기서, 모터는 예를 들면, RA-12WGM 등의 기어드(Geared Motor)로 구현할 수 있다. Then, the motor unit 160 provides rotational force generated by the rotation of the motor to the rotation cam 140. Here, the motor can be implemented as a geared motor such as RA-12WGM.

도 5는 본 발명의 실시예에 따른 파이프 위치 및 자세 탐지 방법을 설명하기 위한 동작 흐름도를 나타낸 도면이다.5 is a flowchart illustrating a method for detecting a pipe position and posture according to an embodiment of the present invention.

전술한 바와 같이 본 발명의 실시예에서는 파이프 위치 및 자세 탐지 장치(100)를 파이프 등반용 로봇에 적용하여, 파이프 등반용 로봇(100)이 파이프 위치 및 자세 탐지 방법을 실행하는 것으로 설명한다.As described above, in the embodiment of the present invention, the pipe position and attitude detection apparatus 100 is applied to a pipe climbing robot, and the pipe climbing robot 100 executes the pipe position and attitude detection method.

도 5를 참조하면, 본 발명에 따른 파이프 위치 및 자세 탐지 장치(100)는, 먼저 레이저 스캔부(130)가 파이프에 레이저 빔을 송출한다(S510).Referring to FIG. 5, in the pipe position and attitude detection apparatus 100 according to the present invention, the laser scanning unit 130 first transmits a laser beam to the pipe (S510).

이어, 카메라부(120)는 레이저 빔이 라인 형태로 나타나는 파이프를 카메라로 촬영하여 파이프 영상을 획득한다(S520).Next, the camera unit 120 acquires a pipe image by photographing a pipe in which the laser beam appears in the form of a line with a camera (S520).

이어, 레이저 스캔부(130)에서 모터부(140)의 회전력으로 회전 캠(130)이 회전함에 따라 레이저 빔의 송출 각도가 조정된다(S530).Then, as the rotation cam 130 is rotated by the rotational force of the motor unit 140 in the laser scanning unit 130, the delivery angle of the laser beam is adjusted (S530).

즉, 레이저 스캔부(130)는, 송출부(132)가 회전 캠(140)에 올려져 놓여 있는 상태로 있다가 회전 캠(140)의 회전하게 되면 제1 볼록부(146)의 원호를 따라 들어올려져 레이저 빔의 송출 각도가 상향 조정되어지고, 회전 캠(140)의 계속적인 회전 동작에 따라 제1 볼록부(146)의 원호가 끝나는 지점을 지나면 송출부(132)가 제2 볼록부(148)에 닿게 되어 레이저 빔의 송출 각도가 최대 하향각으로 조정되어진다. 여기서, 제1 볼록부(146)의 직경이 제2 볼록부(148)의 직경보다 2배 이상 더 크므로, 송출부(132)가 제1 볼록부(146) 상에서 그 원호를 따라 상향각으로 올라가다가 제2 볼록부(148)로 옮겨지면, 제1 볼록부(146)와 제2 볼록부(148)의 직경 차이만큼 떨어져 최대 하향각부터 레이저 빔의 송출 각도가 시작되는 것이다.That is, the laser scanning unit 130 moves along the arc of the first convex 146 as the rotating cam 140 rotates while the feeding unit 132 is placed on the rotation cam 140 The feeding angle of the laser beam is adjusted upward so that the feeding part 132 passes the point where the arc of the first convex part 146 ends in accordance with the continuous rotation of the rotation cam 140, 148 so that the delivery angle of the laser beam is adjusted to the maximum downward angle. Since the diameter of the first convex portion 146 is two times or more larger than the diameter of the second convex portion 148, the feed portion 132 is formed on the first convex portion 146 at an upward angle When the laser beam is moved to the second convex portion 148, the delivery angle of the laser beam starts from the maximum downward angle by the difference in diameter between the first convex portion 146 and the second convex portion 148.

이어, 제어부(150)는 카메라부(120)를 통해 일정 시간마다 획득된 파이프 영상을 프레임 단위로 저장부에 저장한다(S540).Next, the control unit 150 stores the pipe images obtained at predetermined time intervals through the camera unit 120 in a storage unit in step S540.

이어, 제어부(150)는 획득된 파이프 영상을 처리하여 파이프 외곽선과 위치 및 자세(Pose)를 획득한다(S550).Next, the controller 150 processes the obtained pipe image to acquire the pipe outline and the position and posture (S550).

이때, 제어부(150)는, 파이프 영상에 대해 일정 시간마다 프레임 단위로 획득하고, 획득된 각 프레임에 나타난 레이저 라인의 두 끝점 좌표를 산출하며, 각 프레임마다 산출된 레이저 라인의 두 끝점 좌표들을 연결하여 얻는 평행한 두 직선을 파이프 외곽선으로 인식하며, 파이프 영상의 크기에 대응된 파이프 객체와의 거리도 산출하게 된다.At this time, the control unit 150 obtains the pipe image at a predetermined time interval, calculates the two end point coordinates of the laser line appearing in each frame obtained, connects the two end point coordinates of the laser line calculated for each frame And the distance to the pipe object corresponding to the size of the pipe image is also calculated.

일반적으로, 카메라 영상으로부터 직선 파이프의 외곽선을 추출하기는 쉽지 않다. 이는 파이프 영상의 배경에 기둥, 천정, 책꽂이, 가구 등 다양한 직선 성분을 가진 물체들이 있기 때문에 어느 것이 실제로 우리가 원하는 파이프의 외곽을 나타내는 직선인지 구분할 수가 없다.In general, it is not easy to extract the outline of a straight pipe from a camera image. Because there are objects with various linear components such as pillars, ceilings, bookshelves, and furniture in the background of pipe images, it is impossible to tell which is actually a straight line that represents the outline of the pipe we want.

파이프 엣지 검출을 위해 두 가지 방법을 적절하게 조합하여 이용한다. 첫 번째는 레이저를 이용한 방법으로 라인형 레이저가 파이프 표면을 스캔하도록 하면서 차영상을 이용하여 파이프의 외곽을 검출하는 방법이다. Two methods are used in combination as appropriate for pipe edge detection. The first is a method of using a laser to scan the pipe surface while the line type laser scans the pipe surface and detect the outer edge of the pipe using the car image.

따라서, 제어부(150)는 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해 이전 프레임과 현재 프레임을 비교하여 차영상을 획득하고, 획득된 차영상을 통해 레이저 라인의 두 끝점에 대한 좌표들을 산출하며, 모든 차영상에 대해 산출된 좌표들을 가지고 가장 유사한 회귀직선을 획득하여 파이프 외곽선으로 인식하는 것이다.Accordingly, the control unit 150 compares the previous frame and the current frame with respect to the pipe image obtained on a frame-by-frame basis at predetermined time intervals to obtain a difference image, and calculates coordinates of the two end points of the laser line through the obtained difference image , The most similar regression line is obtained with the coordinates calculated for all the difference images and recognized as the pipe outline.

두 번째는 허프 직선 변환(Hough Line Transform)을 이용하여 검출하는 방법이다. 즉, 제어부(150)는, 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해, 가우시안 필터와 캐니 엣지 검출을 통해 전처리를 실행하고, 전처리 된 영상을 허프 직선 변환을 통해 파이프의 외곽선 후보군을 검출하며, 각 프레임마다 검출된 외곽선 후보군들을 비교해 최종적인 파이프 외곽선을 도출할 수 있다.The second method is to detect using Hough Line Transform. That is, the control unit 150 performs preprocessing on the pipe image obtained on a frame-by-frame basis at predetermined time intervals through Gaussian filter and canny edge detection, detects the outline candidate group of the pipe through the Huff linear transformation of the preprocessed image , The outline candidates detected for each frame are compared with each other, and the final pipe outline can be derived.

본 발명의 실시예에서 파이프 외곽선 도출 방법은, 로봇(100)의 로봇 핸드에 부착되어 있는 카메라를 통해 얻어진 영상 정보를 이용하여 일련의 처리 과정인 도 6과 같이 이루어진다. 영상에서 파이프의 외곽선을 검출하여 외곽선의 위치와 각도 정보를 이용한다. 이 정보들로 역기구학을 통해 적절한 로봇의 위치와 각도를 제어하여 파이프를 파지하게 된다. In the embodiment of the present invention, a method of deriving a pipe contour is performed as shown in FIG. 6, which is a series of processes using image information obtained through a camera attached to a robot hand of the robot 100. It detects the outline of the pipe in the image and uses the position and angle information of the outline. This information is used to control the position and angle of an appropriate robot through inverse kinematics to grasp the pipe.

본 발명에서는 정확하게 파이프의 외곽선을 검출하기 위해 두 가지 방법을 적절하게 조합하여 이용한다. 이 두 가지 방법을 이용하여 검출된 외곽선을 적절한 조건에 따라 비교하여 최종 외곽선을 도출하게 된다. 최종적으로 검출된 외곽선은 4개의 요소를 가지는 벡터형태(vx, vy, x0, y0)로 변환되어 제어 컴퓨터 시스템으로 전송된다. (vx, vy)는 직선의 정규벡터(normalized vector)이며, (x0, y0)는 선 위의 한 점을 나타낸다.In the present invention, two methods are appropriately used in combination to accurately detect the outline of the pipe. By using these two methods, the detected outline is compared according to the appropriate condition, and the final outline is derived. The finally detected outline is converted into a vector form (v x , v y , x 0 , y 0 ) having four elements and transmitted to the control computer system. (v x , v y ) is a normalized vector of straight lines, and (x 0 , y 0 ) represents a point on the line.

레이저를 이용한 엣지 검출 방법으로는 두 가지를 사용할 수 있다. 첫 번째 방법은 레이저가 위에서 아래로 혹은 아래에서 위로 올라가기를 기다렸다가 엣지를 검출하는 방법(Once Detection)이다. 이는 느리기는 하지만 파이프의 넓은 부분을 통해 도출된 결과이기 때문에 조금 더 정확하다. 두 번째 방법은 이전에 레이저가 지나간 점들을 기억해 두었다가 에지 검출 명령을 받으면 바로 이전에 저장되어 있는 점들로 라인을 도출하는 방법(Real-time Detection)이다. 기본적인 수행 순서도는 도 6에 도시된 바와 같이 진행하게 된다.Two types of edge detection methods using laser can be used. The first method is to wait for the laser to move from top to bottom or bottom to top and then to detect the edge (Once Detection). This is a bit more accurate because it is slow but results from a large part of the pipe. The second method is a method (real-time detection) in which the laser has previously memorized past points and derives the line to the previously stored points when receiving the edge detection command. The basic flowchart will proceed as shown in FIG.

도 6은 본 발명의 실시예에 따른 제어부의 파이프 영상 처리 과정을 나타낸 흐름도이다.6 is a flowchart illustrating a pipe image processing process of the controller according to the embodiment of the present invention.

도 6을 참조하면, 본 발명에 따른 제어부(150)는 전술한 바와 같이 카메라부(120)를 통해 파이프 영상을 획득하면(S602-예), 파이프 영상에 대해 전처리 동작을 수행한다(S604). Referring to FIG. 6, the control unit 150 according to the present invention acquires a pipe image through the camera unit 120 as described above (S602-Yes), and performs a preprocessing operation on the pipe image (S604).

여기서, 전처리 동작(Post Process)은 캘리브레이션(Calibration), 색상 변환(Color Convert), 스무싱(Smoothing) 등의 동작을 포함한다. Here, the Post Process includes operations such as Calibration, Color Convert, and Smoothing.

각 장비마다 색공간이 다르고 설정에 따라 색 재현성이 다르기에 일정한 형태의 프로파일에 의한 장치들 간의 색차를 최소로 보이도록 최적의 상태를 만들고자 캘리브레이션을 이용하여 영상을 보정한다. 예를 들면, 로봇에 장착된 카메라로 여러 각도의 체크보드를 촬영하여 얻은 데이터 값을 이용하여 캘리브레이션에 사용할 수 있다. Since the color space is different for each device and the color reproducibility is different according to the setting, the image is calibrated by using the calibration to make the optimum state so that the color difference between the devices by a certain profile is minimized. For example, a camera mounted on a robot can be used for calibration using data values obtained by photographing check boards of various angles.

또한, 허프 변환을 수행하기 이전에 영상 잡음을 제거하기 위한 스무싱(Smoothing) 과정과, 엣지 검출(Edge Detection) 과정을 거쳐야만 올바른 허프 변환 결과물을 얻을 수 있다. 예를 들면, 5x5의 평균값 필터를 이용하여 스무싱(Smoothing)을 해 주고, 캐니 엣지 검출기(Canny Edge Detector)를 이용하여 엣지를 검출해 주는 것이다. 엣지가 제대로 검출되지 않아 허프 변환에 의한 선이 제대로 나오지 않는 경우에 임계(Threshold) 값을 조절하면 된다.In addition, a proper Hough transform result can be obtained only through a smoothing process for removing image noise and an edge detection process before performing the Hough transform. For example, smoothing is performed using a 5x5 average filter, and the edge is detected using a Canny Edge Detector. If the edge is not detected correctly and the line due to Hough transform does not come out properly, you can adjust the threshold value.

이어, 제어부(150)는 엣지 검출 플래그(Edge Detect Flag)를 확인하여 트루 상태이면(S606-True), 파이프 영상에서 각 프레임마다 레이저 라인을 검출한다(S608).Then, the control unit 150 checks the edge detection flag (True Detect Flag) (S606-True), and detects the laser line for each frame in the pipe image (S608).

이어, 제어부(150)는 검출된 레이저 라인의 상태가 양호하면(S610-예), 커뮤니케이션 플래그를 트루(True) 상태로, 엣지 검출 플래그를 폴스(False) 상태로 처리한다(S612).If the detected state of the laser line is good (YES in S610), the control unit 150 sets the communication flag to the true state and the edge detection flag to the false state (S612).

한편, 제어부(150)는 엣지 검출 플래그가 폴스 상태이면(S606-False), 캐니 엣지 검출(Canny Edge Detection) 및 허프 라인 변환(Hough Line Transform)을 실행한다(S620).Meanwhile, if the edge detection flag is in the false state (S606-False), the controller 150 executes Canny Edge Detection and Hough Line Transform (S620).

허프 라인 변환은 영상 내 직선을 검출하기에 용이한 알고리즘이다. 기본적인 알고리즘은 x-y 평면 내 한 직선을 다음 수학식 1로 표시할 수 있으며, 영상 원점에서부터 거리(ρ)와 각도(θ)가 일정하다.Hough line transformation is an algorithm that is easy to detect straight lines in an image. The basic algorithm can express a straight line in the x-y plane by the following equation (1), and the distance (?) And the angle (?) From the image origin are constant.

Figure pat00001
Figure pat00001

다시 말하면 직선 위에 있는 점이라면 그 점을 지나는 선들 중 같은 (ρ, θ)를 가지는 선이 있을 것이다. 따라서 영상 내 모든 점(pixel)에 대하여 한 점을 지나는 선들을 ρ-θ 평면 위에 표현한다. 그러면 어떠한 한 (ρ, θ)에서 곡선들이 만나게 되고, 만나는 곡선의 개수가 일정한 개수 이상이 되면 직선으로 간주하는 것이다. In other words, if a point is on a straight line, there will be a line that passes the point with the same (ρ, θ). Therefore, the lines passing through a point for all the pixels in the image are expressed on the ρ-θ plane. Then, curves are encountered at any one (ρ, θ), and when the number of curves to be encountered is more than a certain number, it is regarded as a straight line.

이어, 제어부(150)는 허프 라인과 레이저 검출 라인을 비교한다(S622).Next, the control unit 150 compares the Huff line and the laser detection line (S622).

레이저를 이용한 파이프 외곽정보 검출 방법은 레이저 라인 빔을 모터와 캠을 이용하여 일정하게 아래 위로 움직이게 구성하여 레이저의 움직임을 이용하여 파이프의 외곽선을 검출하는 방법이다. 레이저 라인 빔을 파이프에 주사하고 이전 프레임 영상과 그 다음 영상을 비교하여 차영상을 만든다. 그 후 차영상을 통하여 구해진 레이저의 윤곽(Contour) 양단의 끝점을 찾아낸 뒤 이 끝점들을 가지고 가장 유사한 회귀직선을 찾아 파이프의 경계선으로 인식하는 것이다.A method of detecting a pipe edge information using a laser is a method of detecting the outline of a pipe by using a movement of a laser by constituting the laser line beam to move upward and downward constantly by using a motor and a cam. The laser line beam is scanned into the pipe, and the next frame image is compared with the next frame image to make a difference image. After that, we find the end points of both edges of the contour of the laser obtained through the car image, and find the most similar regression line with these end points and recognize it as the boundary of the pipe.

허프 직선 변환(Hough Line Transform)을 이용한 파이프 외곽정보 검출 방법은 허프 변환을 하기 전 가우시안 필터와 캐니 엣지 검출을 통하여 전처리를 진행한다. 그 후 직선을 검출하기 위해 허프 직선 변환을 적용하여 파이프의 외곽선 후보군을 검출한다. 이 때 선의 개수를 통하여 문턱값(threshold)을 변화시킨다. 검출할 파이프는 영상 전체에 걸쳐 있기 때문에 선 위의 점이 실제 선인지 판단할 필요가 없으며, 조명, 배경 등의 환경에 따라 파이프의 엣지 전체가 검출되지 않고 끊어져 나올 수 있기 때문에 표준(Standard) 허프 라인 변환을 이용한다. The pipe edge information detection method using the Hough Line Transform proceeds through the Gaussian filter and the Canny edge detection before the Huff transformation. Then, to detect a straight line, a Hough linear transformation is applied to detect the outline candidate group of the pipe. At this time, the threshold is changed through the number of lines. Since the pipe to be detected extends over the entire image, it is not necessary to determine whether the point on the line is a real line, and the entire edge of the pipe can be cut off due to the environment such as illumination and background, Conversion.

두 가지 방법을 통해 도출된 외곽선을 비교하여 최종적으로 외곽선을 도출한다. 레이저를 이용한 방법의 경우 영상에 노이즈가 있거나, 조명이 밝은 경우 파이프의 외곽선을 정확하게 인지하지 못하여 문제가 발생할 수 있다. 또한 허프 변환을 이용한 방법의 경우 검출된 직선 후보들 중 파이프의 외곽선이 있더라도 어떤 것이 가장 가까운지 기준이 없을 수 있다. 따라서 레이저를 이용한 방법을 통해 도출된 외곽선과 가장 가까운 허프 직선을 찾아 최종적으로 찾아진 직선을 외곽선으로 한다. The outline is derived by comparing the derived outlines by two methods. In the case of using the laser, if the image has noise or the illumination is bright, the outline of the pipe can not be recognized correctly, which may cause problems. Also, in the case of the method using the Hough transform, even if there is an outline of the pipe among the detected linear candidates, there may be no reference as to which is the closest. Therefore, the outline drawn through the laser-based method is searched for the nearest Hough line and the outline is determined as the final line.

이어, 상태가 양호하면(S626-예), 제어부(150)는 스캔 라인을 업데이트한다(S626). 즉, 다음 영상 프레임을 획득하기 위한 동작이 실행되도록 명령하는 것이다.Then, if the state is good (YES in S626), the control unit 150 updates the scan line (S626). That is, an instruction to acquire the next image frame is issued.

이어, 제어부(150)는 신호 송신 메시지를 송출하고(Emit signal send message), 라인 업데이트 플래그(Line Update Flag)를 폴스(false) 상태로, 커뮤니케이션 플래그를 폴스(false) 상태로 처리한다(S630).Then, the control unit 150 transmits a signal transmission message (Emit signal send message), processes the line update flag to a false state, and sets the communication flag to a false state (S630) .

그리고, 제어부(150)는 복귀(return) 상태이면(S632-예), 처음 동작으로 복귀하여 전술한 바와 같은 과정을 반복하고, 그렇지 않으면(S632-아니오) 모든 동작을 종료한다.If the control unit 150 is in a return state (S632-YES), the control unit 150 returns to the initial operation and repeats the above-described process. Otherwise (S632-NO), the control unit 150 ends all the operations.

한편, 전술한 바와 같은 과정으로 획득한 파이프 외곽선(경계선)에 대해 기울기와 절편 값을 산출하고 이를 통해 좌표 변환 식을 구하여, 원격 주제어 시스템으로 정보를 전송하고, 역기구학을 통하여 로봇 관절의 관절각을 산출해 이를 로봇에 명령하여 로봇이 파이프를 파지하도록 할 수 있다.Meanwhile, the slope and the slice value are calculated for the pipe contour (boundary line) obtained by the above-described process, and the coordinate transformation equation is obtained therefrom. Then, information is transmitted to the remote control system, and through the inverse kinematics, And instructs the robot to grasp the pipe.

이에 대해, 도 7 내지 도 9를 참조하여 설명한다. 도 7은 본 발명의 실시예에 따른 파이프 등반용 로봇에 의한 실제 파이프 영상 및 카메라 이미지 영상 사이의 좌표 변환을 나타낸 도면이고, 도 8은 본 발명의 실시예에 따른 파이프 등반용 로봇의 핸드를 이동하기 전의 카메라 영상을 나타낸 도면이며, 도 9는 본 발명의 실시예에 따른 파이프 등반용 로봇의 핸드를 이동한 후의 카메라 영상을 나타낸 도면이다.This will be described with reference to Figs. 7 to 9. Fig. FIG. 7 is a diagram illustrating coordinate transformation between an actual pipe image and a camera image image by a robot for climbing a pipe according to an embodiment of the present invention. FIG. FIG. 9 is a view showing a camera image after moving a hand of a robot for climbing a pipe according to an embodiment of the present invention. FIG.

파이프 등반용 로봇(100)은 다수 개의 파이프 중에 원래 안정적으로 파지하고 있는 파이프를 베이스부로 인식하고, 이동해야 할 인접한 파이프의 위치와 자세를 감지하게 된다.The robot 100 for pipe climbing recognizes the pipe which is originally stably gripped among a plurality of pipes as a base portion and senses the position and attitude of an adjacent pipe to be moved.

이때, 파이프 등반용 로봇(100)의 베이스부와 이동하여 파지해야 할 파이프 사이의 위치 변환 행렬식은 간략하게 다음 수학식 2와 같이 나타낼 수 있다.At this time, the position conversion matrix formula between the base portion of the robot 100 for climbing the pipe and the pipe to be gripped can be briefly expressed by the following Equation (2).

Figure pat00002
Figure pat00002

θ1, θ2, θ3, θ4, θ5는 각각의 링크들 사이의 현재의 관절각을 나타낸다. θ 1 , θ 2 , θ 3 , θ 4 , θ 5 represent the current joint angles between the respective links.

따라서, 카메라부(120)의 카메라(122)와 파이프 사이의 위치 변환 행렬식만 결정되면, 파이프 등반용 로봇(100)의 베이스부와 이동할 파이프 사이의 위치 변환 행렬식이 결정될 수 있다. 카메라와 파이프 사이의 위치/자세 변환식은 다음 수학식 3과 같이 나타낼 수 있다. Therefore, if only the position conversion matrix formula between the camera 122 and the pipe of the camera unit 120 is determined, the position conversion matrix between the base part of the robot 100 for pipe climbing and the pipe to be moved can be determined. The position / attitude conversion equation between the camera and the pipe can be expressed by the following equation (3).

Figure pat00003
Figure pat00003

여기서, 카메라(122)와 파이프 사이의 위치/자세 변환식

Figure pat00004
을 단순화하기 위해 아래 3가지를 가정할 수 있다.Here, the position / posture conversion equation between the camera 122 and the pipe
Figure pat00004
The following three can be assumed.

첫째, 실제 파이프는 3차원 실린더 형상이지만, 이를 평면의 직사각형 형상으로 가정할 수 있다.First, the actual pipe is in the form of a three-dimensional cylinder, but it can be assumed to be a flat rectangular shape.

둘째, 파이프는 원통형으로 z축을 중심으로 좌우 대칭으로 가정한다. 따라서 파이프의 각도인 φz를 0으로 단순화할 수 있다.Second, the pipe is assumed to be cylindrical and symmetrical about the z-axis. Thus, we can simplify the pipe angle φ z to zero.

셋째, 파이프 등반용 로봇(100)이 파이프를 파지할 때, 파이프 중심선 상의 어느 곳이나 잡아도 된다고 가정한다. 즉, 로봇이 파이프를 잡을 때 Zpipe는 중요하지 않고, Dz를 0으로 하여 파이프 좌표계를 설정할 수 있다.Third, it is assumed that when the pipe climbing robot 100 grasps a pipe, it can be held anywhere on the pipe center line. That is, the Z pipe is not important when the robot catches the pipe , and the pipe coordinate system can be set with D z set to zero.

위 3 가지 가정으로 카메라(122)와 파이프 사이의 위치/자세 변환식

Figure pat00005
을 다음 수학식 4와 같이 단순화 할 수 있다. In the above three assumptions, the position / posture conversion equation between the camera 122 and the pipe
Figure pat00005
Can be simplified as shown in Equation (4).

Figure pat00006
Figure pat00006

여기서, 카메라(122)와 파이프 사이의 위치/자세 변환식을 구하기 위해 Dx, Dy, φx, φy의 네 개의 미지수만을 고려하면 된다. 즉, x축 방향 변위, y축 방향 변위, x축 중심으로 회전각도, y축 중심으로 회전각도의 네 개의 미지수만을 고려하면 된다.Here, in order to obtain the position / posture conversion equation between the camera 122 and the pipe, only four unknowns D x , D y , φ x , and φ y need to be considered. In other words, only the four unknowns of the x-axis displacement, the y-axis displacement, the rotation angle around the x-axis, and the rotation angle around the y-

도 7을 참조하여, 실제 파이프 평면(10)과 이미지 평면(11) 사이의 기하학적 관계를 계산하면, 실제 파이프 명편(10) 상의 점 Q와 이미지 평면(11)에 예상된 P와의 관계는 다음 수학식 5와 같이 표현된다. 7, the relationship between the point Q on the actual pipe manifold 10 and the expected P in the image plane 11 is calculated by the following mathematical expression Expression 5 is expressed as follows.

Figure pat00007
Figure pat00007

이를 풀어 쓰면, 다음 수학식 6과 같이 표현할 수 있다.If this is solved, it can be expressed as the following equation (6).

Figure pat00008
Figure pat00008

수학식 5 및 6에서, 행렬식 G는 원근변형 매트릭스이며, 변수 f는 카메라의 초점거리를 나타낸다.In Equations 5 and 6, the determinant G is a perspective transformation matrix, and the variable f represents the focal length of the camera.

도 7 내지 도 9를 참조하면, 카메라(122)를 통해 파이프를 보았을 때, 실제 파이프의 형태는 사다리꼴 모양으로 이미지 평면(11)에 투영된다. 파이프 평면에서의 양쪽 단의 직선을 이미지 평면에 기울기가 A0이고 x 절편이 C0인 기울어진 사선으로 나타난다.Referring to Figs. 7-9, when viewing the pipe through the camera 122, the shape of the actual pipe is projected onto the image plane 11 in a trapezoidal shape. A straight line at both ends in the pipe plane appears as an oblique slant with a slope of A 0 and an x intercept of C 0 .

즉, 이미지 평면(11)에 투영된 사다리꼴 형태의 파이프에서 좌측단을 구성하는 직선의 방정식은

Figure pat00009
이고, 우측단을 구성하는 직선의 방정식은
Figure pat00010
이다.That is, the equation of the straight line constituting the left end in the trapezoidal pipe projected on the image plane 11
Figure pat00009
, And the equation of the straight line constituting the right end is
Figure pat00010
to be.

여기서, 기울기를 나타내는 A0는 다음 수학식 7로 계산할 수 있다.Here, A 0 representing the slope can be calculated by the following equation (7).

Figure pat00011
Figure pat00011

여기서, x절편을 나타내는 C0는 다음 수학식 8과 같이 계산할 수 있다.Here, C 0 representing the x-intercept can be calculated by the following equation (8).

Figure pat00012
Figure pat00012

즉, 제어부(150)는 컴퓨터 프로세싱을 통해 기울기

Figure pat00013
Figure pat00014
, x절편
Figure pat00015
Figure pat00016
를 구할 수 있다.That is, the control unit 150 controls the inclination
Figure pat00013
Wow
Figure pat00014
, x intercept
Figure pat00015
And
Figure pat00016
Can be obtained.

결국 4 개의 미지수와,

Figure pat00017
,
Figure pat00018
,
Figure pat00019
,
Figure pat00020
가 포함된 네 개의 방정식이 나오고, 이 네 개의 비선형 연립방정식을 풀면, 우리가 원하는 미지수 위해 Dx, Dy, φx, φy를 구할 수 있게 된다.Finally, with four unknowns,
Figure pat00017
,
Figure pat00018
,
Figure pat00019
,
Figure pat00020
And solving these four nonlinear simultaneous equations, we can find D x , D y , φ x , and φ y for the unknown we want.

최종적으로 이 값을 수학식2에 대입하여 파이프 등반용 로봇(100)의 베이스부와 파이프 사이의 위치변환 행렬식을 구하게 되고, 역기구학을 통하여 로봇의 관절각 θ1, θ2, θ3, θ4, θ5를 구할 수 있게 된다.Finally, this value is substituted into Equation (2) to obtain the position conversion matrix equation between the base portion and the pipe of the robot 100 for pipe climbing, and the joint angles? 1 ,? 2 ,? 3 ,? 4 , and θ 5 can be obtained.

다만, 네 개의 비선형 연립 방정식을 풀려면 수치 계산을 사용해야 하는데, 로봇 관절을 제어하는데 많은 시간이 걸릴 수 있다. However, to solve the four nonlinear simultaneous equations, it is necessary to use numerical calculations, which can take a lot of time to control the robot joints.

따라서, 네 개의 미지수인 Dx, Dy, φx, φy를 구하는 방법을 다음과 같이 제안할 수 있다. 네 개의 미지수인 Dx, Dy, φx, φy는 투영된 사선의 기울기와 절편들(

Figure pat00021
,
Figure pat00022
,
Figure pat00023
,
Figure pat00024
)은 다음 수학식 9와 같은 연관 관계가 있다. Therefore, we can propose the following method to obtain four unknowns D x , D y , φ x , and φ y . The four unknowns D x , D y , φ x , and φ y are the slope of the projected slope and the intercepts (
Figure pat00021
,
Figure pat00022
,
Figure pat00023
,
Figure pat00024
) ≪ / RTI >

Figure pat00025
Figure pat00025

따라서, 제어부(150)는 아래 수학식 10을 이용하여 미지수 Dx, Dy, φx, φy를 계산할 수 있다. Therefore, the controller 150 can calculate the unknowns D x , D y , φ x , and φ y using the following Equation (10).

Figure pat00026
Figure pat00026

여기서, k는 샘플링 시간이고, KDX는 실험으로 결정하는 이득(gain)이며, (k-1)은 바로 전에서의 값을 나타낸다.Here, k is a sampling time, K DX is a gain determined experimentally, and (k-1) represents a value immediately before.

이러한 방법으로 미지수 Dx, Dy, φx, φy를 정하고, 이 값을 수학식2에 대입하여 파이프 등반용 로봇(100)의 베이스부와 이동할 파이프 사이의 위치 변환 행렬식을 구한 후, 역기구학을 통하여 로봇의 관절각 θ1, θ2, θ3, θ4, θ5를 구하게 된다.In this way, the unknowns D x , D y , φ x , and φ y are determined, and this value is substituted into the equation (2) to obtain the position conversion matrix between the base of the robot 100 for pipe climbing and the pipe to be moved. Through the kinematics, joint angles θ 1 , θ 2 , θ 3 , θ 4 , θ 5 of the robot are obtained.

따라서, 제어부(150)는 관절 모터를 구동하여, 링크들 사이의 각도인 θ1, θ2, θ3, θ4, θ5로 파이프 등반용 로봇(100)의 동작을 제어할 수 있게 되는 것이다.Accordingly, the control unit 150 drives the joint motor to control the operation of the robot 100 for pipe climbing with the angles? 1 ,? 2 ,? 3 ,? 4 ,? 5 between the links .

전술한 바와 같이 본 발명에 의하면, 파이프를 등반하는 로봇이나 파이프를 절단 및 가공하는 환경에서, 로봇 핸드에 장착된 카메라와 레이저를 통하여 파이프의 영상을 얻은 다음, 이 영상을 처리해 얻은 파이프 외곽선의 기울기와 절편값을 이용하여 임의의 인근 파이프의 위치를 탐지하여 작업에 필요한 위치 데이터를 산출하고 위치 데이터가 필요한 작업에 제공함으로써, 파이프 자동 용접에 반드시 필요한 가이드 레인 설치 작업을 생략하여 생산성을 높이고, 로봇 핸드가 파이프 형상에 맞추어 작업을 위한 주변 파이프를 잘 잡을 수 있도록 하는, 파이프 위치 및 자세 탐지 장치 및 이를 이용한 파이프 위치 및 자세 탐지 방법을 실현할 수 있다.As described above, according to the present invention, in an environment in which a robot or a pipe climbing a pipe is cut and processed, an image of the pipe is obtained through a camera and a laser attached to the robot hand, and then the slope of the pipe outline It is possible to increase the productivity by omitting the guide lane installation work which is indispensable for automatic welding of pipes by providing the position data necessary for the work by calculating the position data required for the work by detecting the position of any nearby pipe using the slice value, It is possible to realize a pipe position and posture detecting device and a pipe position and posture detecting method using the same to enable a hand to properly catch peripheral pipes for work in accordance with the pipe shape.

본 발명이 속하는 기술 분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims and their equivalents. Only. It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .

100 : 파이프 위치 및 자세 탐지 장치 110 : 메인보드
120 : 카메라부 122 : 카메라
124 : 고정부 126 : 베이스부
130 : 레이저 스캔부 132 : 송출부
134 : 결합부 140 : 회전 캠
142 : 결합부 144 : 결합공
146 : 제1 볼록부 148 : 제2 볼록부
150 : 제어부 160 : 모터부
100: Pipe position and posture detection device 110: Main board
120: camera unit 122: camera
124: fixing part 126: base part
130: laser scanning unit 132:
134: engaging portion 140: rotation cam
142: engaging portion 144: engaging hole
146: first convex portion 148: second convex portion
150: control unit 160: motor unit

Claims (14)

하나 이상의 파이프가 서로 연결된 작업장에서 이동할 파이프의 위치 및 자세(Pose)를 탐지하는 장치로서,
메인보드(Main Board);
상기 메인보드의 상측에 장착되고, 상기 파이프를 촬영하기 위한 카메라를 구비하는 카메라부;
상기 메인보드 상에서 상기 카메라부의 하측에 장착되고, 상기 파이프에 레이저 빔을 송출하여 상기 파이프를 스캔하기 위한 레이저 스캔부;
상기 레이저 스캔부의 레이저 빔의 송출 각도를 회전 동작에 의해 조절하는 회전 캠;
상기 회전 캠에 모터의 회전에 따라 발생된 회전력을 제공하는 모터부; 및
상기 레이저 스캔부를 통해 상기 파이프에 레이저 빔을 송출하고, 레이저 빔이 라인 형태로 나타나는 파이프를 상기 카메라부를 통해 일정 시간마다 촬영하여 파이프 영상을 획득하며, 획득된 파이프 영상을 처리하여 파이프의 외곽선과 위치 및 자세(Pose)를 검출 제어하는 제어부;
를 포함하는 파이프 위치 및 자세 탐지 장치.
An apparatus for detecting a position and a pose of a pipe to be moved in a workplace where one or more pipes are connected to each other,
A main board;
A camera unit mounted on the main board and having a camera for photographing the pipe;
A laser scanning unit mounted on the main board on a lower side of the camera unit, for scanning the pipe by sending a laser beam to the pipe;
A rotation cam for adjusting a delivery angle of the laser beam of the laser scanning unit by a rotation operation;
A motor part for providing a rotational force to the rotation cam in accordance with rotation of the motor; And
A laser beam is transmitted to the pipe through the laser scanning unit, a pipe image in which a laser beam appears in a line form is photographed through the camera unit at a predetermined time to acquire a pipe image, and the obtained pipe image is processed, And a pose;
And a pipe position and attitude detection device.
제 1 항에 있어서,
상기 회전 캠은,
상기 모터부에 결합하기 위한 결합부;
상기 모터의 축이 삽입되도록 상기 결합부에 홀이 관통되어 있는 결합공;
상기 모터의 축 방향과 수직인 방향의 중앙선을 기준으로 일측에 볼록한 반원 형상의 단면을 갖는 제1 볼록부; 및
상기 모터의 축 방향과 수직인 방향의 중앙선을 기준으로 다른 측에 상기 제1 볼록부의 반원 형상의 절반 크기로 볼록한 반원 형상의 단면을 갖는 제2 볼록부;
를 포함하는, 파이프 위치 및 자세 탐지 장치.
The method according to claim 1,
The rotation cam
A coupling part for coupling to the motor part;
A coupling hole through which the shaft of the motor is inserted into the coupling portion;
A first convex portion having a convex semi-circular cross section at one side with respect to a center line in a direction perpendicular to the axial direction of the motor; And
A second convex portion having a convex semi-circular cross-section at half the size of the semicircular shape of the first convex portion on the other side with respect to a center line in a direction perpendicular to the axial direction of the motor;
And a position detector for detecting the position of the pipe.
제 2 항에 있어서,
상기 회전 캠에서, 상기 제1 볼록부와 상기 제2 볼록부는 상기 중앙선을 기준으로 대칭되게 형성되어 있으며, 상기 제1 볼록부는 상기 제2 볼록부와 대칭되지 않는 나머지 다른 부분이 상기 반원 형상의 반경에 해당하는 길이를 두 변으로 하는 직사각 면을 형성하는, 파이프 위치 및 자세 탐지 장치.
3. The method of claim 2,
Wherein the first convex portion and the second convex portion are formed symmetrically with respect to the center line in the rotation cam, and the other portion of the first convex portion, which is not symmetrical with the second convex portion, Wherein the first and second sides of the pipe form a rectangular surface having two sides corresponding to the length of the pipe.
제 2 항에 있어서,
상기 레이저 스캔부는,
원기둥 형상을 가지고, 상기 파이프에 레이저 빔을 송출하는 송출부; 및
상기 송출부를 상기 메인보드에 고정하여 결합하기 위한 결합부;
를 포함하고,
상기 송출부는 상기 회전 캠에 올려져 놓여 있는 상태로 상기 회전 캠에 닿도록 상기 결합부에 의해 고정되되, 상기 회전 캠의 회전 동작에 따라 상기 레이저 빔의 송출 각도가 조정되도록 회동 가능하게 상기 결합부를 통해 상기 메인보드에 고정 결합되는, 파이프 위치 및 자세 탐지 장치.
3. The method of claim 2,
The laser scanning unit includes:
A delivery portion having a cylindrical shape and delivering a laser beam to the pipe; And
An engaging portion for fixing and connecting the dispensing portion to the main board;
Lt; / RTI >
Wherein the feeding portion is fixed by the coupling portion so as to contact the rotation cam while being placed on the rotation cam so that the feeding angle of the laser beam is adjusted according to the rotation operation of the rotation cam, And is fixedly coupled to the main board through the second connector.
제 4 항에 있어서,
상기 레이저 스캔부에서 상기 송출부는 상기 회전 캠에 올려져 놓여 있는 상태로 있다가 상기 회전 캠의 회전 동작에 따라 상기 제1 볼록부의 원호를 따라 들어올려져 상기 레이저 빔의 송출 각도가 상향 조정되어지고, 상기 회전 캠의 계속적인 회전 동작에 따라 상기 제1 볼록부의 원호가 끝나는 지점을 지나면 상기 제2 볼록부에 닿게 되어 상기 레이저 빔의 송출 각도가 최대 하향각으로 조정되어지는, 파이프 위치 및 자세 탐지 장치.
5. The method of claim 4,
Wherein the feeder is lifted up along the arc of the first convex portion in accordance with the rotation of the rotation cam so that the feed angle of the laser beam is adjusted upward, Wherein the second convex portion is in contact with the second convex portion so that the dispensing angle of the laser beam is adjusted to the maximum downward angle when passing the point where the arc of the first convex portion ends according to the continuous rotation operation of the rotation cam. .
제 1 항에 있어서,
상기 카메라부는,
상기 파이프를 촬영하는 카메라;
상기 카메라를 고정하기 위한 고정부; 및
상기 고정부를 상기 메인보드에 안착하여 지지하기 위한 베이스부;
를 포함하는, 파이프 위치 및 자세 탐지 장치.
The method according to claim 1,
The camera unit includes:
A camera for photographing the pipe;
A fixing unit for fixing the camera; And
A base portion for seating and supporting the fixing portion on the main board;
And a position detector for detecting the position of the pipe.
제 1 항에 있어서,
상기 제어부는, 상기 파이프 영상을에 대해 일정 시간마다 프레임 단위로 획득하고, 획득된 각 프레임에 나타난 레이저 라인의 두 끝점 좌표를 산출하며, 각 프레임마다 산출된 레이저 라인의 두 끝점 좌표들을 연결하여 얻는 평행한 두 직선을 파이프 외곽선으로 인식하며, 상기 파이프 영상의 크기에 대응된 파이프 객체와의 거리를 산출하는, 파이프 위치 및 자세 탐지 장치.
The method according to claim 1,
The control unit obtains the pipe image at a predetermined time interval for the pipe image, calculates two end point coordinates of the laser line appearing in each frame obtained, and connects the two end point coordinates of the laser line calculated for each frame And a distance between the pipe object and the pipe object corresponding to the size of the pipe image is calculated.
제 7 항에 있어서,
상기 제어부는, 상기 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해 이전 프레임과 현재 프레임을 비교하여 차영상을 획득하고, 획득된 차영상을 통해 레이저 라인의 두 끝점에 대한 좌표들을 산출하며, 모든 차영상에 대해 산출된 좌표들을 가지고 가장 유사한 회귀직선을 획득하여 상기 파이프 외곽선으로 인식하는, 파이프 위치 및 자세 탐지 장치.
8. The method of claim 7,
Wherein the control unit compares the previous frame and the current frame with respect to the pipe image obtained at the predetermined time intervals to obtain a difference image, calculates coordinates of the two end points of the laser line through the obtained difference image, And acquires the most similar regression line with the coordinates calculated for the difference image to recognize the pipe as the pipe outline.
제 7 항에 있어서,
상기 제어부는, 상기 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해, 가우시안 필터와 캐니 엣지 검출을 통해 전처리를 실행하고, 전처리 된 영상을 허프 직선 변환(Hough Line Transform)을 통해 파이프의 외곽선 후보군을 검출하며, 각 프레임마다 검출된 외곽선 후보군들을 비교해 최종적인 파이프 외곽선을 도출하는, 파이프 위치 및 자세 탐지 장치.
8. The method of claim 7,
The control unit performs preprocessing on the pipe image obtained on a frame-by-frame basis at predetermined time intervals through Gaussian filter and canny edge detection, and outputs the preprocessed image to the outline candidate group of the pipe through a Hough Line Transform And comparing the detected outline candidates for each frame to derive a final pipe outline.
(a) 레이저 스캔부가 파이프에 레이저 빔을 송출하는 단계;
(b) 카메라부가 상기 레이저 빔이 라인 형태로 나타나는 파이프를 카메라로 촬영하여 파이프 영상을 획득하는 단계;
(c) 레이저 스캔부에서 모터부의 회전력으로 회전 캠이 회전함에 따라 상기 레이저 빔의 송출 각도가 조정되는 단계;
(d) 제어부가 상기 카메라부를 통해 일정 시간마다 획득된 파이프 영상을 프레임 단위로 저장하는 단계;
(e) 제어부가 상기 획득된 파이프 영상을 처리하여 파이프 외곽선과 위치 및 자세(Pose)를 획득하는 단계;
를 포함하는 파이프 위치 및 자세 탐지 방법.
(a) delivering a laser beam to a laser scanning section pipe;
(b) capturing a pipe, in which the camera unit displays the line of the laser beam, with a camera to obtain a pipe image;
(c) adjusting the feeding angle of the laser beam as the rotating cam rotates by the rotational force of the motor unit in the laser scanning unit;
(d) storing, by a frame, the pipe image obtained by the control unit at predetermined time intervals through the camera unit;
(e) the control unit processes the obtained pipe image to obtain a pipe outline and a position and a pose;
Wherein the pipe position and posture detection method comprises:
제 10 항에 있어서,
상기 (c) 단계에서 상기 레이저 스캔부는, 송출부가 상기 회전 캠에 올려져 놓여 있는 상태로 있다가 상기 회전 캠의 회전 동작에 따라 제1 볼록부의 원호를 따라 들어올려져 상기 레이저 빔의 송출 각도가 상향 조정되어지고, 상기 회전 캠의 계속적인 회전 동작에 따라 상기 제1 볼록부의 원호가 끝나는 지점을 지나면 상기 송출부가 상기 제2 볼록부에 닿게 되어 상기 레이저 빔의 송출 각도가 최대 하향각으로 조정되어지는, 파이프 위치 및 자세 탐지 방법.
11. The method of claim 10,
In the step (c), the laser scanning unit may be lifted up along the arc of the first convex portion in accordance with the rotation operation of the rotation cam while the delivery unit is placed on the rotation cam, And the delivery portion is brought into contact with the second convex portion so that the delivery angle of the laser beam is adjusted to the maximum downward angle by passing the point where the arc of the first convex portion ends in accordance with the continuous rotation operation of the rotation cam , Pipe location and attitude detection method.
제 10 항에 있어서,
상기 (e) 단계에서 상기 제어부는, 상기 파이프 영상에 대해 일정 시간마다 프레임 단위로 획득하고, 획득된 각 프레임에 나타난 레이저 라인의 두 끝점 좌표를 산출하며, 각 프레임마다 산출된 레이저 라인의 두 끝점 좌표들을 연결하여 얻는 평행한 두 직선을 파이프 외곽선으로 인식하며, 상기 파이프 영상의 크기에 대응된 파이프 객체와의 거리를 산출하는, 파이프 위치 및 자세 탐지 방법.
11. The method of claim 10,
In the step (e), the controller obtains the pipe image at a predetermined time interval, calculates the coordinates of the two end points of the laser line in each of the obtained frames, and calculates two end points of the laser line calculated for each frame The two parallel straight lines obtained by connecting the coordinates are recognized as a pipe outline and the distance between the pipe object and the pipe object corresponding to the size of the pipe image is calculated.
제 12 항에 있어서,
상기 (e) 단계에서 상기 제어부는, 상기 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해 이전 프레임과 현재 프레임을 비교하여 차영상을 획득하고, 획득된 차영상을 통해 레이저 라인의 두 끝점에 대한 좌표들을 산출하며, 모든 차영상에 대해 산출된 좌표들을 가지고 가장 유사한 회귀직선을 획득하여 상기 파이프 외곽선으로 인식하는, 파이프 위치 및 자세 탐지 방법.
13. The method of claim 12,
In the step (e), the controller compares the previous frame and the current frame with respect to the pipe image obtained in units of frames at the predetermined time intervals to obtain a difference image, And obtaining the most similar regression line with the calculated coordinates for all the difference images and recognizing the pipe line as the pipe outline.
제 12 항에 있어서,
상기 (e) 단계에서 상기 제어부는, 상기 일정 시간마다 프레임 단위로 획득된 파이프 영상에 대해, 가우시안 필터와 캐니 엣지 검출을 통해 전처리를 실행하고, 전처리 된 영상을 허프 직선 변환(Hough Line Transform)을 통해 파이프의 외곽선 후보군을 검출하며, 각 프레임마다 검출된 외곽선 후보군들을 비교해 최종적인 파이프 외곽선을 도출하는, 파이프 위치 및 자세 탐지 방법.
13. The method of claim 12,
In the step (e), the controller may perform preprocessing on a pipe image obtained on a frame-by-frame basis at predetermined time intervals through Gaussian filter and canny edge detection, and perform Hough Line Transform And detecting a candidate outline of the pipe through each of the frames and comparing the detected outline candidates for each frame to derive a final pipe outline.
KR1020170049596A 2017-04-18 2017-04-18 Apparatus for detecting a pipe position and pose, and its method for detecting a pipe position and pose KR101970789B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170049596A KR101970789B1 (en) 2017-04-18 2017-04-18 Apparatus for detecting a pipe position and pose, and its method for detecting a pipe position and pose

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170049596A KR101970789B1 (en) 2017-04-18 2017-04-18 Apparatus for detecting a pipe position and pose, and its method for detecting a pipe position and pose

Publications (2)

Publication Number Publication Date
KR20180116832A true KR20180116832A (en) 2018-10-26
KR101970789B1 KR101970789B1 (en) 2019-04-22

Family

ID=64098937

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170049596A KR101970789B1 (en) 2017-04-18 2017-04-18 Apparatus for detecting a pipe position and pose, and its method for detecting a pipe position and pose

Country Status (1)

Country Link
KR (1) KR101970789B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110827359A (en) * 2019-10-29 2020-02-21 武汉大学 Checkerboard trihedron-based camera and laser external reference checking and correcting method and device
KR20230015011A (en) * 2021-07-22 2023-01-31 한국생산기술연구원 length recognition device for pipe and method thereof
WO2023101218A1 (en) * 2021-11-30 2023-06-08 한국전자통신연구원 Rail detection apparatus and method for autonomous driving of mobile robot in greenhouse environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100892441B1 (en) * 2008-06-27 2009-04-14 대한항업(주) Surveying system
KR100936361B1 (en) * 2007-09-19 2010-01-12 엘지이노텍 주식회사 Three dimensions space sensor
KR101323452B1 (en) * 2012-09-28 2013-10-29 한국원자력연구원 The method for grasping the pipe for the pipe climbing robot
KR20150022523A (en) * 2013-08-23 2015-03-04 한국원자력연구원 Inserting device for in-pipe robot
KR101546700B1 (en) * 2014-11-28 2015-08-24 한국건설기술연구원 System and method for recognizing road pothole area using image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100936361B1 (en) * 2007-09-19 2010-01-12 엘지이노텍 주식회사 Three dimensions space sensor
KR100892441B1 (en) * 2008-06-27 2009-04-14 대한항업(주) Surveying system
KR101323452B1 (en) * 2012-09-28 2013-10-29 한국원자력연구원 The method for grasping the pipe for the pipe climbing robot
KR20150022523A (en) * 2013-08-23 2015-03-04 한국원자력연구원 Inserting device for in-pipe robot
KR101502394B1 (en) 2013-08-23 2015-03-13 한국원자력연구원 Inserting device for in-pipe robot
KR101546700B1 (en) * 2014-11-28 2015-08-24 한국건설기술연구원 System and method for recognizing road pothole area using image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110827359A (en) * 2019-10-29 2020-02-21 武汉大学 Checkerboard trihedron-based camera and laser external reference checking and correcting method and device
KR20230015011A (en) * 2021-07-22 2023-01-31 한국생산기술연구원 length recognition device for pipe and method thereof
WO2023101218A1 (en) * 2021-11-30 2023-06-08 한국전자통신연구원 Rail detection apparatus and method for autonomous driving of mobile robot in greenhouse environment

Also Published As

Publication number Publication date
KR101970789B1 (en) 2019-04-22

Similar Documents

Publication Publication Date Title
US11958197B2 (en) Visual navigation inspection and obstacle avoidance method for line inspection robot
US11046530B2 (en) Article transfer apparatus, robot system, and article transfer method
US9886632B1 (en) Systems and methods for autonomous perpendicular imaging of test squares
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
KR101970789B1 (en) Apparatus for detecting a pipe position and pose, and its method for detecting a pipe position and pose
US20180129856A1 (en) Systems and methods for adaptive scanning based on calculated shadows
US20170139410A1 (en) Indoor monitoring system and method for structure
CN109739239B (en) Planning method for uninterrupted instrument recognition of inspection robot
CN111178295A (en) Parking space detection and model training method and device, vehicle, equipment and storage medium
WO2018046617A1 (en) Method and system for calibrating multiple cameras
US20070076946A1 (en) Object search apparatus, robot system equipped with object search apparatus, and object search method
JP2004317507A (en) Axis-adjusting method of supervisory device
TWI493153B (en) Non-contact measurement device and method for object space information and the method thereof for computing the path from capturing the image
CN114034704A (en) Waste roller three-dimensional detection device and method based on multi-source data fusion
CN109781010B (en) Point cloud data calculation method, device and system for large-range data splicing
JP2014181092A (en) Position detecting device for boom end
CN109143167B (en) Obstacle information acquisition device and method
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
US20230297068A1 (en) Information processing device and information processing method
JP2007275952A (en) Non-contact automatic method for detecting welding line and apparatus therefor
JP2019120491A (en) Method for inspecting defects and defects inspection system
KR20170142379A (en) Apparatus for detect dimensional welding line of welding robot using image processing
JP6784802B2 (en) Crack inspection equipment and crack inspection method
JP2015085434A (en) Robot, image processing method and robot system
CN115760766A (en) Defect identification digital assay receiving method and system based on image identification technology

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant