KR100859335B1 - Tracking method for welding start-point using lvs and visual servoing - Google Patents

Tracking method for welding start-point using lvs and visual servoing Download PDF

Info

Publication number
KR100859335B1
KR100859335B1 KR1020070059701A KR20070059701A KR100859335B1 KR 100859335 B1 KR100859335 B1 KR 100859335B1 KR 1020070059701 A KR1020070059701 A KR 1020070059701A KR 20070059701 A KR20070059701 A KR 20070059701A KR 100859335 B1 KR100859335 B1 KR 100859335B1
Authority
KR
South Korea
Prior art keywords
robot
coordinates
elves
lvs
welding
Prior art date
Application number
KR1020070059701A
Other languages
Korean (ko)
Inventor
홍영화
홍진일
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR1020070059701A priority Critical patent/KR100859335B1/en
Application granted granted Critical
Publication of KR100859335B1 publication Critical patent/KR100859335B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/12Automatic feeding or moving of electrodes or work for spot or seam welding or cutting
    • B23K9/127Means for tracking lines during arc welding or cutting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/095Monitoring or automatic control of welding parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0052Gripping heads and other end effectors multiple gripper units or multiple end effectors
    • B25J15/0066Gripping heads and other end effectors multiple gripper units or multiple end effectors with different types of end effectors, e.g. gripper and welding gun
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45104Lasrobot, welding robot

Abstract

A welding starting-point tracking method using LVS(Laser Vision System) and visual servoing is provided to minimize an error of the welding starting-points and further improve operating stability by applying a visual servoing concept to the LVS, thereby tracking welding starting-points continuously and fixedly maintaining the posture of a robot. A welding starting-point tracking method using LVS and visual servoing comprises: an LVS image obtaining step of receiving coordinates of a robot such that the LVS obtains images(S203); a robot tool end moving step of adding proper increments to the coordinates of the robot such that the LVS recognize bottom face, side faces, and a front face in a welding block through the obtained images, and moving a position of the robot tool end such that a robot tool end maintains a predetermined distance relative to a recognized face in the bottom face, the side faces, and the front face in the welding block; and an LVS starting-point calculating step of calculating a starting point of the LVS using information on the bottom face, the side faces, and the front face in the welding block recognized by the LVS.

Description

엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법{Tracking method for welding start-point using LVS and visual servoing}Tracking method for welding start-point using LVS and visual servoing}

도 1a 및 도 1b는 종래의 엘브이에스를 이용한 용접시작점 추적방법을 설명하기 위해 도시한 순서도이다. 1A and 1B are flowcharts illustrating a welding start point tracking method using a conventional elves.

도 2는 종래의 엘브이에스를 이용한 용접시작점 추적방법을 설명하기 위해 도시한 개념도이다. 2 is a conceptual view illustrating a welding start point tracking method using a conventional elves.

도 3은 본 발명에 따른 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법을 설명하기 위해 도시한 순서도이다. 3 is a flowchart illustrating a welding start point tracking method using the LV and the visual servoing according to the present invention.

도 4는 도 3에 도시된 실시예를 설명하기 위해 도시한 개념도이다. 4 is a conceptual diagram illustrating the embodiment shown in FIG. 3.

본 발명은 엘브이에스(LVS)와 비주얼서보잉(Visual Servoing)을 이용한 용접시작점 추적방법에 관한 것이다. The present invention relates to a welding start point tracking method using LVS and Visual Servoing.

최근 로봇 기술의 발달로 용접 분야에도 수직다관절 6축 로봇이 사용된다. 이러한 수직다관절 6축 로봇의 툴 끝단에는 용접토치와 건이 부착되는데, 로봇의 손목은 2축 또는 3축의 회전 운동능력을 가지며, 3축의 경우 일반적으로 사람의 손목과 비슷한 요(Yaw, 꼬임, Tilt), 피치(Pitch, 구부림, Bend), 롤(Roll, 비틀림, Twist) 등의 운동을 한다. 이러한 구성은 마치 사람이 용접하는 것과 동일하게 용접을 수행한다. With the recent development of robot technology, vertical articulated six-axis robots are also used in the welding field. A welding torch and a gun are attached to the tool tip of the 6-axis articulated six-axis robot, and the robot's wrist has the ability to rotate in two or three axes, and in the case of three axes, yaw, twist, and tilt are generally similar to the human wrist. ), Pitch, Bend, Roll, Twist, etc. This configuration performs welding as if it were a human welding.

이때, 모든 용접 자세에 알맞도록 작업 각도와 이송 각도의 토치 방위와 토치 거리를 고려한 위치에서 용접을 실행하게 된다. At this time, the welding is performed at a position in consideration of the torch orientation and the torch distance of the working angle and the transfer angle to suit all the welding postures.

이러한 로봇을 이용하여 용접을 실행하기 위해서는 용접 작업 전에 미리 용접시작점을 추적해 두는 것이 중요한데, 특히 사방이 제한된 용접블럭 내에서 용접시작점을 추적하는 작업은 로봇과 용접부재와의 충돌 방지 및 추적에 소요되는 시간의 지연 방지 등의 다양한 문제와 관련되어 있어서, 보다 정확하고 신속한 추적방법이 요구되는 바이다. In order to perform welding using such a robot, it is important to track the welding start point in advance before the welding operation. In particular, the tracking of the welding start point in the all-limited welding block is necessary to prevent and track the collision between the robot and the welding member. In connection with a variety of problems, such as preventing time delays, more accurate and faster tracking methods are required.

종래에는 이러한 로봇을 이용하여 용접시작점을 찾기 위해서, 미리 교시된 용접시작점의 공간상 좌표가 어느 정도 파악되는 것이 선행 요구되었는데, 도 1a 내지 도 2를 병행 참조하면, 용접시작점을 찾기 위해서 사전에 대략적인 교시점을 알고 있다는 전제 하에, 바닥면을 센싱하기 위한 자세를 취하여 ①에서 ②의 경로로 -z 방향으로 움직이며 바닥면을 찾는다(S101). 바닥면이 발견되면 바닥면 상의 한 점을 찾는다(S103). 찾은 점을 기준으로 바닥면에서 z 방향으로 일정거리를 유지한 후에 ③과 같이 이동한다(S105). 그리고 바닥면 상에서 두 점을 찾는데, 이러한 두 점 찾기를 3회 반복 수행하여, 6점(#1, #2, #3, #4, #5, #6)을 획득한 다(S107). Conventionally, in order to find a welding start point using such a robot, it has been previously required to grasp the spatial coordinates of the welding start point previously taught to some extent. Referring to FIG. 1A to FIG. Under the premise of knowing the typical teaching point, take a posture for sensing the floor surface and find the floor surface by moving in the -z direction from the path of ① to ② (S101). If the bottom surface is found, a point on the bottom surface is found (S103). On the basis of the found point, after maintaining a certain distance in the z direction from the bottom surface is moved as in ③ (S105). In order to find two points on the bottom surface, the two points are repeatedly searched three times to obtain six points (# 1, # 2, # 3, # 4, # 5, and # 6) (S107).

다음으로, 옆면을 센싱하기 위한 자세로 변경한 후, ④에서 ⑤의 경로로 +y 방향으로 움직이며 옆면을 찾는다(S109). 옆면이 발견되면 옆면 상의 한 점을 찾는다(S111). 찾은 점을 기준으로 옆면에서 y방향으로 일정거리를 유지한 후에 ⑥에서 ⑦의 경로로 앞면을 향해 +x방향으로 이동한다(S113). Next, after changing to the posture for sensing the side, and moving in the + y direction in the path ④ to ⑤ to find the side (S109). If a side is found, a point on the side is found (S111). After maintaining a certain distance in the y direction from the side on the basis of the found point it moves in the + x direction toward the front in the path of ⑥ to ⑦ (S113).

이후, 공간 상의 +x 방향으로 움직이며 모서리를 찾는데, 여기서 모서리는 용접선을 말한다(S115). 모서리가 발견되면, 모서리에 대응된 한 점을 찾는데(S117), 찾은 한 점을 기준으로 용접선에서 일정거리를 유지하도록 이동하여(S119), 첫 번째 모서리 점(#7)을 찾고(S121), 이어서 ⑧과 같이 -z 방향으로 일정거리를 움직이며(S123), 두 번째 모서리 점(#8)을 찾는다(S125). Then, moving in the + x direction on the space to find the edge, where the edge refers to the welding line (S115). If an edge is found, find a point corresponding to the edge (S117), move to maintain a certain distance from the weld line based on the found point (S119), find the first corner point (# 7) (S121), Subsequently, as shown in ⑧, a certain distance is moved in the -z direction (S123), and the second corner point (# 8) is found (S125).

이후, 바닥면 상의 6점(#1, #2, #3, #4, #5, #6)의 정보로 바닥면의 평면 방정식을 생성하고(S127), 첫 번째 모서리 점(#7)과 두 번째 모서리 점(#8)의 정보로 모서리의 직선 방정식을 생성한다(S129). 그런 다음에, 상기 바닥면의 평면 방정식과 상기 모서리의 직선 방정식으로부터 교점 좌표를 구한다(S131). 끝으로, 상기 교점 좌표를 시작점으로 저장한다(S133)Subsequently, a plane equation of the bottom surface is generated with the information of six points (# 1, # 2, # 3, # 4, # 5, # 6) on the floor surface (S127), and the first corner point (# 7) and A straight line equation of the corner is generated using the information of the second corner point (# 8) (S129). Then, the intersection coordinates are obtained from the plane equation of the bottom surface and the linear equation of the corner (S131). Finally, the intersection coordinates are stored as a starting point (S133).

그런데, 이러한 종래의 엘브이에스를 이용한 용접시작점 추적방법을 이용하면 용접블럭 내에서 용접시작점을 추적하기 위하여 다음과 같은 문제점이 야기되었다. However, using the conventional welding start point tracking method using the conventional elves caused the following problems in order to track the welding start point in the welding block.

첫째, 열린 공간에서 용접시작점을 찾는 경우와 달리 용접로봇의 끝단이 움직이는 진행방향으로 레이저 띠가 위치해 있기 때문에 센싱 시 로봇과 용접부재와 의 충돌을 회피하기 위하여 로봇의 자세에 많은 제약이 따르게 되는 문제점이 있었다. First, unlike the case of finding the welding start point in the open space, since the laser band is located in the direction of movement of the welding robot, many restrictions are placed on the attitude of the robot to avoid collision between the robot and the welding member during sensing. There was this.

둘째, 엘브이에스가 용접부재를 인식한 후에 용접부재의 정보를 로봇의 제어기에 송신하게 되면 로봇의 제어기는 송신 받은 정보를 통해 용접부재의 공간적인 위치를 파악할 수 있는데, 용접부재의 상황에 따라 다양한 영상의 정보를 모두 로봇의 제어기에 송신해 줄 수 없기 때문에 매우 제한적인 정보만을 이용하여 용접시작점의 위치를 추적해야 하는 문제점이 있었다. Second, if the robot recognizes the welding member and then transmits the welding member information to the robot controller, the controller of the robot can determine the spatial position of the welding member based on the received information. Since the information of various images cannot be transmitted to the controller of the robot, there is a problem that the location of the welding start point must be tracked using only very limited information.

아울러 상기와 같은 두 가지 문제점을 제외하고서라도 종래의 용접시작점 추적방법에는 대략적인 용접시작점에 대한 정보를 사전에 반드시 파악해 두어야 했으며, 용접시작점을 추적하기 위해 매우 다양한 자세 변경이 요구되어 용접시작점의 추적에 많은 시간이 요구되는 불편이 따랐다. In addition, except for the above two problems, the conventional welding starting point tracking method must grasp the information about the rough welding starting point in advance, and various posture changes are required to track the welding starting point. A lot of time was required for the inconvenience.

상기 문제점을 해결하기 위해 안출된 본 발명은 엘브이에스에 비주얼서보잉 개념을 적용하여 연속된 동작으로 용접시작점을 추적하고, 로봇의 자세를 고정적으로 유지시켜 추적 도출된 용접시작점의 오차가 최소화 될 수 있는 보다 안정도가 향상된 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법을 제공하는 것을 기술적 과제로 삼는다. In order to solve the above problems, the present invention applies a visual servoing concept to an LV to track a welding start point in a continuous motion, and keeps the robot's posture fixed to minimize the error in the tracking start point. The technical task of this method is to provide a welding start point tracking method using LVS and visual servoing.

상기 기술적 과제를 달성하기 위한 본 발명의 사상에 따르면, 용접블럭 내에서 용접시작점을 찾는 엘브이에스(LVS)와 비주얼서보잉을 이용한 용접시작점 추적방법에 있어서, a) 로봇 툴 끝단의 좌표를 전송받아 상기 엘브이에스가 영상을 획득하는 엘브이에스영상 획득단계; b) 획득된 영상을 통해 상기 엘브이에스가 상기 용접블럭 내의 바닥면, 옆면 및 앞면을 모두 인식하도록 상기 로봇의 좌표에 적정 증분값을 가하며, 동시에 상기 바닥면, 옆면 및 앞면 중 상기 엘브이에스가 인식한 면에 대해서 상기 로봇 툴 끝단이 일정거리를 유지하도록 상기 로봇 툴 끝단을 공간상에서 이동시키는 로봇툴 끝단 이동단계; 및 c) 상기 엘브이에스가 인식한 상기 용접블럭 내의 바닥면, 옆면 및 앞면의 정보를 이용하여 상기 엘브이에스의 시작점을 계산하는 엘브이에스시작점 계산단계;를 포함하는 것을 특징으로 하는 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법을 제공한다. According to the spirit of the present invention for achieving the above technical problem, in the welding start point tracking method using the LVS (LVS) to find the welding start point in the welding block and the visual servoing, a) transmitting the coordinates of the end of the robot tool Acquiring an image of the elves to acquire the image of the elves; b) an appropriate increment value is applied to the coordinates of the robot so that the LS recognizes all the bottom, side, and front surfaces of the welding block through the acquired image, and at the same time, the elves among the bottom, side, and front surfaces. A robot tool end moving step of moving the robot tool end in space such that the robot tool end maintains a predetermined distance with respect to the recognized surface; And c) an elves start point calculation step of calculating an eleven point starting point of the elves using information of the bottom, side, and front surfaces of the welding block recognized by the elves. We provide a welding start point tracking method using S and visual servoing.

이때, 상기 단계 b)는, b-1-1) 획득된 영상을 통해 상기 엘브이에스가 상기 바닥면 또는 상기 옆면 또는 상기 앞면을 모두 인식하지 못할 경우, 상기 로봇 툴 끝단의 좌표에 Z방향으로 적정 증분값을 가하여 상기 엘브이에스의 좌표로 저장하는 엘브이에스좌표 저장단계; b-2) 저장된 상기 엘브이에스의 좌표를 상기 로봇에 전송하여 상기 로봇 툴 끝단의 위치를 이동시키는 로봇툴 끝단 이동단계; 및 b-3) 수정된 상기 로봇의 좌표를 전송받아 상기 엘브이에스가 영상을 재획득하는 엘브이에스영상 반복획득단계;를 포함하는 것이 바람직하다. At this time, the step b) is, in the Z direction to the coordinates of the end of the robot tool when the elves do not recognize both the bottom surface, the side surface or the front surface through the obtained image b-1-1) An LV coordinate coordinate storing step of adding an appropriate increment value and storing the coordinates of the LV coordinate; b-2) a robot tool end movement step of transmitting the stored coordinates of the LV to the robot to move the position of the end of the robot tool; And b-3) iteratively acquiring the image of the el VB to receive the modified coordinates of the robot to re-acquire the image.

또한, 상기 단계 b)는, b-1-2) 획득된 영상을 통해 상기 엘브이에스가 상기 바닥면 만을 인식한 경우, 상기 로봇의 좌표 중 X좌표, 상기 로봇의 Y좌표에 적정 증분값을 가한 Y좌표, 상기 엘브이에스가 인식한 상기 바닥면의 Z좌표를 상기 엘브이에스의 좌표로 저장하는 엘브이에스좌표 저장단계; b-2) 저장된 상기 엘브이에스의 좌표를 상기 로봇에 전송하여 상기 로봇 툴 끝단의 위치를 이동시키는 로봇툴 끝단 이동단계; 및 b-3) 수정된 상기 로봇의 좌표를 전송받아 상기 엘브이에스가 영상을 재획득하는 엘브이에스영상 반복획득단계;를 포함하는 것이 바람직하다. In addition, in step b), when the BSL recognizes only the bottom surface through the acquired image, b-1-2), an appropriate increment value is applied to the X coordinate of the robot coordinates and the Y coordinate of the robot. An EL coordinate coordinate storage step of storing the applied Y coordinate and the Z coordinate of the bottom surface recognized by the EL BS as the coordinates of the EL BS; b-2) a robot tool end movement step of transmitting the stored coordinates of the LV to the robot to move the position of the end of the robot tool; And b-3) iteratively acquiring the image of the el VB to receive the modified coordinates of the robot to re-acquire the image.

또한, 상기 단계 b)는, b-1-3) 획득된 영상을 통해 상기 엘브이에스가 상기 바닥면 및 상기 옆면 만을 인식한 경우, 상기 로봇의 좌표 중 X좌표에 적정 증분값을 가한 X좌표, 상기 엘브이에스가 인식한 옆면의 Y좌표, 상기 엘브이에스가 인식한 바닥면의 Z좌표를 상기 엘브이에스의 좌표로 저장하는 엘브이에스좌표 저장단계; b-2) 저장된 상기 엘브이에스의 좌표를 상기 로봇에 전송하여 상기 로봇 툴 끝단의 위치를 이동시키는 로봇툴 끝단 이동단계; 및 b-3) 수정된 상기 로봇의 좌표를 전송받아 상기 엘브이에스가 영상을 재획득하는 엘브이에스영상 반복획득단계;를 포함하는 것이 바람직하다. In addition, in step b), when the BSL recognizes only the bottom surface and the side surface through the obtained image b-1-3), the X coordinates to which an appropriate increment value is applied to the X coordinates among the coordinates of the robot. And storing the Y coordinate of the side recognized by the LV, and the Z coordinate of the bottom surface recognized by the LV, as the coordinates of the EL BS. b-2) a robot tool end movement step of transmitting the stored coordinates of the LV to the robot to move the position of the end of the robot tool; And b-3) iteratively acquiring the image of the el VB to receive the modified coordinates of the robot to re-acquire the image.

본 발명과 본 발명의 이점 및 본 발명에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예가 예시된 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, the advantages of the present invention, and the objects achieved by the present invention, reference should be made to the accompanying drawings in which preferred embodiments of the present invention are illustrated.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도면에서, 도 3은 본 발명에 따른 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법을 설명하기 위해 도시한 순서도이고, 도 4는 도 3에 도시된 실시예를 설명하기 위해 도시한 개념도이다. In the drawings, FIG. 3 is a flowchart illustrating a welding start point tracking method using an LV and visual servoing according to the present invention, and FIG. 4 is a conceptual diagram illustrating the embodiment shown in FIG. 3. .

도 3 및 도 4를 병행 참조하여, 본 발명의 사상에 따른 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법의 바람직한 실시예를 살펴보면, 먼저, 로봇 툴(Tool)의 공간상 위치를 로봇의 좌표(Prx, Pry, Prz, Rry, Rrp, Rrr)로 획득하는 단계(S201)를 포함한다. 본 실시예의 로봇은 6축 로봇으로 6자유도(六自由度, 6 Degrees of freedom) 상의 좌표를 가지는데, 상기 로봇의 좌표(Prx, Pry, Prz, Rry, Rrp, Rrr)에서 'Prx'는 '깊이', 'Pry'는 '수평', 'Prz'는 '수직', 'Rry'는 '요(yaw), 'Rrp'는 '피치(pitch), 'Rrr'는 '롤(roll)'에 해당된다. 여기서 로봇의 좌표(Prx, Pry, Prz, Rry, Rrp, Rrr)는 로봇 툴 끝단(TCP: Tool Center Point)의 좌표를 말한다.Referring to FIG. 3 and FIG. 4 in parallel, a preferred embodiment of the welding start point tracking method using the LV and visual servoing according to the spirit of the present invention, first, the spatial position of the robot tool (Tool) of the robot A step S201 of obtaining the coordinates Prx, Pry, Prz, Rry, Rrp, and Rrr is included. The robot of the present embodiment is a six-axis robot and has coordinates on six degrees of freedom. In the coordinates of the robot (Prx, Pry, Prz, Rry, Rrp, Rrr), 'Prx' is 'Depth', 'Pry' 'horizontal', 'Prz' 'vertical', 'Rry' 'yaw', 'Rrp' 'pitch', 'Rrr' 'roll' Corresponds to Here, the coordinates of the robot (Prx, Pry, Prz, Rry, Rrp, Rrr) refer to the coordinates of the robot tool tip (TCP).

이후, 로봇좌표를 엘브이에스에 전송하여 영상을 획득하라는 신호를 보내는 단계(S203)을 포함한다. 엘브이에스란 레이저광을 주사하는 광주사체와, 주사된 레이저광을 촬상하는 카메라를 포함하는 레이저 비전 시스템(LVS: Laser Vision System)을 통칭하는 것으로, 관련 업계에서 널리 주지된 기술 내용이므로 이에 대한 추가 부연 설명은 생략한다. Thereafter, the method transmits a signal to acquire the image by transmitting the robot coordinates to the LS (S203). ELV is a generic term for a laser vision system (LVS) that includes a photoconductor for scanning laser light and a camera for imaging the scanned laser light. Additional explanations are omitted.

그리고 엘브이에스에서 영상을 획득하는 단계(S205)를 포함한다. And acquiring an image from the LCD.

다음으로, 엘브이에스를 통해 획득한 영상을 판단하는 단계(S207)을 포함한 다. 이때, 상기 엘브이에스에서 획득될 수 있는 영상은 4 가지 유형으로 나누어 지는데, 각각의 유형 별로 세부 단계를 나누어 살펴보면, 첫 번째로, 엘브이에스 영상 상에 아무 것도 보이지 않는 경우의 단계(S221)와, 두 번째로, 엘브이에스 영상 상에 바닥면 만이 인식되는 경우의 단계(S225)와, 세 번째로, 엘브이에스 영상 상에 바닥면과 옆면 만이 인식되는 경우의 단계(S229)와, 끝으로, 엘브이에스 영상 상에 바닥면과, 옆면 및 앞면이 모두 인식되는 경우의 단계(S209)로 분류된다.Next, a step (S207) of determining the image obtained through the elves. In this case, the images that can be acquired in the elves are divided into four types, and when looking at the detailed steps for each type, first, when the nothing is visible on the elves image (S221) And, secondly, when only the bottom surface is recognized on the elves image (S225), and thirdly, if only the bottom and side surfaces are recognized on the elves image (S229), Finally, it is classified into step S209 when both the bottom surface, the side surface and the front surface are recognized on the LCD image.

먼저, 첫 번째로, 엘브이에스 영상 상에 아무 것도 보이지 않는 경우의 단계(S221)에서는 도 4의 ①처럼 로봇의 좌표(Prx, Pry, Prz, Rry, Rrp, Rrr)에 Z방향으로 적정한 증분값을 가하여 엘브이에스의 좌표(Plx, Ply, Plz, Rly, Rlp, Rlr)로 저장되는데, 결과적으로 Plx=Prx이며, Ply=Pry이며, Plz=Prz-offset.z(오프셋 된 Z방향 증분값)이며, Rly=Rry이며, Rlp=Rrp이며, Rlr=Rrr이 된다. First, in step S221 when nothing is shown on the elves image, an appropriate increment in the Z direction to the coordinates (Prx, Pry, Prz, Rry, Rrp, Rrr) of the robot is indicated as in ① of FIG. Values are stored as coordinates (Plx, Ply, Plz, Rly, Rlp, Rlr) of values, resulting in Plx = Prx, Ply = Pry, and Plz = Prz-offset.z (offset Z-direction increment). Value), Rly = Rry, Rlp = Rrp, and Rlr = Rrr.

그리고 저장된 엘브이에스의 좌표(Plx, Ply, Plz, Rly, Rlp, Rlr)는 상기 로봇으로 전송되는 단계(S241)를 포함한다. 이후, 로봇은 전송된 엘브이에스 좌표로 로봇 툴 끝단을 이동시키며(S243), 이렇게 이동된 로봇 툴 끝단 위치의 좌표는 다시 엘브이에스에 전송되어(S201) 영상을 획득하도록 지령되는 단계(S203)가 반복 수행된다. And the coordinates (Plx, Ply, Plz, Rly, Rlp, Rlr) of the stored elves includes the step (S241) transmitted to the robot. Thereafter, the robot moves the robot tool end to the transmitted elves coordinates (S243), and the coordinates of the moved robot tool end position are transmitted to the elves again (S201) and are commanded to acquire an image (S203). ) Is repeated.

두 번째로, 엘브이에스 영상 상에 바닥면 만이 인식되는 경우의 단계(S225)는 도 4의 ②처럼 로봇의 좌표(Prx, Pry, Prz, Rry, Rrp, Rrr)와 엘브이에스가 인식한 바닥면의 한 점의 좌표(Pex, Pey, Pez, Rey, Rep, Rer)를 이용하여 엘브이에스의 좌표(Plx, Ply, Plz, Rly, Rlp, Rlr)로 저장되는데, 결과적으로 Plx=Prx, Ply=Pry+offset.y, Plz=Pez 으로 수정되어 X방향은 로봇 툴의 좌표로, Y방향은 로봇 툴끝단의 좌표에 적정한 증분값을 가한 좌표로 저장하며 Z방향은 인식한 바닥에 대해 일정한 거리를 유지하도록 인식한 바닥의 좌표로 저장한다.Second, the step (S225) in the case where only the bottom surface is recognized on the elves image is recognized by coordinates (Prx, Pry, Prz, Rry, Rrp, Rrr) and elves of the robot as shown in ② of FIG. Using the coordinates of one point on the floor (Pex, Pey, Pez, Rey, Rep, Rer), it is stored as the coordinates of Elves (Plx, Ply, Plz, Rly, Rlp, Rlr). As a result, Plx = Prx , Ply = Pry + offset.y, Plz = Pez, so that the X direction is saved as the coordinate of the robot tool, the Y direction is saved as the proper increment value to the coordinate of the robot tool tip, and the Z direction is about the recognized floor. Stored in the coordinates of the floor recognized to maintain a constant distance.

그리고 이러한 엘브이에스의 좌표(Plx, Ply, Plz, Rly, Rlp, Rlr)는 상기 로봇으로 전송된다.(S241) 이후, 로봇은 전송된 엘브이에스 좌표로 로봇 툴 끝단을 이동시키며(S243), 이렇게 이동된 로봇 툴 끝단 위치의 좌표는 다시 엘브이에스에 전송되어(S201) 영상을 획득하도록 지령되는 단계(S203)가 반복 수행된다. The coordinates (Plx, Ply, Plz, Rly, Rlp, and Rlr) of the elves are transmitted to the robot (S241). Then, the robot moves the end of the robot tool to the transmitted elves coordinates (S243). The coordinates of the end position of the robot tool thus moved are transmitted to the LS again (S201), and the command (S203) is repeatedly performed to acquire an image.

세 번째로, 엘브이에스 영상 상에 바닥면과 옆면 만이 인식되는 경우의 단계(S229)는 도 4의 ③처럼 로봇의 좌표(Prx, Pry, Prz, Rry, Rrp, Rrr)와 엘브이에스가 인식한 바닥면과 옆면이 이루는 교선의 한 점의 좌표(Pex, Pey, Pez, Rey, Rep, Rer)를 이용하여 엘브이에스의 좌표(Plx, Ply, Plz, Rly, Rlp, Rlr)로 저장되는데, 결과적으로 Plx=Prx+offset.x, Ply=Pey, Plz=Pez 으로 수정되어 X방향은 로봇 툴끝단의 좌표에 적정한 증분값을 가한 좌표로, Y방향과 Z방향은 인식한 바닥과 옆면에 대해 일정한 거리를 유지하도록 인식한 바닥과 옆면의 좌표로 저장한다.Third, in the case where only the bottom surface and the side surface are recognized on the elves image (S229), the coordinates (Prx, Pry, Prz, Rry, Rrp, Rrr) and elves of the robot are as shown in FIG. Save as coordinates of PLS (Plx, Ply, Plz, Rly, Rlp, Rlr) using coordinates (Pex, Pey, Pez, Rey, Rep, Rer) of the intersection of the recognized floor and side As a result, Plx = Prx + offset.x, Ply = Pey, Plz = Pez is modified so that the X direction is a coordinate that adds an appropriate increment value to the coordinates of the robot tool tip, and the Y and Z directions are recognized floors and sides. Store the coordinates of the floor and side recognized to maintain a constant distance to.

그리고 이러한 엘브이에스의 좌표(Plx, Ply, Plz, Rly, Rlp, Rlr)는 상기 로봇으로 전송된다.(S241) 이후, 로봇은 전송된 엘브이에스 좌표로 로봇 툴 끝단을 이동시키며(S243), 이렇게 이동된 로봇 툴 끝단 위치의 좌표는 다시 엘브이에스에 전송되어(S201) 영상을 획득하도록 지령되는 단계(S203)가 반복 수행된다.The coordinates (Plx, Ply, Plz, Rly, Rlp, and Rlr) of the elves are transmitted to the robot (S241). Then, the robot moves the end of the robot tool to the transmitted elves coordinates (S243). The coordinates of the end position of the robot tool thus moved are transmitted to the LS again (S201), and the command (S203) is repeatedly performed to acquire an image.

끝으로, 엘브이에스 영상 상에 바닥면과, 옆면 및 앞면이 모두 인식되는 경우(S209)에는 상기 바닥면, 옆면 및 앞면에 해당하는 각각의 정보를 이용하여 도 4 의 ④와 같이 상기 엘브이에스의 시작점을 계산할 수 있으므로, 엘브이에스의 시작점을 계산하는 단계(S211)가 수행된다. Finally, when both the bottom surface, the side surface, and the front surface are recognized on the elves image (S209), the elbow is shown as ④ of FIG. 4 by using respective information corresponding to the bottom surface, side surface, and front surface. Since the starting point of the S can be calculated, the step S211 of calculating the starting point of the elves is performed.

이와 같이 계산된 엘브이에스의 시작점은 로봇에 전송되고(S213), 이후, 로봇의 용접시작점이 산출된다(S215).The start point of the elves calculated as described above is transmitted to the robot (S213), and then the welding start point of the robot is calculated (S215).

도 4를 참조하여, 본 발명의 사상에 따른 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법을 이해하기 쉽도록 간단한 일 예를 들어 설명하고자 한다.Referring to Figure 4, it will be described with a simple example to understand the welding start point tracking method using the LS and the visual servoing according to the spirit of the present invention.

도 4에 도시된 구역은 용접블럭 내부 공간으로 바닥면과 옆면 및 앞면이 서로 거의 수직되게 형성되어 있다. 먼저, 로봇이 용접시작점을 추적하기 위해 자세를 취한 후에, ①과 같이 바닥면을 향해 접근하는데, 접근 중에 바닥면이 보이면, ②와 같이 바닥면으로부터 적정 거리를 유지하여 옆면을 향해 접근하게 된다. 이후, 바닥면과 옆면이 동시에 보이면, ③과 같이 바닥면 및 옆면에 대해 일정거리를 유지하며 앞면을 향해 접근하게 된다. 이후 ④와 같이 앞면이 검출되면 로봇의 동작을 멈춘다. 따라서, 상기 바닥면, 상기 옆면 및 상기 앞면에 대한 엘브이에스의 센싱을 통해 로봇은 종래와 달리 능동적으로 용접시작점을 추적해 낼 수 있다.  The area shown in FIG. 4 is an inner space of the welding block, and the bottom surface, the side surface, and the front surface are formed to be substantially perpendicular to each other. First, the robot poses to track the starting point of welding, and then approaches toward the bottom as shown in ①. If the bottom is visible while approaching, the robot approaches the side by maintaining a proper distance from the bottom as shown in ②. Then, if the bottom and the side is visible at the same time, as shown in ③ to maintain a certain distance with respect to the bottom and the side approaches to the front. Afterwards, if the front side is detected as in ④, the robot stops. Therefore, unlike the conventional method, the robot actively tracks a welding start point through sensing of the elves on the bottom surface, the side surface, and the front surface.

본 발명은 첨부된 도면에 도시된 실시예를 참고하여 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 또는 균등한 타 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to the embodiments shown in the accompanying drawings, it is merely an example, and those skilled in the art will understand that various modifications or equivalent other embodiments are possible therefrom. will be.

따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

본 발명인 엘브이에스를 이용한 용접시작점 추적방법은 종래에 불연속적으로 지나치게 많이 수행되던 각각의 부분동작(면찾기, 용접선 찾기 등)으로 인해 용접시작점 추적에 많은 시간이 소요되던 문제점을 비주얼 서보잉 개념을 적용함으로써, 개별적인 부분동작이나 특별한 목적영상을 가지지 않고서도 연속해서 능동적으로 용접시작점을 추적할 수 있게 되어 작업 상 효율성을 향상시킬 수 있는 기술적 효과가 있다. The welding start point tracking method using the present invention is a visual servoing concept that takes a long time to track the welding start point due to each partial operation (face finding, welding line finder, etc.) that is conventionally performed excessively many times. By applying this, it is possible to continuously track the welding starting point continuously without having the individual partial motion or the special target image, thereby improving the operational efficiency.

또한, 본 발명인 엘브이에스를 이용한 용접시작점 추적방법은 현재의 로봇의 좌표를 엘브이에스에 전송하면 엘브이에스에서는 획득된 영상과 전송된 로봇의 좌표를 비교한 후 로봇의 이동 좌표를 결정해줌으로써, 종래의 제한된 정보에 의한 제한된 로봇의 동작과 달리, 변화 가능한 작업 환경에 대해 향상된 안정도를 제공할 수 있는 기술적 효과가 있다. In addition, the welding start point tracking method using the present invention in the present invention, when the coordinates of the current robot is transmitted to the elves, the elves determine the movement coordinates of the robot after comparing the coordinates of the image and the acquired robot. By virtue of the limited robot's operation by the limited information, it has a technical effect that can provide improved stability to the changeable working environment.

또한, 본 발명인 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법은 로봇의 자세를 고정적으로 유지함으로써, 추적한 용접시작점의 오차를 줄일 수 있는 기술적 효과가 있다.In addition, the welding start point tracking method using the present invention LV and visual servoing has a technical effect of reducing the error of the tracked welding start point by maintaining the position of the robot fixed.

Claims (4)

용접블럭 내에서 용접시작점을 찾는 엘브이에스(LVS)와 비주얼서보잉을 이용한 용접시작점 추적방법에 있어서,In the welding starting point tracking method using LVS and visual servoing to find the starting point in the welding block, a) 로봇의 좌표를 전송받아 상기 엘브이에스가 영상을 획득하는 엘브이에스영상 획득단계;a) elb image acquisition step of receiving the coordinates of the robot to obtain an image of the elves; b) 획득된 영상을 통해 상기 엘브이에스가 상기 용접블럭 내의 바닥면, 옆면 및 앞면을 모두 인식하도록, 상기 로봇의 좌표에 적정 증분값을 가하며 상기 바닥면, 옆면 및 앞면 중 인식된 면에 대해서 상기 로봇 툴 끝단이 일정거리를 유지하도록 상기 로봇툴 끝단의 위치를 이동시키는 로봇툴 끝단 이동단계;b) Applying an appropriate increment value to the coordinates of the robot so that the LS recognizes all the bottom, side and front surface of the welding block through the acquired image, and recognizes the recognized surface among the bottom, side and front surfaces. A robot tool end movement step of moving the position of the robot tool end so that the robot tool end maintains a constant distance; c) 상기 엘브이에스가 인식한 상기 용접블럭 내의 바닥면, 옆면 및 앞면의 정보를 이용하여 상기 엘브이에스의 시작점을 계산하는 엘브이에스시작점 계산단계;를 포함하는 것을 특징으로 하는, c) an elves start point calculation step of calculating an elves' start point using information of the bottom, side, and front surfaces of the welding block recognized by the elves. 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법.Welding start point tracking method using LVS and visual servoing. 제 1 항에 있어서,The method of claim 1, 상기 단계 b)는,Step b), b-1-1) 획득된 영상을 통해 상기 엘브이에스가 상기 바닥면 또는 상기 옆면 또는 상기 앞면을 모두 인식하지 못할 경우, 상기 로봇 툴 끝단의 좌표에 Z방향으 로 적정 증분값을 가하여 상기 엘브이에스의 좌표로 저장하는 엘브이에스좌표 저장단계; b-1-1) If the elves do not recognize the bottom surface, the side surface, or the front surface through the acquired image, an appropriate increment value in the Z direction is added to the coordinates of the end of the robot tool, and the Storing an LV coordinates to store the coordinates of the BS; b-2) 저장된 상기 엘브이에스의 좌표를 상기 로봇에 전송하여 상기 로봇 툴 끝단의 위치를 이동시키는 로봇툴 끝단 이동단계; 및b-2) a robot tool end movement step of transmitting the stored coordinates of the LV to the robot to move the position of the end of the robot tool; And b-3) 수정된 상기 로봇의 좌표를 전송받아 상기 엘브이에스가 영상을 재획득하는 엘브이에스영상 반복획득단계;를 포함하는 것을 특징으로 하는,b-3) receiving the modified coordinates of the robot re-acquisition of the elves image re-acquisition of the elves Vs image; characterized in that it comprises a, 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법.Welding start point tracking method using LVS and visual servoing. 제 1 항에 있어서,The method of claim 1, 상기 단계 b)는,Step b), b-1-2) 획득된 영상을 통해 상기 엘브이에스가 상기 바닥면 만을 인식한 경우, 상기 로봇의 좌표 중 X좌표, 상기 로봇의 Y좌표에 적정 증분값을 가한 Y좌표, 상기 엘브이에스가 인식한 상기 바닥면의 Z좌표를 상기 엘브이에스의 좌표로 저장하는 엘브이에스좌표 저장단계;b-1-2) When the ELV recognizes only the bottom surface through the acquired image, the X coordinate among the coordinates of the robot, the Y coordinate which has been appropriately added to the Y coordinate of the robot, and the ELV. An elves coordinate storing step of storing the Z coordinate of the bottom surface recognized by the elves as coordinates of the elves; b-2) 저장된 상기 엘브이에스의 좌표를 상기 로봇에 전송하여 상기 로봇 툴 끝단의 위치를 이동시키는 로봇툴 끝단 이동단계; 및b-2) a robot tool end movement step of transmitting the stored coordinates of the LV to the robot to move the position of the end of the robot tool; And b-3) 수정된 상기 로봇의 좌표를 전송받아 상기 엘브이에스가 영상을 재획득하는 엘브이에스영상 반복획득단계;를 포함하는 것을 특징으로 하는,b-3) receiving the modified coordinates of the robot re-acquisition of the elves image re-acquisition of the elves Vs image; characterized in that it comprises a, 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법.Welding start point tracking method using LVS and visual servoing. 제 1 항에 있어서,The method of claim 1, 상기 단계 b)는,Step b), b-1-3) 획득된 영상을 통해 상기 엘브이에스가 상기 바닥면 및 상기 옆면 만을 인식한 경우, 상기 로봇의 좌표 중 X좌표에 적정 증분값을 가한 X좌표, 상기 엘브이에스가 인식한 옆면의 Y좌표, 상기 엘브이에스가 인식한 바닥면의 Z좌표를 상기 엘브이에스의 좌표로 저장하는 엘브이에스좌표 저장단계;b-1-3) When the LV recognizes only the bottom surface and the side surface through the acquired image, the X coordinate which has applied an appropriate increment value to the X coordinate among the coordinates of the robot, An Y coordinate storage step of storing a Y coordinate of a side surface and a Z coordinate of a bottom surface recognized by the elves as the coordinates of the elves; b-2) 저장된 상기 엘브이에스의 좌표를 상기 로봇에 전송하여 상기 로봇 툴 끝단의 위치를 이동시키는 로봇툴 끝단 이동단계; 및b-2) a robot tool end movement step of transmitting the stored coordinates of the LV to the robot to move the position of the end of the robot tool; And b-3) 수정된 상기 로봇의 좌표를 전송받아 상기 엘브이에스가 영상을 재획득하는 엘브이에스영상 반복획득단계;를 포함하는 것을 특징으로 하는,b-3) receiving the modified coordinates of the robot re-acquisition of the elves image re-acquisition of the elves Vs image; characterized in that it comprises a, 엘브이에스와 비주얼서보잉을 이용한 용접시작점 추적방법.Welding start point tracking method using LVS and visual servoing.
KR1020070059701A 2007-06-19 2007-06-19 Tracking method for welding start-point using lvs and visual servoing KR100859335B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070059701A KR100859335B1 (en) 2007-06-19 2007-06-19 Tracking method for welding start-point using lvs and visual servoing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070059701A KR100859335B1 (en) 2007-06-19 2007-06-19 Tracking method for welding start-point using lvs and visual servoing

Publications (1)

Publication Number Publication Date
KR100859335B1 true KR100859335B1 (en) 2008-09-19

Family

ID=40023390

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070059701A KR100859335B1 (en) 2007-06-19 2007-06-19 Tracking method for welding start-point using lvs and visual servoing

Country Status (1)

Country Link
KR (1) KR100859335B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102922094A (en) * 2012-10-09 2013-02-13 上海工程技术大学 Ultra-small size welding seam tracking method based on heat input
CN112222569A (en) * 2020-09-30 2021-01-15 北京博清科技有限公司 Welding seam tracking method and device, robot and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0839470A (en) * 1994-07-27 1996-02-13 Fanuc Ltd Welding robot control method by recognizing sectional shape
KR19990018846A (en) * 1997-08-28 1999-03-15 김징완 Welding line position detection method using laser vision sensor and sensor camera
KR100241847B1 (en) 1997-08-28 2000-03-02 이해규 Welding robot control method and device using laser vision sensor
JP2004042118A (en) 2002-07-15 2004-02-12 Hitachi Ltd Automatic copying controller of welding position and method for automatic copying welding
KR100695945B1 (en) 2006-02-15 2007-03-19 삼성중공업 주식회사 The system for tracking the position of welding line and the position tracking method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0839470A (en) * 1994-07-27 1996-02-13 Fanuc Ltd Welding robot control method by recognizing sectional shape
KR19990018846A (en) * 1997-08-28 1999-03-15 김징완 Welding line position detection method using laser vision sensor and sensor camera
KR100241847B1 (en) 1997-08-28 2000-03-02 이해규 Welding robot control method and device using laser vision sensor
JP2004042118A (en) 2002-07-15 2004-02-12 Hitachi Ltd Automatic copying controller of welding position and method for automatic copying welding
KR100695945B1 (en) 2006-02-15 2007-03-19 삼성중공업 주식회사 The system for tracking the position of welding line and the position tracking method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102922094A (en) * 2012-10-09 2013-02-13 上海工程技术大学 Ultra-small size welding seam tracking method based on heat input
CN112222569A (en) * 2020-09-30 2021-01-15 北京博清科技有限公司 Welding seam tracking method and device, robot and storage medium
CN112222569B (en) * 2020-09-30 2021-11-23 北京博清科技有限公司 Welding seam tracking method and device, robot and storage medium

Similar Documents

Publication Publication Date Title
US10800036B1 (en) Tooltip stabilization
US9457470B2 (en) Robot system and method for calibration
US11230016B1 (en) Multi-resolution localization system
US7272524B2 (en) Method and a system for programming an industrial robot to move relative to defined positions on an object, including generation of a surface scanning program
Baeten et al. Hybrid vision/force control at corners in planar robotic-contour following
Xie et al. Switching control of image-based visual servoing with laser pointer in robotic manufacturing systems
JP2004508954A (en) Positioning device and system
US8606402B2 (en) Manipulator and control method thereof
US20080027580A1 (en) Robot programming method and apparatus with both vision and force
Amersdorfer et al. Real-time freeform surface and path tracking for force controlled robotic tooling applications
JPH0713613A (en) Method and apparatus for automatic supply of route compensation data to programmed robot controller
JPH08505091A (en) System and method for tracking features on an object using redundant axes
EP0601206B1 (en) Method for controlling operation of a robot arm
CN111515928B (en) Mechanical arm motion control system
Sharma et al. A framework for robot motion planning with sensor constraints
Zhu et al. Application of a service climbing robot with motion planning and visual sensing
CN113721639B (en) Path planning method and control method for docking of small underwater robot
KR100859335B1 (en) Tracking method for welding start-point using lvs and visual servoing
Chang Hybrid force and vision-based contour following of planar robots
Ðurović et al. Visual servoing for low-cost SCARA robots using an RGB-D camera as the only sensor
Sarić et al. Reducing uncertainty in robotic surface assembly tasks based on contact information
González-Galván et al. Camera pan/tilt to eliminate the workspace-size/pixel-resolution tradeoff with camera–space manipulation
Chang et al. Hybrid eye-to-hand and eye-in-hand visual servoing for autonomous robotic manipulation
JPS5991308A (en) Method for detecting surface configuration
CN113829338B (en) Structured light hand-eye calibration method based on coordinate system servo alignment

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120903

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130902

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140901

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180903

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190829

Year of fee payment: 12