KR20080091891A - The automatic calibration method in robot based multi-laser vision system - Google Patents

The automatic calibration method in robot based multi-laser vision system Download PDF

Info

Publication number
KR20080091891A
KR20080091891A KR1020070034902A KR20070034902A KR20080091891A KR 20080091891 A KR20080091891 A KR 20080091891A KR 1020070034902 A KR1020070034902 A KR 1020070034902A KR 20070034902 A KR20070034902 A KR 20070034902A KR 20080091891 A KR20080091891 A KR 20080091891A
Authority
KR
South Korea
Prior art keywords
calibration
robot
vision system
laser vision
laser
Prior art date
Application number
KR1020070034902A
Other languages
Korean (ko)
Other versions
KR100886655B1 (en
Inventor
이정환
최희병
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR1020070034902A priority Critical patent/KR100886655B1/en
Publication of KR20080091891A publication Critical patent/KR20080091891A/en
Application granted granted Critical
Publication of KR100886655B1 publication Critical patent/KR100886655B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

An automatic calibration method of a robot based multi-laser vision system is provided to reduce manufacturing time of products by performing rapid and precise calibration. A calibration jig mounted on an end effector of a square beam of a robot is moved to the initial position(S200). A trigger signal is transmitted from a controller of the robot to a multi-laser vision system(S210). The multi-laser vision system, receiving the trigger signal, captures an image(S220). A center line of laser stripe patterns is detected from the captured image(S230). A character point on an image coordinate system, corresponding to a corner point of a triangle pattern, is extracted from the center line(S240). Noise of the extracted character point is removed(S250). A position value of the end effector is transmitted from the controller to the multi-laser vision system(S260). Calibration is performed using a position value of the noise removed character point and the position value of the end effector(S270). By comparing a calibration error with an allowable error, whether to perform recalibration is determined(S280). A projection matrix is obtained through the performed calibration(S290).

Description

로봇 기반 멀티 레이저 비전 시스템의 자동 캘리브레이션 방법{The automatic calibration method in robot based multi-laser vision system}The automatic calibration method in robot based multi-laser vision system

도 1은 본 발명에 따른 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션방법의 일실시예를 도시한 플로우 차트이다. 1 is a flowchart illustrating an embodiment of a calibration method of a robot-based multi-laser vision system according to the present invention.

도 2는 도 1에 도시된 실시예를 설명하기 위해 도시한 로봇 기반 멀티 레이저 비전 시스템의 개념도이다. FIG. 2 is a conceptual diagram of a robot-based multi-laser vision system illustrated to describe the embodiment shown in FIG. 1.

도 3은 도 1에 도시된 실시예에서 사용되는 캘리브레이션용 지그를 도시한 개념도이다. 3 is a conceptual diagram illustrating a jig for calibration used in the embodiment shown in FIG.

본 발명은 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법에 관한 것이다. The present invention relates to a calibration method of a robot-based multi-laser vision system.

일반적으로 모든 계측 시스템은 각 계측 시스템 좌표계를 기준으로 캘리브레이션이 선행된다. 이때, 캘리브레이션은 정확한 특징점을 찾고, 이러한 특징점을 기준으로 여러 영역에 걸쳐 가급적 많은 양의 필요 데이터를 요구한다. In general, all metrology systems are calibrated based on each metrology system coordinate system. At this time, the calibration finds an accurate feature point and requires as much data as possible over various areas based on the feature point.

레이저 비전 시스템(LVS: Laser Vision System)은 광을 출사하는 광 출사부(통상적으로 '레이저 다이오드 유닛'이 사용된다)와 상기 광 출사부에서 출사된 광을 촬상하는 카메라를 포함한다. 그리고 이러한 레이저 비전 시스템이 복수 개가 연동되어 하나의 용도로 사용되는 것을 멀티 레이저 비전 시스템(MLVS: Multi-Laser Vision System)이라 한다. A laser vision system (LVS) includes a light output unit (usually a 'laser diode unit' is used) for emitting light and a camera for capturing light emitted from the light output unit. In addition, a plurality of such laser vision systems are used for one purpose by interlocking with each other. This is called a multi-laser vision system (MLVS).

로봇을 기반으로 한 개의 레이저 비전 시스템(Laser Vision System:LVS)은 상용화 제품도 이용되고 있고, 다양한 3D 스캔닝 기술과 함께 연구되고 있다. One robot-based Laser Vision System (LVS) is also commercially available and is being studied with a variety of 3D scanning technologies.

그러나 이와 같은 로봇 기반 멀티 레이저 비전 시스템의 경우에는 실제 계측 작업 전에 선행되어야 할 캘리브레이션 방법이 어렵고, 아울러 캘리브레이션에 드는 시간이 많이 소요되어서, 이에 대한 새로운 대책 방안이 대두되고 있는 실정이다. However, such a robot-based multi-laser vision system is difficult to calibrate before the actual measurement work, and it takes a lot of time to calibrate, and new countermeasures have emerged.

상기 문제점을 해결하기 위하여 안출된 본 발명은 전후 이동 가능한 로봇의 사각빔(Square beam) 상에서 등간격으로 일렬 배치된 멀티 레이저 비전 시스템을 이용하여 바닥부의 피계측물을 계측하는 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션을 신속하고 정확하게 수행할 수 있는 방법을 제공하는 것을 기술적 과제로 삼는다. The present invention devised to solve the above problems is a robot-based multi-laser vision system for measuring the measurement object on the bottom by using a multi-laser vision system arranged in a line at equal intervals on the square beam of the front and rear movable robots The technical challenge is to provide a way to perform the calibration quickly and accurately.

상기의 기술적 과제를 해결하기 위해 본 발명은 전후 이동 가능한 로봇의 사각빔(Square beam) 상에 등간격으로 일렬 배치된 멀티 레이저 비전 시스템을 이용하여 바닥부의 피계측물을 계측하는 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션(Calibration) 방법에 있어서, 상기 로봇의 사각빔(Square beam)상의 엔드이펙터(End Effector) 상에 복수 개의 삼각패턴을 갖는 캘리브레이션용 지그를 장착하고, 상기 캘리브레이션용 지그를 초기 위치로 이동시키는 캘리브레이션 준비단계; 상기 로봇의 제어부에서 상기 멀티 레이저 비전 시스템으로 영상 캡쳐 지령을 위한 트리거 신호를 전송하는 트리거신호 전송단계; 상기 트리거 신호를 전송받은 상기 멀티 레이저 비전 시스템에서 영상을 캡쳐하는 영상캡쳐단계; 캡쳐된 상기 영상으로부터 레이저띠의 중심라인을 검출하는 레이저띠 중심라인 검출단계; 검출된 상기 레이저띠 중심라인으로부터 상기 삼각패턴의 모서리 점에 대응하는 영상좌표계 상의 특징점을 추출하는 특징점 추출단계; 추출된 상기 특징점의 노이즈를 제거하는 특징점 노이즈제거단계; 상기 로봇의 제어부에서 상기 멀티 레이저 비전 시스템으로 상기 엔드이펙터의 직교좌표계 상의 위치값을 전송하는 엔드이펙터 위치값 전송단계; 노이즈가 제거된 상기 특징점의 위치값과 상기 엔드이펙터의 위치값을 이용하여 최소 자승법을 기반으로 캘리브레이션을 수행하는 캘리브레이션 계산단계; 계산된 상기 캘리브레이션 오차와 적정한 허용오차를 비교하여 리캘리브레이션(Re-calibration) 수행 여부를 판단하는 캘리브레이션 오차비교단계; 및 계산된 상기 캘리브레이션을 통해 캘리브레이션-투영행렬(Projection Matrix)를 획득하는 캘리브레이션-투영행렬 획득단계;를 포함하는 것을 특징으로 하는 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법을 제공한다. In order to solve the above technical problem, the present invention provides a robot-based multi-laser vision for measuring a measurement object on the bottom by using a multi-laser vision system arranged in a line at equal intervals on a square beam of a front and rear movable robot. In a calibration method of a system, a calibration jig having a plurality of triangular patterns is mounted on an end effector on a square beam of the robot, and the calibration jig is moved to an initial position. Calibration preparation step to make; A trigger signal transmission step of transmitting a trigger signal for an image capture command from the controller of the robot to the multi-laser vision system; An image capturing step of capturing an image in the multi-laser vision system receiving the trigger signal; A laser strip center line detecting step of detecting a center line of the laser strip from the captured image; A feature point extraction step of extracting feature points on an image coordinate system corresponding to corner points of the triangular pattern from the detected laser strip center line; A feature point noise removing step of removing noise of the extracted feature points; An end effector position value transmission step of transmitting a position value on a Cartesian coordinate system of the end effector from the controller of the robot to the multi-laser vision system; A calibration calculation step of performing calibration based on a least square method using the position values of the feature points from which noise is removed and the position values of the end effector; A calibration error comparison step of determining whether to perform re-calibration by comparing the calculated calibration error with an appropriate tolerance; And a calibration-projection matrix acquiring step of acquiring a calibration-projection matrix through the calculated calibration.

본 발명과 본 발명의 동작성의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, the advantages of the operability of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings which illustrate preferred embodiments of the present invention and the contents described in the accompanying drawings.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.

도면에서, 도 1은 본 발명에 따른 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법의 일실시예를 도시한 플로우 차트이다. 도 2는 도 1에 도시된 실시예를 설명하기 위해 도시한 로봇 기반 멀티 레이저 비전 시스템의 개념도이다. 도 3은 도 1에 도시된 실시예에서 사용되는 캘리브레이션용 지그를 도시한 개념도이다.1 is a flowchart illustrating an embodiment of a calibration method of a robot-based multi-laser vision system according to the present invention. FIG. 2 is a conceptual diagram of a robot-based multi-laser vision system illustrated to describe the embodiment shown in FIG. 1. 3 is a conceptual diagram illustrating a jig for calibration used in the embodiment shown in FIG.

도 1 내지 도 3을 병행 참조하여 본 발명의 사상에 따른 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법의 바람직한 실시예에 대하여 설명하면, 먼저, 로봇의 사각빔(Square beam) 하부의 엔드이펙터(End Effector) 상에 복수 개의 삼각 패턴을 갖는 캘리브레이션용 지그를 장착하고, 상기 캘리브레이션용 지그를 초기 위치로 이동시키는 캘리브레이션 준비단계(S200)을 포함한다. A preferred embodiment of a calibration method of a robot-based multi-laser vision system according to the spirit of the present invention will be described with reference to FIGS. 1 to 3. First, an end effector below a square beam of a robot. And a calibration preparation step (S200) for mounting a calibration jig having a plurality of triangular patterns on the) and moving the calibration jig to an initial position.

본 발명인 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법을 이해 하기 위해선, 먼저 본 발명이 적용될 수 있는 로봇 기반 멀티 레이저 비전 시스템에 관한 장치적인 개념을 살펴보아야 하는데, 도 2를 참조하여 간단하게나마 설명하고자 한다. In order to understand the calibration method of the robot-based multi-laser vision system of the present invention, first, a device concept related to the robot-based multi-laser vision system to which the present invention can be applied should be described, but will be briefly described with reference to FIG. 2.

도 2는 로봇 기반 멀티 레이저 비전 시스템의 개념도이다. 이러한 로봇 기반 멀티 레이저 비전 시스템(1)은 피계측물이 안착될 수 있는 바닥면의 양측에는 레일(7)이 형성되어 있으며, 상기 레일(7)의 상부에는 상기 레일(7) 위를 전후로 이동할 수 있는 겐트리(Gantry) 형상의 로봇(3)이 구성되어 있다. 2 is a conceptual diagram of a robot-based multi-laser vision system. In the robot-based multi-laser vision system 1, rails 7 are formed at both sides of the bottom surface on which the measurement object is seated, and the rails 7 move forward and backward on the rails 7 above the rails 7. The gantry-shaped robot 3 which can be formed is comprised.

이러한 로봇(3)의 사각빔(Square beam) 하부면에는 멀티 레이저 비전 시스템(5)이 배치되는데, 복수 개로 구성된 레이저 비전 시스템이 등간격으로 일렬 배치된다. 이러한 로봇 기반 멀티 레이저 비전 시스템(1)은 상기 레일(7) 사이의 바닥면 상에 놓여질 피계측물의 형상을 레일방향으로 이동하면서, 멀티 레이저 비전 시스템(5)으로 신속하게 검출하여 상기 피계측물의 3차원 형상을 계측해 낼 수 있는 장치이다. The multi-laser vision system 5 is disposed on a lower surface of the square beam of the robot 3, and a plurality of laser vision systems are arranged in a line at equal intervals. The robot-based multi-laser vision system 1 quickly detects the object to be placed on the bottom surface between the rails 7 by the multi-laser vision system 5 while moving in the rail direction. It is a device that can measure three-dimensional shape.

상기 로봇 기반 멀티 레이저 비전 시스템(1)의 사각빔(Square beam)상의 일측면 상에는 엔드이펙터(9, End Effector)가 설치되는데, 이의 하단에 캘리브레이션용 지그(미도시)가 장착될 수 있다.An end effector 9 is installed on one side of a square beam of the robot-based multi-laser vision system 1, and a calibration jig (not shown) may be mounted at a lower end thereof.

여기서, 도 3을 참조하여 캘리브레이션용 지그를 살펴보면, 2개의 삼각패턴으로 되어 있는 캘리브레이션용 지그(50)와, 상기 캘리브레이션용 지그(50)를 측면에서 고정시켜주는 지그용 브라켓(52)과, 상기 지그용 브라켓(52)의 상단에 결합되어 도 2에서 설명한 바 있는 엔드이펙터(9)에 탈부착 가능하도록 형성된 원형 소 켓(54)을 포함하여 구성된다. Here, looking at the calibration jig with reference to Figure 3, a jig bracket 52 for fixing the calibration jig 50 and the calibration jig 50 in a two triangular pattern on the side, and It is configured to include a circular socket 54 is coupled to the upper end of the jig bracket 52 is formed to be detachable to the end effector 9 as described in FIG.

도 1에 도시된 캘리브레이션 준비단계(S200)에서는 도 2의 상기 로봇 기반 멀티 레이저 비전 시스템(1)에 도 3의 캘리브레이션용 지그(50)를 장착하고, 이러한 캘리브레이션용 지그(50)를 미리 지정된 캘리브레이션 위치점들(Calibration positions)로 이동시키는 단계이다. In the calibration preparation step (S200) illustrated in FIG. 1, the calibration jig 50 of FIG. 3 is mounted on the robot-based multi-laser vision system 1 of FIG. 2, and the calibration jig 50 is pre-designated. This is the step of moving to calibration positions.

다음으로, 상기 로봇의 제어부에서 상기 멀티 레이저 비전 시스템으로 영상 캡쳐 지령을 위한 트리거 신호를 전송하는 트리거신호 전송단계(S210)를 포함한다. 로봇의 제어부에는 멀티 레이저 비전 시스템의 피계측물 영상 캡쳐를 지령하기 위한 트리거 신호를 생성 및 전송할 수 있는 기능을 하드웨어적으로 보유하고 있다. Next, a trigger signal transmission step (S210) of transmitting a trigger signal for an image capture command from the controller of the robot to the multi-laser vision system. The control unit of the robot has a function of generating and transmitting a trigger signal for commanding image capture of a measurement object of a multi-laser vision system in hardware.

다음으로, 상기 트리거 신호를 전송받은 상기 멀티 레이저 비전 시스템에서 영상을 캡쳐하는 영상캡쳐단계(S220)를 포함한다. 상기 로봇의 제어부로부터 트리거 신호를 전송받은 상기 멀티 레이저 비전 시스템은 촬상된 영상을 캡쳐한다. Next, an image capture step (S220) of capturing an image in the multi-laser vision system receiving the trigger signal. The multi-laser vision system receiving the trigger signal from the controller of the robot captures the captured image.

다음으로, 캡쳐된 상기 영상으로부터 레이저띠의 중심라인을 검출하는 레이저띠 중심라인 검출단계(S230)를 포함한다. 이때, 상기 레이저띠 중심라인 검출단계(S230)에서는 통상적인 각종 영상처리방식을 이용하여 캡쳐된 영상으로부터 레이저띠의 중심라인을 검출할 수 있으므로, 이에 대한 자세한 설명은 생략할 수 있다. Next, a laser strip center line detecting step (S230) of detecting a center line of the laser strip from the captured image. In this case, in the laser strip center line detecting step (S230), since the center line of the laser strip may be detected from the captured image by using various conventional image processing methods, a detailed description thereof may be omitted.

다음으로, 검출된 상기 레이저띠 중심라인으로부터 상기 삼각패턴의 모서리 점에 대응하는 영상좌표계 상의 특징점을 추출하는 특징점 추출단계(S240)를 포함한다. 상기 삼각패턴의 모서리 점은 로봇의 사각빔(Square beam) 하부의 엔드이펙터 상에 장착된 캘리브레이션용 지그의 형상과 관련되므로, 도 3에 도시된 바와 같 은 본 실시예에서는 2개의 삼각패턴 형상이 존재하여 그의 모서리 점에 대응하는 영상좌표계 상의 특징점을 추출하면 가능하지만, 이와 다른 실시예에서 본 실시예와 다른 복수 개의 삼각패턴 캘리브레이션용 지그를 이용할 경우에는 그에 따른 수의 모서리 점에 대응하는 영상좌표계 상의 특징점을 추출하여야 한다. Next, a feature point extraction step (S240) of extracting a feature point on the image coordinate system corresponding to the corner point of the triangular pattern from the detected laser strip center line. Since the corner point of the triangular pattern is related to the shape of the calibration jig mounted on the end effector under the square beam of the robot, in the present embodiment as shown in FIG. It is possible to extract the feature points on the image coordinate system that exist and correspond to the corner points thereof. However, in the case of using a plurality of triangular pattern calibration jig different from the present embodiment in another embodiment, the image coordinate system corresponding to the number of corner points accordingly. The feature points of the image must be extracted.

이러한 특징점 추출단계(S240)에 의해 2차원 영상좌표계 상의 특징점 위치값(U, V)이 계산될 수 있다. By the feature point extracting step S240, the feature point position values U and V on the two-dimensional image coordinate system can be calculated.

다음으로, 추출된 상기 특징점의 노이즈를 제거하는 특징점 노이즈제거단계(S250)을 포함한다. 본 단계(S250)에서 이용될 수 있는 노이즈 제거 방법은 통상의 노이즈 제거 방법을 적절하게 이용 가능하므로, 이에 대한 자세한 설명은 생략할 수 있다. 이러한 특징점 노이즈제거단계(S250)를 통하여 추출된 상기 특징점의 오류를 올바르게 수정할 수 있게 된다. Next, a feature point noise removing step (S250) of removing the extracted noise of the feature point is included. Since the noise removal method that can be used in this step (S250) can use a conventional noise removal method as appropriate, a detailed description thereof can be omitted. Through this feature point noise removal step S250, the error of the extracted feature point can be corrected correctly.

다음으로, 상기 로봇의 제어기에서 상기 멀티 레이저 비전 시스템으로 상기 엔드이펙터의 직교좌표계 상의 위치값을 전송하는 엔드이펙터 위치값 전송단계(S260)을 포함한다. Next, an end effector position value transmission step (S260) of transmitting a position value on the Cartesian coordinate system of the end effector from the controller of the robot to the multi-laser vision system.

캡쳐되고, 영상처리 된 후 계산된 2차원 영상좌표계 상의 특징점 위치값(U, V)과 상기 캘리브레이션용 지그가 장착되어 있는 엔드이펙터의 직교좌표계 위치값을 이용하여, 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션을 계산하기 위하여, 이러한 엔드이펙터 위치값 전송단계(S260)를 거치게 된다. 이러한 엔드이펙터 위치값 전송단계(S260)는 통상의 랜(Lan) 또는 시리얼 통신을 이용하여 수행될 수 있다. Calibration of the robot-based multi-laser vision system using captured point image values (U, V) on the two-dimensional image coordinate system and the Cartesian coordinate system position of the end effector equipped with the calibration jig In order to calculate, the end effector position value transmission step (S260) is passed. This end effector position value transmission step (S260) may be performed using ordinary LAN or serial communication.

다음으로, 노이즈가 제거된 상기 특징점의 위치값과 상기 엔드이펙터의 위치값을 이용하여 최소 자승법을 기반으로 캘리브레이션을 수행하는 캘리브레이션 계산단계(S270)를 포함한다. Next, a calibration calculation step (S270) of performing calibration based on a least square method using the position value of the feature point from which the noise is removed and the position value of the end effector is performed.

이러한 캘리브레이션 계산단계(S270)에서는 하기 [수학식 1]의 최소 자승법(Least-Square)을 기반으로 캘리브레이션이 수행된다.In this calibration calculation step (S270), calibration is performed based on Least-Square of Equation 1 below.

[수학식 1][Equation 1]

Figure 112007027350479-PAT00001
Figure 112007027350479-PAT00001

여기서 s는 배율(scalefactor)를 A는 인트린식 캘리브레이션 파라미터(intrinsic calibration parameter)를, [R,t]는 익스트린식 캘리브레이션 파라미터(extrinsic calibration parameter)를, m-=[u v 1]T, M-=[X Y Z 1]T를 의미한다. Where s is the magnification (scalefactor) A is STE rinsik calibration parameters (intrinsic calibration parameter), [R , t] is the extreme trim expression calibration parameters (extrinsic calibration parameter), m - = [uv 1] T, M - = [XYZ 1] means T.

또한,Also,

투영행렬 P는,The projection matrix P is

Figure 112007027350479-PAT00002
를 의미한다.
Figure 112007027350479-PAT00002
Means.

이러한 캘리브레이션 계산단계(S270)에 의해서 캘리브레이션이 수행되고 나면, 다음으로 계산된 캘리브레이션 오차와 적정한 허용오차를 비교하여 리캘리브레 이션(Recalibration) 수행 여부를 판단하는 캘리브레이션 오차비교단계(S280)를 포함한다. 일반적으로 캘리브레이션에 대한 오차는 그 편차가 크므로, 적정한 범위 내의 오차, 즉 허용오차(Ea)와 실제 계산된 캘리브레이션에 대한 캘리브레이션 오차(Ec)를 비교하는 단계(S280)를 거치게 된다. After the calibration is performed by the calibration calculation step (S270), a calibration error comparison step (S280) that compares the next calculated calibration error with an appropriate tolerance to determine whether to perform the recalibration (Scalibration) is included. . In general, since the error of the calibration is large, a step (S280) of comparing the error within an appropriate range, that is, the tolerance E a with the calibration error E c for the actually calculated calibration is passed.

이때, 캘리브레이션 오차(Ec)가 허용오차(Ea) 이내의 범위에 속하면 최적의 투영행렬(Projection Matrix)를 획득하게 된 것이고, 이와 달리 캘리브레이션 오차(Ec)가 허용오차(Ea)를 벗어나게 되면, 오차를 벗어난 캘리브레이션 점들만을 제외시킨 나머지 데이터를 이용하여 다시 캘리브레이션을 수행하기 위하여 첫 번째 단계인 캘리브레이션 준비단계(S200)로 돌아가는 리-캘리브레이션(Recalibration)이 수행된다.At this time, if the calibration error E c falls within the tolerance E a , the optimal projection matrix is obtained. In contrast, the calibration error E c is the tolerance E a . If out of the, re-calibration (Recalibration) is performed to return to the calibration preparation step (S200), which is the first step in order to perform the calibration again using the remaining data except the calibration points out of the error.

적어도 1회 이상 반복된 전(全)단계를 거치면서, 마지막으로 캘리브레이션-투영행렬을 획득하는 캘리브레이션-투영행렬 획득단계(S290)를 포함한다. The calibration-projection matrix acquiring step (S290) is finally obtained, after the previous step is repeated at least once, and the calibration-projection matrix is acquired.

위의 전(全)단계를 통하면, 멀티 레이저 비전 시스템 중 하나의 레이저 비전 시스템에 대한 하나의 최적 3by4 투영행렬을 구할 수 있으므로, 도 2에 도시된 바와 같은 4개의 레이저 비전 시스템을 이용한 본 실시예의 경우에는 상술한 전(全)단계를 적어도 4회 이상 실시하여 캘리브레이션에 관련된 총 4개의 3by4 투영행렬을 도출해 낼 수 있다. Through all the above steps, one optimal 3by4 projection matrix for one laser vision system among the multi-laser vision systems can be obtained. Thus, this embodiment using four laser vision systems as shown in FIG. In the case of the example, all the above-described steps may be performed at least four times to derive a total of four 3by4 projection matrices related to the calibration.

본 발명은 도면에 도시된 일 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. . Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

이와 같이, 본 발명인 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법에 의하면, 전후 이동 가능한 로봇의 사각빔(Square beam)상에서 등간격으로 일렬 배치된 멀티 레이저 비전 시스템을 이용하여 바닥부의 피계측물을 계측하는 로봇 기반 멀티 레이저 비전 시스템에 대하여, 신속하고 정확하게 캘리브레이션을 수행할 수 있게 되어, 제품 생산 시간 단축 및 제품 정도(精度) 향상을 가능하게 해주는 유리한 효과가 있다.As described above, according to the calibration method of the robot-based multi-laser vision system of the present invention, a measurement object on the bottom is measured by using a multi-laser vision system arranged in a line at equal intervals on a square beam of a robot that can move back and forth. For robot-based multi-laser vision systems, calibration can be performed quickly and accurately, which has the beneficial effect of reducing product production time and improving product accuracy.

Claims (1)

전후 이동 가능한 로봇의 사각빔(Square beam)상에 등간격으로 일렬 배치된 멀티 레이저 비전 시스템을 이용하여 바닥부의 피계측물을 계측하는 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션(Calibration) 방법에 있어서,In a calibration method of a robot-based multi-laser vision system for measuring the measurement object of the bottom using a multi-laser vision system arranged at equal intervals on a square beam of the robot that can move back and forth, 상기 로봇의 사각빔 하부의 엔드이펙터(End Effector) 상에 복수 개의 삼각패턴을 갖는 캘리브레이션용 지그를 장착하고, 상기 캘리브레이션용 지그를 초기 위치로 이동시키는 캘리브레이션 준비단계;A calibration preparation step of mounting a calibration jig having a plurality of triangular patterns on an end effector below the square beam of the robot and moving the calibration jig to an initial position; 상기 로봇의 제어부에서 상기 멀티 레이저 비전 시스템으로 영상 캡쳐 지령을 위한 트리거 신호를 전송하는 트리거신호 전송단계;A trigger signal transmission step of transmitting a trigger signal for an image capture command from the controller of the robot to the multi-laser vision system; 상기 트리거 신호를 전송받은 상기 멀티 레이저 비전 시스템에서 영상을 캡쳐하는 영상캡쳐단계;An image capturing step of capturing an image in the multi-laser vision system receiving the trigger signal; 캡쳐된 상기 영상으로부터 레이저띠의 중심라인을 검출하는 레이저띠 중심라인 검출단계;A laser strip center line detecting step of detecting a center line of the laser strip from the captured image; 검출된 상기 레이저띠 중심라인으로부터 상기 삼각패턴의 모서리 점에 대응하는 영상좌표계 상의 특징점을 추출하는 특징점 추출단계;A feature point extraction step of extracting feature points on an image coordinate system corresponding to corner points of the triangular pattern from the detected laser strip center line; 추출된 상기 특징점의 노이즈를 제거하는 특징점 노이즈제거단계;A feature point noise removing step of removing noise of the extracted feature points; 상기 로봇의 제어부에서 상기 멀티 레이저 비전 시스템으로 상기 엔드이펙터의 직교좌표계 상의 위치값을 전송하는 엔드이펙터 위치값 전송단계;An end effector position value transmission step of transmitting a position value on a Cartesian coordinate system of the end effector from the controller of the robot to the multi-laser vision system; 노이즈가 제거된 상기 특징점의 위치값과 상기 엔드이펙터의 위치값을 이용 하여 최소 자승법을 기반으로 캘리브레이션을 수행하는 캘리브레이션 계산단계;A calibration calculation step of performing calibration based on a least square method using the position value of the feature point from which the noise is removed and the position value of the end effector; 계산된 상기 캘리브레이션 오차와 적정한 허용오차를 비교하여 리캘리브레이션(Recalibration) 수행 여부를 판단하는 캘리브레이션 오차비교단계; 및A calibration error comparison step of determining whether to perform recalibration by comparing the calculated calibration error with an appropriate tolerance; And 계산된 상기 캘리브레이션을 통해 투영행렬(Projection Matrix)를 획득하는 투영행렬 획득단계;를 포함하는 것을 특징으로 하는,And a projection matrix obtaining step of obtaining a projection matrix through the calculated calibration. 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법.Calibration method for robot-based multi-laser vision systems.
KR1020070034902A 2007-04-10 2007-04-10 The automatic calibration method in robot based multi-laser vision system KR100886655B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070034902A KR100886655B1 (en) 2007-04-10 2007-04-10 The automatic calibration method in robot based multi-laser vision system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070034902A KR100886655B1 (en) 2007-04-10 2007-04-10 The automatic calibration method in robot based multi-laser vision system

Publications (2)

Publication Number Publication Date
KR20080091891A true KR20080091891A (en) 2008-10-15
KR100886655B1 KR100886655B1 (en) 2009-03-04

Family

ID=40152233

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070034902A KR100886655B1 (en) 2007-04-10 2007-04-10 The automatic calibration method in robot based multi-laser vision system

Country Status (1)

Country Link
KR (1) KR100886655B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120036145A (en) * 2010-10-07 2012-04-17 대우조선해양 주식회사 Feature point detecting method of welding joint using laser vision system
US8639021B2 (en) 2010-01-27 2014-01-28 Samsung Electronics Co., Ltd. Apparatus and method with composite sensor calibration
CN104574406A (en) * 2015-01-16 2015-04-29 大连理工大学 Joint calibration method between 360-degree panorama laser and multiple visual systems
CN107817003A (en) * 2016-09-14 2018-03-20 西安航通测控技术有限责任公司 A kind of external parameters calibration method of distributed large scale space positioning system
CN110084854A (en) * 2009-12-24 2019-08-02 康耐视公司 The system and method measured when operation for camera calibrated error
CN110268355A (en) * 2017-05-03 2019-09-20 深圳市元征科技股份有限公司 Control method, equipment and the storage medium of intelligent surveying device
CN110421568A (en) * 2019-08-23 2019-11-08 中源智人科技(深圳)股份有限公司 A kind of abnormity electronic component plug-in component machine people's laser orientation system
KR20230162209A (en) * 2022-05-20 2023-11-28 주식회사 위드포인츠 Gantry-mounted 3D shape scanning apparatus and scanning method using same
WO2024016965A1 (en) * 2022-07-20 2024-01-25 节卡机器人股份有限公司 Coordinate system calibration method and apparatus, robot and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0538688A (en) * 1991-07-30 1993-02-19 Nok Corp Coordinate system calibrating method for industrial robot system
KR970062838A (en) * 1996-02-27 1997-09-12 이종수 Three-dimensional robot calibration device and method using CCD camera and laser
KR100568616B1 (en) * 2003-12-31 2006-04-07 삼성중공업 주식회사 Auto calibration method for welding
KR100640743B1 (en) * 2004-12-30 2006-10-31 삼성중공업 주식회사 A calibration equipment of laser vision system for 6-axis robot

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084854A (en) * 2009-12-24 2019-08-02 康耐视公司 The system and method measured when operation for camera calibrated error
CN110084854B (en) * 2009-12-24 2024-05-07 康耐视公司 System and method for runtime determination of camera calibration errors
US8639021B2 (en) 2010-01-27 2014-01-28 Samsung Electronics Co., Ltd. Apparatus and method with composite sensor calibration
KR20120036145A (en) * 2010-10-07 2012-04-17 대우조선해양 주식회사 Feature point detecting method of welding joint using laser vision system
CN104574406A (en) * 2015-01-16 2015-04-29 大连理工大学 Joint calibration method between 360-degree panorama laser and multiple visual systems
CN104574406B (en) * 2015-01-16 2017-06-23 大连理工大学 A kind of combined calibrating method between 360 degree of panorama laser and multiple vision systems
CN107817003A (en) * 2016-09-14 2018-03-20 西安航通测控技术有限责任公司 A kind of external parameters calibration method of distributed large scale space positioning system
CN107817003B (en) * 2016-09-14 2021-07-06 西安航通测控技术有限责任公司 External parameter calibration method of distributed large-size space positioning system
CN110268355A (en) * 2017-05-03 2019-09-20 深圳市元征科技股份有限公司 Control method, equipment and the storage medium of intelligent surveying device
CN110421568A (en) * 2019-08-23 2019-11-08 中源智人科技(深圳)股份有限公司 A kind of abnormity electronic component plug-in component machine people's laser orientation system
KR20230162209A (en) * 2022-05-20 2023-11-28 주식회사 위드포인츠 Gantry-mounted 3D shape scanning apparatus and scanning method using same
WO2024016965A1 (en) * 2022-07-20 2024-01-25 节卡机器人股份有限公司 Coordinate system calibration method and apparatus, robot and storage medium

Also Published As

Publication number Publication date
KR100886655B1 (en) 2009-03-04

Similar Documents

Publication Publication Date Title
KR100886655B1 (en) The automatic calibration method in robot based multi-laser vision system
US10157458B2 (en) Laser projection system and method
US5319442A (en) Optical inspection probe
WO2010150515A1 (en) Information processing apparatus, information processing method, and program
JP2005526386A5 (en)
US10121246B2 (en) Measurement apparatus that obtains information of a shape of a surface using a corrected image and measurement method
JP2641829B2 (en) Bending angle detection device in bending machine
JP2001249007A (en) Offset measurement method, tool position detection method and bonding device
US11604281B2 (en) Position and posture estimation apparatus of a forklift pallet
KR101854366B1 (en) 3D-image measuring method
CN113406655B (en) Method for correcting measured value of distance measuring device and distance measuring device
CN110433989B (en) Workpiece surface spraying method
US11276198B2 (en) Apparatus for determining dimensional and geometric properties of a measurement object
US20030133131A1 (en) Accuracy analyzing apparatus for machine tool
KR102422990B1 (en) System and Method for calibration of robot based on a scanning
EP2472220A1 (en) Three-dimensional shape measurement method and three-dimensional shape measurement system
JP2017053793A (en) Measurement device, and manufacturing method of article
JP4467599B2 (en) Bonding equipment
KR20060104304A (en) Recognition method of operation object for automatic welding using three dimensional marker measuring method
JP6319901B2 (en) Vehicle accuracy evaluation system
JPH03268818A (en) Angle measuring instrument for bender
JP3369235B2 (en) Calibration method for measuring distortion in three-dimensional measurement
KR101833055B1 (en) 3-dimensional measuring system
KR20190126706A (en) Three-dimensional shape measuring system and measuring time setting method
KR102273836B1 (en) Enhancements of measurement accuracy of 3-dimensional shapes of objects based on two sets of stereoscopic vision

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130201

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140129

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150202

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160201

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 11