KR20080091891A - The automatic calibration method in robot based multi-laser vision system - Google Patents
The automatic calibration method in robot based multi-laser vision system Download PDFInfo
- Publication number
- KR20080091891A KR20080091891A KR1020070034902A KR20070034902A KR20080091891A KR 20080091891 A KR20080091891 A KR 20080091891A KR 1020070034902 A KR1020070034902 A KR 1020070034902A KR 20070034902 A KR20070034902 A KR 20070034902A KR 20080091891 A KR20080091891 A KR 20080091891A
- Authority
- KR
- South Korea
- Prior art keywords
- calibration
- robot
- vision system
- laser vision
- laser
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 239000012636 effector Substances 0.000 claims abstract description 21
- 239000011159 matrix material Substances 0.000 claims abstract description 10
- 238000005259 measurement Methods 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000002360 preparation method Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 230000008054 signal transmission Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/022—Optical sensing devices using lasers
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
Description
도 1은 본 발명에 따른 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션방법의 일실시예를 도시한 플로우 차트이다. 1 is a flowchart illustrating an embodiment of a calibration method of a robot-based multi-laser vision system according to the present invention.
도 2는 도 1에 도시된 실시예를 설명하기 위해 도시한 로봇 기반 멀티 레이저 비전 시스템의 개념도이다. FIG. 2 is a conceptual diagram of a robot-based multi-laser vision system illustrated to describe the embodiment shown in FIG. 1.
도 3은 도 1에 도시된 실시예에서 사용되는 캘리브레이션용 지그를 도시한 개념도이다. 3 is a conceptual diagram illustrating a jig for calibration used in the embodiment shown in FIG.
본 발명은 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법에 관한 것이다. The present invention relates to a calibration method of a robot-based multi-laser vision system.
일반적으로 모든 계측 시스템은 각 계측 시스템 좌표계를 기준으로 캘리브레이션이 선행된다. 이때, 캘리브레이션은 정확한 특징점을 찾고, 이러한 특징점을 기준으로 여러 영역에 걸쳐 가급적 많은 양의 필요 데이터를 요구한다. In general, all metrology systems are calibrated based on each metrology system coordinate system. At this time, the calibration finds an accurate feature point and requires as much data as possible over various areas based on the feature point.
레이저 비전 시스템(LVS: Laser Vision System)은 광을 출사하는 광 출사부(통상적으로 '레이저 다이오드 유닛'이 사용된다)와 상기 광 출사부에서 출사된 광을 촬상하는 카메라를 포함한다. 그리고 이러한 레이저 비전 시스템이 복수 개가 연동되어 하나의 용도로 사용되는 것을 멀티 레이저 비전 시스템(MLVS: Multi-Laser Vision System)이라 한다. A laser vision system (LVS) includes a light output unit (usually a 'laser diode unit' is used) for emitting light and a camera for capturing light emitted from the light output unit. In addition, a plurality of such laser vision systems are used for one purpose by interlocking with each other. This is called a multi-laser vision system (MLVS).
로봇을 기반으로 한 개의 레이저 비전 시스템(Laser Vision System:LVS)은 상용화 제품도 이용되고 있고, 다양한 3D 스캔닝 기술과 함께 연구되고 있다. One robot-based Laser Vision System (LVS) is also commercially available and is being studied with a variety of 3D scanning technologies.
그러나 이와 같은 로봇 기반 멀티 레이저 비전 시스템의 경우에는 실제 계측 작업 전에 선행되어야 할 캘리브레이션 방법이 어렵고, 아울러 캘리브레이션에 드는 시간이 많이 소요되어서, 이에 대한 새로운 대책 방안이 대두되고 있는 실정이다. However, such a robot-based multi-laser vision system is difficult to calibrate before the actual measurement work, and it takes a lot of time to calibrate, and new countermeasures have emerged.
상기 문제점을 해결하기 위하여 안출된 본 발명은 전후 이동 가능한 로봇의 사각빔(Square beam) 상에서 등간격으로 일렬 배치된 멀티 레이저 비전 시스템을 이용하여 바닥부의 피계측물을 계측하는 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션을 신속하고 정확하게 수행할 수 있는 방법을 제공하는 것을 기술적 과제로 삼는다. The present invention devised to solve the above problems is a robot-based multi-laser vision system for measuring the measurement object on the bottom by using a multi-laser vision system arranged in a line at equal intervals on the square beam of the front and rear movable robots The technical challenge is to provide a way to perform the calibration quickly and accurately.
상기의 기술적 과제를 해결하기 위해 본 발명은 전후 이동 가능한 로봇의 사각빔(Square beam) 상에 등간격으로 일렬 배치된 멀티 레이저 비전 시스템을 이용하여 바닥부의 피계측물을 계측하는 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션(Calibration) 방법에 있어서, 상기 로봇의 사각빔(Square beam)상의 엔드이펙터(End Effector) 상에 복수 개의 삼각패턴을 갖는 캘리브레이션용 지그를 장착하고, 상기 캘리브레이션용 지그를 초기 위치로 이동시키는 캘리브레이션 준비단계; 상기 로봇의 제어부에서 상기 멀티 레이저 비전 시스템으로 영상 캡쳐 지령을 위한 트리거 신호를 전송하는 트리거신호 전송단계; 상기 트리거 신호를 전송받은 상기 멀티 레이저 비전 시스템에서 영상을 캡쳐하는 영상캡쳐단계; 캡쳐된 상기 영상으로부터 레이저띠의 중심라인을 검출하는 레이저띠 중심라인 검출단계; 검출된 상기 레이저띠 중심라인으로부터 상기 삼각패턴의 모서리 점에 대응하는 영상좌표계 상의 특징점을 추출하는 특징점 추출단계; 추출된 상기 특징점의 노이즈를 제거하는 특징점 노이즈제거단계; 상기 로봇의 제어부에서 상기 멀티 레이저 비전 시스템으로 상기 엔드이펙터의 직교좌표계 상의 위치값을 전송하는 엔드이펙터 위치값 전송단계; 노이즈가 제거된 상기 특징점의 위치값과 상기 엔드이펙터의 위치값을 이용하여 최소 자승법을 기반으로 캘리브레이션을 수행하는 캘리브레이션 계산단계; 계산된 상기 캘리브레이션 오차와 적정한 허용오차를 비교하여 리캘리브레이션(Re-calibration) 수행 여부를 판단하는 캘리브레이션 오차비교단계; 및 계산된 상기 캘리브레이션을 통해 캘리브레이션-투영행렬(Projection Matrix)를 획득하는 캘리브레이션-투영행렬 획득단계;를 포함하는 것을 특징으로 하는 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법을 제공한다. In order to solve the above technical problem, the present invention provides a robot-based multi-laser vision for measuring a measurement object on the bottom by using a multi-laser vision system arranged in a line at equal intervals on a square beam of a front and rear movable robot. In a calibration method of a system, a calibration jig having a plurality of triangular patterns is mounted on an end effector on a square beam of the robot, and the calibration jig is moved to an initial position. Calibration preparation step to make; A trigger signal transmission step of transmitting a trigger signal for an image capture command from the controller of the robot to the multi-laser vision system; An image capturing step of capturing an image in the multi-laser vision system receiving the trigger signal; A laser strip center line detecting step of detecting a center line of the laser strip from the captured image; A feature point extraction step of extracting feature points on an image coordinate system corresponding to corner points of the triangular pattern from the detected laser strip center line; A feature point noise removing step of removing noise of the extracted feature points; An end effector position value transmission step of transmitting a position value on a Cartesian coordinate system of the end effector from the controller of the robot to the multi-laser vision system; A calibration calculation step of performing calibration based on a least square method using the position values of the feature points from which noise is removed and the position values of the end effector; A calibration error comparison step of determining whether to perform re-calibration by comparing the calculated calibration error with an appropriate tolerance; And a calibration-projection matrix acquiring step of acquiring a calibration-projection matrix through the calculated calibration.
본 발명과 본 발명의 동작성의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, the advantages of the operability of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings which illustrate preferred embodiments of the present invention and the contents described in the accompanying drawings.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.
도면에서, 도 1은 본 발명에 따른 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법의 일실시예를 도시한 플로우 차트이다. 도 2는 도 1에 도시된 실시예를 설명하기 위해 도시한 로봇 기반 멀티 레이저 비전 시스템의 개념도이다. 도 3은 도 1에 도시된 실시예에서 사용되는 캘리브레이션용 지그를 도시한 개념도이다.1 is a flowchart illustrating an embodiment of a calibration method of a robot-based multi-laser vision system according to the present invention. FIG. 2 is a conceptual diagram of a robot-based multi-laser vision system illustrated to describe the embodiment shown in FIG. 1. 3 is a conceptual diagram illustrating a jig for calibration used in the embodiment shown in FIG.
도 1 내지 도 3을 병행 참조하여 본 발명의 사상에 따른 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법의 바람직한 실시예에 대하여 설명하면, 먼저, 로봇의 사각빔(Square beam) 하부의 엔드이펙터(End Effector) 상에 복수 개의 삼각 패턴을 갖는 캘리브레이션용 지그를 장착하고, 상기 캘리브레이션용 지그를 초기 위치로 이동시키는 캘리브레이션 준비단계(S200)을 포함한다. A preferred embodiment of a calibration method of a robot-based multi-laser vision system according to the spirit of the present invention will be described with reference to FIGS. 1 to 3. First, an end effector below a square beam of a robot. And a calibration preparation step (S200) for mounting a calibration jig having a plurality of triangular patterns on the) and moving the calibration jig to an initial position.
본 발명인 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법을 이해 하기 위해선, 먼저 본 발명이 적용될 수 있는 로봇 기반 멀티 레이저 비전 시스템에 관한 장치적인 개념을 살펴보아야 하는데, 도 2를 참조하여 간단하게나마 설명하고자 한다. In order to understand the calibration method of the robot-based multi-laser vision system of the present invention, first, a device concept related to the robot-based multi-laser vision system to which the present invention can be applied should be described, but will be briefly described with reference to FIG. 2.
도 2는 로봇 기반 멀티 레이저 비전 시스템의 개념도이다. 이러한 로봇 기반 멀티 레이저 비전 시스템(1)은 피계측물이 안착될 수 있는 바닥면의 양측에는 레일(7)이 형성되어 있으며, 상기 레일(7)의 상부에는 상기 레일(7) 위를 전후로 이동할 수 있는 겐트리(Gantry) 형상의 로봇(3)이 구성되어 있다. 2 is a conceptual diagram of a robot-based multi-laser vision system. In the robot-based multi-laser vision system 1,
이러한 로봇(3)의 사각빔(Square beam) 하부면에는 멀티 레이저 비전 시스템(5)이 배치되는데, 복수 개로 구성된 레이저 비전 시스템이 등간격으로 일렬 배치된다. 이러한 로봇 기반 멀티 레이저 비전 시스템(1)은 상기 레일(7) 사이의 바닥면 상에 놓여질 피계측물의 형상을 레일방향으로 이동하면서, 멀티 레이저 비전 시스템(5)으로 신속하게 검출하여 상기 피계측물의 3차원 형상을 계측해 낼 수 있는 장치이다. The
상기 로봇 기반 멀티 레이저 비전 시스템(1)의 사각빔(Square beam)상의 일측면 상에는 엔드이펙터(9, End Effector)가 설치되는데, 이의 하단에 캘리브레이션용 지그(미도시)가 장착될 수 있다.An
여기서, 도 3을 참조하여 캘리브레이션용 지그를 살펴보면, 2개의 삼각패턴으로 되어 있는 캘리브레이션용 지그(50)와, 상기 캘리브레이션용 지그(50)를 측면에서 고정시켜주는 지그용 브라켓(52)과, 상기 지그용 브라켓(52)의 상단에 결합되어 도 2에서 설명한 바 있는 엔드이펙터(9)에 탈부착 가능하도록 형성된 원형 소 켓(54)을 포함하여 구성된다. Here, looking at the calibration jig with reference to Figure 3, a
도 1에 도시된 캘리브레이션 준비단계(S200)에서는 도 2의 상기 로봇 기반 멀티 레이저 비전 시스템(1)에 도 3의 캘리브레이션용 지그(50)를 장착하고, 이러한 캘리브레이션용 지그(50)를 미리 지정된 캘리브레이션 위치점들(Calibration positions)로 이동시키는 단계이다. In the calibration preparation step (S200) illustrated in FIG. 1, the
다음으로, 상기 로봇의 제어부에서 상기 멀티 레이저 비전 시스템으로 영상 캡쳐 지령을 위한 트리거 신호를 전송하는 트리거신호 전송단계(S210)를 포함한다. 로봇의 제어부에는 멀티 레이저 비전 시스템의 피계측물 영상 캡쳐를 지령하기 위한 트리거 신호를 생성 및 전송할 수 있는 기능을 하드웨어적으로 보유하고 있다. Next, a trigger signal transmission step (S210) of transmitting a trigger signal for an image capture command from the controller of the robot to the multi-laser vision system. The control unit of the robot has a function of generating and transmitting a trigger signal for commanding image capture of a measurement object of a multi-laser vision system in hardware.
다음으로, 상기 트리거 신호를 전송받은 상기 멀티 레이저 비전 시스템에서 영상을 캡쳐하는 영상캡쳐단계(S220)를 포함한다. 상기 로봇의 제어부로부터 트리거 신호를 전송받은 상기 멀티 레이저 비전 시스템은 촬상된 영상을 캡쳐한다. Next, an image capture step (S220) of capturing an image in the multi-laser vision system receiving the trigger signal. The multi-laser vision system receiving the trigger signal from the controller of the robot captures the captured image.
다음으로, 캡쳐된 상기 영상으로부터 레이저띠의 중심라인을 검출하는 레이저띠 중심라인 검출단계(S230)를 포함한다. 이때, 상기 레이저띠 중심라인 검출단계(S230)에서는 통상적인 각종 영상처리방식을 이용하여 캡쳐된 영상으로부터 레이저띠의 중심라인을 검출할 수 있으므로, 이에 대한 자세한 설명은 생략할 수 있다. Next, a laser strip center line detecting step (S230) of detecting a center line of the laser strip from the captured image. In this case, in the laser strip center line detecting step (S230), since the center line of the laser strip may be detected from the captured image by using various conventional image processing methods, a detailed description thereof may be omitted.
다음으로, 검출된 상기 레이저띠 중심라인으로부터 상기 삼각패턴의 모서리 점에 대응하는 영상좌표계 상의 특징점을 추출하는 특징점 추출단계(S240)를 포함한다. 상기 삼각패턴의 모서리 점은 로봇의 사각빔(Square beam) 하부의 엔드이펙터 상에 장착된 캘리브레이션용 지그의 형상과 관련되므로, 도 3에 도시된 바와 같 은 본 실시예에서는 2개의 삼각패턴 형상이 존재하여 그의 모서리 점에 대응하는 영상좌표계 상의 특징점을 추출하면 가능하지만, 이와 다른 실시예에서 본 실시예와 다른 복수 개의 삼각패턴 캘리브레이션용 지그를 이용할 경우에는 그에 따른 수의 모서리 점에 대응하는 영상좌표계 상의 특징점을 추출하여야 한다. Next, a feature point extraction step (S240) of extracting a feature point on the image coordinate system corresponding to the corner point of the triangular pattern from the detected laser strip center line. Since the corner point of the triangular pattern is related to the shape of the calibration jig mounted on the end effector under the square beam of the robot, in the present embodiment as shown in FIG. It is possible to extract the feature points on the image coordinate system that exist and correspond to the corner points thereof. However, in the case of using a plurality of triangular pattern calibration jig different from the present embodiment in another embodiment, the image coordinate system corresponding to the number of corner points accordingly. The feature points of the image must be extracted.
이러한 특징점 추출단계(S240)에 의해 2차원 영상좌표계 상의 특징점 위치값(U, V)이 계산될 수 있다. By the feature point extracting step S240, the feature point position values U and V on the two-dimensional image coordinate system can be calculated.
다음으로, 추출된 상기 특징점의 노이즈를 제거하는 특징점 노이즈제거단계(S250)을 포함한다. 본 단계(S250)에서 이용될 수 있는 노이즈 제거 방법은 통상의 노이즈 제거 방법을 적절하게 이용 가능하므로, 이에 대한 자세한 설명은 생략할 수 있다. 이러한 특징점 노이즈제거단계(S250)를 통하여 추출된 상기 특징점의 오류를 올바르게 수정할 수 있게 된다. Next, a feature point noise removing step (S250) of removing the extracted noise of the feature point is included. Since the noise removal method that can be used in this step (S250) can use a conventional noise removal method as appropriate, a detailed description thereof can be omitted. Through this feature point noise removal step S250, the error of the extracted feature point can be corrected correctly.
다음으로, 상기 로봇의 제어기에서 상기 멀티 레이저 비전 시스템으로 상기 엔드이펙터의 직교좌표계 상의 위치값을 전송하는 엔드이펙터 위치값 전송단계(S260)을 포함한다. Next, an end effector position value transmission step (S260) of transmitting a position value on the Cartesian coordinate system of the end effector from the controller of the robot to the multi-laser vision system.
캡쳐되고, 영상처리 된 후 계산된 2차원 영상좌표계 상의 특징점 위치값(U, V)과 상기 캘리브레이션용 지그가 장착되어 있는 엔드이펙터의 직교좌표계 위치값을 이용하여, 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션을 계산하기 위하여, 이러한 엔드이펙터 위치값 전송단계(S260)를 거치게 된다. 이러한 엔드이펙터 위치값 전송단계(S260)는 통상의 랜(Lan) 또는 시리얼 통신을 이용하여 수행될 수 있다. Calibration of the robot-based multi-laser vision system using captured point image values (U, V) on the two-dimensional image coordinate system and the Cartesian coordinate system position of the end effector equipped with the calibration jig In order to calculate, the end effector position value transmission step (S260) is passed. This end effector position value transmission step (S260) may be performed using ordinary LAN or serial communication.
다음으로, 노이즈가 제거된 상기 특징점의 위치값과 상기 엔드이펙터의 위치값을 이용하여 최소 자승법을 기반으로 캘리브레이션을 수행하는 캘리브레이션 계산단계(S270)를 포함한다. Next, a calibration calculation step (S270) of performing calibration based on a least square method using the position value of the feature point from which the noise is removed and the position value of the end effector is performed.
이러한 캘리브레이션 계산단계(S270)에서는 하기 [수학식 1]의 최소 자승법(Least-Square)을 기반으로 캘리브레이션이 수행된다.In this calibration calculation step (S270), calibration is performed based on Least-Square of Equation 1 below.
[수학식 1][Equation 1]
여기서 s는 배율(scalefactor)를 A는 인트린식 캘리브레이션 파라미터(intrinsic calibration parameter)를, [R,t]는 익스트린식 캘리브레이션 파라미터(extrinsic calibration parameter)를, m-=[u v 1]T, M-=[X Y Z 1]T를 의미한다. Where s is the magnification (scalefactor) A is STE rinsik calibration parameters (intrinsic calibration parameter), [R , t] is the extreme trim expression calibration parameters (extrinsic calibration parameter), m - = [uv 1] T, M - = [XYZ 1] means T.
또한,Also,
투영행렬 P는,The projection matrix P is
를 의미한다. Means.
이러한 캘리브레이션 계산단계(S270)에 의해서 캘리브레이션이 수행되고 나면, 다음으로 계산된 캘리브레이션 오차와 적정한 허용오차를 비교하여 리캘리브레 이션(Recalibration) 수행 여부를 판단하는 캘리브레이션 오차비교단계(S280)를 포함한다. 일반적으로 캘리브레이션에 대한 오차는 그 편차가 크므로, 적정한 범위 내의 오차, 즉 허용오차(Ea)와 실제 계산된 캘리브레이션에 대한 캘리브레이션 오차(Ec)를 비교하는 단계(S280)를 거치게 된다. After the calibration is performed by the calibration calculation step (S270), a calibration error comparison step (S280) that compares the next calculated calibration error with an appropriate tolerance to determine whether to perform the recalibration (Scalibration) is included. . In general, since the error of the calibration is large, a step (S280) of comparing the error within an appropriate range, that is, the tolerance E a with the calibration error E c for the actually calculated calibration is passed.
이때, 캘리브레이션 오차(Ec)가 허용오차(Ea) 이내의 범위에 속하면 최적의 투영행렬(Projection Matrix)를 획득하게 된 것이고, 이와 달리 캘리브레이션 오차(Ec)가 허용오차(Ea)를 벗어나게 되면, 오차를 벗어난 캘리브레이션 점들만을 제외시킨 나머지 데이터를 이용하여 다시 캘리브레이션을 수행하기 위하여 첫 번째 단계인 캘리브레이션 준비단계(S200)로 돌아가는 리-캘리브레이션(Recalibration)이 수행된다.At this time, if the calibration error E c falls within the tolerance E a , the optimal projection matrix is obtained. In contrast, the calibration error E c is the tolerance E a . If out of the, re-calibration (Recalibration) is performed to return to the calibration preparation step (S200), which is the first step in order to perform the calibration again using the remaining data except the calibration points out of the error.
적어도 1회 이상 반복된 전(全)단계를 거치면서, 마지막으로 캘리브레이션-투영행렬을 획득하는 캘리브레이션-투영행렬 획득단계(S290)를 포함한다. The calibration-projection matrix acquiring step (S290) is finally obtained, after the previous step is repeated at least once, and the calibration-projection matrix is acquired.
위의 전(全)단계를 통하면, 멀티 레이저 비전 시스템 중 하나의 레이저 비전 시스템에 대한 하나의 최적 3by4 투영행렬을 구할 수 있으므로, 도 2에 도시된 바와 같은 4개의 레이저 비전 시스템을 이용한 본 실시예의 경우에는 상술한 전(全)단계를 적어도 4회 이상 실시하여 캘리브레이션에 관련된 총 4개의 3by4 투영행렬을 도출해 낼 수 있다. Through all the above steps, one optimal 3by4 projection matrix for one laser vision system among the multi-laser vision systems can be obtained. Thus, this embodiment using four laser vision systems as shown in FIG. In the case of the example, all the above-described steps may be performed at least four times to derive a total of four 3by4 projection matrices related to the calibration.
본 발명은 도면에 도시된 일 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. . Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
이와 같이, 본 발명인 로봇 기반 멀티 레이저 비전 시스템의 캘리브레이션 방법에 의하면, 전후 이동 가능한 로봇의 사각빔(Square beam)상에서 등간격으로 일렬 배치된 멀티 레이저 비전 시스템을 이용하여 바닥부의 피계측물을 계측하는 로봇 기반 멀티 레이저 비전 시스템에 대하여, 신속하고 정확하게 캘리브레이션을 수행할 수 있게 되어, 제품 생산 시간 단축 및 제품 정도(精度) 향상을 가능하게 해주는 유리한 효과가 있다.As described above, according to the calibration method of the robot-based multi-laser vision system of the present invention, a measurement object on the bottom is measured by using a multi-laser vision system arranged in a line at equal intervals on a square beam of a robot that can move back and forth. For robot-based multi-laser vision systems, calibration can be performed quickly and accurately, which has the beneficial effect of reducing product production time and improving product accuracy.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070034902A KR100886655B1 (en) | 2007-04-10 | 2007-04-10 | The automatic calibration method in robot based multi-laser vision system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070034902A KR100886655B1 (en) | 2007-04-10 | 2007-04-10 | The automatic calibration method in robot based multi-laser vision system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080091891A true KR20080091891A (en) | 2008-10-15 |
KR100886655B1 KR100886655B1 (en) | 2009-03-04 |
Family
ID=40152233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070034902A KR100886655B1 (en) | 2007-04-10 | 2007-04-10 | The automatic calibration method in robot based multi-laser vision system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100886655B1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120036145A (en) * | 2010-10-07 | 2012-04-17 | 대우조선해양 주식회사 | Feature point detecting method of welding joint using laser vision system |
US8639021B2 (en) | 2010-01-27 | 2014-01-28 | Samsung Electronics Co., Ltd. | Apparatus and method with composite sensor calibration |
CN104574406A (en) * | 2015-01-16 | 2015-04-29 | 大连理工大学 | Joint calibration method between 360-degree panorama laser and multiple visual systems |
CN107817003A (en) * | 2016-09-14 | 2018-03-20 | 西安航通测控技术有限责任公司 | A kind of external parameters calibration method of distributed large scale space positioning system |
CN110084854A (en) * | 2009-12-24 | 2019-08-02 | 康耐视公司 | The system and method measured when operation for camera calibrated error |
CN110268355A (en) * | 2017-05-03 | 2019-09-20 | 深圳市元征科技股份有限公司 | Control method, equipment and the storage medium of intelligent surveying device |
CN110421568A (en) * | 2019-08-23 | 2019-11-08 | 中源智人科技(深圳)股份有限公司 | A kind of abnormity electronic component plug-in component machine people's laser orientation system |
KR20230162209A (en) * | 2022-05-20 | 2023-11-28 | 주식회사 위드포인츠 | Gantry-mounted 3D shape scanning apparatus and scanning method using same |
WO2024016965A1 (en) * | 2022-07-20 | 2024-01-25 | 节卡机器人股份有限公司 | Coordinate system calibration method and apparatus, robot and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0538688A (en) * | 1991-07-30 | 1993-02-19 | Nok Corp | Coordinate system calibrating method for industrial robot system |
KR970062838A (en) * | 1996-02-27 | 1997-09-12 | 이종수 | Three-dimensional robot calibration device and method using CCD camera and laser |
KR100568616B1 (en) * | 2003-12-31 | 2006-04-07 | 삼성중공업 주식회사 | Auto calibration method for welding |
KR100640743B1 (en) * | 2004-12-30 | 2006-10-31 | 삼성중공업 주식회사 | A calibration equipment of laser vision system for 6-axis robot |
-
2007
- 2007-04-10 KR KR1020070034902A patent/KR100886655B1/en active IP Right Grant
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084854A (en) * | 2009-12-24 | 2019-08-02 | 康耐视公司 | The system and method measured when operation for camera calibrated error |
CN110084854B (en) * | 2009-12-24 | 2024-05-07 | 康耐视公司 | System and method for runtime determination of camera calibration errors |
US8639021B2 (en) | 2010-01-27 | 2014-01-28 | Samsung Electronics Co., Ltd. | Apparatus and method with composite sensor calibration |
KR20120036145A (en) * | 2010-10-07 | 2012-04-17 | 대우조선해양 주식회사 | Feature point detecting method of welding joint using laser vision system |
CN104574406A (en) * | 2015-01-16 | 2015-04-29 | 大连理工大学 | Joint calibration method between 360-degree panorama laser and multiple visual systems |
CN104574406B (en) * | 2015-01-16 | 2017-06-23 | 大连理工大学 | A kind of combined calibrating method between 360 degree of panorama laser and multiple vision systems |
CN107817003A (en) * | 2016-09-14 | 2018-03-20 | 西安航通测控技术有限责任公司 | A kind of external parameters calibration method of distributed large scale space positioning system |
CN107817003B (en) * | 2016-09-14 | 2021-07-06 | 西安航通测控技术有限责任公司 | External parameter calibration method of distributed large-size space positioning system |
CN110268355A (en) * | 2017-05-03 | 2019-09-20 | 深圳市元征科技股份有限公司 | Control method, equipment and the storage medium of intelligent surveying device |
CN110421568A (en) * | 2019-08-23 | 2019-11-08 | 中源智人科技(深圳)股份有限公司 | A kind of abnormity electronic component plug-in component machine people's laser orientation system |
KR20230162209A (en) * | 2022-05-20 | 2023-11-28 | 주식회사 위드포인츠 | Gantry-mounted 3D shape scanning apparatus and scanning method using same |
WO2024016965A1 (en) * | 2022-07-20 | 2024-01-25 | 节卡机器人股份有限公司 | Coordinate system calibration method and apparatus, robot and storage medium |
Also Published As
Publication number | Publication date |
---|---|
KR100886655B1 (en) | 2009-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100886655B1 (en) | The automatic calibration method in robot based multi-laser vision system | |
US10157458B2 (en) | Laser projection system and method | |
US5319442A (en) | Optical inspection probe | |
WO2010150515A1 (en) | Information processing apparatus, information processing method, and program | |
JP2005526386A5 (en) | ||
US10121246B2 (en) | Measurement apparatus that obtains information of a shape of a surface using a corrected image and measurement method | |
JP2641829B2 (en) | Bending angle detection device in bending machine | |
JP2001249007A (en) | Offset measurement method, tool position detection method and bonding device | |
US11604281B2 (en) | Position and posture estimation apparatus of a forklift pallet | |
KR101854366B1 (en) | 3D-image measuring method | |
CN113406655B (en) | Method for correcting measured value of distance measuring device and distance measuring device | |
CN110433989B (en) | Workpiece surface spraying method | |
US11276198B2 (en) | Apparatus for determining dimensional and geometric properties of a measurement object | |
US20030133131A1 (en) | Accuracy analyzing apparatus for machine tool | |
KR102422990B1 (en) | System and Method for calibration of robot based on a scanning | |
EP2472220A1 (en) | Three-dimensional shape measurement method and three-dimensional shape measurement system | |
JP2017053793A (en) | Measurement device, and manufacturing method of article | |
JP4467599B2 (en) | Bonding equipment | |
KR20060104304A (en) | Recognition method of operation object for automatic welding using three dimensional marker measuring method | |
JP6319901B2 (en) | Vehicle accuracy evaluation system | |
JPH03268818A (en) | Angle measuring instrument for bender | |
JP3369235B2 (en) | Calibration method for measuring distortion in three-dimensional measurement | |
KR101833055B1 (en) | 3-dimensional measuring system | |
KR20190126706A (en) | Three-dimensional shape measuring system and measuring time setting method | |
KR102273836B1 (en) | Enhancements of measurement accuracy of 3-dimensional shapes of objects based on two sets of stereoscopic vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130201 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140129 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150202 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160201 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20190201 Year of fee payment: 11 |