KR102023087B1 - Method for camera calibration - Google Patents
Method for camera calibration Download PDFInfo
- Publication number
- KR102023087B1 KR102023087B1 KR1020180063005A KR20180063005A KR102023087B1 KR 102023087 B1 KR102023087 B1 KR 102023087B1 KR 1020180063005 A KR1020180063005 A KR 1020180063005A KR 20180063005 A KR20180063005 A KR 20180063005A KR 102023087 B1 KR102023087 B1 KR 102023087B1
- Authority
- KR
- South Korea
- Prior art keywords
- calibration
- camera
- sections
- pixel coordinate
- image frame
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Abstract
Description
본 발명은 카메라 캘리브레이션 방법에 관한 것으로, 보다 상세하게는 카메라 캘리브레이션에 의한 정밀도를 개선하기 위한 카메라 캘리브레이션 방법에 관한 것이다.The present invention relates to a camera calibration method, and more particularly, to a camera calibration method for improving the precision by camera calibration.
카메라 캘리브레이션은 머신 비전과 같은 비전검사기술 분야 등에서 영상으로부터 기하학적 정보를 정확하게 측정하고자 할 때 필요한 매우 중요한 과정으로서, 실제 3D공간좌표에서 카메라 2D 영상좌표로의 변환된 상관관계에 관련된 변수들을 찾는 과정이다. 이들 변수들은 카메라 자체 특성을 나타내는 내부 정보(intrinsic parameter)와 세계 좌표계(world coordinate)와 카메라 좌표계(camera coordinate) 간의 상관관계를 추출하기 위해 필요한 카메라 위치 및 방위로 구성된 외부 파라미터(extrinsic parameter)로 나누어진다. Camera calibration is a very important process to accurately measure geometric information from images in vision inspection technology fields such as machine vision.It is a process of finding variables related to the transformed correlation from real 3D spatial coordinates to camera 2D image coordinates. . These variables are divided into an intrinsic parameter representing the camera's own characteristics and an extrinsic parameter consisting of the camera position and orientation needed to extract the correlation between the world coordinate and the camera coordinate. Lose.
종래에는 선형 변환(Linear Transformation)에 의한 카메라 캘리브레이션 방법이 가장 많이 사용되고 있으나, 광학계의 비선형 왜곡을 보상하지 못해 고정밀도 측정 결과를 얻기 어려운 문제점이 있다. 이러한 광학계의 비선형 왜곡을 보상하여 보다 정밀도를 향상시키기 위해 고차 다항식(High-order polynomial) 변환 방법을 이용한다. Conventionally, a camera calibration method using linear transformation is most commonly used, but there is a problem in that it is difficult to obtain high-precision measurement results because it does not compensate for nonlinear distortion of an optical system. In order to compensate for nonlinear distortion of the optical system and to improve accuracy, a high-order polynomial conversion method is used.
즉, 카메라 캘리브레이션을 위해 실세계에서 수평, 수직방향으로 등간격인 격자무늬의 교정판을 이용하고, 획득된 격자 이미지에서 코너를 검출한다. 코너는 왼쪽 위부터 오른쪽 밑의 순서로 검출하는데, 코너의 위치를 서브 픽셀로 획득하여 코너를 한층 더 정확하게 검출한다. That is, for calibration of the camera, the calibration plates of grid patterns equally spaced in the horizontal and vertical directions in the real world are used, and corners are detected in the obtained grid image. The corners are detected in the order from the upper left to the lower right. The corners are obtained by subpixels to detect the corners more accurately.
각각의 코너를 찾아 영상좌표 (I1, J1), (I2, J2), ... , (IN, JN)로 표시하고, 실세계 좌표는 (X1, Y1), (X2, Y2), … , (XN, YN)로 나타내며, N은 캘리브레이션 포인트의 개수를 나타낸다. 영상 좌표(I, J)와 실세계 좌표(X, Y)와의 관계를 M차 다항식 변환(Polynomial Transformation)으로 표시하면 수학식 1과 같다. Find each corner and mark it as image coordinates (I 1 , J 1 ), (I 2 , J 2 ), ..., (I N , J N ), and real world coordinates are (X 1 , Y 1 ), ( X 2 , Y 2 ),. , (X N , Y N ), where N represents the number of calibration points. The relationship between the image coordinates (I, J) and the real world coordinates (X, Y) is expressed by Equation 1 using the M-order polynomial transformation.
[수학식 1][Equation 1]
N개의 영상좌표와 이에 대응되는 실세계 좌표가 주어졌을 때, 수학식 1을 최소자승오차(Least Square Error)상 가장 정확하게 만족시키는 해를 구하게 된다. 여기서는 3차 polynomial을 사용할 수 있다(M=3). Given N image coordinates and corresponding real-world coordinates, a solution that satisfies Equation 1 most accurately in Least Square Error is obtained. Here the tertiary polynomial can be used (M = 3).
도 1은 종래 기술의 제1 실시예에 따른 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이고, 도 2는 종래 기술의 제2 실시예에 따른 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이다. 1 is an exemplary view illustrating a result of performing a camera calibration using a higher order polynomial conversion method according to a first embodiment of the prior art, and FIG. 2 is a camera calibration using a higher order polynomial conversion method according to a second embodiment of the prior art. It is an exemplary view explaining the result of performing.
도 1에 도시된 바와 같이, 종래 기술의 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션 방법은 25M의 3차원 AOI(Automatic Optical Inspection) 장비에 7.7㎛ 분해능의 렌즈를 적용한 경우에, 카메라 캘리브레이션 사용전 최대 오차는 6.77㎛이고, 카메라 캘리브레이션 사용 후 최대 오차는 1.35㎛이며, 카메라 캘리브레이션 사용 후 다른 프레임에 대한 오차 결과는 5㎛임을 알 수 있다. As shown in Figure 1, the camera calibration method using the prior art polynomial conversion method of the prior art, in the case of applying a lens of 7.7㎛ resolution to 25M three-dimensional AOI (Automatic Optical Inspection) equipment, the maximum error before using the camera calibration is It is 6.77㎛, the maximum error after using the camera calibration is 1.35㎛, it can be seen that the error result for another frame after the camera calibration is 5㎛.
한편, 도 2에 도시된 바와 같이, 종래 기술의 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션 방법은 15M의 3차원 AOI(Automatic Optical Inspection) 장비에 15㎛ 분해능의 렌즈를 적용한 경우에, 카메라 캘리브레이션 사용전 최대 오차는 19.07㎛이고, 카메라 캘리브레이션 사용 후 최대 오차는 3.53㎛임을 알 수 있다On the other hand, as shown in Figure 2, the camera calibration method using a conventional high-order polynomial conversion method is the maximum before using the camera calibration, when the 15㎛ resolution lens is applied to 15M three-dimensional AOI (Automatic Optical Inspection) equipment The error is 19.07㎛, and the maximum error after using the camera calibration can be seen that 3.53㎛.
이와 같이, 종래에는 고차 다항식 변환 방법을 사용하여 전체 영상 프레임에 대회 1회의 캘리브레이션을 수행하기 때문에 해당 영상 프레임의 다음 프레임으로 이동시 측정 오차가 다시 커지게 되는 문제점이 있다.As described above, since a conventional calibration is performed on the entire image frame by using a higher-order polynomial conversion method, the measurement error is increased again when moving to the next frame of the image frame.
본 발명은 카메라 캘리브레이션에 의한 정밀도를 개선하기 위해 영상 프레임을 복수의 구간으로 나누어 구간별로 캘리브래이션을 수행하도록 하는 카메라 캘리브레이션 방법을 제공한다. The present invention provides a camera calibration method for performing calibration for each section by dividing an image frame into a plurality of sections in order to improve the precision by camera calibration.
실시예들 중에서, 카메라 캘리브레이션 방법은, 검사대상물의 3차원 형상을 측정하는 3차원 형상 측정 장치에 의해 수행되는 카메라 캘리브레이션 방법에 있어서, 카메라에서 촬영된 교정용 패턴에 대한 복수의 패턴 영상 정보를 수집하는 단계; 상기 복수의 패턴 영상 정보에서 기준 영상 프레임을 추출하고, 상기 기준 영상 프레임을 복수 개의 교정 구간으로 구분하는 단계; 및 상기 복수 개의 교정 구간별로 픽셀 좌표값을 이용하여 카메라의 내부 파라미터와 외부 파라미터를 계산하는 캘리브레이션을 수행하는 단계를 포함하되, 상기 복수 개의 교정 구간은 인접한 교정 구간들 간에 복수 개의 픽셀을 공통으로 가지는 교집합 영역을 형성하는 것을 특징으로 한다. Among the embodiments, the camera calibration method, in the camera calibration method performed by the three-dimensional shape measuring apparatus for measuring the three-dimensional shape of the inspection object, collecting a plurality of pattern image information for the calibration pattern taken by the camera Doing; Extracting a reference image frame from the plurality of pattern image information and dividing the reference image frame into a plurality of calibration sections; And performing calibration for calculating internal and external parameters of the camera by using pixel coordinate values for each of the plurality of calibration sections, wherein the plurality of calibration sections have a plurality of pixels in common between adjacent calibration sections. An intersection region is formed.
이때, 상기 복수 개의 교정 구간별로 픽셀 좌표값을 이용하여 카메라의 내부 파라미터와 외부 파라미터를 계산하는 캘리브레이션을 수행하는 단계는, 상기 캘리브레이션을 수행한 후에 각 교정 구간별로 교정 픽셀 좌표값을 산출하는 단계; 및 상기 교집합 영역에 속하지 않는 픽셀들의 경우 교정 픽셀 좌표값을 적용하고, 상기 교집합 영역에 속한 픽셀들의 경우 상기 교집합 영역이 인접된 교정 구간에서 산출된 각각의 교정 픽셀 좌표값을 평균하여 사용하는 것을 특징으로 한다. In this case, performing a calibration for calculating an internal parameter and an external parameter of the camera by using the pixel coordinate values for each of the plurality of calibration sections may include: calculating calibration pixel coordinate values for each calibration section after performing the calibration; And correcting pixel coordinate values in the case of pixels not belonging to the intersection region, and averaging each correction pixel coordinate value calculated in the correction section adjacent to the intersection region in the case of pixels belonging to the intersection region. It is done.
본 발명의 카메라 캘리브레이션 방법은, 카메라의 회전 및 왜곡 등에 의한 측정 오차를 소프트웨어적으로 보정하여 실제 좌표와 영상 좌표 간의 오프셋을 줄여 정밀도를 더욱 향상시킬 수 있고, 캘리브레이션을 신속하게 진행할 수 있는 효과가 있다.The camera calibration method of the present invention can further improve the accuracy by reducing the offset between the actual coordinates and the image coordinates by software correcting the measurement error due to the rotation and distortion of the camera, etc., and has the effect of quickly performing the calibration. .
도 1은 종래 기술의 제1 실시예에 따른 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이다.
도 2는 종래 기술의 제2 실시예에 따른 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이다.
도 3은 본 발명의 일 실시예에 따른 카메라 캘리브레이션 방법을 설명하는 순서도이다.
도 4는 도 3의 복수 개의 교정 구간별 캘리브레이션을 수행하는 과정을 설명하는 도면이다.
도 5는 본 발명의 제1 실시예에 따른 카메라 캘리브레이션 방법을 적용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이다.
도 6은 도 5의 영상 프레임에서 다음 영상 프레임으로 이동 후의 오차 변화를 설명하는 도면이다.
도 7은 본 발명의 제2 실시예에 따른 카메라 캘리브레이션 방법을 적용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이다.
도 8은 도 7의 영상 프레임에서 다음 영상 프레임으로 이동 후의 오차 변화를 설명하는 도면이다.1 is an exemplary view illustrating a result of performing a camera calibration using a higher-order polynomial conversion method according to a first embodiment of the prior art.
2 is an exemplary diagram illustrating a result of performing a camera calibration using a higher-order polynomial conversion method according to a second embodiment of the prior art.
3 is a flowchart illustrating a camera calibration method according to an embodiment of the present invention.
4 is a diagram illustrating a process of performing calibration for each of a plurality of calibration sections of FIG. 3.
5 is an exemplary view illustrating a result of performing a camera calibration to which the camera calibration method according to the first embodiment of the present invention is applied.
FIG. 6 is a view for explaining an error change after moving from the image frame of FIG. 5 to the next image frame.
7 is an exemplary view illustrating a result of performing a camera calibration to which the camera calibration method according to the second embodiment of the present invention is applied.
FIG. 8 is a diagram illustrating a change in error after moving from the image frame of FIG. 7 to the next image frame.
본 발명에 기재된 실시예 및 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 표현하는 것은 아니므로, 본 발명의 권리범위는 본문에 설명된 실시예 및 도면에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Configurations shown in the embodiments and drawings described in the present invention are merely preferred embodiments of the present invention, and do not represent all of the technical idea of the present invention, the scope of the invention is the embodiments and drawings described in the text It should not be construed as limited by That is, since the embodiments may be variously modified and may have various forms, the scope of the present invention should be understood to include equivalents capable of realizing the technical idea. In addition, the objects or effects presented in the present invention does not mean that a specific embodiment should include all or only such effects, the scope of the present invention should not be understood as being limited thereby.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. The terms defined in the commonly used dictionary should be interpreted to correspond with the meanings in the context of the related art, and should not be interpreted as having an ideal or excessively formal meaning not explicitly defined in the present invention.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 발명의 요지를 불필요하게 흐릴 수 있는 공지기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, with reference to the drawings will be described the present invention in more detail. Detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.
카메라 캘리브레이션 방법은 검사대상물의 3차원 형상을 측정하는 3차원 형상 측정 장치에 의해 수행되는 것으로서, 3차원 형상 측정 장치는 카메라 캘리브레이션을 수행하는 프로그램이 저장되는 메모리와 메모리에 저장된 프로그램을 실행하여 카메라 캘리브레이션에 필요한 제반 제어 동작을 수행하는 프로세서를 포함한다. Camera calibration method is performed by a three-dimensional shape measuring device for measuring the three-dimensional shape of the inspection object, the three-dimensional shape measuring device is a camera calibration by executing a program stored in the memory and a memory that stores a program for performing the camera calibration It includes a processor that performs all the necessary control operations.
도 3은 본 발명의 일 실시예에 따른 카메라 캘리브레이션 방법을 설명하는 순서도이고, 도 4는 도 3의 복수 개의 교정 구간별 캘리브레이션을 수행하는 과정을 설명하는 도면이다.3 is a flowchart illustrating a camera calibration method according to an exemplary embodiment of the present invention, and FIG. 4 is a diagram illustrating a process of performing calibration for each of a plurality of calibration sections of FIG. 3.
도 3 및 도 4를 참고하면, 카메라 캘리브레이션 방법은 3차원 형상 측정 장치에 구비된 카메라에서 촬영된 교정용 패턴에 대한 복수의 패턴 영상 정보를 수집한다(S1). 즉, 카메라는 등간격의 일정한 패턴을 가지는 교정 보드를 촬영하여 패턴 영상 정보를 프로세서에 제공하고, 프로세서는 패턴 영상 정보의 교정 패턴 내의 각 격자점에 대한 영상에서의 픽셀 좌표를 추출한다. 이때, 격자점 중 하나를 세계좌표계 상에서의 원점으로 지정하고 나머지 격자점에 대하여 기설정된 등간격을 이용하여 세계 좌표계에서의 좌표값을 부여한다. 각 격자점에 대하여 이차원 영상에서의 픽셀 좌표값을 추출하고 이를 이용하여 기준 영상 프레임으로 제공한다.3 and 4, the camera calibration method collects a plurality of pattern image information about a calibration pattern photographed by a camera provided in a 3D shape measuring apparatus (S1). That is, the camera photographs a calibration board having a constant pattern of equal intervals and provides the pattern image information to the processor, and the processor extracts pixel coordinates in the image for each grid point in the calibration pattern of the pattern image information. At this time, one of the grid points is designated as an origin point in the world coordinate system and a coordinate value in the world coordinate system is given to the remaining grid points by using a predetermined equal interval. The pixel coordinate values of the two-dimensional image are extracted for each grid point and provided as a reference image frame.
그리고, 카메라 캘리브레이션 방법은 복수의 패턴 영상 정보에서 기준 영상 프레임을 추출하고, 기준 영상 프레임을 복수 개의 교정 구간으로 구분한다(S2). 이때, 복수 개의 교정 구간은 인접한 교정 구간들 간에 복수 개의 픽셀을 공통으로 가지는 교집합 영역을 형성한다. Then, the camera calibration method extracts a reference image frame from the plurality of pattern image information, and divides the reference image frame into a plurality of calibration sections (S2). In this case, the plurality of calibration sections form an intersection region having a plurality of pixels in common between adjacent calibration sections.
도 4에 도시된 바와 같이, 기준 영상 프레임은 4개의 교정 구간(21, 22, 23, 24)로 구분되고, 제1 교정구간(21)과 제2 교정 구간(22) 간에 제1 교집합 영역(31)이 형성되며, 제1 교정구간(21)과 제3 교정 구간(23) 간에 제2 교집합 영역(32)이 형성되며, 제2 교정 구간(22)과 제4 교정 구간(24) 간에 제3 교집합 영역(33)이 형성되고, 제3 교정 구간(23)과 제4 교정 구간(34) 간에 제4 교집합 영역(34)이 형성되며, 제1 교정 구간(21)에서 제4 교정 구간(34)에 걸쳐 제5 교집합 영역(35)이 형성된다. As shown in FIG. 4, the reference image frame is divided into four
카메라 캘리브레이션 방법은 복수 개의 교정 구간별로 카메라의 내부 파라미터와 외부 파라미터를 계산하는 캘리브레이션을 수행한다(S3). 그리고 카메라 캘리브레이션 방법은 캘리브레이션을 수행하여 각 교정 구간별로 교정 픽셀 좌표값을 산출한다(S4). 이때, 특정한 교정 구간의 경우, 교집합 영역에 속하지 않는 픽셀들의 경우 교정 픽셀 좌표값을 사용하지만, 교집합 영역에 속한 픽셀들의 경우 교집합 영역을 형성하고 있는 교정 구간들의 각 교정 픽셀 좌표값을 평균하여 사용한다. The camera calibration method performs calibration for calculating an internal parameter and an external parameter of the camera for each of a plurality of calibration sections (S3). In operation S4, the camera calibration method calculates a calibration pixel coordinate value for each calibration section by performing calibration. In this case, in the case of a specific correction section, correction pixel coordinate values are used for pixels that do not belong to an intersection region, but for each pixel, the correction pixel coordinate values of correction sections forming an intersection region are averaged. .
즉, 제1 교정 구간(21)의 경우에, 교집합 영역에 속하지 않는 (0, 0), (1, 0), (0, 1), (1, 1)에 대한 격자점은 교정된 픽셀 좌표값을 사용하지만, 제1 교집합 영역(31)에 속하는 (2, 0), (3, 0), (2, 1), (3, 1), (2, 2), (3, 2), (2, 3), (3, 3)에 대한 격자점은 제1 교정 구간(21)에서 산출된 교정 픽셀 좌표값과 제2 교정 구간(22)에서 산출된 교정 픽셀 좌표값을 평균하여 사용한다. That is, in the case of the
카메라 캘리브레이션 방법은 사전에 정의된 격자점들에 대한 실제 세계 좌표값과와 이 점들에 대한 2차원 영상에서의 픽셀 좌표값를 이용하여 실세계 좌표계, 카메라 좌표계, 이미지 좌표계로의 변환 행렬을 계산함으로써 카메라의 내부 파라미터 및 외부 파라미터를 추출한다.The camera calibration method calculates the transformation matrix of the camera using real world coordinates, camera coordinates, and image coordinates by using real world coordinate values for predefined grid points and pixel coordinate values in two-dimensional images. Extract internal and external parameters.
도 5는 본 발명의 제1 실시예에 따른 카메라 캘리브레이션 방법을 적용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이고, 도 6은 도 5의 영상 프레임에서 다음 영상 프레임으로 이동 후의 오차 변화를 설명하는 도면이다.FIG. 5 is an exemplary view illustrating a result of performing a camera calibration using the camera calibration method according to the first embodiment of the present invention, and FIG. 6 is a view illustrating a change in an error after moving from the image frame of FIG. 5 to the next image frame. to be.
도 5 및 도 6에 도시된 바와 같이, 카메라 캘리브레이션 방법은 15M의 3차원 AOI(Automatic Optical Inspection) 장비에 15㎛ 분해능의 렌즈를 적용한 경우에, 카메라 캘리브레이션 사용 후 최대 오차는 1.86㎛이며, 해당 영상 프레임에서 다음 영상 프레임으로 이동한 후에 최대 오차는 1.86㎛임을 알 수 있다. As shown in FIGS. 5 and 6, in the case of applying a lens having a 15 μm resolution to a 15M three-dimensional AOI (Automatic Optical Inspection) equipment, the maximum error after using the camera calibration is 1.86 μm, and the corresponding image is shown. It can be seen that the maximum error is 1.86 μm after moving from the frame to the next image frame.
도 7은 본 발명의 제2 실시예에 따른 카메라 캘리브레이션 방법을 적용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이고, 도 8은 도 7의 영상 프레임에서 다음 영상 프레임으로 이동 후의 오차 변화를 설명하는 도면이다.FIG. 7 is an exemplary view illustrating a result of performing a camera calibration by applying a camera calibration method according to a second embodiment of the present invention, and FIG. 8 is a view illustrating a change in an error after moving from the image frame of FIG. 7 to the next image frame. to be.
도 7 및 도 8에 도시된 바와 같이, 카메라 캘리브레이션 방법은 25M의 3차원 AOI(Automatic Optical Inspection) 장비에 7.7㎛ 분해능의 렌즈를 적용한 경우에, 카메라 캘리브레이션 사용 후 최대 오차는 1.51㎛이며, 해당 영상 프레임에서 다음 영상 프레임으로 이동한 후에 최대 오차는 2.30㎛임을 알 수 있다. As shown in FIG. 7 and FIG. 8, the camera calibration method has a maximum error of 1.51 μm after using camera calibration when a lens having a resolution of 7.7 μm is applied to a 25M three-dimensional AOI (Automatic Optical Inspection) device. It can be seen that the maximum error is 2.30 μm after moving from the frame to the next image frame.
본 발명의 일 실시예에 따른 카메라 캘리브레이션은 하나의 영상 프레임을 4개의 교정 구간으로 나누어 캘리브레이션을 수행하고 있어 렌즈 분해능에 따라 25M 7,7㎛와 15M 10㎛ 분해능의 렌즈를 적용한 경우에 측정 오차가 2㎛ 이내, 15M 15㎛ 분해능의 렌즈를 적용한 경우에 측정 오차가 3㎛ 이내가 되도록 할 수 있다.In the camera calibration according to an embodiment of the present invention, calibration is performed by dividing a single image frame into four calibration sections, so that a measurement error is applied when a lens having a resolution of 25M 7,7㎛ and 15M 10㎛ is applied according to the lens resolution. When a lens having a resolution of 2 m or less and 15 M 15 m resolution is applied, the measurement error can be made to be 3 m or less.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below I can understand that you can.
Claims (2)
카메라에서 촬영된 교정용 패턴에 대한 복수의 패턴 영상 정보를 수집하는 단계;
상기 복수의 패턴 영상 정보에서 기준 영상 프레임을 추출하고, 상기 기준 영상 프레임을 복수 개의 교정 구간으로 구분하는 단계; 및
상기 복수 개의 교정 구간별로 픽셀 좌표값을 이용하여 카메라의 내부 파라미터와 외부 파라미터를 계산하는 캘리브레이션을 수행하는 단계를 포함하되,
상기 복수 개의 교정 구간은 인접한 교정 구간들 간에 복수 개의 픽셀을 공통으로 가지는 교집합 영역을 형성하며,
상기 복수 개의 교정 구간별로 픽셀 좌표값을 이용하여 카메라의 내부 파라미터와 외부 파라미터를 계산하는 캘리브레이션을 수행하는 단계는,
상기 캘리브레이션을 수행한 후에 각 교정 구간별로 교정 픽셀 좌표값을 산출하는 단계; 및
상기 교집합 영역에 속하지 않는 픽셀들의 경우 교정 픽셀 좌표값을 적용하고, 상기 교집합 영역에 속한 픽셀들의 경우 상기 교집합 영역이 인접된 교정 구간에서 산출된 각각의 교정 픽셀 좌표값을 평균하여 사용하는 것을 특징으로 하는 카메라 캘리브레이션 방법.In the camera calibration method performed by the three-dimensional shape measuring apparatus for measuring the three-dimensional shape of the inspection object,
Collecting a plurality of pattern image information of a calibration pattern photographed by a camera;
Extracting a reference image frame from the plurality of pattern image information and dividing the reference image frame into a plurality of calibration sections; And
And performing a calibration for calculating an internal parameter and an external parameter of the camera by using the pixel coordinate values for each of the plurality of correction sections.
The plurality of calibration sections form an intersection region having a plurality of pixels in common among adjacent calibration sections,
Performing a calibration for calculating the internal parameter and the external parameter of the camera by using the pixel coordinate value for each of the plurality of correction intervals,
Calculating a calibration pixel coordinate value for each calibration section after performing the calibration; And
Corrected pixel coordinate values are applied to pixels that do not belong to the intersection region, and the corrected pixel coordinate values calculated in the correction interval adjacent to the intersection region are used for pixels belonging to the intersection region. Camera calibration method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180063005A KR102023087B1 (en) | 2018-05-31 | 2018-05-31 | Method for camera calibration |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180063005A KR102023087B1 (en) | 2018-05-31 | 2018-05-31 | Method for camera calibration |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102023087B1 true KR102023087B1 (en) | 2019-09-20 |
Family
ID=68067640
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180063005A KR102023087B1 (en) | 2018-05-31 | 2018-05-31 | Method for camera calibration |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102023087B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112053404A (en) * | 2020-08-07 | 2020-12-08 | 北京中科慧眼科技有限公司 | Stereo correction method and system for binocular camera after loading |
CN112184830A (en) * | 2020-09-22 | 2021-01-05 | 深研人工智能技术(深圳)有限公司 | Camera internal parameter and external parameter calibration method and device, computer equipment and storage medium |
CN113240752A (en) * | 2021-05-21 | 2021-08-10 | 中科创达软件股份有限公司 | Internal reference and external reference cooperative calibration method and device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05277973A (en) * | 1991-12-25 | 1993-10-26 | Sanyo Electric Co Ltd | Calibration method for manipulator |
JP2008014940A (en) * | 2006-06-08 | 2008-01-24 | Fast:Kk | Camera calibration method for camera measurement of planar subject and measuring device applying same |
JP2013187822A (en) * | 2012-03-09 | 2013-09-19 | Ricoh Co Ltd | Correction formula calculation method, correction method, correction apparatus, and imaging apparatus |
JP2016001181A (en) * | 2009-12-24 | 2016-01-07 | コグネックス・コーポレイション | System and method for runtime determination of camera mis-calibration |
-
2018
- 2018-05-31 KR KR1020180063005A patent/KR102023087B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05277973A (en) * | 1991-12-25 | 1993-10-26 | Sanyo Electric Co Ltd | Calibration method for manipulator |
JP2008014940A (en) * | 2006-06-08 | 2008-01-24 | Fast:Kk | Camera calibration method for camera measurement of planar subject and measuring device applying same |
JP2016001181A (en) * | 2009-12-24 | 2016-01-07 | コグネックス・コーポレイション | System and method for runtime determination of camera mis-calibration |
JP2013187822A (en) * | 2012-03-09 | 2013-09-19 | Ricoh Co Ltd | Correction formula calculation method, correction method, correction apparatus, and imaging apparatus |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112053404A (en) * | 2020-08-07 | 2020-12-08 | 北京中科慧眼科技有限公司 | Stereo correction method and system for binocular camera after loading |
CN112053404B (en) * | 2020-08-07 | 2024-04-16 | 北京中科慧眼科技有限公司 | Stereoscopic correction method and system for binocular camera after loading |
CN112184830A (en) * | 2020-09-22 | 2021-01-05 | 深研人工智能技术(深圳)有限公司 | Camera internal parameter and external parameter calibration method and device, computer equipment and storage medium |
CN113240752A (en) * | 2021-05-21 | 2021-08-10 | 中科创达软件股份有限公司 | Internal reference and external reference cooperative calibration method and device |
CN113240752B (en) * | 2021-05-21 | 2024-03-22 | 中科创达软件股份有限公司 | Internal reference and external reference collaborative calibration method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Huang et al. | Research on multi-camera calibration and point cloud correction method based on three-dimensional calibration object | |
CN110021046B (en) | External parameter calibration method and system for camera and laser radar combined sensor | |
JP6363863B2 (en) | Information processing apparatus and information processing method | |
CN107564069B (en) | Method and device for determining calibration parameters and computer readable storage medium | |
CN104142157B (en) | A kind of scaling method, device and equipment | |
JP5999615B2 (en) | Camera calibration information generating apparatus, camera calibration information generating method, and camera calibration information generating program | |
CN110689579A (en) | Rapid monocular vision pose measurement method and measurement system based on cooperative target | |
CN110148174A (en) | Scaling board, scaling board recognition methods and device | |
JP5633058B1 (en) | 3D measuring apparatus and 3D measuring method | |
EP2194725A1 (en) | Method and apparatus for correcting a depth image | |
TW201724026A (en) | Generating a merged, fused three-dimensional point cloud based on captured images of a scene | |
KR102023087B1 (en) | Method for camera calibration | |
CN112132907B (en) | Camera calibration method and device, electronic equipment and storage medium | |
US10771776B2 (en) | Apparatus and method for generating a camera model for an imaging system | |
CN104760812B (en) | Product real-time positioning system and method on conveyer belt based on monocular vision | |
KR101589167B1 (en) | System and Method for Correcting Perspective Distortion Image Using Depth Information | |
CN104111038A (en) | Method for using phase fusion algorithm to repair phase error caused by saturation | |
JP2020161129A (en) | System and method for scoring color candidate poses against color image in vision system | |
CN115201883B (en) | Moving target video positioning and speed measuring system and method | |
CN111161358A (en) | Camera calibration method and device for structured light depth measurement | |
CN113465573A (en) | Monocular distance measuring method and device and intelligent device | |
JP6035031B2 (en) | Three-dimensional shape measuring device using multiple grids | |
JP2011155412A (en) | Projection system and distortion correction method in the same | |
CN110223356A (en) | A kind of monocular camera full automatic calibration method based on energy growth | |
KR101653861B1 (en) | Drawing data generating method, drawing method, drawing data generating apparatus and drawing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |