KR102023087B1 - Method for camera calibration - Google Patents

Method for camera calibration Download PDF

Info

Publication number
KR102023087B1
KR102023087B1 KR1020180063005A KR20180063005A KR102023087B1 KR 102023087 B1 KR102023087 B1 KR 102023087B1 KR 1020180063005 A KR1020180063005 A KR 1020180063005A KR 20180063005 A KR20180063005 A KR 20180063005A KR 102023087 B1 KR102023087 B1 KR 102023087B1
Authority
KR
South Korea
Prior art keywords
calibration
camera
sections
pixel coordinate
image frame
Prior art date
Application number
KR1020180063005A
Other languages
Korean (ko)
Inventor
장권규
박찬화
문현수
Original Assignee
주식회사 미르기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 미르기술 filed Critical 주식회사 미르기술
Priority to KR1020180063005A priority Critical patent/KR102023087B1/en
Application granted granted Critical
Publication of KR102023087B1 publication Critical patent/KR102023087B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Abstract

The present invention relates to a camera calibration method. In a camera calibration method which is performed by a three-dimensional form measuring device measuring a three-dimensional form of an inspection subject, the method comprises the following steps: collecting multiple pattern image information with regard to a calibration pattern photographed by a camera; extracting a standard image frame from the multiple pattern image information and distinguishing the standard image frame into multiple calibration sections; using a pixel coordinate value for each of the multiple calibration sections to perform calibration of calculating an inner parameter and an external parameter of the camera. The multiple calibration sections form an intersection region which commonly has multiple pixels between the adjacent calibration sections from each other.

Description

카메라 캘리브레이션 방법{Method for camera calibration} Camera calibration method {Method for camera calibration}

본 발명은 카메라 캘리브레이션 방법에 관한 것으로, 보다 상세하게는 카메라 캘리브레이션에 의한 정밀도를 개선하기 위한 카메라 캘리브레이션 방법에 관한 것이다.The present invention relates to a camera calibration method, and more particularly, to a camera calibration method for improving the precision by camera calibration.

카메라 캘리브레이션은 머신 비전과 같은 비전검사기술 분야 등에서 영상으로부터 기하학적 정보를 정확하게 측정하고자 할 때 필요한 매우 중요한 과정으로서, 실제 3D공간좌표에서 카메라 2D 영상좌표로의 변환된 상관관계에 관련된 변수들을 찾는 과정이다. 이들 변수들은 카메라 자체 특성을 나타내는 내부 정보(intrinsic parameter)와 세계 좌표계(world coordinate)와 카메라 좌표계(camera coordinate) 간의 상관관계를 추출하기 위해 필요한 카메라 위치 및 방위로 구성된 외부 파라미터(extrinsic parameter)로 나누어진다. Camera calibration is a very important process to accurately measure geometric information from images in vision inspection technology fields such as machine vision.It is a process of finding variables related to the transformed correlation from real 3D spatial coordinates to camera 2D image coordinates. . These variables are divided into an intrinsic parameter representing the camera's own characteristics and an extrinsic parameter consisting of the camera position and orientation needed to extract the correlation between the world coordinate and the camera coordinate. Lose.

종래에는 선형 변환(Linear Transformation)에 의한 카메라 캘리브레이션 방법이 가장 많이 사용되고 있으나, 광학계의 비선형 왜곡을 보상하지 못해 고정밀도 측정 결과를 얻기 어려운 문제점이 있다. 이러한 광학계의 비선형 왜곡을 보상하여 보다 정밀도를 향상시키기 위해 고차 다항식(High-order polynomial) 변환 방법을 이용한다. Conventionally, a camera calibration method using linear transformation is most commonly used, but there is a problem in that it is difficult to obtain high-precision measurement results because it does not compensate for nonlinear distortion of an optical system. In order to compensate for nonlinear distortion of the optical system and to improve accuracy, a high-order polynomial conversion method is used.

즉, 카메라 캘리브레이션을 위해 실세계에서 수평, 수직방향으로 등간격인 격자무늬의 교정판을 이용하고, 획득된 격자 이미지에서 코너를 검출한다. 코너는 왼쪽 위부터 오른쪽 밑의 순서로 검출하는데, 코너의 위치를 서브 픽셀로 획득하여 코너를 한층 더 정확하게 검출한다. That is, for calibration of the camera, the calibration plates of grid patterns equally spaced in the horizontal and vertical directions in the real world are used, and corners are detected in the obtained grid image. The corners are detected in the order from the upper left to the lower right. The corners are obtained by subpixels to detect the corners more accurately.

각각의 코너를 찾아 영상좌표 (I1, J1), (I2, J2), ... , (IN, JN)로 표시하고, 실세계 좌표는 (X1, Y1), (X2, Y2), … , (XN, YN)로 나타내며, N은 캘리브레이션 포인트의 개수를 나타낸다. 영상 좌표(I, J)와 실세계 좌표(X, Y)와의 관계를 M차 다항식 변환(Polynomial Transformation)으로 표시하면 수학식 1과 같다. Find each corner and mark it as image coordinates (I 1 , J 1 ), (I 2 , J 2 ), ..., (I N , J N ), and real world coordinates are (X 1 , Y 1 ), ( X 2 , Y 2 ),. , (X N , Y N ), where N represents the number of calibration points. The relationship between the image coordinates (I, J) and the real world coordinates (X, Y) is expressed by Equation 1 using the M-order polynomial transformation.

[수학식 1][Equation 1]

Figure 112018053881682-pat00001
Figure 112018053881682-pat00001

N개의 영상좌표와 이에 대응되는 실세계 좌표가 주어졌을 때, 수학식 1을 최소자승오차(Least Square Error)상 가장 정확하게 만족시키는 해를 구하게 된다. 여기서는 3차 polynomial을 사용할 수 있다(M=3). Given N image coordinates and corresponding real-world coordinates, a solution that satisfies Equation 1 most accurately in Least Square Error is obtained. Here the tertiary polynomial can be used (M = 3).

도 1은 종래 기술의 제1 실시예에 따른 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이고, 도 2는 종래 기술의 제2 실시예에 따른 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이다. 1 is an exemplary view illustrating a result of performing a camera calibration using a higher order polynomial conversion method according to a first embodiment of the prior art, and FIG. 2 is a camera calibration using a higher order polynomial conversion method according to a second embodiment of the prior art. It is an exemplary view explaining the result of performing.

도 1에 도시된 바와 같이, 종래 기술의 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션 방법은 25M의 3차원 AOI(Automatic Optical Inspection) 장비에 7.7㎛ 분해능의 렌즈를 적용한 경우에, 카메라 캘리브레이션 사용전 최대 오차는 6.77㎛이고, 카메라 캘리브레이션 사용 후 최대 오차는 1.35㎛이며, 카메라 캘리브레이션 사용 후 다른 프레임에 대한 오차 결과는 5㎛임을 알 수 있다. As shown in Figure 1, the camera calibration method using the prior art polynomial conversion method of the prior art, in the case of applying a lens of 7.7㎛ resolution to 25M three-dimensional AOI (Automatic Optical Inspection) equipment, the maximum error before using the camera calibration is It is 6.77㎛, the maximum error after using the camera calibration is 1.35㎛, it can be seen that the error result for another frame after the camera calibration is 5㎛.

한편, 도 2에 도시된 바와 같이, 종래 기술의 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션 방법은 15M의 3차원 AOI(Automatic Optical Inspection) 장비에 15㎛ 분해능의 렌즈를 적용한 경우에, 카메라 캘리브레이션 사용전 최대 오차는 19.07㎛이고, 카메라 캘리브레이션 사용 후 최대 오차는 3.53㎛임을 알 수 있다On the other hand, as shown in Figure 2, the camera calibration method using a conventional high-order polynomial conversion method is the maximum before using the camera calibration, when the 15㎛ resolution lens is applied to 15M three-dimensional AOI (Automatic Optical Inspection) equipment The error is 19.07㎛, and the maximum error after using the camera calibration can be seen that 3.53㎛.

이와 같이, 종래에는 고차 다항식 변환 방법을 사용하여 전체 영상 프레임에 대회 1회의 캘리브레이션을 수행하기 때문에 해당 영상 프레임의 다음 프레임으로 이동시 측정 오차가 다시 커지게 되는 문제점이 있다.As described above, since a conventional calibration is performed on the entire image frame by using a higher-order polynomial conversion method, the measurement error is increased again when moving to the next frame of the image frame.

본 발명은 카메라 캘리브레이션에 의한 정밀도를 개선하기 위해 영상 프레임을 복수의 구간으로 나누어 구간별로 캘리브래이션을 수행하도록 하는 카메라 캘리브레이션 방법을 제공한다. The present invention provides a camera calibration method for performing calibration for each section by dividing an image frame into a plurality of sections in order to improve the precision by camera calibration.

실시예들 중에서, 카메라 캘리브레이션 방법은, 검사대상물의 3차원 형상을 측정하는 3차원 형상 측정 장치에 의해 수행되는 카메라 캘리브레이션 방법에 있어서, 카메라에서 촬영된 교정용 패턴에 대한 복수의 패턴 영상 정보를 수집하는 단계; 상기 복수의 패턴 영상 정보에서 기준 영상 프레임을 추출하고, 상기 기준 영상 프레임을 복수 개의 교정 구간으로 구분하는 단계; 및 상기 복수 개의 교정 구간별로 픽셀 좌표값을 이용하여 카메라의 내부 파라미터와 외부 파라미터를 계산하는 캘리브레이션을 수행하는 단계를 포함하되, 상기 복수 개의 교정 구간은 인접한 교정 구간들 간에 복수 개의 픽셀을 공통으로 가지는 교집합 영역을 형성하는 것을 특징으로 한다. Among the embodiments, the camera calibration method, in the camera calibration method performed by the three-dimensional shape measuring apparatus for measuring the three-dimensional shape of the inspection object, collecting a plurality of pattern image information for the calibration pattern taken by the camera Doing; Extracting a reference image frame from the plurality of pattern image information and dividing the reference image frame into a plurality of calibration sections; And performing calibration for calculating internal and external parameters of the camera by using pixel coordinate values for each of the plurality of calibration sections, wherein the plurality of calibration sections have a plurality of pixels in common between adjacent calibration sections. An intersection region is formed.

이때, 상기 복수 개의 교정 구간별로 픽셀 좌표값을 이용하여 카메라의 내부 파라미터와 외부 파라미터를 계산하는 캘리브레이션을 수행하는 단계는, 상기 캘리브레이션을 수행한 후에 각 교정 구간별로 교정 픽셀 좌표값을 산출하는 단계; 및 상기 교집합 영역에 속하지 않는 픽셀들의 경우 교정 픽셀 좌표값을 적용하고, 상기 교집합 영역에 속한 픽셀들의 경우 상기 교집합 영역이 인접된 교정 구간에서 산출된 각각의 교정 픽셀 좌표값을 평균하여 사용하는 것을 특징으로 한다. In this case, performing a calibration for calculating an internal parameter and an external parameter of the camera by using the pixel coordinate values for each of the plurality of calibration sections may include: calculating calibration pixel coordinate values for each calibration section after performing the calibration; And correcting pixel coordinate values in the case of pixels not belonging to the intersection region, and averaging each correction pixel coordinate value calculated in the correction section adjacent to the intersection region in the case of pixels belonging to the intersection region. It is done.

본 발명의 카메라 캘리브레이션 방법은, 카메라의 회전 및 왜곡 등에 의한 측정 오차를 소프트웨어적으로 보정하여 실제 좌표와 영상 좌표 간의 오프셋을 줄여 정밀도를 더욱 향상시킬 수 있고, 캘리브레이션을 신속하게 진행할 수 있는 효과가 있다.The camera calibration method of the present invention can further improve the accuracy by reducing the offset between the actual coordinates and the image coordinates by software correcting the measurement error due to the rotation and distortion of the camera, etc., and has the effect of quickly performing the calibration. .

도 1은 종래 기술의 제1 실시예에 따른 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이다.
도 2는 종래 기술의 제2 실시예에 따른 고차 다항식 변환 방법을 사용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이다.
도 3은 본 발명의 일 실시예에 따른 카메라 캘리브레이션 방법을 설명하는 순서도이다.
도 4는 도 3의 복수 개의 교정 구간별 캘리브레이션을 수행하는 과정을 설명하는 도면이다.
도 5는 본 발명의 제1 실시예에 따른 카메라 캘리브레이션 방법을 적용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이다.
도 6은 도 5의 영상 프레임에서 다음 영상 프레임으로 이동 후의 오차 변화를 설명하는 도면이다.
도 7은 본 발명의 제2 실시예에 따른 카메라 캘리브레이션 방법을 적용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이다.
도 8은 도 7의 영상 프레임에서 다음 영상 프레임으로 이동 후의 오차 변화를 설명하는 도면이다.
1 is an exemplary view illustrating a result of performing a camera calibration using a higher-order polynomial conversion method according to a first embodiment of the prior art.
2 is an exemplary diagram illustrating a result of performing a camera calibration using a higher-order polynomial conversion method according to a second embodiment of the prior art.
3 is a flowchart illustrating a camera calibration method according to an embodiment of the present invention.
4 is a diagram illustrating a process of performing calibration for each of a plurality of calibration sections of FIG. 3.
5 is an exemplary view illustrating a result of performing a camera calibration to which the camera calibration method according to the first embodiment of the present invention is applied.
FIG. 6 is a view for explaining an error change after moving from the image frame of FIG. 5 to the next image frame.
7 is an exemplary view illustrating a result of performing a camera calibration to which the camera calibration method according to the second embodiment of the present invention is applied.
FIG. 8 is a diagram illustrating a change in error after moving from the image frame of FIG. 7 to the next image frame.

본 발명에 기재된 실시예 및 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 표현하는 것은 아니므로, 본 발명의 권리범위는 본문에 설명된 실시예 및 도면에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Configurations shown in the embodiments and drawings described in the present invention are merely preferred embodiments of the present invention, and do not represent all of the technical idea of the present invention, the scope of the invention is the embodiments and drawings described in the text It should not be construed as limited by That is, since the embodiments may be variously modified and may have various forms, the scope of the present invention should be understood to include equivalents capable of realizing the technical idea. In addition, the objects or effects presented in the present invention does not mean that a specific embodiment should include all or only such effects, the scope of the present invention should not be understood as being limited thereby.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. The terms defined in the commonly used dictionary should be interpreted to correspond with the meanings in the context of the related art, and should not be interpreted as having an ideal or excessively formal meaning not explicitly defined in the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 발명의 요지를 불필요하게 흐릴 수 있는 공지기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, with reference to the drawings will be described the present invention in more detail. Detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.

카메라 캘리브레이션 방법은 검사대상물의 3차원 형상을 측정하는 3차원 형상 측정 장치에 의해 수행되는 것으로서, 3차원 형상 측정 장치는 카메라 캘리브레이션을 수행하는 프로그램이 저장되는 메모리와 메모리에 저장된 프로그램을 실행하여 카메라 캘리브레이션에 필요한 제반 제어 동작을 수행하는 프로세서를 포함한다. Camera calibration method is performed by a three-dimensional shape measuring device for measuring the three-dimensional shape of the inspection object, the three-dimensional shape measuring device is a camera calibration by executing a program stored in the memory and a memory that stores a program for performing the camera calibration It includes a processor that performs all the necessary control operations.

도 3은 본 발명의 일 실시예에 따른 카메라 캘리브레이션 방법을 설명하는 순서도이고, 도 4는 도 3의 복수 개의 교정 구간별 캘리브레이션을 수행하는 과정을 설명하는 도면이다.3 is a flowchart illustrating a camera calibration method according to an exemplary embodiment of the present invention, and FIG. 4 is a diagram illustrating a process of performing calibration for each of a plurality of calibration sections of FIG. 3.

도 3 및 도 4를 참고하면, 카메라 캘리브레이션 방법은 3차원 형상 측정 장치에 구비된 카메라에서 촬영된 교정용 패턴에 대한 복수의 패턴 영상 정보를 수집한다(S1). 즉, 카메라는 등간격의 일정한 패턴을 가지는 교정 보드를 촬영하여 패턴 영상 정보를 프로세서에 제공하고, 프로세서는 패턴 영상 정보의 교정 패턴 내의 각 격자점에 대한 영상에서의 픽셀 좌표를 추출한다. 이때, 격자점 중 하나를 세계좌표계 상에서의 원점으로 지정하고 나머지 격자점에 대하여 기설정된 등간격을 이용하여 세계 좌표계에서의 좌표값을 부여한다. 각 격자점에 대하여 이차원 영상에서의 픽셀 좌표값을 추출하고 이를 이용하여 기준 영상 프레임으로 제공한다.3 and 4, the camera calibration method collects a plurality of pattern image information about a calibration pattern photographed by a camera provided in a 3D shape measuring apparatus (S1). That is, the camera photographs a calibration board having a constant pattern of equal intervals and provides the pattern image information to the processor, and the processor extracts pixel coordinates in the image for each grid point in the calibration pattern of the pattern image information. At this time, one of the grid points is designated as an origin point in the world coordinate system and a coordinate value in the world coordinate system is given to the remaining grid points by using a predetermined equal interval. The pixel coordinate values of the two-dimensional image are extracted for each grid point and provided as a reference image frame.

그리고, 카메라 캘리브레이션 방법은 복수의 패턴 영상 정보에서 기준 영상 프레임을 추출하고, 기준 영상 프레임을 복수 개의 교정 구간으로 구분한다(S2). 이때, 복수 개의 교정 구간은 인접한 교정 구간들 간에 복수 개의 픽셀을 공통으로 가지는 교집합 영역을 형성한다. Then, the camera calibration method extracts a reference image frame from the plurality of pattern image information, and divides the reference image frame into a plurality of calibration sections (S2). In this case, the plurality of calibration sections form an intersection region having a plurality of pixels in common between adjacent calibration sections.

도 4에 도시된 바와 같이, 기준 영상 프레임은 4개의 교정 구간(21, 22, 23, 24)로 구분되고, 제1 교정구간(21)과 제2 교정 구간(22) 간에 제1 교집합 영역(31)이 형성되며, 제1 교정구간(21)과 제3 교정 구간(23) 간에 제2 교집합 영역(32)이 형성되며, 제2 교정 구간(22)과 제4 교정 구간(24) 간에 제3 교집합 영역(33)이 형성되고, 제3 교정 구간(23)과 제4 교정 구간(34) 간에 제4 교집합 영역(34)이 형성되며, 제1 교정 구간(21)에서 제4 교정 구간(34)에 걸쳐 제5 교집합 영역(35)이 형성된다. As shown in FIG. 4, the reference image frame is divided into four calibration sections 21, 22, 23, and 24, and a first intersection region between the first calibration section 21 and the second calibration section 22 is formed. 31 is formed, a second intersection region 32 is formed between the first calibration section 21 and the third calibration section 23, and the second calibration section 22 is formed between the second calibration section 22 and the fourth calibration section 24. Three intersection regions 33 are formed, and a fourth intersection region 34 is formed between the third calibration section 23 and the fourth calibration section 34, and the fourth calibration section 21 is formed in the first calibration section 21. A fifth intersection region 35 is formed over 34.

카메라 캘리브레이션 방법은 복수 개의 교정 구간별로 카메라의 내부 파라미터와 외부 파라미터를 계산하는 캘리브레이션을 수행한다(S3). 그리고 카메라 캘리브레이션 방법은 캘리브레이션을 수행하여 각 교정 구간별로 교정 픽셀 좌표값을 산출한다(S4). 이때, 특정한 교정 구간의 경우, 교집합 영역에 속하지 않는 픽셀들의 경우 교정 픽셀 좌표값을 사용하지만, 교집합 영역에 속한 픽셀들의 경우 교집합 영역을 형성하고 있는 교정 구간들의 각 교정 픽셀 좌표값을 평균하여 사용한다. The camera calibration method performs calibration for calculating an internal parameter and an external parameter of the camera for each of a plurality of calibration sections (S3). In operation S4, the camera calibration method calculates a calibration pixel coordinate value for each calibration section by performing calibration. In this case, in the case of a specific correction section, correction pixel coordinate values are used for pixels that do not belong to an intersection region, but for each pixel, the correction pixel coordinate values of correction sections forming an intersection region are averaged. .

즉, 제1 교정 구간(21)의 경우에, 교집합 영역에 속하지 않는 (0, 0), (1, 0), (0, 1), (1, 1)에 대한 격자점은 교정된 픽셀 좌표값을 사용하지만, 제1 교집합 영역(31)에 속하는 (2, 0), (3, 0), (2, 1), (3, 1), (2, 2), (3, 2), (2, 3), (3, 3)에 대한 격자점은 제1 교정 구간(21)에서 산출된 교정 픽셀 좌표값과 제2 교정 구간(22)에서 산출된 교정 픽셀 좌표값을 평균하여 사용한다.  That is, in the case of the first calibration section 21, the grid points for (0, 0), (1, 0), (0, 1), (1, 1) that do not belong to the intersection region are corrected pixel coordinates. Values, but belong to the first intersection region 31 (2, 0), (3, 0), (2, 1), (3, 1), (2, 2), (3, 2), The grid points for (2, 3), (3, 3) are used by averaging the calibration pixel coordinate values calculated in the first calibration section 21 and the calibration pixel coordinate values calculated in the second calibration section 22. .

카메라 캘리브레이션 방법은 사전에 정의된 격자점들에 대한 실제 세계 좌표값과와 이 점들에 대한 2차원 영상에서의 픽셀 좌표값를 이용하여 실세계 좌표계, 카메라 좌표계, 이미지 좌표계로의 변환 행렬을 계산함으로써 카메라의 내부 파라미터 및 외부 파라미터를 추출한다.The camera calibration method calculates the transformation matrix of the camera using real world coordinates, camera coordinates, and image coordinates by using real world coordinate values for predefined grid points and pixel coordinate values in two-dimensional images. Extract internal and external parameters.

도 5는 본 발명의 제1 실시예에 따른 카메라 캘리브레이션 방법을 적용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이고, 도 6은 도 5의 영상 프레임에서 다음 영상 프레임으로 이동 후의 오차 변화를 설명하는 도면이다.FIG. 5 is an exemplary view illustrating a result of performing a camera calibration using the camera calibration method according to the first embodiment of the present invention, and FIG. 6 is a view illustrating a change in an error after moving from the image frame of FIG. 5 to the next image frame. to be.

도 5 및 도 6에 도시된 바와 같이, 카메라 캘리브레이션 방법은 15M의 3차원 AOI(Automatic Optical Inspection) 장비에 15㎛ 분해능의 렌즈를 적용한 경우에, 카메라 캘리브레이션 사용 후 최대 오차는 1.86㎛이며, 해당 영상 프레임에서 다음 영상 프레임으로 이동한 후에 최대 오차는 1.86㎛임을 알 수 있다. As shown in FIGS. 5 and 6, in the case of applying a lens having a 15 μm resolution to a 15M three-dimensional AOI (Automatic Optical Inspection) equipment, the maximum error after using the camera calibration is 1.86 μm, and the corresponding image is shown. It can be seen that the maximum error is 1.86 μm after moving from the frame to the next image frame.

도 7은 본 발명의 제2 실시예에 따른 카메라 캘리브레이션 방법을 적용한 카메라 캘리브레이션의 수행 결과를 설명하는 예시도이고, 도 8은 도 7의 영상 프레임에서 다음 영상 프레임으로 이동 후의 오차 변화를 설명하는 도면이다.FIG. 7 is an exemplary view illustrating a result of performing a camera calibration by applying a camera calibration method according to a second embodiment of the present invention, and FIG. 8 is a view illustrating a change in an error after moving from the image frame of FIG. 7 to the next image frame. to be.

도 7 및 도 8에 도시된 바와 같이, 카메라 캘리브레이션 방법은 25M의 3차원 AOI(Automatic Optical Inspection) 장비에 7.7㎛ 분해능의 렌즈를 적용한 경우에, 카메라 캘리브레이션 사용 후 최대 오차는 1.51㎛이며, 해당 영상 프레임에서 다음 영상 프레임으로 이동한 후에 최대 오차는 2.30㎛임을 알 수 있다. As shown in FIG. 7 and FIG. 8, the camera calibration method has a maximum error of 1.51 μm after using camera calibration when a lens having a resolution of 7.7 μm is applied to a 25M three-dimensional AOI (Automatic Optical Inspection) device. It can be seen that the maximum error is 2.30 μm after moving from the frame to the next image frame.

본 발명의 일 실시예에 따른 카메라 캘리브레이션은 하나의 영상 프레임을 4개의 교정 구간으로 나누어 캘리브레이션을 수행하고 있어 렌즈 분해능에 따라 25M 7,7㎛와 15M 10㎛ 분해능의 렌즈를 적용한 경우에 측정 오차가 2㎛ 이내, 15M 15㎛ 분해능의 렌즈를 적용한 경우에 측정 오차가 3㎛ 이내가 되도록 할 수 있다.In the camera calibration according to an embodiment of the present invention, calibration is performed by dividing a single image frame into four calibration sections, so that a measurement error is applied when a lens having a resolution of 25M 7,7㎛ and 15M 10㎛ is applied according to the lens resolution. When a lens having a resolution of 2 m or less and 15 M 15 m resolution is applied, the measurement error can be made to be 3 m or less.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below I can understand that you can.

Claims (2)

검사대상물의 3차원 형상을 측정하는 3차원 형상 측정 장치에 의해 수행되는 카메라 캘리브레이션 방법에 있어서,
카메라에서 촬영된 교정용 패턴에 대한 복수의 패턴 영상 정보를 수집하는 단계;
상기 복수의 패턴 영상 정보에서 기준 영상 프레임을 추출하고, 상기 기준 영상 프레임을 복수 개의 교정 구간으로 구분하는 단계; 및
상기 복수 개의 교정 구간별로 픽셀 좌표값을 이용하여 카메라의 내부 파라미터와 외부 파라미터를 계산하는 캘리브레이션을 수행하는 단계를 포함하되,
상기 복수 개의 교정 구간은 인접한 교정 구간들 간에 복수 개의 픽셀을 공통으로 가지는 교집합 영역을 형성하며,
상기 복수 개의 교정 구간별로 픽셀 좌표값을 이용하여 카메라의 내부 파라미터와 외부 파라미터를 계산하는 캘리브레이션을 수행하는 단계는,
상기 캘리브레이션을 수행한 후에 각 교정 구간별로 교정 픽셀 좌표값을 산출하는 단계; 및
상기 교집합 영역에 속하지 않는 픽셀들의 경우 교정 픽셀 좌표값을 적용하고, 상기 교집합 영역에 속한 픽셀들의 경우 상기 교집합 영역이 인접된 교정 구간에서 산출된 각각의 교정 픽셀 좌표값을 평균하여 사용하는 것을 특징으로 하는 카메라 캘리브레이션 방법.
In the camera calibration method performed by the three-dimensional shape measuring apparatus for measuring the three-dimensional shape of the inspection object,
Collecting a plurality of pattern image information of a calibration pattern photographed by a camera;
Extracting a reference image frame from the plurality of pattern image information and dividing the reference image frame into a plurality of calibration sections; And
And performing a calibration for calculating an internal parameter and an external parameter of the camera by using the pixel coordinate values for each of the plurality of correction sections.
The plurality of calibration sections form an intersection region having a plurality of pixels in common among adjacent calibration sections,
Performing a calibration for calculating the internal parameter and the external parameter of the camera by using the pixel coordinate value for each of the plurality of correction intervals,
Calculating a calibration pixel coordinate value for each calibration section after performing the calibration; And
Corrected pixel coordinate values are applied to pixels that do not belong to the intersection region, and the corrected pixel coordinate values calculated in the correction interval adjacent to the intersection region are used for pixels belonging to the intersection region. Camera calibration method.
삭제delete
KR1020180063005A 2018-05-31 2018-05-31 Method for camera calibration KR102023087B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180063005A KR102023087B1 (en) 2018-05-31 2018-05-31 Method for camera calibration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180063005A KR102023087B1 (en) 2018-05-31 2018-05-31 Method for camera calibration

Publications (1)

Publication Number Publication Date
KR102023087B1 true KR102023087B1 (en) 2019-09-20

Family

ID=68067640

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180063005A KR102023087B1 (en) 2018-05-31 2018-05-31 Method for camera calibration

Country Status (1)

Country Link
KR (1) KR102023087B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112053404A (en) * 2020-08-07 2020-12-08 北京中科慧眼科技有限公司 Stereo correction method and system for binocular camera after loading
CN112184830A (en) * 2020-09-22 2021-01-05 深研人工智能技术(深圳)有限公司 Camera internal parameter and external parameter calibration method and device, computer equipment and storage medium
CN113240752A (en) * 2021-05-21 2021-08-10 中科创达软件股份有限公司 Internal reference and external reference cooperative calibration method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05277973A (en) * 1991-12-25 1993-10-26 Sanyo Electric Co Ltd Calibration method for manipulator
JP2008014940A (en) * 2006-06-08 2008-01-24 Fast:Kk Camera calibration method for camera measurement of planar subject and measuring device applying same
JP2013187822A (en) * 2012-03-09 2013-09-19 Ricoh Co Ltd Correction formula calculation method, correction method, correction apparatus, and imaging apparatus
JP2016001181A (en) * 2009-12-24 2016-01-07 コグネックス・コーポレイション System and method for runtime determination of camera mis-calibration

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05277973A (en) * 1991-12-25 1993-10-26 Sanyo Electric Co Ltd Calibration method for manipulator
JP2008014940A (en) * 2006-06-08 2008-01-24 Fast:Kk Camera calibration method for camera measurement of planar subject and measuring device applying same
JP2016001181A (en) * 2009-12-24 2016-01-07 コグネックス・コーポレイション System and method for runtime determination of camera mis-calibration
JP2013187822A (en) * 2012-03-09 2013-09-19 Ricoh Co Ltd Correction formula calculation method, correction method, correction apparatus, and imaging apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112053404A (en) * 2020-08-07 2020-12-08 北京中科慧眼科技有限公司 Stereo correction method and system for binocular camera after loading
CN112053404B (en) * 2020-08-07 2024-04-16 北京中科慧眼科技有限公司 Stereoscopic correction method and system for binocular camera after loading
CN112184830A (en) * 2020-09-22 2021-01-05 深研人工智能技术(深圳)有限公司 Camera internal parameter and external parameter calibration method and device, computer equipment and storage medium
CN113240752A (en) * 2021-05-21 2021-08-10 中科创达软件股份有限公司 Internal reference and external reference cooperative calibration method and device
CN113240752B (en) * 2021-05-21 2024-03-22 中科创达软件股份有限公司 Internal reference and external reference collaborative calibration method and device

Similar Documents

Publication Publication Date Title
Huang et al. Research on multi-camera calibration and point cloud correction method based on three-dimensional calibration object
CN110021046B (en) External parameter calibration method and system for camera and laser radar combined sensor
JP6363863B2 (en) Information processing apparatus and information processing method
CN107564069B (en) Method and device for determining calibration parameters and computer readable storage medium
CN104142157B (en) A kind of scaling method, device and equipment
JP5999615B2 (en) Camera calibration information generating apparatus, camera calibration information generating method, and camera calibration information generating program
CN110689579A (en) Rapid monocular vision pose measurement method and measurement system based on cooperative target
CN110148174A (en) Scaling board, scaling board recognition methods and device
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
EP2194725A1 (en) Method and apparatus for correcting a depth image
TW201724026A (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
KR102023087B1 (en) Method for camera calibration
CN112132907B (en) Camera calibration method and device, electronic equipment and storage medium
US10771776B2 (en) Apparatus and method for generating a camera model for an imaging system
CN104760812B (en) Product real-time positioning system and method on conveyer belt based on monocular vision
KR101589167B1 (en) System and Method for Correcting Perspective Distortion Image Using Depth Information
CN104111038A (en) Method for using phase fusion algorithm to repair phase error caused by saturation
JP2020161129A (en) System and method for scoring color candidate poses against color image in vision system
CN115201883B (en) Moving target video positioning and speed measuring system and method
CN111161358A (en) Camera calibration method and device for structured light depth measurement
CN113465573A (en) Monocular distance measuring method and device and intelligent device
JP6035031B2 (en) Three-dimensional shape measuring device using multiple grids
JP2011155412A (en) Projection system and distortion correction method in the same
CN110223356A (en) A kind of monocular camera full automatic calibration method based on energy growth
KR101653861B1 (en) Drawing data generating method, drawing method, drawing data generating apparatus and drawing apparatus

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant