KR0162861B1 - Camera calibration method by considering of lens distortion - Google Patents

Camera calibration method by considering of lens distortion Download PDF

Info

Publication number
KR0162861B1
KR0162861B1 KR1019950020904A KR19950020904A KR0162861B1 KR 0162861 B1 KR0162861 B1 KR 0162861B1 KR 1019950020904 A KR1019950020904 A KR 1019950020904A KR 19950020904 A KR19950020904 A KR 19950020904A KR 0162861 B1 KR0162861 B1 KR 0162861B1
Authority
KR
South Korea
Prior art keywords
camera
distortion
lens
coordinates
perspective transformation
Prior art date
Application number
KR1019950020904A
Other languages
Korean (ko)
Other versions
KR970007468A (en
Inventor
최주호
변영진
황의성
Original Assignee
배문한
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 배문한, 국방과학연구소 filed Critical 배문한
Priority to KR1019950020904A priority Critical patent/KR0162861B1/en
Publication of KR970007468A publication Critical patent/KR970007468A/en
Application granted granted Critical
Publication of KR0162861B1 publication Critical patent/KR0162861B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 렌즈의 방사왜곡과 접선왜곡을 고려한 카메라 모델을 통해 카메라를 정확히 교정할 수 있게 한 렌즈 왜곡을 고려한 카메라 교정방법에 관한 것으로, 이상적인 카메라 모델을 설정하여 3차원 공간좌표를 컴퓨터 영상좌표로 변환하여 주는 투시변환행렬을 구하고, 이 구한 투시변환행렬을 분해하여 무왜곡상태에서의 카메라 내부변수와 외부변수를 구하며, 이 구한 카메라 변수들을 초기값으로 하여 반복적인 최소 자승법으로 렌즈의 방사왜곡과 접선왜옥을 고려한 최적화된 카메라 변수를 구함으로써 카메라 교정의 정확도를 향상시킬 수 있게 한 것이다.The present invention relates to a camera calibration method that takes into account the lens distortion that allows the camera to be accurately corrected through the camera model in consideration of the radial and tangential distortion of the lens, the three-dimensional spatial coordinates to computer image coordinates by setting the ideal camera model Calculate the perspective transformation matrix that is transformed, and decompose the obtained perspective transformation matrix to find the camera internal and external variables in the distortionless state. It is possible to improve the accuracy of camera calibration by obtaining optimized camera parameters considering tangential distortion.

Description

렌즈 왜곡을 고려한 카메라 교정방법Camera calibration method considering lens distortion

제1도는 본 발명 렌즈 왜곡을 고려한 카메라 교정방법의 흐름도.1 is a flowchart of a camera calibration method considering lens distortion of the present invention.

제2도는 이상적인 바늘구멍 모델에서의 투시변환 개념도.2 is a conceptual view of the perspective transformation in an ideal needlehole model.

제3도는 렌즈 왜곡에 의한 영상면상의 투영오차 개념도.3 is a conceptual diagram of a projection error on an image plane caused by lens distortion.

제4도는 카메라 교정용 측정대상 물체의 좌측영상도.4 is a left image of the object to be measured for camera calibration.

제5도는 카메라 교정용 측정대상 물체의 우측영상도.5 is a right image of a measuring object for camera calibration.

제6도는 본 발명의 카메라 교정방법을 이용한 3차원 측정결과표.6 is a three-dimensional measurement result table using the camera calibration method of the present invention.

제7도는 기존의 방법과 본 발명 방법의 오차비교표.7 is a comparison table of errors between the conventional method and the present invention.

본 발명은 카메라 교정방법에 관한 것으로, 특히 렌즈 왜곡(distortion)을 고려하여 카메라를 정확히 교정할 수 있게 한 카메라 교정방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera calibration method, and more particularly, to a camera calibration method that enables accurate calibration of a camera in consideration of lens distortion.

카메라 교정(camera calibration)이란 카메라의 기하학적, 광학적 특성을 나타내는 내부 변수(internal parameter)와 임의의 기준좌표계에 대한 카메라의 3차원 위치와 방향을 나타내는 외부 변수(external parameter)를 알아내는 과정이다. 카메라 내부 변수는 카메라의 광축과 영상면과의 교점인 영상중심(image center), 영상획득과정에서 센서의 배열 또는 주사 간격과 관련된 요소인 축적율(scale factor), 렌즈에 의한 광학적 왜곡을 나타내는 왜곡 계수(distortion coefficients), 초점거리등이 있고, 카메라 외부 변수는 기준좌표계 내에서 카메라 좌표계의 위치와 방향을 나타내는 변수들이다.Camera calibration is the process of finding internal parameters representing the camera's geometric and optical properties and external parameters representing the camera's three-dimensional position and orientation relative to an arbitrary reference coordinate system. The internal variables of the camera are the image center, which is the intersection of the optical axis and the image plane of the camera, the scale factor, which is a factor related to the arrangement of the sensors or the scanning interval in the image acquisition process, and the distortion indicating optical distortion by the lens. Distortion coefficients, focal length, etc., and camera external variables are variables that indicate the position and direction of the camera coordinate system within the reference coordinate system.

카메라 교정 방법은 크게 선형 투시변환행렬 계산방법, 교정평면 이용법 및 비선형 최적화방법으로 대별할 수 있다.Camera calibration methods can be roughly classified into a linear perspective transformation matrix calculation method, a calibration plane method, and a nonlinear optimization method.

비선형 최적화방법은 카메라를 렌즈의 왜곡이 존재하는 비선형으로 모델링아하고 최적화 기술을 이용하여 비선형 방정식의 해를 구함으로써 카메라 변수를 구하는 방법이다. 이 방법의 대표적인 예는 Roger Y. Tsai(An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision, Proceedings IEEE Conf. on CVPR, pp.364-374, 1986)가 제안한 렌즈의 방사왜곡(radial distortion)만을 고려하는 카메라 모델 사용법과, G. V. Puskorius(Camera Calibration Methodology Based on a Linear Perspective Trasformation Error Model, Proceedings IEEE Int'l Conf. on Robotics and Autimation, Vol.3, pp. 1858-1860, 1988)가 제안한 선형 투시변환 오차모델이 있다. 그러나 이와 같은 종래의 방법에 있어서는 카메라를 정교하게 교정하므로 정확도가 우수하지만 계산량이 너무 많아 컴퓨터 의존적이 되고, 처리시간이 많이 걸리는 문제점이 있었다.Nonlinear optimization is a method of modeling a camera as a nonlinear lens distortion, and using the optimization technique to find the camera parameters by solving the nonlinear equations. A representative example of this method considers only the radial distortion of the lens proposed by Roger Y. Tsai (An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision, Proceedings IEEE Conf. On CVPR, pp. 364-374, 1986). Linear perspective transformation proposed by GV Puskorius (Camera Calibration Methodology Based on a Linear Perspective Trasformation Error Model, Proceedings IEEE Int'l Conf. On Robotics and Autimation, Vol. 3, pp. 1858-1860, 1988) There is an error model. However, in the conventional method, since the camera is precisely calibrated, the accuracy is excellent, but there is a problem that the calculation amount is too large and computer-dependent, and the processing time takes a lot.

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여, 렌즈의 방사 왜곡과 접선 왜곡(tangential distortion)을 고려한 카메라 모델을 통해 카메라 교정의 정확도를 향상시킬 수 있는 렌즈 왜곡을 고려한 카메라 교정방법을 창안한 것으로, 이를 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다.In order to solve the above-mentioned problems, the present invention provides a camera calibration method that considers lens distortion that can improve the accuracy of camera calibration through a camera model considering the radial and tangential distortion of the lens. This will be described in detail with reference to the accompanying drawings.

제1도는 본 발명 렌즈 왜곡을 고려한 카메라 교정방법의 흐름도로서, 과정(a1)은 카레라의 렌즈가 왜곡이 없는 것으로 간주하고 이상적인 바늘 구멍 카메라로 모델링하여 투시변환행렬을 구하는 정규 카메라 교정 (normal camera calibration)을 나타낸 것이고, 제2도는 바늘구멍모델(Pin-hole model)에서의 투시변환에 대한 개념도를 나타낸 것이다. 여거서 투시변환행렬(perspective trasfortation matrix)이란 3차원 공간상에 위치한 점의 2차원 컴퓨터 영상좌표로서 투시변환과정을 나타내는 행렬이며, 카메라의 내부변수 행렬과 욉부변수 행렬의 곱으로 표현된다. 즉, 제2도에서 3차원 기준좌표계의 기준점(P)의 좌표를 xw, yw, zw라 하고, 이점의 컴퓨터 영상면상에 투영된 점(P')의 영상좌표를 up, vp라 하면, 이 두 점의 좌표(xw, yw, zw), (up, vp)와 투시변환행렬(C)의 관계식은 다음과 같이 표현된다.1 is a flowchart of a camera calibration method considering the lens distortion of the present invention, and the process (a1) assumes that the lens of the Carrera is free of distortion and is modeled with an ideal needle-hole camera to obtain a perspective transformation matrix (normal camera calibration). FIG. 2 shows a conceptual diagram of the perspective transformation in the pin-hole model. The perspective trasfortation matrix is a two-dimensional computer image coordinate of a point located in three-dimensional space. It is a matrix representing the perspective transformation process, and is expressed as the product of the camera's internal variable matrix and the subvariable matrix. That is, in FIG. 2, the coordinates of the reference point P of the three-dimensional reference coordinate system are x w , y w , z w , and the image coordinates of the point P ′ projected on the computer image plane of the advantage are u p , v If p , the relationship between the coordinates (x w , y w , z w ), (u p , v p ) and the perspective transformation matrix (C) of these two points is expressed as follows.

이 식을 풀어서 표현하면 다음과 같다.This equation is solved as follows.

xwc11+ ywc12+ zwc13+ c14- upywc32- upzwc33- upc34=0x w c 11 + y w c 12 + z w c 13 + c 14 -u p y w c 32 -u p z w c 33 -u p c 34 = 0

xwc11+ ywc12+ zwc13+ c24- upywc32- upzwc33- upc34=0x w c 11 + y w c 12 + z w c 13 + c 24 -u p y w c 32 -u p z w c 33 -u p c 34 = 0

여기서 투시변환행렬은 임의의 수로 나누어도 영상좌표에 어떤한 영향도 주지 않는다. 따라서 c34= 1 로 놓을 수 있으며, 구하고자 하는 투시변환행렬(C)의 요소의 개수는 11개이다. 3차원 공간상의 위치를 알고 있는 n개의 좌표와 이에 대응되는 컴퓨터 영상좌표를 이용하여 위 식을 행렬의 형태로 표현하면 다음과 같다.Here, the perspective transformation matrix does not have any effect on the image coordinate even if it is divided by any number. Therefore, c 34 = 1, and the number of elements of the perspective transformation matrix C to be obtained is 11. The above equation is expressed in the form of a matrix using n coordinates that know the location in three-dimensional space and the corresponding computer image coordinates.

투시변환행렬(C)의 각 요소(c11, c12, c13, …, c33)를 구하기 위해서는 최소 11개의 방정식이 필요하다. 따라서 이미 위치를 알고 있는 6개의 이상의 점들을 이용한다면 컴퓨터 영상좌표(upn, vpn)에 의해 12개 이상의 방정식을 만들 수 있으며, 최소 자승법을 이용하여 투시변환행렬(C)을 구할 수 있게 된다.At least 11 equations are required to find each element c 11 , c 12 , c13, ..., c 33 of the perspective transformation matrix C. Therefore, if we use six or more points already known, we can make 12 or more equations by computer image coordinates (u pn , v pn ) and obtain the perspective transformation matrix (C) using the least-squares method. .

제1도의 과정(a2)은 상기 제1도의 과정(a1)에서 구한 투시변환행렬(C)을 분해하는 과정을 나타낸다. 투시변환행렬(C)은 카메라 내부변수행렬과 외부변수행렬의 곱을 표현되므로 카메라의 위치와 방향, 기하학적 광학적 특성 및 축척계수등을 알아내기 위해서는 투시변환행렬(C)의 분해가 요구된다. 다음은 투시변환행렬(C)을 카메라 내부변수행렬과 외부변수행렬로 표현한 식이다.Process (a2) of FIG. 1 shows a process of decomposing the perspective transformation matrix C obtained in the process (a1) of FIG. Since the perspective transformation matrix (C) represents the product of the camera internal variable matrix and the external variable matrix, the decomposition of the perspective transformation matrix (C) is required to determine the position and direction of the camera, the geometrical optical characteristics, and the scale factor. The following is the expression of the perspective transformation matrix (C) as the camera internal variable matrix and the external variable matrix.

여기서, 카메라 내부변수행렬([INT])은 축척계수(ku, kv)와 컴퓨터 영상 중심(uo, v0)으로 구성되며, 외부변수행렬([EXT])은 회전행렬요소(r1, r, …, r9)와 이동행렬요소(tx, ty, tz)로 구성된다. 따라서, c34= 1 이 되도록 하면 투시변환행렬(C)은 다음과 같이 표현된다.Here, the camera internal variable matrix ([INT]) is composed of a scale factor (k u , k v ) and the computer image center (u o , v 0 ), and the external variable matrix ([EXT]) is a rotation matrix element (r). 1 , r, ..., r 9 ) and moving matrix elements (t x , t y , t z ). Therefore, when c 34 = 1, the perspective transformation matrix C is expressed as follows.

카메라 외부변수의 회전행렬과 이동행렬은 제2도의 기준좌표계에서 카메라 좌표계로의 변환행렬이며, 임의의 점(P)의 기준좌표(xw, yw, zw)를 카메라 좌표(xc, yc, zc)로 변환하는 과정을 다음의 식으로 표현된다.The rotation matrix and the movement matrix of the camera external variables are transformation matrices from the reference coordinate system of FIG. 2 to the camera coordinate system, and the reference coordinates (x w , y w , z w ) of arbitrary points P are converted to the camera coordinates (x c , y c , z c ) is expressed by the following equation.

또한, X, Y, Z축에 대한 좌표계의 회전각을 각각 α, β, γ라 하면, 회전행렬요소(r1∼r9)는 다음과 같이 표현된다.Further, when the rotation angles of the coordinate system with respect to the X, Y, and Z axes are α, β, and γ, respectively, the rotation matrix elements r 1 to r 9 are expressed as follows.

결국, 투시변환행렬(C)을 분해하여 구할 변수들은 ku,kv, u0, v0, tx, ty, tz, α, β, γ이다. 이 변수들을 구하기 위해서는 회전행렬이 직교정규행렬(orthonormal matrix)이란 성질을 이용하는데, 직교 정규행렬은 역행렬(inverse matrix)이 전치행렬(trasposed matrix)과 같으며, 행렬식(determinant)이 1이다. 따라서,이라고 가정하면,이 되고, 이로부터 다음의 제한식을 만들 수 있다.Finally, the variables to be obtained by decomposing the perspective transformation matrix C are k u, k v , u 0 , v 0 , t x , t y , t z , α, β, and γ. To obtain these variables, the rotation matrix uses the property that the orthonormal matrix is used. In the orthonormal matrix, the inverse matrix is the same as the trasposed matrix and the determinant is 1. therefore, If we assume From this, the following constraints can be made.

먼저, 다음의 합을 이용하여 tz를 구할 수 있다.First, t z can be obtained using the following sum.

여기서, tz의 부호는 기준좌표계의 원점이 카메라 앞쪽에 위치하면 양(+)이고, 뒤쪽에 위치하면 음(-)이다. 이와 같이 tz가 결정되면 다음에 의해 r7, r8, r9를 구할 수 있다.Here, the sign of t z is positive when the origin of the reference coordinate system is located in front of the camera and negative (-) when located at the rear. Thus, when t z is determined, r 7 , r 8 , and r 9 can be obtained by the following.

계산의 편의상 다음과 같이 λij를 정의하면,For convenience of calculation, define λ ij as

이므로,이 되어, ku를 구할 수 있다. 여기서 ku의 부호는 양수이다.Because of, K u can be obtained. The sign of k u is positive.

이와 같이 ku가 결정되면 다음식에 의해 r4, r5, r6가 결정된다.In this way, when k u is determined, r 4 , r 5 , and r 6 are determined by the following equation.

그리고, kv와 r1, r2, r3를 구하는 과정은 다음과 같다.And, k v and r 1 , r 2 , r 3 to obtain the process is as follows.

또한 c11, c12, c13을 이용하여 ku, u0에 관한 연립방정식을 다음식과 같이 얻을 수 있므며, 최소 자승법으로 ku, u0를 구할 수 있다.In addition, c 11, c 12, meumyeo simultaneous equations relating to k u, u 0, using a 13 c can be obtained by the following equation, it is possible to obtain a k u, u 0 in the least squares method.

마찬가지 방법으로 c21, c22,c23을 이용하여 kv, v0에 관한 연립방정식을 다음과 같이 얻을 수 있으며, 최소자승법으로 kv, v0를 구할 수 있다.In the same manner as in c 21, c 22, k by using the c v 23, v may be obtained by simultaneous equations relating to 0, as follows, can be obtained for k v, v 0 in the least squares method.

마지막으로 r1, r2, …, r9로부터 회전각 α, β, γ를 계산할 수 있다.Finally r 1 , r 2 ,... The rotation angles α, β, and γ can be calculated from, r 9 .

제1도의 과정(a3)은 렌즈 왜곡을 고려한 비선형 최적화 과정을 나타낸다. 그리고 제3도는 렌즈 왜곡에 의한 영상면상의 투영오차를 개념적으로 도식화한 것이다. 상기 제1도의 과정(a2)에서 얻어진 카메라 변수들은 카메라를 이상적인 바늘구멍 모델(pin-hole model)로 가정하고 구한 변수들이다. 그러나 실제로 영상형성 과정에서 렌즈의 왜곡이 존재하며, 이로 인해 측정결과에 오차가 발생한다. 렌즈의 왜곡은 방사왜곡과 접선왜곡으로 분류할 수 있다. 제3도에서 점Pp(xp,yp)는 왜곡이 없는 바늘구멍 카메라에서 공간상의 점P(xw, yw, zw)가 영상면상에서 투영된 점이고, 점Pr(xr, yr)은 방사왜곡에 의해 편향된 점이며, 점Pt(xt, yt)는 방사왜곡과 접선왜곡에 의해 점Pp가 왜곡된 점이다.Process (a3) of FIG. 1 shows a nonlinear optimization process considering lens distortion. 3 schematically illustrates the projection error on the image plane caused by lens distortion. The camera parameters obtained in the process (a2) of FIG. 1 are obtained by assuming the camera as an ideal pin-hole model. However, there is actually a distortion of the lens in the image forming process, which causes an error in the measurement result. Lens distortion can be classified into radial and tangential distortion. In FIG. 3, the point P p (x p, y p ) is the point where the spatial point P (x w , y w , z w ) is projected on the image plane in the needle-hole camera without distortion, and the point P r (x r , y r ) is the point deflected by the radial distortion, and the point P t (x t , y t ) is the point where the point P p is distorted by the radial and tangential distortion.

점Pr(xr, yr)은 다음과 같이 근사직을 표현할 수 있다.The point P r (x r , y r ) can be expressed as

여기서,이며, G는 방사왜곡 계수이다. 점 Pr과 점 Pt의 관계는 다음과 같다.here, Where G is the radial distortion coefficient. The relationship between point P r and point P t is

위 식에서 Δt는 접선왜곡에 의한 편향각 θt에 대한 변화량이며, θt가 미세하므로 r2 r= x2 r+ y2 r이라 할 때, Δt = rrtanθtrrθt이고, Ø는 점 Pr이 xp축과 이루는 각이며, rrcosØ = rx, trsinØ = yr이다. 그리고 ut, vt는 방사왜곡과 접선 왜곡을 포함하는 실제 컴퓨터 영상좌표로서, 컴퓨터 영상좌표와 카메라 영사면 사이의 관계식은 다음과 같다.And the above equation, Δt is a change amount of the deflection angle θ t of the tangent distortion, θ t is fine, so r 2 r = x 2 r + y 2 when referred to as r, Δt = r r tanθ t r r θ t, Ø Is the angle between the point P r and the x p axis, where r r cosØ = r x and t r sinØ = y r . U t and v t are the actual computer image coordinates including the radial distortion and the tangential distortion. The relation between the computer image coordinates and the camera projection plane is as follows.

따라서 위 식들로부터 렌즈 왜곡을 고려한 카메라 모델을 다음과 같은 비선형 방정식으로 표현할 수 있다.Therefore, the camera model considering the lens distortion can be expressed by the following nonlinear equation.

카메라 좌표계에서 xc, yc, zc를 이상적인 표준 카메라에서의 공간내의 한점의 좌표라 하고, x'c, y'c, z'c를 대응되는 실제 카메라에서 같은 점의 좌표를 나타낸다고 하면, 표준 카메라를 기준으로 실제 카메라는 각 축으로 δα, δβ, δγ만큼 회전하였으며, δtx, δty, δtz만큼 이동한 것으로 간주할 수 있다. 즉 두개의 카메라 사이에 다음과 같은 관계식이 성립한다.Suppose that x c , y c , and z c in the camera coordinate system are the coordinates of a point in space in an ideal standard camera, and x ' c , y' c , z ' c represent the coordinates of the same point in the corresponding real camera. Based on the standard camera, the actual camera is rotated by δα, δβ, and δγ in each axis, and can be regarded as moved by δt x , δt y , δt z . In other words, the following relation holds between two cameras.

여기서, Rx(δα)·Ry(δβ)·Rz(δγ)는 각각 X, Y, Z 축으로의 다음식과 같은 회전형을 나타낸다.Here, R x (δα), R y (δβ), and R z (δγ) each represent a rotational form as shown in the following equations for the X, Y, and Z axes.

실제 카메라와 표준 카메라 좌표의 차이가 미소하다고 가정하면, δα ~ 0, δβ ~ 0, δγ ~ 0이며, sinδα ~ δα, cosδα ~ 1, sinδα ~ δβ, cosδβ ~ 1, sinδγ ~ δγ, cosδγ ~ 1이 된다. 따라서 위 식은 다음과 같이 근사식으로 표현할 수 있다.Assuming that the difference between the actual camera and standard camera coordinates is small, δα ~ 0, δβ ~ 0, δγ ~ 0, sinδα ~ δα, cosδα ~ 1, sinδα ~ δβ, cosδβ ~ 1, sinδγ ~ δγ, cosδγ ~ 1 Becomes Therefore, the above equation can be expressed by the following equation.

따라서 오차 보정된 카메라 좌표는 다음식과 같이 된다.Therefore, the error-corrected camera coordinates are as follows.

또한 오차를 보정한 카메라 변수를 Cnew로 나타내면, 3차원 공간의 한점과 대응되는 컴퓨터 영상좌표와의 관계는 다음과 같이 표현된다.In addition, when a camera variable whose error is corrected is represented by C new , the relationship between a point in the three-dimensional space and the computer image coordinate corresponding to the point is expressed as follows.

그러므로 앞에서 구했던 렌즈 왜곡을 고려한 비선형 카메라 모델식과 위식을 이용하여 카메라 외부변수에 대한 컴퓨터 영상좌표의 1차 도함수를 구하면 다음식과 같이 된다.Therefore, the first derivative of the computer image coordinates for the camera external variables can be obtained by using the nonlinear camera model and the above equation.

영상좌표(ut, vt)의 각 외부변수(si)에 대한 도함수와 내부변수(ku, kv, u0, v0), 왜곡계수(θt, G)를 이용하여 계산된 새로운 컴퓨터 영상좌표(ut', vt')와 측정된 컴퓨터 영상좌표와의 차이를 최소화 하기 위해 반복적인 최소 자승법으로 최적화된 카메라변수와 왜곡계수를 구한다.Calculated using the derivative for each external variable (s i ) of the image coordinates (u t , v t ), the internal variables (k u , k v , u 0 , v 0 ), and the distortion coefficient (θ t , G) In order to minimize the difference between the new computer image coordinates (u t ', v t ') and the measured computer image coordinates, the optimized camera variables and distortion coefficients are obtained by iterative least squares.

이상에서 설명한 바와 같이 본 발명의 카메라 교정에 대한 정확도는 이미 알고 있는 3차원 공간 좌표와 측정에 의해 계산된 3차원 좌표를 비교함으로써 평가될 수 있는 것으로, 두대의 카메라를 이용한 스테레오(stereo) 영상으로부터 공간상의 한 점에 대한 3차원좌표를 계산하는 과정에 대하여 설명한다As described above, the accuracy of the camera calibration of the present invention can be evaluated by comparing the three-dimensional coordinates already known and the three-dimensional coordinates calculated by the measurement, from stereo images using two cameras. Describes the process of calculating three-dimensional coordinates of a point in space

동일한 지점을 서로 다른 위치의 두대의 카메라로 촬영하여 영상을 획득하고, 이와 같이 획득된 각 영상으로부터 3차원 공간상의 한 점에 대한 컴퓨터 영상좌표(ut, vt)를 구하며, 이 구한 컴퓨터 영상좌표(ut, vt)를 상기에서 설명한 카메라 모델식에 적용하여 무왜곡상태의 컴퓨터 영상좌표(up, vp)를 계산한다. 이후 식(up, vp, 1)T= C · (xw, yw, zw, 1)T를 이용하여 미지수 xw, yw, zw를 지닌 선형 방정식 4개를 만들고 해를 구한다.Images are taken by two cameras of the same point at different positions, and computer image coordinates (u t , v t ) of one point in three-dimensional space are obtained from each of the images thus obtained. The coordinates u t and v t are applied to the camera model equation described above to calculate the computer image coordinates u p and v p in a non-distorted state. Then we use the equation (u p , v p , 1) T = C · (x w , y w , z w , 1) T to create four linear equations with unknown x w , y w , z w and solve the solution. Obtain

위와 같은 방법으로 공간좌표를 계산하면, 그 공간좌표를 이미 알고 있는 참값과 비교하여 오차를 구하고, 이 오차의 표준편차를 종래의 카메라 교정방법인 Tsai 와 Puskorius의 방법으로 계산한 오차의 표준편차와 비교하였다. 제4도와 제5도는 카메라 교정 및 3차원 측정을 위한 대상물체의 좌측영상도와 우측영상도로서, 그 영상의 대상물체는 등간격 표시가 새겨진 정육면체를 이용하였고, 그 제4도와 제5도의 영상에서 화면의 대각선은 실제 길이가 약 40㎝이다. 그리고 실험에 사용된 카메라는 일본 소니사의 AVC-1400 비디콘 카메라이다.When calculating the spatial coordinates as above, the error is calculated by comparing the spatial coordinates with a known true value, and the standard deviation of the error calculated by the method of Tsai and Puskorius, a conventional camera calibration method, Compared. 4 and 5 are left and right image diagrams of an object for camera calibration and three-dimensional measurement. The object of the image is a cube inscribed with equal intervals, and the image of FIGS. The diagonal of the screen is approximately 40 cm in length. The camera used in the experiment was an AVC-1400 video camera manufactured by Sony Corporation of Japan.

제6도는 3차원 기준점 좌표와 상기한 같이 계산된 측정좌표의 비교 결과표로서, 16점에 대한 측정결과와 오차를 나타내었으며, 오차의 평균과 표준편차를 구하여 나타내었다.FIG. 6 is a comparison result table of three-dimensional reference point coordinates and the measurement coordinates calculated as described above. The measurement results and errors of 16 points are shown, and the mean and standard deviation of the errors are obtained and shown.

제7도는 기존의 방법과 본 발명의 방법으로 구한 측정표준오차를 비교한 표로서, 렌드의 방사왜곡과 접선왜곡을 고려한 본 발명의 방법이 종래의 방법에 비하여 보다 개선된 결과를 나타낸 것임을 확인할 수 있다.7 is a table comparing the measurement standard error obtained by the conventional method and the method of the present invention, it can be seen that the method of the present invention in consideration of the radial and tangential distortion of the lens shows a more improved result than the conventional method have.

이상에서 상세히 설명한 바와 같이 본 발명은 렌즈의 방사왜곡과 접선왜곡을 고려한 카메라 모델을 통해 카메라를 교정하므로 그 카메라 교정의 정확도를 보다 향상시킬 수있고, 그 카메라 교정의 처리가 간단하여 처리속도가 빠르게 되는 효과가 있게 된다.As described in detail above, the present invention calibrates the camera through a camera model in consideration of the radial and tangential distortion of the lens, so that the accuracy of the camera calibration can be further improved, and the processing of the camera calibration is simple, thereby increasing the processing speed. Become effective.

Claims (2)

이상적인 카메라 모델을 설정하여 3차원 공간좌표를 컴퓨터 영상좌표로 변환하여 주는 투시변환행렬을 구하는 과정과, 상기에서 구한 투시변환행렬을 분해하여 무왜곡상태에서의 카메라 내부변수와 외부변수를 구하는 과정과, 상기에서 구한 카메라변수들을 초기값으로 하여 반복적인 최소 자승법으로 렌즈의 방사왜곡과 접선왜곡을 고려한 최적화된 카메라 변수를 구하는 과정으로 이루어진 것을 특징으로 하는 렌즈 왜곡을 고려한 카메라 교정방법.A process of obtaining a perspective transformation matrix that transforms three-dimensional spatial coordinates into computer image coordinates by setting up an ideal camera model; and decomposing the internal and external variables in the distortionless state by decomposing the perspective transformation matrix obtained above; And calculating the optimized camera parameters in consideration of the radial and tangential distortions of the lens by an iterative least square method using the camera parameters obtained as the initial values. 제1항에 있어서, 최적화된 카메라 변수를 구하는 과정은 렌즈의 접선왜곡과 방사왜곡을 고려한 비선형 카메라 모델식을 세우고, 카메라 내부변수 및 외부변수와 왜곡계수를 미지수로 하는 방정식을 만들어 반복적인 최소 자승법으로 최적화된 카메라 변수를 구하게 이루어진 것을 특징으로 하는 렌즈 왜곡을 고려한 카메라 교정방법.The method of claim 1, wherein the process of obtaining the optimized camera parameters is formulated using a nonlinear camera model that takes into account the tangential and radial distortion of the lens, and makes an iterative least square method by making an equation with unknown internal and external variables and distortion coefficients. Camera calibration method considering the lens distortion, characterized in that to obtain the optimized camera parameters.
KR1019950020904A 1995-07-15 1995-07-15 Camera calibration method by considering of lens distortion KR0162861B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019950020904A KR0162861B1 (en) 1995-07-15 1995-07-15 Camera calibration method by considering of lens distortion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019950020904A KR0162861B1 (en) 1995-07-15 1995-07-15 Camera calibration method by considering of lens distortion

Publications (2)

Publication Number Publication Date
KR970007468A KR970007468A (en) 1997-02-21
KR0162861B1 true KR0162861B1 (en) 1999-05-01

Family

ID=19420727

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019950020904A KR0162861B1 (en) 1995-07-15 1995-07-15 Camera calibration method by considering of lens distortion

Country Status (1)

Country Link
KR (1) KR0162861B1 (en)

Also Published As

Publication number Publication date
KR970007468A (en) 1997-02-21

Similar Documents

Publication Publication Date Title
Goshtasby Correction of image deformation from lens distortion using bezier patches
Zhang Camera calibration with one-dimensional objects
Zhou et al. Complete calibration of a structured light stripe vision sensor through planar target of unknown orientations
KR100386090B1 (en) Camera calibration system and method using planar concentric circles
US5878174A (en) Method for lens distortion correction of photographic images for texture mapping
US5898438A (en) Texture mapping of photographic images to CAD surfaces
JPH10253322A (en) Method and apparatus for designating position of object in space
CN106056620A (en) Calibration board for line laser position calibration and line laser camera measurement system calibration method
CN105809706B (en) A kind of overall calibration method of the more camera systems of distribution
KR20010071343A (en) Method of accurately locating the fractional position of a template match point
CN116433737A (en) Method and device for registering laser radar point cloud and image and intelligent terminal
CN104794718A (en) Single-image CT (computed tomography) machine room camera calibration method
Mashita et al. Calibration method for misaligned catadioptric camera
EP1174681A2 (en) Method and apparatus for the determination of the contour of sheet metal blanks
Fetzer et al. Stable intrinsic auto-calibration from fundamental matrices of devices with uncorrelated camera parameters
CN110827359A (en) Checkerboard trihedron-based camera and laser external reference checking and correcting method and device
JP3696336B2 (en) How to calibrate the camera
Zhuang A self-calibration approach to extrinsic parameter estimation of stereo cameras
CN112985258A (en) Calibration method and measurement method of three-dimensional measurement system
KR0162861B1 (en) Camera calibration method by considering of lens distortion
Cauchois et al. Calibration of the omnidirectional vision sensor: SYCLOP
Alturki et al. Camera principal point estimation from vanishing points
Tran et al. Extrinsic calibration of a camera and structured multi-line light using a rectangle
CN112419428B (en) Method for calibrating infrared camera of surgical robot
Li et al. A method for 3D measurement and reconstruction for active vision

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20040714

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee