KR100496186B1 - Method for estimation of projection matrix from the video sequence - Google Patents

Method for estimation of projection matrix from the video sequence Download PDF

Info

Publication number
KR100496186B1
KR100496186B1 KR10-2003-0042667A KR20030042667A KR100496186B1 KR 100496186 B1 KR100496186 B1 KR 100496186B1 KR 20030042667 A KR20030042667 A KR 20030042667A KR 100496186 B1 KR100496186 B1 KR 100496186B1
Authority
KR
South Korea
Prior art keywords
camera
projection
matrix
image
equation
Prior art date
Application number
KR10-2003-0042667A
Other languages
Korean (ko)
Other versions
KR20050001103A (en
Inventor
서정각
김상훈
조청운
홍현기
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR10-2003-0042667A priority Critical patent/KR100496186B1/en
Publication of KR20050001103A publication Critical patent/KR20050001103A/en
Application granted granted Critical
Publication of KR100496186B1 publication Critical patent/KR100496186B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 움직이는 카메라에 의하여 촬영된 비디오 영상으로부터 상기 카메라의 궤적을 추적하거나 상기 비디오 영상의 3차원 구조를 복원하는데 사용되는 투영행렬(Projection Matrix)을 결정하는 방법에 관한 것이다. 더욱 상세하게는, 본 발명은 상기 비디오 영상으로부터 키프레임을 선택하는 단계; 및 오차가 큰 프로젝티브 카메라 행렬을 제거하여 프로젝티브 절대 2차 원추 곡면을 추정하는 단계를 포함하는 것을 특징으로 하는 투영행렬 결정 방법에 관한 것이다.The present invention relates to a method of determining a projection matrix used to track the trajectory of the camera from a video image captured by a moving camera or to restore a three-dimensional structure of the video image. More specifically, the present invention includes the steps of selecting a keyframe from the video image; And estimating the projected absolute secondary cone surface by removing the projection camera matrix having a large error.

본 발명에 따른 투영행렬 결정 방법은, 무리 조정 등의 최적화 과정 없이도, 정확한 투영행렬을 결정할 수 있다. 따라서, 카메라 궤적 추적, 3차원 구조 복원 및 3차원 영상 합성에 유용하게 사용될 수 있다.In the projection matrix determination method according to the present invention, an accurate projection matrix can be determined without an optimization process such as a bunch adjustment. Therefore, it can be usefully used for camera trajectory tracking, 3D structure reconstruction and 3D image synthesis.

Description

비디오 영상으로부터 투영행렬을 결정하는 방법 {Method for estimation of projection matrix from the video sequence}Method for estimation of projection matrix from the video sequence

본 발명은 움직이는 카메라에 의하여 촬영된 비디오 영상으로부터 상기 카메라의 궤적을 추적하거나 상기 비디오 영상의 3차원 구조를 복원하는데 사용되는 투영행렬(Projection Matrix)을 결정하는 방법에 관한 것이다. 더욱 상세하게는, 본 발명은 상기 비디오 영상으로부터 키프레임을 선택하는 단계; 및 오차가 큰 프로젝티브 카메라 행렬을 제거하여 프로젝티브 절대 2차 원추 곡면을 추정하는 단계를 포함하는 것을 특징으로 하는 투영행렬 결정 방법에 관한 것이다.The present invention relates to a method of determining a projection matrix used to track the trajectory of the camera from a video image captured by a moving camera or to restore a three-dimensional structure of the video image. More specifically, the present invention includes the steps of selecting a keyframe from the video image; And estimating the projected absolute secondary cone surface by removing the projection camera matrix having a large error.

컴퓨터 비젼 기술은 1990년대 이후 시각효과에도 널리 응용되고 있으며, 특히 실물을 촬영한 필름과 가상 물체를 효과적으로 결합하는 영상합성 분야에 응용된다. 실사 영상에 가상의 물체를 합성하기 위해서는 매치 무브(Match Move) 기술이 필수적이며, 2차원 영상 합성 및 2차원 영상 내에 3차원 물체를 합성하는 방법이 있다. 2차원 영상 합성은 실사 영상에 가상 영상을 위치시키고, 이 위치를 다음 프레임에서 계속 추적하여 합성한다.Computer vision technology has been widely applied to visual effects since the 1990s, especially in the field of image synthesis that effectively combines real-life film and virtual objects. In order to synthesize a virtual object into a real image, a match move technique is essential, and there are two-dimensional image synthesis and a method of synthesizing a three-dimensional object in a two-dimensional image. Two-dimensional image synthesis places a virtual image in the live image, and keeps track of this position in the next frame and synthesizes it.

그러나, 카메라의 움직임이 크고, 회전 성분이 포함되어 있는 경우에는 3차원 영상 합성이 필요하며, 촬영된 필름으로부터 카메라의 위치와 움직임을 복원하고, 장면에 대한 3차원 모델을 구성하는 기술이 필요하다.However, when camera movement is large and rotational components are included, three-dimensional image synthesis is required, and a technique for restoring the position and movement of the camera from the photographed film and constructing a three-dimensional model of the scene is required. .

가상의 3차원 물체를 실사 영상에 합성하기 위해서 영상으로부터 추출된 카메라 궤적에 따라 가상의 물체를 렌더링하여 가상의 영상을 만들고, 실사 영상과 가상으로 만들어진 영상을 합성한다. 가상의 물체를 대상 영상 내에 위치시키기 위해서는 카메라 궤적 및 촬영된 장면의 3차원 구조 정보가 필요하다. 또한, 정확한 3차원 구조 정보는 가상의 물체가 실사 영상에 의하여 가려짐(occlusion)이 일어나는 것을 고려하며, 이를 이용하여 실사 물체와 가상 물체 사이의 충돌 처리도 가능하게 한다.In order to synthesize a virtual 3D object into a real image, a virtual object is rendered according to a camera trajectory extracted from the image, and a virtual image is synthesized. In order to position the virtual object in the target image, the camera trajectory and three-dimensional structure information of the captured scene are required. In addition, the accurate three-dimensional structure information takes into account that occlusion of the virtual object by the real image occurs, and also enables the collision processing between the real object and the virtual object.

카메라의 궤적 복원은 카메라의 움직임에 의하여 변화된 영상의 정보를 이용하여 얻어지며 이는 연속되는 영상 사이의 일치정보를 바탕으로 한다. 영상 간의 일치 정보는 흔히 특징점 추적 기술을 이용한다. 이 기술은 추적하고자 하는 대상 점 주변 영역의 밝기 정보를 고려한다. 일치정보를 쉽고 정확하게 얻어내기 위해 영상을 촬영하기 전에 마커(marker)를 설치하는 방법이 일반적이다. 각 영상에서 마커의 위치 정보를 이용하여 카메라의 움직임 정보를 추출할 수 있지만, 촬영하는 장면에 많은 제약이 따르게 된다.The trajectory restoration of the camera is obtained by using the information of the image changed by the movement of the camera, which is based on the coincidence information between successive images. Matching information between images often uses a feature tracking technique. This technique considers the brightness information of the area around the target point to be tracked. It is common to install a marker before capturing an image in order to obtain the matching information easily and accurately. Although the motion information of the camera can be extracted by using the position information of the marker in each image, a lot of restrictions are imposed on the shooting scene.

다른 방법으로는, 모션 컨트롤 카메라 등과 같은 기계 장비를 이용하는 방법이 있다. 이러한 장비는 기계 장비에 부착된 카메라를 컴퓨터로 제어하여 움직이기 때문에 카메라의 움직임 정보가 기록되며, 또한 같은 움직임으로 반복해서 촬영할 수도 있다. 그러나, 이러한 방법은 공간상의 제약을 받고, 비용이 많이 소요되는 단점이 있으며, 연출자의 다양한 의도(예를 들어, 손으로 들고 촬영하기)를 표현하기 어렵다.Another method is to use mechanical equipment such as a motion control camera. Since such equipment moves by controlling a camera attached to mechanical equipment with a computer, the movement information of the camera is recorded, and the same movement can be repeatedly shot. However, these methods are space-constrained, costly, and difficult to express various intentions of the director (for example, holding by hand).

두 장의 영상 또는 여러 장의 영상에서 카메라 정보를 얻는 기술은 1990년대부터 현재까지 활발하게 연구되고 있다. 근래에는, 카메라의 자동 보정 기술을 이용하여 비디오 영상으로부터 3차원 구조를 모델링하거나 카메라 궤적을 추정하여 가상 물체를 합성하는 등의 증강 현실(augmented reality) 관련 연구가 진행되고 있다.Techniques for obtaining camera information from two or several images have been actively studied since the 1990s. Recently, research on augmented reality, such as modeling a three-dimensional structure from a video image or synthesizing a virtual object by estimating a camera trajectory using an automatic correction technology of a camera, has been conducted.

또한, 비디오 영상으로부터 카메라 궤적을 얻기 위하여 기본행렬을 이용하고, 상기 기본행렬로부터 카메라의 외부 파라미터를 추출하여 3D 매치 무브를 구현하는 기술도 알려져 있다[H. S. Sawhney, Y. Guo, J. Asmuth, and R. Kumar, "Multi-View 3D Estimation and Applications to Match Move", In proc. IEEE MVIEW, pp.21-28, 1999]. 또한, 영상 시퀀스 내의 구조를 3차원적으로 모델링하는 기법이 제안된 바 있으며, 이를 확장하여 비디오 영상에서 카메라의 궤적을 추출하여 증강 현실을 구현하였다[K. Cornelis, M. Pollefeys, M. Vergauwen, and L. V. Gool, "Augmented Reality from Uncalibrated Video Sequences.", In proc. SMILE 2000, Lecture Notes in Computer Science, vol.2018, pp144-160, 2001.]. 또한, 특징점 추적 기법을 향상시키고, 계층적 정합기반의 사영구조를 복원하며, 카메라의 자동보정과정에 RANSAC 기법을 도입하여 전체 카메라 궤적을 추정하는 방법이 제안되었다[S. Gibson, J. Cook, T. Howard, R. Hubbold, and D. Oram, "Accurate Camera Calibration for Off-line, Video-Based Augmented Reality", In proc. IEEE and ACM ISMAR, Darmstadt, Germany, Sep. 2002.].In addition, a technique of using a basic matrix to obtain a camera trajectory from a video image and extracting an external parameter of the camera from the basic matrix to implement a 3D match move is also known [HS Sawhney, Y. Guo, J. Asmuth, and R. Kumar, "Multi-View 3D Estimation and Applications to Match Move", In proc. IEEE MVIEW , pp. 21-28, 1999]. In addition, a technique for three-dimensionally modeling a structure in an image sequence has been proposed, and this has been extended to extract a camera trajectory from a video image to implement augmented reality [K. Cornelis, M. Pollefeys, M. Vergauwen, and LV Gool, "Augmented Reality from Uncalibrated Video Sequences.", In proc. SMILE 2000, Lecture Notes in Computer Science , vol. 2018, pp 144-160, 2001.]. In addition, a method for improving the feature tracking method, restoring the hierarchical matching-based projection structure, and introducing the RANSAC method in the automatic calibration process of the camera has been proposed [S. Gibson, J. Cook, T. Howard, R. Hubbold, and D. Oram, "Accurate Camera Calibration for Off-line, Video-Based Augmented Reality", In proc. IEEE and ACM ISMAR , Darmstadt, Germany, Sep. 2002.].

그러나, 상기 연구들에서는 비디오가 매우 많은 영상을 포함하기 때문에 무리 조정 과정이 필수적이다. 따라서, 계산량이 매우 많고, 계산 과정이 복잡하다는 단점이 있다.However, in the above studies, the coordination process is essential because the video contains a lot of images. Therefore, there is a disadvantage in that the calculation amount is very large and the calculation process is complicated.

상기 문제점을 해결하기 위하여, 본 발명에서는, 무리 조정 등의 최적화 과정 없이, 비디오 영상에서 카메라 궤적과 3차원 구조를 복원하는데 사용되는 투영행렬을 결정하는 방법을 제안한다.In order to solve the above problems, the present invention proposes a method of determining a projection matrix used to restore a camera trajectory and a three-dimensional structure in a video image without an optimization process such as a bunch adjustment.

먼저, 대상 비디오 영상으로부터 카메라 궤적 해석에 적절한 키프레임을 선택하여 전체 연산 시간을 감소시키고, 두 번째 과정에서 보다 정확한 카메라 자동 보정(카메라의 내부 파라미터 구하기)을 위하여 프로젝티브 절대 2차 원추곡면의 추정 중에 에러가 많이 포함된 영상을 제거한다.First, we select keyframes suitable for camera trajectory analysis from the target video image to reduce the overall computation time, and in the second process, estimate the projected absolute secondary cone surface for more accurate camera automatic correction (to obtain the camera's internal parameters). Remove the image that contains a lot of errors.

본 발명에 따른 상기 투영행렬 결정 방법은 무리조정 과정 없이 정확한 결과를 얻을 수 있다.The projection matrix determination method according to the present invention can obtain accurate results without the process of over-adjustment.

따라서, 본 발명의 목적은 움직이는 카메라에 의하여 촬영된 비디오 영상으로부터 카메라의 궤적을 추적하거나 상기 비디오 영상의 3차원 구조를 복원하는데 사용되는 투영행렬을 결정하는 방법을 제공하기 위한 것이다.Accordingly, an object of the present invention is to provide a method for determining a projection matrix used for tracking a camera trajectory or reconstructing a three-dimensional structure of the video image from a video image captured by a moving camera.

또한, 본 발명의 목적은 상기 투영행렬을 이용하여 3차원 영상을 합성하는 방법을 제공하기 위한 것이다.Another object of the present invention is to provide a method of synthesizing a 3D image using the projection matrix.

본 발명은 움직이는 카메라에 의하여 촬영된 비디오 영상으로부터 상기 카메라의 궤적을 추적하거나 상기 비디오 영상의 3차원 구조를 복원하는데 사용되는 투영행렬을 결정하는 방법에 관한 것이다.The present invention relates to a method for determining a projection matrix used to track the trajectory of the camera from a video image captured by a moving camera or to restore a three-dimensional structure of the video image.

더욱 구체적으로 본 발명은,More specifically, the present invention,

상기 비디오 영상으로부터 키프레임을 선택하는 단계(a);Selecting a keyframe from the video image (a);

상기 키프레임으로부터 프로젝티브 공간에서의 프로젝티브 절대 2차 원추 곡면을 추정하는 단계(b);(B) estimating a projected absolute secondary cone surface in projected space from the keyframe;

상기 추정된 프로젝티브 절대 2차 원추 곡면으로부터 공간 사영변환 행렬 H를 구하는 단계(c); 및(C) obtaining a spatial projective transformation matrix H from the estimated projected absolute quadratic cone surface; And

상기 공간 사영변환 행렬 H로부터 투영행렬을 구하는 단계(d)를 포함하는 것을 특징으로 하는 투영행렬 결정 방법에 관한 것이다.And (d) obtaining a projection matrix from the spatial projection matrix H.

본 발명에 따른 투영행렬 결정 방법에 있어서, 상기 키프레임은, 특징점에 대한 일치점의 수의 비; 영상에 대한 일치점의 분포; 및 두 영상 사이의 평면 사영 변환 행렬에 의한 사영 에러를 기준으로 선택되는 것이 바람직하다.In the projection matrix determining method according to the present invention, the key frame comprises: a ratio of the number of coincidence points to the feature points; Distribution of match points for the image; And a projection error by the planar projection transformation matrix between the two images.

특히, 상기 키프레임으로는,In particular, the key frame,

특징점의 수 NF에 대한 일치점의 수 Nc의 비의 값 Nc/NF;The value of the ratio of the number of matching points N c to the number of feature points N F N c / N F ;

영상에 대한 일치점의 분포에 대한 표준편차 값 σp; 및Standard deviation of the distribution of coincidence points for the image σ p ; And

두 영상 사이의 평면 사영 변환 행렬에 의한 사영 에러의 값 Ha,err로부터From the values H a, err of the projection error by the planar projection transformation matrix between two images

하기 수학식 1의 판별식 값을 계산하고, 그 판별식 값이 소정치 이하인 프레임을 키프레임으로 선택하는 것이 바람직하다:It is preferable to calculate the discriminant value of Equation 1 below, and select a frame whose discriminant value is equal to or less than a predetermined value as a keyframe:

[수학식 1][Equation 1]

상기식에서,In the above formula,

Sij는 판별식 값이고,S ij is the discriminant value,

ω1, ω2 및 ω3은 가중치이다.ω 1 , ω 2 and ω 3 are weights.

상기 키프레임 선택 단계(a)에 있어서, 상기 평면 사영변환 행렬에 의한 사영 에러 Ha,err은 바람직하게는 하기 수학식 2에 의하여 정의된다:In the keyframe selection step (a), the projection error H a, err by the planar projection transformation matrix is preferably defined by Equation 2:

[수학식 2][Equation 2]

상기식에서, xi 및 x'i는 두 영상 사이의 일치점이고,Wherein x i and x ' i are the coincidence points between the two images,

Ha는 평면 사영변환 행렬이며,H a is a planar projection matrix,

d(x, y)함수는 점 x 및 y 사이의 거리이고,d (x, y) is the distance between points x and y,

Nc는 일치점의 개수이다.N c is the number of matches.

또한, 상기 키프레임 선택 단계(a)에 있어서, 상기 일치점의 분포에 대한 표준편차인 σP는 바람직하게는 하기 수학식 3에 의하여 정의된다:Further, in the keyframe selection step (a), σ P, which is a standard deviation for the distribution of coincidence points, is preferably defined by the following equation:

[수학식 3][Equation 3]

상기식에서, NS는 나누어진 부영역의 개수이고,Where N S is the number of subregions divided,

Nci는 i번째 부영역 내에 존재하는 일치점의 개수이며,N ci is the number of matching points in the i-th subregion,

Nc는 일치점의 갯수이고,N c is the number of matches,

상기 부영역의 가로의 크기 Ws 및 세로의 크기 Hs는 각각The horizontal size W s and the vertical size H s of the subregion are respectively

And

이고, ego,

여기에서, 함수 int(.)는 정수형 변환을 의미한다.Here, the function int (.) Means integer conversion.

본 발명에 따른 투영행렬 결정 방법에 있어서, 상기 단계(b)의 프로젝티브 절대 2차 원추 곡면 추정 단계는, 상기 단계(a)에서 선택된 키프레임 중에서 소정 임계치 이상의 오차를 나타내는 영상을 제거하여 프로젝티브 절대 2차 원추 곡면을 추정하는 것이 바람직하다.In the method of determining a projection matrix according to the present invention, the projected absolute second conical surface estimating step of (b) is performed by removing an image representing an error of a predetermined threshold or more from the key frames selected in the step (a). It is desirable to estimate the absolute secondary cone surface.

특히, 상기 단계(b)는 LMedS(Least Median of Square, 최소 중간값 자승법) 방법에 의하여 상기 소정 임계치 이상의 오차를 나타내는 영상을 제거하여 프로젝티브 절대 2차 원추 곡면을 추정하는 것이 바람직하다.In particular, in step (b), it is preferable to estimate a projected absolute secondary cone surface by removing an image showing an error above the predetermined threshold by a Least Median of Square (LMedS) method.

더욱 바람직하게는, 상기 단계(b)는,More preferably, the step (b) is,

프로젝티브 공간 상에서 첫 번재 카메라의 프로젝티브 카메라 행렬을 기준 프로젝티브 카메라 행렬로 설정하는 단계(e);(E) setting the projection camera matrix of the first camera as the reference projection camera matrix in the projection space;

상기 첫 번째 카메라를 제외한 나머지 카메라의 프로젝티브 카메라 행렬에서 임의의 프로젝티브 카메라 행렬 2개를 선택하는 단계(f);(F) selecting two arbitrary projection camera matrices from the projection camera matrices of the remaining cameras except the first camera;

상기 선택된 2개의 프로젝티브 카메라 행렬로부터 프로젝티브 절대 2차 원추 곡면을 추정하는 단계(g);(G) estimating a projected absolute quadratic cone surface from the two selected projection camera matrices;

상기 추정된 프로젝티브 절대 2차 원추 곡면에 의하여 각각의 카메라의 프로젝티브 카메라 행렬에 투영한 것과 상기 첫 번째 프로젝티브 카메라 행렬에 투영한 것의 오차를 계산하는 단계(h);(H) calculating an error between the projection of the projection camera matrix of each camera and the projection of the first projection camera matrix by the estimated projected absolute quadratic cone surface;

상기 계산된 오차를 순서대로 나열할 때의 중간값과 상기 추정된 프로젝티브 절대 2차 원추 곡면을 저장하는 단계(i);(I) storing an intermediate value when arranging the calculated errors in order and the estimated projected absolute secondary cone surface;

상기 단계(f) 내지 단계(i)를 소정 횟수 반복하여 상기 중간값을 최소로 하는 프로젝티브 절대 2차 원추 곡면을 구하고, 상기 최소 중간값을 저장하는 단계(j);Repeating steps (f) to (i) a predetermined number of times to obtain a projected absolute secondary cone surface that minimizes the median value, and storing the minimum median value;

상기 최소 중간값으로부터 소정의 오차 임계값을 설정하고, 상기 단계(h)에서 구한 오차값이 상기 임계값보다 큰 프로젝티브 카메라 행렬을 제거하는 단계(k); 및Setting a predetermined error threshold value from the minimum intermediate value, and removing (k) the projection camera matrix whose error value obtained in step (h) is greater than the threshold value; And

나머지 프로젝티브 카메라 행렬을 이용하여 절대 2차 원추 곡면을 추정하는 단계(l)를 포함한다.Estimating an absolute secondary cone surface using the remaining projected camera matrix.

상기 단계(k)에서의 오차 임계값 τ는 하기 수학식 4에 의하여 구하는 것이 바람직하다:The error threshold τ in the step (k) is preferably obtained by the following equation (4):

[수학식 4][Equation 4]

상기식에서,In the above formula,

median은 최소 중간값이고,median is the minimum median

p는 전체 데이터 셋의 갯수이며(본 발명에서는 첫번째 카메라를 제외하므로, 상기 p는 바람직하게는 전체 카메라 투영행렬의 수 - 1이다),p is the total number of data sets (since the first camera is excluded in the present invention, p is preferably the number of total camera projection matrices minus one),

q는 상기 전체 데이터 셋 중 샘플링된 데이터의 갯수이다(본 발명에서는 2개의 카메라 행렬을 샘플링하므로, 바람직하게는 2이다).q is the number of sampled data in the entire data set (the present invention samples two camera matrices, preferably 2).

또한, 본 발명은 상기 투영행렬 결정시 제외된 프레임(즉, 키프레임 선택시 제외된 프레임, 및 상기 프로젝티브 절대 2차 원추 곡면 추정 시 제외된, 오차가 큰 프레임)을 본 발명에 따라 결정된 투영행렬에 의하여 복원한 후, 상기 복원된 프레임을 포함하는 비디오 영상에 임의의 영상을 3차원 영상으로 합성하는 방법에 관한 것이다. 상기 투영행렬 결정 과정에서 제외된 카메라 정보는, 최종적으로 카메라 절제 기술에 의하여 복원될 수 있다.In addition, the present invention is a projection determined in accordance with the present invention the frame excluded in determining the projection matrix (i.e., the frame excluded in the selection of keyframes, and the frame having a large error, excluded in estimating the projected absolute secondary cone surface). The present invention relates to a method of synthesizing an arbitrary image into a 3D image to a video image including the reconstructed frame after reconstruction by a matrix. Camera information excluded in the projection matrix determination process may be finally restored by a camera ablation technique.

이하에서는, 본 발명에서 사용되는 프로젝티브 구조에서의 프로젝티브 원추 2차 곡면 추정 과정에 대한 일반적인 사항을 설명한다.Hereinafter, a general description of the projection cone secondary curve estimation process in the projection structure used in the present invention.

카메라에 의하여 얻어진 영상은 3차원 공간이 2차원인 평면에 사영되었다고 할 수 있으며, 이러한 카메라의 작용은 하기 수학식 5와 같이 3행 4열(3×4)의 투영 행렬로 표현된다:The image obtained by the camera can be said to be projected on a plane of three-dimensional space is two-dimensional, the action of this camera is expressed as a projection matrix of three rows and four columns (3 × 4), as shown in Equation 5 below:

[수학식 5][Equation 5]

상기 수학식 5와 같이, 카메라 투영행렬(이하에서는, "카메라 행렬" 또는 "카메라 투영행렬"이라 칭한다)은 3개 행렬의 곱으로 표현될 수 있다.As shown in Equation 5, the camera projection matrix (hereinafter referred to as "camera matrix" or "camera projection matrix") may be expressed as a product of three matrices.

이 중, 우측 행렬은 외부 파라미터로서, 월드 좌표계에서 카메라 좌표계로의 변환을 의미한다. R3×3 및 t3 T는 각각 강체 변환 행렬(rigid transformation matrix)에서의 회전 및 이동 성분이다.Among these, the right matrix is an external parameter and means a conversion from the world coordinate system to the camera coordinate system. R 3 × 3 and t 3 T are the rotational and moving components in the rigid transformation matrix, respectively.

가운데의 행렬은 공간을 평면으로 투영하는 역할을 수행한다.The middle matrix serves to project the space into the plane.

좌측 행렬 K는 내부 파라미터(intrinsic parameter)로서 평면에 투영된 것을 영상 내의 픽셀 좌표계로 변환한다.The left matrix K converts the projection onto the plane as an internal parameter into the pixel coordinate system in the image.

카메라 투영행렬의 상기 내부 파라미터 K를 얻는 과정을 카메라 보정(calibration)이라 칭한다. 카메라 보정 방법에는 크게 2가지가 있다. 하나는 3차원 정보(좌표)를 이용하는 것으로서, 이미 알고 있는 3차원 정보와 그것이 영상에 투영된 관계를 이용하여 내부 파라미터를 구한다. 이 방법에서는 월드 좌표계의 설정이 용이한 체크 박스 등을 주로 이용한다. 다른 하나는 3차원 정보를 이용하지 않고 영상 내의 정보만을 이용하여 카메라 정보를 구하는 자동 보정 방법이다.The process of obtaining the internal parameter K of the camera projection matrix is called camera calibration. There are two ways to calibrate the camera. One is to use three-dimensional information (coordinates), and internal parameters are obtained by using the three-dimensional information that is known and the relationship that is projected on the image. In this method, a check box or the like which makes it easy to set a world coordinate system is mainly used. The other is an automatic correction method for obtaining camera information using only information in an image without using 3D information.

상기 수학식 5에서의 외부 파라미터 R 및 t는 월드 좌표계에 대한 카메라의 위치와 바라보는 방향의 정보를 담고 있다. 한편, 월드 좌표계는 사용자에 의하여 결정된다. 따라서, 상기 첫 번째 카메라가 기준이 되도록 상기 첫 번째 카메라의 위치와 바라보는 방향을 월드 좌표계에 일치시키면, 상기 첫 번째 카메라의 투영행렬은 P1=K[I|0]가 된다.The external parameters R and t in Equation 5 contain information of the camera position and the viewing direction with respect to the world coordinate system. Meanwhile, the world coordinate system is determined by the user. Therefore, if the position of the first camera and the viewing direction coincide with the world coordinate system so that the first camera is a reference, the projection matrix of the first camera becomes P 1 = K [I | 0].

만일, 동일한 내부 파라미터를 갖는 다른 카메라가 있다면, P2=K[R|t]가 되며, 여기에서 상기 R 및 t는 상기 첫 번째 카메라에 대한 상대적인 위치와 회전정보를 표현한다. K에 대한 정보는 알 수 없기 때문에, 첫 번째 카메라 행렬의 K를 소거하도록 4×4 변환행렬을 적용하면, 하기 수학식 6과 같이 정리할 수 있다:If there are other cameras with the same internal parameters, then P 2 = K [R | t], where R and t represent the position and rotation information relative to the first camera. Since the information about K is unknown, applying a 4x4 transformation matrix to eliminate K of the first camera matrix can be summarized as in Equation 6:

[수학식 6][Equation 6]

x1 = P1X = K[I|O]X = K[I|O]HH-1X = [I|O]H-1X = [I|O]Xp x 1 = P 1 X = K [I | O] X = K [I | O] HH -1 X = [I | O] H -1 X = [I | O] X p

x2 = P2X = K[R|t]X = K[R|t]HH-1X = [M|p4]H-1X = [M|p4]Xp x 2 = P 2 X = K [R | t] X = K [R | t] HH -1 X = [M | p 4 ] H -1 X = [M | p 4 ] X p

상기식에서,In the above formula,

X는 3차원 상의 점이고,X is a three-dimensional point,

x1 및 x2는 두 영상 내에 투영된 점이며,x 1 and x 2 are the points projected within the two images,

H는 공간 사영변환 행렬이고,H is a spatial projection matrix,

Xp는 X의 사영변환으로서 프로젝티브 구조이다.X p is the projective structure as the projection transformation of X.

두 영상의 프로젝티브 구조는 기본 행렬을 통하여 복원할 수 있다. 상기 프로젝티브 구조로부터 공간 사영변환 행렬 H를 구하면, 유클리드 구조의 복원이 가능하다[A. Zisserman, P. Beardsley, and I. Reid, "Metric Calibration of a Stereo Rig.", In proc. IEEE Workshop Representation of Visual Scenes, pp.93-100, Cambridge, 1995.]. 또한, 카메라 투영 행렬도 복원이 가능하기 때문에 유클리드 공간에서의 내부 및 외부 파라미터 추출이 가능하다.The projective structure of the two images can be reconstructed through the base matrix. By obtaining the spatial projective transformation matrix H from the projected structure, the Euclidean structure can be restored [A. Zisserman, P. Beardsley, and I. Reid, "Metric Calibration of a Stereo Rig.", In proc. IEEE Workshop Representation of Visual Scenes , pp. 93-100, Cambridge, 1995.]. Also, since the camera projection matrix can be reconstructed, internal and external parameters can be extracted in Euclidean space.

따라서, 카메라의 자동 보정이 정확해지려면, 프로젝티브 구조 복원이 정확하여야 하며, 프로젝티브 구조로부터 공간 사영 변환을 정확하게 추출하는 것이 중요하다.Therefore, in order for the automatic correction of the camera to be accurate, the projective structure reconstruction must be accurate, and it is important to accurately extract the spatial projection transformation from the projective structure.

상기 유클리드 공간과 프로젝티브 공간의 관계를 도 1에 도시하였다. 매 영상에 대한 프로젝티브 카메라 투영행렬에 공간 사영 변환 행렬 H를 적용하여 유클리드 공간에서의 매 영상에 대한 카메라 투영행렬을 얻을 수 있다.The relationship between the Euclidean space and the projected space is shown in FIG. 1. By applying the spatial projection transformation matrix H to the projection camera projection matrix for every image, a camera projection matrix for every image in Euclidean space can be obtained.

예를 들어, 비디오 영상에서 프레임 수가 100장인 경우, 프로젝티브 카메라 투영 행렬이 100개 존재하는 것이며, 이를 이용하여 프로젝티브 절대 2차 원추 곡면을 추정할 수 있다. 상기 프로젝티브 절대 2차 원추 곡면으로부터 하나의 공간 사영 변환 행렬 H를 얻을 수 있다. 이를 상기 100개의 프로젝티브 투영행렬에 적용하여 100개의 유클리드 카메라 투영행렬을 구할 수 있으며, 이것이 실제로 카메라가 움직인 궤적을 나타낸다.For example, if the number of frames in the video image is 100, there are 100 projection camera projection matrices, which can be used to estimate the projected absolute secondary cone surface. One spatial projection transformation matrix H can be obtained from the projected absolute quadratic cone surface. By applying this to the 100 projection projection matrices, 100 Euclidean camera projection matrices can be obtained, which actually represent the trajectory of the camera movement.

이하에서는, 프로젝티브 구조 복원 및 절대 2차 원추 곡면 추정에 관하여 설명한다.In the following, the projected structure reconstruction and absolute secondary cone surface estimation are described.

1. 프로젝티브 구조 복원1. Restore the projective structure

프로젝티브 구조는 두 장의 영상으로부터 기본 행렬을 이용하여 복원할 수 있다. 3장의 영상에서는 3촛점 텐서(trifocal tensor)로부터 복원할 수 있다[R. Hartley and A. Zisserman, Mutiple View Geometry in Computer Vision, Cambrige University Press. 2000.]. 또한, 여러 장의 영상으로부터 프로젝티브 구조를 복원하는 방법이 제시되었으며, 이는 크게 분해법(factoriazation) 기반 방법 및 병합(merging) 기반 방법으로 구분된다.The projective structure can be reconstructed using the base matrix from two images. The three images can be reconstructed from a trifocal tensor [R. Hartley and A. Zisserman, Mutiple View Geometry in Computer Vision , Cambrige University Press. 2000.]. In addition, a method of restoring the projective structure from several images has been proposed, which is classified into a factoriazation based method and a merging based method.

분해법 기반은 카메라 투영 행렬과 3차원 구조가 동시에 계산되기 때문에 에러 누적에 의한 영향을 보다 적게 받는다. 이에 비하여 병합 기반 방법은 초기 추정의 정확성에 매우 크게 의존하며, 비디오 영상과 같은 긴 시퀀스 영상에 대한 적용에 적합하다[A. Azarbayejani and A. Pentland, "Recursive Estimation of Motion, Structure, and Focal Length.", In proc. IEEE Trans. on Pattern Matching and Machine Intelligence, vol.17, no.6, pp.567-575, June 1995.].The decomposition base is less affected by error accumulation because the camera projection matrix and the three-dimensional structure are computed simultaneously. In contrast, the merge-based method relies heavily on the accuracy of the initial estimation and is suitable for application to long sequence images such as video images [A. Azarbayejani and A. Pentland, "Recursive Estimation of Motion, Structure, and Focal Length.", In proc. IEEE Trans. on Pattern Matching and Machine Intelligenec , vol. 17, no. 6, pp. 567-575, June 1995.].

병합기반 방법은 다시 순차적 병합 방법과 계층적 병합 방법으로 구분된다. 순차적 병합 방법이 초기 추정치에 매우 의존하고 에러가 누적되는 반면에, 계층적인 방법은 이를 줄일 수 있다는 장점이 있다.The merge-based method is further divided into a sequential merging method and a hierarchical merging method. While the sequential merging method is highly dependent on initial estimates and errors are cumulative, the hierarchical method has the advantage of reducing this.

2. 절대 2차 원추 곡면 추정(Abosolute Quadric Estimation)2. Absolute Quadratic Quadric Estimation

절대 2차 원추 곡면은 무한면이 절단하고 있으며, 곡선 형태를 띠는 절대 원추 곡선이다. 절대 2차 원추 곡면은 4×4의 대칭 행렬로 표현되며, 계수(rank)가 3이다.Absolute quadratic cone surfaces are cut by an infinite plane and have a curved absolute cone curve. The absolute quadratic cone surface is represented by a 4x4 symmetric matrix with a rank of three.

또한, 유클리드 공간에서는 의 형태가 된다.Also, at the Euclidean space Becomes the form of.

카메라 행렬 P와 절대 2차 원추 곡면 Q 사이의 관계는 하기 수학식 7과 같다:The relationship between the camera matrix P and the absolute quadratic cone surface Q is given by:

[수학식 7][Equation 7]

PQPT = KKT PQP T = KK T

프로젝티브 구조 복원 이론에 의하여 유클리드 상의 카메라 행렬 P와 프로젝티브 구조 상의 카메라 행렬 Pp 사이의 관계는 임의의 공간 사영 변환 H로 설명되고, 상기 Pp도 상기 수학식 7을 만족한다.According to the projected structure reconstruction theory, the relationship between the camera matrix P on the Euclidean and the camera matrix P p on the projected structure is described by an arbitrary spatial projection transformation H, and P p also satisfies Equation 7 above.

카메라의 내부 파라미터에 대하여, 화소의 가로 및 세로비가 1이고, 카메라의 비틀림(skew)은 0이며, 원리점(principle point)은 영상의 중앙이라고 가정하고, 각 원소를 대응시킴으로써, 상기 수학식 7으로부터 하기 수학식 8과 같은 선형 방정식을 유도할 수 있다:Regarding the internal parameters of the camera, it is assumed that the horizontal and vertical ratios of the pixel are 1, the skew of the camera is 0, and the principal point is the center of the image, and the elements are mapped to each other. From can be derived a linear equation such as

[수학식 8][Equation 8]

(PpQpPp T)12 = 0(P p Q p P p T ) 12 = 0

(PpQpPp T)13 = 0(P p Q p P p T ) 13 = 0

(PpQpPp T)23 = 0(P p Q p P p T ) 23 = 0

(PpQpPp T)11 = (PpQpPp T)22 (P p Q p P p T ) 11 = (P p Q p P p T ) 22

상기식에서, (A)ij는 A 행렬의 i번째 행, j번째 열의 원소를 의미하며,In the above formula, (A) ij means the elements of the i-th row, j-th column of the matrix A,

Qp는 4×4의 대칭 행렬로서 프로젝티브 공간에서의 절대 2차 원추 곡면이고, 10개의 미지수와 9개의 자유도를 갖는다.Q p is a 4x4 symmetric matrix, an absolute quadratic cone surface in projected space, with 10 unknowns and 9 degrees of freedom.

프로젝티브 구조에서의 카메라 행렬로부터 4개의 방정식을 만들 수 있으며, 최소 4개의 카메라 행렬로부터 Qp가 추정될 수 있다. 유클리드 공간에서의 Q와 프로젝티브 구조에서의 Qp의 관계에서 상기 수학식 8로부터 Qp를 추정한 후에 고유치 분해를 이용하여 H-1를 구한다. 즉,Four equations can be made from the camera matrix in the projected structure, and Q p can be estimated from at least four camera matrices. After estimating Q p from Equation 8 in the relation between Q in Euclidean space and Q p in the projected structure, H −1 is obtained using eigenvalue decomposition. In other words,

에서, D 행렬은 대각행렬로서, 각 원소에 제곱근하여 쉽게 두 개로 분리할 수 있으며, U 행렬과 곱하여 H-1을 얻을 수 있다.In, D matrix is a diagonal matrix, which can be easily divided into two by square root of each element, and H -1 can be obtained by multiplying by U matrix.

이때, 절대 2차 원추 곡면은 계수가 3이므로, 의 마지막 원소는 0이다.In this case, since the absolute secondary cone surface has a coefficient of 3, The last element of is 0.

이는 H-1을 비가역행렬로 만든다. 따라서, 의 마지막 원소에 임의의 숫자를 넣어 H-1을 만들며, 보통 1로 대체된다[B. Triggs, "Autocalibration and The Absolute Quadric", In proc. IEEE CVPR, pp.609-614, 1997.].This makes H- 1 an irreversible matrix. therefore, Creates H -1 by inserting a random number into the last element of, usually replaced by 1 [B. Triggs, "Autocalibration and The Absolute Quadric", In proc. IEEE CVPR , pp. 609-614, 1997.].

이하에서는, 도면을 참조하여 본 발명에 따른 투영행렬 결정방법의 실시예를 구체적으로 설명한다. 그러나, 본 발명이 하기 실시예에 의하여 제한되는 것은 아니다.Hereinafter, an embodiment of a projection matrix determining method according to the present invention will be described in detail with reference to the drawings. However, the present invention is not limited by the following examples.

도 2는 본 발명에 따른 투영행렬 결정방법의 순서도이다.2 is a flowchart of a projection matrix determining method according to the present invention.

상기 도 2에 도시되어 있는 바와 같이, 본 발명은 움직이는 카메라에 의하여 촬영된 비디오 영상으로부터 카메라의 궤적을 추적하거나 피사체의 3차원 구조를 복원하는데 사용되는 투영행렬을 결정하는 방법에 있어서,As shown in FIG. 2, the present invention provides a method of determining a projection matrix used to track a camera's trajectory or restore a three-dimensional structure of a subject from a video image captured by a moving camera.

상기 비디오 영상으로부터 키프레임을 선택하는 단계(S10);Selecting a keyframe from the video image (S10);

상기 키프레임으로부터 에러가 많이 포함된 영상을 LMedS 방법에 의하여 제거하여 프로젝티브 공간에서의 프로젝티브 절대 2차 원추 곡면을 추정하는 단계(S20);Estimating a projected absolute secondary cone surface in the projected space by removing an error-rich image from the keyframe by an LMedS method (S20);

상기 추정된 프로젝티브 절대 2차 원추 곡면으로부터 공간 사영변환 행렬 H를 구하는 단계(S30); 및Obtaining a spatial projective transformation matrix H from the estimated projected absolute quadratic cone surface (S30); And

상기 공간 사영변환 행렬 H로부터 투영행렬을 구하는 단계(S40)를 포함한다.Obtaining a projection matrix from the spatial projection matrix H (S40).

이하에서는, 대상 비디오 영상으로부터 카메라 궤적 해석에 적절한 키프레임의 선택 과정에 대하여 설명한다.Hereinafter, a process of selecting a key frame suitable for camera trajectory analysis from the target video image will be described.

키프레임 선택은 프레임 수가 많은 비디오 데이터에서 카메라 움직임 및 장면 구조의 복원을 위하여 필요한 계산량을 대폭 줄일 수 있다. 키프레임 선택 과정 후에 영상 간의 카메라 움직임 정도가 균등하게 된다.Keyframe selection can drastically reduce the amount of computation required for reconstruction of camera movements and scene structures in video data with a large number of frames. After the keyframe selection process, the degree of camera movement between images becomes even.

보다 효율적인 카메라 보정 등을 위해서는 가능한 한 적은 수의 키프레임이 선택되어야 하며, 동시에 전체 카메라 움직임을 대변할 수 있는 프레임이 선택되어야 한다. 또한, 선택된 영상들로부터 카메라의 움직임 정보를 정확하게 해석할 수 있어야 한다. 이하에서는 본 발명에서 사용되는 키프레임 선택 판별식 및 판별 기준을 설명한다.For more efficient camera correction, as few keyframes as possible should be selected, and at the same time, frames should be selected to represent the entire camera movement. In addition, it should be possible to accurately interpret the motion information of the camera from the selected images. Hereinafter, keyframe selection discrimination equations and discrimination criteria used in the present invention will be described.

a-1. 키프레임 선택 판별식a-1. Keyframe Selection Determination

일반적으로 선택된 영상으로부터 카메라의 움직임을 해석하려면, 대상 영상 간의 일치 관계를 효과적으로 구성하여야 한다. 대상 장면과 카메라 사이의 거리가 클수록 카메라의 움직임을 정확하게 해석할 수 있다. 상기 조건을 만족시키는 영상을 선택하기 위하여 다음과 같은 3가지를 고려한다:In general, in order to analyze the movement of the camera from the selected image, it is necessary to effectively configure the correspondence between the target images. The greater the distance between the target scene and the camera, the more accurately the camera's movement can be interpreted. To select an image that satisfies the above conditions, three things are considered:

i) 특징점 수에 대한 일치점 수의 비;i) ratio of the number of coincidence points to the number of feature points;

ii) 두 영상 사이의 평면 사영 변환 행렬에 의한 사영 에러; 및ii) the projection error due to the planar projection transformation matrix between the two images; And

iii) 영상에 대한 일치점의 분포에 대한 고려.iii) Consideration of the distribution of coincidence points for the image.

첫째로, 특징점 수에 대한 일치점 수의 비는 영상 간의 일치점의 추출이 충분한가를 고려하는 것이다. 비디오 영상에서 카메라의 움직임에 의한 영상의 변화는 일반적으로 시간에 따라 일치점의 수가 줄어들며, 이 정보는 다음 키프레임이 선택될 범위를 한정한다.First, the ratio of the number of coincidence points to the number of feature points considers whether extraction of coincidence points between images is sufficient. In a video image, the change of the image due to camera movement generally decreases the number of coincidence points over time, and this information defines the range in which the next keyframe will be selected.

둘째로, 평면 사영 변환 행렬에 의한 사영 에러는 현 프레임에서 카메라의 이동 정도를 의미하며, 이로부터 카메라 이동을 정확하게 해석할 수 있는지 여부를 나타낸다.Secondly, the projection error by the planar projection transformation matrix indicates the degree of movement of the camera in the current frame, and from this, whether the camera movement can be accurately interpreted.

셋째로, 대상 영상에서의 일치점 분포는 에피폴라 기하 정보를 잘 추정할 수 있는지를 검사하기 위하여 고려된다. 상기 에피폴라 기하정보는 두 영상 사이의 카메라 움직임 정보를 포함하며, 대수적으로 기본 행렬로 표현되고, 영상 간의 일치점 정보로부터 추정된다. 기본 행렬은 잡음에 매우 민감하며, 일치점이 영상에 고르게 분포할수록 잡음에 대한 적응력이 높고, 강건한 기본 행렬 추정을 가능하게 한다.Third, the coincidence distribution in the target image is considered to check whether the epipolar geometry can be estimated well. The epipolar geometry includes camera motion information between two images, and is represented in a logarithmic matrix and estimated from the coincidence information between the images. The base matrix is very sensitive to noise, and the more evenly matched points are distributed in the image, the more adaptive it is to noise and allowing robust base matrix estimation.

하기 수학식 1은 효과적인 키프레임을 선택하기 위하여 상기 3가지 요소를 고려하기 위한 판별식이다:Equation 1 below is a discriminant for considering the three factors in order to select an effective keyframe:

[수학식 1][Equation 1]

상기식에서, Sij는 판별식 값이고,In the above formula, S ij is a discriminant value,

ωi(i=1, 2, 3)는 가중치이며,ω i (i = 1, 2, 3) is the weight,

Nc 및 NF는 각각 일치점 및 특징점의 개수이고,N c and N F are the number of coincident and feature points, respectively,

σP는 대상 영상에서 일치점의 분포에 대한 표준편차이며,σ P is the standard deviation of the distribution of coincidence points in the target image,

Ha,err은 평면 사영변환 행렬에 의한 사영 에러이다.H a, err is the projection error due to the planar projection transformation matrix.

상기 가중치는 상기 수학식 1의 각 항의 중요 정도에 따라 소정의 값이 설정된다. 후술하는 실험예에서는 ω1=3, ω2=1 및 ω3=10으로 설정하였다.The weight is set to a predetermined value according to the degree of importance of each term in Equation (1). In the experimental example described later, ω 1 = 3, ω 2 = 1, and ω 3 = 10.

상기 판별식에 의하여 키프레임이 선택되며, 비디오 시퀀스의 첫 번째 영상과 마지막 영상도 키프레임으로 설정한다. 첫 번째 영상의 특징점 수에 대하여 다음 영상의 특징점 수의 비율이 50%가 될 때까지 판별식 값을 계산하며, 판별식 값이 가장 작은 영상을 키프레임으로 선택한다. 마지막 프레임까지 위의 과정을 반복하면서 키프레임을 계속 얻는다.The keyframe is selected by the discrimination equation, and the first image and the last image of the video sequence are also set as keyframes. The discriminant value is calculated until the ratio of the feature points of the first image is 50% to the number of feature points of the first image, and the image having the smallest discriminant value is selected as the keyframe. Repeat the above process until the last frame and continue to get keyframes.

a-2. 평면 사영변환 에러a-2. Planar Projection Error

이동이 없는 카메라로부터 얻어진 영상 사이에는 평면 사영변환 행렬로 일대일 대응관계가 만족되며, 이런 성질은 영상 모자이크 기법 등에 이용된다. 카메라의 이동이 없는 영상에서 3차원 구조 정보를 복원하는 것은 불가능하다. 따라서, 평면사영변환 오차가 작을수록 카메라 자동 보정에는 부적합하다.The one-to-one correspondence is satisfied between the images obtained from the non-moving camera by the planar projection transformation matrix, and this property is used for the image mosaic technique. It is impossible to restore the 3D structure information in the image without the camera movement. Therefore, the smaller the plane projection conversion error, the less suitable for camera automatic correction.

영상 간의 평면 사영변환 행렬은 카메라가 이동함에 따라 일대일 관계가 성립하며, 카메라 이동이 클수록 깊이 정보에 따른 사영오차는 커진다. 즉, 사영오차는 두 카메라의 움직임 정보를 나타내며, 이는 카메라 사이의 거리를 의미한다. 사영오차는 두 영상 간에 최소 4개의 일치 정보로부터 구할 수 있으며, 4개 이상의 점에 대해서는 DLT(Direct Liner Transformation Algorithm) 방법을 이용하여 구한다.The planar projection transformation matrix between images has a one-to-one relationship as the camera moves, and the larger the camera movement, the larger the projection error according to the depth information. That is, the projection error represents the motion information of the two cameras, which means the distance between the cameras. Projection errors can be obtained from at least four pieces of concordance information between two images, and four or more points are obtained using a DLT (Direct Liner Transformation Algorithm) method.

하기 수학식 2는 평면 사영 변환 행렬에 의한 사영 에러를 나타내는 식이다.Equation 2 is an expression representing the projection error by the planar projection transformation matrix.

[수학식 2][Equation 2]

상기식에서, xi 및 x'i는 두 영상 사이의 일치점으로서 동차 좌표이고,In the above formula, x i and x ' i are homogeneous coordinates as a coincidence point between the two images,

Ha는 평면 사영변환 행렬이며,H a is a planar projection matrix,

d(x, y)함수는 점 x 및 y 사이의 거리이고,d (x, y) is the distance between points x and y,

Nc는 일치점의 개수이다.N c is the number of matches.

a-3. 일치점 분포 표준편차a-3. Standard deviation of coincidence distribution

일치점들의 분포는 기본행렬의 추정에 많은 영향을 준다. 따라서, 영상에 대하여 일치점 분포가 고르다면, 더욱 정확하고 안정적인 기본행렬을 추정할 수 있다.The distribution of coincidence points greatly influences the estimation of the base matrix. Therefore, if the matching point distribution is uniform for the image, a more accurate and stable basic matrix can be estimated.

일치점이 영상에 고르게 분포하는지를 검사하기 위하여 영상을 일정한 크기의 부영역으로 분할하여 전체 영상에서의 일치점 밀도와 각 부영역에서의 일치점 밀도간의 차이를 이용하여 대상 영상에 대한 일치점의 분포 정도를 해석할 수 있다. 만일 나누어진 영역의 개수가 일치점의 개수와 같은 경우에 각 영역에 대하여 일치점이 한 개씩 존재한다면, 일치점들이 영상 내에 가장 고르게 분포되었다고 볼 수 있다. 영상을 균일한 크기의 영역으로 나눌 때 영역의 형태를 전체 영상의 형태와 동일한 사각형으로 분할하는 것이 바람직하다.To check whether the coincidence points are distributed evenly in the image, the image is divided into sub-sized regions of constant size, and the distribution of coincidence points in the target image is analyzed by using the difference between the coincidence points density in the entire image and the coincidence points density in each subregion. Can be. If the number of divided regions equals the number of coincidence points, if there is one coincidence point for each region, the coincidence points may be considered to be most evenly distributed in the image. When dividing an image into regions of uniform size, it is preferable to divide the shape of the area into the same rectangle as the shape of the entire image.

대응점의 개수에 근접하게 균일한 크기를 갖는 부영역으로 전체 영상을 분할하기 위하여 하기 수학식 9를 이용한다:Equation 9 is used to segment the entire image into subregions of uniform size close to the number of corresponding points:

[수학식 9][Equation 9]

상기식에서, int(.)는 정수형 변환을 의미하고,Where int (.) Means integer conversion,

WS 및 HS는 각각 부영역의 가로 및 세로의 크기이며,W S and H S are the width and length of the subregion, respectively.

Nc는 일치점의 갯수이다.N c is the number of matches.

상기 수학식 9를 이용하여 부영역의 크기를 구하고, 부영역의 각 방향의 크기로 전체 대상 영상을 분할한다.Using Equation 9, the size of the subarea is obtained, and the entire target image is divided into sizes in each direction of the subarea.

대상 영상에 대한 일치점의 분포 정도를 계산하기 위하여 각 부영역 내에 존재하는 일치점의 수를 구하고, 전체 영상의 면적에 대한 일치점 밀도와 각 부영역 내에 존재하는 일치점의 밀도에 대한 표준편차를 이용한다.In order to calculate the distribution of the matching points for the target image, the number of matching points existing in each subregion is obtained, and the standard deviation of the matching point density for the area of the entire image and the density of the matching points existing in each subregion is used.

부영역은 크기가 일정하기 때문에 부영역의 면적을 1이라고 가정하면, 점의 밀도에 대한 표준편차 식은 하기 수학식 3과 같다:Since the subregions have a constant size, assuming that the area of the subregion is 1, the standard deviation equation for the density of the points is given by Equation 3:

[수학식 3][Equation 3]

상기식에서, NS는 나누어진 부영역의 개수이고,Where N S is the number of subregions divided,

Nci는 i번째 부영역 내에 존재하는 일치점의 개수이며,N ci is the number of matching points in the i-th subregion,

Nc는 일치점의 갯수이다.N c is the number of matches.

이하에서는, LMedS 기반의 절대 2차 원추 곡면 추정 단계(b)를 설명한다.Hereinafter, the step (b) of estimating an absolute secondary cone surface based on LMedS will be described.

절대 2차 원추 곡면은 3장 이상의 영상으로부터 선형방정식을 통하여 추정할 수 있지만, 이러한 선형방정식은 잡음의 영향으로 인하여 정확한 해를 구하기 어렵다.Absolute quadratic cone surfaces can be estimated from three or more images through linear equations, but these linear equations are difficult to obtain accurate solutions due to noise effects.

본 발명에서는 몬테카를로 기법을 기반으로 하는 LMedS 방법으로 에러가 많은 카메라 행렬을 제거함으로써 보다 정확한 절대 2차 원추 곡면을 추정한다.In the present invention, a more accurate absolute quadratic cone surface is estimated by eliminating an error-prone camera matrix using the LMedS method based on the Monte Carlo technique.

프로젝티브 카메라 행렬 중에서 첫 번째 프로젝티브 카메라 행렬이 다른 프로젝티브 카메라 행렬의 기준이 되도록 설정한다. 즉, 상기 첫 번재 프로젝티브 카메라 행렬이 [I|0]가 되도록 하는 공간 사영 행렬을 모든 카메라 행렬에 곱한다. P=[M|p4]라고 가정하면, 하기 수학식 10과 같은 공간 사영 행렬 T를 모든 카메라 행렬에 적용하여 상기 첫번재 카메라 행렬이 [I|O]가 되도록 변환시킬 수 있다:The first projection camera matrix among the projection camera matrices is set to be the reference of another projection camera matrix. That is, all the camera matrices are multiplied by a spatial projection matrix such that the first projection camera matrix is [I | 0]. Assuming P = [M | p 4 ], we can apply the spatial projection matrix T as shown in Equation 10 to all camera matrices so that the first camera matrix becomes [I | O]:

[수학식 10][Equation 10]

상기 프로젝티브 구조 상의 프로젝티브 절대 2차 원추 곡면을 첫 번재 프로젝티브 카메라에 투영하면, 프로젝티브 절대 2차 원추곡면은 미지수가 10개에서 7개로 줄어든다. 이는 첫 번째 카메라를 제외한 최소 2개의 카메라 행렬로부터 추정될 수 있음을 의미한다.When projecting the projected absolute secondary cone surface on the projected structure to the first projection camera, the projected absolute secondary cone surface is reduced from 10 to 7 unknowns. This means that it can be estimated from at least two camera matrices except the first camera.

에러가 많은 카메라 행렬을 절대 2차 원추 곡면 추정에서 제거하기 위하여 첫 번째 카메라 행렬을 제외한 나머지 카메라 행렬 집합에서 임의로 2개의 카메라 행렬을 선택하여 절대 2차 원추곡면을 추정한다. 추정된 절대 2차 원추 곡면을 나머지 카메라에 투영하여 첫 번째 카메라 행렬에 투영한 것과 각각의 카메라 행렬에서의 오차를 계산하고, 순서화하여 중간 위치의 오차를 저장한다. 하기 수학식 11은 상기 i번째 카메라 행렬의 오차 ri를 계산하는 식이다:In order to remove the error-prone camera matrix from the absolute quadratic cone surface estimation, the absolute quadratic cone surface is estimated by randomly selecting two camera matrices from the set of camera matrices except the first camera matrix. The estimated absolute quadratic cone surface is projected on the remaining cameras to calculate the errors in the first camera matrix and the errors in the respective camera matrices. Equation 11 below calculates the error r i of the i-th camera matrix:

[수학식 11][Equation 11]

ri = (λ0Pp 0QpPp 0T - λ iPp iQpPp iT)norm i = r (λ 0 P 0 Q p p p P 0T - λ i P i Q p p p P iT) norm

상기식에서, (.)norm은 벡터의 크기를 나타내고,Where (.) Norm represents the magnitude of the vector,

Pp 0는 첫번째 카메라의 프로젝티브 카메라 행렬이고,P p 0 is the projection camera matrix of the first camera,

Pp i는 i번째 카메라의 프로젝티브 카메라 행렬이며,P p i is the projection camera matrix of the i th camera,

Qp는 프로젝티브 절대 2차 원추 곡면이고,Q p is the projected absolute quadratic cone surface,

(KKT)33=1이므로, λ0 및 λi는 각각 1/(Pp 0QpPp 0T)33 및 1/(Pp iQp Pp iT)33이다.Since (KK T ) 33 = 1, λ 0 and λ i are 1 / (P p 0 Q p P p 0T ) 33 and 1 / (P p i Q p P p iT ) 33, respectively.

상기 과정을 소정 횟수만큼 반복하여, 중간위치의 오차(이하에서는 중간값이라 칭한다)가 가장 작은 경우의 절대 2차 원추 곡면을 저장한다.The above process is repeated a predetermined number of times to store the absolute secondary cone surface when the error of the intermediate position (hereinafter referred to as intermediate value) is the smallest.

최소 중간값과 그때의 절대 2차 원추 곡면을 이용하여 에러가 많은 카메라 행렬을 구별하는 임계값은 하기 수학식 4를 이용한다:The threshold for distinguishing an error-prone camera matrix using the minimum median and the absolute quadratic cone surface at that time uses Equation 4:

[수학식 4][Equation 4]

상기식에서, median은 최소 중간값이고,Where median is the minimum median,

p는 전체 카메라 투영행렬의 수(즉, 전체 프레임 수) - 1이며,p is the total number of camera projection matrices (that is, the total number of frames) minus one,

q는 2이다.q is 2.

상기 수학식 4로부터 임계값을 정하고, 상기 임계값보다 큰 오차를 갖는 카메라 행렬을 제외시킨 후, 나머지 카메라 행렬로부터 다시 절대 2차 원추 곡면을 추정한다.The threshold value is determined from Equation 4, the camera matrix having an error larger than the threshold value is excluded, and the absolute secondary cone surface is estimated again from the remaining camera matrix.

도 3은 상기 설명한 프로젝티브 절대 2차 원추 곡면을 추정하는 단계(b)의 순서도이다.3 is a flow chart of step (b) of estimating the projected absolute secondary cone surface described above.

상기 도 3에 도시되어 있는 바와 같이, 프로젝티브 절대 2차 원추 곡면을 추정하는 단계(b)는,As shown in FIG. 3, estimating the projected absolute secondary cone surface, (b),

프로젝티브 공간 상에서 첫 번재 카메라의 프로젝티브 카메라 행렬을 기준 프로젝티브 카메라 행렬로 설정하는 단계(S21);Setting the projection camera matrix of the first camera as the reference projection camera matrix in the projection space (S21);

상기 첫 번째 카메라를 제외한 나머지 카메라의 프로젝티브 카메라 행렬에서 임의의 프로젝티브 카메라 행렬 2개를 선택하는 단계(S22);Selecting two arbitrary projection camera matrices from the projection camera matrices of the remaining cameras except the first camera (S22);

상기 선택된 2개의 프로젝티브 카메라 행렬로부터 프로젝티브 절대 2차 원추 곡면을 추정하는 단계(S23);Estimating a projected absolute quadratic cone surface from the two selected projection camera matrices (S23);

상기 추정된 프로젝티브 절대 2차 원추 곡면에 대하여 각각의 카메라의 프로젝티브 카메라 행렬에 투영한 것과 상기 첫 번째 프로젝티브 카메라 행렬에 투영한 것의 오차를 계산하는 단계(S24);Calculating an error between the projection of the projected camera matrix of each camera and the projection of the first projection camera matrix with respect to the estimated projected absolute quadratic cone surface (S24);

상기 계산된 오차를 순서대로 나열할 때의 중간값과 상기 추정된 프로젝티브 절대 2차 원추 곡면을 저장하는 단계(S25);Storing a median value when arranging the calculated errors in order and the estimated projected absolute secondary cone surface (S25);

상기 단계(S22) 내지 단계(S25)를 소정 횟수 반복하여(S26) 상기 중간값을 최소로 하는 프로젝티브 절대 2차 원추 곡면을 구하고, 상기 최소 중간값을 저장하는 단계(S27);Repeating the steps (S22) to (S25) a predetermined number of times (S26), obtaining a projected absolute secondary cone surface that minimizes the median value, and storing the minimum median value (S27);

상기 최소 중간값으로부터 소정의 오차 임계값을 설정하고, 상기 단계(S24)에서 구한 오차값이 상기 임계값보다 큰 프로젝티브 카메라 행렬을 제거하는 단계(S28); 및Setting a predetermined error threshold value from the minimum intermediate value, and removing a projection camera matrix having an error value obtained in the step (S24) greater than the threshold value (S28); And

나머지 프로젝티브 카메라 행렬을 이용하여 절대 2차 원추 곡면을 추정하는 단계(S29)를 포함한다.Estimating an absolute secondary cone surface using the remaining projected camera matrix (S29).

상기 방법에 의하여 추정된 프로젝티브 절대 2차 원추 곡면을 이용함으로써 전술한 바와 같이 공간 사영변환 행렬 H를 구할 수 있으며(S30), 이를 통하여 카메라의 투영행렬을 구할 수 있다(S40).By using the projected absolute quadratic cone surface estimated by the method, the spatial projection transformation matrix H can be obtained as described above (S30), and through this, the projection matrix of the camera can be obtained (S40).

상기 구한 투영행렬을 이용하여, 상기 움직이는 카메라의 궤적을 추적할 수 있고, 대상 영상의 3차원 유클리드 구조를 복원할 수 있다.Using the obtained projection matrix, the trajectory of the moving camera can be tracked and the 3D Euclidean structure of the target image can be restored.

상기한 바와 같이 카메라의 궤적을 추적하기 위해서, 키프레임의 선택 및 LMedS 기반의 2차 절대 원추 곡면 추정 과정에서 제외된 프레임의 카메라 행렬을 통상의 방법으로 복원할 수 있다. 최소 6개의 일치 정보로부터 카메라 행렬의 추정이 가능하며, 이러한 과정을 카메라 절제(Resection)라 칭한다.As described above, in order to track the trajectory of the camera, the camera matrix of the frame excluded from the selection of the key frame and the LMedS based second absolute cone surface estimation process may be restored in a conventional manner. It is possible to estimate the camera matrix from at least six pieces of matching information, and this process is called camera resection.

이하에서는, 본 발명에 따른 카메라 복원 방법에 대한 실험예를 설명한다.Hereinafter, an experimental example of the camera restoration method according to the present invention.

1. 키프레임 선택 과정1. Keyframe Selection Process

본 발명에서는 3가지 비디오 시퀀스에 대하여 실험하였으며, 기존의 방법 및 본 발명에 따른 방법에 의하여 선택되어진 키프레임 수와 처리 시간을 하기 표 1과 도 4에 각각 나타내었다:In the present invention, three video sequences were tested, and the number of keyframes and processing time selected by the conventional method and the method according to the present invention are shown in Table 1 and Fig. 4, respectively:

표 1. 각각의 방법에 의해 추출된 키프레임 수와 처리시간Table 1. Number of keyframes extracted and processed by each method

실험영상Experimental video 키프레임 수Keyframes 처리 시간(sec.)Processing time (sec.) 대상영상Target image 프레임수Frames 영상크기Image size 니스터방법Niceter method 깁슨방법Gibson Method 본 발명에따른 방법Method according to the invention 니스터방법Niceter method 깁슨방법Gibson Method 본 발명에따른 방법Method according to the invention 박 스box 621621 720×80720 × 80 2323 1414 1515 412412 416416 179179 책 상desk 407407 720×80720 × 80 1717 1313 1313 201201 200200 7676 분수대Fountain 134134 320×40320 × 40 2828 1212 1212 16.6316.63 38.5938.59 1010 시골집cottage 100100 720×76720 × 76 2727 2727 2424 7474 102102 4242

실험 환경은 CPU-펜티엄4 2.3GHz RAM 1Gbytes이다.The experimental environment is 1Gbytes of CPU-Pentium 4 2.3GHz RAM.

니스터(Nister) 등의 방법[David Nister, "Frame Decimation for Structure and Motion", In proc. SMILE 2000, Dublin, Ireland, July 2000.]은 첨예성을 매 영상마다 계산하기 때문에 영상 크기에 따라 많은 계산 시간이 소요되며, 선택되어진 키프레임 수도 다른 방법에 비하여 상대적으로 많다. 전술한 깁슨(S. Gibson)의 방법은 상기 니스터의 방법에 비하여 더 적은 키프레임을 선택하지만, 많은 연산시간이 필요하다. 상기 깁슨 방법은 에피폴라 기하 정보를 고려하기 위하여 기본 행렬의 추정 과정이 필요하다. 기본 행렬은 잡음에 매우 민감하기 때문에 정확하게 추정하기 위해서는 반복적인 방법이 필수적이다. 따라서, 상기 깁슨의 방법이 상기 니스터 방법에 비하여 키프레임을 적게 선택하는데 비하여 처리시간에는 큰 차이가 나지 않는다.Nister et al. [David Nister, "Frame Decimation for Structure and Motion", In proc. SMILE 2000 , Dublin, Ireland, July 2000.] calculates the sharpness of each image, so it takes a lot of calculation time depending on the image size and the number of selected keyframes is relatively higher than other methods. The above-mentioned S. Gibson's method selects fewer keyframes than the varistor's method, but requires much computation time. The Gibson method requires a process of estimating a base matrix in order to consider epipolar geometry. Since the base matrix is very sensitive to noise, an iterative method is necessary to make an accurate estimate. Therefore, the Gibson's method selects less keyframes than the varistor method, and there is no significant difference in processing time.

본 발명에 따른 방법은 기본 행렬을 직접 추정하여 이용하는 대신에 일치점 분포를 통하여 정확한 기본행렬이 추정될 수 있는지를 분석한다. 이는 처리 시간을 매우 단축시킬 수 있으며, 최종적으로 선택된 키프레임의 수는 깁슨 방법과 유사하다. 분수대 영상을 대상으로 각 프레임에서 제안된 방법과 종래 방법에 의하여 해석된 카메라 정보의 연결성 및 키프레임의 위치를 도 3에 도시하였다.Instead of directly estimating and using the base matrix, the method according to the present invention analyzes whether the correct base matrix can be estimated through the coincidence distribution. This can greatly reduce processing time, and the number of keyframes finally selected is similar to the Gibson method. FIG. 3 shows the connectivity of the camera information and the position of the key frame analyzed by the proposed method and the conventional method for the fountain image.

2. 가상 영상에 대한 적용2. Application to virtual images

본 발명에 따른 방법의 성능을 평가하기 위하여 가상 영상에 대하여 실험하였다. 3차원 가상 물체는 도 5와 같이 구성하였으며, 카메라 궤적은 물체를 중심으로 회전하면서 y축으로 상승하도록 하였다. 내부 파라미터를 임의로 고정하였으며, 영상에는 -0.5 내지 0.5의 잡음을 무작위로 추가하였다. 도 5은 상기 가상 물체에 대한 구조 데이터와 카메라 궤적을 나타낸 것이다.In order to evaluate the performance of the method according to the present invention, the experiment was performed on the virtual image. The 3D virtual object was configured as shown in FIG. 5, and the camera trajectory was raised on the y axis while rotating about the object. Internal parameters were fixed arbitrarily and noise was added randomly from -0.5 to 0.5. 5 shows structure data and a camera trajectory for the virtual object.

가상 카메라에 대한 순차적인 프로젝티브 복원 방법과 계층적인 프로젝티브 복원 방법을 수행하였다. 선형방법, 무리조정방법 및 본 발명에 따른 방법으로 절대 2차 곡면을 추정하였다.We performed the sequential projective restoration method and the hierarchical projective restoration method for the virtual camera. Absolute quadratic surfaces were estimated by the linear method, the bunch adjustment method and the method according to the present invention.

도 6은 각각의 방법에 의하여 복원된 카메라 궤적을 나타낸 것이다. 두 가지 프로젝티브 복원 방법은 모두 선형 방법에 비하여 무리 조정 방법이 정확함을 알 수 있다. 특히, 본 발명에 따른 방법은 계산 과정이 복잡한 무리 조정 방법을 고려하지 않아도 실제 카메라 궤적과 유사한 결과를 얻을 수 있음을 알 수 있다.6 shows the camera trajectories restored by the respective methods. It can be seen that both projective restoration methods are more accurate than the linear method. In particular, it can be seen that the method according to the present invention can obtain a result similar to the actual camera trajectory without considering the complicated crowd adjustment method.

도 7은 절대 2차 곡면을 이용하여 얻은 각 카메라 파라미터의 누적 오차를 도시한 것이다.7 shows the cumulative error of each camera parameter obtained using an absolute quadratic curve.

3. 실사 영상에 대한 성능 실험3. Performance test on live image

실사 영상에 대하여 본 발명에 따른 방법의 성능을 평가하기 위하여 책상 위에 있는 박스를 촬영하였다. 총 영상의 수는 621장이고, 영상의 크기는 720×460이다.On a live-action image, a box on a desk was taken to evaluate the performance of the method according to the invention. The total number of images is 621, and the size of the images is 720 × 460.

도 8의 (a)는 대상 비디오 프레임 중 3장을 예시한 것이다.FIG. 8A illustrates three of the target video frames.

본 발명에서 사용되는 판별식에 의하여 선택된 영상을 카메라 움직임 그래프 (b)에 도시하였다.The image selected by the discriminant used in the present invention is shown in the camera motion graph (b).

상기 움직임 그래프는 각 영상에서 인접 영상 간의 평면 사영 변환 오차를 나타낸다. 전체 시퀀스 상에서 15장의 키프레임이 선택되었고, 시간은 2분 59초가 소요되었다(상기 표 1 참조). 점선으로 도시된 부분이 키프레임으로 선택된 영상을 나타낸다. 상기 그래프로부터 움직임의 양이 상대적으로 큰 프레임이 선택됨을 알 수 있다.The motion graph indicates a plane projection transformation error between adjacent images in each image. Fifteen keyframes were selected over the entire sequence, taking 2 minutes and 59 seconds (see Table 1 above). The portion shown by the dotted line represents the image selected as the key frame. It can be seen from the graph that a frame with a relatively large amount of motion is selected.

(c)는 순차적 및 계층적인 프로젝티브 복원 방법에 대하여 선형방법, 무리조정방법 및 제안된 방법을 적용하여 얻은 결과이다. 그래프는 원리점과의 거리 오차를 누적하여 나타낸 것으로서, 영상의 중심을 정확한 기준 원리점으로 설정하였다. 순차적인 프로젝티브 복원 방법 및 계층적인 프로젝티브 복원 방법 모두에서, 가상 영상의 결과와 마찬가지로, 무리 조정을 적용한 결과보다 본 발명에 따른 방법이 우수함을 알 수 있다.(c) shows the result obtained by applying linear method, group adjustment method and proposed method to sequential and hierarchical projective restoration method. The graph shows the cumulative distance error from the principal point, and the center of the image is set as the exact reference principle point. In both the sequential projective restoration method and the hierarchical projective restoration method, it can be seen that the method according to the present invention is superior to the result of applying the group adjustment, as in the result of the virtual image.

도 9는 본 발명에 따른 알고리즘을 여러 비디오 시퀀스 상에 적용하여 얻어진 3차원 구조와 카메라 궤적을 이용하여 가상의 물체를 실사 영상에 합성한 결과를 도시한 것이다.FIG. 9 illustrates a result of synthesizing a virtual object into a real image using a three-dimensional structure and a camera trajectory obtained by applying an algorithm according to the present invention to various video sequences.

전술한 바와 같이, 본 발명에 따른 투영행렬 결정 방법은, 무리 조정 등의 최적화 과정 없이도, 정확한 투영행렬을 결정할 수 있다. 따라서, 카메라 궤적 추적, 3차원 구조 복원 및 3차원 영상 합성에 유용하게 사용될 수 있다.As described above, the projection matrix determination method according to the present invention can determine an accurate projection matrix without an optimization process such as bunch adjustment. Therefore, it can be usefully used for camera trajectory tracking, 3D structure reconstruction and 3D image synthesis.

도 1은 프로젝티브 구조와 유클리드 구조의 관계를 도시한 것이고,1 illustrates the relationship between the projective structure and the Euclidean structure,

도 2는 본 발명에 따른 투영행렬 결정방법의 순서도이며,2 is a flowchart of a projection matrix determining method according to the present invention;

도 3은 본 발명에서 프로젝티브 절대 2차 원추 곡면을 추정하는 단계의 순서도이고,3 is a flowchart of the step of estimating the projected absolute secondary cone surface in the present invention,

도 4는 종래 방법 및 본 발명의 방법에 의하여 해석된 카메라 정보의 연결성 및 키프레임의 위치를 비교하여 도시한 것이며,4 shows a comparison of the connectivity of the camera information and the position of the key frame analyzed by the conventional method and the method of the present invention.

도 5는 본 발명에 따른 방법을 적용시킨 가상 영상의 구조 및 카메라 궤적을 나타낸 것이고,5 illustrates a structure and a camera trajectory of a virtual image to which the method according to the present invention is applied.

도 6은 각각 선형방법, 무리조정방법 및 본 발명에 따른 방법으로 절대 2차 곡면을 추정하여 얻은 카메라 궤적이며,Figure 6 is a camera trajectory obtained by estimating the absolute second-order surface by the linear method, the group adjustment method and the method according to the invention, respectively,

도 7은 절대 2차 곡면을 이용하여 얻은 각 카메라 파라미터의 누적 오차를 도시한 것이고,FIG. 7 illustrates the cumulative error of each camera parameter obtained using an absolute quadratic curve.

도 8은 본 발명에 따른 방법을 실사 영상에 적용한 결과를 도시한 것이며,8 shows the results of applying the method according to the present invention to the live-action image,

도 9는 본 발명에 따른 방법을 여러 비디오 영상에 적용하여 얻은 투영행렬을 이용하여 가상의 물체를 실사 영상에 합성한 결과를 도시한 것이다.9 illustrates a result of synthesizing a virtual object into a real image using a projection matrix obtained by applying the method according to the present invention to various video images.

Claims (11)

움직이는 카메라에 의하여 촬영된 비디오 영상으로부터 상기 카메라의 궤적을 추적하거나 상기 비디오 영상의 3차원 구조를 복원하는데 사용되는 투영행렬(Projection Matrix)을 결정하는 방법에 있어서,In the method for determining the projection matrix used to track the trajectory of the camera from the video image captured by the moving camera or to restore the three-dimensional structure of the video image, 상기 비디오 영상으로부터 키프레임을 선택하는 단계(a);Selecting a keyframe from the video image (a); 상기 키프레임으로부터 프로젝티브 공간에서의 프로젝티브 절대 2차 원추 곡면을 추정하는 단계(b);(B) estimating a projected absolute secondary cone surface in projected space from the keyframe; 상기 추정된 프로젝티브 절대 2차 원추 곡면으로부터 공간 사영변환 행렬 H를 구하는 단계(c); 및(C) obtaining a spatial projective transformation matrix H from the estimated projected absolute quadratic cone surface; And 상기 공간 사영변환 행렬 H로부터 투영행렬을 구하는 단계(d)를 포함하는 것을 특징으로 하는 투영행렬 결정 방법.And (d) obtaining a projection matrix from the spatial projective transformation matrix H. 제 1 항에 있어서,The method of claim 1, 상기 단계(a)의 키프레임 선택 단계에서 상기 키프레임은,In the keyframe selection step of step (a), the keyframe is, 특징점에 대한 일치점의 수의 비;Ratio of number of coincidence points to feature points; 영상에 대한 일치점의 분포; 및Distribution of match points for the image; And 두 영상 사이의 평면 사영 변환 행렬에 의한 사영 에러를 기준으로 선택되는 것을 특징으로 하는 방법.The method is selected based on the projection error by the planar projection transformation matrix between the two images. 제 2 항에 있어서,The method of claim 2, 상기 단계(a)의 키프레임 선택 단계에서 상기 키프레임은,In the keyframe selection step of step (a), the keyframe is, 특징점의 수 NF에 대한 일치점의 수 Nc의 비의 값 Nc/NF;The value of the ratio of the number of matching points N c to the number of feature points N F N c / N F ; 영상에 대한 일치점의 분포에 대한 표준편차 값 σp; 및Standard deviation of the distribution of coincidence points for the image σ p ; And 두 영상 사이의 평면 사영 변환 행렬에 의한 사영 에러의 값 Ha,err로부터From the values H a, err of the projection error by the planar projection transformation matrix between two images 하기 수학식 1의 판별식 값을 계산하고, 그 판별식 값이 소정치 이하인 프레임을 키프레임으로 선택하는 것을 특징으로 하는 방법:A method for calculating a discriminant value of Equation 1 below and selecting a frame having a discriminant value equal to or less than a predetermined value as a key frame: [수학식 1][Equation 1] 상기식에서,In the above formula, Sij는 판별식 값이고,S ij is the discriminant value, ω1, ω2 및 ω3은 가중치이다.ω 1 , ω 2 and ω 3 are weights. 제 3 항에 있어서, 상기 평면 사영변환 행렬에 의한 사영 에러 Ha,err은 하기 수학식 2에 의하여 정의되는 것을 특징으로 하는 방법:The method of claim 3, wherein the projection error H a, err due to the planar projection transformation matrix is defined by Equation 2. [수학식 2][Equation 2] 상기식에서, xi 및 x'i는 두 영상 사이의 일치점이고,Wherein x i and x ' i are the coincidence points between the two images, Ha는 평면 사영변환 행렬이며,H a is a planar projection matrix, d(x, y)함수는 점 x 및 y 사이의 거리이고,d (x, y) is the distance between points x and y, Nc는 일치점의 개수이다.N c is the number of matches. 제 3 항에 있어서, 상기 일치점의 분포에 대한 표준편차인 σP는 하기 수학식 3에 의하여 정의되는 것을 특징으로 하는 방법:The method of claim 3, wherein σ P, which is a standard deviation of the distribution of coincidence points, is defined by Equation 3 below: [수학식 3][Equation 3] 상기식에서, NS는 나누어진 부영역의 개수이고,Where N S is the number of subregions divided, Nci는 i번째 부영역 내에 존재하는 일치점의 개수이며,N ci is the number of matching points in the i-th subregion, Nc는 일치점의 갯수이고,N c is the number of matches, 상기 부영역의 가로의 크기 Ws 및 세로의 크기 Hs는 각각The horizontal size W s and the vertical size H s of the subregion are respectively And 이고, ego, 여기에서, 함수 int(.)는 정수형 변환을 의미한다.Here, the function int (.) Means integer conversion. 제 1 항에 있어서, 상기 단계(b)에서,The method of claim 1, wherein in step (b), 상기 단계(a)에서 선택된 키프레임 중에서 소정 임계치 이상의 오차를 나타내는 영상을 제거하여 프로젝티브 절대 2차 원추 곡면을 추정하는 것을 특징으로 하는 방법.And estimating a projected absolute secondary cone surface by removing an image representing an error equal to or greater than a predetermined threshold value among the key frames selected in the step (a). 제 6 항에 있어서,The method of claim 6, 상기 단계(b)는 LMedS(Least Median of Square, 최소 중간값 자승법) 방법에 의하여 상기 소정 임계치 이상의 오차를 나타내는 영상을 제거하는 것을 특징으로 하는 방법.The step (b) is characterized in that to remove the image showing the error above the predetermined threshold by the least median of square (LMedS) method. 제 6 항에 있어서, 상기 단계(b)는,The method of claim 6, wherein step (b) 프로젝티브 공간 상에서 첫 번재 카메라의 프로젝티브 카메라 행렬을 기준 프로젝티브 카메라 행렬로 설정하는 단계(e);(E) setting the projection camera matrix of the first camera as the reference projection camera matrix in the projection space; 상기 첫 번째 카메라를 제외한 나머지 카메라의 프로젝티브 카메라 행렬에서 임의의 프로젝티브 카메라 행렬 2개를 선택하는 단계(f);(F) selecting two arbitrary projection camera matrices from the projection camera matrices of the remaining cameras except the first camera; 상기 선택된 2개의 프로젝티브 카메라 행렬로부터 프로젝티브 절대 2차 원추 곡면을 추정하는 단계(g);(G) estimating a projected absolute quadratic cone surface from the two selected projection camera matrices; 상기 추정된 프로젝티브 절대 2차 원추 곡면에 의하여 각각의 카메라의 프로젝티브 카메라 행렬에 투영한 것과 상기 첫 번째 프로젝티브 카메라 행렬에 투영한 것의 오차를 계산하는 단계(h);(H) calculating an error between the projection of the projection camera matrix of each camera and the projection of the first projection camera matrix by the estimated projected absolute quadratic cone surface; 상기 계산된 오차를 순서대로 나열할 때의 중간값과 상기 추정된 프로젝티브 절대 2차 원추 곡면을 저장하는 단계(i);(I) storing an intermediate value when arranging the calculated errors in order and the estimated projected absolute secondary cone surface; 상기 단계(f) 내지 단계(i)를 소정 횟수 반복하여 상기 중간값을 최소로 하는 프로젝티브 절대 2차 원추 곡면을 구하고, 상기 최소 중간값을 저장하는 단계(j);Repeating steps (f) to (i) a predetermined number of times to obtain a projected absolute secondary cone surface that minimizes the median value, and storing the minimum median value; 상기 최소 중간값으로부터 소정의 오차 임계값을 설정하고, 상기 단계(h)에서 구한 오차값이 상기 임계값보다 큰 프로젝티브 카메라 행렬을 제거하는 단계(k); 및Setting a predetermined error threshold value from the minimum intermediate value, and removing (k) the projection camera matrix whose error value obtained in step (h) is greater than the threshold value; And 나머지 프로젝티브 카메라 행렬을 이용하여 절대 2차 원추 곡면을 추정하는 단계(l)를 포함하는 것을 특징으로 하는 방법.Estimating an absolute quadratic cone surface using the remaining projected camera matrix. 제 8 항에 있어서,The method of claim 8, 상기 단계(k)에서의 오차 임계값 τ는 하기 수학식 4에 의하여 구하는 것을 특징으로 하는 방법:The error threshold value τ in the step (k) is obtained by the following equation (4): [수학식 4][Equation 4] 상기식에서,In the above formula, median은 최소 중간값이고,median is the minimum median p는 전체 카메라 투영행렬수 - 1이며,p is the total camera projection matrix-1 q는 2이다.q is 2. 제 8 항에 있어서, 상기 단계(h)에서 상기 i번째 카메라 행렬의 오차 ri는 하기 수학식 11에 의하여 구하는 것을 특징으로 하는 방법:The method of claim 8, wherein the error r i of the i-th camera matrix in the step (h) is obtained by the following equation (11): [수학식 11][Equation 11] ri = (λ0Pp 0QpPp 0T - λ iPp iQpPp iT)norm i = r (λ 0 P 0 Q p p p P 0T - λ i P i Q p p p P iT) norm 상기식에서, (.)norm은 벡터의 크기를 나타내고,Where (.) Norm represents the magnitude of the vector, Pp 0는 첫번째 카메라의 프로젝티브 카메라 행렬이고,P p 0 is the projection camera matrix of the first camera, Pp i는 i번째 카메라의 프로젝티브 카메라 행렬이며,P p i is the projection camera matrix of the i th camera, Qp는 프로젝티브 절대 2차 원추 곡면이고,Q p is the projected absolute quadratic cone surface, λ0 및 λi는 각각 1/(Pp 0QpPp 0T )33 및 1/(Pp iQpPp iT)33 이다.λ 0 and λ i are 1 / (P p 0 Q p P p 0T ) 33 and 1 / (P p i Q p P p iT ) 33, respectively. 투영행렬 결정시 제외된 프레임을 제 2 항 또는 제 8 항에서 결정된 투영행렬에 의하여 복원한 후,After restoring the frame excluded in determining the projection matrix by the projection matrix determined in claim 2 or 8, 상기 복원된 프레임을 포함하는 비디오 영상에 임의의 영상을 3차원 영상으로 합성하는 방법.And synthesizing an arbitrary image into a 3D image to a video image including the reconstructed frame.
KR10-2003-0042667A 2003-06-27 2003-06-27 Method for estimation of projection matrix from the video sequence KR100496186B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2003-0042667A KR100496186B1 (en) 2003-06-27 2003-06-27 Method for estimation of projection matrix from the video sequence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0042667A KR100496186B1 (en) 2003-06-27 2003-06-27 Method for estimation of projection matrix from the video sequence

Publications (2)

Publication Number Publication Date
KR20050001103A KR20050001103A (en) 2005-01-06
KR100496186B1 true KR100496186B1 (en) 2005-06-17

Family

ID=37216956

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-0042667A KR100496186B1 (en) 2003-06-27 2003-06-27 Method for estimation of projection matrix from the video sequence

Country Status (1)

Country Link
KR (1) KR100496186B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458896A (en) * 2019-08-07 2019-11-15 成都索贝数码科技股份有限公司 A kind of camera internal reference method for solving and system based on absolute quadric

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100918706B1 (en) * 2007-03-20 2009-09-22 인천대학교 산학협력단 Apparatus and Method of Estimating Camera Position
JP4807583B2 (en) * 2007-03-29 2011-11-02 本田技研工業株式会社 Projective transformation convergence calculation processing method
KR100936375B1 (en) * 2007-12-18 2010-01-12 경희대학교 산학협력단 Efficient projection for compressed sensing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458896A (en) * 2019-08-07 2019-11-15 成都索贝数码科技股份有限公司 A kind of camera internal reference method for solving and system based on absolute quadric

Also Published As

Publication number Publication date
KR20050001103A (en) 2005-01-06

Similar Documents

Publication Publication Date Title
Kawai et al. Diminished reality based on image inpainting considering background geometry
US10789765B2 (en) Three-dimensional reconstruction method
CN113012293B (en) Stone carving model construction method, device, equipment and storage medium
EP1977395B1 (en) Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
US6633294B1 (en) Method and apparatus for using captured high density motion for animation
CN101409791B (en) Video processing system and method
US20160196658A1 (en) 3d image generation
KR101370718B1 (en) Method and apparatus for 2d to 3d conversion using panorama image
KR20070095040A (en) Camera calibration method and 3d object reconstruction method using the same
da Silveira et al. Dense 3d scene reconstruction from multiple spherical images for 3-dof+ vr applications
CN109819158B (en) Video image stabilization method based on light field imaging
CN114494589A (en) Three-dimensional reconstruction method, three-dimensional reconstruction device, electronic equipment and computer-readable storage medium
US20240312033A1 (en) Method to register facial markers
KR100574227B1 (en) Apparatus and method for separating object motion from camera motion
Wientapper et al. Reconstruction and accurate alignment of feature maps for augmented reality
Lu et al. Simultaneous direct depth estimation and synthesis stereo for single image plant root reconstruction
Wu et al. Depth extraction from unidirectional integral image using a modified multibaseline technique
KR100496186B1 (en) Method for estimation of projection matrix from the video sequence
CN111316323A (en) Abnormal value processing method and device for three-dimensional trajectory data
Mahmoud et al. Fast 3d structure from motion with missing points from registration of partial reconstructions
CN110211090A (en) A method of for assessment design composograph quality
Sylwan The application of vision algorithms to visual effects production
Kühefuß et al. Feature based RGB-D SLAM for a plenoptic camera
Naweed et al. Enhancement of 3D capture of room-sized dynamic scenes with Pan-Tilt-Zoom cameras
Jarusirisawad et al. 3DTV view generation using uncalibrated pure rotating and zooming cameras

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130429

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140326

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee