KR100922273B1 - Mechanism for reconstructing a 3D model using key-frames selected from image sequences - Google Patents

Mechanism for reconstructing a 3D model using key-frames selected from image sequences Download PDF

Info

Publication number
KR100922273B1
KR100922273B1 KR1020080001238A KR20080001238A KR100922273B1 KR 100922273 B1 KR100922273 B1 KR 100922273B1 KR 1020080001238 A KR1020080001238 A KR 1020080001238A KR 20080001238 A KR20080001238 A KR 20080001238A KR 100922273 B1 KR100922273 B1 KR 100922273B1
Authority
KR
South Korea
Prior art keywords
image
important
images
matrix
model
Prior art date
Application number
KR1020080001238A
Other languages
Korean (ko)
Other versions
KR20090075399A (en
Inventor
서융호
김상훈
최종수
오세연
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020080001238A priority Critical patent/KR100922273B1/en
Publication of KR20090075399A publication Critical patent/KR20090075399A/en
Application granted granted Critical
Publication of KR100922273B1 publication Critical patent/KR100922273B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/45Analysis of texture based on statistical description of texture using co-occurrence matrix computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Algebra (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Image Processing (AREA)

Abstract

카메라 재투영 오차를 이용하여 영상 시퀀스에서 중요영상을 선택하고, 또한 선택된 중요영상만을 이용하여 3차원 모델을 재구성하기 위한 방법을 제공한다. 본 발명의 일 실시예에 의하면, 우선 일정한 개수의 영상 시퀀스에서 재투영 오차가 최소가 되는 영상을 중요영상으로 선택함으로써, 재구성된 3차원 모델의 오차를 최소화한다. 그리고 카메라 전자동 교정 과정을 통하여 선택된 중요영상들 각각의 투영행렬을 추정한다. 그리고 추정된 투영행렬로부터 대수학적 유도를 이용하여 기본행렬을 구하고, 기본행렬을 이용한 에피폴라 제약조건을 적용하여 잘못된 대응점들을 제거한 다음, 남은 대응점들만을 가지고 정확한 3차원 모델을 재구성한다. 이러한 본 발명의 실시예에 의하면, 기존의 다른 알고리즘에 비하여 짧은 시간으로 중요영상을 선택하는 알고리즘을 수행할 수가 있으며, 또한 재구성된 3차원 데이터의 오차가 가장 작다. 그리고 중요영상의 투영행렬로부터 대수학적으로 유도된 기본행렬은 다른 알고리즘에 비하여 매우 짧은 시간이 소요되지만, 평균 오차는 기존의 방법과 비슷하다.The present invention provides a method for selecting an important image from an image sequence using a camera reprojection error and reconstructing a 3D model using only the selected important image. According to an embodiment of the present invention, first, by selecting an image having a minimum reprojection error in a predetermined number of image sequences as an important image, the error of the reconstructed three-dimensional model is minimized. The projection matrix of each of the selected important images is estimated through the automatic camera calibration process. We then obtain the base matrix from the estimated projection matrix by using algebraic derivation, remove the incorrect correspondence points by applying the epipolar constraint using the base matrix, and then reconstruct the accurate 3D model using only the remaining correspondence points. According to the exemplary embodiment of the present invention, an algorithm for selecting an important image in a short time compared to other existing algorithms can be performed, and the error of the reconstructed 3D data is the smallest. The basic matrix derived from the projection matrix of the important image takes much shorter time than other algorithms, but the mean error is similar to the conventional method.

Description

영상 시퀀스로부터 선택된 중요 영상을 이용한 3차원 모델의 재구성 방법{Mechanism for reconstructing a 3D model using key-frames selected from image sequences} Mechanism for reconstructing a 3D model using key-frames selected from image sequences}

본 발명은 전 방향 3차원 모델의 재구성에 관한 것으로, 보다 구체적으로 영상 시퀀스로부터 최적의 중요 영상을 선택하고 또한 선택된 중요 영상을 이용하여 효율적으로 3차원 모델을 재구성하기 위한 절차에 관한 것이다.The present invention relates to reconstruction of an omnidirectional three-dimensional model, and more particularly, to a procedure for selecting an optimal important image from an image sequence and efficiently reconstructing the three-dimensional model using the selected important image.

최근에 그래픽 렌더링, 디지털 도서관, 그리고 가상 환경 등과 같이 사실적인 3차원 모델을 이용한 어플리케이션이 주목을 받고 있다. 그 결과, 한 대 또는 여러 대의 카메라로부터 취득된 영상 시퀀스를 이용하여 기하학적인 3차원 모델을 재구성하는 메커니즘에 관한 관심도 지속적으로 증가하고 있는 추세이다. 특히, 최근 데스크톱 컴퓨터 또는 웹브라우저 상에서 3차원 그래픽 기술이 괄목하게 증가함에 따라서, 값비싼 CAD(Computer Aided Design) 등과 같은 장치를 사용하지 않고서도 현실감 있는 3차원 모델을 생성하기 위한 연구가 많이 진행되어 오고 있다.Recently, applications using realistic 3D models such as graphic rendering, digital libraries, and virtual environments have attracted attention. As a result, interest in a mechanism for reconstructing a geometric three-dimensional model using image sequences acquired from one or several cameras is also increasing. In particular, as 3D graphics technology has increased significantly on a desktop computer or a web browser, many studies have been conducted to generate realistic 3D models without using expensive CAD (Aided Design) devices. Coming.

3차원 모델을 생성하기 위한 기술 중의 하나로써, 취득한 사진을 이용하여 3차원 모델을 재구성하는 합성 영상 기술도 꾸준하게 발전되어 왔다. 현재까지 개발된 3차원 모델링 기술(프로그램)은 Maya, Softimage, 3D Studio MAX 등이 있다. 이들 3차원 모델링 기술은 값비싼 프로그램의 도움 없이도 일정한 수준의 3차원 모델을 재구성하는 것이 가능하도록 하였지만, 3차원 모델의 복잡성이 증가할 경우에는 재구성된 3차원 모델의 현실감이나 품질이 다소 떨어지는 단점이 있다.As one of techniques for generating a three-dimensional model, a synthetic image technique for reconstructing a three-dimensional model using acquired photographs has also been steadily developed. Three-dimensional modeling techniques (programs) developed to date include Maya, Softimage, and 3D Studio MAX. These three-dimensional modeling techniques make it possible to reconstruct a certain level of a three-dimensional model without the aid of expensive programs, but when the complexity of the three-dimensional model increases, the reality or quality of the reconstructed three-dimensional model is somewhat deteriorated. have.

3차원 모델을 재구성하는 기술에 있어서 최근의 경향은 실체 물체에 대한 하나 이상의 사진들(영상 시퀀스)로부터 상기 물체에 대한 정확한 정보를 획득하여 3차원 모델을 재구성하는 것이다. 이러한 새로운 기술은 영상 기반 모델링(Image Base Modeling, IBM)이라고 불리는데, 일반적으로 실제 사진 영상을 이용한 모델링 기법이다. 이러한 기술의 가장 큰 장점은 실제 세계로부터 취득한 물체에 대한 텍스쳐 정보를 이용하여 보다 실제에 가까운 3차원 모델을 만들어 낼 수 있다는 것이다. 이러한 물체 또는 장면에 대한 3차원 모델의 재구성 기술은 문화재의 복원, 인터넷 쇼핑몰, 영화의 특수효과 등 증강현실 시스템이나 가상현실 시스템에서 활용이 가능하다.A recent trend in the technique of reconstructing a three-dimensional model is to reconstruct the three-dimensional model by obtaining accurate information about the object from one or more pictures (image sequences) of the real object. This new technology, called Image Base Modeling (IBM), is a modeling technique that typically uses real photographic images. The biggest advantage of this technique is that we can use the texture information about the object from the real world to create a more realistic three-dimensional model. The 3D model reconstruction technology for such objects or scenes can be used in augmented reality systems or virtual reality systems, such as restoration of cultural assets, internet shopping malls, and special effects of movies.

하나 또는 그 이상의 카메라로부터 획득한 영상(사진)을 이용하여 3차원 모델을 재구성해내기 위한 필수적인 과정 중의 하나는 카메라 교정(camera calibration)이다. 카메라 교정 과정 중에서 하나는 자동 교정(self-calibration) 방법으로서, 카메라에서 획득한 실제 모델에 대한 자체 영상을 이용하는 것으로서 획득한 장면에 대한 선지식이나 실제 모델에 대한 제약 조건이 없다. 이 방법은 카 메라 이외의 다른 장비를 사용하지 않으며 취득한 영상만을 이용하는 시각 기반(vision-based) 방법으로, 카메라 교정 후에는 영상 시퀀스(예컨대, 단일 축 회전 영상들)만을 이용하여 각 영상의 투영행렬(Projection Matrix)과 대응점을 추정하여 3차원 모델을 재구성한다. 반면, 카메라 교정 장비, 3차원 위치 센서 및 패턴 정보 등을 이용하는 방법도 있는데, 이 방법은 카메라 교정을 위한 고가의 장비를 필요로 하며, 제한된 취득 환경이 필요한 단점이 있다. One of the essential steps for reconstructing a three-dimensional model using images (photographs) from one or more cameras is camera calibration. One of the camera calibration procedures is a self-calibration method, which uses a self-image of a real model acquired by a camera, without any prior knowledge about the acquired scene or constraints on the real model. This method is a vision-based method that uses only the acquired images without using any equipment other than the camera. After camera calibration, the projection matrix of each image using only the image sequence (for example, single-axis rotation images). Reconstruct the 3D model by estimating the (Projection Matrix) and the corresponding point. On the other hand, there is also a method using a camera calibration equipment, three-dimensional position sensor and pattern information, etc. This method requires expensive equipment for camera calibration, there is a disadvantage that requires a limited acquisition environment.

영상 기반 모델링에 있어서 획득한 영상 시퀀스 전부를 이용하여 카메라 교정 및 3차원 모델 재구성을 수행하는 것은 효율적이지 못하다. 왜냐하면, 영상 시퀀스 전부를 이용하는 경우에는 일단 계산량이 많아서 처리 시간이 오래 소요될 뿐만 아니라 각 영상에 포함되어 있는 잡음 등으로 인하여 오히려 정확한 3차원 모델의 재구성에 방해가 될 수 있기 때문이다. 따라서 이러한 문제를 해결하기 위한 한 가지 방법으로 영상 시퀀스 중에서 중요영상(Key-Frame)을 선택한 다음, 선택된 중요영상만을 이용하여 3차원 모델을 재구성하는 방법이 제안되었다. 이에 의하면, 중요 영상의 선택 과정은 다수의 비교정된 영상 시퀀스로부터 3차원 모델을 재구성하거나 또는 증강 현실을 구현하는데 있어서 필수적인 과정이다.In image-based modeling, it is not efficient to perform camera calibration and three-dimensional model reconstruction using all acquired image sequences. This is because, in the case of using all of the image sequences, the processing time is long because the calculation amount is large, and the noise included in each image may interfere with the accurate reconstruction of the three-dimensional model. Therefore, as one method for solving this problem, a method of selecting a key image (Key-Frame) among image sequences and reconstructing a 3D model using only the selected important image has been proposed. According to this, the process of selecting an important image is an essential process for reconstructing a 3D model from a plurality of comparative image sequences or for implementing augmented reality.

중요영상의 선택을 위해, 다음과 같은 알고리즘이 제안되었다. 예를 들어, S. Gibson 등은 "Accurate Camera Calibration for Off-line, Video-Based Augmented Reality"(IEEE ACM ISMAR, pp. 37-46, 2002)에서 기본행렬(Fundamental Matrix)과 투영평면 호모그래피(2D Projective Transform Matrix)를 계산하여 오차값에 따라 중용을 선택하는 알고리즘을 제안하였다. 그러나 Gibson 등이 제안한 방 법은 정확한 대응점을 추출하기 위하여 많은 계산량이 필요한 단점이 있다. 또한, 기본행렬은 잡음에 민감하므로, 이 방법에 의하여 정확한 값을 추정하기 위하여 계산을 반복적으로 수행하여 처리 시간이 오래 걸린다. 그리고 M. Pollefeys 등은 "3D Models from Extended Uncalibrated Video Sequences: Addressing Key-frame Selection and Projective Drift"(3DDIM, June 2005)에서 카메라 자동 교정을 위하여 중요영상에 다른 제2 중용영상을 추가하여 선택하는 알고리즘을 제안하였는데, 이에 의하면 자동 교정을 위하여 3개의 중요영상에 대한 기하학 정보를 이용한다. 하지만, 이 방법에 의하면 선택된 중요영상의 수가 3개로 증가할 뿐만 아니라 그에 따라서 계산량도 많아지는 단점이 있다. 또한, D. Neister는 "Frame Decimation for Structure and Motion"(In Proc, SMILE, Dublin, Ireland, July 2000)에서 영상의 첨예도를 이용하여 효율적인 영상을 선택하는 알고리즘을 제안하였다. 그러나 이 알고리즘에 의하며, 첨예도의 본질적인 특성상 영상의 화질이 좋을 경우에 불필요하게 많은 영상이 중요영상으로 선택되는 단점이 있고, 그 결과 불필요한 연산을 초래할 수가 있다.For the selection of important images, the following algorithm has been proposed. For example, S. Gibson et al. Describe the fundamental matrix and projection plane homography ("Accurate Camera Calibration for Off-line, Video-Based Augmented Reality" (IEEE ACM ISMAR, pp. 37-46, 2002). We proposed an algorithm that selects medium based on error value by calculating 2D Projective Transform Matrix. However, the method proposed by Gibson et al. Has a disadvantage in that a large amount of computation is required to extract the exact correspondence point. In addition, since the basic matrix is sensitive to noise, it takes a long time to perform the calculation repeatedly to estimate the correct value by this method. In addition, M. Pollefeys et al. [3D Models from Extended Uncalibrated Video Sequences: Addressing Key-frame Selection and Projective Drift] (3DDIM, June 2005) adds and selects another second medium image to important images for camera automatic correction. According to this, geometrical information of three important images is used for automatic correction. However, this method not only increases the number of selected important images to three, but also increases the amount of calculation accordingly. In addition, D. Neister proposed an algorithm to select an efficient image using the sharpness of the image in "Frame Decimation for Structure and Motion" (In Proc, SMILE, Dublin, Ireland, July 2000). However, due to the intrinsic nature of sharpness, this algorithm has the disadvantage that many images are unnecessarily selected as important images when the image quality is good, resulting in unnecessary computation.

한편, 3차원 모델의 재구성 알고리즘에 있어서, 기본행렬 추정은 에피폴라 기하학 정보를 계산하는 유일한 방법이다. 기본행렬은 연속된 영상들 간의 대수적 관계를 나타낸다. 기본행렬을 구하기 위해서는 최소한 두 장 영상에서 서로 대응하는 점들을 알아야 할 필요가 있다. 이러한 영상들 간의 대응점을 이용하여 기본행렬을 구하기 위한 방법들이 종래부터 많이 연구되어 왔다. 기본행렬을 구하는 방법은 크게 두 가지로 분류할 수 있는데, 첫 번째 방법은 선형적인 방법들(7-points, 8-points, linear rank-2 constraint 등)이다. 이러한 방법들은 대응점 문제들이 선형적으로 해결될 수 있는 경우에는 우수한 성능을 얻을 수가 있다. 그러나 대응점 문제들은 선형적으로 해결되지 않는 것이 일반적이기 때문에, 전술한 첫 번째 방법은 일반적인 활용 분야에는 적합하지 않다. On the other hand, in the reconstruction algorithm of the three-dimensional model, the basic matrix estimation is the only method of calculating the epipolar geometry information. The basic matrix represents the algebraic relationship between successive images. To find the basic matrix, we need to know the points that correspond to each other in at least two images. Many methods for obtaining a basic matrix using corresponding points between the images have been studied in the past. There are two main ways to get the basic matrix. The first method is linear methods (7-points, 8-points, linear rank-2 constraints, etc.). These methods can achieve good performance if the corresponding point problems can be solved linearly. However, since the corresponding point problems are generally not solved linearly, the first method described above is not suitable for general applications.

두 번째 방법은 M-평가법(M-Estimators), LMedS(least median of square), RANSAC(random sample consensus) 등과 같은 비선형 방법들로써, 첫 번째 방법에 비하여 강건한 방법들이라고 할 수 있다. 이 중에서 M-평가법은 일치점의 오차에 가중치 함수를 적용함으로써, 큰 잡음에 의한 아웃라이어(outlier)의 영향을 줄일 수가 있다. 그리고 토르(Torr) 와 뮤레이(Murray)에 의해서 제안된 RANSAC 방법은 단순하면서 성공적인 강건한 추정 방법이다. RANSAC 방법에 의하면, 기본행렬을 추정하기 위해 최소 일치점 집합을 전체 일치점에서 임의로 추출하여 초기값을 구하고 나머지 일치점들에 대해서 오차를 계산하여, 계산된 오차가 임계값보다 높으면 해당 대응점은 아웃라이어로 결정하지만, 임계값보다 낮은 경우에는 해당 대응점을 인라이어(inlier)로 결정한다. 위의 과정을 반복해서 인라이어 집합을 구한 다음, 이를 이용해서 일치점의 수가 가장 많은 경우를 선택하여 그 집합으로 기본행렬을 다시 계산한다. 그리고 LMedS, MLESAC, MAPSAC 등의 방법은 RANSAC 방법을 기초로 하여 잡음에 강건하고 아웃라이어들을 효과적으로 제거하는 방법들이다. 그러나 이러한 방법들의 가장 중요한 제약 조건은 임의로 선택되는 일치점들 때문에 수행 할 때마다 다른 인라이어 집합들이 선택되며 따라서 얻어지는 결과도 선택되는 인라이어의 집합에 의해서 영향을 많이 받게 된다는 사실이다.The second method is nonlinear methods such as M-Estimators (M-Estimators), least median of square (LMedS), random sample consensus (RANSAC), etc., and is more robust than the first method. Among these, the M-evaluation method can reduce the influence of outliers due to large noise by applying a weight function to the error of the matching point. The RANSAC method proposed by Torrr and Murray is a simple and successful robust estimation method. According to the RANSAC method, in order to estimate the basic matrix, a minimum set of matching points is randomly extracted from all matching points to obtain an initial value, and the error is calculated for the remaining matching points. If the calculated error is higher than the threshold, the corresponding point is determined as an outlier. However, if it is lower than the threshold, the corresponding point is determined as an inlier. The above process is repeated to obtain the inlier set, and then the case is used to select the case with the largest number of coincidence points and recalculate the base matrix using the set. The LMedS, MLESAC, and MAPSAC methods are robust to noise and effectively eliminate outliers based on the RANSAC method. However, the most important constraint of these methods is that due to randomly chosen matches, different inlier sets are selected each time the result is performed, and thus the result obtained is also affected by the selected inlier set.

본 발명이 해결하려고 하는 과제는 3차원 모델의 재구성 시에 가능한 실제 물체와 재투영 영상 간에 발생하는 오차를 최소화할 수 있도록 중요영상을 선택할 수 있으며 또한 선택된 중요영상을 이용하여 효율적이고 정확하게 3차원 모델을 재구성할 수 있는 3차원 모델의 재구성 절차를 제공하는 것이다. The problem to be solved by the present invention is to select the important image to minimize the error between the real object and the re-projection image possible when reconstructing the three-dimensional model, and also to use the selected important image efficiently and accurately three-dimensional model It is to provide a reconstruction procedure of a three-dimensional model that can be reconstructed.

본 발명에서 새롭게 제안하는 3차원 모델의 재구성 방법은 크게 3개의 과정으로 나눠진다. The reconstruction method of the three-dimensional model newly proposed in the present invention is largely divided into three processes.

첫 번째 과정은 중요영상의 선택 과정이다. 본 발명의 실시예에 따른 중요영상의 선택 과정에서는 프로젝티브 복원(Projective Reconstruction)의 재투영 오차(Re-projection Errors)를 사용하여 영상 시퀀스 중에서 상기 재투영 오차가 작은 영상을 중요영상으로 선택한다. 즉, 연속적으로 입력되는 소정의 개수의 영상들 중에서 최소의 재투영 오차를 가지는 영상을 중요영상을 선택한다. 이와 같은 방법으로 중요영상을 선택하는 것은 계산량이 적어서 처리 속도가 빠를 뿐만 아니라, 3차원 모델의 재구성시에 재구성 오차를 최대한 줄여서 최적의 3차원 모델을 복원하는 것이 가능하다.The first process is the selection process of important images. In the process of selecting an important image according to an embodiment of the present invention, an image having a small reprojection error is selected as an important image from an image sequence by using re-projection errors of projective reconstruction. That is, an important image is selected from an image having a minimum reprojection error among a predetermined number of images continuously input. Selecting an important image in this way is not only a small amount of calculation, but also a fast processing speed, it is possible to restore the optimal three-dimensional model by reducing the reconstruction error as much as possible when reconstructing the three-dimensional model.

그리고 두 번째 과정에서는 선택된 중요영상들만을 이용하여 카메라 투영행 렬을 구한 다음 이를 이용하여 기본행렬을 구한다. 보다 구체적으로, 우선 선택된 중요영상들에 대하여 프로젝티브 복원과 메트릭 호모그래피(Metric Homography)를 계산하기 위한 선행 자동교정(Pre-auto Calibration)을 수행한다. 그리고 선택된 중요영상들 사이의 전자동 교정(Full Auto Calibration)을 통하여 카메라 투영행렬을 추정하며, 계속해서 추정된 투영행렬을 이용한 대수학적 유도를 통해 기본행렬을 구한다.In the second process, the camera projection matrix is obtained using only the selected important images, and then the basic matrix is used. More specifically, first, pre-auto calibration is performed to calculate the projective reconstruction and metric homography on the selected important images. The camera projection matrix is estimated through the full auto calibration between the selected important images, and then the basic matrix is obtained through the algebraic derivation using the estimated projection matrix.

그리고 마지막 과정에서는 기본행렬을 이용하여 부정확한 대응점들을 제거한 다음에, 최종적으로 부정확한 대응점들이 제거된 영상의 에지(Edge)로부터 최소의 오차를 갖는 조밀한 대응점을 추출하여 3차원 모델을 재구성한다. 부정확한 대응점을 제거하면, 재구성된 3차원 모델의 정확성과 정밀도를 향상시킬 수가 있을 뿐만 아니라 재구성 모델의 형성을 위한 계산의 복잡도를 감소시킬 수가 있다.In the final process, the inaccurate corresponding points are removed by using the basic matrix, and then the 3D model is reconstructed by extracting the dense corresponding points having the minimum error from the edge of the image from which the inaccurate corresponding points are finally removed. Eliminating inaccurate correspondence can improve the accuracy and precision of the reconstructed three-dimensional model, as well as reduce the computational complexity for the reconstruction model.

상기한 해결 과제를 달성하기 위한 본 발명의 일 실시예에 따른 영상 시퀀스로부터 3차원 모델을 재구성하기 위한 방법은 상기 영상 시퀀스의 일부는 k(k는 1이상의 정수)번째 중요영상과 상기 k번째 중요영상에 이어지는 다수의 비교영상들을 포함하고, 그리고 상기 k번째 중요영상에 대한 특징점 대비 상기 비교영상들 각각의 대응점의 비율과 함께, 상기 비교영상들 각각의 재투영 오차를 이용하여 상기 비교영상들 중에서 (k+1)번째 중요영상을 선택하는 단계, 상기 영상 시퀀스 전부에서 선택된 중요영상들을 이용하여 카메라 전 자동 교정 절차를 수행하여 상기 중요영상들 각각의 투영행렬을 구하는 단계, 서로 인접한 상기 중요영상의 상기 투영행렬을 이용하여 기본행렬을 구하는 단계, 및 상기 기본행렬을 이용한 에피폴라 제약 조건을 이용하여 상기 중요영상들 각각의 에지들에서 잡음을 제거하고, 잡음이 제거된 에지들을 이용하여 3차원 모델을 재구성하는 단계를 포함한다.A method for reconstructing a 3D model from an image sequence according to an embodiment of the present invention for achieving the above problem is that a portion of the image sequence is k (k is an integer greater than or equal to 1) and the k-th important image A plurality of comparison images subsequent to the image, and using the reprojection error of each of the comparison images together with the ratio of the corresponding points of each of the comparison images to the feature point for the k-th important image among the comparison images. selecting a (k + 1) th important image, performing a pre-camera calibration procedure using the important images selected from all of the image sequences, and obtaining a projection matrix of each of the important images; Obtaining a base matrix using the projection matrix, and using an epipolar constraint using the base matrix Removing the noise from each of the edges is important group image, and a step of reconstructing a 3D model using the noise is removed edge.

상기 실시예의 일 측면에 의하면, 상기 k가 1인 중요영상은 상기 영상 시퀀스의 첫 번째 영상일 수 있다. 그리고 상기 영상 시퀀스의 일부는 상기 k번째 중요영상부터 상기 비율이 제1 임계치보다 작은 영상이 처음으로 발생하는 비교영상까지의 상기 영상 시퀀스의 영상들을 포함하고, 또한 상기 (k+1)번째 중요영상은 상기 영상 시퀀스의 일부 중에서 재투영 오차가 최소가 되는 비교영상일 수 있다. 이 경우에, 상기 (k+1)번째 중요영상은 상기 비율이 제2 임계치 이하가 되는 비교영상들 중에서 선택되며, 상기 제2 임계치는 상기 제1 임계치보다 작을 수 있다. 상기 재투영 오차(R.E.)는 하기 수학식 (E-1)을 이용하여 구할 수 있다.According to an aspect of the embodiment, the important image k is 1 may be the first image of the video sequence. And a part of the image sequence includes images of the image sequence from the kth important image to a comparison image in which an image having a ratio smaller than a first threshold first occurs, and further includes the (k + 1) th important image. May be a comparison image of which a reprojection error is minimal among a portion of the image sequence. In this case, the (k + 1) th important image may be selected from comparison images in which the ratio is less than or equal to a second threshold, and the second threshold may be smaller than the first threshold. The reprojection error (R.E.) can be obtained using the following equation (E-1).

Figure 112008000737256-pat00001
(E-1)
Figure 112008000737256-pat00001
(E-1)

여기서, Pi는 프로젝티브 투영행렬, Xj는 3차원 공간상의 임의의 점, xi j는 Xj에 대응되는 프로젝티브 좌표계의 한 점을 나타낸다.Here, P i denotes a projection projection matrix, X j denotes an arbitrary point in three-dimensional space, and x i j denotes a point in the projection coordinate system corresponding to X j .

상기 실시예의 다른 측면에 의하면, 상기 투영행렬로부터 대수학적 유도를 통해 상기 기본행렬을 계산할 수 있다.According to another aspect of the embodiment, it is possible to calculate the base matrix through algebraic derivation from the projection matrix.

본 발명의 실시예에 의하면, 중요영상을 선택하는 과정에서 재투영 오차를 이용하기 때문에 계산량이 적어서 처리 속도를 향상시킬 수가 있으며, 또한 재투영 오차가 적은 영상을 중요영상으로 선택하기 때문에 정확한 3차원 모델의 재구성이 가능하다. 아울러, 카메라 투영행렬로부터 대수학적 유도를 통하여 기본행렬을 추정하기 때문에, 종래의 방법과 비교하여 평균 오차 수준을 유지하면서도 한층 처리 속도를 향상시킬 수가 있다.According to an embodiment of the present invention, since the reprojection error is used in the process of selecting an important image, the calculation speed is small and the processing speed can be improved, and since the image having the smallest reprojection error is selected as the important image, accurate 3D Reconstruction of the model is possible. In addition, since the basic matrix is estimated from the camera projection matrix through algebraic derivation, the processing speed can be further improved while maintaining the average error level compared with the conventional method.

이하, 첨부 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따라서 입력영상(Input Images)인 영상 시퀀스(Sequence Images)로부터 중요영상을 선택하고, 선택된 중요영상을 이용하여 3차원 모델을 재구성하는 절차를 개략적으로 보여 주는 흐름도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 3차원 모델의 재구성 절차는 중요영상의 선택 과정(Key Frame Selection, S100), 완전 자동 교정 과정(Full Auto Calibration, S200), 및 3차원 모델의 재구성 과정(3D Dense Reconstruction, S300)을 포함한다. 도 1에 도시된 각 과정의 세부적인 내용은 본 발명의 실시예를 간략하게 도시한 것으로서, 이하 각 과정에 대한 상세한 설명은 다른 첨부 도면을 함께 참조하여 후술하기로 한다.1 is a flowchart schematically illustrating a procedure of selecting an important image from an image sequence, which is an input image, and reconstructing a 3D model using the selected important image, according to an embodiment of the present invention. to be. Referring to FIG. 1, a reconstruction procedure of a 3D model according to an embodiment of the present invention may include a key frame selection process (S100), a full auto calibration process (S200), and a 3D model. 3D Dense Reconstruction (S300). Details of each process illustrated in FIG. 1 briefly illustrate embodiments of the present invention, and a detailed description of each process will be described later with reference to other accompanying drawings.

본 발명의 실시예에 의하면, 영상 시퀀스를 획득하는 방법에는 아무런 제한이 없다. 예를 들어, 영상 시퀀스는 단일 축 회전 영상으로서 자체 제작한 포토노보(Photonovo) 영상 취득 시스템을 이용하여 획득한 연속된 회전 움직임 영상일 수 있다. 포토노보 영상 취득 시스템은 디지털 카메라와 모터로 움직이는 회전판, 그 리고 개인용 컴퓨터(PC)를 포함하고 있으며, 영상들은 각기 다른 각도에서 1도씩 회전하며 취득할 수 있다. 하지만, 본 발명의 실시예가 이러한 포토노보 영상 취득 시스템을 이용하여 획득한 영상에 한정되는 것은 아니며, 다른 회전 움직임 영상 취득 시스템으로 획득한 영상이나 또는 동일한 포토노브 영상 취득 시스템이라고 하더라도 영상 취득 간격을 달리하여 획득한 영상에도 동일하게 적용될 수 있다. 또는, 영상 시퀀스는 단일 축 회전 영상이 아니라 같은 방향에 소정의 간격으로 배치된 복수 개의 카메라를 이용하여 획득한 영상 시퀀스일 수도 있다.According to an embodiment of the present invention, there is no limitation in the method of obtaining the image sequence. For example, the image sequence may be a continuous rotational motion image obtained using a self-produced Photonovo image acquisition system as a single axis rotation image. The Photo Novo Image Acquisition System includes a digital camera, a rotating platen driven by a motor, and a personal computer (PC). The images can be acquired by rotating them by 1 degree from different angles. However, embodiments of the present invention are not limited to images acquired using such a photonovo image acquisition system, and the image acquisition interval may be different even if the image is acquired by another rotational motion image acquisition system or the same photoknob image acquisition system. The same may be applied to the acquired image. Alternatively, the image sequence may be an image sequence obtained by using a plurality of cameras disposed at predetermined intervals in the same direction instead of a single axis rotation image.

도 2는 본 발명의 일 실시예에 따른 중요영상 선택 알고리즘의 일례를 보여 주는 흐름도이다.2 is a flowchart illustrating an example of an important image selection algorithm according to an embodiment of the present invention.

도 2를 참조하면, 우선 카메라를 이용하여 획득한 영상 시퀀스에 포함되는 두 영상(이 중에서 하나는 반드시 중요영상이며, 이하에서는 다른 하나의 영상은 '비교영상'이라고 한다) 사이에서 대응점(Correspondence)을 추출(Extraction)한다(S101). 보다 구체적으로, 중요영상에서는 특징점을 추출하고, 비교영상에서는 상기 특징점에 대응되는 대응점을 추출한다. 본 발명의 실시예에 의하면, 우선 입력되는 첫 번째 영상(중요영상)과 두 번째 영상(비교영상)에 대하여, 도 2에 도시된 중요영상 선택 알고리즘에 따라서 S101 이후의 절차를 진행한다. 만일, 단계 S102에서 특징점 대비 대응점의 개수 비율(Rc)이 소정의 임계치 이상인 것으로 판정되면, 첫 번째 영상(중요영상)과 세 번째 영상(비교영상)에 대하여 다시 단계 S101부터 순차적으로 도 2의 절차를 진행한다. 본 발명의 실시예에 의하면, 단계 S101 에서 대응점을 추출하는 구체적인 방법에는 아무런 제한이 없다. Referring to FIG. 2, first, a correspondence point between two images included in an image sequence obtained by using a camera, one of which is necessarily an important image and the other image is referred to as a 'comparative image' Extract (S101). More specifically, the feature point is extracted from the important image, and the corresponding point corresponding to the feature point is extracted from the comparative image. According to an embodiment of the present invention, the first image (important image) and the second image (comparative image) to be input are first performed after S101 according to the important image selection algorithm shown in FIG. 2. If it is determined in step S102 that the number ratio R c of the corresponding points to the feature points is greater than or equal to a predetermined threshold value, the first image (important image) and the third image (comparative image) are sequentially returned from step S101 in FIG. 2. Proceed with the procedure. According to the embodiment of the present invention, there is no limitation in the specific method of extracting the corresponding point in step S101.

그리고 본 발명의 실시예에 의하면, 도 2에 도시된 단계 S101의 절차에서 하나의 영상은 반드시 중요영상이어야 한다. 따라서 본 발명의 실시예에 의하면, 첫 번째 영상은 항상 중요영상으로 선택된다. 그리고 단계 S101 이하의 절차를 수행함으로써, 입력되는 영상 시퀀스(다수의 비교영상들)에서 첫 번째 영상 다음으로 중요영상이 될 영상, 즉 두 번째 중요영상을 선택한다. 그리고 이후에는 두 번째 중요영상을 이용하여 후술하는 실시예와 동일한 절차를 따라서 세 번째 중요영상을 선택하는 과정을 진행한다.According to an embodiment of the present invention, one image must be an important image in the procedure of step S101 shown in FIG. 2. Therefore, according to the embodiment of the present invention, the first image is always selected as an important image. Then, by performing the procedure of step S101 or less, an image to be an important image next to the first image, that is, a second important image, is selected from the input image sequence (multiple comparison images). Subsequently, a process of selecting a third important image is performed using the second important image according to the same procedure as in the following embodiment.

계속해서 도 2를 참조하면, 추출된 특징점 대비 대응점의 개수 비율(Rc)을 계산하여 이 값이 소정의 임계치(Threshold)보다 작은지를 판단한다(S102). 여기서, 특징점 대비 대응점의 개수 비율(Rc)이란 첫 번째 영상(중요영상)의 특징점의 개수에 대한 두 번째 영상(비교영상) 또는 후속되는 다른 비교영상의 대응점의 개수의 비율을 가리킨다. 대응점의 개수 비율(Rc)을 구할 때에는 항상 직전의 중요영상의 특징점과 상기 중요영상의 후속 영상(비교영상)과의 대응점의 개수 비율이 계산된다. 그리고 상기 임계치는 1보다 작은 소정의 값으로 결정될 수 있는데, 3차원 모델 재구성의 효율성, 선택하고자 하는 중요영상의 개수, 및/또는 프로세서의 처리 속도 등을 고려하여 적절한 값으로 선택될 수 있다. Continuing to refer to FIG. 2, this value determines whether less than a predetermined threshold value (Threshold) by calculating the ratio of the number (R c) of the extracted feature points against the corresponding points (S102). Here, the number ratio R c of the corresponding points to the feature points refers to the ratio of the number of corresponding points of the second image (comparative image) or another comparison image to the number of feature points of the first image (important image). When obtaining the number ratio R c of the corresponding points, the ratio of the number of points of correspondence between the feature point of the immediately preceding important image and the subsequent image (comparative image) of the important image is always calculated. The threshold may be determined as a predetermined value smaller than 1, and may be selected as an appropriate value in consideration of the efficiency of 3D model reconstruction, the number of important images to be selected, and / or the processing speed of the processor.

일반적으로, 두 영상(중요영상과 비교영상) 사이에서 특징점 대비 대응점의 개수 비율이 1에 가까우면, 상기 두 영상은 아주 근접하여 위치하는 영상이라는 것 을 가리킨다. 반대로, 특징점 대비 대응점의 비율이 너무 낮으면, 두 영상은 서로 관련이 없는 영상인 것이 일반적이다. 따라서 본 발명의 실시예에서는 직전의 중요영상에 대한 대응점의 개수의 비율이 소정의 임계치 이하가 되는 경우에 단계 S103이하가 진행되도록 함으로써, 직전의 중요영상과 관련성이 너무 많은 영상이 다음의 중요영상으로 선택되는 것을 방지한다. 그리고 본 발명의 실시예에 의하면, 후술하는 바와 같이 상기 특징점 대비 대비점의 비율이 일정한 값(예컨대, 0.9) 이하인 영상만이 중요영상으로 선택되도록 함으로써, 영상 시퀀스에서 선택되는 중요영상 사이의 간격이 일정한 거리 이상을 유지하도록 할 수 있다. 그리고 이를 통하여 하나의 영상 시퀀스에서는 가능한 범위에서 적은 개수의 영상만을 중요영상으로 선택되도록 함으로써, 후속 절차(카메라 교정 절차 등)에서의 계산을 최소화할 수 있다.In general, when the ratio of the number of corresponding points to the feature point between the two images (the important image and the comparative image) is close to 1, it indicates that the two images are located in close proximity. Conversely, if the ratio of the corresponding points to the feature points is too low, the two images are generally unrelated images. Therefore, in the exemplary embodiment of the present invention, when the ratio of the number of corresponding points to the immediately preceding important image becomes less than or equal to a predetermined threshold value, step S103 or less proceeds, so that the image that has too much relevance to the previous important image is the next important image. To prevent selection. According to an embodiment of the present invention, as described below, only an image having a ratio of the contrast point to the feature point or less is constant (eg, 0.9) or less is selected as an important image, so that the interval between the important images selected in the image sequence is increased. It can be kept more than a certain distance. In this way, in a single image sequence, only a small number of images are selected as important images in a possible range, thereby minimizing calculation in subsequent procedures (camera calibration procedures, etc.).

계속해서, 단계 S102에서의 판단 결과 특징점 대비 대응점의 개수 비율(Rc)이 소정의 임계치 이상이 되면, 중요영상(첫 번째 프레임)과 다음 프레임(예컨대, 세 번째 프레임)의 영상을 이용하여 단계 S101 이하의 절차를 반복하여 수행한다. 반면, 단계 S102에서의 판단 결과, 대응점의 개수 비율(Rc)이 소정의 임계치보다 작으면, 단계 S103 이하에서 재투영 오차를 계산하기 위한 절차를 수행한다. Subsequently, when the number ratio R c of the corresponding points to the feature points becomes greater than or equal to the predetermined threshold as a result of the determination in step S102, the step is performed using the image of the important image (first frame) and the next frame (eg, the third frame). S101 Repeat the following procedure. On the other hand, when the determination result in step S102 indicates that the number ratio R c of the corresponding points is smaller than the predetermined threshold, a procedure for calculating the reprojection error is performed in step S103 or below.

특징점 대비 대응점의 개수 비율(Rc)이 소정의 임계치보다 작은 경우에, 다음으로 해당 비교영상까지의 영상 시퀀스를 이용하여 상기 프로젝티브 공간상에서 3차원 재구성을 수행한다(S103). 획득한 2차원 평면 영상(비교영상)으로부터 3차원 모델을 재구성하는 데는 소정의 투영행렬이 이용될 수 있다. 그리고 재구성된 3차원 모델들을 이용하여 각 영상에 대한 재투영 오차(Re-projective Errors, RE)를 구한다(S104). 재투영 오차는 재구성된 3차원 모델(대응점들)과 중요영상으로부터 재구성된 3차원 모델 사이의 좌표 차이일 수 있다. 단계 S103과 단계 S104는 단계 S102의 조건을 만족하는 비교영상 이전의 영상들에 대하여 순차적으로 수행될 수 있다.When the number ratio R c of the feature points to the corresponding points is smaller than a predetermined threshold, three-dimensional reconstruction is performed on the projected space by using an image sequence up to the corresponding comparison image (S103). A predetermined projection matrix may be used to reconstruct the 3D model from the obtained 2D planar image (comparative image). Then, re-projective errors (RE) for each image are obtained using the reconstructed three-dimensional models (S104). The reprojection error may be a coordinate difference between the reconstructed three-dimensional model (corresponding points) and the reconstructed three-dimensional model from the important image. Steps S103 and S104 may be sequentially performed on the images before the comparison image that satisfy the conditions of step S102.

계속해서, 단계 S102를 만족한 다수의 비교영상들 각각의 재투영 오차 중에서 그 값이 최소가 되는 영상을 찾아서(S105), 해당 비교영상을 두 번째 중요영상으로 선택한다(S106). 이 경우에, 재투영 오차가 작은 비교영상들 중에서 전술한 특징점 대비 대비점의 비율이 일정한 값(0.9) 이하가 되는 비교영상만을 중요영상으로 선택할 수도 있다. Subsequently, among the reprojection errors of each of the plurality of comparison images satisfying step S102, an image having the minimum value is found (S105), and the comparison image is selected as the second important image (S106). In this case, only the comparison image of which the ratio of the contrast point to the above-described feature point is less than or equal to a predetermined value (0.9) among the comparison images having a small reprojection error may be selected as the important image.

계속해서 단계 S102를 만족하는 비교영상이 입력된 영상 시퀀스 중에서 마지막 프레임인지를 판단한다(S107). 판단 결과, 마지막 프레임까지 수행되지 않았으면, 단계 S108에서와 같이 다음 프레임을 이용하여 단계 S101 이하의 절차를 다시 반복하여 수행한다. 이 경우에, 새로 시작하는 단계 S101 이하의 절차에서는 단계 S106에서 선택된 중요영상을 기준으로 S102 내지 S104의 절차를 수행한다. 그리고 단계 S107에서의 판단 결과, 마지막 프레임까지 중요영상 선택 과정을 수행하였으면, 본 실시예에 따른 중요영상의 선택 알고리즘은 종료한다.Subsequently, it is determined whether the comparison image satisfying step S102 is the last frame in the input image sequence (S107). If it is determined that the last frame has not been performed, the procedure of step S101 or less is repeated again using the next frame as in step S108. In this case, the procedure of step S101 or below which is newly started performs the procedure of S102 to S104 based on the important image selected in step S106. As a result of the determination in step S107, when the important image selection process is performed until the last frame, the selection algorithm of the important image according to the present embodiment ends.

이러한 중요영상의 선택알고리즘을 수행한 결과, 입력되는 영상 시퀀스 중에서 소정 개수(예컨대, M개)의 영상들이 중요영상으로 선택된다. 이하, 이러한 중요 영상의 선택 알고리즘에 대하여 부연하여 설명한다.As a result of the selection algorithm of the important image, a predetermined number (eg, M) images are selected as the important image from the input image sequence. Hereinafter, such an important video selection algorithm will be described in detail.

중요영상의 선택 알고리즘Selection algorithm of important video

비교정 영상에서 3차원 재구성을 위해 특징점 추출, 카메라 교정기술 등을 이용한 완전 자동화 시스템의 구축에 많은 관심을 갖게 되었다. 이러한 자동화 시스템을 위해서는 부가적인 기술 중에 하나가 중요영상의 선택 절차이다. 중요영상은 시차(disparity)를 계산하기 위한 충분한 베이스라인(baseline)을 가져야 하며, 영상의 수가 많은 시퀀스 영상에서 적은 영상으로 많은 계산량을 필요로 하는 카메라의 움직임 분석 및 3차원 복원을 가능하게 해야 한다. 또한, 영상 간에 중복되는 대응점들을 포함하면서 가능한 적은 수의 영상을 선택하며, 전체 카메라의 움직임 및 카메라 파라미터 추정 시 생기는 오차를 최소화해야 한다.Interested in the construction of a fully automated system using feature extraction and camera calibration techniques for three-dimensional reconstruction from non-corrected images. For such an automated system, one of the additional technologies is a procedure for selecting an important image. The critical image should have sufficient baseline to calculate disparity, and should enable camera motion analysis and three-dimensional reconstruction that require a large amount of computation from a large number of images to a small image. . In addition, it is necessary to select as few images as possible, including overlapping points of overlap between images, and to minimize errors caused when the overall camera motion and camera parameters are estimated.

프로젝티브 공간(projective space) 상에서 3차원 공간상의 한 점 X i = (X i , Y i , Z i ) T 와 그에 대응되는 2차원 카메라 영상 평면 좌표계의 한 점 xi가 주어졌을 때, 이 두 점들과의 관계는 3×4 프로젝티브 투영행렬에 의해 xi = Pj X i 를 만족하게 된다. 프로젝티브 투영행렬(Projective Projection Matrix)과 프로젝티브 복원은 팩토리제이션(factorization) 방법을 이용하여 수학식 1로부터 얻어진다.Project creative space (projective space) when turned is a point X i = (X i, Y i, Z i) T and thus a point x i of the two-dimensional camera image corresponding to the plane coordinate system of the 3-dimensional space given on, the two The relationship with the points is satisfied by x i = P j X i by the 3x4 projection projection matrix. Projective Projection Matrix and Projective Restoration are obtained from Equation 1 using a factorization method.

Figure 112008000737256-pat00002
Figure 112008000737256-pat00002

카메라 투영행렬을 이용하여 3차원 재구성을 하는 경우, 재구성된 3D 데이터의 정확도는 얻어진 투영행렬의 정확도에 따라 달라진다. 본 발명의 실시예에서는 정확한 카메라 투영행렬을 가지는 영상만을 선택하기 위한 방법으로, 프로젝티브 공간상에서 각 영상의 카메라 투영행렬을 계산한 후, 가장 작은 재투영 오차를 갖는 영상을 중요영상으로 선택한다. 재투영 오차는 수학식 2를 이용하여 구할 수 있다.In the case of three-dimensional reconstruction using the camera projection matrix, the accuracy of the reconstructed 3D data depends on the accuracy of the obtained projection matrix. In an embodiment of the present invention, as a method for selecting only an image having an accurate camera projection matrix, after calculating a camera projection matrix of each image in a projection space, an image having the smallest reprojection error is selected as an important image. The reprojection error can be obtained using Equation 2.

Figure 112008000737256-pat00003
Figure 112008000737256-pat00003

이러한 본 발명의 일 실시예에 의하면, 먼저 영상 시퀀스의 첫 번째 영상을 중요영상으로 선택한다. 그리고 첫 번째 중요영상의 특징점을 추출하여 다음 영상과의 대응점을 찾고, 특징점 대비 대응점의 비율(Rc)을 계산하여, 이 값이 문턱치보다 크면 다음 영상에서 다시 대응점을 찾는다. 반면, Rc가 문턱치 이하가 되면, 첫 번째 중요영상에서 현재 영상까지 프로젝티브 복원한다. 각각의 투영행렬로부터 재투영 오차를 계산하여 가장 작은 에러를 포함하며 또한 특징점 대비 대응점의 비율이 90% 이하인 영상을 중요영상으로 선택한다. 그리고 선택된 중요영상을 이용하여 연속된 입력 영상에 대하여 위의 과정을 반복적으로 수행하여 다른 중요영상을 선택한다.According to one embodiment of the present invention, first, the first image of the image sequence is selected as the important image. The feature point of the first important image is extracted to find a corresponding point with the next image, and the ratio R c of the feature point to the corresponding point is calculated. When this value is larger than the threshold, the corresponding point is found again in the next image. On the other hand, when R c is less than the threshold, it is projectively restored from the first important image to the current image. The reprojection error is calculated from each projection matrix, and the image containing the smallest error and the ratio of the corresponding point to the feature point of 90% or less is selected as the important image. Then, the above process is repeatedly performed on the continuous input image using the selected important image to select another important image.

도 3은 본 발명의 일 실시예에 따른 전자동 교정 과정을 보여 주는 흐름도이 다. 도 3을 참조하면, 본 발명의 실시예에 따른 전자동 교정 과정은 도 2를 참조하여 설명한 실시예에 따라서 선택된 M개의 중요영상들 중에서 우선 n(<M)개의 중요영상을 이용하여 카메라 교정 과정을 수행하는 예비 자동 교정(Pre-auto-calibration) 과정과 이러한 예비 자동 교정 과정을 통해 구한 정보(프로젝티브 투영 행렬 및 메트릭 호모그래피 등)를 이용하여 나머지 (M-n)개의 중요영상에 대하여 카메라 교정 과정을 수행하는 완전 자동 교정(Full-auto-calibration) 과정을 포함한다. 전 자동 교정의 수행 결과, 각 카메라(중요영상)에 대한 정확한 투영행렬을 구할 수 있다.3 is a flowchart illustrating a fully automatic calibration process according to an embodiment of the present invention. Referring to FIG. 3, a fully automatic calibration process according to an embodiment of the present invention may be performed by first performing a camera calibration process using n (<M) important images from among M important images selected according to the embodiment described with reference to FIG. 2. Using the pre-auto-calibration process and the information (such as projected projection matrix and metric homography), the camera calibration process is performed on the remaining (Mn) important images. It includes a full-auto-calibration process to be performed. As a result of the fully automatic calibration, an accurate projection matrix for each camera (important image) can be obtained.

도 3을 참조하면, 우선 n개의 중요영상(첫 번째 중요영상부터 n번째 중요영상까지)에 대하여 대응점 추출을 수행한다(S201). 그리고 특징점과 추출된 대응점 사이의 비(Rc)가 소정의 임계치보다 작은 지를 판단한다(S202). 판단 결과, 특징점과 추출된 대응점 사이의 비(Rc)가 소정의 임계치 이상이 되면, 다음 프레임에 선정하여(S203), 다음 프레임에 대하여 단계 S201 및 S202를 반복한다. Referring to FIG. 3, first, corresponding point extraction is performed on n important images (from the first important image to the nth important image) (S201). In operation S202, it is determined whether the ratio R c between the feature point and the extracted corresponding point is smaller than a predetermined threshold. As a result of the determination, when the ratio R c between the feature point and the extracted corresponding point becomes equal to or greater than a predetermined threshold value, the next frame is selected (S203), and steps S201 and S202 are repeated for the next frame.

반면, 단계 S202에서의 판단 결과, 특징점과 추출된 대응점 사이의 비(Rc)가 소정의 임계치보다 작으면, 예비 프로젝티브 재구성(Pre-Projective Reconstruction) 단계(S203)를 수행한 다음, 예비 프로젝티브 번들 조정(Pre-Projective Bundle Adjustment) 단계(S204) 및 예비 프로젝티브 구조(Pre-Projective Structure) 단계(S205)를 수행한다. 상기 단계 S203 내지 S205의 절차를 수행하는 방법에는 특별한 제한이 없으며, 이 분야의 통상적인 절차에 따라서 수행될 수 있다. 예를 들어, R. Hartley와 A. Zisserman에 의한 "Multiple View Geometry"(Cambridge Univ. Press, 2000), A.Heyden과 K. Astrom에 의한 "Euclidean reconstruction from image sequences with varying and unknown focal length and pricipal point"(In Proc. CVPR, pp. 438-443, 1997), 및/또는 B. Triggs, P. McLauchlan, R. Hartley와 A. Fitzgibbon에 의한 "Bundle Adjustment - a modern synthesis, In Vision algorithms : Theory and practice"(LNCS 1883, pp. 298-372, 2000)에 개시되어 있는 알고리즘이 이용될 수 있는데, 여기에만 한정되는 것은 아니다. 상기 단계 S203 내지 S205의 수행 결과, 프로젝티브 투영행렬(Projective Projection Matrix)을 얻을 수 있다.On the other hand, if the ratio R c between the feature point and the extracted corresponding point is smaller than the predetermined threshold, as a result of the determination in step S202, the pre-projective reconstruction step S203 is performed, and then the preliminary project is performed. The pre-projective bundle adjustment step (S204) and the pre-projective structure step (S205) are performed. There is no particular limitation on the method of performing the procedure of steps S203 to S205, and may be performed according to a conventional procedure in the art. For example, "Multiple View Geometry" by R. Hartley and A. Zisserman (Cambridge Univ. Press, 2000), "Euclidean reconstruction from image sequences with varying and unknown focal length and pricipal by A. Heyden and K. Astrom. point "( In Proc. CVPR, pp. 438-443, 1997), and / or" Bundle Adjustment-a modern synthesis, In Vision algorithms by B. Triggs, P. McLauchlan, R. Hartley and A. Fitzgibbon: Theory and practice "(LNCS 1883, pp. 298-372, 2000) can be used, but is not limited thereto. As a result of performing steps S203 to S205, a projection projection matrix can be obtained.

계속해서, 예비 메트릭 재구성(Pre-Metric Reconstruction) 단계(S206)를 수행한 다음, 예비 메트릭 번들 조정(Pre-Metric Bundle Adjustment) 단계(S208)와 예비 메트릭 구조(Pre-Metric Structure) 단계(S208)를 수행한다. 이러한 단계 S206 내지 S208도 위에서 인용한 문헌들에 개시되어 있는 알고리즘이 이용될 수가 있다. 그리고 단계 S206 내지 S208의 수행 결과, 메트릭 호모그래피를 얻을 수가 있다.Subsequently, after performing a pre-metric reconstruction step (S206), a pre-metric bundle adjustment step (S208) and a pre-metric structure step (S208) are performed. Perform The algorithms disclosed in the above cited documents in steps S206 to S208 can also be used. As a result of performing steps S206 to S208, metric homography can be obtained.

계속해서 도 3을 참조하면, 예비 자동 교정 절차에서 이용되지 않은 나머지 중요영상들(즉, (n+1)번째 중요영상부터 M번째 중요영상까지)을 이용하여 전 자동 교정 절차를 수행한다. 이러한 전 자동 교정 절차에는 예비 자동 교정 절차에서 구한 프로젝티브 투영 행렬과 메트릭 호모그래피가 이용될 수 있다. 단계 S209는 이러한 전 자동 교정 과정의 일례를 보여 주는 것으로서, 본 실시예가 여기에만 한정 되는 것은 아니다. 3, the full automatic calibration procedure is performed using the remaining important images (ie, (n + 1) th important images to the M th important images) that are not used in the preliminary automatic calibration procedure. The projected projection matrix and the metric homography obtained in the preliminary automatic calibration procedure may be used for this full automatic calibration procedure. Step S209 shows an example of such a full automatic calibration process, and the present embodiment is not limited thereto.

본 발명의 실시예에 의하면, 이러한 예비 자동 교정 절차(S201 내지 S208)와 전 자동 교정 절차(S209)를 수행한 결과, 카메라 교정 절차가 완료된다. 이하, 이를 부연하여 보다 구체적으로 설명한다.According to the embodiment of the present invention, as a result of performing the preliminary automatic calibration procedures S201 to S208 and the pre-automatic calibration procedure S209, the camera calibration procedure is completed. This will be described below in more detail.

카메라 전 자동교정Auto calibration before camera

<선행 자동 교정 또는 예비 자동 교정><Preliminary or Preliminary Auto Calibration>

여기에서는 중요영상 선택 알고리즘에 의해 선택된 영상에 대한 카메라 자동교정하는 방법을 서술한다. 카메라 자동교정은 비교정된 다수의 영상을 이용하여 3차원 재구성을 하기 위한 필수적인 과정이다. 전술한 바와 같이, 도 3은 본 발명의 일 실시예에 따른 카메라 전자동 교정 과정을 보여 주는 흐름도이다.Here, a method of automatically calibrating a camera for an image selected by an important image selection algorithm will be described. Camera auto-calibration is an essential process for three-dimensional reconstruction using multiple images that have been compared. As described above, FIG. 3 is a flowchart illustrating a camera automatic calibration process according to an embodiment of the present invention.

프로젝티브 복원은 카메라 자동교정과정을 수행하면 메트릭 복원(Metric reconstruction)으로 변환된다. 카메라 자동교정은 대응점으로부터 팩토라이제이션(Factorization) 방법을 사용하여 프로젝티브 복원을 하고, 절대 2차 원추 곡면 추정(absolute quadric estimation)으로부터 메트릭 호모그래피(metric homography)를 구하여 메트릭 복원을 하게 된다(F. Deveranay, O. Faugeras, "From Projective to Euclidean reconstruction", IEEE conf. on CVPR, pp. 264-269, 1996 참조). 이 과정에서 n개의 영상에 대한 프로젝티브 투영행렬(Projective projection matrix)과 메트릭 호모그래피를 구한다. 이 부분을 선행자동교정이라고 정의한다.Projective reconstruction is converted to metric reconstruction by performing camera autocalibration. Camera auto-calibration uses the factorization method from the corresponding point to perform projective reconstruction, and obtains metric homography from absolute quadric estimation. Deveranay, O. Faugeras, "From Projective to Euclidean reconstruction", IEEE conf.on CVPR, pp. 264-269, 1996). In this process, we obtain the projection projection matrix and metric homography for n images. This part is defined as preliminary automatic calibration.

3D 공간상의 한 점 Xj은 I번째 카메라 투영행렬 Pi m으로부터 각 영상에 xj = Pi mXj에 의해서 투영된다. 첨자 m은 메트릭 공간(metric space) 상에서의 투영행렬을 의미한다. 메트릭 투영행렬은 프로젝티브 복원으로부터 구한 프로젝티브 투영행렬과 4×4 메트릭 호모그래피 H에 의해 수학식 3과 같이 구할 수 있다.A point X j in 3D space is projected by x j = P i m X j in each image from the I-th camera projection matrix P i m . The subscript m denotes the projection matrix in the metric space. The metric projection matrix can be obtained as shown in Equation 3 by the projection projection matrix obtained from the projection reconstruction and the 4 × 4 metric homography H.

Figure 112008000737256-pat00004
Figure 112008000737256-pat00004

<전자동 교정><Full Auto Calibration>

선행 자동 교정으로부터 n개의 중요영상에 대한 프로젝티브 투영행렬과 메트릭 호모그래피를 얻었다. 다음으로, 전체 중요영상에 대한 교정을 수행하기 위한 절차가 진행되는데, 이를 전 자동 교정이라고 한다. n번째 중요영상과 (n+1)번째 중요영상 사이의 대응점을 구하고, 선행 자동 교정 과정에서 구한 프로젝티브 구조(Projective Structure)와 메트릭 호모그래피를 이용하여 (n+1)번째 중요영상에 대한 메트릭 투영행렬을 계산한다. 최적화된 프로젝티브 복원과 메트릭 복원을 위해 두 번의 번들 조정법(Bundle Adjustment)을 수행한다. 이러한 과정을 통하여 계속되는 중요영상의 메트릭 투영행렬을 계산한다. 프레임이 진행될수록 대응점의 수가 줄어들게 되면 정해진 기준치 이하가 되면, 다시 프로젝티브 복원 후 위의 과정을 반복한다. 마지막 중요영상까지 수행되면, 전자동 교정 절차가 종료된다.Projection projection matrices and metric homography for n important images were obtained from the prior automatic correction. Next, a procedure for performing calibration on the entire important image is performed, which is called full automatic calibration. Find the correspondence point between the nth important image and the (n + 1) th important image, and use the projective structure and metric homography obtained in the previous automatic calibration process. Calculate the projection matrix. Two bundle adjustments are performed for optimized projective restoration and metric restoration. Through this process, the metric projection matrix of the important image continues. As the number of corresponding points decreases as the frame progresses, when the number falls below a predetermined reference value, the above process is repeated after projective restoration. When the last important image is performed, the automatic calibration procedure is terminated.

기본행렬의 추정Estimation of Default Matrix

다음으로, 특징점 추출 및 기본행렬을 추정하는 방법에 대하여 설명한다. 일반적으로 에피폴라 제약조건(epipolar constraint)을 적용하여 대응점의 위치를 계산하거나 수정한다. 본 발명의 실시예에서는 기본행렬을 추정하기 위한 방법으로 대수학적 유도를 이용한다. 수학식 4에 표시되어 있는 두 식은 두 장의 교정된 영상(보다 정확하게는 이 영상들의 투영행렬)으로부터 기본행렬을 유도하는 방법이다.Next, a method of extracting feature points and estimating a basic matrix will be described. In general, the epipolar constraint is applied to calculate or modify the position of the corresponding point. In the embodiment of the present invention, algebraic derivation is used as a method for estimating the base matrix. The two equations shown in Equation 4 are a method of deriving a basic matrix from two corrected images (more precisely, projection matrices of these images).

Figure 112008000737256-pat00005
Figure 112008000737256-pat00005

여기서, K, K'은 카메라의 내부 파라미터(Intrinsic Parameter), R, t는 카메라의 외부 파라미터(Extrinsic Parameter), P+는 P의 의사역행렬(pseudo-inverse)을 의미한다. 본 발명의 실시예에 의하면, 이전 단계에서 구한 투영행렬을 이용하므로, 기본행렬을 계산하는데 시간이 줄어든다. 정확한 카메라 투영행렬을 얻었다면, 대수학적 유도를 통하여 매우 빠르게 정확한 기본행렬을 추정할 수 있다. Here, K, K 'means an internal parameter of the camera, R, t means an external parameter of the camera, P + means a pseudo-inverse of P. According to the embodiment of the present invention, since the projection matrix obtained in the previous step is used, the time for calculating the basic matrix is reduced. Once we have the correct camera projection matrix, we can estimate the exact basic matrix very quickly through algebraic derivation.

그리고 본 발명의 실시예에서는 장면 또는 물체의 특징을 잘 표현하는 모서리(edge)를 특징점으로 선택한다. 먼저 중요영상의 모서리를 추출하여 광학적 흐름(optical flow)을 이용하여 매칭한다. 위에서 구한 기본행렬을 이용하여 에피폴 라 제약조건을 적용한다. 이렇게 얻어진 대응점들을 점삼각화(Point triangulation) 방법을 이용하여 3차원 좌표를 얻는다.In an embodiment of the present invention, an edge that expresses a feature of a scene or an object is selected as the feature point. First, the edges of important images are extracted and matched using optical flow. The epipolar constraint is applied using the basic matrix obtained above. Corresponding points thus obtained are obtained by three-dimensional coordinates using a point triangulation method.

실험 결과Experiment result

이상에서 설명한 바와 같이, 본 발명의 실시예에서는 비교정된 다수의 영상으로부터 중요영상을 선택하고, 선택된 중요영상들에 대한 전자동 교정, 대수학적 유도를 통한 기본행렬 추정을 통하여 3차원 모델을 재구성한다. As described above, in the exemplary embodiment of the present invention, an important image is selected from a plurality of compared images, and a three-dimensional model is reconstructed through a basic matrix estimation through automatic calibration and algebraic deduction for the selected important images. .

1. 중요영상의 선택 알고리즘1. Selection algorithm of important video

도 4는 본 발명의 실시예를 실험하는데 사용된 영상들의 일부를 보여 주고 있다. 표 1은 본 발명의 실시예에 따른 중요영상 선택된 알고리즘에 따라서 선택된 영상의 수와 소요시간을 다른 알고리즘의 그것과 비교한 것이다. 표 1을 참조하면 알 수 있는 바와 같이, Gibson 방법은 다른 방법에 비해 상대적으로 적은 수의 영상이 선택되지만, 기본행렬을 이용하므로 잡음에 매우 민감하며, 또한 정확한 기본행렬을 추출하기 위해 반복적으로 연산을 수행하기 때문에, 많은 반복 수행에 의하여 소요 시간이 상당한 길다는 것을 알 수 있다. Nister 방법은 Gibson 방법에 비해 시간이 적게 소요되지만, 각 영상의 첨예도를 계산하므로, 영상의 크기에 민감하며 다른 방법에 비해 선택되는 중요영상의 수도 많다는 것을 알 수 있다. 패턴 박스와 곰-I 영상의 경우에는 영상의 첨예도가 매우 높은 영상이어서 거의 모든 영상이 선택되었다. 그러나 본 발명의 실시예에 따른 방법은 다른 방법에 비해 소요 시간이 상당히 짧다는 것을 알 수 있다.4 shows some of the images used to experiment the embodiment of the present invention. Table 1 compares the number and time required of the selected images according to the important image selection algorithm according to an embodiment of the present invention with those of other algorithms. As can be seen from Table 1, the Gibson method selects a relatively small number of images compared to other methods, but it is very sensitive to noise because it uses the base matrix, and iteratively computes the exact base matrix. Since it is performed, it can be seen that the time required is considerably long by many repeated executions. Nister's method takes less time than Gibson's method, but since it calculates the sharpness of each image, it is sensitive to the size of the image and it can be seen that there are more important images selected than other methods. In the case of pattern box and GOM-I image, almost all images were selected because the image was very sharp. However, the method according to the embodiment of the present invention can be seen that the time required is considerably shorter than other methods.

Figure 112008000737256-pat00006
Figure 112008000737256-pat00006

도 5는 CG 박스 영상에 대하여, 선택된 중요영상의 영상(점선)과 특징점 대비 대응점의 비율(●) 및 각 영상의 재투영 오차(■)를 보여 주고 있다. 도 6은 곰-II 영상에 대한 결과이다. 도 5를 참조하면, 재투영 오차는 프레임이 진행될수록 줄었다가 늘어나는 것을 알 수 있는데, 이것은 충분한 베이스라인을 가져야 한다는 것을 보여 준다. FIG. 5 illustrates a ratio (●) of a corresponding key image to a feature point (●) and a reprojection error (■) of each image with respect to the CG box image. 6 shows the results for a Bear-II image. Referring to FIG. 5, it can be seen that the reprojection error decreases and increases as the frame progresses, which shows that the baseline should have sufficient baseline.

2. 기본행렬의 추정2. Estimation of Base Matrix

다음으로 선택된 중요영상으로부터 대응점을 구하기 위한 기본행렬을 실험한 결과이다. 영상 교정과 기본행렬을 정확하게 추정하기 위해 패턴을 이용하여 취득한 영상을 도 7에서 보여준다.Next, we experimented the basic matrix to find the corresponding points from the selected important images. In order to accurately estimate the image correction and the basic matrix, the image acquired using the pattern is shown in FIG. 7.

도 7의 (e)와 (f)는 패턴 정보를 이용하여 각 영상의 투영행렬을 구하고, 대수학적 유도를 통하여 추정된 기본행렬에 대한 에피폴라 거리 오차(●)와 정규화된 8-점 알고리즘에 의해 계산된 기본행렬에 대한 에피폴라 거리 오차(▲)를 보여 준다. 정확한 투영행렬로부터 만들어진 기본행렬은 오차가 매우 작은 결과를 얻었다는 것을 알 수 있다.7 (e) and 7 (f) show the projection matrix of each image by using the pattern information, and the epipolar distance error (●) and the normalized 8-point algorithm for the basic matrix estimated through algebraic derivation. It shows the epipolar distance error (▲) for the basic matrix calculated by. It can be seen that the base matrix created from the exact projection matrix has a very small error.

도 8의 (a)와 (b)는 도 7의 영상을 각각 재구성하여 일부 재구성한 점들에 대한 에피폴라 거리 오차와 영상의 재투영 오차를 보여 준다. 정규화된 8-점 알고리즘에 의해 계산된 기본행렬의 평균 에피폴라 거리 오차는 1.26픽셀이며, 대수학적 유도에 의해 추정된 기본행렬의 평균 에피폴라 거리 오차는 1.04픽셀이고, 평균 재투영 오차는 0.51픽셀이다.8 (a) and 8 (b) show an epipolar distance error and a reprojection error of an image for some reconstructed points by reconstructing the image of FIG. 7, respectively. The average epipolar distance error of the base matrix calculated by the normalized 8-point algorithm is 1.26 pixels, the average epipolar distance error of the base matrix estimated by the algebraic derivation is 1.04 pixels, and the average reprojection error is 0.51 pixels. to be.

도 9는 패턴 박스 영상에 대한 기본행렬을 추정하는 방법을 여러 가지 알고리즘과 투영행렬로부터 대수학적 유도에 의한 방법과 비교한 실험이다. 도 9의 (a)는 대응점으로부터 기본행렬을 계산하는데 걸리는 시간을 보여주고 있으며, (b)는 여러 가지 방법에 의해 추정된 기본행렬의 평균 오차를 보여 준다.FIG. 9 is an experiment comparing a method of estimating a basic matrix for a pattern box image with a method based on algebraic derivation from various algorithms and projection matrices. 9 (a) shows the time taken to calculate the base matrix from the corresponding point, and (b) shows the average error of the base matrix estimated by various methods.

3. 전자동 교정3. Fully automatic calibration

도 10은 선택된 중요영상에 대한 전자동교정에 대해 특징점 대비 재구성된 대응점의 비율(▲)과 재구성된 3차원 데이터를 영상에 재투영한 오차값(◆)에 대한 실험결과를 보여준다. 영상의 에지(edge)를 이용하므로, 많은 특징점이 추출된다. 본 실험에서는 재투영 오차의 문턱치를 0.05픽셀로 설정하여 문턱치보다 큰 오차를 포함하는 대응점들에 대해서는 재구성을 하지 않았다. 도 10의 (a)는 패턴 박스에 대한 결과이며, 선행자동교정시에 발생한 평균 재투영 오차는 0.0398픽셀이며, 전자동교정시에 발생한 평균 재투영 오차는 0.0374픽셀이다. 도 10의 (b)는 곰-I 영상에 대한 실험 결과를 보여 주며, 평균 재투영 오차는 선행자동교정 시에 0.373픽셀, 전자동 교정 시에 0,0382픽셀이다. 프레임이 진행될수록, 재구성되는 대응점의 수는 줄어든다는 것을 알 수 있다.FIG. 10 shows an experimental result of a ratio (▲) of reconstructed corresponding points to feature points and an error value (◆) of reprojecting the reconstructed three-dimensional data to an image for the full-automatic calibration of the selected important image. Since the edge of the image is used, many feature points are extracted. In this experiment, the threshold of the reprojection error was set to 0.05 pixels, so that the corresponding points including the error larger than the threshold were not reconstructed. 10 (a) shows the result of the pattern box. The average reprojection error generated during the previous automatic calibration is 0.0398 pixels, and the average reprojection error generated during the full automatic calibration is 0.0374 pixels. FIG. 10 (b) shows an experimental result for the bear-I image, and the average reprojection error is 0.373 pixels at the time of the pre-automatic calibration and 0,0382 pixels at the time of the automatic calibration. It can be seen that as the frame progresses, the number of corresponding reconstruction points decreases.

Figure 112008000737256-pat00007
Figure 112008000737256-pat00007

표 2는 CG 영상과 곰-II 영상에 대하여, 각 방법에 의하여 선택된 중용영상으로부터 재구성된 3차원 데이터의 개수와 평균 재투영 오차를 보여 주고 있다. CG 영상의 경우에, 본 발명의 실시예에 따라서 제안된 방법이 영상의 수는 적지만 최소의 재투영 오차를 가지면서 많은 점들이 재구성되었다. 곰-II 영상의 경우에, Nister 방법은 13장 영상으로부터 불필요하게 많은 점들이 재구성되었으며, 실험 결과에서 보여주듯이 가장 큰 재투영 오차를 가진다. Gibson 방법의 경우에, 선택된 중요영상의 베이스라인이 너무 커서 재구성된 3D 데이터의 수가 다른 방법에 비해 상당히 줄었다. 특징점 추출 시 에지를 이용하였으므로, 많은 3D 데이터를 취득할 수 있다. 도 11과 도 12는 CG 영상과 곰-II 영상에 대한 3차원 재구성된 결과 영상이다.Table 2 shows the number of 3D data reconstructed from the medium images selected by each method and the average reprojection error for CG and GOM-II images. In the case of CG images, according to an embodiment of the present invention, many points were reconstructed with a small number of images but a minimum reprojection error. In the case of GOM-II images, the Nister method unnecessarily reconstructed many points from Chapter 13 images and has the largest reprojection error as shown in the experimental results. In the case of the Gibson method, the baseline of the selected important image is too large to reduce the number of reconstructed 3D data compared to other methods. Since edges are used for feature point extraction, much 3D data can be obtained. 11 and 12 are three-dimensional reconstructed result images of the CG image and the bear-II image.

이상에서 상세하게 설명한 바와 같이, 본 발명의 실시예에 의하면 다수의 비교정 영상으로부터 3차원 재구성을 위하여 최소의 재투영 오차를 갖는 영상을 선택하는 중요영상 선택 알고리즘, 중요영상들 사이의 카메라 전자동 교정, 카메라 투영행렬로부터 대수학적 유도를 통해 기본행렬을 추정하여 에피폴라 제약조건을 적용한다. 이러한 본 발명의 실시예에 의하면, 재구성된 3차원 데이터의 오차를 최소화하기 위한 방법으로서, 재투영 오차를 최소로 갖는 영상만을 선택한다. 또한 카메라 전자동 교정 과정을 통하여 대응점들이 사라지더라도 선택된 전체 중용영상에 대한 카메라 교정이 가능하다. 이러한 본 발명의 실시예에 의하면, 보다 정확하고 빠르게 3차원 모델을 복원하는 것이 가능하다.As described in detail above, according to an embodiment of the present invention, an important image selection algorithm for selecting an image having a minimum reprojection error for three-dimensional reconstruction from a plurality of non-corrected images, and a camera automatic correction between important images We apply the epipolar constraint by estimating the base matrix through algebraic derivation from the camera projection matrix. According to this embodiment of the present invention, as a method for minimizing the error of the reconstructed three-dimensional data, only the image having the minimum reprojection error is selected. In addition, the camera can be calibrated for the entire selected middle image even if the corresponding points disappear through the camera automatic calibration process. According to this embodiment of the present invention, it is possible to reconstruct the three-dimensional model more accurately and quickly.

이상에서 상세하게 설명한 본 발명의 실시예는 단지 본 발명의 기술 사상을 보여주기 위한 예시적인 것으로서, 상기 실시예에의 의하여 본 발명의 기술 사상이 한정되는 것으로 해석되어서는 안 된다. 본 발명의 보호 범위는 후술하는 본 발명의 특허청구범위에 의하여 특정된다.The embodiments of the present invention described in detail above are merely illustrative of the technical idea of the present invention, and should not be construed as limiting the technical idea of the present invention by the embodiments. The protection scope of the present invention is specified by the claims of the present invention described later.

도 1은 본 발명의 일 실시예에 따른 3차원 모델의 재구성 절차 전체를 보여 주는 흐름도이다.1 is a flowchart illustrating the entire reconstruction procedure of a three-dimensional model according to an embodiment of the present invention.

도 2는 도 1의 흐름도에서 중요영상 선택 과정에 대한 일례를 보여 주는 흐름도이다.FIG. 2 is a flowchart illustrating an example of a process of selecting an important image in the flowchart of FIG. 1.

도 3은 도 1의 흐름도에서 전 자동 교정 과정에 대한 일례를 보여 주는 흐름도이다.3 is a flowchart illustrating an example of a full automatic calibration process in the flowchart of FIG. 1.

도 4는 본 발명의 실시예의 효과를 실험하는데 사용된 테스트 영상 시퀀스의 일부를 보여 준다.4 shows a portion of a test image sequence used to test the effects of an embodiment of the present invention.

도 5는 테스트 영상 시퀀스 CG 영상에 대한 본 발명의 실시예의 실험 결과와 기존의 방법의 실험 결과를 비교해서 보여 주는 그래프이다.FIG. 5 is a graph showing a comparison between experimental results of an embodiment of the present invention and test results of a test image sequence CG image. FIG.

도 6은 테스트 영상 시퀀스 곰(Bear)-II 영상에 대한 본 발명의 실시예의 실험 결과와 기존의 방법의 실험 결과를 비교해서 보여 주는 그래프이다.FIG. 6 is a graph showing a comparison between experimental results of an exemplary method and experimental results of an embodiment of the present invention for a test image sequence Bear-II image.

도 7의 (a)-(d)는 본 발명의 실시예에 따른 기본행렬 추정 과정에 사용된 테스트 영상이고, 도 7의 (e) 및 (f)는 기존의 정규화된 8-점 알고리즘과 본 발명의 실시예에 이용된 대수학적 유도 알고리즘을 각각 이용한 경우의 에피폴라 에러를 보여 주는 그래프이다.7 (a)-(d) are test images used in a basic matrix estimation process according to an embodiment of the present invention, and FIGS. 7 (e) and 7 (f) are conventional normalized 8-point algorithms It is a graph showing the epipolar error when using the algebraic derivation algorithm used in the embodiment of the invention.

도 8은 기존의 정규화된 8-점 알고리즘과 본 발명의 실시예에 이용된 대수학적 유도 알고리즘을 각각 이용한 경우의, 에피폴라 거리 오차 및 재투영 오차를 보여 주는 그래프이다.8 is a graph showing the epipolar distance error and the reprojection error when using the conventional normalized eight-point algorithm and the algebraic derivation algorithm used in the embodiment of the present invention, respectively.

도 9는 기본행렬 추정 시간과 오차를 비교 실험한 결과를 보여 주는 도면이다.FIG. 9 is a diagram illustrating a result of a comparison experiment of a basic matrix estimation time and an error. FIG.

도 10은 선택된 중요영상을 이용한 전 자동 교정 실험 결과를 보여 주는 그래프이다.10 is a graph showing the results of a full automatic calibration experiment using the selected important image.

도 11은 테스트 영상 시퀀스 CG 영상에 대한 본 발명의 실시예를 이용하여 생성한 3차원 재구성 결과를 보여 주는 도면이다.FIG. 11 is a diagram illustrating a 3D reconstruction result generated using an embodiment of the present invention for a test image sequence CG image.

도 12는 테스트 영상 시퀀스 곰-II 영상에 대한 본 발명의 실시예를 이용하여 생성한 3차원 재구성 결과를 보여 주는 도면이다.FIG. 12 is a diagram illustrating a three-dimensional reconstruction result generated using an embodiment of the present invention for a test image sequence Bear-II image.

Claims (6)

영상 시퀀스로부터 3차원 모델을 재구성하기 위한 방법에 있어서,A method for reconstructing a three-dimensional model from an image sequence, 상기 영상 시퀀스의 일부는 k(k는 1이상의 정수)번째 중요영상과 상기 k번째 중요영상에 이어지는 다수의 비교영상들을 포함하고, 그리고A portion of the image sequence includes a k (k is an integer of 1 or more) th major image and a plurality of comparative images subsequent to the k th important image, and 상기 k번째 중요영상에 대한 특징점 대비 상기 비교영상들 각각의 대응점의 비율과 함께, 상기 비교영상들 각각의 재투영 오차를 이용하여 상기 비교영상들 중에서 (k+1)번째 중요영상을 선택하는 단계;Selecting a (k + 1) th important image from the comparison images by using a reprojection error of each of the comparison images together with a ratio of the corresponding points of the comparison images to the feature points of the kth important image ; 상기 영상 시퀀스 전부에서 선택된 중요영상들을 이용하여 카메라 전 자동 교정 절차를 수행하여 상기 중요영상들 각각의 투영행렬을 구하는 단계;Obtaining a projection matrix of each of the important images by performing an automatic camera calibration procedure using the selected important images in all of the image sequences; 서로 인접한 상기 중요영상의 상기 투영행렬을 이용하여 기본행렬을 구하는 단계; 및Obtaining a basic matrix using the projection matrix of the important images adjacent to each other; And 상기 기본행렬을 이용한 에피폴라 제약조건을 이용하여 상기 중요영상들 각각의 에지들에서 잡음을 제거하고, 잡음이 제거된 에지들을 이용하여 3차원 모델을 재구성하는 단계를 포함하는 3차원 모델의 재구성 방법.Removing noise from each of the edges of the important images using an epipolar constraint using the basic matrix, and reconstructing the 3D model using the edges from which the noise is removed. . 제1항에 있어서, 상기 k가 1인 중요영상은 상기 영상 시퀀스의 첫 번째 영상인 것을 특징으로 하는 3차원 모델의 재구성 방법.The 3D model reconstruction method of claim 1, wherein the key image having k is 1 is a first image of the image sequence. 제1항에 있어서, 상기 영상 시퀀스의 일부는 상기 k번째 중요영상부터 상기 비율이 제1 임계치보다 작은 영상이 처음으로 발생하는 비교영상까지의 상기 영상 시퀀스의 영상들을 포함하고, 또한 상기 (k+1)번째 중요영상은 상기 영상 시퀀스의 일부 중에서 재투영 오차가 최소가 되는 비교영상인 것을 특징으로 하는 3차원 모델의 재구성 방법.The method of claim 1, wherein a part of the image sequence comprises images of the image sequence from the kth important image to a comparison image in which an image of which the ratio is less than a first threshold is first generated, and wherein (k + The first important image is a reconstruction method of a 3D model, characterized in that the comparison image is a minimum reprojection error of a portion of the image sequence. 제3항에 있어서, 상기 (k+1)번째 중요영상은 상기 비율이 제2 임계치 이하가 되는 비교영상들 중에서 선택되며, 상기 제2 임계치는 상기 제1 임계치보다 작은 것을 특징으로 하는 3차원 모델의 재구성 방법.The 3D model of claim 3, wherein the (k + 1) th important image is selected from comparison images in which the ratio is less than or equal to a second threshold, and wherein the second threshold is smaller than the first threshold. Method of reconstruction. 제3항에 있어서, 상기 재투영 오차(R.E.)는 하기 수학식 (E-1)을 이용하여 구하는 것을 특징으로 하는 3차원 모델의 재구성 방법.The method of claim 3, wherein the reprojection error (R.E.) is calculated using the following equation (E-1).
Figure 112009037009800-pat00008
(E-1)
Figure 112009037009800-pat00008
(E-1)
여기서, Pi는 프로젝티브 투영행렬, Xj는 3차원 공간상의 임의의 점, xi j는 Xj에 대응되는 프로젝티브 좌표계의 한 점, d는 거리(distance)를 나타낸다.Here, P i is a projection projection matrix, X j is an arbitrary point in three-dimensional space, x i j is a point in the projection coordinate system corresponding to X j , and d is a distance.
제1항에 있어서, 상기 투영행렬로부터 대수학적 유도를 통해 상기 기본행렬을 계산하는 것을 특징으로 하는 3차원 모델의 재구성 방법.The method of claim 1, wherein the basic matrix is calculated through algebraic derivation from the projection matrix.
KR1020080001238A 2008-01-04 2008-01-04 Mechanism for reconstructing a 3D model using key-frames selected from image sequences KR100922273B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080001238A KR100922273B1 (en) 2008-01-04 2008-01-04 Mechanism for reconstructing a 3D model using key-frames selected from image sequences

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080001238A KR100922273B1 (en) 2008-01-04 2008-01-04 Mechanism for reconstructing a 3D model using key-frames selected from image sequences

Publications (2)

Publication Number Publication Date
KR20090075399A KR20090075399A (en) 2009-07-08
KR100922273B1 true KR100922273B1 (en) 2009-10-15

Family

ID=41332619

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080001238A KR100922273B1 (en) 2008-01-04 2008-01-04 Mechanism for reconstructing a 3D model using key-frames selected from image sequences

Country Status (1)

Country Link
KR (1) KR100922273B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101782057B1 (en) 2010-05-03 2017-09-26 삼성전자주식회사 Apparatus for building map and method thereof
KR20120011653A (en) 2010-07-29 2012-02-08 삼성전자주식회사 Image processing apparatus and method
KR101244789B1 (en) * 2011-05-11 2013-03-18 (주)판도라티비 Digital cartoon contents generating method using 3D reconstruction
CN102857778B (en) * 2012-09-10 2015-01-21 海信集团有限公司 System and method for 3D (three-dimensional) video conversion and method and device for selecting key frame in 3D video conversion
KR101976801B1 (en) * 2019-02-08 2019-05-09 주식회사 인포인 System Providing 3D Video Optimization And Compression

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100755450B1 (en) 2006-07-04 2007-09-04 중앙대학교 산학협력단 3d reconstruction apparatus and method using the planar homography

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100755450B1 (en) 2006-07-04 2007-09-04 중앙대학교 산학협력단 3d reconstruction apparatus and method using the planar homography

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
International Journal of Computer Vision(1996, 56쪽)

Also Published As

Publication number Publication date
KR20090075399A (en) 2009-07-08

Similar Documents

Publication Publication Date Title
US10334168B2 (en) Threshold determination in a RANSAC algorithm
CN107077744B (en) Method and system for three-dimensional model generation using edges
US8447099B2 (en) Forming 3D models using two images
US8433157B2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
US8452081B2 (en) Forming 3D models using multiple images
US7352386B1 (en) Method and apparatus for recovering a three-dimensional scene from two-dimensional images
EP2291825B1 (en) System and method for depth extraction of images with forward and backward depth prediction
US20130265443A1 (en) Nonlinear Self-Calibration for Structure From Motion (SFM) Techniques
Kang et al. Characterization of errors in compositing panoramic images
JP2020515931A (en) Method and apparatus for combining scene segmentation and 3D reconstruction
EP2016559A2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
EP2158573A1 (en) System and method for stereo matching of images
WO2006083297A2 (en) Method and apparatus for aligning video to three-dimensional point clouds
KR100922273B1 (en) Mechanism for reconstructing a 3D model using key-frames selected from image sequences
Ben-Artzi et al. Camera calibration from dynamic silhouettes using motion barcodes
CN111868786B (en) Cross-device monitoring computer vision system
WO2012044217A1 (en) Method and apparatus for optimization and incremental improvement of a fundamental matrix
GB2567245A (en) Methods and apparatuses for depth rectification processing
CN111062966A (en) Method for optimizing camera tracking based on L-M algorithm and polynomial interpolation
US10346949B1 (en) Image registration
KR100944293B1 (en) Mechanism for reconstructing full 3D model using single-axis turntable images
US20020109833A1 (en) Apparatus for and method of calculating lens distortion factor, and computer readable storage medium having lens distortion factor calculation program recorded thereon
CN115937002B (en) Method, apparatus, electronic device and storage medium for estimating video rotation
Pollefeys 3D from image sequences: Calibration, motion and shape recovery
Scholz et al. Calibration of real scenes for the reconstruction of dynamic light fields

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120928

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130805

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20171010

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20181022

Year of fee payment: 10