KR20080001794A - Apparatus and method for estimating fundamental matrix using robust correspondence point - Google Patents

Apparatus and method for estimating fundamental matrix using robust correspondence point Download PDF

Info

Publication number
KR20080001794A
KR20080001794A KR1020060060145A KR20060060145A KR20080001794A KR 20080001794 A KR20080001794 A KR 20080001794A KR 1020060060145 A KR1020060060145 A KR 1020060060145A KR 20060060145 A KR20060060145 A KR 20060060145A KR 20080001794 A KR20080001794 A KR 20080001794A
Authority
KR
South Korea
Prior art keywords
points
image
candidate
basic matrix
point
Prior art date
Application number
KR1020060060145A
Other languages
Korean (ko)
Other versions
KR100792172B1 (en
Inventor
윤용인
최종수
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020060060145A priority Critical patent/KR100792172B1/en
Publication of KR20080001794A publication Critical patent/KR20080001794A/en
Application granted granted Critical
Publication of KR100792172B1 publication Critical patent/KR100792172B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/45Analysis of texture based on statistical description of texture using co-occurrence matrix computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

An apparatus and a method for estimating a fundamental matrix using a robust corresponding point are provided to estimate an optimum fundamental matrix with high precision, thereby improving reliability in various fields such as multi-view image generation, camera calibration and three dimensional image reconfiguration performed from a stereo image. A feature point extracting unit(120) extracts feature points by measuring a variation amount of brightness of an image. A candidate point selecting unit(130) selects candidate points, where a score by an autocorrelation function satisfies a predetermined range, from the feature points. A candidate sorting unit(140) calculates a median vector of a motion vector for candidate points within each area after dividing each image into four, and removes candidate points deviated from a predetermined threshold value for a size and a direction of the median vector. A fundamental matrix selecting unit(150) partitions each image into 8x8 areas, selects 8 areas from the partitioned areas, selects total 8 couples of corresponding points by arbitrarily extracting one corresponding point within each of the selected areas, and calculates a fundamental matrix from the selected corresponding point. After forming epipolar geometry for the calculated fundamental matrix, the fundamental matrix selecting unit selects a fundamental matrix where a distance error between an epipolar plane component and the corresponding point is the minimum.

Description

강건한 대응점을 이용한 기본행렬 추정 장치 및 그 방법{APPARATUS AND METHOD FOR ESTIMATING FUNDAMENTAL MATRIX USING ROBUST CORRESPONDENCE POINT}Basic matrix estimation apparatus and method using robust correspondence point {APPARATUS AND METHOD FOR ESTIMATING FUNDAMENTAL MATRIX USING ROBUST CORRESPONDENCE POINT}

도 1은 에피폴라 기하학의 개념을 나타낸 예시도,1 is an exemplary view showing the concept of epipolar geometry,

도 2는 본 발명에 따른 기본행렬 추정 장치의 개략적 구성도,2 is a schematic structural diagram of a basic matrix estimating apparatus according to the present invention;

도 3은 4등분 분할된 영상에서 후보점에 대한 움직임 벡터를 나타낸 예시도,3 is an exemplary diagram illustrating a motion vector for a candidate point in a quadrant divided image;

도 4는 대응점들을 포함하는 8×8 영역 분할을 나타낸 예시도,4 is an exemplary diagram illustrating 8 × 8 region division including corresponding points;

도 5는 본 발명에 따른 기본행렬 추정 방법에 대한 개략적 흐름도,5 is a schematic flowchart of a basic matrix estimation method according to the present invention;

도 6a는 '건물' 영상에 대해 본 발명에 따른 방법과 RANSAC 방법에 의한 결과를 보인 영상,Figure 6a is an image showing the results of the method according to the invention and the RANSAC method for the 'building' image,

도 6b는 도 6a의 처리 결과를 나타낸 표,6B is a table showing the results of the process in FIG. 6A;

도 7a는 '캐슬' 영상에 대해 본 발명에 따른 방법과 RANSAC 방법에 의한 결과를 보인 영상,7A is an image showing results of a method according to the present invention and a RANSAC method for a 'castle' image,

도 7b는 도 7b의 처리 결과를 나타낸 표.7B is a table showing the results of the process in FIG. 7B.

** 도면의 주요 부분에 대한 부호의 설명 **** Description of symbols for the main parts of the drawing **

100 : 기본행렬 추정 장치 110 : 영상 입력수단100: basic matrix estimation apparatus 110: image input means

120 : 특징점 추출수단 130 : 후보점 선택수단120: feature point extraction means 130: candidate point selection means

140 : 후보점 선별수단 150 : 기본행렬 선택수단140: candidate point selection means 150: basic matrix selection means

본 발명은 강건한 대응점을 이용한 기본행렬 추정 장치 및 그 방법에 관한 것으로서, 특히 비교정된(un-calibrated) 두 장의 좌우 영상으로부터 에피폴라 기하학(epipolar geometry)을 통한 강건한 대응점을 추출함으로써 최적의 기본행렬을 추정하는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for estimating a basic matrix using robust correspondence points, and in particular, an optimal basic matrix by extracting robust correspondence points through epipolar geometry from two un-calibrated left and right images. An apparatus and method for estimating the same are provided.

자연 영상에서의 대응점(correspondence point) 추출은, 다중영상 생성(multi-view image generation)[1], 카메라 교정(camera calibration)[2], 스테레오 영상으로부터의 3차원 영상 재구성[3]과 같은 다양한 분야에서 중요한 역할을 한다.Correspondence point extraction from natural images can be used in a variety of ways, including multi-view image generation [1], camera calibration [2], and three-dimensional image reconstruction from stereo images [3]. Plays an important role in the field

위 스테레오 영상의 경우, 중복 촬영된 임의의 영상으로부터 3차원 정보를 얻기 위한 기술로서, 로봇 네비게이션은 물론 가상현실 등의 분야에서 다양하게 이용된다. 3차원 공간에서 임의의 한 점이 대상 스테레오 영상에 각각 투영되면, 두 영상간에는 대응점이 나타나고, 이들의 관계는 에피폴라 기하학으로 설명될 수 있다. 에피폴라 기하학을 이용할 경우, 두 대의 카메라에 대한 상대적인 기하정보를 포함하고 있는 기본행렬(fundamental matrix)을 유도할 수 있으며, 대상 영상에 존재하는 한 점에 대응하는 대응점을 다른 영상에서 찾는 특징점 정합 과정을 수행할 수 있게 된다.In the case of the stereo image, as a technique for obtaining 3D information from an arbitrary image of the overlapped image, it is variously used in fields such as virtual reality as well as robot navigation. When any one point in the three-dimensional space is respectively projected on the target stereo image, a corresponding point appears between the two images, and their relationship can be described by epipolar geometry. Using epipolar geometry, we can derive a fundamental matrix containing the relative geometric information of two cameras, and find the corresponding point in the other image in the other image. Will be able to perform

도 1을 참조하여 에피폴라 기하학에 대해 개략적으로 살펴보면, 먼저 두 대의 카메라에서 획득된 영상 사이의 관계는, 점과 점의 대응이 아닌, 점과 선의 대응으로 정의될 수 있다는 것이 요지라 할 수 있다. 공간의 임의의 점

Figure 112006046975810-PAT00001
을 서로 다른 위치의 카메라(
Figure 112006046975810-PAT00002
,
Figure 112006046975810-PAT00003
)에 의한 이미지 평면(
Figure 112006046975810-PAT00004
,
Figure 112006046975810-PAT00005
)에 투영하면, 각각의 영상에 점
Figure 112006046975810-PAT00006
Figure 112006046975810-PAT00007
로 맺히며, 이러한 두 점을 대응점이라고 한다. 공간상의 점
Figure 112006046975810-PAT00008
과 두 카메라가 이루는 평면은 에피폴라 평면이며, 에피폴라 평면과 영상 평면이 교차하는 선을 에피폴라 선(
Figure 112006046975810-PAT00009
,
Figure 112006046975810-PAT00010
)이라고 하고, 두 카메라를 연결하는 선분과 각 영상 평면의 교점을 에피폴(
Figure 112006046975810-PAT00011
,
Figure 112006046975810-PAT00012
)이라고 한다. 여기서 공간상의 점 M은 투영된 점
Figure 112006046975810-PAT00013
,
Figure 112006046975810-PAT00014
는 에피폴라 선상에 존재하며, 이를 에피폴라 구속 조건이라고 한다. Referring to FIG. 1, the epipolar geometry is briefly described. First of all, the relationship between the images obtained from two cameras may be defined as a point-to-line correspondence, not a point-to-point correspondence. . Random point in space
Figure 112006046975810-PAT00001
At different locations
Figure 112006046975810-PAT00002
,
Figure 112006046975810-PAT00003
Image plane by
Figure 112006046975810-PAT00004
,
Figure 112006046975810-PAT00005
), A dot on each image
Figure 112006046975810-PAT00006
and
Figure 112006046975810-PAT00007
These two points are called correspondence points. Point in space
Figure 112006046975810-PAT00008
The plane formed by the two cameras is the epipolar plane, and the epipolar line (the line where the epipolar plane and the image plane intersect)
Figure 112006046975810-PAT00009
,
Figure 112006046975810-PAT00010
), And the intersection of the two cameras and the intersection of each image plane is called epipole (
Figure 112006046975810-PAT00011
,
Figure 112006046975810-PAT00012
It is called). Where point M in space is the projected point
Figure 112006046975810-PAT00013
,
Figure 112006046975810-PAT00014
Is on the epipolar line and is called epipolar constraint.

이에 대한 대수적 표현이 앞서 언급한 기본행렬(F)이며, 아래의 [수학식 1]과 같은 조건을 만족한다.The algebraic expression for this is the basic matrix (F) mentioned above, and satisfies the condition as shown in Equation 1 below.

Figure 112006046975810-PAT00015
................................. [수학식 1]
Figure 112006046975810-PAT00015
............... Equation 1

현재, 두 장의 영상 간에 대응점을 정확히 찾는 문제는 컴퓨터 시각(computer vision) 분야에 있어서 중요한 과제로 남아 있다. 이 과제의 제한 조건은 영상에 대한 일체 기지(旣知)의 정보 없이 두 영상간의 기하학적 정보만이 있다는 것이다. 영상 정합 방법은 크게 두 가지로 분류할 수 있다. 하나는 형판(template) 정합으로 영상 간의 밝기 값에서 상관관계를 알고리즘을 말하며, 유사한 화소 값을 찾아내는 것이다[4]. 다른 하나는 특징 정합으로써 두 영상 간에 특징이 있는 정보를 추출하는 알고리즘을 말한다[5].Currently, the problem of accurately finding the correspondence between two images remains an important challenge in the field of computer vision. The limitation of this task is that there is only geometric information between two images without any known information about the image. There are two types of image matching methods. One is template matching, which is an algorithm that correlates brightness values between images and finds similar pixel values [4]. The other is a feature matching algorithm that extracts feature information between two images [5].

현재까지 기본행렬을 추정하기 위한 여러 가지 알고리즘이 연구되었는데, 예를 들어, 직접방법, 반복적 방법 및 강건한 방법 등이 알려져 있다.To date, various algorithms for estimating the basic matrix have been studied. For example, a direct method, an iterative method, and a robust method are known.

직접방법은 7 또는 8개 이상의 대응점 쌍에 대하여 최소 자승법으로 기본행렬을 신속히 추정할 수 있지만, 영상 노이즈 등에 의하여 영향을 많이 받게 되는 단점이 있다. 반복적 방법은 최적화 기법을 기반으로 하며, 선형 방법보다 보다 정확한 결과를 얻을 수 있지만 수행 시간이 오래 걸리며, 위치 오차와 불일치 오차에 의한 영향을 줄일 수 없다는 단점이 있다. 한편, 비교적 최근에 제안된 강건한 방법은, 대상 영상의 양자화 등에 의한 위치 오차 또는 잘못된 매칭 오차에 의한 아웃라이어(outlier)의 영향을 줄일 수 있는 장점이 있는데, 그 대표적인 예가 M.Fischer 등이 제안한 RANSAC과 같은 방법이다[6].The direct method can quickly estimate the basic matrix by the least-square method for seven or eight pairs of matching points, but has a disadvantage of being affected by image noise. The iterative method is based on the optimization method, and it has more disadvantages than the linear method, but it takes longer to execute, and it is not possible to reduce the effects of position error and mismatch error. On the other hand, the relatively robust method proposed recently has the advantage of reducing the effect of outliers due to erroneous matching errors or positional errors due to quantization of the target image, a representative example of which is RANSAC proposed by M.Fischer et al. [6].

RANSAC 방법에 의하면, 초기 대응되는 후보점들을 기반으로 직접 에피폴라 기하학을 구성하면서 잘못된 대응점들을 하나씩 제거해 나가는 방식을 취하고 있다. 그러나 이 방법의 경우, 알고리즘에 포함시키는 몇 가지 임계값들을 경정하는데 있어서 초기에 얻어진 특징점들의 분포와 대응 후보점들의 위치에 따라서 실험적으로 그 값을 결정해야 하고, 계산된 값들 중에 임계값들에 대한 결과는 상황에 따라서 큰 차이를 보이는바, 실제 적용에 있어서 많은 제약이 따른다.According to the RANSAC method, the epipolar geometry is directly constructed based on the corresponding candidate points, and the wrong correspondence points are removed one by one. However, in this method, in determining some thresholds included in the algorithm, the values must be determined experimentally according to the distribution of the feature points obtained earlier and the positions of the corresponding candidate points, and among the calculated values, The results vary greatly depending on the situation, and there are many restrictions in the practical application.

Z. Zhang의 경우에도 주변 대응점들과 상호 거리 정보를 이용하여 초기 대응된 후보점들 가운데 잘못된 후보점들을 제거하는 알고리즘이 포함되어 있지만, 상호 거리 정보를 이용하기 때문에 큰 오차를 가지는 하나의 후보점 쌍에 대해서 주변의 대응 후보점들이 모두 제거되는 등의 비교적 안정적이지 못한 결과를 보이고 있다[7].Z. Zhang also includes an algorithm that removes invalid candidates among initial matched candidate points using neighboring correspondence points and mutual distance information, but one candidate point that has a large error because it uses mutual distance information. Relatively unstable results such as the removal of all the corresponding candidate points for the pair are shown [7].

문 헌 정 보Statement

[1] R. Hartly and A. Zisserman, Multiple View Geometry in Computer Vision, Cambridge University Press, 2000.[1] R. Hartly and A. Zisserman, Multiple View Geometry in Computer Vision, Cambridge University Press, 2000.

[2] Z. Zhang, "A Flexible New Techinque for Camera Calibration," IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp. 1-20, 1998.[2] Z. Zhang, "A Flexible New Techinque for Camera Calibration," IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp. 1-20, 1998.

[3] R. Cipolla and E. Boyer, "3D Model Acquisition from Uncalibrated Images," IAPR Workshop on Machine Vision Applications, pp. 559-568, 1998.[3] R. Cipolla and E. Boyer, "3D Model Acquisition from Uncalibrated Images," IAPR Workshop on Machine Vision Applications, pp. 559-568, 1998.

[4] P. Fua, "A Parallel Stereo Algorithm that Produces Dense Depth Maps and Preserves Image Features," Machine Vision and Applications, vol. 6, no. 1, 1993.[4] P. Fua, "A Parallel Stereo Algorithm that Produces Dense Depth Maps and Preserves Image Features," Machine Vision and Applications, vol. 6, no. 1, 1993.

[5] R. Horaud and T. Skordas, "Stereo Correspondence Through Feature Grouping and Maximal Cliques," IEEE Trans. PAM, vol. 11, no 12, pp. 1310-1180, 1989.[5] R. Horaud and T. Skordas, "Stereo Correspondence Through Feature Grouping and Maximal Cliques," IEEE Trans. PAM, vol. 11, no 12, pp. 1310-1180, 1989.

본 발명은 전술한 문제점들을 해결하기 위해 창안된 것으로서, 본 발명의 주된 목적은 비교정된 두 장의 영상으로부터 잘못된 대응점이 추출되는 것을 최소화시킴으로써, 종래에 비해 정확도가 높은 최적의 기본행렬을 추정할 수 있는 장치 및 방법을 제공함에 있다.The present invention was devised to solve the above-mentioned problems, and a main object of the present invention is to minimize the extraction of wrong correspondence points from two compared images, thereby to estimate an optimal basic matrix with higher accuracy than the conventional one. The present invention provides an apparatus and method.

도 2는 본 발명의 기본행렬 추정 장치(100)에 대한 개략적인 구성을 나타낸 도면으로서, 영상 입력수단(110), 특징점 추출수단(120), 후보점 선택수단(130), 후보점 선별수단(140) 및 기본행렬 선택수단(150)으로 구성되어 있다.2 is a view showing a schematic configuration of the basic matrix estimation apparatus 100 of the present invention, the image input means 110, the feature point extraction means 120, the candidate point selection means 130, the candidate point selection means ( 140) and basic matrix selecting means (150).

영상 입력수단(110)은 비교정된(un-calibrated) 좌우 영상(10)을 입력 받으며, 특징점 추출수단(120)은 밝기 정보만을 포함하도록 처리된 좌우 영상에 대해 밝기의 변화량을 측정함으로써 특징점을 추출한다.The image input unit 110 receives an un-calibrated left and right image 10, and the feature point extracting unit 120 measures a change in brightness of the left and right images processed to include only brightness information. Extract.

여기서, 특징점 추출은 종래의 Harris 모서리 탐색 방법에 따른 아래의 [수학식 2]를 통해 이루어진다[참조 논문: C. Harris and M.Stephens, "A combined corner and edge detector", 4th Alvey Vision Conference, pp.147-151, 1988]. Here, feature point extraction is performed through Equation 2 below according to the conventional Harris edge search method [Reference papers: C. Harris and M. Stephens, "A combined corner and edge detector", 4th Alvey Vision Conference, pp. 147-151, 1988.

Figure 112006046975810-PAT00016
.......................... [수학식 2]
Figure 112006046975810-PAT00016
........... [ Equation 2 ]

상기 수학식의

Figure 112006046975810-PAT00017
는 다음과 같은 행렬 요소를 갖는다.Of the above equation
Figure 112006046975810-PAT00017
Has the following matrix elements:

Figure 112006046975810-PAT00018
Figure 112006046975810-PAT00018

단, 밝기 영상

Figure 112006046975810-PAT00019
에서
Figure 112006046975810-PAT00020
Figure 112006046975810-PAT00021
Figure 112006046975810-PAT00022
Figure 112006046975810-PAT00023
방향으로의 미분을 나타낸다.Brightness video
Figure 112006046975810-PAT00019
in
Figure 112006046975810-PAT00020
Wow
Figure 112006046975810-PAT00021
Is
Figure 112006046975810-PAT00022
Wow
Figure 112006046975810-PAT00023
The derivative in the direction is shown.

후보점 선택수단(130)은 상기 좌우 영상에서 추출된 특징점들로부터 상관함수에 따른 상관도가 소정 범위를 만족하는 후보 대응점(이하, '후보점')을 선택하는데, 보다 구체적으로 좌우 영상에 상관함수를 적용하기 위한 상관 윈도우의 크기 는 해당 중심점에 대해서

Figure 112006046975810-PAT00024
로 설정하고, 두 번째 영상에서 중심점 주위로 사각형의 검색 영역의 크기를
Figure 112006046975810-PAT00025
로 설정한 후, 첫 번째 영상에서의 후보점
Figure 112006046975810-PAT00026
과 두 번째 영상에서의 검색 영역 안에 놓여있는 후보점
Figure 112006046975810-PAT00027
사이의 상관성을 검사한다.The candidate point selecting unit 130 selects candidate correspondence points (hereinafter, referred to as 'candidate points') whose correlation degree satisfies a predetermined range from the feature points extracted from the left and right images. The size of the correlation window for applying the function is
Figure 112006046975810-PAT00024
To set the size of the rectangle's search area around the center point
Figure 112006046975810-PAT00025
After setting to, the candidate point in the first image
Figure 112006046975810-PAT00026
Candidates placed in the search region in the second and second images
Figure 112006046975810-PAT00027
Check the correlation between.

따라서 앞서 언급한 상관함수는 아래의 [수학식 3]으로 정의된다.Therefore, the aforementioned correlation function is defined by Equation 3 below.

[수학식 3] [ Equation 3 ]

Figure 112006046975810-PAT00028
Figure 112006046975810-PAT00028

여기서, score는 상관도를 의미하며,Here, score means correlation.

Figure 112006046975810-PAT00029
이고,
Figure 112006046975810-PAT00029
ego,

Figure 112006046975810-PAT00030
는 점 (
Figure 112006046975810-PAT00031
,
Figure 112006046975810-PAT00032
)에서의 평균을 나타내며,
Figure 112006046975810-PAT00033
는 (
Figure 112006046975810-PAT00034
,
Figure 112006046975810-PAT00035
)의 이웃하는
Figure 112006046975810-PAT00036
에서 영상
Figure 112006046975810-PAT00037
의 표준 편차를 나타내고, 상기
Figure 112006046975810-PAT00038
는 아래와 같이 정의된다.
Figure 112006046975810-PAT00030
Points (
Figure 112006046975810-PAT00031
,
Figure 112006046975810-PAT00032
) Mean,
Figure 112006046975810-PAT00033
Is (
Figure 112006046975810-PAT00034
,
Figure 112006046975810-PAT00035
Neighbors
Figure 112006046975810-PAT00036
Video from
Figure 112006046975810-PAT00037
Represents the standard deviation of
Figure 112006046975810-PAT00038
Is defined as

Figure 112006046975810-PAT00039
Figure 112006046975810-PAT00039

또한,

Figure 112006046975810-PAT00040
Figure 112006046975810-PAT00041
는 각각 좌우 영상의 해당 화소 값을 나타내고,
Figure 112006046975810-PAT00042
Figure 112006046975810-PAT00043
은 상관관계를 계산하는 영역의 크기를 나타내며, 일반적으로
Figure 112006046975810-PAT00044
=7,
Figure 112006046975810-PAT00045
=7을 사용한다. Also,
Figure 112006046975810-PAT00040
Wow
Figure 112006046975810-PAT00041
Respectively represent corresponding pixel values of the left and right images,
Figure 112006046975810-PAT00042
and
Figure 112006046975810-PAT00043
Represents the size of the area for which the correlation is calculated,
Figure 112006046975810-PAT00044
= 7,
Figure 112006046975810-PAT00045
Use = 7.

상관도(score)의 범위는 위에서 정의한 [수학식 3]에서 보듯이 정규 화(normalization)를 거쳤기 때문에 -1에서 1사이의 값을 가지면 두 영상의 상관도가 정확히 일치하는 경우에는 이론적으로 1의 값을 갖게 된다. 본 발명에서는 임계값을 0.8로 설정하여, 상관도가 0.8이상 1이하의 값을 갖는 후보점들이 상기 추출된 좌우 영상의 특징점들로부터 선택되는 것으로 하겠으나, 본 발명이 이에 한정되는 것은 아니다.Since the range of the correlation has been normalized as shown in Equation 3 defined above, a value between -1 and 1 can theoretically be 1 if the correlation between the two images is exactly the same. It will have a value. In the present invention, by setting the threshold value to 0.8, candidate points having a correlation value of 0.8 or more and 1 or less will be selected from feature points of the extracted left and right images, but the present invention is not limited thereto.

이때 [수학식 3]은 영상 내의 모든 화소 값에 대해서가 아닌 초기 후보점(특징점)에 대해서만 연산을 수행하기 때문에 종래에 비해 처리 속도를 향상시킬 수 있다.At this time, since Equation 3 performs calculation only on initial candidate points (feature points), not on all pixel values in the image, the processing speed can be improved compared to the conventional method.

참고적으로 상술한 상관함수 및 상관 윈도우에 관한 보다 상세한 기술적 내용은 Z. Zhang의 논문에서 참조 가능하다[Z. Zhang, R. Deriche, O. Faugeras, and Q.-T. Luong, "A Robust Technique for Matching Two Uncalibrated Images Through the Recovery of the Unknown Epipolar Geometry," Artificial Intelligence Journal, vol. 78, pp. 87-119, 1995].For reference, more detailed technical information regarding the above-described correlation function and correlation window can be found in Z. Zhang's paper [Z. Zhang, R. Deriche, O. Faugeras, and Q.-T. Luong, "A Robust Technique for Matching Two Uncalibrated Images Through the Recovery of the Unknown Epipolar Geometry," Artificial Intelligence Journal, vol. 78, pp. 87-119, 1995].

한편, 후보점 선별수단(140)은 앞서 언급한바와 같이 선택된 후보점들 중에서 잘못된 후보점들을 제거하는 기능을 수행하는데, 이는 선택된 후보점들에 대한 움직임 벡터(motion vector)를 기반으로 미디언 벡터(median vector)를 산출하고, 산출된 미디언 벡터의 크기 및 방향에 대한 임계값을 벗어나는 후보점들을 제거함으로써 올바른 후보점들이 선별된다.Meanwhile, the candidate point selecting means 140 performs a function of removing wrong candidate points from the selected candidate points as described above, which is based on a median vector based on a motion vector of the selected candidate points. Correct candidate points are selected by calculating a median vector and removing candidate points that deviate from a threshold for the magnitude and direction of the calculated median vector.

구체적으로 도 3에 도시된 바와 같이 좌우 영상 각각에 대해 4등분 분할하여 각 영역 내에서 대표되는 움직임 벡터를 찾아낸다. 이때 상기 움직임 벡터의 대표 값은 해당 영역 내에서 빈도가 가장 높은 값이어야 하므로 평균값이 아닌 중간 값을 취한다. 각 영역의 대표 값으로 찾아진 미디언 벡터를 기반으로 크기와 방향에 대한 소정 임계값을 벗어나는 후보점들을 제거한다. 본 발명에서 소정 임계값은 영상마다 실험적으로 찾아내는 것이 바람직하다.In detail, as shown in FIG. 3, the motion vector represented in each region is found by dividing the left and right images into four equal parts. In this case, since the representative value of the motion vector should be the highest value in the corresponding region, the representative value of the motion vector is taken as an intermediate value rather than an average value. Based on the median vector found as the representative value of each region, candidate points that deviate from a predetermined threshold for size and direction are removed. In the present invention, it is preferable to find a predetermined threshold experimentally for each image.

각 구간의 미디언 벡터를

Figure 112006046975810-PAT00046
라하고, 해당 영역에 포함된 각 후보점들의 움직임 벡터를
Figure 112006046975810-PAT00047
라 하면,
Figure 112006046975810-PAT00048
의 크기에 해당하는
Figure 112006046975810-PAT00049
성분과 방향에 해당하는
Figure 112006046975810-PAT00050
성분에 대해서 아래와 같이 두 가지의 경우(조건식 ①,②)에 잘못된 후보점으로 판별한다.The median vector of each interval
Figure 112006046975810-PAT00046
The motion vector of each candidate point included in the corresponding area
Figure 112006046975810-PAT00047
Say,
Figure 112006046975810-PAT00048
Corresponds to the size of
Figure 112006046975810-PAT00049
Corresponding to components and directions
Figure 112006046975810-PAT00050
In the following two cases (components ① and ②), components are identified as wrong candidate points.

Figure 112006046975810-PAT00051
> 크기 임계값①
Figure 112006046975810-PAT00051
> Size threshold

Figure 112006046975810-PAT00052
> 방향 임계값②
Figure 112006046975810-PAT00052
Direction threshold

다음으로 기본행렬 선택수단(150)은 상기 선별된 후보점들, 즉 대응점들로부터 8점 알고리즘을 통해 기본행렬을 계산하되, 에피폴라 기하학을 기반으로 에피폴라 평면 해당 대응점 간의 거리 오차가 최소인 행렬을 최적의 기본행렬(

Figure 112006046975810-PAT00053
)로 선택한다.Next, the basic matrix selecting means 150 calculates a basic matrix from the selected candidate points, that is, corresponding points through an eight-point algorithm, but has a minimum distance error between corresponding corresponding points on the epipolar plane based on the epipolar geometry. Is the optimal base matrix (
Figure 112006046975810-PAT00053
Select with).

이러한 기본행렬 선택수단(150)은 RANSAC(RANdom SAmple Consensus) 방법을 이용하고 있으나 다음과 같은 차이가 있다.The basic matrix selecting means 150 uses the RANSAC (RANdom SAmple Consensus) method, but there are differences as follows.

첨부된 도 4에 보인바와 같이 영상에 대해서 대응점들을 포함하는 사각 테두리를 씌우고 그 테두리를 8×8 영역으로 구획하여 8개의 영역을 임의로 선택한 후, 선택된 각 영역 내에서 하나의 대응점을 임의로 뽑아 전체적으로 8쌍의 대응점을 얻어내어 8점 알고리즘을 통해 기본행렬을 계산한다. 이에 대한 기초적 기술적 내용은 L. Higgins의 논문에서 참조 가능하다[L. Higgins, "A Computer Algorithm for Reconstructing a Scene from Two Projections," Nature, vol. 293, pp. 133-135, 1981].As shown in FIG. 4, a rectangular border including corresponding points is covered with an image, the border is divided into 8 × 8 areas, and eight areas are randomly selected, and one corresponding point is randomly selected within each selected area. The pairs of matching points are obtained and the basic matrix is computed through the 8-point algorithm. Basic technical details on this can be found in the paper by L. Higgins [L. Higgins, "A Computer Algorithm for Reconstructing a Scene from Two Projections," Nature, vol. 293, pp. 133-135, 1981.

이러한 과정으로 반복적으로 계산된 기본행렬 중에서, 에피폴라 평면의 기하학을 형성하여 에피폴라 평면 선분과 해당 대응점 간의 거리 오차를 계산하는 아래의 [수학식 4]의 값이 최소가 되는 행렬이 최적의 기본행렬로서 선택된다.Among the basic matrices repeatedly calculated by this process, the matrix that minimizes the value of [Equation 4] below to form the geometry of the epipolar plane and calculate the distance error between the epipolar plane segment and the corresponding point is optimal. It is selected as a matrix.

Figure 112006046975810-PAT00054
......................... [수학식 4]
Figure 112006046975810-PAT00054
......................... [Equation 4]

상술한 바를 토대로 본 발명의 기본행렬 추정 방법은 도 5와 같이 정리될 수 있다.Based on the above description, the basic matrix estimation method of the present invention can be arranged as shown in FIG. 5.

먼저, 밝기 정보만을 포함하도록 처리된 좌우 영상에 대해 밝기의 변화량을 측정하여 특징점을 추출한다(S501). 이는 [수학식 2]의 Harris 모서리 탐색 방법으로 이루어진다.First, a feature point is extracted by measuring an amount of change in brightness of a left and right image processed to include only brightness information (S501). This is accomplished by the Harris edge search method of [Equation 2].

뒤미처 [수학식 3]에서 보인 상관함수를 근간으로 상기 추출된 특징점들 중에서 소정 범위의 상관도(score)를 만족하는 후보점을 선택한다(S502).Based on the correlation function shown in Equation 3, a candidate point satisfying a predetermined range of scores is selected from the extracted feature points (S502).

좌우 영상 각각을 4등분 분할하고(S503), 각 영역마다 상기 S502 과정에서 선택된 후보점들에 대한 움직임 벡터를 기반으로 미디언 벡터를 산출한 후(S504), 각 영역마다 산출된 미디언 벡터의 크기 및 방향에 대해 임계값을 벗어나는 후보점 들을 제거한다(S505). 이때의 임계값은 영상마다 달리 설정될 수 있으며, 앞서 설명한 두 가지 조건식에 의해 잘못된 후보점들이 판별된다.Each of the left and right images is divided into four sections (S503), and a median vector is calculated based on the motion vectors of the candidate points selected in step S502 for each region (S504), and then the median vector calculated for each region is calculated. The candidate points deviating from the threshold for the size and the direction are removed (S505). At this time, the threshold may be set differently for each image, and wrong candidate points are determined by the two conditional expressions described above.

다음으로 좌우 영상 각각에 대해 대응점들을 포함하는 사각 테두리를 설정하고, 상기 테두리를 8×8 영역으로 구획하여(S506), 구획된 영역(64개) 중 8개의 영역을 임의로 선택한 후(S507), 선택된 각 영역 내에서 임의로 하나의 대응점을 선택하여, 총 8쌍의 대응점을 선택한다(S580). Next, a rectangular border including corresponding points is set for each of the left and right images, and the border is divided into 8 × 8 areas (S506), and eight areas of the partitioned areas (64) are arbitrarily selected (S507). One corresponding point is arbitrarily selected within each selected area, and a total of eight pairs of corresponding points are selected (S580).

선택된 8쌍의 대응점을 기반으로 8점 알고리즘을 통해 기본행렬을 계산하고(S509), 에피폴라 기하학을 형성하여 에피폴라 평면 선분과 해당 대응점 사이의 거리 오차를 계산한다(S510). 오차 계산은 [수학식 4]를 이용한다.Based on the selected eight pairs of matching points, a basic matrix is calculated through an eight-point algorithm (S509), and an epipolar geometry is formed to calculate a distance error between the epipolar plane line segment and the corresponding corresponding point (S510). Error calculation is performed using Equation 4.

상술한 S507 과정 내지 S510 과정을 반복 수행하여, 거리 오차가 최소인 기본행렬을 선택한다(S511).The above-described steps S507 to S510 are repeatedly performed to select a basic matrix having a minimum distance error (S511).

[[ 실 험 예Experimental example ]]

상술한 기술적 사상에 대한 모의실험을 위해 펜티엄IV 1.4GHz, 256M DDR 사양의 IBM-PC를 이용한다. 본 실험예에서는 최적의 기본행렬에 대해서 에피폴라 평면 선분을 도시하는 것과 그에 해당하는 거리 오차들의 평균을 수치적으로 제시한다. 아울러 본 실험과의 성능비교를 위해 일반적으로 많이 사용되는 RANSAC 방법을 적용한 결과를 제시한다.For simulation of the above-mentioned technical ideas, IBM-PC of Pentium IV 1.4GHz, 256M DDR specification is used. In this experimental example, the epipolar plane segment is plotted against the optimal elementary matrix and the mean of the corresponding distance errors is presented numerically. In addition, the results of applying the RANSAC method, which is commonly used for performance comparison, are presented.

첨부도면 도 6a는 '건물' 영상에 대해 본 발명에 따른 방법과 RANSAC 방법에 의한 결과 영상을 보이고 있고, 도 6b는 양자 방법에 의한 처리 결과를 표로서 정리하고 있다. 또한, 도 7a는 '캐슬' 영상에 대해 본 발명에 따른 방법과 RANSAC 방 법에 의한 결과 영상을 보이고 있으며, 도 7b는 양자 방법에 의한 처리 결과를 표로서 정리하고 있다.FIG. 6A shows a result image by the method according to the present invention and a RANSAC method for a 'building' image, and FIG. 6B summarizes the result of processing by the quantum method as a table. In addition, Figure 7a shows the result image by the method according to the invention and the RANSAC method for the 'castle' image, Figure 7b summarizes the results of the processing by the quantum method as a table.

결과적으로 본 발명이 제시한 방법은 종래의 RANSAC 방법보다 잘못된 대응 후보점들이 제어되었음에도 불구하고 최종적으로 구해진 대응점의 수가 더 많고, 거리 오차도 작아졌다는 것을 알 수 있다.As a result, it can be seen that the method proposed by the present invention has a larger number of finally obtained correspondence points and a smaller distance error even though erroneous correspondence points are controlled than the conventional RANSAC method.

상기와 같은 본 발명에 따르면, 종래에 비해 정확도가 높은 최적의 기본행렬을 추정할 수 있는 특유의 효과가 있다. 따라서 다중영상 생성, 카메라 교정, 스테레오 영상으로부터의 3차원 영상 재구성과 같은 다양한 분야에서 신뢰도를 높일 수 있는 주요 기술적 요인으로 작용할 것이다.According to the present invention as described above, there is a peculiar effect that can estimate the optimal basic matrix with a higher accuracy than the prior art. Therefore, it will act as a major technical factor to increase the reliability in various fields such as multi-image generation, camera calibration, and 3D image reconstruction from stereo images.

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다. As described above and described with reference to a preferred embodiment for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described as described above, it is a deviation from the scope of the technical idea It will be understood by those skilled in the art that many modifications and variations can be made to the invention without departing from the scope of the invention. Accordingly, all such suitable changes and modifications and equivalents should be considered to be within the scope of the present invention.

Claims (9)

비교정된 좌우 영상으로부터 기본행렬을 추정하는 장치로서,An apparatus for estimating a basic matrix from a comparative left and right image, 상기 영상에 대해 밝기의 변화량을 측정하여 특징점을 추출하는 특징점 추출수단;Feature point extracting means for extracting feature points by measuring an amount of change in brightness of the image; 상기 특징점들로부터 상관함수에 따른 상관도(score)가 소정 범위를 만족하는 후보점을 선택하는 후보점 선택수단;Candidate point selecting means for selecting candidate points whose scores satisfy a predetermined range from the feature points according to a correlation function; 각 영상을 4등분 분할하여 각 영역 내의 후보점들에 대한 움직임 벡터의 미디언 벡터를 산출하고, 상기 미디언 벡터의 크기와 방향에 대한 소정 임계값을 벗어나는 후보점들을 제거하는 후보점 선별수단; 및Candidate point selecting means for dividing each image into quadrants to calculate a median vector of motion vectors for candidate points in each region, and removing candidate points that deviate from predetermined thresholds for the magnitude and direction of the median vector; And 각 영상을 8×8 영역으로 구획하여, 구획된 영역 중 8개의 영역을 선택한 후, 선택된 각 영역 내에서 하나의 대응점을 임의로 추출하여 총 8쌍의 대응점을 선택하고, 선택된 대응점으로부터 기본행렬을 계산하되, 계산된 기본행렬에 대해 에피폴라 기하학을 형성하여 에피폴라 평면 선분과 해당 대응점 간의 거리 오차가 최소인 기본행렬을 선택하는 기본행렬 선택수단; 을 포함하는 것을 특징으로 하는 강건한 대응점을 이용한 기본행렬 추정 장치.Each image is divided into 8x8 areas, eight areas are selected from the partitioned areas, and one corresponding point is randomly extracted within each selected area to select a total of eight pairs of matching points, and a basic matrix is calculated from the selected points. Basic matrix selecting means for forming an epipolar geometry with respect to the calculated basic matrix to select a basic matrix having a minimum distance error between the epipolar plane segment and the corresponding point; Basic matrix estimation apparatus using a robust corresponding point, characterized in that it comprises a. 청구항 1에 있어서,The method according to claim 1, 상기 특징점 추출수단은,The feature point extraction means, Harris 모서리 탐색 방법을 이용하여 특징점을 추출하는 것을 특징으로 하는 강건한 대응점을 이용한 기본행렬 추정 장치.A basic matrix estimation apparatus using robust correspondence points, which is characterized by extracting feature points using Harris edge search method. 청구항 1에 있어서,The method according to claim 1, 상기 상관도는 아래의 수학식에 의해 산출되는 것을 특징으로 하는 강건한 대응점을 이용한 기본행렬 추정 장치.The correlation coefficient base matrix estimation apparatus using a robust corresponding point, characterized in that calculated by the following equation. [수학식] [ Equation ]
Figure 112006046975810-PAT00055
Figure 112006046975810-PAT00055
여기서,
Figure 112006046975810-PAT00056
,
Figure 112006046975810-PAT00057
here,
Figure 112006046975810-PAT00056
,
Figure 112006046975810-PAT00057
단,
Figure 112006046975810-PAT00058
는 점 (
Figure 112006046975810-PAT00059
,
Figure 112006046975810-PAT00060
)에서의 평균을 나타내며,
Figure 112006046975810-PAT00061
는 (
Figure 112006046975810-PAT00062
,
Figure 112006046975810-PAT00063
)의 이웃하는
Figure 112006046975810-PAT00064
에서 영상
Figure 112006046975810-PAT00065
의 표준 편차를 나타내고,
Figure 112006046975810-PAT00066
Figure 112006046975810-PAT00067
는 각각 좌우 영상의 해당 화소 값을 나타내고,
Figure 112006046975810-PAT00068
Figure 112006046975810-PAT00069
은 상관관계를 계산하는 영역의 크기를 의미함.
only,
Figure 112006046975810-PAT00058
Points (
Figure 112006046975810-PAT00059
,
Figure 112006046975810-PAT00060
) Mean,
Figure 112006046975810-PAT00061
Is (
Figure 112006046975810-PAT00062
,
Figure 112006046975810-PAT00063
Neighbors
Figure 112006046975810-PAT00064
Video from
Figure 112006046975810-PAT00065
Represents the standard deviation of
Figure 112006046975810-PAT00066
Wow
Figure 112006046975810-PAT00067
Respectively represent corresponding pixel values of the left and right images,
Figure 112006046975810-PAT00068
and
Figure 112006046975810-PAT00069
Is the size of the area for which the correlation is calculated.
청구항 1에 있어서,The method according to claim 1, 상기 상관도의 범위는 0.8 이상 1이하인 것을 특징으로 하는 강건한 대응점 을 이용한 기본행렬 추정 장치.And a range of the correlation is 0.8 or more and 1 or less. 청구항 1에 있어서,The method according to claim 1, 상기 후보점 선별수단은 아래의 두 가지 조건식을 만족할 경우 후보점을 제거하는 것을 특징으로 하는 강건한 대응점을 이용한 기본행렬 추정 장치.And the candidate point selecting means removes the candidate point when the following two conditions are satisfied. [조건식] [Condition;
Figure 112006046975810-PAT00070
> 크기 임계값
Figure 112006046975810-PAT00070
> Size threshold
Figure 112006046975810-PAT00071
> 방향 임계값
Figure 112006046975810-PAT00071
Direction threshold
단,
Figure 112006046975810-PAT00072
는 미디언 벡터이고,
Figure 112006046975810-PAT00073
는 후보점의 움직임 벡터임.
only,
Figure 112006046975810-PAT00072
Is the median vector,
Figure 112006046975810-PAT00073
Is the motion vector of the candidate point.
비교정된 좌우 영상으로부터 기본행렬을 추정하는 방법으로서,As a method of estimating the basic matrix from the compared left and right images, 상기 영상에 대해 밝기의 변화량을 측정하여 특징점을 추출하는 제1 과정;A first step of extracting feature points by measuring an amount of change in brightness of the image; 상기 추출된 특징점들로부터 상관함수에 따른 상관도가 소정 범위를 만족하는 후보점을 선택하는 제2 과정;A second step of selecting candidate points having a correlation degree corresponding to a predetermined range according to a correlation function from the extracted feature points; 영상 각각을 4등분 분할하여 각 영역 내의 후보점들에 대한 움직임 벡터의 미디언 벡터를 산출하고, 상기 미디언 벡터의 크기와 방향에 대한 소정 임계값을 벗어나는 후보점들을 제거하는 제3 과정;Dividing each image into four equal parts to calculate a median vector of motion vectors for candidate points in each region, and removing candidate points that deviate from predetermined thresholds for the magnitude and direction of the median vector; 각 영상을 8×8 영역으로 구획하여, 구획된 영역 중 8개의 영역을 선택한 후, 선택된 각 영역 내에서 하나의 대응점을 임의로 추출하여 총 8쌍의 대응점을 선택하고, 선택된 대응점으로부터 기본행렬을 계산하는 제4 과정;Each image is divided into 8x8 areas, eight areas are selected from the partitioned areas, and one corresponding point is randomly extracted within each selected area to select a total of eight pairs of matching points, and a basic matrix is calculated from the selected points. A fourth process of doing; 계산된 기본행렬에 대해 에피폴라 기하학을 형성하여 에피폴라 평면 선분과 해당 대응점 간의 거리 오차를 계산하는 제5 과정; 및A fifth step of forming an epipolar geometry with respect to the calculated basic matrix to calculate a distance error between the epipolar plane segment and the corresponding point; And 상기 제4 과정 및 제5 과정을 반복 수행하여, 거리 오차가 최소인 기본행렬을 선택하는 제6 과정; 을 포함하는 것을 특징으로 하는 강건한 대응점을 이용한 기본행렬 추정 방법.A sixth process of repeating the fourth process and the fifth process to select a basic matrix having a minimum distance error; Basic matrix estimation method using a strong corresponding point, characterized in that it comprises a. 청구항 6에 있어서,The method according to claim 6, 상기 제1 과정의 특징점 추출은, Feature point extraction of the first process, Harris 모서리 탐색 방법을 이용하는 것을 특징으로 하는 강건한 대응점을 이용한 기본행렬 추정 방법.A method of estimating the basic matrix using robust correspondence points, using the Harris edge search method. 청구항 6에 있어서,The method according to claim 6, 상기 상관도(score)는 아래의 수학식에 의해 산출되는 것을 특징으로 하는 강건한 대응점을 이용한 기본행렬 추정 방법.The score is calculated by the following equation, the basic matrix estimation method using a strong corresponding point. [수학식] [ Equation ]
Figure 112006046975810-PAT00074
Figure 112006046975810-PAT00074
여기서,
Figure 112006046975810-PAT00075
,
Figure 112006046975810-PAT00076
here,
Figure 112006046975810-PAT00075
,
Figure 112006046975810-PAT00076
단,
Figure 112006046975810-PAT00077
는 점 (
Figure 112006046975810-PAT00078
,
Figure 112006046975810-PAT00079
)에서의 평균을 나타내며,
Figure 112006046975810-PAT00080
는 (
Figure 112006046975810-PAT00081
,
Figure 112006046975810-PAT00082
)의 이웃하는
Figure 112006046975810-PAT00083
에서 영상
Figure 112006046975810-PAT00084
의 표준 편차를 나타내고,
Figure 112006046975810-PAT00085
Figure 112006046975810-PAT00086
는 각각 좌우 영상의 해당 화소 값을 나타내고,
Figure 112006046975810-PAT00087
Figure 112006046975810-PAT00088
은 상관관계를 계산하는 영역의 크기를 의미함.
only,
Figure 112006046975810-PAT00077
Points (
Figure 112006046975810-PAT00078
,
Figure 112006046975810-PAT00079
) Mean,
Figure 112006046975810-PAT00080
Is (
Figure 112006046975810-PAT00081
,
Figure 112006046975810-PAT00082
Neighbors
Figure 112006046975810-PAT00083
Video from
Figure 112006046975810-PAT00084
Represents the standard deviation of
Figure 112006046975810-PAT00085
Wow
Figure 112006046975810-PAT00086
Respectively represent corresponding pixel values of the left and right images,
Figure 112006046975810-PAT00087
and
Figure 112006046975810-PAT00088
Is the size of the area for which the correlation is calculated.
청구항 6에 있어서,The method according to claim 6, 제3 과정은, 아래의 두 가지 조건식을 만족할 경우 후보점을 제거하는 것을 특징으로 하는 강건한 대응점을 이용한 기본행렬 추정 방법.The third process is a method of estimating a basic matrix using robust correspondence points, wherein candidate points are removed when the following two conditions are satisfied. [조건식] [Condition;
Figure 112006046975810-PAT00089
> 크기 임계값
Figure 112006046975810-PAT00089
> Size threshold
Figure 112006046975810-PAT00090
> 방향 임계값
Figure 112006046975810-PAT00090
Direction threshold
단,
Figure 112006046975810-PAT00091
는 미디언 벡터이고,
Figure 112006046975810-PAT00092
는 후보점의 움직임 벡터임.
only,
Figure 112006046975810-PAT00091
Is the median vector,
Figure 112006046975810-PAT00092
Is the motion vector of the candidate point.
KR1020060060145A 2006-06-30 2006-06-30 Apparatus and method for estimating fundamental matrix using robust correspondence point KR100792172B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060060145A KR100792172B1 (en) 2006-06-30 2006-06-30 Apparatus and method for estimating fundamental matrix using robust correspondence point

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060060145A KR100792172B1 (en) 2006-06-30 2006-06-30 Apparatus and method for estimating fundamental matrix using robust correspondence point

Publications (2)

Publication Number Publication Date
KR20080001794A true KR20080001794A (en) 2008-01-04
KR100792172B1 KR100792172B1 (en) 2008-01-07

Family

ID=39213688

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060060145A KR100792172B1 (en) 2006-06-30 2006-06-30 Apparatus and method for estimating fundamental matrix using robust correspondence point

Country Status (1)

Country Link
KR (1) KR100792172B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101154436B1 (en) * 2010-09-10 2012-06-15 성균관대학교산학협력단 Line matching method based on intersection context
KR101692168B1 (en) * 2015-12-21 2017-01-03 연세대학교 산학협력단 Method for Device for Matching Heterogenous Stereo Images
US10319105B2 (en) 2015-09-17 2019-06-11 Interdigital Ce Patent Holdings Method and system for calibrating an image acquisition device and corresponding computer program product

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104240289B (en) * 2014-07-16 2017-05-03 崔岩 Three-dimensional digitalization reconstruction method and system based on single camera
CN105389819B (en) * 2015-11-13 2019-02-01 武汉工程大学 A kind of lower visible image method for correcting polar line of half calibration and system of robust

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100362171B1 (en) * 2000-01-21 2002-11-23 한국전자통신연구원 Apparatus, method and computer readable medium for computing a transform matrix using image feature point matching technique, and apparatus, method and computer readable medium for generating mosaic image using the transform matrix

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101154436B1 (en) * 2010-09-10 2012-06-15 성균관대학교산학협력단 Line matching method based on intersection context
US10319105B2 (en) 2015-09-17 2019-06-11 Interdigital Ce Patent Holdings Method and system for calibrating an image acquisition device and corresponding computer program product
KR101692168B1 (en) * 2015-12-21 2017-01-03 연세대학교 산학협력단 Method for Device for Matching Heterogenous Stereo Images

Also Published As

Publication number Publication date
KR100792172B1 (en) 2008-01-07

Similar Documents

Publication Publication Date Title
CN110310320B (en) Binocular vision matching cost aggregation optimization method
Rashidi et al. Innovative stereo vision-based approach to generate dense depth map of transportation infrastructure
CN107301654A (en) A kind of positioning immediately of the high accuracy of multisensor is with building drawing method
CN107862735B (en) RGBD three-dimensional scene reconstruction method based on structural information
CN113393524B (en) Target pose estimation method combining deep learning and contour point cloud reconstruction
CN107657644A (en) Sparse scene flows detection method and device under a kind of mobile environment
JP2013178656A (en) Image processing device, image processing method, and image processing program
CN112669379B (en) Image feature rapid extraction method based on auxiliary mark points
KR100792172B1 (en) Apparatus and method for estimating fundamental matrix using robust correspondence point
JP2006252275A (en) Restoration system of camera motion and object shape
Gupta et al. A correlation-based approach for real-time stereo matching
JPH0991436A (en) Image processing method and device therefor
KR101673144B1 (en) Stereoscopic image registration method based on a partial linear method
CN114199205B (en) Binocular Ranging Method Based on Improved Quadtree ORB Algorithm
Verma et al. Vision based object follower automated guided vehicle using compressive tracking and stereo-vision
CN116843829A (en) Concrete structure crack three-dimensional reconstruction and length quantization method based on binocular video
CN112991372B (en) 2D-3D camera external parameter calibration method based on polygon matching
KR20170001448A (en) Apparatus for measuring position of camera using stereo camera and method using the same
Xiao et al. A segment-based stereo matching method with ground control points
Li et al. Structured light based high precision 3D measurement and workpiece pose estimation
CN112529960A (en) Target object positioning method and device, processor and electronic device
Joglekar et al. Area based stereo image matching technique using Hausdorff distance and texture analysis
Du et al. Optimization of stereo vision depth estimation using edge-based disparity map
CN116721109B (en) Half global matching method for binocular vision images
Pedersini et al. Multi-camera parameter tracking

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121011

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131129

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee