KR20100076351A - Method for compositing stereo camera images - Google Patents

Method for compositing stereo camera images Download PDF

Info

Publication number
KR20100076351A
KR20100076351A KR1020080134367A KR20080134367A KR20100076351A KR 20100076351 A KR20100076351 A KR 20100076351A KR 1020080134367 A KR1020080134367 A KR 1020080134367A KR 20080134367 A KR20080134367 A KR 20080134367A KR 20100076351 A KR20100076351 A KR 20100076351A
Authority
KR
South Korea
Prior art keywords
image
points
extended
model
models
Prior art date
Application number
KR1020080134367A
Other languages
Korean (ko)
Other versions
KR101558573B1 (en
Inventor
이정현
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020080134367A priority Critical patent/KR101558573B1/en
Publication of KR20100076351A publication Critical patent/KR20100076351A/en
Application granted granted Critical
Publication of KR101558573B1 publication Critical patent/KR101558573B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Abstract

PURPOSE: A method for compositing stereo camera images is provided to find an optimal corresponding point in a short time. CONSTITUTION: Feature points are detected for an added image captured through a second camera and a reference image captured through a first camera(S11). The number of correspondence pairs is determined at the reference and added images(S12). All models having the number of correspondence pairs are configured(S13). A perspective transformation parameter used for a perspective transformation mode is calculated(S14).

Description

스테레오 카메라 영상 합성 방법{Method for compositing stereo camera images}Method for compositing stereo camera images

본 발명의 실시 예는 스테레오 카메라 영상 합성 방법에 관한 것이다.An embodiment of the present invention relates to a stereo camera image synthesis method.

디지털 카메라 기기의 발전과 함께 여러 가지 실용적인 영상 처리 기법들이 시도되고 있다. 스테레오 카메라 역시 그 한 예로 카메라 렌즈의 제한적 시야를 극복하고자 동일 시점(viewpoint) 또는 서로 다른 시점을 갖는 복수대의 카메라에서 획득한 복수개의 영상을 한 장의 영상으로 획득하여 확장된 시야(field of view) 각을 얻는 방법이다.With the development of digital camera devices, various practical image processing techniques have been tried. As an example, a stereo camera may acquire a plurality of images acquired from a plurality of cameras having the same viewpoint or different viewpoints as a single image to overcome the limited field of view of the camera lens. How to get.

이러한 스테레오 카메라 영상 합성 방법 중 가장 잘 알려진 일반적 방법으로 Mosaic 기법이 있다. Mosaic 기법은 임의의 기준 영상과 연속적으로 합성될 확장 영상을 가지고서 한 장의 영상을 만드는 과정으로서, 두 영상의 중복 영역에서 최적 대응점(correspondence) 쌍들을 찾아내고 이 쌍들에 의해 투영 변환 계수를 유도함으로써 기준 영상에 대하여 연속될 확장 영상을 그 유도된 변환 계수에 맞게 기하학적 변형을 통한 정렬을 하고 안정화를 시켜 한 장의 영상을 얻는다.One of the most well-known methods for synthesizing stereo camera images is Mosaic. The Mosaic technique is a process of creating a single image with an extended image that will be continuously synthesized with an arbitrary reference image. The mosaic technique finds the optimal pair of correspondences in the overlapping regions of the two images and derives the projection transformation coefficient by these pairs. A single image is obtained by aligning and stabilizing the extended image to be successively aligned with geometric transformation according to the derived transformation coefficient.

그런데, 이러한 스테레오 카메라 영상 합성에 있어 중요시되는 문제점은, 최 적 대응점 탐색의 어려움에 있다.However, a problem that is important in synthesizing the stereo camera image is a difficulty in searching for the best matching point.

두 영상 사이의 최적 대응점 탐색에 있어, 만약, 기준 영상 F와 합성될 확장 영상 F'가 임의의 프레임에서 연속되어 촬영된 스테레오 카메라 영상인 경우, 인간의 눈과 뇌는 기준 영상 F의 화소 정보에서 중첩된 확장 영상 F'의 화소 정보가 어느 부위에 있는지를 정확하고 빠르게 찾아낸다.In searching for an optimal correspondence point between two images, if the reference image F and the extended image F 'to be synthesized are stereo camera images taken in succession in an arbitrary frame, the human eye and the brain are determined from the pixel information of the reference image F. It accurately and quickly finds in which area the pixel information of the superimposed extended image F 'is located.

그런데, 컴퓨터가 이런 인식을 하기 위해서는 무척 어려운 과정으로 만약 연속되는 확장 영상 F'의 카메라모듈이 사용자의 손떨림이나 혹은 미세한 차량의 흔들림에 의해 두 카메라 영상 사이에 원근 투시에 의한 사영(perspective) 변환 되었을 경우, 변환된 이미지의 유사성을 기계가 어떻게 자동으로 인식할 것인가는 스테레오 카메라의 가장 큰 문제점이고 과제이다.However, it is a very difficult process for the computer to make this recognition. If the camera module of the continuous extended image F 'is converted into perspective between two camera images by the user's hand movement or the shaking of a small vehicle, the perspective is converted. In this case, how the machine automatically recognizes the similarity of the converted images is the biggest problem and problem of the stereo camera.

전통적으로 이러한 F,F' 두 영상 사이의 유사성을 평가하는 척도로 NCC(Normalized Cross Correlation)가 가장 잘 알려져 있으나 이러한 컬러(color) 정보의 상관관계 비교 방법은 연속하지 않는 프레임에서 캡쳐(capture)된 영상이 외부의 조도, 그림자와 같은 돌발 상황, 또는, ISP 센서 내부의 성능차이로 영상의 혹은 정보가 상이하다면 그 대응점 판단 과정에서 신뢰성을 얻을 수 없는 문제가 있다.Traditionally, Normalized Cross Correlation (NCC) is the best known measure of similarity between two F and F 'images.However, this method of comparing color information is captured in non-contiguous frames. If the image is a sudden situation such as external illuminance, shadow, or performance difference inside the ISP sensor, or if the image or information is different, there is a problem that reliability cannot be obtained in the corresponding point determination process.

한편, 스테레오 카메라 영상 합성에 있어 중요시되는 또 다른 문제점은 계산 복잡도 증가의 문제이다.Meanwhile, another problem that is important in synthesizing stereo camera images is a problem of increasing computational complexity.

두 카메라의 영상을 합성하여 정렬하기 위해서는 찾아진 M개의 특징점과 다른 영상에서 N개의 특징점들의 매칭을 통한 최적의 대응점을 찾기 위해서는 적어도 MN이라는 거듭제곱의 시간 복잡도를 요구한다. 이러한 연산 시간 복잡도는 에지(edge)가 많은 고화소 영상에서 최악의 경우 수십 초(sec)의 연산 시간을 가져올 수 있다.In order to synthesize and align images of two cameras, at least M N times a time complexity is required to find an optimal correspondence point by matching N feature points found in other images. This computation time complexity can lead to computation times of tens of seconds in the worst case in high pixel images with many edges.

차량용 카메라와 같이 확장된 시야 각의 영상을 필요로 하는 곳에서 매초 수십 프레임 이상 고속 주사하는 실시간 고화소 비디오 스테레오 카메라 영상을 제어하고자 한다면 연산 시간 복잡도의 증가는 치명적인 문제가 될 수 있다.If you want to control a real-time high-pixel video stereo camera image that scans at high speeds of several tens of frames per second or more, where an extended field of view image is required, such as a car camera, increasing computation time complexity can be fatal.

본 발명의 실시 예는 최적 대응점을 빠른 시간 내에 찾을 수 있도록 하며, 영상 합성 시에 계산 시간을 단축시킬 수 있는 스테레오 카메라 영상 합성 방법이다.An embodiment of the present invention is a stereo camera image synthesizing method which enables to find an optimum correspondence point in a short time and can reduce the calculation time during image synthesis.

본 발명의 실시 예는 제1카메라에서 캡쳐한 기준 영상 및 제2카메라에서 캡쳐한 확장 영상에 대하여 특징점들을 검출하는 특징점 검출 과정과, 상기 기준 영상 및 확장 영상에서 대응점 쌍의 개수를 결정하는 대응점 쌍 개수 결정 과정과, 결정된 상기 대응점 쌍의 개수를 갖는 모든 모델들을 구성한 후, 상기 모델들의 각도 정보, 길이 정보, 컬러 정보의 유사성을 평가한 후 유사하지 않은 모델들을 제거하여 최적 대응점을 구성하는 필터링 과정과, 상기 결정된 대응점 쌍을 이용한 투영 변환 방식이 이루어질 경우, 상기 투영 변환 방식에 사용될 투영 변환 계수를 산출하는 투영 변환 계수 산출 과정과, 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하여 투영 변환시킴으로써, 하나의 영상으로 합성하는 이미지 정렬 과정과, 최종 합성된 영상의 컬러값 틀어짐, 휘도값 정보를 일치화시키는 이미지 안정화 과정을 포함한다.According to an embodiment of the present invention, a feature point detection process of detecting feature points with respect to a reference image captured by a first camera and an extended image captured by a second camera, and a pair of corresponding points that determine the number of pairs of corresponding points in the reference image and the extended image A process of determining the number and forming all models having the determined number of pairs of matching points, and then evaluating the similarity of the angle information, the length information, and the color information of the models, and then removing the dissimilar models to form an optimal matching point. And a projection conversion coefficient calculating step of calculating a projection conversion coefficient to be used for the projection conversion method when the projection conversion method using the determined corresponding point pair is performed, and reversely expanding the extended image to the reference image using the projection conversion coefficient. Image alignment by compositing into one image by mapping and projecting conversion Jung, includes a final composite image teuleojim color value, brightness value information matches crystallized image stabilization process of the.

상기 필터링 과정은, 기준 영상 및 확장 영상에서 각각 추출된 특징점들에 중에서 동일 직선상에 있지 않는(non-collinear) 두 점을 기준선으로 갖는 모든 모델을 구성하는 과정과, 구성된 모든 모델들의 상기 기준선에 인접한 인접점들과의 각도(angle)를 산출하고, 기준 영상의 모델과 확장 영상의 모델간의 각도 차이를 구하여, 각도 임계값보다 큰 각도 차이를 가지는 모델을 제거하는 과정과, 구성된 모든 모델들의 상기 기준선에 인접한 인접점들과의 길이(line)를 산출하고, 기준 영상의 모델과 확장 영상의 모델간의 길이 차이를 구하여, 길이 임계값보다 큰 길이 차이를 가지는 모델을 제거하는 과정과, 두 영상의 밝기 평균을 뺀 나머지 부분을 정규화시켜 컬러 정보 유사성을 평가하는 color-NCC를 수행한 후, 두 영상의 모델간의 컬러 유사성 정보가 컬러 임계값 이하인 경우, 해당 모델을 제거하는 과정을 포함한다.The filtering process may include configuring all models having two non-collinear points as reference lines among the feature points extracted from the reference image and the extended image, and applying the reference lines to all the models. Calculating an angle between adjacent adjacent points, obtaining an angle difference between a model of the reference image and a model of the extended image, and removing a model having an angle difference larger than an angle threshold; Calculating a length line between adjacent points adjacent to the reference line, obtaining a length difference between the model of the reference image and the model of the extended image, and removing a model having a length difference greater than the length threshold; After color-NCC is performed to normalize the rest of the image by subtracting the brightness average, the color similarity information between the models of two images is color. Or below threshold, it comprises the step of removing the model.

최적 대응점 구성 과정을 통해 필터링된 최적 대응점의 쌍의 개수가 4개라면, 8개의 투영 변환 계수의 행렬(P)가 a11, a12, a13, a21, a22, a23, a31, a32 이고, 기준 영상의 최적 대응점이 (x1,y1), (x2,y2), (x3,y3), (x4,y4)이고, 확장 영상 최적 대응점이 (u1,v1), (u2,v2), (u3,v3), (u4,v4)라 할 때,If the number of pairs of optimal matching points filtered through the optimal matching point construction process is four, the matrix of eight projection transformation coefficients is a 11 , a 12 , a 13 , a 21 , a 22 , a 23 , a 31 , a 32, and the optimal correspondence point of the reference image is (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 ), u 1 , v 1 ), (u 2 , v 2 ), (u 3 , v 3 ), (u 4 , v 4 ),

Figure 112008089241927-PAT00001
Figure 112008089241927-PAT00001

를 이용하여 투영 변환 계수를 산출한다.Calculate the projection transformation coefficient using.

상기 이미지 정렬 과정은, 기본 영상과 확장 영상이 매칭 확장되어 놓일 더미(dummy) 영상을 생성하는 과정과, 상기 더미 영상에 상기 기준 영상의 화소를 맵핑하여 위치시키는 과정과, 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하여 하나의 영상으로서 합성하는 과정을 포함한다.The image aligning process may include generating a dummy image in which a base image and an extended image are matched and extended, mapping and positioning pixels of the reference image on the dummy image, and using the projection conversion coefficient. And backward mapping the extended image to the reference image to synthesize the image as one image.

본 발명의 실시 예는 스테레오 카메라 영상 합성에 있어, 임의의 영상 시퀀스 t프레임과 연속되는 t+1 프레임 사이의 무수히 많은 특징점들 중에서 매칭되는 최적의 대응점 쌍의 동일 위치를 효율적으로 탐지할 수 있는 효과가 있다. 또한, 특징점들 중에서 대응점 검색의 계산량을 줄일 수 있는 효과가 있다.According to an embodiment of the present invention, in stereo camera image synthesis, an effect of efficiently detecting the same position of an optimal pair of matching points among a myriad of feature points between an arbitrary image sequence t frames and consecutive t + 1 frames is effective. There is. In addition, it is possible to reduce the amount of calculation of the corresponding point search among the feature points.

이하, 본 발명의 실시 예들의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 하기에서 각 도면의 구성요소들에 참조부호를 부가함에 있어 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. Hereinafter, a detailed description of embodiments of the present invention will be described with reference to the accompanying drawings. In the following description of the reference numerals to the components of the drawings it should be noted that the same reference numerals as possible even if displayed on different drawings.

도 1은 본 발명의 실시 예에 따른 스테레오 카메라 영상 합성 과정을 도시한 플로차트이다.1 is a flowchart illustrating a stereo camera image synthesis process according to an exemplary embodiment of the present invention.

본 발명의 실시 예는 특징점들 중에서 대응점 검색의 계산량을 줄이기 위해 필요하지 않는 특징점들을 줄이는 과정을 반복하여 최적의 대응점 쌍을 탐지하고, 정확한 투영 변환 계수를 유도하여 계산 복잡도를 감소시킬 수 있다.The embodiment of the present invention can reduce the computational complexity by detecting an optimal pair of matching points by repeating the process of reducing feature points that are not necessary to reduce the amount of computation of the matching point among the feature points, and inducing an accurate projection transformation coefficient.

상술하면, 스테레오 카메라 영상 합성을 위해서, 우선, 두 카메라에서 캡쳐 한 영상에 대하여 특징점들을 검출(S11)한다. 상기 특징점은 각 영상에서 코너점들의 집합을 나타내며, 이러한 특징점 검출(S11)을 위해서 두 영상 사이의 코너 점들을 검출하는 종래 공지된 기법인 SUSAN 방식을 사용할 수 있다.In detail, in order to synthesize a stereo camera image, first, feature points of the images captured by the two cameras are detected (S11). The feature point represents a set of corner points in each image, and for this feature point detection (S11), a conventionally known SUSAN method of detecting corner points between two images may be used.

상기와 같이 두 영상에서 코너점들의 집합과 같은 특징점들을 검출한 후에는, 이들 두 영상 사이의 특징점들 간의 최적 대응점(correspondence point)을 탐색하여 구성한다.After detecting feature points such as a set of corner points in the two images as described above, an optimum correspondence point between the feature points between the two images is searched and configured.

최적 대응점을 구성하는 과정들을 설명하면, 우선, 탐색할 대응점 쌍의 개수를 결정(S12)한다.Referring to the processes of configuring the optimum correspondence point, first, the number of correspondence point pairs to be searched is determined (S12).

[표 1]TABLE 1

projectionprojection parameterparameter least pairsleast pairs transformationstransformations displacementdisplacement 22 1One translationtranslation similaritysimilarity 44 22 translation, rotation, uniform scaletranslation, rotation, uniform scale affineaffine 66 33 translation, rotation, non-uniform scaletranslation, rotation, non-uniform scale perspectiveperspective 88 44 full motionfull motion

상기 [표 1]은 두 카메라의 투영된 2D 영상들 사이의 투영 변환(transformation)에 따른 최적 대응점 쌍을 나타낸다. 'parameter'는 투영 변환 계수를 나타내며, 'least pairs'는 최적(최소) 대응점 쌍의 개수를 나타낸다.[Table 1] shows an optimal pair of correspondence points according to the projection transformation between the projected 2D images of two cameras. 'parameter' represents the projection transformation coefficient, and 'least pairs' represents the number of best (minimum) pairs of matching points.

만약, 평행 이동을 보존하는 카메라의 이동인 경우, 두 카메라의 투영 변환은 'displacement'이며 최소 대응하는 한쌍의 점을 찾게 된다면 두 카메라 사이의 이동 변위는 이동(translation) 거리 계산만으로 충분하기 때문에, 한 쌍의 최적 대응점만 필요로 한다.If the movement of the camera preserves parallel movement, the projection transformation of the two cameras is 'displacement', and if the minimum corresponding pair of points is found, the displacement between the two cameras is enough to calculate the translation distance, Only a pair of optimal matching points are required.

만약, 두 카메라 사이에 이동(translation), 회전(rotation), 균등 스케일링(uniform scaling)의 변환을 가정한다면, 두 카메라의 투영 변환은 'similarity' 이며 최소 두 쌍의 대응점을 필요로 한다.If we assume a transformation of translation, rotation, and uniform scaling between two cameras, the projection transformation of the two cameras is 'similarity' and requires at least two pairs of correspondences.

만약, 두 카메라 사이에 이동(translation), 회전(rotation), 비균등 스케일링(non-uniform scaling), 절단(shear)의 변환을 가정한다면, 두 카메라의 투영 변환은 'affine'이며 최소 세 쌍의 대응점을 필요로 한다.If we assume translations of translation, rotation, non-uniform scaling, and shear between two cameras, the projection transformation of the two cameras is 'affine' and at least three pairs Requires correspondence.

만약, 두 카메라의 모든 경우의 풀 모션(full motion)을 포함하여 변환하고자 한다면, 두 카메라의 투영 변환은 'perspective'이며 최소 네 쌍의 대응점을 필요로 한다.If you want to convert to include the full motion of both cameras, the projection transformation of the two cameras is 'perspective' and requires at least four pairs of correspondence points.

따라서 대응점 수를 결정함에 있어 두 카메라의 촬영 환경에 따라 최소한 한쌍으로 할지, 두쌍으로 할지, 세쌍으로 할지, 네쌍으로 할지를 결정한다.Therefore, in determining the number of correspondence points, it is determined whether to use at least one pair, two pairs, three pairs or four pairs according to the shooting environment of the two cameras.

본 발명의 실시 예는 임의의 프레임에서 두 카메라의 사이의 변환에 대하여 풀 모션(full motion)을 포함할 수 있는 'perspective' 투영 변환 방식을 이용하는 경우를 예를 들어 설명할 것이며, 따라서, 'perspective' 투영 변환 방식을 적용할 경우, 카메라의 전체 이동 변위를 포함하는 8 파라미터의 투영 변환 계수를 찾기 위하여 최소 4쌍 대응점을 탐색하도록 한다.An embodiment of the present invention will be described by using an example of a 'perspective' projection transformation method that may include full motion for a conversion between two cameras in an arbitrary frame, and thus, 'perspective' When the projection transformation method is applied, at least four pairs of matching points are searched to find the projection transformation coefficient of 8 parameters including the total displacement of the camera.

이하, 본 발명의 실시 예는 'perspective' 투영 변환 방식을 적용하기 위해 4쌍의 대응점을 이용하여 설명하겠지만, 만약, 다른 투영 변환 방식을 이용하고자 한다면 그에 상응하는 대응점 쌍의 수를 결정하여 그에 따른 영상 합성 과정을 동일하게 구현할 수 있을 것이다.Hereinafter, an embodiment of the present invention will be described using four pairs of correspondence points in order to apply a 'perspective' projection conversion method. However, if a different projection conversion method is used, the number of corresponding pairs of corresponding points is determined and accordingly The image synthesis process may be implemented in the same way.

한편, 상기와 같이 'perspective' 투영 변환 방식에 따라 최소한 4쌍의 대응점 수가 결정되면, 결정된 최적 대응점 개수의 특징점을 갖는 4각형 모델들을 구성 한 후, 이들 모델들의 기하학적인 정보(각도 정보, 길이 정보) 유사성 비교 및 컬러 정보 유사성 비교를 통해 유사하지 않은 나머지 모델들을 제거하는 필터링(S13) 과정을 가진다. On the other hand, if at least four pairs of corresponding points are determined according to the 'perspective' projection conversion scheme as described above, after configuring the quadrangular models having the determined feature points of the optimal number of corresponding points, the geometric information (angle information, length information) of these models is formed. ) Similarity comparison and color information similarity comparison to remove the remaining similar models have a filtering (S13) process.

도 2를 참조하여 상기 필터링은 다음과 같은 과정으로 이루어진다.Referring to FIG. 2, the filtering is performed as follows.

'perspective' 투영 방정식 따라 4쌍의 대응점 수가 결정되면, 기준 영상 및 확장 영상에서 각각 추출된 특징점들에 중에서 동일 직선상에 있지 않는(non-collinear) 4개의 점으로 만들 수 있는 가능한 모든 4각형의 모델들을 구성(S21)한다.Once the number of pairs of corresponding points is determined according to the 'perspective' projection equation, all of the possible quadrangles that can be made into four non-collinear points among the feature points extracted from the reference and extended images, respectively Configure the models (S21).

즉, 추출된 특징점들에 중에서 동일 직선상에 있지 않는(non-collinear) 두 점을 두 점간의 기준선과 인접한 두점으로 되는 4각형의 모든 모델을 구성 결정(S21)한 후, 구성된 모든 모델들의 기준선에 대한 각도(angle)을 구하고, 두 비교 영상에서 구해진 각도 정보의 차이를 구하여 각도 임계값보다 큰 비유사 모델들을 제거(S22)한다.That is, after constructing and determining (S21) all the models of the quadrilateral with two non-collinear points between the two points which are non-collinear among the extracted feature points, the baselines of all the constructed models An angle is obtained, and a difference between angle information obtained from two comparison images is obtained to remove dissimilar models larger than an angle threshold (S22).

그 후, 나머지 모델들에 대하여 다시 기준선에 대한 길이(line) 정보를 구한 후, 각 길이 정보의 차이를 구하고 길이 임계값보다 큰 비유사 모델들을 제거(S23)한다.Then, after obtaining line information about the baseline for the remaining models, the difference between the pieces of length information is obtained and dissimilar models larger than the length threshold are removed (S23).

상기와 같이 각도 임계값 및 길이 임계값보다 큰 모델들을 제거한 후, 나머지 모델들에 대하여 두 영상의 국소 영역에서 color-NCC를 수행하여 컬러(color) 정보 유사성을 평가한다. color-NCC를 수행하고 난 후 컬러 임계값을 정하여 나머지 모델들을 제거(S24)함으로써, 제거되지 않은 특징점들의 집합을 최종 대응점 쌍 으로 결정(S25)한다.After removing the models larger than the angle threshold and the length threshold as described above, color-NCC is performed on the local regions of the two images to evaluate the color information similarity. After performing the color-NCC, a color threshold value is determined to remove the remaining models (S24), thereby determining a set of non-removed feature points as the final corresponding point pairs (S25).

상기 필터링 과정들을 각 단계별로 다시 상세히 설명하면, 우선, 대응점 쌍의 개수가 4쌍 이상으로 결정되었기 때문에 4각형 모델 구성(S21)을 해야 하는데, 이는 기준 영상 및 확장 영상에서 각각 추출된 특징점들에 중에서 동일 직선상에 있지 않는(non-collinear) 두 점을 기준선으로 갖는 4각형의 모든 모델을 구성하여 이루어진다.The filtering processes will be described in detail for each step. First, since the number of pairs of corresponding points is determined to be four or more pairs, a quadrangular model configuration S21 must be performed, which is applied to the feature points extracted from the reference image and the extended image, respectively. It consists of constructing all models of a quadrilateral with two non-collinear points as baseline.

기준 영상에서 추출된 특징점들과 확장 영상에서 추출된 특징점들이 각각 도 3(a) 및 도 3(b)와 같다고 가정할 경우, 추출된 특징 점들 중 동일 직선상에 있지 않는(non-collinear) 4개의 점으로 만들 수 있는 가능한 모든 4각형 모델들을 구성한다.Assuming that the feature points extracted from the reference image and the feature points extracted from the extended image are the same as those of FIGS. 3 (a) and 3 (b), respectively, four non-collinear features among the extracted feature points are not collinear. Construct all possible quadratic models that can be made of four points.

그 후, 구성된 모델들의 각도(angle) 정보 유사성을 평가하여 유사하지 않은 모델들을 제거한다. 즉, 구성된 모든 모델들의 기준선에 대한 각도(angle)을 구하고, 두 비교 영상에서 구해진 각도 정보의 차이를 구하여 각도 임계값보다 큰 모델을 제거한다.Then, the angle information similarity of the constructed models is evaluated to remove dissimilar models. That is, an angle with respect to the reference line of all the configured models is obtained, and the difference between the angle information obtained from the two comparison images is obtained to remove the model larger than the angle threshold.

각도 임계값보다 큰 모델을 제거하는 과정을 도 4에 도시하였는데, 우선, 각도 테이블을 생성(S41)한다.A process of removing the model larger than the angle threshold is shown in FIG. 4. First, an angle table is generated (S41).

상기 각도 테이블은 기준점(P1,P'1)에 대한 각 모델들의 각도 정보를 가지고 있다. 예컨대, 도 3(a)의 기준 영상에서는 기준선(P1-P4)를 기준으로 인접하는 두 점(P2,P3)과의 각도를 계산하여 각도 테이블에 저장한다. 마찬가지로, 합성될 영상 인 도 3(b)의 확장 영상에서도 추출된 특징점들 중에서 기준선(P'1-P'4)을 기준으로 인접하는 두 점(P'2,P'3)과의 각도를 계산하여 각도 테이블에 저장한다The angle table has angle information of each model with respect to the reference point (P 1 , P ' 1 ). For example, in the reference image of FIG. 3A, angles with two adjacent points P 2 and P 3 based on the reference lines P 1 -P 4 are calculated and stored in the angle table. Similarly, in the extended image of FIG. 3 (b) to be synthesized, the angles between two adjacent points P ' 2 and P' 3 based on the reference lines P ' 1- P' 4 are extracted. Calculate and store in angle table

기준 영상과 확장 영상의 모델들에 대한 각도 테이블 예시는 다음과 같다. 하기에서 R_Model[N]은 기준 영상(reference image)의 N번째 모델을 말하며, A_Model[N]은 확장 영상(added image)의 N번째 모델을 말한다.An example of the angle table for the models of the reference image and the extended image is as follows. In the following, R_Model [N] refers to the Nth model of the reference image, and A_Model [N] refers to the Nth model of the added image.

If P1,P2,P3,P4 = Non-collinearIf P 1 , P 2 , P 3 , P 4 = Non-collinear

R_Model[1] = {기준선(P1,P4),인접점(P2,P3),각도정보(P3,P1,P2),각도정보(P3,P4,P2)}R_Model [1] = {reference line (P 1 , P 4 ), adjacent point (P 2 , P 3 ), angle information (P 3 , P 1 , P 2 ), angle information (P 3 , P 4 , P 2 ) }

또한, If P1,P2,P3,P5 = Non-collinearAlso, If P 1 , P 2 , P 3 , P 5 = Non-collinear

R_Model[2] = {기준선(P1,P5),인접점(P2,P3),각도정보(P3,P1,P2),각도정보(P3,P5,P2)}R_Model [2] = {reference line (P 1 , P 5 ), adjacent point (P 2 , P 3 ), angle information (P 3 , P 1 , P 2 ), angle information (P 3 , P 5 , P 2 ) }

If P'1,P'2,P'3,P'4 = Non-collinearIf P ' 1 , P' 2 , P ' 3 , P' 4 = Non-collinear

A_Model[1] = {기준선(P'1,P'4),인접점(P'2,P'3),각도정보(P'3,P'1,P'2),각도정보(P'3,P'4,P'2)}A_Model [1] = {baseline (P ' 1 , P' 4 ), adjacent point (P ' 2 , P' 3 ), angle information (P ' 3 , P' 1 , P ' 2 ), angle information (P' 3 , P ' 4 , P' 2 )}

If P'1,P'2,P'3,P'5 = Non-collinearIf P ' 1 , P' 2 , P ' 3 , P' 5 = Non-collinear

A_Model[2] = {기준선(P'1,P'5),인접점(P'2,P'3),각도정보(P'3,P'1,P'2),각도정보(P'3,P'5,P'2)}A_Model [2] = {baseline (P ' 1 , P' 5 ), adjacent point (P ' 2 , P' 3 ), angle information (P ' 3 , P' 1 , P ' 2 ), angle information (P' 3 , P ' 5 , P' 2 )}

상기와 같이 기준 영상, 확장 영상에 대하여 각도 정보를 산출(S42)하고, 두 영상의 각도차이 값을 비교하여 만약 두 영상의 각도 차이 값이 각도 임계값보다 크면 두 모델은 동일한 모델이 아니라고 판단하고 해당 모델을 제거(S45)한다.As described above, the angle information is calculated for the reference image and the extended image (S42), and the angle difference values of the two images are compared, and if the angle difference value of the two images is larger than the angle threshold, it is determined that the two models are not the same model. Remove the model (S45).

상술하면, 기준 영상, 확장 영상에 대하여 각도 정보를 산출하여 각도 테이블로 생성한 후, 각 모델별로 각도 차이를 산출(S42)한다.In detail, the angle information is calculated from the reference image and the extended image to generate an angle table, and then the angle difference is calculated for each model (S42).

그 후, 기준 영상의 첫번째 모델의 각도 차이와 확장 영상의 첫번째 모델의 각도 차이를 호출(S43)하고, 각도 차이가 미리 설정한 각도 임계값보다 큰지를 판단(S44)한다.Thereafter, the angle difference between the first model of the reference image and the angle difference between the first model of the extended image is called (S43), and it is determined whether the angle difference is greater than a preset angle threshold (S44).

각도 차이가 각도 임계값보다 클 경우에는 두 모델은 같은 모델이 아니라고 판정하고 해당 모델을 제거(S45)한다. 그 후, 다음 번째의 모델의 각도 차이를 호출(S43)하여, 마찬가지로, 해당 각도 차이가 각도 임계값보다 큰지 판단(S44)하여 클 경우에는 해당 모델을 제거(S45)한다.If the angle difference is greater than the angle threshold, it is determined that the two models are not the same model and remove the corresponding model (S45). Thereafter, the angle difference of the next model is called (S43). Similarly, if the angle difference is larger than the angle threshold (S44), and if large, the model is removed (S45).

상기 제거 과정들을 알고리즘 식으로서 표현하면 다음과 같다.The removal processes are expressed as algorithmic expressions as follows.

δangle = │R_Model[Angle] - A_Model[Angle]│δ angle = │R_Model [Angle]-A_Model [Angle] │

If δangle > THRESHOLDangle If δ angle > THRESHOLD angle

R_Model ≠ A_ModelR_Model ≠ A_Model

상기 과정들은 마지막 모델들에 도달(S46)할 때까지 반복 수행하여, 동일하지 않은 모델들을 제거한다.The above steps are repeated until the last models are reached (S46), thereby eliminating models that are not identical.

상기와 같이 각도 차이 값이 각도 임계값보다 크면 두 모델은 동일한 모델이 아니라고 판단하고 해당 모델을 제거(S22)한 후, 마찬가지로, 구성된 모델들의 길이(line) 정보 유사성을 평가하여 길이가 유사하지 않은 모델을 제거(S23)한다. 즉, 길이 차이 값을 비교하여 길이 차이값이 길이 임계값보다 크면 두 모델은 동일한 모델이 아니라고 판단하고 해당 모델을 제거(S23)하는 과정을 가진다.If the angle difference value is larger than the angle threshold as described above, it is determined that the two models are not the same model, and after removing the corresponding model (S22), similarly, by evaluating the similarity of the length information of the constructed models, the lengths are not similar. The model is removed (S23). That is, if the length difference value is greater than the length threshold by comparing the length difference value, it is determined that the two models are not the same model and has a process of removing the corresponding model (S23).

길이 임계값보다 큰 모델을 제거하는 과정을 도 5에 도시하였는데, 우선, 길이 테이블을 생성(S51)한다.The process of removing the model larger than the length threshold is shown in FIG. 5. First, a length table is generated (S51).

상기 길이 테이블은 기준점(P1,P'1)에 대한 각 모델들의 길이(line) 정보를 가지고 있다. 예컨대, 도 3(a)의 기준 영상에서는 기준선(P1-P4)를 기준으로 인접하는 두 점(P2,P3)과의 길이를 계산하여 길이 테이블에 저장한다. 마찬가지로, 합성될 영상인 도 3(b)의 확장 영상에서도 추출된 특징점들 중에서 기준선(P'1-P'4)을 기준으로 인접하는 두 점(P'2,P'3)과의 길이를 각각 계산하여 길이 테이블에 저장한다The length table has line information of each model with respect to the reference point P 1 , P ′ 1 . For example, in the reference image of FIG. 3A, the lengths of two adjacent points P 2 and P 3 based on the reference lines P 1 to P 4 are calculated and stored in the length table. Similarly, in the extended image of FIG. 3 (b) which is an image to be synthesized, the lengths of the extracted feature points with two adjacent points P ' 2 and P' 3 based on the reference lines P ' 1- P' 4 are determined. Calculate each and store in length table

기준 영상과 확장 영상의 모델들에 대한 길이 테이블 예시는 다음과 같다. 하기에서 R_Model[N]은 기준 영상(reference image)의 N번째 모델을 말하며, A_Model[N]은 확장 영상(added image)의 N번째 모델을 말한다.An example of the length table for the models of the base view image and the extended image is as follows. In the following, R_Model [N] refers to the Nth model of the reference image, and A_Model [N] refers to the Nth model of the added image.

If P1,P2,P3,P4 = Non-collinearIf P 1 , P 2 , P 3 , P 4 = Non-collinear

R_Model[1] = {기준선(P1,P4),인접점(P2,P3),길이정보(P1,P2),길이정보(P1,P3),길이정보(P4,P2),길이정보(P4,P3)}R_Model [1] = {reference line (P 1 , P 4 ), adjacent point (P 2 , P 3 ), length information (P 1 , P 2 ), length information (P 1 , P 3 ), length information (P 4 , P 2 ), length information (P 4 , P 3 )}

If P1,P2,P3,P5 = Non-collinearIf P 1 , P 2 , P 3 , P 5 = Non-collinear

R_Model[2] = {기준선(P1,P5),인접점(P2,P3),길이정보(P1,P2),길이정보(P1,P3),길이정보(P5,P2),길이정보(P5,P3)}R_Model [2] = {reference line (P 1 , P 5 ), adjacent point (P 2 , P 3 ), length information (P 1 , P 2 ), length information (P 1 , P 3 ), length information (P 5 , P 2 ), length information (P 5 , P 3 )}

If P'1,P'2,P'3,P'4 = Non-collinearIf P ' 1 , P' 2 , P ' 3 , P' 4 = Non-collinear

A_Model[1] = {기준선(P'1,P'4),인접점(P'2,P'3),길이정보(P'1,P'2),길이정보(P'1,P'3),길이정보(P'4,P'2),길이정보(P'4,P'3)}A_Model [1] = {reference line (P ' 1 , P' 4 ), adjacent point (P ' 2 , P' 3 ), length information (P ' 1 , P' 2 ), length information (P ' 1 , P' 3 ), length information (P ' 4 , P' 2 ), length information (P ' 4 , P' 3 )}

If P’1,P’2,P’3,P’5 = Non-collinearIf P ' 1 , P' 2 , P ' 3 , P' 5 = Non-collinear

A_Model[2] = {기준선(P'1,P'5),인접점(P'2,P'3),길이정보(P'1,P'2),길이정보(P'1,P'3),길이정보(P'5,P'2),길이정보(P'5,P'3)}A_Model [2] = {baseline (P ' 1 , P' 5 ), adjacent point (P ' 2 , P' 3 ), length information (P ' 1 , P' 2 ), length information (P ' 1 , P' 3 ), length information (P ' 5 , P' 2 ), length information (P ' 5 , P' 3 )}

상기와 같이 기준 영상, 확장 영상에 대하여 길이 정보를 산출하고, 두 영상의 길이 차이 값을 비교하여 만약 두 영상의 길이 차이 값이 길이 임계값보다 크면 두 모델은 동일한 모델이 아니라고 판단하고 해당 모델을 제거한다.As described above, the length information is calculated for the base image and the extended image, and the difference in the length difference between the two images is determined. Remove

상술하면, 기준 영상, 확장 영상에 대하여 길이 정보를 산출하여 길이 테이블로 생성한 후, 각 모델별로 길이 차이를 산출(S52)한다.In detail, length information is calculated for the reference image and the extended image to generate a length table, and then a length difference for each model is calculated (S52).

그 후, 기준 영상의 첫번째 모델의 길이 차이와 확장 영상의 첫번째 모델의 길이 차이를 호출(S53)하고, 길이 차이가 미리 설정한 길이 임계값보다 큰지를 판단(S54)한다.Thereafter, the length difference of the first model of the reference image and the length difference of the first model of the extended image are called (S53), and it is determined whether the length difference is greater than a preset length threshold (S54).

길이 차이가 길이 임계값보다 클 경우에는 두 모델은 같은 모델이 아니라고 판정하고 해당 모델을 제거(S55)한다. 그 후, 다음 번째의 모델의 길이 차이를 호출(S53)하여, 마찬가지로, 해당 길이 차이가 길이 임계값보다 큰지를 판단(S54)하여 클 경우에는 해당 모델을 제거(S55)한다.If the difference in length is greater than the length threshold, it is determined that the two models are not the same model and the corresponding model is removed (S55). Thereafter, the length difference of the next model is called (S53). Similarly, if the length difference is greater than the length threshold (S54), if the size is large, the model is removed (S55).

상기 제거 과정들을 알고리즘 식으로서 표현하면 다음과 같다.The removal processes are expressed as algorithmic expressions as follows.

δline = │R_Model[line] - A_Model[line]│δ line = │R_Model [line]-A_Model [line] │

If δline > THRESHOLDline If δ line > THRESHOLD line

R_Model ≠ A_ModelR_Model ≠ A_Model

상기 과정들은 마지막 모델들에 도달(S56)할 때까지 반복 수행하여, 동일하지 않은 모델들을 제거한다.The above steps are repeated until the last models are reached (S56), thereby eliminating models that are not identical.

상기와 같이 추출된 특징점들에 속에서 기하학적 정보(각도정보, 길이정보)를 가지고 두 영상의 모델들을 비교함으로써 서로 유사하지 않는 모델들은 메모리 상에서 제거(S22,S23)하게 된다. 이러한 방법은 무수히 많은 특징점들 중에서 필요하지 않은 특징점들을 자동으로 필터링하여 그 계산량을 현저하게 줄일 수 있다.By comparing the models of the two images with geometric information (angle information, length information) in the extracted feature points as described above, dissimilar models are removed from the memory (S22 and S23). This method can automatically filter out unnecessary features among a myriad of feature points and significantly reduce the amount of computation.

다음 단계로서, 이러한 기하학적 정보(각도정보,길이정보)의 유사성 조건에 의해 필터링된 모델들에 대해서, 추가적으로 칼라(color) 정보의 유사성을 평가하여 서로 유사하지 않는 모델들을 제거(S24)하는 과정을 가진다.As a next step, with respect to the models filtered by the similarity condition of the geometric information (angle information, length information), the process of removing the dissimilar models by evaluating the similarity of the color information (S24) is performed. Have

칼라 정보가 서로 유사하지 않는 모델들을 제거하는 과정은, 기하학적 정보(각도정보,길이정보)의 유사성 조건에 의해 필터링된 모델들에 대하여 두 비교 영상 주변 부위의 각 화소 점에 대한 두 영상의 컬러 유사성 평가 척도로 Color-NCC(color-normalized cross correlation)을 이용한다. Color-NCC는 두 비교 영상의 마스크 내에서 밝기의 평균을 뺀 나머지 부분을 정규화시켜 유사성을 평가하는 기법이다.The process of removing models whose color information is not similar to each other includes color similarity of two images with respect to each pixel point around two comparison images with respect to models filtered by the similarity condition of geometric information (angle information and length information). Color-normalized cross correlation (Color-NCC) is used as an evaluation measure. Color-NCC is a technique to evaluate the similarity by normalizing the remaining parts of the two sub-images minus the average brightness.

참고로, 하기 [수식 1]과 함께 Color-NCC의 컬러 유사성 평가 기법을 설명한다.For reference, the color similarity evaluation technique of Color-NCC will be described together with Equation 1 below.

[수식 1][Equation 1]

Figure 112008089241927-PAT00002
Figure 112008089241927-PAT00002

상기 [수식 1]에서 ft0(x,y)는 기준 영상의 모델을 ft1(u,v)는 합성될 확장 영상의 모델들의 픽셀 좌표에 대한 RGB 벡터 성분을 나탄낸다. mt0, mt1은 ft0,ft1 마스크 내에서 컬러 값에 대한 평균을 나타내며, "∥∥"는 RGB 성분에 대한 norm 벡터를 나타낸다.In Equation 1, f t0 (x, y) represents a model of a reference image, and f t1 (u, v) represents an RGB vector component of pixel coordinates of models of the extended image to be synthesized. m t0 , m t1 represent the mean for the color values in the f t0 , f t1 mask, and “∥∥” represents the norm vector for the RGB component.

대응점 좌표(x,y)를 기준으로 크기가 s×s인 마스크

Figure 112008089241927-PAT00003
를 만들고 확장 영상의 지정된 검색 영역 (i,j) 안에서 마스크
Figure 112008089241927-PAT00004
들과 상관계수를 조사한다. 상기 [수식 1]은 정규화 과정을 통해 -1 ∼ 1 사이 값들로 지정되며, 두 영상의 비교 마스크가 일치한다면 1의 값을 갖는다.Mask of size s × s based on the coordinates of the corresponding point (x, y)
Figure 112008089241927-PAT00003
And mask within the specified search area (i, j) of the extended image
Figure 112008089241927-PAT00004
Examine the correlation coefficients with each other. Equation 1 is designated as values between −1 and 1 through normalization, and has a value of 1 if the comparison masks of the two images match.

Color-NCC를 통해 두 모델들에 대한 δc값이 임계값보다 작은 경우 두 모델의 컬러 정보는 유사하지 않다고 판단하고 해당 모델을 제거한다.If the value of δ c for the two models is smaller than the threshold value through Color-NCC, it is determined that the color information of the two models is not similar and the corresponding model is removed.

상기와 같이, 기하학적 정보(각도 정보, 길이 정보) 및 컬러 정보를 이용하여 유사하지 않는 모델에 대한 제거가 이루어지면, 결국, 이렇게 결정된 최종 모델은 기하학적 정보와 컬러 정보를 모두 비교하여 필터링된 최종 모델이 되며, 그 모델들에 대한 대응점 쌍이 최적의 대응점 쌍이 된다. 참고로, 도 6은 상기 필터링 과정들을 거쳐 두 영상의 중복 영역에서 최적 대응점 쌍이 결정된 모습을 도시한 그림이다.As described above, if removal of dissimilar models is made using geometric information (angle information, length information) and color information, the final model thus determined is the final model filtered by comparing both geometric information and color information. Then, the pair of correspondence points for the models becomes the optimal pair of correspondence points. For reference, FIG. 6 is a diagram illustrating a state where an optimal pair of matching points is determined in an overlapping region of two images through the filtering process.

한편, 추출된 특징점들에 대하여 기하학적 정보(각도 정보, 길이 정보) 및 컬러 정보를 이용하여 필터링을 하여 최적 대응점 쌍이 최종 결정되면, 최적 대응점 쌍들에 의한 투영 변환 계수(parameter)를 산출(S14)하는 과정을 가진다.On the other hand, the optimal feature pairs are finally determined by filtering the extracted feature points using geometric information (angle information, length information) and color information, and calculating (S14) a projection transformation coefficient based on the optimum match point pairs. Have a process.

기준 영상과 확장 영상을 합성할 때 이미지 정렬 과정을 거치는데, 이러한 이미지 정렬에 있어 투영 변환 계수를 필요로 하기 때문에, 이미지 정렬에 앞서 투영 변환 계수를 유도하는 과정을 가진다.When the reference image and the extended image are synthesized, the image alignment process is performed. Since the projection transformation coefficient is required for the image alignment, the projection transformation coefficient is derived before the image alignment.

투영 변환 계수를 유도하는 과정을 살펴보면, 도 7과 같이 제1카메라에서 캡쳐된 영상과 제2카메라에서 캡쳐된 영상 평면에 화소 기준 영상의 화소 R과 확장 영상의 화소 A를 직교 좌표계의 위치라고 생각한다면, 점 R과 점 A는 3D 현실 좌표 W와 동차적(Homogeneous) 성질을 가진다. Referring to the process of deriving the projection transformation coefficient, as shown in FIG. 7, the pixel R of the pixel reference image and the pixel A of the extended image are regarded as positions of the Cartesian coordinate system in the image captured by the first camera and the image plane captured by the second camera. If so, points R and A have a homogeneous nature with 3D real coordinates W.

따라서, 제1카메라, 제2카메라 영상 평면 사이의 점 R과 점 A는 실 영상 사이의 관계가 동차 행렬 H1,H2의 관계가 있다고 가정한다면, 제1카메라와 제2카메라의 2D 투영 변환 관계 H를 구할 수 있다.Therefore, if the point R and the point A between the first camera and the second camera image plane assume that the relationship between the real images has a homogeneous matrix H 1 , H 2 , the 2D projection transformation of the first camera and the second camera The relationship H can be found.

즉, 정리하여 설명하면, 3차원 좌표 점 W와 2차원 좌표 점 R은 동차적 성질 H1을 가지고 있으며, 점 A역시 동차적 성질 H2를 가지고 있다.In other words, the three-dimensional coordinate point W and the two-dimensional coordinate point R have a homogeneous property H 1 , and the point A also has a homogeneous property H 2 .

따라서 점 R,A에 대하여 동차 좌표계로의 확장은 변환 비율 s = 1에 R(x,y,s), A(u,v,s)로 표현할 수 있으며, 직교 좌표계에서는 R(x/s, y/s), A(u/s,v/s)로 나타낼 수 있다.Therefore, for point R, A, the expansion to homogeneous coordinate system can be expressed as R (x, y, s), A (u, v, s) at conversion ratio s = 1, and in Cartesian coordinate system R (x / s, y / s) and A (u / s, v / s).

결국, 두 영상의 사이의 관계는 아래와 같다.As a result, the relationship between the two images is as follows.

R(x,y) = H1W, A(u,v) = H1WR (x, y) = H 1 W, A (u, v) = H 1 W

A(u,v) = H2H1 -1R(x,y), A = HRA (u, v) = H 2 H 1 -1 R (x, y), A = HR

상기 관계식을 일반화하면 하기의 [수식 2]와 같은 동차 행렬식을 얻을 수 있다. 하기에서 a11~a32는 투영 변환 계수의 파라미터이다.By generalizing the above relation, a homogeneous determinant such as the following [Formula 2] can be obtained. In the following, a 11 to a 32 are parameters of the projection transformation coefficient.

[수식 2][Equation 2]

Figure 112008089241927-PAT00005
Figure 112008089241927-PAT00005

따라서, S12 단계에서 탐지된 최적 대응점 쌍 N으로 이루어진 집합 {((xi,yi),(ui,vi))│i=1,2,....,n}에 대하여 두 영상의 투영 관계를 나타내는 선형 연립 방정식은 하기의 [수식 3]으로 표현된다.Therefore, two images of the set {((x i , y i ), (u i , v i )) │i = 1,2, ...., n} consisting of the optimal pair of matching points N detected in step S12 A linear simultaneous equation representing the projection relationship of is expressed by Equation 3 below.

[수식 3][Equation 3]

Figure 112008089241927-PAT00006
Figure 112008089241927-PAT00006

본 발명에서는 최적의 대응점이 탐색되고, 그 탐색된 대응점으로 [수식 3]의 선형 연립 방정식인 8개의 투영 변환 계수(a11~a32)를 안다면 합성될 모든 영상의 모든 화소를 정렬할 수 있게 된다.In the present invention, an optimal correspondence point is searched, and if the eight correspondence transformation coefficients (a 11 to a 32 ), which are linear simultaneous equations of [Equation 3], are found, it is possible to align all pixels of all images to be synthesized. do.

상기 [수식 3]의 방정식은 투영 변환(perspective transformation)으로 제1카메라의 영상과 연속되는 제2카메라의 사이의 거의 모든 full motion(rotation, translation, uniform scaling, non-uniform scaling, shear, perspective projection) 변환을 포함하고 있다.Equation (3) is a perspective transformation, and almost all full motion (rotation, translation, uniform scaling, non-uniform scaling, shear, perspective projection) between the image of the first camera and the second camera that is continuous. ) Contains the transformation.

S12 단계에서 카메라에 투영된 영상의 대응점 쌍들 중에서 최소 4개의 최적 대응점을 표시하면 다음과 같다. 즉, 기준 영상(R)의 4개의 점인 (x1,y1), (x2,y2), (x3,y3), (x4,y4)와 확장 영상(A)의 4개의 점인 (u1,v1), (u2,v2), (u3,v3), (u4,v4)의 대응점 쌍의 모습은 다음과 같으며, [수식 4]와 같은 A=WP의 형태를 가진다. 여기서 P는 투영 변환 계수의 파라미터 행렬이다.In operation S12, at least four optimum correspondence points among the correspondence point pairs of the image projected on the camera are displayed as follows. That is, four points of the reference image R (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 ) and 4 of the extended image A The pairs of corresponding points of (u 1 , v 1 ), (u 2 , v 2 ), (u 3 , v 3 ), (u 4 , v 4 ) are as follows. It has the form A = WP. Where P is a parametric matrix of projection transform coefficients.

R A     R A

Figure 112008089241927-PAT00007
Figure 112008089241927-PAT00007

[수식 4][Equation 4]

Figure 112008089241927-PAT00008
Figure 112008089241927-PAT00008

만약, S12 단계에서 카메라에 투영된 영상의 대응점 쌍들 중에서 최소 4개의 최적 대응점을 구한다면, W는 4×4 정방 행렬을 가지며, 8개의 투영 변환 계수가 a11, a12, a13, a21, a22, a23, a31, a32 이고, 기준 영상의 최적 대응점이 (x1,y1), (x2,y2), (x3,y3), (x4,y4)이고, 확장 영상 최적 대응점이 (u1,v1), (u2,v2), (u3,v3), (u4,v4)라 할때, 8개의 투영 변환 계수는 상기의 [수식 4]의 역행렬을 취해 하기 [수식 5]와 같이 구할 수 있다.If, at step S12, at least four optimal matching points are obtained from the pairs of matching points of the image projected on the camera, W has a 4 × 4 square matrix and eight projection transformation coefficients are a 11 , a 12 , a 13 , and a 21. , a 22 , a 23 , a 31 , a 32, and the optimal correspondence points of the reference image are (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 ), And when the extended image optimal correspondence points are (u 1 , v 1 ), (u 2 , v 2 ), (u 3 , v 3 ), (u 4 , v 4 ), the eight projection transformation coefficients are The inverse of Equation 4 can be obtained as shown in Equation 5 below.

[수식 5][Equation 5]

Figure 112008089241927-PAT00009
Figure 112008089241927-PAT00009

따라서, 상기 [수식 5]는 8개의 투영 변환 계수(A;a11~a32)를 구하기 위하여 최소 대응점 쌍 4개를 가정할 경우이며, 이를 일반화하면 P=W-1A로 구할 수 있다.Accordingly, Equation 5 is assuming that at least four pairs of corresponding points are obtained in order to obtain eight projection transformation coefficients A; a 11 to a 32. In general, P = W −1 A can be obtained.

그러나, 만약, 대응점 쌍의 개수 N이 4보다 크다면 W는 정방 행렬을 가지지 않고 이방행렬이 되기 때문에, W-1을 구할 수 없어 투영 변환 계수 행렬(P)를 구할 수 없다.However, if the number N of the pairs of corresponding points is larger than 4, since W becomes an anisotropic matrix without a square matrix, W −1 cannot be obtained and the projection transformation coefficient matrix P cannot be obtained.

따라서 대응점 쌍의 개수 N이 4보다 크다면 최소 자승 오차(least square error)를 제공하는 투영 변환 계수의 해는 하기 [수식 6]와 같이 구할 수 있다. [수식 6]의 해인 투영 변환 계수 행렬(P)은 통상 자승 오차(square error)를 최소화하여 구하는 이방 역행렬 계산 방식인 Pseudoinverse 방식을 통해 구한다.Therefore, if the number N of pairs of matching points is greater than 4, the solution of the projection transformation coefficient that provides the least square error may be obtained as in Equation 6 below. The projection transformation coefficient matrix P, which is the solution of [Equation 6], is usually obtained through the Pseudoinverse method, which is an anisotropic inverse matrix calculation method obtained by minimizing square error.

따라서 대응점 쌍의 개수 N이 4보다 커서 Pseudoinverse 계산 방식을 적용할 경우, A는 확장 영상의 좌표 행렬, W는 선형 변환 행렬, P는 투영 변환 계수 행렬, WT는 W의 전치 행렬, W-1은 W의 역행렬이라 할 때, 투영 변환 계수 행렬은 하기 [수식 6]에 의해 구해질 수 있다.Therefore, when the number of pairs of matching points N is greater than 4, when Pseudoinverse calculation is applied, A is the coordinate matrix of the extended image, W is the linear transformation matrix, P is the projection transformation coefficient matrix, W T is the transpose matrix of W, and W -1. When is an inverse of W, the projection transformation coefficient matrix can be obtained by the following [Equation 6].

[수식 6][Equation 6]

A=WP -> P=(WTW)-1WTAA = WP-> P = (W T W) -1 W T A

결국, 8개의 투영 변환 계수(a11~a32)를 유도하는 과정은, i) 찾아진 대응점 쌍 R,A의 개수가 4개라면 [수식 3]의 8개의 투영 변환 계수(a11~a32)를 상기 [수식 5]를 통해 구하고, ii) 찾아진 대응점 쌍 R,A의 개수가 4보다 크다면 [수식 3]의 8개의 투영 변환 계수를 상기 [수식 6]를 통해 구한다.As a result, the process of deriving the eight projection transformation coefficients a 11 to a 32 is performed. I) If the number of the corresponding pairs of matching points R and A is four, the eight projection transformation coefficients (a 11 to a) 32 ) is obtained through Equation 5, and ii) if the number of pairs of matching points R and A found is greater than 4, eight projection transformation coefficients of Equation 3 are obtained through Equation 6.

이를 프로그램의 알고리즘으로 정리하여 표현하면 다음과 같다.The algorithm is summarized as follows.

IF correspondence pairs = 4IF correspondence pairs = 4

Find 8 parameters of P using W-1AFind 8 parameters of P using W -1 A

IF correspondence pairs > 4IF correspondence pairs> 4

Find 8 parameters of P using (WTW)-1WTAFind 8 parameters of P using (W T W) -1 W T A

한편, 상기와 같이 [수식 5] 또는 [수식 6]에 의해 구한 8개의 투영 변환 계수(a11~a32)를 갖는 [수식 3]의 투영 변환(perspective transformation)은 영상 합성에 있어서 이미지 정렬을 위해 필요로 한다.On the other hand, the perspective transformation of [Equation 3] having eight projection transformation coefficients (a 11 to a 32 ) obtained by Equation 5 or Equation 6 as described above provides an image alignment in image composition. Need.

이미지 정렬(S15) 과정에 대하여 설명한다.The image aligning process (S15) will be described.

이미지 정렬(image alignment)이란 제1카메라의 임의의 기준 영상 시퀀스에 대하여 사용자에게 보여줄 한 장의 확장된 영상으로 표현하고자 제2카메라의 임의의 각 화소를 [수식 3]의 투영 변환에 맞게 정렬하는 것을 말하는 것으로서, 상기의 [수식 3]에서 구한 투영 변환을 통해 합성할 확장 영상의 영상 화소들을 정렬하는 과정을 수행한다.Image alignment refers to aligning each pixel of the second camera with the projection transformation of [Equation 3] to express one extended image to be shown to the user for any reference image sequence of the first camera. In other words, a process of aligning the image pixels of the extended image to be synthesized through the projection transformation obtained in Equation 3 is performed.

본 발명의 실시 예에서는 이미지 정렬을 함에 있어, 결과 영상에 화소 정보 부족으로 인한 홀(hole)을 생성시키지 않기 위하여 도 8과 같이 역방향 맵핑(inverse mapping)을 수행한다.In the embodiment of the present invention, in order to align the image, inverse mapping is performed as shown in FIG. 8 so as not to generate a hole due to lack of pixel information in the resultant image.

이미지 정렬 과정을 도시한 도 9와 함께 이미지 정렬 과정을 설명하면, 우선, 기본 영상과 확장 영상이 매칭 확장되어 놓일 더미(dummy) 영상을 생성(S91)하는 과정을 가진다.Referring to FIG. 9, which illustrates an image alignment process, first, a process of generating a dummy image in which a base image and an extended image are matched and extended is generated (S91).

상기 더미 영상은 제1카메라의 기준 영상(reference image)과 제2카메라의 확장 영상(added image)을 맵밍하기 위한 하나의 가상 영상이다. 상기 더미 영상은 아무런 RGB 데이터 값을 가지고 있지 않은 영상이다The dummy image is one virtual image for mapping a reference image of the first camera and an added image of the second camera. The dummy image is an image having no RGB data value.

확장 영상의 데이터는 R,G,B 디지털 코드를 처리하므로 저장 공간의 크기는 각 화소마다 24bit의 크기를 가지며, 확장 영상의 데이터의 전체 사이즈는, 가로폭과 세로폭 사이즈를 달리한다. Since the data of the extended video processes R, G, and B digital codes, the size of the storage space has a size of 24 bits for each pixel, and the total size of the data of the extended video differs in width and height.

즉, 기준 영상과 확장 영상이 더해진 한장의 확장 영상은 두 영상의 수평 시야(FOV;Field Of View)를 나타낼 수 있는 가로폭(width)에서 중첩 부분을 뺀 값이 확장된 영상의 최종 시야(FOV)이며 더미 영상의 높이는 충분한 공간 확보를 위하여 두 영상의 세로폭(height)의 최대값(MAX)를 선택한다.That is, a single extended image, in which a base image and an extended image are added, has a final field of view (FOV) of an image obtained by subtracting an overlapping portion from a width that can represent a field of view (FOV) of the two images. The height of the dummy image is selected as the maximum value MAX of the height of the two images in order to secure sufficient space.

참고로, 더미 영상 가로폭을 Dummy Image Width, 기준영상 가로폭을 Ref_width, 기준영상 세로폭을 Ref_height, 합성영상 가로폭을 Added_Width, 합성영상 세로폭을 Added_Width라 할 때, 이를 수식 알고리즘으로 표현하면 다음과 같다.For reference, when the dummy image width is Dummy Image Width, the reference image width is Ref_width, the reference image height is Ref_height, the composite image width is Added_Width, and the composite image height is Added_Width. Same as

Dummy Image Width = Ref_width + Added_Width - (중첩 비율 × Ref_width)Dummy Image Width = Ref_width + Added_Width-(Nested Ratio × Ref_width)

Dummy Image Height = Max(Ref_height,Added_height)Dummy Image Height = Max (Ref_height, Added_height)

Created_Dummy Image = (Dummy Image Width,Dummy Image Height,24bit)Created_Dummy Image = (Dummy Image Width, Dummy Image Height, 24bit)

더미 영상(dummy image)이 상기와 같이 생성되면, 가상으로 만든 더미 영상에 기준 이미지(refrence image)를 맵핑(mapping)시킨다(S92).When a dummy image is generated as described above, a reference image is mapped to a virtual dummy image (S92).

더미 영상에 기준 영상을 맵핑시켜 위치해놓은 모습을 도 10에 도시였는데, 더미 영상의 왼쪽편에 기준 영상이 맵핑되어 놓여져 있음을 알 수 있다.FIG. 10 shows a state in which the reference image is mapped to the dummy image, and it can be seen that the reference image is mapped and placed on the left side of the dummy image.

기준 영상의 각 화소를 더미 영상의 해당 화소에 세로축, 가로축으로 차례로 맵핑하는데, 참고로, 프로그램 알고리즘으로 표현하면 다음과 같다.Each pixel of the reference image is sequentially mapped to the corresponding pixel of the dummy image in the vertical axis and the horizontal axis. For reference, it is expressed as a program algorithm as follows.

For(y=0;y<Reference Image_Height;y++)For (y = 0; y <Reference Image_Height; y ++)

For(x=0;x<Reference Image_Width;x++)For (x = 0; x <Reference Image_Width; x ++)

{{

Dummy Image[y][x] = Reference Image[y][x];Dummy Image [y] [x] = Reference Image [y] [x];

}}

더미 영상(Dummy Image)에 기준 영상(Reference Image)을 맵핑한 후, 합성될 부분에 확장 영상(Added Image)를 도 11과 같이 역방향 맵핑(Inverse-Mapping)한다(S93). 이때, 확장 영상(Added Image)에는 제1카메라와 제2카메라의 캡쳐 시에 카메라의 회전(rotation), 이동(translation), 스케일링(scaling), 절단(shear), 투영(perspective)에 의해 두 영상의 모형이 사형 변환되어 나타난다. After mapping a reference image to a dummy image, an added image is inversely mapped to the portion to be synthesized as shown in FIG. 11 (S93). At this time, the added image includes two images by rotation, translation, scaling, cutting, and perspective of the camera when the first camera and the second camera are captured. The model of is transformed to death.

이러한 카메라의 풀 모션(full motion)은 8개의 투영 변환 계수로 나타낼 수 있으며, 두 카메라의 이동 변위(disparity)는 ft1->Rf't1+T이다.The full motion of the camera (full motion) may be represented by the eight projective transformation coefficient, displacement (disparity) of two cameras f t1 -> Rf 'it is T + t1.

참고로, 확장 영상(Added Image)의 (u,v)좌표가 기준 영상(Reference Image)의 (x,y)좌표로 역방향 맵핑되는 프로그램 알고리즘을 표현하면 다음과 같다.For reference, a program algorithm in which (u, v) coordinates of an added image are backward mapped to (x, y) coordinates of a reference image may be expressed as follows.

하기에서, x', y'은 제2카메라에서 취득된 영상의 좌표를 나타내며, u,v는 투영 변환 계수에 의해 제2카메라의 영상을 변환할 좌표를 나타낸다.In the following description, x 'and y' represent coordinates of an image acquired by the second camera, and u and v represent coordinates to convert the image of the second camera by the projection conversion coefficient.

For(y'=0;y'<Dummy Image_Height;y'++)For (y '= 0; y' <Dummy Image_Height; y '++)

For(x'=0;x'<Dummy Image_Width;x'++)For (x '= 0; x' <Dummy Image_Width; x '++)

If(x'≥0 && x'<Reference_Width) && (y'≥0 && y'< Reference_Heitht)If (x'≥0 && x '<Reference_Width) && (y'≥0 && y' <Reference_Heitht)

continue; /* Reference Image data가 맵핑된 부분은 skip함 */continue; / * Skip the part where the reference image data is mapped * /

else then: u = (a11×x' + a12×y' + a13) / (a31×x' + a32×y' + 1);else then: u = (a 11 x x '+ a 12 x y' + a 13 ) / (a 31 x x '+ a 32 x y' + 1);

v = (a21×x' + a22×y' + a23) / (a31×x' + a32×y' + 1);v = (a 21 x x '+ a 22 x y' + a 23 ) / (a 31 x x '+ a 32 x y' + 1);

If(u < 0∥u ≥ Added_width∥v<0∥v≥Added_Height)If (u <0∥u ≥ Added_width∥v <0∥v≥Added_Height)

continue; /* Added Image data가 더미 영상 밖에 있는 부분은 skip함 */continue; / * Skip the part where the added image data is outside the dummy image * /

else then : Dummy Image[y'][x']=Added Image[v][u];else then: Dummy Image [y '] [x'] = Added Image [v] [u];

상기와 같이 이미지 정렬 과정을 거쳐 기준 영상과 확장 영상을 합성하여 하나의 영상으로 만든 후에, 이미지 안정화(Image Stablization) 과정을 가진다.After combining the base image and the extended image through the image alignment process as described above to form a single image, it has an image stabilization process.

상기 이미지 안정화는 과정은, 최종 합성된 영상의 컬러값의 틀어짐이나 휘도값(Y)의 정보를 일치화시키기 위한 과정이다. 예컨대, 도 12와 같이 합성된 영상의 정보 표현이 일치하지 않는 부분을 클리핑(clipping)하거나 보간(interpolation)을 거쳐 영상의 표현을 좀더 매끄럽게 한다.The image stabilization process is a process for matching color information of the final synthesized image and information of luminance value (Y). For example, as shown in FIG. 12, the representation of the synthesized image does not coincide with the clipping or interpolation to smooth the expression of the image.

상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시될 수 있다. 따라서 본 발명의 특허 범위는 상기 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위뿐 아니라 균등 범위에도 미침은 자명할 것이다.In the above description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention is not to be determined by the embodiments described above, but will be apparent in the claims as well as equivalent scope.

도 1은 본 발명의 실시 예에 따른 스테레오 카메라 영상 합성 과정을 도시한 플로차트이다.1 is a flowchart illustrating a stereo camera image synthesis process according to an exemplary embodiment of the present invention.

도 2는 본 발명의 실시 예에 따른 필터링 과정을 도시한 플로차트이다.2 is a flowchart illustrating a filtering process according to an exemplary embodiment of the present invention.

도 3은 본 발명의 실시 예에 따라 기준 영상에서 추출된 특징점들과 확장 영상에서 추출된 특징점들을 도시한 그림이다.3 is a diagram illustrating feature points extracted from a reference image and feature points extracted from an extended image according to an exemplary embodiment of the present invention.

도 4는 본 발명의 실시 예에 따라 각도 정보 유사성 평가하여 비유사 모델 제거하는 과정을 도시한 플로차트이다.4 is a flowchart illustrating a process of removing a dissimilar model by evaluating similarity of angle information according to an embodiment of the present invention.

도 5는 본 발명의 실시 예에 따라 길이 정보 유사성 평가하여 비유사 모델 제거하는 과정을 도시한 플로차트이다.5 is a flowchart illustrating a process of removing a dissimilar model by evaluating similarity of length information according to an embodiment of the present invention.

도 6은 본 발명의 실시 예에 따라 필터링 과정들을 거쳐 두 영상의 중복 영역에서 최적 대응점 쌍이 결정된 모습을 도시한 그림이다.FIG. 6 is a diagram illustrating an optimal pair of matching points determined in an overlapping region of two images through filtering processes according to an exemplary embodiment of the present invention.

도 7은 제1카메라에서 캡쳐된 영상과 제2카메라에서 캡쳐된 영상 평면에 화소 기준 영상의 화소 R과 확장 영상의 화소 A와 3D 현실 좌표 W와 동차적(Homogeneous) 성질을 도시한 그림이다.FIG. 7 is a diagram illustrating a homogeneous property of the pixel R of the pixel reference image, the pixel A of the extended reference image, and the 3D real coordinates W on the image captured by the first camera and the image plane captured by the second camera.

도 8은 본 발명의 실시 예에 따라 역방향 맵핑 모습을 도시한 그림이다.8 is a diagram illustrating a reverse mapping state according to an embodiment of the present invention.

도 9는 본 발명의 실시 예에 따라 역방향 맵핑 과정을 도시한 그림이다.9 is a diagram illustrating a reverse mapping process according to an embodiment of the present invention.

도 10은 본 발명의 실시 예에 따라 더미 영상에 기준 영상을 맵핑시켜 위치해놓은 모습을 도시한 그림이다.FIG. 10 is a diagram illustrating a state where a reference image is mapped to a dummy image according to an embodiment of the present invention.

도 11은 본 발명의 실시 예에 따라 기준 영상과 확장 영상을 합성하여 한장 의 영상으로 된 모습을 도시한 그림이다.FIG. 11 is a diagram illustrating a single image by synthesizing a base image and an extended image according to an exemplary embodiment of the present invention.

도 12는 본 발명의 실시 예에 따라 합성된 영상의 정보 표현이 일치하지 않는 부분을 클리핑(clipping)하거나 보간(interpolation)을 한 모습을 도시한 그림이다.FIG. 12 is a diagram illustrating a state where clipping or interpolation of a portion where information representations of a synthesized image do not match according to an embodiment of the present invention is performed.

Claims (13)

제1카메라에서 캡쳐한 기준 영상 및 제2카메라에서 캡쳐한 확장 영상에 대하여 특징점들을 검출하는 특징점 검출 과정;A feature point detection process of detecting feature points with respect to the reference image captured by the first camera and the extended image captured by the second camera; 상기 기준 영상 및 확장 영상에서 대응점 쌍의 개수를 결정하는 대응점 쌍 개수 결정 과정;A corresponding point pair number determination step of determining the number of corresponding point pairs in the reference image and the extended image; 결정된 상기 대응점 쌍의 개수를 갖는 모든 모델들을 구성한 후, 상기 모델들의 각도 정보, 길이 정보, 컬러 정보의 유사성을 평가한 후 유사하지 않은 모델들을 제거하여 최적 대응점을 구성하는 필터링 과정;A filtering process of constructing all models having the determined number of pairs of matching points, evaluating similarity of angle information, length information, and color information of the models and then removing dissimilar models to form an optimal matching point; 상기 결정된 대응점 쌍을 이용한 투영 변환 방식이 이루어질 경우, 상기 투영 변환 방식에 사용될 투영 변환 계수를 산출하는 투영 변환 계수 산출 과정;A projection transformation coefficient calculating step of calculating a projection transformation coefficient to be used for the projection transformation scheme when the projection transformation scheme using the determined pair of correspondence points is made; 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하여 투영 변환시킴으로써, 하나의 영상으로 합성하는 이미지 정렬 과정;An image alignment process of synthesizing the extended image into the one image by performing reverse conversion by mapping the extended image to the reference image using the projection transformation coefficient; 최종 합성된 영상의 컬러값 틀어짐, 휘도값 정보를 일치화시키는 이미지 안정화 과정Image stabilization process to match color value distortion and luminance value information of final synthesized image 을 포함하는 스테레오 카메라 영상 합성 방법.Stereo camera image synthesis method comprising a. 제1항에 있어서, 상기 특징점 검출 과정은, 두 영상 사이의 코너 점들을 특징점들로 하는 스테레오 카메라 영상 합성 방법.2. The method of claim 1, wherein the detecting of the feature point comprises feature points of corner points between two images. 제1항에 있어서, 상기 탐색할 대응점 쌍의 개수를 결정하는 것은, 두 카메라 사이의 투영 변환 방식을 고려하여 대응점 쌍의 개수를 결정하는 스테레오 카메라 영상 합성 방법.The method of claim 1, wherein the determining of the number of pairs of corresponding points to search comprises determining a number of pairs of corresponding points in consideration of a projection conversion method between two cameras. 제3항에 있어서, 이동(translation), 회전(rotation), 균등 스케일링(uniform scaling), 비균등 스케일링(non-uniform scaling), 절단(shear)을 포함하는 풀 모션(full motion)의 변환을 이루는 8개의 투영 변환 계수를 필요로 하는 'perspective' 투영 변환 방식이 적용되며, 이때, 대응점 개수가 4쌍으로 결정되는 스테레오 카메라 영상 합성 방법.4. The method of claim 3, further comprising transforming a full motion including translation, rotation, uniform scaling, non-uniform scaling, and shear. A 'perspective' projection conversion method requiring eight projection conversion coefficients is applied, wherein the number of corresponding points is determined as four pairs. 제1항에 있어서, 상기 필터링 과정은,The method of claim 1, wherein the filtering process, 기준 영상 및 확장 영상에서 각각 추출된 특징점들에 중에서 동일 직선상에 있지 않는(non-collinear) 두 점을 기준선으로 갖는 모든 모델을 구성하는 과정;Constructing all models having two non-collinear points as reference lines among the feature points extracted from the reference image and the extended image, respectively; 구성된 모든 모델들의 상기 기준선에 인접한 인접점들과의 각도(angle)를 산출하고, 기준 영상의 모델과 확장 영상의 모델간의 각도 차이를 구하여, 각도 임계값보다 큰 각도 차이를 가지는 모델을 제거하는 과정;Calculating an angle between adjacent points adjacent to the reference line of all the constructed models, obtaining an angle difference between the model of the reference image and the model of the extended image, and removing a model having an angle difference larger than an angle threshold ; 구성된 모든 모델들의 상기 기준선에 인접한 인접점들과의 길이(line)를 산출하고, 기준 영상의 모델과 확장 영상의 모델간의 길이 차이를 구하여, 길이 임계값보다 큰 길이 차이를 가지는 모델을 제거하는 과정;A process of removing a model having a length difference greater than a length threshold by calculating a length line between adjacent points adjacent to the reference line of all the constructed models, obtaining a length difference between the model of the reference image and the model of the extended image. ; 두 영상의 밝기 평균을 뺀 나머지 부분을 정규화시켜 컬러 정보 유사성을 평 가하는 color-NCC를 수행한 후, 두 영상의 모델간의 컬러 유사성 정보가 컬러 임계값 이하인 경우, 해당 모델을 제거하는 과정After the color-NCC is performed to normalize the remaining parts of the two images by subtracting the brightness average, the process of removing the model when the color similarity information between the models of the two images is less than or equal to the color threshold value. 을 포함하는 스테레오 카메라 영상 합성 방법.Stereo camera image synthesis method comprising a. 제4항에 있어서, 상기 투영 변환 계수를 산출하는 과정은,The process of claim 4, wherein the calculating of the projection conversion coefficient is performed. 최적 대응점 구성 과정을 통해 필터링된 최적 대응점의 쌍의 개수가 4개라면, 8개의 투영 변환 계수의 행렬(P)가 a11, a12, a13, a21, a22, a23, a31, a32 이고, 기준 영상의 최적 대응점이 (x1,y1), (x2,y2), (x3,y3), (x4,y4)이고, 확장 영상 최적 대응점이 (u1,v1), (u2,v2), (u3,v3), (u4,v4)라 할 때,If the number of pairs of optimal matching points filtered through the optimal matching point construction process is four, the matrix of eight projection transformation coefficients is a 11 , a 12 , a 13 , a 21 , a 22 , a 23 , a 31 , a 32, and the optimal correspondence point of the reference image is (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 ), u 1 , v 1 ), (u 2 , v 2 ), (u 3 , v 3 ), (u 4 , v 4 ),
Figure 112008089241927-PAT00010
Figure 112008089241927-PAT00010
를 이용하여 투영 변환 계수를 산출하는 스테레오 카메라 영상 합성 방법.Stereo camera image synthesis method for calculating the projection conversion coefficient using the.
제4항에 있어서, 상기 투영 변환 계수를 산출하는 과정은,The process of claim 4, wherein the calculating of the projection conversion coefficient is performed. 최적 대응점 구성 과정을 통해 필터링된 최적 대응점의 쌍의 개수가 4개를 초과한 경우라면, A는 확장 영상의 좌표 행렬, W는 선형 변환 행렬, P는 투영 변환 계수 행렬, WT는 W의 전치 행렬, W-1은 W의 역행렬이라 할 때, 투영 변환 계수로 이루어지는 투영 변환 계수 행렬 P는,If the number of pairs of optimal matching points filtered through the optimal matching point construction process exceeds 4, A is the coordinate matrix of the extended image, W is the linear transformation matrix, P is the projection transformation coefficient matrix, and W T is transpose of W. When the matrix, W −1 is an inverse of W, the projection transformation coefficient matrix P composed of the projection transformation coefficients is A=WP -> P=(WTW)-1WTAA = WP-> P = (W T W) -1 W T A 에 의해 산출되는 스테레오 카메라 영상 합성 방법.Stereo camera image synthesis method calculated by. 제1항에 있어서, 상기 이미지 정렬 과정은,The method of claim 1, wherein the image aligning process, 기본 영상과 확장 영상이 매칭 확장되어 놓일 더미(dummy) 영상을 생성하는 과정;Generating a dummy image in which the base image and the extended image are matched and extended; 상기 더미 영상에 상기 기준 영상의 화소를 맵핑하여 위치시키는 과정;Mapping and positioning pixels of the reference image on the dummy image; 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하여 하나의 영상으로서 합성하는 과정A process of backward mapping the extended image to the reference image by using the projection transformation coefficient and synthesizing it as one image 을 포함하는 스테레오 카메라 영상 합성 방법.Stereo camera image synthesis method comprising a. 제8항에 있어서, 상기 더미 영상은, 각 화소마다 RGB 데이터를 표시하기 위한 24bit크기를 가지는 스테레오 카메라 영상 합성 방법.The method of claim 8, wherein the dummy image has a 24-bit size for displaying RGB data for each pixel. 제9항에 있어서, 상기 더미 영상은, 기본 영상과 확장 영상의 중첩 부분을 뺀 값을 더미 영상의 가로폭으로 하며, 기본 영상의 세로폭과 확장 영상의 세로폭 중에서 최대값을 더미 영상의 세로폭으로 하는 스테레오 카메라 영상 합성 방법.10. The dummy image of claim 9, wherein the dummy image has a value obtained by subtracting an overlapping portion of the base image and the extended image from the width of the dummy image, and a maximum value of the vertical width of the base image and the vertical width of the extended image is the vertical value of the dummy image. Stereo camera video synthesis method. 제8항에 있어서, 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하는 것은, a11, a12, a13, a21, a22, a23, a31, a32가 투영 변환 계수이고, x', y'은 제2카메라에서 취득된 영상의 좌표이고, u,v는 상기 투영 변환 계수에 의해 제2카메라의 영상을 변환할 좌표를 나타낸다고 할 때, The method of claim 8, wherein the backward mapping of the extended image to the reference image using the projection transformation coefficient is a 11 , a 12 , a 13 , a 21 , a 22 , a 23 , a 31 , and a 32 . When x 'and y' are coordinates of an image acquired from the second camera, and u and v represent coordinates to convert the image of the second camera by the projection conversion coefficient. u = (a11×x' + a12×y' + a13) / (a31×x' + a32×y' + 1)u = (a 11 × x '+ a 12 × y' + a 13 ) / (a 31 × x '+ a 32 × y' + 1) v = (a21×x' + a22×y' + a23) / (a31×x' + a32×y' + 1)v = (a 21 × x '+ a 22 × y' + a 23 ) / (a 31 × x '+ a 32 × y' + 1) 에 의해 역방향 맵핑되는 스테레오 카메라 영상 합성 방법.Stereo camera image compositing method that is mapped backward. 제11항에 있어서, 더미 영상에 기준 영상이 맵핑된 부분은 스킵되며 역방향 맵핑이 이루어지는 스테레오 카메라 영상 합성 방법.The stereo camera image synthesis method of claim 11, wherein a portion in which the reference image is mapped to the dummy image is skipped and reverse mapping is performed. 제12항에 있어서, 상기 더미 영상 사이즈 밖에 있는 확장 영상은 스킵되며 역방향 맵핑이 이루어지는 스테레오 카메라 영상 합성 방법.The method of claim 12, wherein the extended image outside the dummy image size is skipped and reverse mapping is performed.
KR1020080134367A 2008-12-26 2008-12-26 Method for compositing stereo camera images KR101558573B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080134367A KR101558573B1 (en) 2008-12-26 2008-12-26 Method for compositing stereo camera images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080134367A KR101558573B1 (en) 2008-12-26 2008-12-26 Method for compositing stereo camera images

Publications (2)

Publication Number Publication Date
KR20100076351A true KR20100076351A (en) 2010-07-06
KR101558573B1 KR101558573B1 (en) 2015-10-07

Family

ID=42638080

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080134367A KR101558573B1 (en) 2008-12-26 2008-12-26 Method for compositing stereo camera images

Country Status (1)

Country Link
KR (1) KR101558573B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101227936B1 (en) * 2011-05-31 2013-01-30 전자부품연구원 Method for compensating colour of corresponding image and recording medium thereof
KR101232870B1 (en) * 2011-02-25 2013-02-14 주식회사 넥서스칩스 Stereoscopic image processor and method for processing image using the same
KR101348681B1 (en) * 2012-12-28 2014-01-09 국방과학연구소 Multi-sensor image alignment method of image detection system and apparatus using the same
KR20160060358A (en) * 2014-11-20 2016-05-30 삼성전자주식회사 Method and apparatus for matching stereo images
KR20190106994A (en) * 2017-01-11 2019-09-18 이네스크 테크-인스티투토 드 엔젠하리아 드 시스테마스 이 컴푸타도레스, 테크놀로지아 이 시엔시아 Method and apparatus for evaluating color similarity

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4169462B2 (en) * 1999-08-26 2008-10-22 株式会社リコー Image processing method and apparatus, digital camera, image processing system, and recording medium recording image processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101232870B1 (en) * 2011-02-25 2013-02-14 주식회사 넥서스칩스 Stereoscopic image processor and method for processing image using the same
KR101227936B1 (en) * 2011-05-31 2013-01-30 전자부품연구원 Method for compensating colour of corresponding image and recording medium thereof
KR101348681B1 (en) * 2012-12-28 2014-01-09 국방과학연구소 Multi-sensor image alignment method of image detection system and apparatus using the same
KR20160060358A (en) * 2014-11-20 2016-05-30 삼성전자주식회사 Method and apparatus for matching stereo images
KR20190106994A (en) * 2017-01-11 2019-09-18 이네스크 테크-인스티투토 드 엔젠하리아 드 시스테마스 이 컴푸타도레스, 테크놀로지아 이 시엔시아 Method and apparatus for evaluating color similarity

Also Published As

Publication number Publication date
KR101558573B1 (en) 2015-10-07

Similar Documents

Publication Publication Date Title
JP6330987B2 (en) Image processing apparatus, image processing method, and storage medium
US10469828B2 (en) Three-dimensional dense structure from motion with stereo vision
JP5997645B2 (en) Image processing apparatus and method, and imaging apparatus
WO2018072630A1 (en) Method and device for constructing 3d scene model
JP5294343B2 (en) Image alignment processing device, area expansion processing device, and image quality improvement processing device
US8411934B2 (en) System and method for depth map extraction using region-based filtering
JP4209938B2 (en) Image processing apparatus and method, image processing program, and image processor
US8649593B2 (en) Image processing apparatus, image processing method, and program
US11568516B2 (en) Depth-based image stitching for handling parallax
US11184604B2 (en) Passive stereo depth sensing
JP2002324234A (en) Method and device for rectifying stereoscopic image
JP2000182038A (en) Method for generating perspective sizing data from distorted information, device to be used for this and computer program product
KR20150120066A (en) System for distortion correction and calibration using pattern projection, and method using the same
EP2377324A1 (en) One step sub-pixel motion estimation
US7286689B2 (en) Motion estimation for compression of calibrated multi-view image sequences
US20080199083A1 (en) Image filling methods
KR101558573B1 (en) Method for compositing stereo camera images
Ochoa et al. Covariance propagation for guided matching
JP2017050857A (en) Image processor, image processing method and program
JP4372328B2 (en) Three-dimensional shape restoration method and system
US10212412B2 (en) Method of increasing photographing speed of photographing device
GB2565043A (en) Apparatus and method for stitching together multiple images
JP3940690B2 (en) Image processing apparatus and method
CN113469886B (en) Image splicing method based on three-dimensional reconstruction
JP2019220032A (en) Program, apparatus and method that generate display image which is transformed from original image on the basis of target image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180910

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190916

Year of fee payment: 5