KR101558573B1 - Method for compositing stereo camera images - Google Patents

Method for compositing stereo camera images Download PDF

Info

Publication number
KR101558573B1
KR101558573B1 KR1020080134367A KR20080134367A KR101558573B1 KR 101558573 B1 KR101558573 B1 KR 101558573B1 KR 1020080134367 A KR1020080134367 A KR 1020080134367A KR 20080134367 A KR20080134367 A KR 20080134367A KR 101558573 B1 KR101558573 B1 KR 101558573B1
Authority
KR
South Korea
Prior art keywords
image
points
projection transformation
extended
models
Prior art date
Application number
KR1020080134367A
Other languages
Korean (ko)
Other versions
KR20100076351A (en
Inventor
이정현
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020080134367A priority Critical patent/KR101558573B1/en
Publication of KR20100076351A publication Critical patent/KR20100076351A/en
Application granted granted Critical
Publication of KR101558573B1 publication Critical patent/KR101558573B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 실시 예는 스테레오 카메라 영상 합성 방법에 관한 것으로서, 제1카메라에서 캡쳐한 기준 영상 및 제2카메라에서 캡쳐한 확장 영상에 대하여 특징점들을 검출하는 특징점 검출 과정과, 상기 기준 영상 및 확장 영상에서 대응점 쌍의 개수를 결정하는 대응점 쌍 개수 결정 과정과, 결정된 상기 대응점 쌍의 개수를 갖는 모든 모델들을 구성한 후, 상기 모델들의 각도 정보, 길이 정보, 컬러 정보의 유사성을 평가한 후 유사하지 않은 모델들을 제거하여 최적 대응점을 구성하는 필터링 과정과, 상기 결정된 대응점 쌍을 이용한 투영 변환 방식이 이루어질 경우, 상기 투영 변환 방식에 사용될 투영 변환 계수를 산출하는 투영 변환 계수 산출 과정과, 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하여 투영 변환시킴으로써, 하나의 영상으로 합성하는 이미지 정렬 과정과, 최종 합성된 영상의 컬러값 틀어짐, 휘도값 정보를 일치화시키는 이미지 안정화 과정을 포함한다.An embodiment of the present invention relates to a stereoscopic camera image synthesis method, which includes a feature point detection process for detecting feature points with respect to a reference image captured by a first camera and an extended image captured by a second camera, After all the models having the number of pairs of corresponding points determined are determined, the similarity of the angle information, the length information, and the color information of the models is evaluated, Calculating a projection transformation coefficient to be used in the projection transformation method when the projection transformation method using the determined pair of the corresponding points is performed; The extension image is rear-mapped to the reference image, As such, it includes an image alignment process and a final composite image teuleojim color value, brightness value matches the information crystallized image stabilization process of synthesizing a single image.

카메라, 영상, 합성, 대응점, 특징점, 연산, 시간 Camera, image, synthesis, correspondence, feature point, operation, time

Description

스테레오 카메라 영상 합성 방법{Method for compositing stereo camera images}[0001] The present invention relates to a method of composing stereo camera images,

본 발명의 실시 예는 스테레오 카메라 영상 합성 방법에 관한 것이다.An embodiment of the present invention relates to a stereo camera image synthesis method.

디지털 카메라 기기의 발전과 함께 여러 가지 실용적인 영상 처리 기법들이 시도되고 있다. 스테레오 카메라 역시 그 한 예로 카메라 렌즈의 제한적 시야를 극복하고자 동일 시점(viewpoint) 또는 서로 다른 시점을 갖는 복수대의 카메라에서 획득한 복수개의 영상을 한 장의 영상으로 획득하여 확장된 시야(field of view) 각을 얻는 방법이다.With the development of digital camera devices, various practical image processing techniques have been attempted. In order to overcome the limited field of view of a camera lens, a stereo camera may also be used to acquire a plurality of images acquired from a plurality of cameras having the same viewpoint or different viewpoints as a single image to obtain an expanded field of view angle .

이러한 스테레오 카메라 영상 합성 방법 중 가장 잘 알려진 일반적 방법으로 Mosaic 기법이 있다. Mosaic 기법은 임의의 기준 영상과 연속적으로 합성될 확장 영상을 가지고서 한 장의 영상을 만드는 과정으로서, 두 영상의 중복 영역에서 최적 대응점(correspondence) 쌍들을 찾아내고 이 쌍들에 의해 투영 변환 계수를 유도함으로써 기준 영상에 대하여 연속될 확장 영상을 그 유도된 변환 계수에 맞게 기하학적 변형을 통한 정렬을 하고 안정화를 시켜 한 장의 영상을 얻는다.Mosaic technique is one of the most well - known general methods of stereo camera image synthesis. The Mosaic technique is a process of creating a single image with an extended image to be continuously synthesized with an arbitrary reference image. The optimal matching pairs are found in the overlapping regions of two images, The enlarged image to be continued with respect to the image is aligned by geometric transformation according to the derived transformation coefficient and stabilized to obtain one image.

그런데, 이러한 스테레오 카메라 영상 합성에 있어 중요시되는 문제점은, 최 적 대응점 탐색의 어려움에 있다.However, a problem that is important in the synthesis of such a stereo camera image is the difficulty in searching for the optimum correspondence point.

두 영상 사이의 최적 대응점 탐색에 있어, 만약, 기준 영상 F와 합성될 확장 영상 F'가 임의의 프레임에서 연속되어 촬영된 스테레오 카메라 영상인 경우, 인간의 눈과 뇌는 기준 영상 F의 화소 정보에서 중첩된 확장 영상 F'의 화소 정보가 어느 부위에 있는지를 정확하고 빠르게 찾아낸다.In the search for the optimal correspondence between two images, if the extended image F 'to be combined with the reference image F is a stereo camera image taken continuously in any frame, It is possible to accurately and quickly find the position of the pixel information of the overlapping extended image F '.

그런데, 컴퓨터가 이런 인식을 하기 위해서는 무척 어려운 과정으로 만약 연속되는 확장 영상 F'의 카메라모듈이 사용자의 손떨림이나 혹은 미세한 차량의 흔들림에 의해 두 카메라 영상 사이에 원근 투시에 의한 사영(perspective) 변환 되었을 경우, 변환된 이미지의 유사성을 기계가 어떻게 자동으로 인식할 것인가는 스테레오 카메라의 가장 큰 문제점이고 과제이다.However, in order for the computer to recognize such a difficult process, if the camera module of the continuous extended image F 'has been perspective transformed by the perspective of the user between the two camera images due to the camera shake of the user or a slight vehicle shake In this case, how the machine automatically recognizes the similarity of the converted image is the biggest problem of the stereo camera.

전통적으로 이러한 F,F' 두 영상 사이의 유사성을 평가하는 척도로 NCC(Normalized Cross Correlation)가 가장 잘 알려져 있으나 이러한 컬러(color) 정보의 상관관계 비교 방법은 연속하지 않는 프레임에서 캡쳐(capture)된 영상이 외부의 조도, 그림자와 같은 돌발 상황, 또는, ISP 센서 내부의 성능차이로 영상의 혹은 정보가 상이하다면 그 대응점 판단 과정에서 신뢰성을 얻을 수 없는 문제가 있다.Traditionally, NCC (Normalized Cross Correlation) is best known as a measure of similarity between two F and F 'images, but the correlation method of color information is captured in non-consecutive frames There is a problem that reliability can not be obtained in the process of determining the correspondence point if the image is different from the image or information due to an external situation such as illuminance, shadows, or the performance difference within the ISP sensor.

한편, 스테레오 카메라 영상 합성에 있어 중요시되는 또 다른 문제점은 계산 복잡도 증가의 문제이다.On the other hand, another problem that is important in the stereo camera image synthesis is the problem of increasing the computational complexity.

두 카메라의 영상을 합성하여 정렬하기 위해서는 찾아진 M개의 특징점과 다른 영상에서 N개의 특징점들의 매칭을 통한 최적의 대응점을 찾기 위해서는 적어도 MN이라는 거듭제곱의 시간 복잡도를 요구한다. 이러한 연산 시간 복잡도는 에지(edge)가 많은 고화소 영상에서 최악의 경우 수십 초(sec)의 연산 시간을 가져올 수 있다.In order to synthesize and align the images of two cameras, M minutiae points that are found and at least M N times complexity is required to find the optimal correspondence point through matching of N minutiae points in other images. This computation time complexity can lead to a computation time of several tens of seconds in the worst case in a high-resolution image with many edges.

차량용 카메라와 같이 확장된 시야 각의 영상을 필요로 하는 곳에서 매초 수십 프레임 이상 고속 주사하는 실시간 고화소 비디오 스테레오 카메라 영상을 제어하고자 한다면 연산 시간 복잡도의 증가는 치명적인 문제가 될 수 있다.If we want to control real-time high-resolution video stereo camera images that are scanned at a high speed of several tens of frames per second or more at a scene requiring an extended viewing angle, such as a car camera, an increase in computation time complexity can be a fatal problem.

본 발명의 실시 예는 최적 대응점을 빠른 시간 내에 찾을 수 있도록 하며, 영상 합성 시에 계산 시간을 단축시킬 수 있는 스테레오 카메라 영상 합성 방법이다.The embodiment of the present invention is a stereo camera image synthesis method which enables to find an optimal correspondence point in a short time and shortens the calculation time in image synthesis.

본 발명의 실시 예는 제1카메라에서 캡쳐한 기준 영상 및 제2카메라에서 캡쳐한 확장 영상에 대하여 특징점들을 검출하는 특징점 검출 과정과, 상기 기준 영상 및 확장 영상에서 대응점 쌍의 개수를 결정하는 대응점 쌍 개수 결정 과정과, 결정된 상기 대응점 쌍의 개수를 갖는 모든 모델들을 구성한 후, 상기 모델들의 각도 정보, 길이 정보, 컬러 정보의 유사성을 평가한 후 유사하지 않은 모델들을 제거하여 최적 대응점을 구성하는 필터링 과정과, 상기 결정된 대응점 쌍을 이용한 투영 변환 방식이 이루어질 경우, 상기 투영 변환 방식에 사용될 투영 변환 계수를 산출하는 투영 변환 계수 산출 과정과, 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하여 투영 변환시킴으로써, 하나의 영상으로 합성하는 이미지 정렬 과정과, 최종 합성된 영상의 컬러값 틀어짐, 휘도값 정보를 일치화시키는 이미지 안정화 과정을 포함한다.The embodiment of the present invention is characterized by a feature point detection process for detecting feature points of a reference image captured by a first camera and an extended image captured by a second camera, a pair of corresponding points for determining the number of corresponding points in the reference image and the extended image, Determining a number of pairs of the corresponding points, and then evaluating the similarity of the angular information, the length information, and the color information of the models, and then filtering out similar models to construct an optimal correspondence point. A projection transformation coefficient computing step of computing a projection transformation coefficient to be used in the projection transformation method when the projection transformation method using the determined pair of corresponding points is performed; By mapping and transforming the projected image, Jung, includes a final composite image teuleojim color value, brightness value information matches crystallized image stabilization process of the.

상기 필터링 과정은, 기준 영상 및 확장 영상에서 각각 추출된 특징점들에 중에서 동일 직선상에 있지 않는(non-collinear) 4개의 점으로 두 점 간의 기준선과 인접한 두 점으로 되는 4각형의 모든 모델을 구성하는 과정과, 구성된 모든 모델들의 상기 기준선에 인접한 인접점들과의 각도(angle)를 산출하고, 기준 영상의 모델과 확장 영상의 모델간의 각도 차이를 구하여, 각도 임계값보다 큰 각도 차이를 가지는 모델을 제거하는 과정과, 구성된 모든 모델들의 상기 기준선에 인접한 인접점들과의 길이(line)를 산출하고, 기준 영상의 모델과 확장 영상의 모델간의 길이 차이를 구하여, 길이 임계값보다 큰 길이 차이를 가지는 모델을 제거하는 과정과, 두 영상의 밝기 평균을 뺀 나머지 부분을 정규화시켜 컬러 정보 유사성을 평가하는 color-NCC를 수행한 후, 두 영상의 모델간의 컬러 유사성 정보가 컬러 임계값 이하인 경우, 해당 모델을 제거하는 과정을 포함한다.In the filtering process, all the quadrangle-shaped models are formed, which are four non-collinear points among the extracted feature points of the reference image and the extended image, And an angle between the model of the reference image and the model of the extended image is calculated to obtain a model having an angle difference larger than the angle threshold value, A line length between adjacent models adjacent to the reference line of all the models is calculated and a length difference between the model of the reference image and the model of the extended image is calculated to determine a length difference greater than the length threshold After performing the color-NCC to evaluate the similarity of the color information by normalizing the remaining parts minus the brightness average of the two images, If the color similarity between the information model of the color below the threshold, comprises the step of removing the model.

최적 대응점 구성 과정을 통해 필터링된 최적 대응점의 쌍의 개수가 4개라면, 8개의 투영 변환 계수의 행렬(P)가 a11, a12, a13, a21, a22, a23, a31, a32 이고, 기준 영상의 최적 대응점이 (x1,y1), (x2,y2), (x3,y3), (x4,y4)이고, 확장 영상 최적 대응점이 (u1,v1), (u2,v2), (u3,v3), (u4,v4)라 할 때,If the number of pairs of optimal matching points filtered through the optimal correspondence point construction process is four, then the matrix P of the eight projection transformation coefficients is a 11 , a 12 , a 13 , a 21 , a 22 , a 23 , a 31 this, a 32, the optimum corresponding points of the reference image (x 1, y 1), and (x 2, y 2), (x 3, y 3), (x 4, y 4) , and the extended video optimum corresponding point ( u 1, v 1), ( u 2, v 2), (u 3, v 3), (u 4, v to 4) d,

Figure 112008089241927-pat00001
Figure 112008089241927-pat00001

를 이용하여 투영 변환 계수를 산출한다.The projection transformation coefficient is calculated.

상기 이미지 정렬 과정은, 기본 영상과 확장 영상이 매칭 확장되어 놓일 더미(dummy) 영상을 생성하는 과정과, 상기 더미 영상에 상기 기준 영상의 화소를 맵핑하여 위치시키는 과정과, 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하여 하나의 영상으로서 합성하는 과정을 포함한다.The image alignment process may include generating a dummy image in which a base image and an extended image are matched with each other, mapping and mapping pixels of the reference image to the dummy image, And mapping the extended image back to the reference image to synthesize the expanded image as a single image.

본 발명의 실시 예는 스테레오 카메라 영상 합성에 있어, 임의의 영상 시퀀스 t프레임과 연속되는 t+1 프레임 사이의 무수히 많은 특징점들 중에서 매칭되는 최적의 대응점 쌍의 동일 위치를 효율적으로 탐지할 수 있는 효과가 있다. 또한, 특징점들 중에서 대응점 검색의 계산량을 줄일 수 있는 효과가 있다.In an embodiment of the present invention, in the stereo camera image synthesis, it is possible to efficiently detect the same position of an optimal pair of matching points among a large number of feature points between an arbitrary image sequence t frame and consecutive t + 1 frames . Further, there is an effect that the amount of calculation of the corresponding point among the minutiae points can be reduced.

이하, 본 발명의 실시 예들의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 하기에서 각 도면의 구성요소들에 참조부호를 부가함에 있어 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. Hereinafter, a detailed description of embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the same reference numerals are used to denote the same or similar components in the drawings.

도 1은 본 발명의 실시 예에 따른 스테레오 카메라 영상 합성 과정을 도시한 플로차트이다.1 is a flowchart illustrating a stereo camera image synthesizing process according to an embodiment of the present invention.

본 발명의 실시 예는 특징점들 중에서 대응점 검색의 계산량을 줄이기 위해 필요하지 않는 특징점들을 줄이는 과정을 반복하여 최적의 대응점 쌍을 탐지하고, 정확한 투영 변환 계수를 유도하여 계산 복잡도를 감소시킬 수 있다.The embodiment of the present invention can reduce the computational complexity by detecting the pair of optimal correspondence by repeating the process of reducing unnecessary feature points to reduce the calculation amount of the corresponding point search among the minutiae points and deriving the accurate projection transformation coefficient.

상술하면, 스테레오 카메라 영상 합성을 위해서, 우선, 두 카메라에서 캡쳐 한 영상에 대하여 특징점들을 검출(S11)한다. 상기 특징점은 각 영상에서 코너점들의 집합을 나타내며, 이러한 특징점 검출(S11)을 위해서 두 영상 사이의 코너 점들을 검출하는 종래 공지된 기법인 SUSAN 방식을 사용할 수 있다.In order to synthesize the stereo camera image, first, the feature points are detected (S11) on the images captured by the two cameras. The feature point represents a set of corner points in each image, and for the feature point detection S11, a SUSAN method, which is a conventionally known technique for detecting corner points between two images, can be used.

상기와 같이 두 영상에서 코너점들의 집합과 같은 특징점들을 검출한 후에는, 이들 두 영상 사이의 특징점들 간의 최적 대응점(correspondence point)을 탐색하여 구성한다.After detecting feature points such as a set of corner points in two images as described above, an optimal correspondence point between the feature points between the two images is searched for.

최적 대응점을 구성하는 과정들을 설명하면, 우선, 탐색할 대응점 쌍의 개수를 결정(S12)한다.The process of configuring the optimal correspondence point will be described. First, the number of correspondence pairs to be searched is determined (S12).

[표 1][Table 1]

projectionprojection parameterparameter least pairsleast pairs transformationstransformations displacementdisplacement 22 1One translationtranslation similaritysimilarity 44 22 translation, rotation, uniform scaletranslation, rotation, uniform scale affineaffine 66 33 translation, rotation, non-uniform scaletranslation, rotation, non-uniform scale perspectiveperspective 88 44 full motionfull motion

상기 [표 1]은 두 카메라의 투영된 2D 영상들 사이의 투영 변환(transformation)에 따른 최적 대응점 쌍을 나타낸다. 'parameter'는 투영 변환 계수를 나타내며, 'least pairs'는 최적(최소) 대응점 쌍의 개수를 나타낸다.Table 1 above shows the pairs of optimal corresponding points according to the projection transformation between the projected 2D images of the two cameras. 'parameter' represents the projection transformation coefficient, and 'least pairs' represents the number of pairs of optimal (minimum) corresponding points.

만약, 평행 이동을 보존하는 카메라의 이동인 경우, 두 카메라의 투영 변환은 'displacement'이며 최소 대응하는 한쌍의 점을 찾게 된다면 두 카메라 사이의 이동 변위는 이동(translation) 거리 계산만으로 충분하기 때문에, 한 쌍의 최적 대응점만 필요로 한다.In the case of a camera movement that preserves translation, if the projection transformation of the two cameras is 'displacement' and if a pair of points corresponding to the minimum is found, the translation displacement between the two cameras is sufficient to calculate the translation distance, Only a pair of optimal correspondence points is required.

만약, 두 카메라 사이에 이동(translation), 회전(rotation), 균등 스케일링(uniform scaling)의 변환을 가정한다면, 두 카메라의 투영 변환은 'similarity' 이며 최소 두 쌍의 대응점을 필요로 한다.If we assume translation, rotation, and uniform scaling between two cameras, the projection transformation of both cameras is 'similarity' and requires at least two pairs of corresponding points.

만약, 두 카메라 사이에 이동(translation), 회전(rotation), 비균등 스케일링(non-uniform scaling), 절단(shear)의 변환을 가정한다면, 두 카메라의 투영 변환은 'affine'이며 최소 세 쌍의 대응점을 필요로 한다.If we assume translation, rotation, non-uniform scaling, and shear transformation between two cameras, the projection transformation of both cameras is 'affine' Corresponding points are required.

만약, 두 카메라의 모든 경우의 풀 모션(full motion)을 포함하여 변환하고자 한다면, 두 카메라의 투영 변환은 'perspective'이며 최소 네 쌍의 대응점을 필요로 한다.If we want to transform the full motion of both cameras, including the full motion, the projection transformation of both cameras is 'perspective' and requires at least four pairs of corresponding points.

따라서 대응점 수를 결정함에 있어 두 카메라의 촬영 환경에 따라 최소한 한쌍으로 할지, 두쌍으로 할지, 세쌍으로 할지, 네쌍으로 할지를 결정한다.Therefore, in deciding the number of corresponding points, it is determined whether to make at least one pair, two pairs, three pairs, or four pairs depending on the shooting environments of the two cameras.

본 발명의 실시 예는 임의의 프레임에서 두 카메라의 사이의 변환에 대하여 풀 모션(full motion)을 포함할 수 있는 'perspective' 투영 변환 방식을 이용하는 경우를 예를 들어 설명할 것이며, 따라서, 'perspective' 투영 변환 방식을 적용할 경우, 카메라의 전체 이동 변위를 포함하는 8 파라미터의 투영 변환 계수를 찾기 위하여 최소 4쌍 대응점을 탐색하도록 한다.An embodiment of the present invention will exemplify the case of using a 'perspective' projection transformation scheme which may include a full motion for a transformation between two cameras in any frame, 'Projection transformation method, a search is made for at least four pairs of corresponding points in order to find the projection transformation coefficients of the eight parameters including the entire moving displacement of the camera.

이하, 본 발명의 실시 예는 'perspective' 투영 변환 방식을 적용하기 위해 4쌍의 대응점을 이용하여 설명하겠지만, 만약, 다른 투영 변환 방식을 이용하고자 한다면 그에 상응하는 대응점 쌍의 수를 결정하여 그에 따른 영상 합성 과정을 동일하게 구현할 수 있을 것이다.Hereinafter, embodiments of the present invention will be described using four pairs of corresponding points in order to apply the 'perspective' projection transformation method. If another projection transformation method is to be used, the number of pairs of corresponding points is determined, The image synthesis process can be implemented in the same manner.

한편, 상기와 같이 'perspective' 투영 변환 방식에 따라 최소한 4쌍의 대응점 수가 결정되면, 결정된 최적 대응점 개수의 특징점을 갖는 4각형 모델들을 구성 한 후, 이들 모델들의 기하학적인 정보(각도 정보, 길이 정보) 유사성 비교 및 컬러 정보 유사성 비교를 통해 유사하지 않은 나머지 모델들을 제거하는 필터링(S13) 과정을 가진다. If four pairs of corresponding points are determined according to the 'perspective' projection transformation method as described above, the quadrangular models having the minutiae points of the determined optimal corresponding points are constructed, and the geometric information (angle information, length information ) Filtering (S13) for eliminating similar non-similar models through similarity comparison and color information similarity comparison.

도 2를 참조하여 상기 필터링은 다음과 같은 과정으로 이루어진다.Referring to FIG. 2, the filtering process is performed as follows.

'perspective' 투영 방정식 따라 4쌍의 대응점 수가 결정되면, 기준 영상 및 확장 영상에서 각각 추출된 특징점들에 중에서 동일 직선상에 있지 않는(non-collinear) 4개의 점으로 만들 수 있는 가능한 모든 4각형의 모델들을 구성(S21)한다.When the number of corresponding points of four pairs is determined according to the 'perspective' projection equation, all possible quadrangles of four non-collinear points among the extracted feature points of the reference image and the extended image, (S21).

즉, 추출된 특징점들에 중에서 동일 직선상에 있지 않는(non-collinear) 4개의 점으로 두 점간의 기준선과 인접한 두 점으로 되는 4각형의 모든 모델을 구성 결정(S21)한 후, 구성된 모든 모델들의 기준선에 대한 각도(angle)을 구하고, 두 비교 영상에서 구해진 각도 정보의 차이를 구하여 각도 임계값보다 큰 비유사 모델들을 제거(S22)한다.That is, all of the quadrangle-shaped models having four non-collinear points on the extracted feature points and two points adjacent to the reference line between the two points are determined (S21) (S22), the difference between the angle information obtained from the two comparison images is obtained, and the non-similar models larger than the angle threshold value are removed (S22).

그 후, 나머지 모델들에 대하여 다시 기준선에 대한 길이(line) 정보를 구한 후, 각 길이 정보의 차이를 구하고 길이 임계값보다 큰 비유사 모델들을 제거(S23)한다.Thereafter, the length information for the reference line is obtained again for the remaining models, the difference between the length information is obtained, and the non-similar models larger than the length threshold value are removed (S23).

상기와 같이 각도 임계값 및 길이 임계값보다 큰 모델들을 제거한 후, 나머지 모델들에 대하여 두 영상의 국소 영역에서 color-NCC를 수행하여 컬러(color) 정보 유사성을 평가한다. color-NCC를 수행하고 난 후 컬러 임계값을 정하여 나머지 모델들을 제거(S24)함으로써, 제거되지 않은 특징점들의 집합을 최종 대응점 쌍 으로 결정(S25)한다.After eliminating models larger than the angle threshold value and the length threshold value, color-NCC is performed in the local region of the two images for the remaining models to evaluate the color information similarity. After the color-NCC is performed, the color threshold is determined and the remaining models are removed (S24), and the set of uncharacterized feature points is determined as a final correspondence pair (S25).

상기 필터링 과정들을 각 단계별로 다시 상세히 설명하면, 우선, 대응점 쌍의 개수가 4쌍 이상으로 결정되었기 때문에 4각형 모델 구성(S21)을 해야 하는데, 이는 기준 영상 및 확장 영상에서 각각 추출된 특징점들에 중에서 동일 직선상에 있지 않는(non-collinear) 4개의 점으로 만들 수 있는 4각형의 모든 모델을 구성하여 이루어진다.Since the number of pairs of corresponding points is determined to be four or more pairs, the quadrangular model configuration (S21) must be performed. This is because the feature points extracted from the reference image and the extended image And all the models of a quadrangle that can be made up of four non-collinear points.

기준 영상에서 추출된 특징점들과 확장 영상에서 추출된 특징점들이 각각 도 3(a) 및 도 3(b)와 같다고 가정할 경우, 추출된 특징 점들 중 동일 직선상에 있지 않는(non-collinear) 4개의 점으로 만들 수 있는 가능한 모든 4각형 모델들을 구성한다.Assuming that the feature points extracted from the reference image and the feature points extracted from the extended image are as shown in FIG. 3 (a) and FIG. 3 (b), non-collinear 4 Constructs all possible quadrilateral models that can be made up of four points.

그 후, 구성된 모델들의 각도(angle) 정보 유사성을 평가하여 유사하지 않은 모델들을 제거한다. 즉, 구성된 모든 모델들의 기준선에 대한 각도(angle)을 구하고, 두 비교 영상에서 구해진 각도 정보의 차이를 구하여 각도 임계값보다 큰 모델을 제거한다.The similarity of the angular information of the constructed models is then evaluated to remove non-similar models. That is, the angles of the baselines of all the constructed models are obtained, and the difference between the angular information obtained from the two comparison images is obtained, thereby removing the model larger than the angle threshold value.

각도 임계값보다 큰 모델을 제거하는 과정을 도 4에 도시하였는데, 우선, 각도 테이블을 생성(S41)한다.The process of removing a model larger than the angle threshold value is shown in FIG. 4. First, an angle table is created (S41).

상기 각도 테이블은 기준점(P1,P'1)에 대한 각 모델들의 각도 정보를 가지고 있다. 예컨대, 도 3(a)의 기준 영상에서는 기준선(P1-P4)를 기준으로 인접하는 두 점(P2,P3)과의 각도를 계산하여 각도 테이블에 저장한다. 마찬가지로, 합성될 영상 인 도 3(b)의 확장 영상에서도 추출된 특징점들 중에서 기준선(P'1-P'4)을 기준으로 인접하는 두 점(P'2,P'3)과의 각도를 계산하여 각도 테이블에 저장한다The angle table has angle information of each model with respect to a reference point (P 1 , P ' 1 ). For example, in the reference image of FIG. 3A, angles between two adjacent points P 2 and P 3 are calculated based on the reference lines P 1 -P 4 and stored in the angle table. Similarly, the angle between the two points (P '2, P' 3 ) which are adjacent to each other based on the reference line (P '1 -P' 4) from the extracted image in the expanded image of FIG. 3 is to be synthesized (b) the feature points Calculate and store in angle table

기준 영상과 확장 영상의 모델들에 대한 각도 테이블 예시는 다음과 같다. 하기에서 R_Model[N]은 기준 영상(reference image)의 N번째 모델을 말하며, A_Model[N]은 확장 영상(added image)의 N번째 모델을 말한다.An example of the angle table for the models of the reference image and the extended image is as follows. In the following, R_Model [N] refers to the Nth model of the reference image, and A_Model [N] refers to the Nth model of the extended image.

If P1,P2,P3,P4 = Non-collinearIf P 1 , P 2 , P 3 , P 4 = Non-collinear

R_Model[1] = {기준선(P1,P4),인접점(P2,P3),각도정보(P3,P1,P2),각도정보(P3,P4,P2)}R_Model [1] = {baseline (P 1, P 4), between two points (P 2, P 3), the angle information (P 3, P 1, P 2), the angle information (P 3, P 4, P 2) }

또한, If P1,P2,P3,P5 = Non-collinearIf P 1 , P 2 , P 3 , P 5 = Non-collinear

R_Model[2] = {기준선(P1,P5),인접점(P2,P3),각도정보(P3,P1,P2),각도정보(P3,P5,P2)}R_Model [2] = {baseline (P 1, P 5), between two points (P 2, P 3), the angle information (P 3, P 1, P 2), the angle information (P 3, P 5, P 2) }

If P'1,P'2,P'3,P'4 = Non-collinearIf P ' 1 , P' 2 , P ' 3 , P' 4 = Non-collinear

A_Model[1] = {기준선(P'1,P'4),인접점(P'2,P'3),각도정보(P'3,P'1,P'2),각도정보(P'3,P'4,P'2)}A_Model [1] = {baseline (P '1, P' 4 ), between two points (P '2, P' 3 ), angle information (P '3, P' 1 , P '2), the angle information (P' 3 , P ' 4 , P' 2 )}

If P'1,P'2,P'3,P'5 = Non-collinearIf P ' 1 , P' 2 , P ' 3 , P' 5 = Non-collinear

A_Model[2] = {기준선(P'1,P'5),인접점(P'2,P'3),각도정보(P'3,P'1,P'2),각도정보(P'3,P'5,P'2)}A_Model [2] = {baseline (P '1, P' 5 ), between two points (P '2, P' 3 ), angle information (P '3, P' 1 , P '2), the angle information (P' 3 , P ' 5 , P' 2 )}

상기와 같이 기준 영상, 확장 영상에 대하여 각도 정보를 산출(S42)하고, 두 영상의 각도차이 값을 비교하여 만약 두 영상의 각도 차이 값이 각도 임계값보다 크면 두 모델은 동일한 모델이 아니라고 판단하고 해당 모델을 제거(S45)한다.If the angle difference value of the two images is greater than the angle threshold value, the two models are determined not to be the same model (S42) The corresponding model is removed (S45).

상술하면, 기준 영상, 확장 영상에 대하여 각도 정보를 산출하여 각도 테이블로 생성한 후, 각 모델별로 각도 차이를 산출(S42)한다.In detail, the angle information is calculated for the reference image and the extended image to generate an angle table, and then the angle difference is calculated for each model (S42).

그 후, 기준 영상의 첫번째 모델의 각도 차이와 확장 영상의 첫번째 모델의 각도 차이를 호출(S43)하고, 각도 차이가 미리 설정한 각도 임계값보다 큰지를 판단(S44)한다.Thereafter, the angle difference between the first model of the reference image and the first model of the extended image is called (S43), and it is determined whether the angle difference is greater than a predetermined angle threshold value (S44).

각도 차이가 각도 임계값보다 클 경우에는 두 모델은 같은 모델이 아니라고 판정하고 해당 모델을 제거(S45)한다. 그 후, 다음 번째의 모델의 각도 차이를 호출(S43)하여, 마찬가지로, 해당 각도 차이가 각도 임계값보다 큰지 판단(S44)하여 클 경우에는 해당 모델을 제거(S45)한다.If the angle difference is greater than the angle threshold, the two models are determined not to be the same model and the corresponding model is removed (S45). Thereafter, the angle difference of the next model is called (S43), and similarly, it is determined whether or not the angle difference is larger than the angle threshold value (S44).

상기 제거 과정들을 알고리즘 식으로서 표현하면 다음과 같다.The removal processes are expressed as an algorithm in the following manner.

δangle = │R_Model[Angle] - A_Model[Angle]│δ angle = │R_Model [Angle] - A_Model [Angle] │

If δangle > THRESHOLDangle If δ angle > THRESHOLD angle

R_Model ≠ A_ModelR_Model ≠ A_Model

상기 과정들은 마지막 모델들에 도달(S46)할 때까지 반복 수행하여, 동일하지 않은 모델들을 제거한다.The above processes are repeated until reaching the last models (S46), thereby removing the unequal models.

상기와 같이 각도 차이 값이 각도 임계값보다 크면 두 모델은 동일한 모델이 아니라고 판단하고 해당 모델을 제거(S22)한 후, 마찬가지로, 구성된 모델들의 길이(line) 정보 유사성을 평가하여 길이가 유사하지 않은 모델을 제거(S23)한다. 즉, 길이 차이 값을 비교하여 길이 차이값이 길이 임계값보다 크면 두 모델은 동일한 모델이 아니라고 판단하고 해당 모델을 제거(S23)하는 과정을 가진다.If the angle difference value is greater than the angle threshold value, the two models are determined not to be the same model, and the model is removed (S22). Similarly, the similarity of the line information of the constructed models is evaluated, The model is removed (S23). That is, if the length difference value is greater than the length threshold value, the two models are determined not to be the same model, and the corresponding model is removed (S23).

길이 임계값보다 큰 모델을 제거하는 과정을 도 5에 도시하였는데, 우선, 길이 테이블을 생성(S51)한다.The process of removing a model having a length greater than the threshold value is shown in FIG. 5. First, a length table is created (S51).

상기 길이 테이블은 기준점(P1,P'1)에 대한 각 모델들의 길이(line) 정보를 가지고 있다. 예컨대, 도 3(a)의 기준 영상에서는 기준선(P1-P4)를 기준으로 인접하는 두 점(P2,P3)과의 길이를 계산하여 길이 테이블에 저장한다. 마찬가지로, 합성될 영상인 도 3(b)의 확장 영상에서도 추출된 특징점들 중에서 기준선(P'1-P'4)을 기준으로 인접하는 두 점(P'2,P'3)과의 길이를 각각 계산하여 길이 테이블에 저장한다The length table has line information of each model for reference points (P 1 , P ' 1 ). For example, in the reference image of FIG. 3A, the lengths of two adjacent points P 2 and P 3 are calculated based on the reference lines P 1 -P 4 and stored in the length table. Similarly, the length between the two points (P '2, P' 3 ) which are adjacent to each other based on the reference line (P '1 -P' 4) from the extracted image in the expanded image of FIG. 3 is to be synthesized (b) the feature points And stores them in the length table

기준 영상과 확장 영상의 모델들에 대한 길이 테이블 예시는 다음과 같다. 하기에서 R_Model[N]은 기준 영상(reference image)의 N번째 모델을 말하며, A_Model[N]은 확장 영상(added image)의 N번째 모델을 말한다.An example of the length table for the models of the reference image and the extended image is as follows. In the following, R_Model [N] refers to the Nth model of the reference image, and A_Model [N] refers to the Nth model of the extended image.

If P1,P2,P3,P4 = Non-collinearIf P 1 , P 2 , P 3 , P 4 = Non-collinear

R_Model[1] = {기준선(P1,P4),인접점(P2,P3),길이정보(P1,P2),길이정보(P1,P3),길이정보(P4,P2),길이정보(P4,P3)}R_Model [1] = {baseline (P 1, P 4), between two points (P 2, P 3), the length information (P 1, P 2), the length information (P 1, P 3), the length information (P 4 , P 2 ), length information (P 4 , P 3 )}

If P1,P2,P3,P5 = Non-collinearIf P 1 , P 2 , P 3 , P 5 = Non-collinear

R_Model[2] = {기준선(P1,P5),인접점(P2,P3),길이정보(P1,P2),길이정보(P1,P3),길이정보(P5,P2),길이정보(P5,P3)}R_Model [2] = {baseline (P 1, P 5), between two points (P 2, P 3), the length information (P 1, P 2), the length information (P 1, P 3), the length information (P 5 , P 2 ), length information (P 5 , P 3 )}

If P'1,P'2,P'3,P'4 = Non-collinearIf P ' 1 , P' 2 , P ' 3 , P' 4 = Non-collinear

A_Model[1] = {기준선(P'1,P'4),인접점(P'2,P'3),길이정보(P'1,P'2),길이정보(P'1,P'3),길이정보(P'4,P'2),길이정보(P'4,P'3)}A_Model [1] = {baseline (P '1, P' 4 ), between two points (P '2, P' 3 ), the length information (P '1, P' 2 ), the length information (P '1, P' 3 ), length information (P ' 4 , P' 2 ), length information (P ' 4 , P' 3 )

If P’1,P’2,P’3,P’5 = Non-collinearIf P ' 1 , P' 2 , P ' 3 , P' 5 = Non-collinear

A_Model[2] = {기준선(P'1,P'5),인접점(P'2,P'3),길이정보(P'1,P'2),길이정보(P'1,P'3),길이정보(P'5,P'2),길이정보(P'5,P'3)}A_Model [2] = {baseline (P '1, P' 5 ), between two points (P '2, P' 3 ), the length information (P '1, P' 2 ), the length information (P '1, P' 3 ), length information (P ' 5 , P' 2 ), length information (P ' 5 , P' 3 )

상기와 같이 기준 영상, 확장 영상에 대하여 길이 정보를 산출하고, 두 영상의 길이 차이 값을 비교하여 만약 두 영상의 길이 차이 값이 길이 임계값보다 크면 두 모델은 동일한 모델이 아니라고 판단하고 해당 모델을 제거한다.As described above, the length information is calculated for the reference image and the extended image, and the length difference values of the two images are compared. If the length difference value of the two images is greater than the length threshold value, the two models are determined not to be the same model. Remove.

상술하면, 기준 영상, 확장 영상에 대하여 길이 정보를 산출하여 길이 테이블로 생성한 후, 각 모델별로 길이 차이를 산출(S52)한다.In detail, the length information is calculated for the reference image and the extended image to generate a length table, and then the length difference is calculated for each model (S52).

그 후, 기준 영상의 첫번째 모델의 길이 차이와 확장 영상의 첫번째 모델의 길이 차이를 호출(S53)하고, 길이 차이가 미리 설정한 길이 임계값보다 큰지를 판단(S54)한다.Thereafter, the difference between the length of the first model of the reference image and the length of the first model of the extended image is called (S53), and it is determined whether the length difference is greater than a predetermined length threshold value (S54).

길이 차이가 길이 임계값보다 클 경우에는 두 모델은 같은 모델이 아니라고 판정하고 해당 모델을 제거(S55)한다. 그 후, 다음 번째의 모델의 길이 차이를 호출(S53)하여, 마찬가지로, 해당 길이 차이가 길이 임계값보다 큰지를 판단(S54)하여 클 경우에는 해당 모델을 제거(S55)한다.If the length difference is greater than the length threshold, it is determined that the two models are not the same model and the corresponding model is removed (S55). Thereafter, the length difference of the next model is called (S53). Similarly, it is determined whether the length difference is larger than the length threshold value (S54), and if it is larger, the model is removed (S55).

상기 제거 과정들을 알고리즘 식으로서 표현하면 다음과 같다.The removal processes are expressed as an algorithm in the following manner.

δline = │R_Model[line] - A_Model[line]│δ line = │R_Model [line] - A_Model [line] │

If δline > THRESHOLDline If δ line > THRESHOLD line

R_Model ≠ A_ModelR_Model ≠ A_Model

상기 과정들은 마지막 모델들에 도달(S56)할 때까지 반복 수행하여, 동일하지 않은 모델들을 제거한다.The processes are repeated until reaching the last models (S56), thereby removing the unequal models.

상기와 같이 추출된 특징점들에 속에서 기하학적 정보(각도정보, 길이정보)를 가지고 두 영상의 모델들을 비교함으로써 서로 유사하지 않는 모델들은 메모리 상에서 제거(S22,S23)하게 된다. 이러한 방법은 무수히 많은 특징점들 중에서 필요하지 않은 특징점들을 자동으로 필터링하여 그 계산량을 현저하게 줄일 수 있다.By comparing the models of two images with the geometric information (angle information, length information) in the extracted minutiae, the models that are not similar to each other are removed in the memory (S22, S23). In this method, unnecessary feature points are automatically filtered out from a large number of feature points, and the amount of calculation can be remarkably reduced.

다음 단계로서, 이러한 기하학적 정보(각도정보,길이정보)의 유사성 조건에 의해 필터링된 모델들에 대해서, 추가적으로 칼라(color) 정보의 유사성을 평가하여 서로 유사하지 않는 모델들을 제거(S24)하는 과정을 가진다.As a next step, the similarity of the color information is additionally evaluated for the models filtered by the similarity condition of the geometric information (angle information, length information), and the models that are not similar to each other are removed (S24) I have.

칼라 정보가 서로 유사하지 않는 모델들을 제거하는 과정은, 기하학적 정보(각도정보,길이정보)의 유사성 조건에 의해 필터링된 모델들에 대하여 두 비교 영상 주변 부위의 각 화소 점에 대한 두 영상의 컬러 유사성 평가 척도로 Color-NCC(color-normalized cross correlation)을 이용한다. Color-NCC는 두 비교 영상의 마스크 내에서 밝기의 평균을 뺀 나머지 부분을 정규화시켜 유사성을 평가하는 기법이다.The process of eliminating models whose color information is not similar to each other is performed in such a manner that the color similarity of two images for each pixel point in the vicinity of two comparison images is calculated with respect to the models filtered by similarity conditions of geometric information (angle information, length information) Color-normalized cross correlation (Color-NCC) is used as a rating scale. Color-NCC is a technique for evaluating the similarity by normalizing the remaining part of the comparison image minus the average of brightness in the mask.

참고로, 하기 [수식 1]과 함께 Color-NCC의 컬러 유사성 평가 기법을 설명한다.For reference, the color similarity evaluation method of Color-NCC will be described together with the following [Equation 1].

[수식 1][Equation 1]

Figure 112008089241927-pat00002
Figure 112008089241927-pat00002

상기 [수식 1]에서 ft0(x,y)는 기준 영상의 모델을 ft1(u,v)는 합성될 확장 영상의 모델들의 픽셀 좌표에 대한 RGB 벡터 성분을 나탄낸다. mt0, mt1은 ft0,ft1 마스크 내에서 컬러 값에 대한 평균을 나타내며, "∥∥"는 RGB 성분에 대한 norm 벡터를 나타낸다.In Equation 1, f t0 (x, y) represents a reference image model, and f t1 (u, v) represents an RGB vector component for pixel coordinates of models of an extended image to be synthesized. m t0 , m t1 represents the average of the color values in the f t0 , f t1 mask, and "∥∥" represents the norm vector for the RGB components.

대응점 좌표(x,y)를 기준으로 크기가 s×s인 마스크

Figure 112008089241927-pat00003
를 만들고 확장 영상의 지정된 검색 영역 (i,j) 안에서 마스크
Figure 112008089241927-pat00004
들과 상관계수를 조사한다. 상기 [수식 1]은 정규화 과정을 통해 -1 ∼ 1 사이 값들로 지정되며, 두 영상의 비교 마스크가 일치한다면 1의 값을 갖는다.A mask whose size is s × s based on the coordinate (x, y)
Figure 112008089241927-pat00003
(I, j) of the extended image,
Figure 112008089241927-pat00004
And the correlation coefficient. [Equation 1] is designated as values between -1 and 1 through a normalization process, and has a value of 1 when the comparison masks of two images coincide with each other.

Color-NCC를 통해 두 모델들에 대한 δc값이 임계값보다 작은 경우 두 모델의 컬러 정보는 유사하지 않다고 판단하고 해당 모델을 제거한다.If the δ c value for two models is less than the threshold value through Color-NCC, the color information of the two models is judged not to be similar and the corresponding model is removed.

상기와 같이, 기하학적 정보(각도 정보, 길이 정보) 및 컬러 정보를 이용하여 유사하지 않는 모델에 대한 제거가 이루어지면, 결국, 이렇게 결정된 최종 모델은 기하학적 정보와 컬러 정보를 모두 비교하여 필터링된 최종 모델이 되며, 그 모델들에 대한 대응점 쌍이 최적의 대응점 쌍이 된다. 참고로, 도 6은 상기 필터링 과정들을 거쳐 두 영상의 중복 영역에서 최적 대응점 쌍이 결정된 모습을 도시한 그림이다.As described above, when the similar model is removed using geometric information (angle information, length information) and color information, the final model thus determined is compared with both the geometric information and the color information, , And the pair of corresponding points for the models becomes an optimal pair of corresponding points. 6 is a diagram illustrating a state in which pairs of optimal correspondence points are determined in overlapping regions of two images through the filtering processes.

한편, 추출된 특징점들에 대하여 기하학적 정보(각도 정보, 길이 정보) 및 컬러 정보를 이용하여 필터링을 하여 최적 대응점 쌍이 최종 결정되면, 최적 대응점 쌍들에 의한 투영 변환 계수(parameter)를 산출(S14)하는 과정을 가진다.On the other hand, if the extracted minutiae are filtered using geometric information (angle information, length information) and color information to determine the optimal pair of corresponding points, a projection transformation parameter by pairs of optimal corresponding points is calculated (S14) Process.

기준 영상과 확장 영상을 합성할 때 이미지 정렬 과정을 거치는데, 이러한 이미지 정렬에 있어 투영 변환 계수를 필요로 하기 때문에, 이미지 정렬에 앞서 투영 변환 계수를 유도하는 과정을 가진다.In order to synthesize the reference image and the extension image, an image alignment process is performed. Since the image transformation requires a projection transformation coefficient, the projection transformation coefficient is derived before the image alignment.

투영 변환 계수를 유도하는 과정을 살펴보면, 도 7과 같이 제1카메라에서 캡쳐된 영상과 제2카메라에서 캡쳐된 영상 평면에 화소 기준 영상의 화소 R과 확장 영상의 화소 A를 직교 좌표계의 위치라고 생각한다면, 점 R과 점 A는 3D 현실 좌표 W와 동차적(Homogeneous) 성질을 가진다. 7, the pixel A of the pixel reference image and the pixel A of the extended image are assumed to be positions of the orthogonal coordinate system in the image captured by the first camera and the image plane captured by the second camera, as shown in FIG. Point R and point A have a homogeneous property with the 3D reality coordinate W.

따라서, 제1카메라, 제2카메라 영상 평면 사이의 점 R과 점 A는 실 영상 사이의 관계가 동차 행렬 H1,H2의 관계가 있다고 가정한다면, 제1카메라와 제2카메라의 2D 투영 변환 관계 H를 구할 수 있다.Therefore, assuming that the relationship between the point R and the point A between the first camera and the second camera image plane is the relation of the real images H 1 and H 2 , the 2D projection transformation of the first camera and the second camera The relation H can be obtained.

즉, 정리하여 설명하면, 3차원 좌표 점 W와 2차원 좌표 점 R은 동차적 성질 H1을 가지고 있으며, 점 A역시 동차적 성질 H2를 가지고 있다.That is, in summary, the three-dimensional coordinate point W and the two-dimensional coordinate point R have a tangential property H 1 , and the point A also has a tangential property H 2 .

따라서 점 R,A에 대하여 동차 좌표계로의 확장은 변환 비율 s = 1에 R(x,y,s), A(u,v,s)로 표현할 수 있으며, 직교 좌표계에서는 R(x/s, y/s), A(u/s,v/s)로 나타낼 수 있다.(X, y, s) and A (u, v, s) at the transformation ratio s = 1 and for the orthogonal coordinate system R (x / y / s) and A (u / s, v / s).

결국, 두 영상의 사이의 관계는 아래와 같다.Finally, the relationship between the two images is as follows.

R(x,y) = H1W, A(u,v) = H1WR (x, y) = H 1 W, A (u, v) = H 1 W

A(u,v) = H2H1 -1R(x,y), A = HRA (u, v) = H 2 H 1 -1 R (x, y), A = HR

상기 관계식을 일반화하면 하기의 [수식 2]와 같은 동차 행렬식을 얻을 수 있다. 하기에서 a11~a32는 투영 변환 계수의 파라미터이다.If the above relational expression is generalized, a homogeneous determinant such as the following [Expression 2] can be obtained. In the following, a 11 to a 32 are parameters of projection transformation coefficients.

[수식 2][Equation 2]

Figure 112008089241927-pat00005
Figure 112008089241927-pat00005

따라서, S12 단계에서 탐지된 최적 대응점 쌍 N으로 이루어진 집합 {((xi,yi),(ui,vi))│i=1,2,....,n}에 대하여 두 영상의 투영 관계를 나타내는 선형 연립 방정식은 하기의 [수식 3]으로 표현된다.Thus, for the set {((x i , y i ), (u i , v i )) i = 1,2, ..., n} of pairs of optimal correspondence points detected in step S12, The linear simultaneous equations expressing the projection relation of the projection optical system are represented by the following [Equation 3].

[수식 3][Equation 3]

Figure 112008089241927-pat00006
Figure 112008089241927-pat00006

본 발명에서는 최적의 대응점이 탐색되고, 그 탐색된 대응점으로 [수식 3]의 선형 연립 방정식인 8개의 투영 변환 계수(a11~a32)를 안다면 합성될 모든 영상의 모든 화소를 정렬할 수 있게 된다.In the present invention, an optimum corresponding point and the navigation, and in a search corresponding point [Formula 3] The linear simultaneous equation of the eight projective transformation of the coefficients (a 11 ~ a 32) to know able to sort all pixels of all images to be synthesized do.

상기 [수식 3]의 방정식은 투영 변환(perspective transformation)으로 제1카메라의 영상과 연속되는 제2카메라의 사이의 거의 모든 full motion(rotation, translation, uniform scaling, non-uniform scaling, shear, perspective projection) 변환을 포함하고 있다.The equation of Equation (3) is a perspective transformation that transforms almost all full motion (rotation, translation, uniform scaling, shear, perspective projection) between a first camera's image and a successive second camera ) Conversion.

S12 단계에서 카메라에 투영된 영상의 대응점 쌍들 중에서 최소 4개의 최적 대응점을 표시하면 다음과 같다. 즉, 기준 영상(R)의 4개의 점인 (x1,y1), (x2,y2), (x3,y3), (x4,y4)와 확장 영상(A)의 4개의 점인 (u1,v1), (u2,v2), (u3,v3), (u4,v4)의 대응점 쌍의 모습은 다음과 같으며, [수식 4]와 같은 A=WP의 형태를 가진다. 여기서 P는 투영 변환 계수의 파라미터 행렬이다.In step S12, at least four optimal corresponding points among pairs of corresponding points of the image projected on the camera are displayed as follows. That is, four points (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 ) of the reference image R, The pair of corresponding points of the points u 1 , v 1 , u 2 , v 2 , u 3 , v 3 and u 4 , v 4 are as follows, A = WP. Where P is a parameter matrix of projection transformation coefficients.

R A     Ra

Figure 112008089241927-pat00007
Figure 112008089241927-pat00007

[수식 4][Equation 4]

Figure 112008089241927-pat00008
Figure 112008089241927-pat00008

만약, S12 단계에서 카메라에 투영된 영상의 대응점 쌍들 중에서 최소 4개의 최적 대응점을 구한다면, W는 4×4 정방 행렬을 가지며, 8개의 투영 변환 계수가 a11, a12, a13, a21, a22, a23, a31, a32 이고, 기준 영상의 최적 대응점이 (x1,y1), (x2,y2), (x3,y3), (x4,y4)이고, 확장 영상 최적 대응점이 (u1,v1), (u2,v2), (u3,v3), (u4,v4)라 할때, 8개의 투영 변환 계수는 상기의 [수식 4]의 역행렬을 취해 하기 [수식 5]와 같이 구할 수 있다.If, If, obtain the at least four optimum corresponding points from among the pairs of the corresponding points of the image projected from the S12 step the camera, W is a 4 × 4 has a square matrix, the eight projective transformation coefficients a 11, a 12, a 13 , a 21 , a 22, a 23, a 31, and a 32, the optimum corresponding points of the reference image (x 1, y 1), (x 2, y 2), (x 3, y 3), (x 4, y 4 ), the extended video optimum corresponding point (u 1, and v 1), (u 2, v 2), (u 3, v 3), (u 4, v 4) to LA, the eight projective transformation coefficient is the The inverse matrix of [Expression 4] of [Expression 5] can be obtained.

[수식 5][Equation 5]

Figure 112008089241927-pat00009
Figure 112008089241927-pat00009

따라서, 상기 [수식 5]는 8개의 투영 변환 계수(A;a11~a32)를 구하기 위하여 최소 대응점 쌍 4개를 가정할 경우이며, 이를 일반화하면 P=W-1A로 구할 수 있다.Therefore, in order to obtain the eight projection transformation coefficients A (a 11 to a 32 ), the above equation (5) assumes four pairs of the minimum correspondence points, and if it is generalized, it can be obtained as P = W -1 A.

그러나, 만약, 대응점 쌍의 개수 N이 4보다 크다면 W는 정방 행렬을 가지지 않고 이방행렬이 되기 때문에, W-1을 구할 수 없어 투영 변환 계수 행렬(P)를 구할 수 없다.However, if the number N of pairs of corresponding points is larger than 4, since W does not have a square matrix and becomes an anisotropic matrix, W -1 can not be obtained, and the projection transformation coefficient matrix P can not be obtained.

따라서 대응점 쌍의 개수 N이 4보다 크다면 최소 자승 오차(least square error)를 제공하는 투영 변환 계수의 해는 하기 [수식 6]와 같이 구할 수 있다. [수식 6]의 해인 투영 변환 계수 행렬(P)은 통상 자승 오차(square error)를 최소화하여 구하는 이방 역행렬 계산 방식인 Pseudoinverse 방식을 통해 구한다.Therefore, if the number N of pairs of corresponding points is larger than 4, the solution of the projection transformation coefficient that provides the least square error can be obtained as shown in the following [Equation 6]. The projection transformation coefficient matrix P, which is the solution of [Expression 6], is obtained through a pseudo inverse method which is an anisotropic inverse matrix calculation method which is usually obtained by minimizing a square error.

따라서 대응점 쌍의 개수 N이 4보다 커서 Pseudoinverse 계산 방식을 적용할 경우, A는 확장 영상의 좌표 행렬, W는 선형 변환 행렬, P는 투영 변환 계수 행렬, WT는 W의 전치 행렬, W-1은 W의 역행렬이라 할 때, 투영 변환 계수 행렬은 하기 [수식 6]에 의해 구해질 수 있다.In the case of applying the pseudoinverse calculation method, A is the coordinate matrix of the extended image, W is the linear transformation matrix, P is the projection transformation coefficient matrix, W T is the transpose matrix of W, and W -1 Is an inverse matrix of W, the projection transformation coefficient matrix can be obtained by the following [Expression 6].

[수식 6][Equation 6]

A=WP -> P=(WTW)-1WTAA = WP -> P = (W T W) -1 W T A

결국, 8개의 투영 변환 계수(a11~a32)를 유도하는 과정은, i) 찾아진 대응점 쌍 R,A의 개수가 4개라면 [수식 3]의 8개의 투영 변환 계수(a11~a32)를 상기 [수식 5]를 통해 구하고, ii) 찾아진 대응점 쌍 R,A의 개수가 4보다 크다면 [수식 3]의 8개의 투영 변환 계수를 상기 [수식 6]를 통해 구한다.As a result, the process of deriving the eight projection transformation coefficients (a 11 to a 32 ) is performed in such a manner that i) if the number of pairs of corresponding points R and A searched is four, the eight projection transformation coefficients a 11 to a 32 ) are obtained through the above-mentioned Expression 5, and ii) if the number of pairs of corresponding points R and A found is larger than 4, the eight projection transformation coefficients of Expression 3 are obtained through Expression 6 above.

이를 프로그램의 알고리즘으로 정리하여 표현하면 다음과 같다.The algorithm of the program is summarized as follows.

IF correspondence pairs = 4IF correspondence pairs = 4

Find 8 parameters of P using W-1AFind 8 parameters of P using W -1

IF correspondence pairs > 4IF correspondence pairs> 4

Find 8 parameters of P using (WTW)-1WTAFind 8 parameters of P using (W T W) -1 W T A

한편, 상기와 같이 [수식 5] 또는 [수식 6]에 의해 구한 8개의 투영 변환 계수(a11~a32)를 갖는 [수식 3]의 투영 변환(perspective transformation)은 영상 합성에 있어서 이미지 정렬을 위해 필요로 한다.On the other hand, the perspective transformation of [Expression 3] having the eight projection transformation coefficients (a 11 to a 32 ) obtained by Expression 5 or Expression 6 as described above can be applied to image alignment .

이미지 정렬(S15) 과정에 대하여 설명한다.The process of image alignment (S15) will be described.

이미지 정렬(image alignment)이란 제1카메라의 임의의 기준 영상 시퀀스에 대하여 사용자에게 보여줄 한 장의 확장된 영상으로 표현하고자 제2카메라의 임의의 각 화소를 [수식 3]의 투영 변환에 맞게 정렬하는 것을 말하는 것으로서, 상기의 [수식 3]에서 구한 투영 변환을 통해 합성할 확장 영상의 영상 화소들을 정렬하는 과정을 수행한다.Image alignment refers to arranging arbitrary pixels of the second camera in accordance with the projection transformation of Equation (3) in order to express the arbitrary reference image sequence of the first camera as a single extended image to be displayed to the user The process of aligning the image pixels of the extended image to be synthesized through the projection transformation obtained by the above-mentioned [Expression 3] is performed.

본 발명의 실시 예에서는 이미지 정렬을 함에 있어, 결과 영상에 화소 정보 부족으로 인한 홀(hole)을 생성시키지 않기 위하여 도 8과 같이 역방향 맵핑(inverse mapping)을 수행한다.In the embodiment of the present invention, an inverse mapping is performed as shown in FIG. 8 so as not to generate a hole due to the lack of pixel information in the resultant image.

이미지 정렬 과정을 도시한 도 9와 함께 이미지 정렬 과정을 설명하면, 우선, 기본 영상과 확장 영상이 매칭 확장되어 놓일 더미(dummy) 영상을 생성(S91)하는 과정을 가진다.Referring to FIG. 9 illustrating an image alignment process, an image alignment process will be described. First, a dummy image to be matched with the basic image and the extended image is generated (S91).

상기 더미 영상은 제1카메라의 기준 영상(reference image)과 제2카메라의 확장 영상(added image)을 맵밍하기 위한 하나의 가상 영상이다. 상기 더미 영상은 아무런 RGB 데이터 값을 가지고 있지 않은 영상이다The dummy image is a virtual image for mapping the reference image of the first camera and the added image of the second camera. The dummy image is an image having no RGB data value

확장 영상의 데이터는 R,G,B 디지털 코드를 처리하므로 저장 공간의 크기는 각 화소마다 24bit의 크기를 가지며, 확장 영상의 데이터의 전체 사이즈는, 가로폭과 세로폭 사이즈를 달리한다. Since the data of the extended image processes the R, G, and B digital codes, the size of the storage space has a size of 24 bits for each pixel, and the total size of data of the extended image is different in the width and the width.

즉, 기준 영상과 확장 영상이 더해진 한장의 확장 영상은 두 영상의 수평 시야(FOV;Field Of View)를 나타낼 수 있는 가로폭(width)에서 중첩 부분을 뺀 값이 확장된 영상의 최종 시야(FOV)이며 더미 영상의 높이는 충분한 공간 확보를 위하여 두 영상의 세로폭(height)의 최대값(MAX)를 선택한다.That is, a single extended image obtained by adding the reference image and the extended image is obtained by subtracting the overlapping portion from the width that can represent the field of view (FOV) of the two images, ), And the maximum value (MAX) of the height of the two images is selected in order to secure a sufficient space for the height of the dummy image.

참고로, 더미 영상 가로폭을 Dummy Image Width, 기준영상 가로폭을 Ref_width, 기준영상 세로폭을 Ref_height, 합성영상 가로폭을 Added_Width, 합성영상 세로폭을 Added_Width라 할 때, 이를 수식 알고리즘으로 표현하면 다음과 같다.For reference, when the dummy image width is Dummy Image Width, the reference image width is Ref_width, the reference image width is Ref_height, the synthesized image width is Added_Width, and the synthesized image width is Added_Width, Respectively.

Dummy Image Width = Ref_width + Added_Width - (중첩 비율 × Ref_width)Dummy Image Width = Ref_width + Added_Width - (overlap ratio x Ref_width)

Dummy Image Height = Max(Ref_height,Added_height)Dummy Image Height = Max (Ref_height, Added_height)

Created_Dummy Image = (Dummy Image Width,Dummy Image Height,24bit)Created_Dummy Image = (Dummy Image Width, Dummy Image Height, 24 bit)

더미 영상(dummy image)이 상기와 같이 생성되면, 가상으로 만든 더미 영상에 기준 이미지(refrence image)를 맵핑(mapping)시킨다(S92).When the dummy image is generated as described above, the reference image is mapped to the dummy image created in step S92.

더미 영상에 기준 영상을 맵핑시켜 위치해놓은 모습을 도 10에 도시였는데, 더미 영상의 왼쪽편에 기준 영상이 맵핑되어 놓여져 있음을 알 수 있다.FIG. 10 shows a reference image mapped to the dummy image, and it is understood that the reference image is mapped on the left side of the dummy image.

기준 영상의 각 화소를 더미 영상의 해당 화소에 세로축, 가로축으로 차례로 맵핑하는데, 참고로, 프로그램 알고리즘으로 표현하면 다음과 같다.Each pixel of the reference image is sequentially mapped to the corresponding pixel of the dummy image on the vertical axis and the horizontal axis. For reference, the program algorithm is as follows.

For(y=0;y<Reference Image_Height;y++)For (y = 0; y < Reference Image_Height; y ++)

For(x=0;x<Reference Image_Width;x++)For (x = 0; x < Reference Image_Width; x ++)

{{

Dummy Image[y][x] = Reference Image[y][x];Dummy Image [y] [x] = Reference Image [y] [x];

}}

더미 영상(Dummy Image)에 기준 영상(Reference Image)을 맵핑한 후, 합성될 부분에 확장 영상(Added Image)를 도 11과 같이 역방향 맵핑(Inverse-Mapping)한다(S93). 이때, 확장 영상(Added Image)에는 제1카메라와 제2카메라의 캡쳐 시에 카메라의 회전(rotation), 이동(translation), 스케일링(scaling), 절단(shear), 투영(perspective)에 의해 두 영상의 모형이 사형 변환되어 나타난다. After a reference image is mapped to a dummy image, an added image is inverse-mapped to a part to be synthesized as shown in FIG. 11 (S93). At this time, when the first camera and the second camera are captured, the extended image (Added Image) can be displayed on the display screen by rotating, translating, scaling, shearing, And the model of

이러한 카메라의 풀 모션(full motion)은 8개의 투영 변환 계수로 나타낼 수 있으며, 두 카메라의 이동 변위(disparity)는 ft1->Rf't1+T이다.The full motion of these cameras can be represented by eight projection transformation coefficients, and the disparity of the two cameras is f t1 -> R f ' t 1 + T.

참고로, 확장 영상(Added Image)의 (u,v)좌표가 기준 영상(Reference Image)의 (x,y)좌표로 역방향 맵핑되는 프로그램 알고리즘을 표현하면 다음과 같다.For reference, a program algorithm in which a (u, v) coordinate of an extended image is mapped backward to an (x, y) coordinate of a reference image is expressed as follows.

하기에서, x', y'은 제2카메라에서 취득된 영상의 좌표를 나타내며, u,v는 투영 변환 계수에 의해 제2카메라의 영상을 변환할 좌표를 나타낸다.In the following, x 'and y' represent the coordinates of the image acquired by the second camera, and u and v represent the coordinates by which the image of the second camera is converted by the projection transformation coefficient.

For(y'=0;y'<Dummy Image_Height;y'++)For (y '= 0; y' < Dummy Image_Height; y '++)

For(x'=0;x'<Dummy Image_Width;x'++)For (x '= 0; x' <Dummy Image_Width; x '++)

If(x'≥0 && x'<Reference_Width) && (y'≥0 && y'< Reference_Heitht)If (x '? 0 && x' <Reference_Width) && (y'≥0 && y '<Reference_Heitht)

continue; /* Reference Image data가 맵핑된 부분은 skip함 */continue; / * The part where the reference image data is mapped is skipped * /

else then: u = (a11×x' + a12×y' + a13) / (a31×x' + a32×y' + 1);else then: u = a 11 x x + a 12 x y + a 13 / a 31 x x + a 32 x y + 1;

v = (a21×x' + a22×y' + a23) / (a31×x' + a32×y' + 1);v = (a 21 x x '+ a 22 x y' + a 23 ) / (a 31 x x '+ a 32 x y' + 1);

If(u < 0∥u ≥ Added_width∥v<0∥v≥Added_Height)If (u <0? U? Added_width? V <0? V? Added_Height)

continue; /* Added Image data가 더미 영상 밖에 있는 부분은 skip함 */continue; / * Added image data skip the part outside the dummy image * /

else then : Dummy Image[y'][x']=Added Image[v][u];else then: Dummy Image [y '] [x'] = Added Image [v] [u];

상기와 같이 이미지 정렬 과정을 거쳐 기준 영상과 확장 영상을 합성하여 하나의 영상으로 만든 후에, 이미지 안정화(Image Stablization) 과정을 가진다.After the image alignment process is performed as described above, the reference image and the extended image are synthesized into a single image, and then an image stabilization process is performed.

상기 이미지 안정화는 과정은, 최종 합성된 영상의 컬러값의 틀어짐이나 휘도값(Y)의 정보를 일치화시키기 위한 과정이다. 예컨대, 도 12와 같이 합성된 영상의 정보 표현이 일치하지 않는 부분을 클리핑(clipping)하거나 보간(interpolation)을 거쳐 영상의 표현을 좀더 매끄럽게 한다.The image stabilization process is a process for matching the information of the brightness value (Y) of the color values of the final synthesized image. For example, as shown in FIG. 12, clipping or interpolation of a portion where the information representation of the synthesized image does not coincide with each other makes the representation of the image smoother.

상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시될 수 있다. 따라서 본 발명의 특허 범위는 상기 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위뿐 아니라 균등 범위에도 미침은 자명할 것이다.While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. Accordingly, the scope of the patent of the present invention is not limited by the above-described embodiments, and it will be obvious that the patent scope covers not only the claims but also the equivalents.

도 1은 본 발명의 실시 예에 따른 스테레오 카메라 영상 합성 과정을 도시한 플로차트이다.1 is a flowchart illustrating a stereo camera image synthesizing process according to an embodiment of the present invention.

도 2는 본 발명의 실시 예에 따른 필터링 과정을 도시한 플로차트이다.2 is a flowchart illustrating a filtering process according to an embodiment of the present invention.

도 3은 본 발명의 실시 예에 따라 기준 영상에서 추출된 특징점들과 확장 영상에서 추출된 특징점들을 도시한 그림이다.3 is a diagram illustrating feature points extracted from a reference image and feature points extracted from an extended image according to an embodiment of the present invention.

도 4는 본 발명의 실시 예에 따라 각도 정보 유사성 평가하여 비유사 모델 제거하는 과정을 도시한 플로차트이다.4 is a flowchart illustrating a process of evaluating similarity of angular information and removing a non-similar model according to an embodiment of the present invention.

도 5는 본 발명의 실시 예에 따라 길이 정보 유사성 평가하여 비유사 모델 제거하는 과정을 도시한 플로차트이다.FIG. 5 is a flowchart illustrating a process of eliminating a non-similar model by evaluating similarity of length information according to an embodiment of the present invention.

도 6은 본 발명의 실시 예에 따라 필터링 과정들을 거쳐 두 영상의 중복 영역에서 최적 대응점 쌍이 결정된 모습을 도시한 그림이다.FIG. 6 is a diagram illustrating a state in which pairs of optimal matching points are determined in overlapping regions of two images through filtering processes according to an exemplary embodiment of the present invention.

도 7은 제1카메라에서 캡쳐된 영상과 제2카메라에서 캡쳐된 영상 평면에 화소 기준 영상의 화소 R과 확장 영상의 화소 A와 3D 현실 좌표 W와 동차적(Homogeneous) 성질을 도시한 그림이다.FIG. 7 is a diagram showing a pixel A and a 3D real-world coordinate W and a homogeneous property of the pixel R and the extended image of the pixel reference image on the image captured by the first camera and the image captured by the second camera.

도 8은 본 발명의 실시 예에 따라 역방향 맵핑 모습을 도시한 그림이다.8 is a diagram illustrating a reverse mapping according to an embodiment of the present invention.

도 9는 본 발명의 실시 예에 따라 역방향 맵핑 과정을 도시한 그림이다.9 is a diagram illustrating a reverse mapping process according to an embodiment of the present invention.

도 10은 본 발명의 실시 예에 따라 더미 영상에 기준 영상을 맵핑시켜 위치해놓은 모습을 도시한 그림이다.10 is a diagram showing a reference image mapped to a dummy image according to an embodiment of the present invention.

도 11은 본 발명의 실시 예에 따라 기준 영상과 확장 영상을 합성하여 한장 의 영상으로 된 모습을 도시한 그림이다.11 is a view illustrating a single image obtained by synthesizing a reference image and an extended image according to an embodiment of the present invention.

도 12는 본 발명의 실시 예에 따라 합성된 영상의 정보 표현이 일치하지 않는 부분을 클리핑(clipping)하거나 보간(interpolation)을 한 모습을 도시한 그림이다.FIG. 12 is a view illustrating clipping or interpolation of a portion where the information representation of the synthesized image does not match according to an embodiment of the present invention.

Claims (13)

제1카메라에서 캡쳐한 기준 영상 및 제2카메라에서 캡쳐한 확장 영상에 대하여 특징점들을 검출하는 특징점 검출 과정;A feature point detection process for detecting feature points for a reference image captured by the first camera and an extended image captured by the second camera; 상기 기준 영상 및 확장 영상에서 대응점 쌍의 개수를 결정하는 대응점 쌍 개수 결정 과정;Determining a number of corresponding point pairs for determining the number of corresponding point pairs in the reference image and the extended image; 결정된 상기 대응점 쌍의 개수를 갖는 모든 모델들을 구성한 후, 상기 모델들의 각도 정보, 길이 정보, 컬러 정보의 유사성을 평가한 후 유사하지 않은 모델들을 제거하여 최적 대응점을 구성하는 필터링 과정;A filtering step of constructing all models having the determined number of pairs of corresponding points and then evaluating the similarity of the angular information, the length information, and the color information of the models, and then removing the dissimilar models to construct an optimal corresponding point; 상기 결정된 대응점 쌍을 이용한 투영 변환 방식이 이루어질 경우, 상기 투영 변환 방식에 사용될 투영 변환 계수를 산출하는 투영 변환 계수 산출 과정;A projection transform coefficient calculation step of calculating a projection transform coefficient to be used in the projection transform method when the projection transform method using the determined pair of corresponding points is performed; 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하여 투영 변환시킴으로써, 하나의 영상으로 합성하는 이미지 정렬 과정;An image alignment process for mapping the extended image back to the reference image using the projection transformation coefficients and performing projection transformation on the extended image to synthesize the expanded image into one image; 최종 합성된 영상의 컬러값 틀어짐, 휘도값 정보를 일치화시키는 이미지 안정화 과정The image stabilization process of matching the color value of the final synthesized image and the luminance value information 을 포함하며, / RTI &gt; 상기 필터링 과정은,The filtering process includes: 기준 영상 및 확장 영상에서 각각 추출된 특징점들에 중에서 동일 직선상에 있지 않는(non-collinear) 4 개의 점으로 두 점 간의 기준선과 인접한 두 점으로 되는 4각형의 모든 모델을 구성하는 과정;A process of constructing all four-cornered models having four non-collinear points on the reference points and two adjacent points on the reference points extracted from the reference image and the extended image, respectively; 구성된 모든 모델들의 상기 기준선에 인접한 인접점들과의 각도(angle)를 산출하고, 기준 영상의 모델과 확장 영상의 모델간의 각도 차이를 구하여, 각도 임계값보다 큰 각도 차이를 가지는 모델을 제거하는 과정;A step of calculating an angle of the model with respect to neighboring points adjacent to the reference line of all of the constructed models and obtaining an angle difference between the model of the reference image and the model of the extended image and removing the model having the angular difference larger than the angle threshold value ; 구성된 모든 모델들의 상기 기준선에 인접한 인접점들과의 길이(line)를 산출하고, 기준 영상의 모델과 확장 영상의 모델간의 길이 차이를 구하여, 길이 임계값보다 큰 길이 차이를 가지는 모델을 제거하는 과정;A process of calculating a line with neighboring points adjacent to the baseline of all configured models and obtaining a length difference between the model of the reference image and the model of the extended image and removing the model having a length difference larger than the length threshold value ; 두 영상의 밝기 평균을 뺀 나머지 부분을 정규화시켜 컬러 정보 유사성을 평가하는 color-NCC를 수행한 후, 두 영상의 모델간의 컬러 유사성 정보가 컬러 임계값 이하인 경우, 해당 모델을 제거하는 과정After performing color-NCC to evaluate the color information similarity by normalizing the remainder obtained by subtracting the brightness average of the two images, if the color similarity information between the models of the two images is equal to or less than the color threshold value, 을 포함하는 스테레오 카메라 영상 합성 방법.And a stereo camera image synthesis method. 제1항에 있어서, 상기 특징점 검출 과정은, 두 영상 사이의 코너 점들을 특징점들로 하는 스테레오 카메라 영상 합성 방법.2. The method according to claim 1, wherein the feature point detection step uses corner points between two images as feature points. 제1항에 있어서, 상기 탐색할 대응점 쌍의 개수를 결정하는 것은, 두 카메라 사이의 투영 변환 방식을 고려하여 대응점 쌍의 개수를 결정하는 스테레오 카메라 영상 합성 방법.2. The method of claim 1, wherein the number of pairs of corresponding points to be searched is determined by determining the number of pairs of corresponding points by considering a projection transformation method between the two cameras. 제3항에 있어서, 이동(translation), 회전(rotation), 균등 스케일링(uniform scaling), 비균등 스케일링(non-uniform scaling), 절단(shear)을 포함하는 풀 모션(full motion)의 변환을 이루는 8개의 투영 변환 계수를 필요로 하는 'perspective' 투영 변환 방식이 적용되며, 이때, 대응점 개수가 4쌍으로 결정되는 스테레오 카메라 영상 합성 방법.4. The method of claim 3, further comprising the step of performing a full motion transformation including translation, rotation, uniform scaling, non-uniform scaling, shear, A perspective projection transformation method requiring eight projection transformation coefficients is applied, and the number of corresponding points is determined as four pairs. 삭제delete 제4항에 있어서, 상기 투영 변환 계수를 산출하는 과정은,The method according to claim 4, wherein the step of calculating the projection transformation coefficient comprises: 최적 대응점 구성 과정을 통해 필터링된 최적 대응점의 쌍의 개수가 4개라면, 8개의 투영 변환 계수의 행렬(P)가 a11, a12, a13, a21, a22, a23, a31, a32 이고, 기준 영상의 최적 대응점이 (x1,y1), (x2,y2), (x3,y3), (x4,y4)이고, 확장 영상 최적 대응점이 (u1,v1), (u2,v2), (u3,v3), (u4,v4)라 할 때,If the number of pairs of optimal matching points filtered through the optimal correspondence point construction process is four, then the matrix P of the eight projection transformation coefficients is a 11 , a 12 , a 13 , a 21 , a 22 , a 23 , a 31 this, a 32, the optimum corresponding points of the reference image (x 1, y 1), and (x 2, y 2), (x 3, y 3), (x 4, y 4) , and the extended video optimum corresponding point ( u 1, v 1), ( u 2, v 2), (u 3, v 3), (u 4, v to 4) d,
Figure 112008089241927-pat00010
Figure 112008089241927-pat00010
를 이용하여 투영 변환 계수를 산출하는 스테레오 카메라 영상 합성 방법.And calculating a projection transformation coefficient using the transform coefficient.
제4항에 있어서, 상기 투영 변환 계수를 산출하는 과정은,The method according to claim 4, wherein the step of calculating the projection transformation coefficient comprises: 최적 대응점 구성 과정을 통해 필터링된 최적 대응점의 쌍의 개수가 4개를 초과한 경우라면, A는 확장 영상의 좌표 행렬, W는 선형 변환 행렬, P는 투영 변환 계수 행렬, WT는 W의 전치 행렬, W-1은 W의 역행렬이라 할 때, 투영 변환 계수로 이루어지는 투영 변환 계수 행렬 P는,W is a linear transformation matrix, P is a projection transformation coefficient matrix, and W T is a transposition matrix of W. In this case, And W -1 is an inverse matrix of W, the projection transformation coefficient matrix P, which is made up of the projection transformation coefficients, A=WP -> P=(WTW)-1WTAA = WP -> P = (W T W) -1 W T A 에 의해 산출되는 스테레오 카메라 영상 합성 방법.And the stereo camera image synthesizing method. 제1카메라에서 캡쳐한 기준 영상 및 제2카메라에서 캡쳐한 확장 영상에 대하여 특징점들을 검출하는 특징점 검출 과정;A feature point detection process for detecting feature points for a reference image captured by the first camera and an extended image captured by the second camera; 상기 기준 영상 및 확장 영상에서 대응점 쌍의 개수를 결정하는 대응점 쌍 개수 결정 과정;Determining a number of corresponding point pairs for determining the number of corresponding point pairs in the reference image and the extended image; 결정된 상기 대응점 쌍의 개수를 갖는 모든 모델들을 구성한 후, 상기 모델들의 각도 정보, 길이 정보, 컬러 정보의 유사성을 평가한 후 유사하지 않은 모델들을 제거하여 최적 대응점을 구성하는 필터링 과정;A filtering step of constructing all models having the determined number of pairs of corresponding points and then evaluating the similarity of the angular information, the length information, and the color information of the models, and then removing the dissimilar models to construct an optimal corresponding point; 상기 결정된 대응점 쌍을 이용한 투영 변환 방식이 이루어질 경우, 상기 투영 변환 방식에 사용될 투영 변환 계수를 산출하는 투영 변환 계수 산출 과정;A projection transform coefficient calculation step of calculating a projection transform coefficient to be used in the projection transform method when the projection transform method using the determined pair of corresponding points is performed; 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하여 투영 변환시킴으로써, 하나의 영상으로 합성하는 이미지 정렬 과정;An image alignment process for mapping the extended image back to the reference image using the projection transformation coefficients and performing projection transformation on the extended image to synthesize the expanded image into one image; 최종 합성된 영상의 컬러값 틀어짐, 휘도값 정보를 일치화시키는 이미지 안정화 과정The image stabilization process of matching the color value of the final synthesized image and the luminance value information 을 포함하며, / RTI &gt; 상기 이미지 정렬 과정은,The image alignment process includes: 기본 영상과 확장 영상이 매칭 확장되어 놓일 더미(dummy) 영상을 생성하는 과정;A process of generating a dummy image in which a basic image and an extended image are matched and expanded; 상기 더미 영상에 상기 기준 영상의 화소를 맵핑하여 위치시키는 과정;Mapping and mapping a pixel of the reference image to the dummy image; 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하여 하나의 영상으로서 합성하는 과정A step of backward mapping the extended image to the reference image using the projection transformation coefficient and synthesizing the expanded image as a single image 을 포함하는 스테레오 카메라 영상 합성 방법.And a stereo camera image synthesis method. 제8항에 있어서, 상기 더미 영상은, 각 화소마다 RGB 데이터를 표시하기 위한 24bit크기를 가지는 스테레오 카메라 영상 합성 방법.The method of claim 8, wherein the dummy image has a size of 24 bits for displaying RGB data for each pixel. 제9항에 있어서, 상기 더미 영상은, 기본 영상과 확장 영상의 중첩 부분을 뺀 값을 더미 영상의 가로폭으로 하며, 기본 영상의 세로폭과 확장 영상의 세로폭 중에서 최대값을 더미 영상의 세로폭으로 하는 스테레오 카메라 영상 합성 방법.The method according to claim 9, wherein the dummy image is a width of a dummy image obtained by subtracting the overlapping portion of the basic image and the extended image, and the maximum value of the vertical width of the basic image and the vertical width of the extended image, Width stereo camera image synthesis method. 제8항에 있어서, 상기 투영 변환 계수를 이용하여 상기 기준 영상에 상기 확장 영상을 역방향 맵핑하는 것은, a11, a12, a13, a21, a22, a23, a31, a32가 투영 변환 계수이고, x', y'은 제2카메라에서 취득된 영상의 좌표이고, u,v는 상기 투영 변환 계수에 의해 제2카메라의 영상을 변환할 좌표를 나타낸다고 할 때, The method of claim 8, wherein it is by using the projection transformation coefficient to the reverse mapping of the expansion image in the reference image, is a 11, a 12, a 13 , a 21, a 22, a 23, a 31, a 32 Is a projection transformation coefficient, x ', y' are coordinates of an image acquired by the second camera, and u and v represent coordinates by which the image of the second camera is converted by the projection transformation coefficient, u = (a11×x' + a12×y' + a13) / (a31×x' + a32×y' + 1) u = (a 11 × x ' + a 12 × y' + a 13) / (a 31 × x '+ a 32 × y' + 1) v = (a21×x' + a22×y' + a23) / (a31×x' + a32×y' + 1)v = (a 21 x x '+ a 22 x y' + a 23 ) / (a 31 x x '+ a 32 x y' + 1) 에 의해 역방향 맵핑되는 스테레오 카메라 영상 합성 방법.Wherein the backward mapping is performed by the backward mapping. 제11항에 있어서, 더미 영상에 기준 영상이 맵핑된 부분은 스킵되며 역방향 맵핑이 이루어지는 스테레오 카메라 영상 합성 방법.12. The method of claim 11, wherein a portion of the dummy image to which the reference image is mapped is skipped and the backward mapping is performed. 제12항에 있어서, 상기 더미 영상 사이즈 밖에 있는 확장 영상은 스킵되며 역방향 맵핑이 이루어지는 스테레오 카메라 영상 합성 방법.13. The method of claim 12, wherein the extended image outside the dummy image size is skipped and the backward mapping is performed.
KR1020080134367A 2008-12-26 2008-12-26 Method for compositing stereo camera images KR101558573B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080134367A KR101558573B1 (en) 2008-12-26 2008-12-26 Method for compositing stereo camera images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080134367A KR101558573B1 (en) 2008-12-26 2008-12-26 Method for compositing stereo camera images

Publications (2)

Publication Number Publication Date
KR20100076351A KR20100076351A (en) 2010-07-06
KR101558573B1 true KR101558573B1 (en) 2015-10-07

Family

ID=42638080

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080134367A KR101558573B1 (en) 2008-12-26 2008-12-26 Method for compositing stereo camera images

Country Status (1)

Country Link
KR (1) KR101558573B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101232870B1 (en) * 2011-02-25 2013-02-14 주식회사 넥서스칩스 Stereoscopic image processor and method for processing image using the same
KR101227936B1 (en) * 2011-05-31 2013-01-30 전자부품연구원 Method for compensating colour of corresponding image and recording medium thereof
KR101348681B1 (en) * 2012-12-28 2014-01-09 국방과학연구소 Multi-sensor image alignment method of image detection system and apparatus using the same
KR102350232B1 (en) * 2014-11-20 2022-01-13 삼성전자주식회사 Method and apparatus for matching stereo images
EP3349149A1 (en) * 2017-01-11 2018-07-18 INESC TEC - Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciencia Method and device for color similarity evaluation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134751A (en) * 1999-08-26 2001-05-18 Ricoh Co Ltd Method and device for processing image, digital camera, image processing system and recording medium with image processing program recorded thereon

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134751A (en) * 1999-08-26 2001-05-18 Ricoh Co Ltd Method and device for processing image, digital camera, image processing system and recording medium with image processing program recorded thereon

Also Published As

Publication number Publication date
KR20100076351A (en) 2010-07-06

Similar Documents

Publication Publication Date Title
US9693028B2 (en) Projection system, semiconductor integrated circuit, and image correction method
JP4887374B2 (en) A method for obtaining scattered parallax field in stereo vision
US6785427B1 (en) Image matching using resolution pyramids with geometric constraints
CA2430591C (en) Techniques and systems for developing high-resolution imagery
US5963664A (en) Method and system for image combination using a parallax-based technique
EP1442614B1 (en) Method and apparatus for image matching
US6173087B1 (en) Multi-view image registration with application to mosaicing and lens distortion correction
US7474802B2 (en) Method and apparatus for automatically estimating the layout of a sequentially ordered series of frames to be used to form a panorama
US11184604B2 (en) Passive stereo depth sensing
Irani et al. Direct recovery of planar-parallax from multiple frames
EP2377324A1 (en) One step sub-pixel motion estimation
WO2009150882A1 (en) Image registration processing device, region expansion processing device, and image quality improving device
US7286689B2 (en) Motion estimation for compression of calibrated multi-view image sequences
US20010043229A1 (en) Method, system and record medium for generating wide-area high-resolution image
KR101558573B1 (en) Method for compositing stereo camera images
JP4887376B2 (en) A method for obtaining a dense parallax field in stereo vision
US20100253861A1 (en) Display
Irani et al. Direct recovery of planar-parallax from multiple frames
RU2384882C1 (en) Method for automatic linking panoramic landscape images
Gorges et al. Mosaics from arbitrary stereo video sequences
Pollard et al. Automatically Synthesising Virtual Viewpoints by Trinocular Image Interpolation: Detailed Report
JP2004133556A (en) Three-dimensional shape extraction method, three-dimensional shape extraction program and storage medium storing three-dimensional shape extraction program
Cervantes et al. Progressive Multi-image Registration based on Feature Tracking.
Zhao et al. An efficient video mosaic panorama algorithm
JPH0818858A (en) Image composite device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180910

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190916

Year of fee payment: 5