KR20030076904A - Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation - Google Patents

Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation Download PDF

Info

Publication number
KR20030076904A
KR20030076904A KR1020020015913A KR20020015913A KR20030076904A KR 20030076904 A KR20030076904 A KR 20030076904A KR 1020020015913 A KR1020020015913 A KR 1020020015913A KR 20020015913 A KR20020015913 A KR 20020015913A KR 20030076904 A KR20030076904 A KR 20030076904A
Authority
KR
South Korea
Prior art keywords
image
matching
value
intermediate view
detecting
Prior art date
Application number
KR1020020015913A
Other languages
Korean (ko)
Inventor
김은수
배경훈
Original Assignee
(주)맥스소프트
김은수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)맥스소프트, 김은수 filed Critical (주)맥스소프트
Priority to KR1020020015913A priority Critical patent/KR20030076904A/en
Publication of KR20030076904A publication Critical patent/KR20030076904A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Abstract

PURPOSE: An intermediate view reconstruction method is provided to adaptively select the size of a matching window according to the size of a characteristic value, and to prevent the mis-matching or blocking effect. CONSTITUTION: An intermediate view reconstruction method includes the steps of detecting a block corresponding to a stereo input image by calculating a mean square error between two blocks(S100), extracting the corresponding block and a characteristic value of the image after calculating a transition value(S102), selecting a matching window to matching the transition on the basis of the extracted characteristic value(S104), and carrying out the intermediate view reconstruction by the selected matching window by the interpolation with a weighed mean value(S106).

Description

중간 시점 영상 합성 방법{Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation}Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation}

본 발명은 중간 시점 영상 합성 방법에 관한 것으로서, 더욱 상세하게는 영상 정합시의 정합창을 특징값의 크기에 따라 적응적으로 선택하여 임의의 중간시점의 위치에 중산 영상을 합성하는 방법에 관한 것이다.The present invention relates to a method for synthesizing an intermediate view image, and more particularly, to a method for synthesizing a bowler image at a position of an intermediate intermediate point by adaptively selecting a matching window at the time of image registration according to a feature value. .

일반적으로, 사람이 물체를 입체적으로 볼 수 있는 것은 양안시차에 의한 것으로, 두 눈은 각기 다른 시점의 영상을 관측하고 인간의 뇌가 이 두 스테레오 영상의 차이를 합성하여 3차원 입체물체를 인식하게 된다. 그 동안, 이러한 인간시각시스템 (HVS: human visual system)을 모방하여 다양한 형태의 양안식 3차원 디스플레이 시스템이 구현되어 왔다. 그러나, 이러한 스테레오 양안방식은 시점이 2안으로 제한되기 때문에 관찰자가 제한된 시역을 벗어나거나 초점이 맞지 않을 경우에는 입체감을 느낄 수 없고, 또한 눈의 피곤함 및 어지러움 등을 느끼기 때문에 실질적인 응용이 제한되고 있다. 따라서 이러한 기존의 스테레오 방식의 단점을 해결하기 위한 접근방법으로 여러 형태의 다시점 스테레오 3D 디스플레이 시스템에 관한 활발한 연구들이 진행되어 왔다. 이러한 시스템은 다안식 입체 카메라를 통해 다시점의 영상획득과 디스플레이가 이루어지기 때문에 시점의 개수가 증가됨에 따라 시역이 확대되고 보다 자연스러운 3D 디스플레이가 가능하다. 그러나, 시점의 개수가 증가됨에 따라 다시점의 영상데이터도 동시에 증가하기 때문에 실시간의 영상처리 프로세서 및 초고속, 광대역의 전송채널이 요구되게 된다. 최근, 이러한 문제점을 해결하기 위한 새로운 접근방법으로 제한된 개수의 스테레오 영상만을 이용하여 여러 개의 임의 시점 스테레오 영상을 디지털적으로 합성해내는 중간 시점 영상합성 (IVR: intermediate view reconstruction)기법이 연구개발 되고 있다. 이러한 중간시점 영상합성 기법은 제한된 스테레오 영상으로부터 임의의 다시점 스테레오 영상을 디지털적으로 합성해 내기 때문에 기존의 3차원 디스플레이 시스템의 문제점 해결과 동시에 시역이 확대된 자연스러운 3차원 입체 디스플레이의 구현 가능성을 제시하고 있다.In general, a person can see an object three-dimensionally by binocular disparity. The two eyes observe images from different viewpoints, and the human brain synthesizes the difference between the two stereo images to recognize the three-dimensional solid object. do. In the meantime, various types of binocular three-dimensional display systems have been implemented by imitating the human visual system (HVS). However, since the stereoscopic binocular system is limited to two eyes, the practical application is limited because the observer cannot feel three-dimensional feeling when the viewer is out of focus or is out of focus, and also feels tired and dizzy eyes. Accordingly, active researches on various types of multi-view stereo 3D display systems have been conducted as approaches to solve the disadvantages of the conventional stereo system. Since the system acquires and displays multi-view images through a multi-view stereoscopic camera, the field of view is enlarged as the number of viewpoints increases and more natural 3D display is possible. However, as the number of viewpoints increases, the image data of a multi-view also increases simultaneously, which requires a real-time image processing processor and a very high speed and wideband transmission channel. Recently, an intermediate view reconstruction (IVR) technique for digitally synthesizing a plurality of arbitrary view stereo images using only a limited number of stereo images has been researched and developed as a new approach to solve this problem. . Since this mid-view image synthesis technique digitally synthesizes arbitrary multi-view stereo images from limited stereo images, it presents the possibility of realizing a natural three-dimensional stereoscopic display with expanded viewing area while solving problems of the existing three-dimensional display system. Doing.

일반적으로, 중간영상합성 과정에서 변이 정합 방법으로는 화소기반, 블록기반 및 특징기반 등의 정합 방식들이 사용되었다. 이 중, 화소기반 정합방식은 세밀한 정합은 가능하지만 정합과정에서 오정합 (mismatching)이 나타날 확률이 높고 수행시간이 길다는 등의 단점이 있다. 또한, 블록기반 정합방식의 경우는 수행시간은 짧으나 세밀한 정합이 어렵고 블록화 현상 (blocking effect) 등의 단점이 나타나고 있다. 그리고 특징기반 정합방식은 입력영상의 특징에 따른 효율적인 정합이 가능하지만 특징값이 없는 유사영역 부분에서 잘못된 변이할당이 생기는 등의 단점이 있다.In general, matching methods such as pixel-based, block-based, and feature-based are used as the disparity matching method in the intermediate image synthesis process. Among these, the pixel-based matching method allows fine matching but has disadvantages such as high probability of mismatching and long execution time in the matching process. In addition, in the case of the block-based matching method, the execution time is short, but fine matching is difficult, and there are disadvantages such as a blocking effect. The feature-based matching method is capable of efficient matching according to the characteristics of the input image, but has disadvantages such as incorrect dislocation allocation in the similar region having no feature value.

본 발명에서는 상기한 바와 같은 종래 기술의 문제점을 해결하기 위해, 오정합과 블록화 현상을 해결할 수 있는 중간 시점 영상 합성 방법을 제안하고자 한다.In the present invention, in order to solve the problems of the prior art as described above, it is proposed a method of synthesizing an intermediate view point image that can solve the misalignment and blocking phenomenon.

본 발명의 또 다른 목적은 특징값의 크기에 따라 정합창을 적응적으로 선택하여 정합을 수행하는 중간 시점 영상 합성 방법을 제안하는 것이다.Another object of the present invention is to propose a method of synthesizing an intermediate viewpoint image by adaptively selecting a matching window according to a feature value.

도 1은 본 발명의 바람직한 실시예에 따른 중간 시점 영상 합성 방법의 전체 흐름을 도시한 순서도.1 is a flow chart showing the overall flow of the intermediate view image synthesis method according to a preferred embodiment of the present invention.

도 2는 본 발명의 바람직한 실시예에 따른 대응 블록을 검출하여 특징값을 검출하는 과정을 나타낸 순서도.2 is a flowchart illustrating a process of detecting a feature value by detecting a corresponding block according to a preferred embodiment of the present invention.

도 3은 본 발명의 바람직한 실시예에 따른 정합창을 선택하는 과정을 나타낸 순서도.3 is a flow chart showing a process for selecting a registration window according to a preferred embodiment of the present invention.

도 4는 선택된 정합창을 이용하여 중간 시점 영상을 합성하는 과정을 나타낸 순서도.4 is a flowchart illustrating a process of synthesizing an intermediate view image using the selected registration window.

도 5는 중간 시점 영상 합성을 위한 개념도.5 is a conceptual diagram for synthesizing an intermediate view image.

도 6은 좌영상을 기준으로 우영상의 대응 블록을 검출하는 과정을 나타낸 블록 탐색도.6 is a block search diagram illustrating a process of detecting a corresponding block of a right image based on a left image.

도 7은 모의 실험에서 사용한 테스트 영상을 도시한 도면.7 shows a test image used in a simulation.

도 8에서 (a)는 화소 기반 정합 방법을 이용하였을 경우의 테스트 영상의 변이지도를 나타낸 것이고, (b)는 화소 및 특징 기반 정합 방법을 이용하였을 경우의테스트 영상의 변이지도를 나타낸 것이며, (c)는 본 발명을 이용하였을 경우의 테스트 영상의 변이지도를 나타낸 것.In FIG. 8, (a) shows a disparity map of the test image when the pixel-based matching method is used, and (b) shows a disparity map of the test image when the pixel and feature-based matching method is used. c) shows the variation map of the test image when using the present invention.

도 9에서, (a)는 화소 기반 정합 방법에 의한 중간 시점 영상 합성 결과를 나타낸 것이고 (b)는 화소 기반 및 특징 기반 정합 방법에 의한 중간 시점 영상 합성 결과를 나타낸 것이며, (c)는 본 발명에 따른 중간 시점 영상 합성 결과를 나타낸 것.In FIG. 9, (a) shows a mid-view image synthesis result by the pixel-based matching method, (b) shows a mid-view image synthesis result by the pixel-based and feature-based matching method, and (c) shows the present invention. The results of the intermediate view image synthesis according to.

도10에서 (a)는 화소 기반 정합 방법을 이용하였을 경우 원 영상과의 오차 영상을 나타낸 것이고, (b)는 화소 기반 및 특징 기반 정합 방법을 이용하였을 경우 원 영상과의 오차 영상을 나타낸 것이며, (c)는 본 발명을 이용하였을 경우 원 영상과의 오차 영상을 나타낸 것In FIG. 10, (a) shows an error image with the original image when the pixel-based matching method is used, and (b) shows an error image with the original image when the pixel-based and feature-based matching method is used. (c) shows an error image from the original image when using the present invention

상기한 바와 같은 목적을 달성하기 위하여, 본 발명에 따른 중간 시점 영상 합성 방법은 스테레오 입력 영상의 대응 블록을 검출하고 영상간의 변이를 계산하는 단계(a); 상기 스테레오 영상의 특징값을 추출하는 단계(b); 미리 설정된 복수의 정합창 중 상기 단계(b)에서 추출한 특징값에 따라 정합창을 선택하는 단계(c); 및 상기 선택한 정합창에 의해 중간 시점 영상을 합성하는 단계(d)를 포함할 수 있다.In order to achieve the above object, the intermediate view image synthesis method according to the present invention comprises the steps of (a) detecting a corresponding block of the stereo input image and calculating the transition between the images; (B) extracting feature values of the stereo image; (C) selecting a matching window according to the feature value extracted in the step (b) among a plurality of preset matching windows; And synthesizing an intermediate view image by the selected matching window.

상기 단계(a)는 좌영상을 기준으로 우영상의 대응 블록을 검출하는 단계; 우영상을 기준으로 좌영상의 대응 블록을 검출하는 단계; 우영상과 좌영상간의 좌표값 차이를 이용하여 변이를 계산하는 단계를 포함할 수 있다.The step (a) may include detecting a corresponding block of the right image based on the left image; Detecting a corresponding block of the left image based on the right image; The method may include calculating a variation using a difference in coordinate values between the right image and the left image.

상기 단계(b)의 특징값은 캐니 마스크에 의한 윤곽선(Edge) 정보를 이용하여 추출할 수 있다.The feature value of step (b) may be extracted using contour information by the Canny mask.

상기 정합창은 특징값의 크기에 의해 선택될 수 있다.The registration window may be selected by the magnitude of the feature value.

상기 단계(d) 중간 시점 영상 합성은 가중 평균값에 의한 내삽 방법에 의해 이루어질 수 있다.In step (d), the intermediate view image synthesis may be performed by an interpolation method using a weighted average value.

한편, 본 발명은 변이가 할당되지 않은 영역에 대해 주변 변이값들의 평균을 구해 평균값으로 변이값을 대체하는 변이 안정화 단계를 더 포함할 수 있다.Meanwhile, the present invention may further include a variation stabilization step of obtaining the average of the peripheral variation values for the region to which the variation is not assigned and replacing the variation value with the average value.

상기 대응 블록의 검출은 두 개의 블록간의 MSE(Mean Square Error)를 계산하여 검출할 수 있다.The detection of the corresponding block may be detected by calculating a mean square error (MSE) between two blocks.

이하에서 첨부된 도면을 참조하여 본 발명에 따른 중간 시점 영상 합성 방법의 바람직한 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of a mid-view image synthesis method according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 실시예에 따른 중간 시점 영상 합성 방법의 전체 흐름을 도시한 순서도이다.1 is a flowchart showing the overall flow of the intermediate view image synthesis method according to a preferred embodiment of the present invention.

도 1에 도시된 바와 같이, 우선 스테레오 입력 영상의 대응 블록을 검출한다(S100). 일반적으로 스테레오 입력 영상은 좌영상과 우영상으로 구분되며, 좌영상의 특정 블록에 해당하는 부분이 우영상의 어떠한 부분인지를 검출하는 것이다.As shown in FIG. 1, first, a corresponding block of a stereo input image is detected (S100). In general, the stereo input image is divided into a left image and a right image, and detects which part of the right image corresponds to a specific block of the left image.

본 발명의 바람직한 실시예에 따르면, 대응 블록을 검출할 때 양방향 정합 방식을 사용하는 것이 바람직하다.According to a preferred embodiment of the present invention, it is preferable to use a bidirectional matching scheme when detecting a corresponding block.

대응 블록을 검출한 후에는 그 블록을 대표하는 변이값을 계산할 수 있다.After detecting the corresponding block, the variation value representing the block can be calculated.

대응 블록을 검출하고, 변이값을 계산한 후에는 스테레오 입력 영상의 특징값을 추출한다(S102).After detecting the corresponding block and calculating the shift value, the feature value of the stereo input image is extracted (S102).

특징값을 추출한 후에는, 추출된 특징값을 기준으로 변이를 정합할 정합창을 선택한다(S104). 본 발명에서는 일정한 정합창을 정하여 변이를 정합하지 않고 특징값의 크기에 따라 정합창을 적응적으로 선택하여 변이를 정합하도록 한다.After the feature value is extracted, a matching window for matching the variation is selected based on the extracted feature value (S104). In the present invention, a constant matching window is defined to match the variation by adaptively selecting the matching window according to the magnitude of the feature value without matching the variation.

즉, 본 발명에서는 세밀한 정합이 필요한 경우와 그렇지 않은 경우를 구분하여 효율적인 정합을 수행하도록 하는 것이다.That is, in the present invention, it is necessary to distinguish between the case where fine matching is required and the case where it is not, to perform efficient matching.

정합창을 선택한 후에는 선택한 정합창을 이용하여 중간 시점의 영상을 합성한다(S106). 본 발명의 바람직한 실시예에 따르면, 보다 자연스러운 정합을 위하여 가중 평균값에 의한 내삽 방법(Interpolation with weighed mean value)으로 중간 시점 영상을 합성하는 것이 바람직하다.After selecting the matching window, an image of an intermediate view is synthesized using the selected matching window (S106). According to a preferred embodiment of the present invention, it is preferable to synthesize an intermediate view image by an interpolation with weighed mean value for more natural matching.

도 2는 본 발명의 바람직한 실시예에 따른 대응 블록을 검출하여 특징값을 검출하는 과정을 나타낸 순서도이다.2 is a flowchart illustrating a process of detecting a feature value by detecting a corresponding block according to a preferred embodiment of the present invention.

도 2에 도시된 바와 같이, 우선 스테레오 입력 영상 중 좌영상을 기준으로 우영상의 대응 블록을 검출한다(S200).As shown in FIG. 2, first, a corresponding block of a right image is detected based on a left image among stereo input images (S200).

도 6은 좌영상을 기준으로 우영상의 대응 블록을 검출하는 과정을 나타낸 블록 탐색도로서, 도6a는 좌영상 도6b는 우영상을 나타낸 것이다.6 is a block search diagram illustrating a process of detecting a corresponding block of a right image based on a left image, and FIG. 6A shows a left image and FIG. 6B shows a right image.

도 6에 도시된 바와 같이, 좌영상을 가로 및 세로로 Nx, Ny의 크기를 갖는 블록으로 나누고, 임의의 블록에 대해 우영상에서 이에 대응하는 같은 에피폴라 선상에 존재하는 블록을 검출한다.As shown in FIG. 6, the left image is divided into blocks having the size of N x and N y horizontally and vertically, and a block existing on the same epipolar line in the right image is detected for any block.

도 6에서, S는 우영상에서 대응되는 블록을 검출하기 위해 탐색하는 범위를 말한다. 좌영상과 우영상은 대단히 유사하므로 좌영상의 특정 블록에 대응하는 우영상의 블록은 좌영상 블록과 x좌표 값만이 약간 다르므로 좌영상 블록을 기준으로 탐색범위를 미리 설정하여 탐색 시간을 줄일 수 있다.In FIG. 6, S refers to a range searched for detecting a corresponding block in the right image. Since the left image and the right image are very similar, the block of the right image corresponding to a specific block of the left image differs only slightly from the left image block and the x coordinate value. Therefore, the search time can be reduced by presetting the search range based on the left image block. have.

S는 다음의 수학식 1과 같이 표현될 수 있을 것이다.S may be expressed as Equation 1 below.

S={R(x,y)|(xo-Sx= x <= xo+Sx+Nx),(yo<= y <=yo+Ny) }S = (R (x, y) | (x o -S x = x <= x o + S x + N x ), (y o <= y <= y o + N y )}

일반적으로, 인지 시각 시스템에서는 수직 변이가 수평 변이에 비해 그 영향이 적다. 따라서, 이러한 인간 시각 시스템의 특성을 고려하여 병렬로 스테레오 카메라를 구성하게 되면 수평변이만이 존재하기 때문에 그림6과 같이 수평 성분으로 변이 벡터를 찾을 수 있다.In general, in the cognitive visual system, the vertical shift has less effect than the horizontal shift. Therefore, when the stereo cameras are configured in parallel in consideration of the characteristics of the human visual system, only the horizontal shift exists, so that the disparity vector can be found as the horizontal component as shown in FIG.

본 발명의 바람직한 실시예에 따르면, 탐색된 우영상의 블록이 좌영상 블록에 대응되는지 여부를 판단하기 위해 MSE(Mean Square Root)를 계산한다.According to a preferred embodiment of the present invention, a MSE (Mean Square Root) is calculated to determine whether the found right image block corresponds to the left image block.

다음의 수학식 2는 MSE를 계산하는 식을 나타낸 것이다.Equation 2 below shows an equation for calculating the MSE.

수학식 2에서, Nx, Ny는 블록의 크기를 나타내며, IL과 IR은 좌영상 블록과 대응되는 우영상 블록을 나타낸 것이다.In Equation 2, N x , N y represent the size of the block, and I L and I R represent the right image block corresponding to the left image block.

즉, 수학식 2의 식을 이용하여 탐색 범위내에서 가장 작은 MSE 값을 보이는 블록을 좌영상과 대응되는 우영상의 블록으로 판단한다.That is, the block having the smallest MSE value within the search range is determined as the block of the right image corresponding to the left image using the equation (2).

좌영상을 기준으로 우영상의 대응블록을 검출한 후에는 우영상을 기준으로 좌영상의 대응블록을 검출한다(S202).After detecting the corresponding block of the right image based on the left image, the corresponding block of the left image is detected based on the right image (S202).

우영상 블록에 대응되는 좌영상 블록을 검출하는 과정은 상기 좌영상 블록에 대응하는 우영상 블록을 검출하는 과정과 같으므로 상세한 설명은 생략하기로 한다.Since the process of detecting the left image block corresponding to the right image block is the same as the process of detecting the right image block corresponding to the left image block, a detailed description thereof will be omitted.

이와 같이, 두 번에 걸쳐 대응블록을 찾는 것은 좌영상과 우영상 중 어느 하나만을 기준으로 대응 블록을 찾을 경우 정확한 정합점을 찾기 어렵기 때문이다.As described above, searching for the corresponding block twice is because it is difficult to find the exact matching point when the corresponding block is found based on only one of the left image and the right image.

대응 블록을 검출한 후에는 좌영상과 우영상 사이의 변이값을 계산한다(S204).After detecting the corresponding block, a shift value between the left image and the right image is calculated (S204).

변이값을 계산하는 방법은 다음의 수학식 3과 같다.The method of calculating the variation value is shown in Equation 3 below.

상기 수학식 3에서, Icur는 예측하고자 하는 영상, Iref는 기준영상,는 탐색 범위 내의 변이값을 나타내며, beta_i는 i번째크기의 블록을 나타낸다.In Equation 3, I cur is an image to be predicted, I ref is a reference image, Represents the variation within the search range, and beta_i is the i th Represents a block of size.

상기 수학식 3은 좌영상을 기준으로 우영상의 변이를 계산한 것이며, 이와 반대로 우영상을 기준으로 좌영상의 변이를 계산한 값을 사용할 수 있다는 것도 당업자에게 있어 자명할 것이다.Equation 3 is a calculation of the variation of the right image on the basis of the left image, on the contrary, it will be apparent to those skilled in the art that a value calculated from the variation of the left image on the basis of the right image can be used.

수학식 3에서 구해지는 변이 벡터들은 각 블록을 대표하는 값으로 변이 지도를 만드는데 사용된다.Disparity vectors obtained in Equation 3 are used to create a disparity map with values representing each block.

변이를 계산한 후에는 특징값의 추출을 위해 윤곽선(Edge) 정보를 검출한다(S206). 본 발명의 바람직한 실시예에 따르면, 비교적 잡음에 덜 민감한 윤곽선 검출 미분 연산자인 캐니 마스크를 이용하여 윤곽선(Edge) 정보를 검출하는 것이 바람직하다.After calculating the variation, edge information is detected to extract feature values (S206). According to a preferred embodiment of the present invention, it is preferable to detect edge information using a Canny mask, which is a contour detection differential operator which is relatively less noise sensitive.

윤곽선(Edge) 정보를 검출한 후에는 이를 이용하여 특징값을 추출한다(S208). 본 발명의 바람직한 실시예에 따르면, 특징값은 화소 단위로 추출하는 것이 바람직하다.After detecting edge information, the feature value is extracted using the edge information (S208). According to a preferred embodiment of the present invention, the feature value is preferably extracted in units of pixels.

도 3은 본 발명의 바람직한 실시예에 따른 정합창을 선택하는 과정을 나타낸 순서도이다.3 is a flowchart illustrating a process of selecting a matching window according to a preferred embodiment of the present invention.

도 3에 도시된 바와 같이, 우선 스테레오 입력 영상으로부터 추출한 특징값들을 정규화한다(S300). 본 발명의 바람직한 실시예에 따르면, 특징값은 화소 단위로 계산하는 것이 바람직하며, 0 내지 1 사이의 값으로 정규화되는 것이 바람직하다.As shown in FIG. 3, first, feature values extracted from a stereo input image are normalized (S300). According to a preferred embodiment of the present invention, the feature value is preferably calculated in units of pixels, and is preferably normalized to a value between 0 and 1.

본 실시예에서는 임계값을 5단계로 설정하여 5개의 정합창을 선택하는 경우를 설명한다. 그러나, 본 발명이 임계값과 정합창이 5개인 경우에 한정되는 것이 아니며, 정합창의 개수 및 임계값의 크기의 변경이 본 발명의 범주에 속한다는 것은 당업자에게 있어 자명할 것이다.In the present embodiment, a case in which five registration windows are selected by setting a threshold value in five steps will be described. However, the present invention is not limited to the case where the threshold value and the matching window are five, and it will be apparent to those skilled in the art that a change in the number of matching windows and the size of the threshold value falls within the scope of the present invention.

본 실시예에서, 임계값은 0.1, 0.3, 0.5, 0.7, 0.9로 설정하도록 하고, 이에 대응하는 5가지 크기의 정합창은 1616, 88, 44, 22, 11로 설정하도록 한다 여기서 3232 크기의 이상의 정합창에서는 정합 효율이 떨어지기 때문에 5단계의 정합창 중 가장 큰 정합창의 크기를 1616으로 제한하여 설정하는 것이 바람직하다.In the present embodiment, the threshold is set to 0.1, 0.3, 0.5, 0.7, 0.9, and the corresponding five size matching window is 16 16, 8 8, 4 4, 2 2, 1 Set it to 1 where 32 Since the matching efficiency is lower in the matching window larger than 32, the size of the largest matching window among the five matching windows is It is preferable to limit the setting to 16.

이상과 같이 임계값과 정합창이 설정되면, 추출된 특징값의 크기에 따라 정합창이 선택되는 과정이 진행된다.When the threshold value and the matching window are set as described above, a process of selecting the matching window according to the size of the extracted feature value is performed.

도 3에 도시된 바와 같이, 우선 특징값이 가장 크게 설정된 임계값인 0.9 이상인지 여부를 판단한다(S302).As shown in FIG. 3, first, it is determined whether the feature value is 0.9 or more, which is the threshold value that is set to be the largest (S302).

특징값이 0.9 이상인 경우는 해당 영역이 복잡한 윤곽선을 가지고 있는 경우가 많으므로, 11 정합창이 선택되어 가장 세밀한 정합이 수행된다(S304).If the feature value is 0.9 or more, the area often has complex contours. 1 matching window is selected to perform the finest matching (S304).

특징값이 0.9 이상이 아닌 경우, 두 번째로 작은 임계값인 0.7이상인지 여부를 판단한다(S306).If the feature value is not 0.9 or more, it is determined whether or not the second smallest threshold value is 0.7 or more (S306).

특징값이 0.7 이상인 경우, 11 정합창 다음으로 큰 정합창인 22 정합창이 선택되어 비교적 세밀한 정합이 수행된다(S308).1 for feature values greater than or equal to 0.7 1 the second largest matching window 2 matching window is selected to perform a relatively fine matching (S308).

특징값이 0.7 이상이 아닌 경우, 세 번째로 작은 임계값인 0.5 이상인지 여부를 판단한다(S310).If the feature value is not 0.7 or more, it is determined whether or not the third smallest threshold value is 0.5 or more (S310).

특징값이 0,5 이상이 경우, 22 다음의 정합창인 44 크기의 정합창이 선택된다(S312).2 for feature values greater than 0,5 2 the next matching window 4 4 size matching window is selected (S312).

특징값이 0.5 이상이 아닌 경우, 0.5 다음으로 작은 임계값인 0.3 이상인지 여부를 판단한다(S314).If the feature value is not 0.5 or more, it is determined whether the threshold value is 0.3 or more, which is next to 0.5 (S314).

특징값이 0.3 이상인 경우, 44 다음 크기의 정합창인 88 정합창이 선택된다(S316).4 for feature values greater than or equal to 0.3 4 Matching window of size 8 8 registration window is selected (S316).

특징값이 0.3 이상이 아닌 경우에는, 가장 작은 임계값인 0,1 이상인지 여부를 판단하여(S318), 0.1 이상일 경우 가장 작은 크기의 정합창인 1616 정합창이 선택된다(S318).If the feature value is not 0.3 or more, it is determined whether the smallest threshold value is 0, 1 or more (S318). 16 registration window is selected (S318).

상기한 바와 같이 본 발명에 따르면, 임계값이 5단계에서부터 1단계까지 감소와 증가를 반복하면서 정합창이 적응적으로 선택된다. 따라서, 배경과 같이 특징값이 작은 영역은 유사 영역으로 판단하여 큰 단위의 정합창을 선택하여 정합을 수행하고 물체의 윤곽선과 같이 특징값이 큰 부분은 화소 단위의 미세 정합을 수행하게 된다. 이를 통해 작은 블록 단위의 미세 정합에서 자주 발생하는 오정합을 감소시킬 뿐만 아니라 큰 블록 단위로 정합할 때 생기는 블록화 현상도 감소시킬 수 있다.As described above, according to the present invention, the matching window is adaptively selected while the threshold value decreases and increases from step 5 to step 1. Therefore, a region having a small feature value, such as a background, is determined to be a similar area, and a matching is performed by selecting a matching window of a large unit, and fine matching of a pixel unit is performed for a portion having a large feature value such as an outline of an object. This reduces not only mismatches that occur frequently in small blocks but also reduces the blockage phenomenon that occurs when matching blocks.

도 4는 선택된 정합창을 이용하여 중간 시점 영상을 합성하는 과정을 나타낸 순서도이고, 도 5는 중간 시점 영상 합성을 위한 개념도를 도시한 것이다.4 is a flowchart illustrating a process of synthesizing an intermediate view image using the selected registration window, and FIG. 5 illustrates a conceptual diagram for synthesizing the intermediate view image.

도 5에서, 스테레오 입력 영상으로부터 중간 시점 영상을 합성할 때 시점의 위치는 alpha로 표시되며, alpha는 0과 1 사이의 값으로 설정된다. 도 5에서, 좌영상을 기준으로 할 때 alpha=0인 영상은 좌영상을 나타내고 alpha=1인 영상은 우영상을 각각 나타낸다.In FIG. 5, when synthesizing an intermediate view image from a stereo input image, the position of the view point is represented by alpha, and alpha is set to a value between 0 and 1. FIG. In FIG. 5, an image having alpha = 0 represents a left image and an image having alpha = 1 represents a right image based on the left image.

중간 시점 영상을 합성하는 방법에는 크게 외삽법(Extrapolation)과 내삽법(Interpolation)이 있으며, 도 5는 내삽법의 경우를 도시한 것이다.There are two methods of synthesizing an intermediate view image, an extrapolation method and an interpolation method. FIG. 5 illustrates an interpolation method.

도 4를 참조하면, 중간 시점 영상을 합성하기 위해 우선 영상을 합성할 시점을 선택한다(S400). 즉 도 5에서 alpha값을 선택하는 과정이라고 할 수 있다.Referring to FIG. 4, in order to synthesize an intermediate view image, first, a view to synthesize an image is selected (S400). That is, the process of selecting the alpha value in FIG.

시점이 선택되면, 선택된 시점에 대해 상기 특징값에 따라 선택한 정합창을 이용하여 적응적 정합 작업을 수행한다(S402). 본 발명의 바람직한 실시예에 따르면, 보다 자연스러운 정합을 위해 가중 평균값에 의한 내삽 방법으로 정합을 수행하는 것이 바람직하다.If a viewpoint is selected, an adaptive matching operation is performed using the matching window selected according to the feature value with respect to the selected viewpoint (S402). According to a preferred embodiment of the present invention, the matching is preferably performed by an interpolation method using a weighted average value for more natural matching.

다음의 수학식 4는 시점의 위치(alpha)에 따라 가중 평균값으로 내삽하는 경우를 나타낸 것이다.Equation 4 below shows the case of interpolation with a weighted average value according to the position (alpha) of the viewpoint.

일반적으로, 중간 시점 영상을 합성할 때 스테레오 영상 쌍인 좌영상과 우영상의 어느 한쪽에는 서로 가려진 영역이 존재한다. 이러한 가려진 영역에 대해서는 변이 안정화 과정을 수행한다(S404). 본 발명의 바람직한 실시예에 따르면, 주변 변이 값들의 평균값을 구하여 그 변이값을 가려진 영역의 변이 정보로 사용한다.In general, when synthesizing an intermediate view image, an area covered with each other exists in one of a left image and a right image, which are stereo pairs. The mutation stabilization process is performed on the hidden region (S404). According to a preferred embodiment of the present invention, the average value of the peripheral variation values is obtained and the variation value is used as the variation information of the hidden region.

이하에서는 본 발명에 따른 중간 시점 영상 합성 방법을 종래의 화소 기반 정합 방법 및 블록 기반 정합 방법과 비교한 모의 실험을 설명하기로 한다.Hereinafter, a simulation experiment comparing the mid-view image synthesis method according to the present invention with the conventional pixel-based matching method and the block-based matching method will be described.

모의 실험에서 사용한 테스트 영상은 도 7에 도시되어 있다.The test image used in the simulation is shown in FIG.

모의 실험에서, 입력 영상에 대한 특징값들은 정규화 되고, 임계치는 0.1, 0.3, 0.5, 0.7, 0.9 인 5단계로 설정하였으며, 이를 실험에서는 정수단위의 1부터 5까지의 단계값으로 적용하였다. 초기 조건에서 임계치는 5단계(0.9)로 설정하였고 조건을 만족하지 않으면 임계치가 1 단계만큼 감소되도록 하였다. 초기 임계치는 가변적이고 임의의 설정이 가능하나, 모의 실험에서는 초기 임계치를 모두5로 설정하였다. 또한, 이에 대응하는 정합창의 크기는 1616, 88, 44, 22, 11의 5단계로 설정하였다.In the simulation, the feature values for the input image were normalized and the thresholds were set in five stages of 0.1, 0.3, 0.5, 0.7, and 0.9. In the initial condition, the threshold was set to 5 steps (0.9). If the condition is not satisfied, the threshold was reduced by 1 step. The initial threshold is variable and can be set arbitrarily, but in the simulation we set the initial threshold to all 5. In addition, the size of the corresponding matching window is 16 16, 8 8, 4 4, 2 2, 1 1 was set in 5 steps.

도 8에서 (a)는 화소 기반 정합 방법을 이용하였을 경우의 테스트 영상의 변이지도를 나타낸 것이고, (b)는 화소 및 특징 기반 정합 방법을 이용하였을 경우의 테스트 영상의 변이지도를 나타낸 것이며, (c)는 본 발명을 이용하였을 경우의 테스트 영상의 변이지도를 나타낸 것이다.In FIG. 8, (a) shows a disparity map of the test image when the pixel-based matching method is used, and (b) shows a disparity map of the test image when the pixel and feature-based matching method is used. c) shows a variation map of the test image when the present invention is used.

(a)의 화소기반 방식은 정밀한 정합을 수행하였으나, 물체의 윤곽선 같은 부분에서는 정확한 정합이 이루어지지 않고 있음을 알 수 있다. 도 (b)의 화소기반및 특징기반을 같이 고려한 방식에서는 도 (a)의 화소기반 방식보다 물체의 윤곽선을 비교적 정확히 추출하고 있으나, 본 발명에 따른 방식에서 배경 부분 등에서 좀 더 안정된 변이 벡터가 나타남을 알 수 있다.Although the pixel-based method of (a) performs precise matching, it can be seen that the exact matching is not performed at a portion such as an outline of an object. In the method considering the pixel-based and feature-based of FIG. (B), the contour of an object is extracted more accurately than the pixel-based method of FIG. (A), but in the method according to the present invention, a more stable disparity vector appears in the background part. It can be seen.

도 9에서, (a)는 화소 기반 정합 방법에 의한 중간 시점 영상 합성 결과를 나타낸 것이고 (b)는 화소 기반 및 특징 기반 정합 방법에 의한 중간 시점 영상 합성 결과를 나타낸 것이며, (c)는 본 발명에 따른 중간 시점 영상 합성 결과를 나타낸 것이다.In FIG. 9, (a) shows a mid-view image synthesis result by the pixel-based matching method, (b) shows a mid-view image synthesis result by the pixel-based and feature-based matching method, and (c) shows the present invention. The results of the intermediate view image synthesis according to the FIG.

도 9에서, 화소 기반 정합 방법은 정밀한 정합으로 영상의 세밀한 표현은 가능했지만 변화가 적은 배경 같은 부분에서도 과도한 정밀 정합으로 정합 효율이 떨어지고, 물체의 윤곽선 부분에서는 정확한 윤곽선을 검출하지 못하여 물체의 윤곽선 부분에서 오정합이 나타남을 볼 수 있다. 도 9b에서, 화소 및 특징기반 정합 방법은 화소 기반 방식에 비해 비교적 물체의 윤곽선 부분의 합성이 잘 수행되었으나 본 발명에 따른 결과와 비교했을 때 겉으로는 큰 차이가 없어 보이지만, 원 표시가 된 귀 근처의 확대영상을 보면, 본 발명에 따른 합성 영상이 기존 방식보다 정확한 정합이 수행되었음을 알 수 있다.In FIG. 9, the pixel-based matching method enables precise representation of the image, but the matching efficiency decreases due to excessive precision matching even in a part such as a background where there is little change, and the contour portion of the object cannot be detected in the contour portion of the object. You can see that mismatch appears in. In FIG. 9B, the pixel- and feature-based matching method performs a better synthesis of the contour portion of the object than the pixel-based method. Looking at the magnified image, it can be seen that the synthesized image according to the present invention is more accurately matched than the conventional method.

도10에서 (a)는 화소 기반 정합 방법을 이용하였을 경우 원 영상과의 오차 영상을 나타낸 것이고, (b)는 화소 기반 및 특징 기반 정합 방법을 이용하였을 경우 원 영상과의 오차 영상을 나타낸 것이며, (c)는 본 발명을 이용하였을 경우 원 영상과의 오차 영상을 나타낸 것이다.In FIG. 10, (a) shows an error image with the original image when the pixel-based matching method is used, and (b) shows an error image with the original image when the pixel-based and feature-based matching method is used. (c) shows an error image from the original image when using the present invention.

도 10을 참조하면, 본 발명에 따른 방법에 의할 때 원 영상과 오차 영상의차이가 가장 적음을 확인할 수 있다.Referring to FIG. 10, it can be seen that the difference between the original image and the error image is the smallest according to the method according to the present invention.

이상에서 설명한 바와 같이, 본 발명에 의한 중간 시점 영상 합성 방법에 따르면, 특징값의 크기에 따라 정합창의 크기를 적응적으로 선택하므로, 배경과 같이 특징값이 작은 영역에서는 비교적 큰 정합창에 의한 블록 정합을 수행하고, 물체의 윤곽선과 같이 특징값이 큰 영역에서는 비교적 작은 정합창에 의한 세밀한 정합을 수행하여 전체적인 정합 성능을 개선할 뿐만 아니라 종래에 문제시되었던 오정합이나 블록화 현상을 해결할 수 있는 장점이 있다.As described above, according to the intermediate view image synthesis method according to the present invention, since the size of the matching window is adaptively selected according to the size of the feature value, a relatively large matching window is generated in a region having a small feature value such as a background. It is possible to perform block matching and fine matching by relatively small matching window in areas with large feature values, such as outlines of objects, to improve the overall matching performance, and to solve the conventional problem of mismatching or blocking. There is this.

Claims (8)

중간 시점 영상을 합성하는 방법에 있어서,In the method for synthesizing the mid-view image, 스테레오 입력 영상의 대응 블록을 검출하고 영상간의 변이를 계산하는 단계(a);Detecting a corresponding block of the stereo input image and calculating a transition between the images; 상기 스테레오 영상의 특징값을 추출하는 단계(b);(B) extracting feature values of the stereo image; 미리 설정된 복수의 정합창 중 상기 단계(b)에서 추출한 특징값에 따라 정합창을 선택하는 단계(c); 및(C) selecting a matching window according to the feature value extracted in the step (b) among a plurality of preset matching windows; And 상기 선택한 정합창에 의해 중간 시점 영상을 합성하는 단계(d)를 포함하는 것을 특징으로 하는 중간 시점 영상 합성 방법.And synthesizing an intermediate view image by the selected matching window. 제1항에 있어서,The method of claim 1, 상기 단계(a)는,Step (a) is, 좌영상을 기준으로 우영상의 대응 블록을 검출하는 단계;Detecting a corresponding block of the right image based on the left image; 우영상을 기준으로 좌영상의 대응 블록을 검출하는 단계;Detecting a corresponding block of the left image based on the right image; 우영상과 좌영상간의 좌표값 차이를 이용하여 변이를 계산하는 단계를 포함하는 것을 특징으로 하는 중간 시점 영상 합성 방법.Comprising the step of calculating the variation using the coordinate value difference between the right image and the left image. 제1항에 있어서,The method of claim 1, 상기 단계(b)의 특징값은 캐니 마스크에 의한 윤곽선(Edge) 정보를 이용하여 추출하는 것임을 특징으로 하는 중간 시점 영상 합성 방법.The feature value of step (b) is extracted by using the edge (Edge) information by the Canny mask. 제1항에 있어서,The method of claim 1, 상기 정합창은 특징값의 크기에 의해 선택되는 것을 특징으로 하는 중간 시점 영상 합성 방법.And the matching window is selected by a magnitude of a feature value. 제1항에 있어서,The method of claim 1, 상기 단계(d) 중간 시점 영상 합성은 가중 평균값에 의한 내삽 방법에 의해 이루어지는 것을 특징으로 하는 중간 시점 영상 합성 방법.The step (d) the intermediate view image synthesis method is characterized in that by the interpolation method by a weighted average value. 제1항에 있어서,The method of claim 1, 변이가 할당되지 않은 영역에 대해 주변 변이값들의 평균을 구해 평균값으로 변이값을 대체하는 변이 안정화 단계를 더 포함하는 것을 특징으로 하는 중간 시점 영상 합성 방법.The method of claim 1, further comprising a step of stabilizing the average value of the surrounding variation values for the region to which the variation is not assigned. 제2항에 있어서,The method of claim 2, 상기 대응 블록의 검출은 두 개의 블록간의 MSE(Mean Square Error)를 계산하여 검출하는 것임을 특징으로 하는 중간 시점 영상 합성 방법.And detecting the corresponding block by calculating a mean square error (MSE) between two blocks. 제1항 내지 제7항에 기재된 중간 시점 영상 합성 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 프로그램이 유형적으로 구현되어 있으며, 디지털 처리 장치에 의해 판독될 수 있는 기록 매체A program which is tangibly embodied in a program that can be executed by a digital processing apparatus to perform the intermediate view image synthesizing method according to claim 1, and which can be read by the digital processing apparatus.
KR1020020015913A 2002-03-23 2002-03-23 Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation KR20030076904A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020020015913A KR20030076904A (en) 2002-03-23 2002-03-23 Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020015913A KR20030076904A (en) 2002-03-23 2002-03-23 Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation

Publications (1)

Publication Number Publication Date
KR20030076904A true KR20030076904A (en) 2003-09-29

Family

ID=32226035

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020015913A KR20030076904A (en) 2002-03-23 2002-03-23 Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation

Country Status (1)

Country Link
KR (1) KR20030076904A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100742752B1 (en) * 2004-04-20 2007-07-26 주식회사 후후 Method for reconstructing stereo images using regularized adaptive disparity estimation scheme
KR101046580B1 (en) * 2006-01-04 2011-07-06 삼성전자주식회사 Image processing apparatus and control method
CN102447932A (en) * 2011-10-31 2012-05-09 华中科技大学 Reconstruction method of view point of free view point video
KR101347265B1 (en) * 2012-05-23 2014-01-10 광운대학교 산학협력단 A Stereo Matching Method based on Variable Windows using Frequency Information in DWT Domain
US8803947B2 (en) 2010-08-03 2014-08-12 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view
US9071835B2 (en) 2012-09-24 2015-06-30 Samsung Electronics Co., Ltd. Method and apparatus for generating multiview image with hole filling

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785426A (en) * 1993-09-13 1995-03-31 Toshiba Corp Magnetoresistance effect head
JPH10191394A (en) * 1996-12-24 1998-07-21 Sharp Corp Multi-view-point image coder
KR20000041329A (en) * 1998-12-22 2000-07-15 박남은 Stereoscopic image converting method and apparatus
KR20020053708A (en) * 2000-12-27 2002-07-05 구타라기 켄 Drawing method for drawing image on two-dimensional screen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785426A (en) * 1993-09-13 1995-03-31 Toshiba Corp Magnetoresistance effect head
JPH10191394A (en) * 1996-12-24 1998-07-21 Sharp Corp Multi-view-point image coder
KR20000041329A (en) * 1998-12-22 2000-07-15 박남은 Stereoscopic image converting method and apparatus
KR20020053708A (en) * 2000-12-27 2002-07-05 구타라기 켄 Drawing method for drawing image on two-dimensional screen

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100742752B1 (en) * 2004-04-20 2007-07-26 주식회사 후후 Method for reconstructing stereo images using regularized adaptive disparity estimation scheme
KR101046580B1 (en) * 2006-01-04 2011-07-06 삼성전자주식회사 Image processing apparatus and control method
US8803947B2 (en) 2010-08-03 2014-08-12 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view
CN102447932A (en) * 2011-10-31 2012-05-09 华中科技大学 Reconstruction method of view point of free view point video
CN102447932B (en) * 2011-10-31 2013-11-06 华中科技大学 Reconstruction method of view point of free view point video
KR101347265B1 (en) * 2012-05-23 2014-01-10 광운대학교 산학협력단 A Stereo Matching Method based on Variable Windows using Frequency Information in DWT Domain
US9071835B2 (en) 2012-09-24 2015-06-30 Samsung Electronics Co., Ltd. Method and apparatus for generating multiview image with hole filling

Similar Documents

Publication Publication Date Title
EP1303839B1 (en) System and method for median fusion of depth maps
JP5073670B2 (en) Stereoscopic image display method and method and apparatus for generating three-dimensional image data from input of two-dimensional image data
CN109360235B (en) Hybrid depth estimation method based on light field data
Holliman Mapping perceived depth to regions of interest in stereoscopic images
US9123115B2 (en) Depth estimation based on global motion and optical flow
KR101502362B1 (en) Apparatus and Method for Image Processing
US20120127270A1 (en) Depth estimation based on global motion
EP1466301B1 (en) Method of and scaling unit for scaling a three-dimensional model and display apparatus
US20150022631A1 (en) Content-aware display adaptation methods and editing interfaces and methods for stereoscopic images
KR100517517B1 (en) Method for reconstructing intermediate video and 3D display using thereof
JP2008535116A (en) Method and apparatus for three-dimensional rendering
JPH08331607A (en) Three-dimensional display image generating method
JP2014078095A (en) Image processing device, image processing method, and program
KR20110014067A (en) Method and system for transformation of stereo content
US20220148207A1 (en) Processing of depth maps for images
Jung A modified model of the just noticeable depth difference and its application to depth sensation enhancement
EP3616399B1 (en) Apparatus and method for processing a depth map
CN108848365B (en) A kind of reorientation stereo image quality evaluation method
KR20030076904A (en) Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation
JPH0981746A (en) Two-dimensional display image generating method
KR101849696B1 (en) Method and apparatus for obtaining informaiton of lighting and material in image modeling system
KR100489894B1 (en) Apparatus and its method for virtual conrtol baseline stretch of binocular stereo images
JP2000028354A (en) Three-dimensional image processing device
CN108305269B (en) Image segmentation method and system for binocular image
JP2012203852A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application