KR20040006738A - Device for Hierarchical Disparity Estimation and Method Thereof and Apparatus for Stereo Mixed Reality Image Synthesis using it and Method Thereof - Google Patents

Device for Hierarchical Disparity Estimation and Method Thereof and Apparatus for Stereo Mixed Reality Image Synthesis using it and Method Thereof Download PDF

Info

Publication number
KR20040006738A
KR20040006738A KR1020020041105A KR20020041105A KR20040006738A KR 20040006738 A KR20040006738 A KR 20040006738A KR 1020020041105 A KR1020020041105 A KR 1020020041105A KR 20020041105 A KR20020041105 A KR 20020041105A KR 20040006738 A KR20040006738 A KR 20040006738A
Authority
KR
South Korea
Prior art keywords
image
disparity
variation
hierarchical
information
Prior art date
Application number
KR1020020041105A
Other languages
Korean (ko)
Other versions
KR100446414B1 (en
Inventor
손광훈
김한성
Original Assignee
손광훈
김한성
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 손광훈, 김한성 filed Critical 손광훈
Priority to KR10-2002-0041105A priority Critical patent/KR100446414B1/en
Publication of KR20040006738A publication Critical patent/KR20040006738A/en
Application granted granted Critical
Publication of KR100446414B1 publication Critical patent/KR100446414B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A unit for a hierarchical variance estimation and a method thereof, and a device for synthesizing a stereo mixing reality video using the same and a method thereof are provided to reduce a load for a calculation by estimating a variance by raising gradually from a video of a low resolution sequentially. CONSTITUTION: A noise removing unit(511) removes a noise of a stereo video acquired from a camera. A balancing unit(513) solves an imbalance being generated caused by a discordance of a camera in acquiring the stereo video. An edge extractor(515) extracts an edge which is a boundary between two areas having different brightness with respect to a video received from the balancing unit(513). A hierarchical variance estimation unit(100) estimates a variance as to the video received from the pre-processing unit(510). A virtual video processing unit(530) models the same video as obtained from the left and right camera through a stereo rendering process. A video synthesis unit(520) synthesizes a real video and a virtual video using variance information of a real video received from the pre-processing unit(510) and a real video received from the hierarchical variance estimation unit(100), virtual video received from the virtual video processing unit(530), and depth information of the virtual video.

Description

계층적 변이 추정부 및 그 방법과 이를 이용한 스테레오 혼합 현실 영상 합성 장치 및 그 방법{Device for Hierarchical Disparity Estimation and Method Thereof and Apparatus for Stereo Mixed Reality Image Synthesis using it and Method Thereof}Hierarchical Disparity Estimation and Method Thereof and Apparatus for Stereo Mixed Reality Image Synthesis using it and Method Thereof}

본 발명은 계층적 변이 추정 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체와, 계층적 변이 추정 장치 및 그 방법을 이용한 스테레오 혼합 현실 영상 합성 시스템 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한것으로서, 특히 영상 매체 기술에서 사용되는 계층적 변이 추정 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체와, 계층적 변이 추정 장치 및 그 방법을 이용한 스테레오 혼합 현실 영상 합성 시스템 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention provides a hierarchical disparity estimating apparatus and a method thereof, and a computer-readable recording medium recording a program for realizing the method, a stereo mixed reality image synthesizing system and a method using the hierarchical disparity estimating apparatus and the method, A computer readable recording medium having recorded thereon a program for realizing the above method, and more particularly, a hierarchical disparity estimating apparatus for use in video media technology and a computer readable program having recorded thereon a program for realizing the method. A recording medium, a hierarchical disparity estimating apparatus and a stereo mixed reality image synthesizing system using the method, and a method and a computer readable recording medium storing a program for realizing the method.

영상 기술의 발달에 따라, 오늘날의 세계는 기존의 2차원 정보 표현의 한계에서 벗어나 인간의 시각적 감각 및 인식의 3차원 표현, 기록, 재생을 위하여 보다 자연스럽고, 현실적으로 사용자 인터페이스가 고려된 영상 매체 기술에 관심을 가지게 되었다.With the development of video technology, today's world is moving away from the limitations of existing two-dimensional information representation and the video media technology that considers the user interface more naturally and realistically for three-dimensional representation, recording, and playback of human visual sense and perception. I became interested in

또한, 컴퓨터 그래픽스 기술의 발달은 우리가 접하는 컨텐츠를 더욱 풍성하게 만들었으며 이제는 현실 속에서 인간에게 직접적인 도움을 줄 수 있는 혼합 현실 기술에까지 이르게 되었다.In addition, the development of computer graphics technology has enriched the content we encounter, and now we have come to mixed reality technology that can directly help human beings in reality.

일반적으로, 혼합 현실은 사람이 생활하는 공간인 실세계 환경과 컴퓨터로 만들어진 가상 공간인 가상 환경이 동시에 존재한다는 것이다. 합성된 실세계와 가상 환경과는 서로 유기적인 관계가 존재하여야 된다. 즉, 실세계 환경과 가상 환경을 합성한 영상을 사용자가 보았을 때, 사용자는 합성된 흔적을 느끼지 못하도록 실세계 환경과 가상 세계 환경간에 3차원으로 정확한 정합이 이루어져야 한다.In general, the mixed reality is that there is a real world environment where a person lives and a virtual environment that is a computer-generated virtual space. There must be an organic relationship between the synthesized real world and the virtual environment. That is, when a user views an image synthesized from the real world environment and the virtual environment, the user must accurately match the real world environment and the virtual world environment in three dimensions so that the user does not feel the synthesized trace.

그러나, 기존의 혼합 현실을 위한 영상 합성에는 물체간의 거리 차에 의한 가려짐 현상 등의 문제점이 있다.However, the existing image synthesis for the mixed reality has a problem such as obstruction by the distance difference between objects.

한편, 혼합 현실 영상 합성을 위하여는 획득된 영상에 관한 분석이 있어야하며, 3차원 영상 획득을 위한 스테레오 카메라를 가정할 때 획득된 좌우 영상으로부터 영상내의 물체까지의 거리를 측정하는 깊이 추정 과정이 필수적이다.On the other hand, in order to synthesize a mixed reality image, an analysis of the acquired image is required, and a depth estimation process of measuring a distance from the acquired left and right images to an object in the image is essential when a stereo camera is acquired for 3D image acquisition. to be.

상기 깊이 추정은 카메라의 초점 거리 λ와 베이스 라인의 크기B및 각 영상에서의 정합점의 위치차인 변이(Disparity) 정보d를 이용하여 하기 수학식 1에 의해 구할 수 있다.The depth estimation may be obtained by Equation 1 using the disparity information d , which is the positional difference between the focal length λ of the camera, the size B of the baseline, and the matching point in each image.

상기 수학식 1에서 각 영상에서의 정합점의 위치차인 변이 정보d를 얻기 위하여 스테레오 영상 부호화 이론에서는 변이 추정(Disparity estimation)을 이용한다.In order to obtain disparity information d , which is a position difference between registration points in each image, Equation 1 uses disparity estimation in the stereo image coding theory.

종래의 변이 추정 방식에는, 블록 기반(Block-based) 방식, 객체 기반(Object-based) 방식, 메쉬 기반(Mesh-based) 방식, 변이-공간 영상(DSI :Disparity-Space Image) 방식, 화소 기반(Pixel-based) 방식 등이 있다.The conventional disparity estimation method includes a block-based method, an object-based method, a mesh-based method, a disparity-space image (DSI) method, and a pixel-based method. (Pixel-based) method.

그러나, 상기와 같은 종래의 변이 추정 방식은 블록화 현상이나 지나친 계산상의 부하로 인해 영상합성을 위한 깊이 추정에는 적합하지 않은 문제점이 있다.However, the conventional disparity estimation method is not suitable for depth estimation for image synthesis due to blocking or excessive computational load.

본 발명은 상기한 바와 같은 종래 기술의 제반 문제점을 해결하기 위해 제안된 것으로, 낮은 해상도의 영상으로부터 순차적으로 해상도를 높이면서 변이 추정함으로써, 계산상의 부하를 줄이도록 하는 계층적 변이 추정부를 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above-mentioned problems of the prior art, and provides a hierarchical disparity estimator which reduces the computational load by estimating the disparity while sequentially increasing the resolution from a low resolution image. There is a purpose.

또한, 본 발명은 낮은 해상도의 영상으로부터 순차적으로 해상도를 높이면서 변이 추정함으로써, 계산상의 부하를 줄이도록 하는 계층적 변이 추정 방법을 제공하는데 또 다른 목적이 있다.In addition, another object of the present invention is to provide a hierarchical disparity estimation method for reducing the computational load by estimating disparity while sequentially increasing the resolution from a low resolution image.

또한, 본 발명은 낮은 해상도의 영상으로부터 순차적으로 해상도를 높이면서 변이 추정함으로써, 계산상의 부하를 줄이도록 하는 계층적 변이 추정 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 또 다른 목적이 있다.In addition, the present invention provides a computer-readable recording medium having recorded thereon a program for realizing a hierarchical disparity estimating method for reducing the computational load by estimating disparity while sequentially increasing resolution from a low-resolution image. There is another purpose.

또한, 본 발명은 스테레오 영상 내의 특징을 추출하고 이를 기반으로 영상내의 변이 정보를 추정함으로써, 컴퓨터로 만들어진 가상 영상과 자연스럽게 합성할 수 있도록 하는 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치를 제공하는데 또 다른 목적이 있다.In addition, the present invention provides a stereo mixed reality image synthesizing apparatus using a hierarchical disparity estimator for naturally synthesizing a computer-generated virtual image by extracting a feature in a stereo image and estimating disparity information in the image based on the feature. There is another purpose.

또한, 본 발명은 스테레오 영상 내의 특징을 추출하고 이를 기반으로 영상내의 변이 정보를 추정함으로써, 컴퓨터로 만들어진 가상 영상과 자연스럽게 합성할 수 있도록 하는 계층적 변이 추정 방법을 이용한 스테레오 혼합 현실 영상 합성 방법을 제공하는데 또 다른 목적이 있다.In addition, the present invention provides a stereo mixed reality image synthesis method using a hierarchical disparity estimation method that can be naturally synthesized with a computer-generated virtual image by extracting features in the stereo image and estimating the variation information in the image based on the feature. There is another purpose.

또한, 본 발명은 스테레오 영상 내의 특징을 추출하고 이를 기반으로 영상내의 변이 정보를 추정함으로써, 컴퓨터로 만들어진 가상 영상과 자연스럽게 합성할수 있도록 하는 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 또 다른 목적이 있다.In addition, the present invention is to extract a feature in a stereo image and to estimate the disparity information in the image based on it, to realize a stereo mixed reality image synthesis method using a hierarchical disparity estimation unit that can be naturally synthesized with a computer-generated virtual image Another object is to provide a computer readable recording medium having recorded a program.

도 1은 본 발명에 따른 계층적 변이 추정부를 설명하기 위한 일실시예 구조도,1 is a structural diagram illustrating an hierarchical disparity estimator in accordance with an embodiment of the present invention;

도 2a는 상기 도 1의 초기 변이 추정기의 변이 추정 결과를 설명하기 위한 일예시도,FIG. 2A is an exemplary diagram for describing a variation estimation result of the initial variation estimator of FIG. 1; FIG.

도 2b는 상기 도 1의 블럭 변이 추정기의 후보 벡터를 설명하기 위한 일예시도,FIG. 2B is an exemplary diagram for describing a candidate vector of the block disparity estimator of FIG. 1; FIG.

도 2c는 상기 도 1의 미세 변이 할당기의 미세 변이 할당을 설명하기 위한 일예시도,FIG. 2C is an exemplary view for explaining the fine mutation allocation of the fine mutation allocator of FIG.

도 3은 본 발명에 따른 계층적 변이 추정 방법을 설명하기 위한 일실시예 흐름도,3 is a flowchart illustrating a hierarchical disparity estimation method according to the present invention;

도 4는 상기 도 3의 미세 변이 할당을 설명하기 위한 일실시예 상세 흐름도,FIG. 4 is a detailed flowchart illustrating an example of fine grain allocation of FIG. 3; FIG.

도 5는 본 발명에 따른 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치를 설명하기 위한 일실시예 구조도,FIG. 5 is a structural diagram for explaining a stereo mixed reality image synthesizing apparatus using a hierarchical disparity estimator according to the present invention; FIG.

도 6은 본 발명에 따른 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 방법을 설명하기 위한 일실시예 흐름도,6 is a flowchart illustrating a method of synthesizing a stereo mixed reality image using a hierarchical disparity estimator according to the present invention;

도 7a 내지 도 7j는 본 발명에 따른 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치의 각 구성요소에 대한 결과를 설명하기 위한 일예시도.7A to 7J are exemplary views for explaining the results of each component of the stereo mixed reality image synthesizing apparatus using the hierarchical disparity estimator according to the present invention.

*도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

100 : 계층적 변이 추정부101 : 초기 변이 추정기100: hierarchical disparity estimator 101: initial disparity estimator

103 : 블록 변이 추정기105 : 미세 변이 할당기103: block variation estimator 105: fine mutation allocator

510 : 전처리기511 : 잡음 제거기510: preprocessor 511: noise canceller

513 : 밸런싱기515 : 에지 추출기513: balancer 515: edge extractor

520 : 영상 합성부530 : 가상 영상 처리부520: Image synthesizer 530: Virtual image processor

상기 목적을 달성하기 위한 본 발명은, 낮은 해상도의 영상으로부터 순차적으로 해상도를 높이면서 변이 추정하고, 영상의 변이 정보를 얻기 위한 계층적 변이 추정부에 있어서, 입력된 영상을 1/2 다운 샘플링하여 초기 변이 추정을 수행하기 위한 초기 변이 추정 수단; 상기 초기 변이 추정 수단으로부터 수신한 초기 변이를 기반으로 블록 단위로 변이 추정을 수행하기 위한 블록 변위 추정 수단; 및 상기 영상의 에지 정보와 상기 블록 변위 추정 수단으로부터 추정된 블록 단위의 변이 정보를 이용하여, 각 화소에 미세 변이를 할당하는 미세 변이 할당 수단을 포함한다.According to the present invention for achieving the above object, the variance estimation while sequentially increasing the resolution from a low-resolution image, and in the hierarchical disparity estimation unit for obtaining the disparity information of the image, by half-down sampling the input image Initial variation estimating means for performing initial variation estimation; Block displacement estimating means for performing disparity estimation on a block-by-block basis based on the initial disparity received from the initial disparity estimating means; And fine variation allocating means for allocating fine variation to each pixel by using the edge information of the image and the variation information in units of blocks estimated from the block displacement estimating means.

또한, 본 발명은 낮은 해상도의 영상으로부터 순차적으로 해상도를 높이면서 변이 추정하고, 영상의 변이 정보를 얻기 위한 계층적 변이 추정 방법에 있어서, 입력된 영상을 1/2 다운 샘플링하여 초기 변이 추정을 수행하는 제 1단계; 상기 초기 변이를 기반으로 블록 단위로 변이 추정을 수행하는 제 2단계; 및 상기 영상의 에지 정보와 상기 블록 단위의 변이 정보를 이용하여, 각 화소에 미세 변이를 할당하는 제 3단계를 포함한다.In addition, the present invention is to estimate the disparity while sequentially increasing the resolution from a low-resolution image, and in the hierarchical disparity estimation method for obtaining the disparity information of the image, the initial disparity estimation is performed by half down sampling the input image The first step to do; A second step of performing variation estimation on a block-by-block basis based on the initial variation; And assigning a fine variation to each pixel by using the edge information of the image and the variation information of the block unit.

또한, 본 발명은 낮은 해상도의 영상으로부터 순차적으로 해상도를 높이면서변이 추정하고, 영상의 변이 정보를 얻기 위한 계층적 변이 추정 방법을 제공하기 위하여 마이크로프로세서를 구비한 계층적 변이 추정 장치에, 입력된 영상을 1/2 다운 샘플링하여 초기 변이 추정을 수행하는 제 1기능; 상기 초기 변이를 기반으로 블록 단위로 변이 추정을 수행하는 제 2기능; 및 상기 영상의 에지 정보와 상기 블록 단위의 변이 정보를 이용하여, 각 화소에 미세 변이를 할당하는 제 3기능을 실현시키시기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함한다.The present invention also provides a hierarchical disparity estimation apparatus having a microprocessor to provide a hierarchical disparity estimation method for sequentially estimating disparity from a low resolution image and obtaining disparity information of the image. A first function of performing initial shift estimation by down-sampling an image; A second function of performing variation estimation on a block-by-block basis based on the initial variation; And a computer-readable recording medium having recorded thereon a program for realizing a third function of allocating a fine transition to each pixel by using the edge information of the image and the shift information of the block unit.

또한, 본 발명은 컴퓨터로 만들어진 가상 영상과 스테레오 실사 영상을 자연스럽게 합성하기 위하여 제 1항 내지 제 2항의 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치에 있어서, 상기 스테레오 실사 영상에 대한 전처리를 수행하기 위한 전처리부; 상기 전처리 수단으로부터 수신한 영상에 대하여 계층적으로 변이 정보 추정을 수행하기 위한 상기 계층적 변이 추정부; 상기 가상 영상을 모델링하기 위한 가상 영상 처리부; 및 상기 전처리부 및 상기 가상 영상 처리부로부터 수신한 영상과 상기 계층적 변이 추정부로부터 수신한 실사 영상의 깊이 정보 및 상기 가상 영상 처리부로부터 수신한 가상 영상의 깊이 정보를 이용하여 영상 합성을 수행하기 위한 영상 합성부를 포함한다.The present invention also provides a stereo mixed reality image synthesizing apparatus using the hierarchical disparity estimator of claim 1 to naturally synthesize a computer-generated virtual image and a stereo real image, and performs preprocessing on the stereo real image. Pre-treatment unit for; The hierarchical disparity estimator for performing disparity information estimation hierarchically on an image received from the preprocessing means; A virtual image processor for modeling the virtual image; And image depth using the depth information of the image received from the preprocessor and the virtual image processor, the real image received from the hierarchical disparity estimator, and the depth information of the virtual image received from the virtual image processor. It includes an image synthesizer.

또한, 본 발명은 컴퓨터로 만들어진 가상 영상과 스테레오 실사 영상을 자연스럽게 합성하기 위하여 제 3항 내지 제 6항의 계층적 변이 추정 방법을 이용한 스테레오 혼합 현실 영상 합성 방법에 있어서, 상기 스테레오 실사 영상에 대한 전처리를 수행하기 위한 제 1단계; 상기에서 전처리를 수행한 영상에 대하여 계층적으로 변이 정보 추정을 수행하기 위한 제 2단계; 상기 가상 영상을 모델링하기 위한제 3단계; 및 상기에서 전처리한 영상 및 모델링한 가상 영상과, 실사 영상의 깊이 정보 및 가상 영상의 깊이 정보를 이용하여 영상 합성을 수행하기 위한 제 4단계를 포함한다.In addition, the present invention is a stereo mixed reality image synthesis method using the hierarchical disparity estimation method of claim 3 to synthesize a computer-generated virtual image and stereo real image, the preprocessing for the stereo real image A first step for performing; A second step of performing disparity information estimation hierarchically on the preprocessed image; A third step of modeling the virtual image; And a fourth step of performing image synthesis using the preprocessed image and the modeled virtual image, the depth information of the real image and the depth information of the virtual image.

또한, 본 발명은 컴퓨터로 만들어진 가상 영상과 스테레오 실사 영상을 자연스럽게 합성하기 위하여 계층적 변이 추정 방법을 이용한 스테레오 혼합 현실 영상 합성 방법을 제공하기 위하여 마이크로프로세서를 구비한 혼합 현실 영상 합성 장치에, 상기 스테레오 실사 영상에 대한 전처리를 수행하기 위한 제 1기능; 상기에서 전처리를 수행한 영상에 대하여 계층적으로 변이 정보 추정을 수행하기 위한 제 2기능; 상기 가상 영상을 모델링하기 위한 제 3기능; 및 상기에서 전처리한 영상 및 모델링한 가상 영상과, 실사 영상의 깊이 정보 및 가상 영상의 깊이 정보를 이용하여 영상 합성을 수행하기 위한 제 4기능을 실현시키시기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함한다.The present invention also provides a mixed reality image synthesizing apparatus having a microprocessor to provide a stereo mixed reality image synthesizing method using a hierarchical disparity estimation method in order to naturally synthesize a computer-generated virtual image and a stereo real image. A first function for performing preprocessing on the live-action image; A second function for performing disparity information estimation hierarchically on the preprocessed image; A third function for modeling the virtual image; And a program for realizing a fourth function for performing image synthesis using the preprocessed image and the modeled virtual image, the depth information of the real image and the depth information of the virtual image. Media.

상술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 우선 각 도면의 구성요소들에 참조 번호를 부가함에 있어서, 동일한 구성요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. First of all, in adding reference numerals to the components of each drawing, it should be noted that the same components have the same number as much as possible even if displayed on different drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 계층적 변이 추정부를 설명하기 위한 일실시예 구조도이다.1 is a structural diagram illustrating an hierarchical disparity estimator in accordance with an embodiment of the present invention.

도면에 도시된 바와 같이, 본 발명의 계층적 변이 추정부(100)는, 초기 변이추정기(101), 블록 변이 추정기(103) 및 미세 변이 할당기(105)를 포함하고 있다.As shown in the figure, the hierarchical disparity estimator 100 of the present invention includes an initial disparity estimator 101, a block disparity estimator 103, and a fine disparity allocator 105.

일반적인 블록 정합에서 블록의 크기가 클수록 블록 내에 많은 정보를 가지고 있으므로 변이 자체의 정확도는 증가하지만, 많은 화소에 대해 하나의 대표 벡터가 할당되므로 전체 변이의 정밀도는 떨어지게 된다.In the general block matching, the larger the size of the block, the more information is contained in the block, and thus the accuracy of the variation itself increases. However, since one representative vector is allocated to many pixels, the precision of the overall variation decreases.

이러한 문제점을 극복하고자, 상기 초기 변이 추정기(101)는 입력된 영상을 1/2 다운 샘플링(Down Sampling)하여 변이 추정을 수행하는 기능을 담당한다.In order to overcome this problem, the initial disparity estimator 101 performs a function of performing disparity estimation by down-sampling an input image by 1/2.

본 발명에서는, 초기 변이 추정에 있어 블록 단위의 영역 분할 및 양방향 추정 방식을 적용하기로 한다.In the present invention, the region division and the bidirectional estimation method in block units are applied to the initial variation estimation.

상기 영역 분할 방식은, 우선 가장 정합이 될 확률이 높은 화소부터 순서대로 정합을 수행하여 정합된 점들을 중심으로 영역을 분할해 나가면서 정합 과정을 수행하는 방식이다.The region division method is a method of performing a matching process by dividing an area around the matched points by first performing matching in order from pixels having the highest probability of matching.

상기 양방향 추정 방식은, 좌영상에서의 변이 벡터와 이에 정합된 우영상으로부터의 변이 벡터가 절대값이 같고 방향이 반대가 되는 것을 이용하는 것으로서, 이 성질을 이용하면 정합과정의 신뢰도를 추정할 수 있고 신뢰도가 떨어지는 영역은 영역 분할 과정에서 제외시킴으로 전체적인 신뢰도를 높일 수 있다.The bidirectional estimation method uses a disparity vector in a left image and a disparity vector from a right image matched with the same absolute value and opposite directions. By using this property, the reliability of the matching process can be estimated. Areas with low reliability may be excluded from the area partitioning process to increase overall reliability.

좌영상으로부터 우영상으로의 변이 벡터가이고에 대응하는 우영상의 점로부터 좌영상으로 동일한 과정으로 찾은 변이 벡터를라 할 때 양방향 정합은 다음의 수학식 2를 만족할 때 성립한다.The transition vector from the left image to the right image ego The point of the right image corresponding to The disparity vector found by the same process In this case, bidirectional matching is satisfied when the following Equation 2 is satisfied.

주어진 문턱값 ε에 대해 위 식을 만족하지 않는 화소는 가려진 영역으로 구별되며 상기 영역 분할 방식에서 제외되고, 위식을 만족하는 화소는 영역의 분할점이 되어 다음 화소들의 변이 추정시 탐색 범위를 제한하게 된다.Pixels that do not satisfy the above equation for a given threshold value ε are classified as hidden regions and are excluded from the region dividing scheme. Pixels satisfying the above equations become region dividing points to limit the search range when estimating the variation of the next pixels. .

도 2a는 상기 도 1의 초기 변이 추정기의 변이 추정 결과를 설명하기 위한 일예시도이다.FIG. 2A is an exemplary diagram for describing a variation estimation result of the initial variation estimator of FIG. 1.

도면에 도시된 바와 같이, 입력된 영상에 대하여 초기 변이들을 기반으로 원영상에서 좀 더 세밀하게 변이를 추정함으로써 변이의 정확도 및 수행 속도를 향상시킬 수 있다.As shown in the figure, by accurately estimating the variation in the original image based on the initial variations with respect to the input image, the accuracy and performance of the variation can be improved.

상기 초기 변이 추정기(101)에 의한 초기 변이는 상기 블록 변이 추정기(103)에 대하여 후보 벡터로 사용될 수 있다.The initial variation by the initial variation estimator 101 may be used as a candidate vector for the block variation estimator 103.

상기 블록 변이 추정기(103)는, 상기 초기 변이 추정기(101)로부터 수신한 초기 변이를 기반으로 원영상에서 블록 단위로 변이 추정을 수행하는 기능을 담당한다.The block disparity estimator 103 is responsible for performing disparity estimation in units of blocks in the original image based on the initial disparity received from the initial disparity estimator 101.

이때, 후보 벡터로 사용되는 벡터는 블록이 속한 초기 벡터과 그 주변 초기벡터들이다.In this case, the vector used as the candidate vector is the initial vector to which the block belongs and its neighboring initial vectors.

도 2b는 상기 도 1의 블록 변이 추정기의 후보 벡터를 설명하기 위한 일예시도이다.FIG. 2B is an exemplary diagram for describing a candidate vector of the block disparity estimator of FIG. 1.

도면에 도시된 바와 같이, 본 발명의 블록 변이 추정기의 변이 추정의 탐색범위는 후보 벡터 주변의 ±α로 설정된다.As shown in the figure, the search range of the disparity estimation of the block disparity estimator of the present invention is set to ± a around the candidate vector.

단, 이 때 초기 변이 추정시에 분할된 영역에 따라 후보벡터가 자신이 속한 영역밖에 존재하면 후보에서 제외하여 잘못된 변이가 전파되어 들어오는 것을 막을 수 있다.However, if the candidate vector exists outside the region to which it belongs according to the divided region at the time of initial variation estimation, it is possible to prevent the wrong variation from being propagated by excluding it from the candidate.

자연스러운 합성을 위해서는 화소 단위의 정밀한 변이 정보가 필요하며 특히 경계면에서의 명확한 변이 차이가 필수적이다. 그러나 추정된 블록 단위의 변이를 기반으로 다시 화소 단위의 변이를 추정하게 되면 시간도 많이 걸릴뿐더러, 가려진 영역에서는 정확한 변이가 추출되지 않으므로 경계부분이 매우 불명확한 변이 정보를 얻게 된다.For natural synthesis, precise disparity information in pixel units is required, and in particular, a clear disparity difference at an interface is essential. However, if the variation in the pixel unit is estimated again based on the estimated variation in the block unit, it takes a lot of time, and since the accurate variation is not extracted in the hidden region, the boundary portion may obtain very uncertain variation information.

이에, 본 발명의 계층적 변이 추정부의 상기 미세 변이 할당기(105)는, 영상의 에지 정보와 상기 블록 변이 추정기(103)로부터 추정된 블록 단위의 변이 정보를 이용하여 각 화소마다 적절한 변이를 할당하는 기능을 담당한다.Accordingly, the fine shift allocator 105 of the hierarchical shift estimator allocates an appropriate shift for each pixel by using the edge information of the image and the shift information in block units estimated from the block shift estimator 103. In charge of the function.

상기 영상의 에지 정보에 대하여는 후에 설명하기로 한다.Edge information of the image will be described later.

도 2c는 상기 도 1의 미세 변이 할당기의 미세 변이 할당을 설명하기 위한 일예시도이다.FIG. 2C is an exemplary view for explaining the fine mutation allocation of the fine mutation allocator of FIG.

도면에 도시된 바와 같이, 본 발명의 미세 변이 할당기는 에지 정보에 따라 블록의 변이를 각 화소에 할당한다.As shown in the figure, the fine shift allocator of the present invention assigns a shift of a block to each pixel according to edge information.

도 3은 본 발명에 따른 계층적 변이 추정 방법을 설명하기 위한 일실시예 흐름도이다.3 is a flowchart illustrating a hierarchical disparity estimation method according to the present invention.

도면에 도시된 바와 같이, 본 발명의 변이 추정 방법은, 1/2 다운 샘플링하여 초기 변이 추정을 수행하고(S310), 상기에서 수신한 초기 변이를 기반으로 원영상에서 블록 단위로 변이 추정을 수행한다(S320).As shown in the figure, the variation estimation method of the present invention performs an initial variation estimation by half-sampling (S310), and performs a variation estimation in units of blocks in the original image based on the received initial variation. (S320).

그리고, 영상의 에지 정보와 상기 블록 변이 추정기(103)로부터 추정된 블록 단위의 변이 정보를 이용하여 각 화소마다 적절한 변이를 할당하여 변이를 추정한다(S330).Then, by using the edge information of the image and the disparity information of the block unit estimated by the block disparity estimator 103, an appropriate disparity is allocated to each pixel to estimate the disparity (S330).

도 4는 상기 도 3의 미세 변이 할당을 설명하기 위한 일실시예 상세 흐름도이다.FIG. 4 is a detailed flowchart of an exemplary embodiment for explaining the fine mutation allocation of FIG. 3.

본 발명의 변이 할당은 화소 단위로 수행되며, 도면에 도시된 바와 같이, 각 화소마다 그 위치에서 시작하여 상하좌우의 4방향으로 진행하여(S401), 4방향이 모두 에지가 있는지 판단한다(S403).The variation allocation of the present invention is performed in units of pixels, and as shown in the figure, starting at the position for each pixel and proceeding in four directions of up, down, left, and right (S401), it is determined whether all four directions have edges (S403). ).

4방향에 모두 에지가 있지 않은 경우에는, 에지를 만나지 않고 다른 블록으로 넘어가는 방향이 있는지 판단하여(S405), 있는 경우에는 다시, 이웃하는 블록이 평활 영역인지를 판단한다(S407).If there are no edges in all four directions, it is determined whether there is a direction to go to another block without meeting the edge (S405), and if so, it is again determined whether the neighboring block is a smooth area (S407).

상기에서, 평활영역이란, 에지가 없는 부분이 넓게 분포하는 영역으로 정의하기로 한다.In the above description, the smoothing region is defined as a region in which a portion without edges is widely distributed.

판단결과, 이웃하는 블록이 평활영역일 경우에는, 블러링(blurring)을 막기 위해서 평균을 하지 않고 이웃 블록의 변이를 해당 화소의 미세 변이로 할당한다(S411). 판단결과, 이웃하는 영역이 평활영역이 아닐 경우에는 그 방향들의 이웃 블록의 변이를 평균하여 그 화소의 미세 변이로 할당한다(S411).As a result of the determination, when the neighboring block is a smooth region, the variation of the neighboring block is allocated as the fine variation of the corresponding pixel without being averaged to prevent blurring (S411). As a result, when the neighboring region is not the smooth region, the variation of the neighboring blocks in the directions is averaged and assigned as the fine variation of the pixel (S411).

에지를 만나지 않고 다른 블록으로 넘어가는 방향이 없는 경우에는(S405), 4방향에 모두 있지가 있는 경우와 동일하게 취급한다.If there is no direction to cross the other block without meeting the edge (S405), the processing is performed in the same manner as if there is no direction in all four directions.

한편, 4방향이 모두 에지로 막혔을 때는(S403), 블록 자체의 변이 정보가 있는지를 판단하여(S413), 있는 경우에는 블록 자체의 변이 정보를 그대로 미세 변이로 할당하고(S415), 블록 내에 변이가 존재하지 않는 경우에는 주변 블록과 자신이 속한 블록의 변이 정보를 거리에 따라 가중 평균하여 미세 변이로 할당한다(S417).On the other hand, when all four directions are blocked by the edge (S403), it is determined whether there is the variation information of the block itself (S413), and if there is, the variation information of the block itself is allocated as a fine variation (S415), and the variation within the block is determined. If does not exist, the variation information of the neighboring block and the block to which it belongs is weighted averaged according to the distance and assigned as a fine variation (S417).

이하에서는, 상기 계층적 변이 추정부 및 그 방법을 이용한 스테레오 혼합 현실 영상 합성 장치 및 그 방법을 설명하기로 한다.Hereinafter, an apparatus and method for synthesizing stereo reality using the hierarchical disparity estimator and the method will be described.

도 5는 본 발명에 따른 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치를 설명하기 위한 일실시예 구조도이다.FIG. 5 is a diagram illustrating an embodiment of a stereo mixed reality image synthesizing apparatus using a hierarchical disparity estimator according to the present invention.

도면에 도시된 바와 같이, 본 발명의 스테레오 혼합 현실 영상 합성 장치는, 전처리부(510), 계층적 변이 추정부(100), 영상 합성부(520) 및 가상 영상 처리부(530)를 포함하고 있다.As shown in the figure, the stereo mixed reality image synthesizing apparatus of the present invention includes a preprocessor 510, a hierarchical disparity estimator 100, an image synthesizer 520, and a virtual image processor 530. .

또한, 상기 전처리부(510)는 잡음 제거기(511), 밸런싱기(513) 및 에지 추출기(515)를 포함하고 있으며, 주로 카메라로 획득한 실사 영상을 처리한다.In addition, the preprocessor 510 includes a noise canceller 511, a balancer 513, and an edge extractor 515, and mainly processes a live image obtained by a camera.

상기 잡음 제거기(511)는 카메라로부터 획득한 스테레오 영상의 잡음을 제거하는 기능을 담당한다.The noise canceller 511 is responsible for removing noise of a stereo image obtained from a camera.

영상 신호에 존재하는 잡음에는, 영상 신호에 독립적인 잡음과 의존적인 잡음으로 구분할 수 있는데, 양자 모두 심각한 화질의 열화의 근본적인 원인이 되므로, 이와 같은 잡음을 제거하는 것을 필수적이라 할 수 있다.The noise present in the video signal can be classified into noise independent of the video signal and noise dependent. Since both of them are fundamental causes of deterioration of image quality, it is essential to remove such noise.

상기 밸런싱기(513)는 스테레오 영상을 획득하는 과정에서 카메라의 불일치등으로 발생하는 불일치(Imbalancing)를 해소하는 기능을 담당한다.The balancer 513 is responsible for eliminating inconsistency (Imbalancing) caused by inconsistency of the camera in the process of acquiring a stereo image.

불일치의 문제는, 좌우 카메라의 파라미터들이 정확히 일치하지 않기 때문에 획득한 영상의 밝기 등에 차이가 나거나, 광원의 위치에 의해 물체와 카메라간의 거리등에 의해 획득된 영상의 밝기에 차이가 남으로 인해 발생하는 문제이다.The inconsistency is caused by differences in the brightness of the acquired image because the parameters of the left and right cameras do not exactly match, or the difference in the brightness of the acquired image due to the distance between the object and the camera due to the position of the light source. It is a problem.

불일치는 변이 추정을 하는 과정에서 에러를 발생시킬 수 있기 때문에 전처리 과정에서 이를 해소하여야 한다.Inconsistencies can cause errors in the estimation of the variance, so they must be resolved during the preprocessing.

상기 에지(edge) 추출기(515)는 상기 밸런싱기(513)로부터 수신한 영상에 대하여 상대적으로 다른 명암도를 가진 두 영역간의 경계인 에지를 추출하는 기능을 담당한다.The edge extractor 515 is responsible for extracting an edge, which is a boundary between two regions having relatively different contrast, with respect to the image received from the balancer 513.

상기 계층적 변이 추정부(100)는 상기 전처리부(510)로부터 수신한 영상에 대하여 변이를 추정하는 기능을 담당한다.The hierarchical disparity estimator 100 is responsible for estimating the disparity with respect to the image received from the preprocessor 510.

상기 계층적 변이 추정부(100)는 상기 도 1 내지 도 2를 참조하여 설명한 바와 같다.The hierarchical disparity estimator 100 has been described with reference to FIGS. 1 and 2.

상기 가상 영상 처리부(530)는 스테레오 렌더링의 과정을 거쳐 좌우 카메라에서 얻은 것과 같은 동일한 영상을 모델링하는 기능을 담당한다.The virtual image processor 530 is responsible for modeling the same image as obtained from the left and right cameras through a stereo rendering process.

상기 가상 영상 처리부의 출력인 가상 영상은 모델링을 하는 과정에서 깊이 정보를 추출하기 때문에 따로 깊이 추정 과정을 거칠 필요가 없다.Since the virtual image, which is the output of the virtual image processor, extracts depth information during modeling, there is no need to go through a depth estimation process.

상기 영상 합성부(520)는 상기 전처리부(510)로부터 수신한 실사 영상과 상기 계층적 변이 추정부(100)로부터 수신한 실사 영상의 변이 정보 및 상기 가상 영상 처리부(530)로부터 수신한 가상 영상과 가상 영상의 깊이 정보를 이용하여 실사영상 및 가상 영상을 합성하는 기능을 담당한다.The image synthesizing unit 520 may be configured to determine the disparity information of the live image received from the preprocessor 510 and the live image received from the hierarchical disparity estimator 100, and the virtual image received from the virtual image processor 530. It is responsible for synthesizing the real image and the virtual image using the depth information of the virtual image.

상기 계층적 변이 추정부(100)로부터 수신한 미세 변이는 상기 수학식 1에 의해 깊이 정보로 변환된다.The fine variation received from the hierarchical disparity estimator 100 is converted into depth information by Equation 1 above.

상기 영상 합성부(520)는 가상 영상의 깊이 정보와 실사 영상의 깊이 정보를 각각 화소별로 비교하여, 깊이감이 큰 영상은 뒤쪽에, 깊이감이 작은 영상은 앞에 배치하여 영상을 합성한다.The image synthesizing unit 520 compares the depth information of the virtual image and the depth information of the real image for each pixel, and synthesizes the images by arranging images having a large depth at the rear and images having a small depth at the front.

도 6은 본 발명에 따른 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 방법을 설명하기 위한 일실시예 흐름도이다.6 is a flowchart illustrating a method of synthesizing a stereo mixed reality image using a hierarchical disparity estimator according to the present invention.

도면에 도시된 바와 같이, 본 발명의 스테레오 혼합 현실 영상 합성 방법은, 우선, 스테레오 카메라로 실사 영상을 획득하고, 컴퓨터에 의해 가상 영상을 획득한다(S601). 이때, 이미 상기 가상 영상은 각 화소의 깊이 정보를 포함하고 있다.As shown in the figure, in the stereo mixed reality image synthesis method of the present invention, first, a real image is obtained by a stereo camera, and a virtual image is obtained by a computer (S601). In this case, the virtual image already includes depth information of each pixel.

상기 실사 영상에 대하여 잡음 제거, 밸런싱 및 에지 추출 등의 전처리를 수행하고(S603), 이에 대하여 계층적 변이 추정을 수행하여 각 화소에 대한 깊이 정보를 추출한다(S605).The real image is subjected to preprocessing such as noise removal, balancing, and edge extraction (S603), and hierarchical disparity estimation is performed on the real image to extract depth information of each pixel (S605).

이후, 상기 실사 영상의 화소의 깊이가 가상 영상 화소의 깊이보다 큰 경우에는 상기 가상 영상의 화소를 배치하고(S609), 실사 영상의 화소의 깊이가 가상 영상 화소의 깊이보다 큰 경우에는 상기 실사 영상의 화소를 배치한다(S611).Subsequently, when the depth of the pixel of the real image is greater than the depth of the virtual image pixel, the pixel of the virtual image is disposed (S609), and when the depth of the pixel of the real image is greater than the depth of the virtual image pixel, the actual image Pixels are disposed (S611).

상기와 같은 화소의 배치를 영상의 전 화소에 대하여 수행한다(S613)The arrangement of the pixels is performed on all the pixels of the image (S613).

도 7a 내지 도 7k는 본 발명에 따른 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치의 각 구성요소에 대한 결과를 설명하기 위한 일예시도이다.7A to 7K are exemplary views for explaining the results of each component of the stereo mixed reality image synthesizing apparatus using the hierarchical disparity estimator according to the present invention.

도 7a는 평행식 멀티 카메라로 획득한 640×480 RGB의 스테레오 실사영상으로서 각각 좌/우 영상을 나타내며, 도 7b는 상기 가상 영상 처리부(530)에 의해 3D MAX로 모델링되고 스테레오 렌더링된 "fish"와 "spot"을 나타낸다.FIG. 7A is a 640 × 480 RGB stereo live image obtained by a parallel multi-camera, showing left and right images, respectively. FIG. 7B is “fish” modeled in 3D MAX and stereo-rendered by the virtual image processor 530. And "spot".

도 7c는 상기 가상 영상 처리부(530)가 저장하고 있는 상기 도 7b의 가상 영상의 깊이 정보를 나타낸다.FIG. 7C illustrates depth information of the virtual image of FIG. 7B stored in the virtual image processor 530.

본 발명의 일실시예에서는, 상기 도 7a의 좌영상으로부터 우영상으로 변이를 추정해 좌영상의 깊이 정보를 구한 후 좌영상으로 합성하였다.In an embodiment of the present invention, the depth information of the left image is obtained by estimating the variation from the left image of FIG. 7A to the right image, and then synthesized into the left image.

도 7d는 상기 잡음 제거기(511)를 거치기 전의 잡음이 삽입되어 있는 영상을 나타내며, 상기 도 7은 상기 잡음 제거기(511)로부터 출력되어 잡음이 제거된 영상을 나타낸다.FIG. 7D illustrates an image in which noise before passing through the noise canceller 511 is inserted, and FIG. 7 illustrates an image in which noise is removed from the noise canceller 511.

도 7f는 상기 에지 추출기(515)로부터 출력된 영상을 나타내며, 도 7g 내지 도 7i는 상기 초기 변이 추정기(101), 상기 블록 변이 추정기(103) 및 미세 변이 할당기(105)로부터 각각 출력된 영상을 나타낸다.7F illustrates an image output from the edge extractor 515, and FIGS. 7G to 7I illustrate images output from the initial shift estimator 101, the block shift estimator 103, and the fine shift allocator 105, respectively. Indicates.

마지막으로, 도 7j는 상기 영상 합성부(530)로부터 출력된 영상으로서, 물체간의 상대적인 깊이감이 표현되는 것으로 나타내고 있다.Lastly, FIG. 7J is an image output from the image synthesizing unit 530 and indicates that a relative sense of depth between objects is expressed.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.The method of the present invention as described above may be implemented as a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.).

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those having ordinary skill in the art to which the present invention pertains. It is not limited to the drawing.

상기와 같은 본 발명은, 낮은 해상도의 영상으로부터 순차적으로 해상도를 높이면서 변이 추정하여 깊이를 추정함으로써, 계산상의 부하를 줄일 수 있도록 하는 효과가 있다.The present invention as described above has the effect of reducing the computational load by estimating the depth by estimating the variance while sequentially increasing the resolution from a low resolution image.

또한, 본 발명은 본 발명은 스테레오 영상 내의 특징을 추출하고 이를 기반으로 영상내의 변이 정보를 추정함으로써, 컴퓨터로 만들어진 가상 영상과 자연스럽게 합성할 수 있도록 하는 효과가 있다.In addition, the present invention has an effect that can be naturally synthesized with a computer-generated virtual image by extracting features in the stereo image and estimating the variation information in the image based on the feature.

또한, 본 발명은 영상 합성에 소모되는 비용 및 시간을 절감할 수 있도록 하는 효과가 있다.In addition, the present invention has the effect of reducing the cost and time consumed for image synthesis.

또한, 본 발명은 컴퓨터 그래픽스 분야 및 영상 신호처리 분야의 활발한 연구 교류에 기여할 수 있도록 하는 효과가 있다.In addition, the present invention is effective to contribute to the active exchange of research in the field of computer graphics and image signal processing.

Claims (16)

낮은 해상도의 영상으로부터 순차적으로 해상도를 높이면서 변이 추정하고, 영상의 변이 정보를 얻기 위한 계층적 변이 추정부에 있어서,In the hierarchical disparity estimator for estimating disparity while sequentially increasing resolution from an image having a low resolution, and obtaining disparity information of the image, 입력된 영상을 1/2 다운 샘플링하여 초기 변이 추정을 수행하기 위한 초기 변이 추정 수단;Initial disparity estimating means for down-sampling the input image to perform initial disparity estimation; 상기 초기 변이 추정 수단으로부터 수신한 초기 변이를 기반으로 블록 단위로 변이 추정을 수행하기 위한 블록 변위 추정 수단; 및Block displacement estimating means for performing disparity estimation on a block-by-block basis based on the initial disparity received from the initial disparity estimating means; And 상기 영상의 에지 정보와 상기 블록 변위 추정 수단으로부터 추정된 블록 단위의 변이 정보를 이용하여, 각 화소에 미세 변이를 할당하는 미세 변이 할당 수단Fine variation allocating means for allocating fine variation to each pixel by using edge information of the image and variation information in units of blocks estimated from the block displacement estimating means 을 포함하는 계층적 변이 추정부.Hierarchical variation estimator comprising a. 제 1항에 있어서,The method of claim 1, 상기 초기 변이 추정 수단은,The initial variation estimating means, 블록 단위의 영역 분할 및 양방향 추정 방식을 이용하여 초기 변이 추정을 수행하는 것을 특징으로 하는 계층적 변이 추정부.A hierarchical disparity estimator which performs initial disparity estimation by using a block-based region division and a bidirectional estimation method. 제 2항에 있어서,The method of claim 2, 상기 초기 변이 추정 수단에 의하여 추정한 초기 변이는,The initial variation estimated by the initial variation estimating means, 상기 블록 변이 추정 수단의 후보벡터로 사용되는 것을 특징으로 하는 계층적 변이 추정부.And a hierarchical disparity estimating unit used as a candidate vector of the block disparity estimating unit. 낮은 해상도의 영상으로부터 순차적으로 해상도를 높이면서 변이 추정하고, 영상의 변이 정보를 얻기 위한 계층적 변이 추정 방법에 있어서,In the hierarchical disparity estimation method for sequentially estimating the disparity while increasing the resolution from a low-resolution image, and obtaining the disparity information of the image, 입력된 영상을 1/2 다운 샘플링하여 초기 변이 추정을 수행하는 제 1단계;A first step of performing an initial shift estimation by half-sampling an input image; 상기 초기 변이를 기반으로 블록 단위로 변이 추정을 수행하는 제 2단계; 및A second step of performing variation estimation on a block-by-block basis based on the initial variation; And 상기 영상의 에지 정보와 상기 블록 단위의 변이 정보를 이용하여, 각 화소에 미세 변이를 할당하는 제 3단계A third step of allocating a fine shift to each pixel by using the edge information of the image and the shift information of the block unit; 를 포함하는 계층적 변이 추정 방법.Hierarchical variation estimation method comprising a. 제 4항에 있어서,The method of claim 4, wherein 상기 제 3단계는,The third step, 화소의 상하좌우의 4방향에 모두 에지가 있는지 판단하는 제 4단계;A fourth step of determining whether or not an edge exists in four directions of up, down, left, and right of the pixel; 상기 제 4단계의 판단결과, 에지가 모두 있지 않은 경우에는, 다른 블록으로 넘어가는 방향이 있는지를 판단하는 제 5단계;A fifth step of determining whether there is a direction to move to another block when there are no edges as a result of the determination in the fourth step; 상기 제 5단계의 판단결과, 다른 블록으로 넘어가는 부분이 있는 경우에는해당 부분이 평활영역인지를 판단하여, 그 결과에 따라 해당 화소의 미세 변이를 할당하는 제 6단계; 및A sixth step of determining whether the corresponding part is a smoothed area and allocating a fine variation of the corresponding pixel according to the result of the determination in the fifth step if there is a part to be moved to another block; And 상기 제 4단계의 판단결과, 에지가 모두 있는 경우에는, 블록 자체의 변이 정보가 있는지 여부에 따라 해당 화소의 미세 변이를 할당하는 제 7단계As a result of the determination of the fourth step, when there are all edges, a seventh step of allocating a fine variation of the corresponding pixel according to whether or not there is variation information of the block itself. 를 포함하는 것을 특징으로 하는 계층적 변이 추정 방법.Hierarchical variation estimation method comprising a. 제 5항에 있어서,The method of claim 5, 상기 제 5단계의 판단결과, 다른 블록으로 넘어가는 방향이 없는 경우에는 상기 제 7단계를 수행하는 제 8단계As a result of the determination of the fifth step, when there is no direction to move to another block, an eighth step of performing the seventh step 를 더 포함하는 것을 특징으로 하는 계층적 변이 추정 방법.Hierarchical disparity estimation method characterized in that it further comprises. 제 5항 또는 제 6항에 있어서,The method according to claim 5 or 6, 상기 제 6단계는,The sixth step, 다른 블록으로 넘어가는 부분이 평활영역인지 판단하는 제 9단계;A ninth step of judging whether a portion to be passed to another block is a smooth area; 상기 제 9단계의 판단결과, 평활영역인 경우에는 이웃하는 블록의 변이를 해당 화소의 미세 변이로 할당하는 제 10단계; 및As a result of the ninth step, in the case of a smooth region, a tenth step of allocating transitions of neighboring blocks as fine transitions of the corresponding pixel; And 상기 제 9단계의 판단결과, 평활영역이 아닌 경우에는 이웃하는 블록의 변이를 평균하여 해당 화소의 미세 변이로 할당하는 제 11단계As a result of the determination in the ninth step, in the case of the non-smooth region, the eleventh step of allocating the variation of the neighboring blocks to be assigned as the fine variation of the corresponding pixel. 를 포함하는 것을 특징으로 하는 계층적 변이 추정 방법.Hierarchical variation estimation method comprising a. 제 5항 또는 제 6항에 있어서,The method according to claim 5 or 6, 상기 제 7단계는,The seventh step, 블록 자체의 변이 정보가 있는지를 판단하는 제 9단계;A ninth step of determining whether there is variation information of the block itself; 상기 제 9단계의 판단결과, 변이 정보가 있는 경우에는 블록 자체의 변이 정보를 미세 변이로 할당하는 제 10단계; 및A tenth step of allocating the variation information of the block itself as the fine variation when the variation information exists as the result of the ninth step; And 상기 제 9단계의 판단결과, 변이 정보가 없는 경우에는 주변 블록과 자신이 속한 블록의 변이 정보를 거리에 따라 가중 평균하여 미세 변이로 할당하는 제 11단계As a result of the determination of the ninth step, when there is no variance information, an eleventh step of assigning the variance information of the neighboring block and the block to which the block belongs to the fine variance according to the distance 를 포함하는 것을 특징으로 하는 계층적 변이 추정 방법.Hierarchical variation estimation method comprising a. 낮은 해상도의 영상으로부터 순차적으로 해상도를 높이면서 변이 추정하고, 영상의 변이 정보를 얻기 위한 계층적 변이 추정 방법을 제공하기 위하여 마이크로프로세서를 구비한 계층적 변이 추정 장치에,In the hierarchical disparity estimation apparatus having a microprocessor in order to provide a hierarchical disparity estimation method for sequentially estimating the disparity from the low resolution image and obtaining disparity information of the image, 입력된 영상을 1/2 다운 샘플링하여 초기 변이 추정을 수행하는 제 1기능;A first function of performing an initial shift estimation by half-sampling an input image; 상기 초기 변이를 기반으로 블록 단위로 변이 추정을 수행하는 제 2기능; 및A second function of performing variation estimation on a block-by-block basis based on the initial variation; And 상기 영상의 에지 정보와 상기 블록 단위의 변이 정보를 이용하여, 각 화소에 미세 변이를 할당하는 제 3기능A third function of allocating a fine shift to each pixel by using the edge information of the image and the shift information of the block unit 을 실현시키시기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium that records a program for realizing the problem. 컴퓨터로 만들어진 가상 영상과 스테레오 실사 영상을 자연스럽게 합성하기 위하여 제 1항 내지 제 3항의 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치에 있어서,In the stereo mixed reality image synthesizing apparatus using the hierarchical disparity estimator of claim 1 to naturally synthesize a computer-generated virtual image and a stereo live image, 상기 스테레오 실사 영상에 대한 전처리를 수행하기 위한 전처리부;A preprocessor for preprocessing the stereo real image; 상기 전처리 수단으로부터 수신한 영상에 대하여 계층적으로 변이 정보 추정을 수행하기 위한 상기 계층적 변이 추정부;The hierarchical disparity estimator for performing disparity information estimation hierarchically on an image received from the preprocessing means; 상기 가상 영상을 모델링하기 위한 가상 영상 처리부; 및A virtual image processor for modeling the virtual image; And 상기 전처리부 및 상기 가상 영상 처리부로부터 수신한 영상과 상기 계층적 변이 추정부로부터 수신한 실사 영상의 깊이 정보 및 상기 가상 영상 처리부로부터 수신한 가상 영상의 깊이 정보를 이용하여 영상 합성을 수행하기 위한 영상 합성부An image for performing image synthesis using depth information of the image received from the preprocessor and the virtual image processor, the real image received from the hierarchical disparity estimator, and the depth information of the virtual image received from the virtual image processor. Synthesis section 를 포함하는 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치.Stereo mixed reality image synthesis apparatus using a hierarchical disparity estimator including a. 제 10항에 있어서,The method of claim 10, 상기 전처리부는,The preprocessing unit, 상기 스테레오 실사 영상의 잡음을 제거하기 위한 잡음 제거 수단;Noise removing means for removing noise of the stereo real image; 상기 잡음 제거 수단으로부터 수신한 영상에 대하여 불일치를 제거하기 위한 밸런싱 수단; 및Balancing means for removing inconsistency with respect to the image received from the noise removing means; And 상기 밸런싱 수단으로부터 수신한 영상에 대하여 에지를 추출하기 위한 에지 추출 수단Edge extracting means for extracting the edge of the image received from the balancing means 을 포함하는 것을 특징으로 하는 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치.Stereo mixed reality image synthesis apparatus using a hierarchical disparity estimator comprising a. 제 10항에 있어서,The method of claim 10, 상기 가상 영상 처리부는,The virtual image processor, 상기 가상 영상의 깊이 정보를 추출하는 것을 특징으로 하는 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치.Stereo mixed reality image synthesis apparatus using a hierarchical disparity estimator, characterized in that to extract the depth information of the virtual image. 제 10항에 있어서,The method of claim 10, 상기 영상 합성부는,The image synthesis unit, 상기 가상 영상의 깊이 정보와 상기 실사 영상의 깊이 정보를 비교하여 깊이감이 큰 영상은 뒤쪽에, 깊이감이 작은 영상은 앞쪽에 배치하는 것을 특징으로 하는 계층적 변이 추정부를 이용한 스테레오 혼합 현실 영상 합성 장치.Comparing the depth information of the virtual image and the depth information of the real-world image, a stereo image is synthesized using a hierarchical disparity estimator, wherein an image having a large depth is placed at the rear and an image having a small depth is placed at the front. Device. 컴퓨터로 만들어진 가상 영상과 스테레오 실사 영상을 자연스럽게 합성하기 위하여 제 4항 내지 제 8항의 계층적 변이 추정 방법을 이용한 스테레오 혼합 현실 영상 합성 방법에 있어서,In the stereo mixed reality image synthesis method using the hierarchical disparity estimation method of claim 4 to naturally synthesize a computer-generated virtual image and stereo real image, 상기 스테레오 실사 영상에 대한 전처리를 수행하기 위한 제 1단계;A first step of performing preprocessing on the stereo real image; 상기에서 전처리를 수행한 영상에 대하여 계층적으로 변이 정보 추정을 수행하기 위한 제 2단계;A second step of performing disparity information estimation hierarchically on the preprocessed image; 상기 가상 영상을 모델링하기 위한 제 3단계; 및A third step of modeling the virtual image; And 상기에서 전처리한 영상 및 모델링한 가상 영상과, 실사 영상의 깊이 정보 및 가상 영상의 깊이 정보를 이용하여 영상 합성을 수행하기 위한 제 4단계A fourth step for performing image synthesis by using the preprocessed image and the modeled virtual image, the depth information of the real image and the depth information of the virtual image 를 포함하는 계층적 변이 추정 방법을 이용한 스테레오 혼합 현실 영상 합성 방법.Stereo mixed reality image synthesis method using a hierarchical disparity estimation method comprising a. 제 14항에 있어서,The method of claim 14, 상기 제 4단계는,The fourth step, 상기 실사 영상의 깊이 정보와 상기 가상 영상의 깊이 정보를 비교하는 제 5단계;A fifth step of comparing depth information of the live image with depth information of the virtual image; 상기 제 5단계의 판단결과, 상기 실사 영상 깊이가 상기 가상 영상의 깊이보다 큰 경우에는 해당 화소에 상기 가상 영상의 화소를 배치하는 제 6단계; 및A sixth step of disposing a pixel of the virtual image in a corresponding pixel when the depth of the actual image is greater than the depth of the virtual image; And 상기 제 5단계의 판단결과, 상기 실사 영상 깊이가 상기 가상 영상의 깊이보다 작은 경우에는 해당 화소에 상기 실사 영상의 화소를 배치하는 제 7단계A seventh step of disposing the pixel of the live image in the corresponding pixel when the depth of the live image is smaller than the depth of the virtual image as a result of the determination in the fifth step; 를 포함하는 것을 특징으로 하는 계층적 변이 추정 방법을 이용한 스테레오 혼합 현실 영상 합성 방법.Stereo mixed reality image synthesis method using a hierarchical disparity estimation method comprising a. 컴퓨터로 만들어진 가상 영상과 스테레오 실사 영상을 자연스럽게 합성하기 위하여 계층적 변이 추정 방법을 이용한 스테레오 혼합 현실 영상 합성 방법을 제공하기 위하여 마이크로프로세서를 구비한 혼합 현실 영상 합성 장치에,In a mixed reality image synthesizing apparatus having a microprocessor to provide a stereo mixed reality image synthesizing method using a hierarchical disparity estimation method in order to naturally synthesize a computer-generated virtual image and a stereo real image, 상기 스테레오 실사 영상에 대한 전처리를 수행하기 위한 제 1기능;A first function for performing preprocessing on the stereo real image; 상기에서 전처리를 수행한 영상에 대하여 계층적으로 변이 정보 추정을 수행하기 위한 제 2기능;A second function for performing disparity information estimation hierarchically on the preprocessed image; 상기 가상 영상을 모델링하기 위한 제 3기능; 및A third function for modeling the virtual image; And 상기에서 전처리한 영상 및 모델링한 가상 영상과, 실사 영상의 깊이 정보 및 가상 영상의 깊이 정보를 이용하여 영상 합성을 수행하기 위한 제 4기능A fourth function for performing image synthesis by using the preprocessed image and the modeled virtual image, the depth information of the real image and the depth information of the virtual image 을 실현시키시기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium that records a program for realizing the problem.
KR10-2002-0041105A 2002-07-15 2002-07-15 Device for Hierarchical Disparity Estimation and Method Thereof and Apparatus for Stereo Mixed Reality Image Synthesis using it and Method Thereof KR100446414B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0041105A KR100446414B1 (en) 2002-07-15 2002-07-15 Device for Hierarchical Disparity Estimation and Method Thereof and Apparatus for Stereo Mixed Reality Image Synthesis using it and Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0041105A KR100446414B1 (en) 2002-07-15 2002-07-15 Device for Hierarchical Disparity Estimation and Method Thereof and Apparatus for Stereo Mixed Reality Image Synthesis using it and Method Thereof

Publications (2)

Publication Number Publication Date
KR20040006738A true KR20040006738A (en) 2004-01-24
KR100446414B1 KR100446414B1 (en) 2004-08-30

Family

ID=37316603

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0041105A KR100446414B1 (en) 2002-07-15 2002-07-15 Device for Hierarchical Disparity Estimation and Method Thereof and Apparatus for Stereo Mixed Reality Image Synthesis using it and Method Thereof

Country Status (1)

Country Link
KR (1) KR100446414B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100899422B1 (en) * 2007-08-06 2009-05-27 삼성모바일디스플레이주식회사 The stereo matching system and the stereo matching method of the same
KR100918480B1 (en) * 2007-09-03 2009-09-28 한국전자통신연구원 Stereo vision system and its processing method
KR100947406B1 (en) * 2008-10-22 2010-03-15 서울대학교산학협력단 Simultaneous registration method of 3-dimensional scan data
KR101352385B1 (en) * 2011-04-29 2014-01-16 주식회사 휴원 3D augmented reality photo service system, and service method using thereof
KR101724360B1 (en) * 2016-06-30 2017-04-07 재단법인 실감교류인체감응솔루션연구단 Mixed reality display apparatus
KR200487369Y1 (en) 2018-02-20 2018-09-07 이태윤 Multiple Simple Package

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101558805B1 (en) 2014-09-03 2015-10-07 현대자동차주식회사 Interpolation factors correction apparatus for stereo matching
KR20240029944A (en) * 2022-08-29 2024-03-07 삼성전자주식회사 An electronic device for calibrating a virtual object using depth information on a real object, and a method for controlling the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3032088B2 (en) * 1992-03-03 2000-04-10 株式会社東芝 Video encoding device
JPH0795526A (en) * 1993-08-20 1995-04-07 Texas Instr Inc <Ti> Apparatus and method for processing of image
KR960028481A (en) * 1994-12-29 1996-07-22 배순훈 Motion estimation device
EP0951781B1 (en) * 1997-10-15 2008-07-23 Nxp B.V. Motion estimation
KR100292355B1 (en) * 1998-09-01 2001-07-12 윤종용 Motion vector esitmation method and apparatus in image processing system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100899422B1 (en) * 2007-08-06 2009-05-27 삼성모바일디스플레이주식회사 The stereo matching system and the stereo matching method of the same
US8045793B2 (en) 2007-08-06 2011-10-25 Samsung Mobile Display Co., Ltd. Stereo matching system and stereo matching method using the same
KR100918480B1 (en) * 2007-09-03 2009-09-28 한국전자통신연구원 Stereo vision system and its processing method
US8208716B2 (en) 2007-09-03 2012-06-26 Electronics And Telecommunications Research Institute Stereo vision system and stereo vision processing method
KR100947406B1 (en) * 2008-10-22 2010-03-15 서울대학교산학협력단 Simultaneous registration method of 3-dimensional scan data
KR101352385B1 (en) * 2011-04-29 2014-01-16 주식회사 휴원 3D augmented reality photo service system, and service method using thereof
KR101724360B1 (en) * 2016-06-30 2017-04-07 재단법인 실감교류인체감응솔루션연구단 Mixed reality display apparatus
WO2018004154A1 (en) * 2016-06-30 2018-01-04 재단법인 실감교류인체감응솔루션연구단 Mixed reality display device
KR200487369Y1 (en) 2018-02-20 2018-09-07 이태윤 Multiple Simple Package

Also Published As

Publication number Publication date
KR100446414B1 (en) 2004-08-30

Similar Documents

Publication Publication Date Title
CN111066065B (en) System and method for hybrid depth regularization
KR102647351B1 (en) Modeling method and modeling apparatus using 3d point cloud
CN109360235B (en) Hybrid depth estimation method based on light field data
US9082224B2 (en) Systems and methods 2-D to 3-D conversion using depth access segiments to define an object
RU2382406C1 (en) Method of improving disparity map and device for realising said method
EP1588327B1 (en) Full depth map acquisition
KR100748719B1 (en) Apparatus and method for 3-dimensional modeling using multiple stereo cameras
Zollmann et al. Image-based ghostings for single layer occlusions in augmented reality
KR100931311B1 (en) Depth estimation device and its method for maintaining depth continuity between frames
US20120242795A1 (en) Digital 3d camera using periodic illumination
US8737769B2 (en) Reconstruction of sparse data
KR102464523B1 (en) Method and apparatus for processing image property maps
US20080228449A1 (en) Systems and methods for 2-d to 3-d conversion using depth access segments to define an object
US20080226160A1 (en) Systems and methods for filling light in frames during 2-d to 3-d image conversion
US20080226128A1 (en) System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
KR20130112311A (en) Apparatus and method for reconstructing dense three dimension image
KR100927734B1 (en) Multi-view image generating device and method
KR100926520B1 (en) Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation
US20230401855A1 (en) Method, system and computer readable media for object detection coverage estimation
KR100446414B1 (en) Device for Hierarchical Disparity Estimation and Method Thereof and Apparatus for Stereo Mixed Reality Image Synthesis using it and Method Thereof
US10504235B2 (en) Method for generating three dimensional images
Mori et al. Good keyframes to inpaint
KR20120042323A (en) Method and apparatus for temporally-consistent disparity estimation using texture and motion detection
KR20130010615A (en) Method and apparatus for obtaining informaiton of lighting and material in image modeling system

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130712

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20140626

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20150922

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20160818

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee