KR100924716B1 - Method for Rendering Virtual View for 2D/3D Free View Video Generation - Google Patents

Method for Rendering Virtual View for 2D/3D Free View Video Generation Download PDF

Info

Publication number
KR100924716B1
KR100924716B1 KR1020070136804A KR20070136804A KR100924716B1 KR 100924716 B1 KR100924716 B1 KR 100924716B1 KR 1020070136804 A KR1020070136804 A KR 1020070136804A KR 20070136804 A KR20070136804 A KR 20070136804A KR 100924716 B1 KR100924716 B1 KR 100924716B1
Authority
KR
South Korea
Prior art keywords
image
images
target image
pixel
semi
Prior art date
Application number
KR1020070136804A
Other languages
Korean (ko)
Other versions
KR20090068980A (en
Inventor
손광훈
민동보
김동현
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020070136804A priority Critical patent/KR100924716B1/en
Publication of KR20090068980A publication Critical patent/KR20090068980A/en
Application granted granted Critical
Publication of KR100924716B1 publication Critical patent/KR100924716B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Abstract

자유 시점 영상 재생을 위한 2D/3D 가상 시점 합성 방법이 개시된다. 개시된 방법은 N개의 시점에 상응하는 N 개의 영상을 획득하는 단계(a); N 개의 영상 중 선택된 일부의 기준 영상들에 대해 변이를 추정하는 단계(b); N 개의 영상 중 기준 영상 이외의 영상들에 대해 상기 기준 영상의 변이 관련 정보를 워핑하는 단계(c); 상기 워핑된 변이 관련 정보를 이용하여 기준 영상 이외의 영상들에 대한 변이를 추정하는 단계(d)를 포함한다. 개시된 방법에 의하면, 가상 시점 영상 합성 시 발생하는 연산상의 중복을 최소화할 수 있는 장점이 있다. Disclosed is a 2D / 3D virtual view synthesis method for free view image reproduction. The disclosed method includes the steps of (a) acquiring N images corresponding to N viewpoints; Estimating the disparity with respect to selected reference images of the N images; Warping the variation related information of the reference image with respect to images other than the reference image among N images; Estimating a variation for images other than a reference image by using the warped variation related information. According to the disclosed method, there is an advantage of minimizing operational duplication occurring during virtual view image synthesis.

영상, 합성, 변이 Video, composite, variation

Description

자유 시점 영상 재생을 위한 2차원/3차원 가상 시점 합성 방법{Method for Rendering Virtual View for 2D/3D Free View Video Generation} Method for Rendering Virtual View for 2D / 3D Free View Video Generation}

본 발명은 자유 시점 영상 재생을 위한 2D/3D 가상 시점 합성 방법에 관한 것으로서, 더욱 상세하게는 가상 시점 영상 합성 시의 연산량을 줄이고 3차원 영상에 대해서도 자유 시점에 따른 영상을 제공할 수 있는 방법에 관한 것이다. The present invention relates to a 2D / 3D virtual view synthesis method for reproducing a free view image, and more particularly, to a method capable of reducing the amount of computation during virtual view image synthesis and providing an image according to a free view even for a 3D image. It is about.

멀티미디어 처리 분야의 급속한 발전으로 인해 3차원 TV는 차세대 방송 시스템 시장에서 주목받는 제품 중 하나가 될 것으로 예상되고 있다. 3차원 TV가 상용화되려면 다시점 영상을 획득하여 처리하고 막대한 양의 데이터를 압축하여 전송하는 기술이 발전해야 한다. Due to the rapid development of the multimedia processing field, 3D TV is expected to become one of the products attracting attention in the next generation broadcasting system market. In order to commercialize three-dimensional TV, technologies for acquiring and processing multi-view images, compressing and transmitting huge amounts of data must be developed.

가상 시점 합성 기술은 3차원 TV는 물론 다양한 영상 분야에서 중요한 기술 중 하나이며, 영상 기반 합성 방식(Image-based rendering)에 기반하여 많은 방식들이 제안되었다. Virtual view synthesis is one of the important technologies in various image fields as well as 3D TV. Many methods have been proposed based on image-based rendering.

가상 시접 합성은 제한된 수의 카메라 영상만으로 다양한 시점을 제공하는 기술로서 3차원 TV 시스템을 개발하는데 있어 데이터양과 비용을 줄이는데 매우 유용하다. Virtual collimation synthesis is a technology that provides a variety of viewpoints with only a limited number of camera images, which is very useful for reducing data volume and cost in developing 3D TV systems.

가상 시점 합성에 관한 기술로서, 스테레오 영상으로부터 중간 시점을 재생하는 방식이 종래에 제안되었다. 중간 시점은 투영된 영상의 화질에 따라 가중치 평균을 사용하여 합성되는 것이 일반적이었다. As a technique for synthesizing virtual viewpoints, a method of reproducing an intermediate viewpoint from a stereo image has been conventionally proposed. The intermediate viewpoint was generally synthesized using a weighted average according to the image quality of the projected image.

한편, 가상 시점 합성을 위해서는 주어지는 기준 영상들에 대해 변이 정보를 획득하여야 한다. Meanwhile, for virtual view synthesis, disparity information needs to be obtained with respect to given reference images.

예를 들어, N개 시점에 대한 기준 영상이 주어질 때 N개 영상에 대한 변이를 추정하여 각 영상의 깊이 정보를 획득하여야 했다. For example, when reference images of N viewpoints are given, variation of N images should be estimated to obtain depth information of each image.

이와 같은 종래의 가상 시점 합성을 위한 변이 추정 방식은 다수의 기준 영상에 대해 일일이 변이 추정을 하여야 하는 바 상당히 많은 연산량을 요구하는 문제점이 있었다. Such a variation estimation method for synthesizing a virtual viewpoint has a problem that requires a large amount of computation because a variation estimation has to be performed for a plurality of reference images.

또한, 종래에는 지정된 가상 시점에 상응하는 2차원 영상을 합성하는 방식에 대해서는 많은 방법이 제안되었으나, 3차원 영상을 자유 시점으로 제공할 수 없는 문제점이 있었다. In addition, conventionally, many methods have been proposed for a method of synthesizing a 2D image corresponding to a designated virtual view, but there is a problem in that a 3D image cannot be provided as a free view.

본 발명에서는 상기한 바와 같은 종래 기술의 문제점을 해결하기 위해, 가상 시점 영상 합성 시 발생하는 연산상의 중복을 최소화하기 위한 자유 시점 영상 재생을 위한 2D/3D 가상 시점 합성 방법을 제안한다. The present invention proposes a 2D / 3D virtual view synthesis method for reproducing a free view image for minimizing operational duplication occurring during the synthesis of the virtual view image.

본 발명의 다른 목적은 가상 시점 영상 합성 시 N 시점 영상이 주어질 때 N 개의 시점 영상 모두로부터 깊이 정보를 구할 필요가 없는 자유 시점 영상 재생을 위한 2D/3D 가상 시점 합성 방법을 제안한다. Another object of the present invention is to propose a 2D / 3D virtual view synthesis method for reproducing a free view image, which does not need to obtain depth information from all N view images when an N view image is given when synthesizing a virtual view image.

본 발명의 또 다른 목적은 3D 영상에 대해서도 자유롭게 시점을 선택하여 재생할 수 있는 3D 가상 시점 합성 방법을 제안하는 것이다. Another object of the present invention is to propose a 3D virtual view synthesis method that can freely select and play a view even for a 3D image.

상기한 바와 같은 목적을 달성하기 위하여, 본 발명의 일 측면에 따르면, 가상 시점에서의 영상 합성을 위한 변이 추정 방법으로서, N개의 시점에 상응하는 N 개의 영상을 획득하는 단계(a); N 개의 영상 중 선택된 일부의 기준 영상들에 대해 변이를 추정하는 단계(b); N 개의 영상 중 기준 영상 이외의 영상들에 대해 상기 기준 영상의 변이 관련 정보를 워핑하는 단계(c); 상기 워핑된 변이 관련 정보를 이용하여 기준 영상 이외의 영상들에 대한 변이를 추정하는 단계(d)를 포함하는 가상 시점 영상 합성 시의 변이 추정 방법이 제공된다. In order to achieve the above object, according to an aspect of the present invention, a method for estimating the variance for image synthesis in a virtual view, the method comprising the steps of: (a) obtaining N images corresponding to N views; Estimating the disparity with respect to selected reference images of the N images; Warping the variation related information of the reference image with respect to images other than the reference image among N images; A method for estimating a disparity at the time of synthesizing a virtual view image, comprising the step (d) of estimating the disparity for images other than the reference image using the warped disparity related information.

상기 기준 영상의 변이를 추정하는 단계(b)는, 기준 영상의 픽셀 당 비용 함수를 연산하는 단계; 상기 픽셀 당 비용 함수를 에너지 함수를 설정하는 단계; 상 기 에너지 함수를 최소로 하는 최적 비용 함수를 연산하는 단계; 및 상기 최적 비용 함수를 이용한 최적화 과정에 의해 변이를 추정하는 단계를 포함할 수 있다. (B) estimating the variation of the reference image comprises: calculating a cost per pixel function of the reference image; Setting an energy function for the cost per pixel function; Calculating an optimal cost function that minimizes the energy function; And estimating the variation by an optimization process using the optimal cost function.

상기 기준 영상 이외의 영상은 타겟 영상 및 세미 타겟 영상으로 구분된다. Images other than the reference image are divided into target images and semi-target images.

상기 세미 타겟 영상은 N 개의 영상 중 최좌측 영상 및 최우측 영상이며, 상기 기준 영상은 세미 타겟 영상을 제외한 영상들 중 서로 인접하지 않도록 선택된다. The semi-target image is the leftmost image and the rightmost image among the N images, and the reference image is selected not to be adjacent to each other among the images except the semi-target image.

상기 변이 관련 정보는 상기 기준 영상의 최적 비용 함수를 포함할 수 있다. The variation related information may include an optimal cost function of the reference image.

상기 타겟 영상에 대해서는 인접한 기준 영상들의 최적 비용 함수에 대한 전방 워핑 및 후방 워핑이 수행되며, 상기 세미 타겟 영상에 대해서는 인접한 기준 영상의 최적 비용 함수에 대한 전방 워핑 또는 후방 워핑이 수행된다. The front and rear warping of the optimal cost function of the adjacent reference images are performed on the target image, and the front or rear warping of the optimal cost function of the adjacent reference image is performed on the target image.

상기 타겟 영상으로의 기준 영상의 최적 비용 함수 워핑 시, 제1 기준 영상의 가려진 픽셀 및 상기 타겟 영상의 가려진 픽셀을 검출하는 단계(e); 타겟 영상의 가려진 픽셀들에 대해 미리 설정된 가시도 함수 값을 설정하는 단계(f); 상기 가시도 함수 값을 이용하여 상기 제1 기준 영상의 최적 비용 함수를 워핑하는 단계(g); 및 제2 기준 영상 및 상기 타겟 영상에 대해 상기 단계 (e) ~ (f)를 반복하는 단계를 더 포함할 수 있다. (E) detecting a hidden pixel of the first reference image and a hidden pixel of the target image when warping the optimal cost function of the reference image to the target image; Setting (f) a preset visibility function value for occluded pixels of a target image; (G) warping an optimal cost function of the first reference image using the visibility function value; And repeating steps (e) to (f) with respect to the second reference image and the target image.

상기 제1 기준 영상과 상기 타겟 영상의 픽셀 매칭 시 매칭이 이루어지지 않는 픽셀을 타겟 영상의 가려진 픽셀로 설정한다. The pixel that is not matched when the pixel of the first reference image and the target image is matched is set as a hidden pixel of the target image.

상기 제1 기준 영상과 상기 타겟 영상의 픽셀 매칭 시 중복 매칭이 이루어지는 픽셀이 존재할 경우, 변이에 기반한 제1 조건 및 최적 비용 함수에 기반한 제2 조건을 모두 만족하는 픽셀이 존재할 경우 해당 픽셀을 제1 기준 영상의 가려진 픽셀로 설정하며, 상기 제1 조건 및 제2 조건을 모두 만족하는 픽셀이 존재하지 않는 경우, 중복으로 매칭되는 타겟 영상의 픽셀 및 상기 매칭이 이루어지지 않는 타겟 영상의 픽셀 모두를 가려진 후보 픽셀로 설정한다. When there is a pixel that overlaps the pixel matching between the first reference image and the target image, when there is a pixel that satisfies both the first condition based on the variation and the second condition based on the optimal cost function, the pixel is selected as the first pixel. If a pixel that satisfies both the first condition and the second condition does not exist, both the pixel of the target image that is overlapped and the pixel of the target image that do not match are masked. Set to candidate pixels.

상기 가시도 함수는 '1'또는 '0'값으로 설정되고, 상기 타겟 영상의 가려진 픽셀 및 상기 타겟 영상의 가려진 후보 픽셀에는 '0'할당되어 다음의 수학식에 의해 제1 기준 영상의 최적 비용 함수가 상기 타겟 영상에 전방 워핑된다. The visibility function is set to a value of '1' or '0', '0' is assigned to the masked pixel of the target image and the masked candidate pixel of the target image, so that the optimal cost of the first reference image is expressed by the following equation. A function is warped forward to the target image.

Figure 112007092832432-pat00001
Figure 112007092832432-pat00001

상기 수학식에서, E는 최적 비용 함수이고 d는 변위이고, I는 제1 기준 영상의 x좌표이며, O는 가시도 함수임. Where E is the optimal cost function, d is the displacement, I is the x-coordinate of the first reference image, and O is the visibility function.

상기 세미 타겟 영상으로의 기준 영상의 최적 비용 함수 워핑 시, 상기 세미 타겟 영상과 인접한 기준 영상의 가려진 픽셀 및 상기 타겟 영상의 가려진 픽셀을 검출하는 단계; 상기 세미 타겟 영상의 가려진 픽셀들에 대해 미리 설정된 가시도 함수 값을 설정하는 단계; 및 상기 가시도 함수 값을 이용하여 다음의 수학식에 의해 상기 세미 타겟 영상의 가려진 픽셀의 최적 비용 함수를 설정하는 단계를 포함한다. Detecting a masked pixel of a reference image adjacent to the semi-target image and a masked pixel of the target image when warping the optimal cost function of the reference image to the semi-target image; Setting a preset visibility function value for occluded pixels of the semi-target image; And setting an optimal cost function of the occluded pixels of the semi-target image by the following equation using the visibility function value.

Figure 112007092832432-pat00002
Figure 112007092832432-pat00002

상기 수학식에서, O는 가시도 함수이고, E는 최적 비용 함수이며, w는 가중치 함수이고, λ는 가중치 상수임. Wherein O is a visibility function, E is an optimal cost function, w is a weight function, and λ is a weight constant.

상기 세미 타겟 영상과 상기 세미 타겟 영상과 인접한 기준 영상의 픽셀 매칭 시 매칭이 이루어지지 않는 픽셀을 세미 타겟 영상의 가려진 픽셀로 설정한다. In the case of pixel matching between the semi-target image and the reference image adjacent to the semi-target image, pixels that are not matched are set as hidden pixels of the semi-target image.

상기 세미 타겟 영상과 상기 세미 타겟 영상에 인접한 기준 영상과의 픽셀 매칭 시 중복 매칭이 이루어지는 픽셀이 존재할 경우, 변이에 기반한 제1 조건 및 최적 비용 함수에 기반한 제2 조건을 모두 만족하는 픽셀이 존재할 경우 해당 픽셀을 기준 영상의 가려진 픽셀로 설정하며, 상기 제1 조건 및 제2 조건을 모두 만족하는 픽셀이 존재하지 않는 경우, 중복으로 매칭되는 세미 타겟 영상의 픽셀 및 상기 매칭이 이루어지지 않는 세미 타겟 영상의 픽셀 모두를 가려진 후보 픽셀로 설정한다. When there is a pixel where overlapping matching occurs in pixel matching between the semi-target image and the reference image adjacent to the semi-target image, when there is a pixel that satisfies both the first condition based on the variation and the second condition based on the optimal cost function If the corresponding pixel is set as a masked pixel of the reference image, and there is no pixel satisfying both the first condition and the second condition, the pixel of the semi-target image that is overlapped and the semi-target image that do not match Set all of the pixels to be hidden candidate pixels.

본 발명의 다른 측면에 따르면, N개의 시점에 상응하는 N 개의 영상을 획득하는 단계(a); N 개의 영상 중 선택된 일부의 기준 영상들에 대해 변이를 추정하는 단계(b); N 개의 영상 중 기준 영상 이외의 영상들에 대해 상기 기준 영상의 변이 관련 정보를 워핑하는 단계(c); 상기 워핑된 변이 관련 정보를 이용하여 기준 영상 이외의 영상들에 대한 변이를 추정하는 단계(d); 상기 N 개 시점 영상들의 추정된 변이 정보를 이용하여 실제 영상에 있는 모든 점을 3D 공간으로 역투영하는 단계(e); 상기 실제 영상의 좌표를 임의의 가상 시점 영상 좌표로 변환하는 단계(f); 및 상기 가상 시점 영상의 2차원 평면으로 3차원 좌표를 투영하는 단계(g)를 포함하는 가상 시점에서의 영상 합성 방법이 제공된다. According to another aspect of the present invention, the method includes: obtaining N images corresponding to N viewpoints (a); Estimating the disparity with respect to selected reference images of the N images; Warping the variation related information of the reference image with respect to images other than the reference image among N images; Estimating a disparity for images other than a reference image using the warped disparity related information; (E) projecting all points in the real image into 3D space by using the estimated disparity information of the N viewpoint images; Converting the coordinates of the real image into arbitrary virtual viewpoint image coordinates (f); And (g) projecting three-dimensional coordinates onto a two-dimensional plane of the virtual viewpoint image.

본 발명의 또 다른 측면에 따르면, N개의 시점에 상응하는 N 개의 영상을 획득하는 단계(a); 상기 N 개의 영상에 대한 변이 정보를 추정하는 단계(b); 임의의 가상 시점이 지정될 경우, 상기 임의의 가상 시점과 연관된 적어도 둘 이상의 시점에 상응하는 2차원 영상을 상기 임의의 가상 시점과 인접한 획득 영상의 변이 정보를 이용하여 합성하는 단계; 및 상기 적어도 둘 이상의 2차원 영상을 이용하여 3차원 영상을 합성하는 단계를 포함하는 것을 특징으로 하는 임의의 가상 시점에서의 3차원 영상 합성 방법이 제공된다. According to another aspect of the invention, the method comprising the steps of (a) obtaining N images corresponding to N viewpoints; Estimating disparity information for the N images; Synthesizing a two-dimensional image corresponding to at least two or more viewpoints associated with the arbitrary virtual viewpoint using the disparity information of the acquired image adjacent to the arbitrary virtual viewpoint when an arbitrary virtual viewpoint is designated; And synthesizing a three-dimensional image by using the at least two two-dimensional images.

본 발명에 의하면, 가상 시점 영상 합성 시 발생하는 연산상의 중복을 최소화할 수 있는 장점이 있다. According to the present invention, there is an advantage of minimizing the operational duplication that occurs when synthesizing a virtual viewpoint image.

또한, 본 발명에 의하면 가상 시점 영상 합성 시 N 시점 영상이 주어질 때 N 개의 시점 영상 모두로부터 깊이 정보를 구할 필요가 없는 장점이 있다. In addition, according to the present invention, when the N-view image is given when synthesizing the virtual view image, it is not necessary to obtain depth information from all N view images.

아울러, 본 발명에 의하면, 3D 영상에 대해서도 자유롭게 시점을 선택하여 재생할 수 있는 장점이 있다. In addition, according to the present invention, there is an advantage that a viewpoint can be freely selected and reproduced even for a 3D image.

이하에서, 첨부된 도면을 참조하여 본 발명에 의한 자유 시점 영상 재생을 위한 2D/3D 가상 시점 합성 방법의 바람직한 실시예를 상세히 설명한다. Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the 2D / 3D virtual view synthesis method for free view image playback according to the present invention.

도 1은 본 발명의 일 실시예에 따른 자유 시점 영상 재생을 위한 가상 시점 합성 방법의 전체적인 흐름을 도시한 도면이다. 1 is a view showing the overall flow of a virtual view synthesis method for free view image playback according to an embodiment of the present invention.

도 1을 참조하면, N 개의 카메라로부터 촬영된 N 시점 영상 데이터를 획득한 다(단계 100). Referring to FIG. 1, N view image data photographed from N cameras is acquired (step 100).

N 시점 영상을 획득하면, N 개 영상에 대한 변이를 추정하여 N개 영상에 대한 깊이 정보를 연산한다(단계 102). When the N-view image is obtained, the depth information of the N images is calculated by estimating the variation of the N images (step 102).

종래에는 N개의 N시점 영상 데이터가 획득될 경우, 가상 시점에 대한 영상 합성을 위해 N개의 영상 데이터에 대한 변이를 일일이 추정하여 N개 영상의 깊이를 연산하였다. 이와 같은 종래의 방식을 N-시점 & N-깊이 방식이라고 한다. Conventionally, when N N view image data is acquired, the depth of N images is calculated by estimating the variation of the N image data one by one for image synthesis of the virtual view. Such a conventional method is called an N-view & N-depth method.

그러나, 본 발명의 실시예에서는 N개 영상에 대해 일일이 깊이 정보를 연산하지 않고 N 개의 영상 중 미리 설정된 M(M<N)개의 영상에 대해서만 깊이 정보를 연산하며, 나머지 (N-M)개의 영상에 대해서는 워핑을 이용해 깊이 정보를 획득한다. However, in the embodiment of the present invention, the depth information is calculated only for M (M <N) preset images among N images without calculating depth information for N images, and for the remaining (NM) images. Use depth warping to obtain depth information.

본 발명에서 제안되는 이와 같은 방식을 세미 N-시점 & N-깊이 방식으로 표현하기로 하며, 세미 N-시점 & N-깊이 방식에 의한 깊이 정보 획득 방법에 대해서는 별도의 도면을 참조하여 상세히 설명하기로 한다. Such a method proposed in the present invention will be represented by a semi-N-view & N-depth method, and a method of obtaining depth information by the semi-N-view & N-depth method will be described in detail with reference to a separate drawing. Shall be.

세미 N-시점 & N-깊이 방식에 의해 N개의 시점 영상에 대한 깊이 정보를 획득하면, 임의의 시점에 대한 영상 합성이 수행된다. When depth information of N viewpoint images is obtained by a semi-N-view & N-depth method, image synthesis for an arbitrary viewpoint is performed.

임의의 시점이 설정되면, 임의 시점과 연관된 미리 주어진 시점 영상들의 변이 정보를 이용하여 실제 영상에 있는 모든 점들을 3D 공간상으로 역투영한다(단계 104). If an arbitrary viewpoint is set, all points in the real image are back-projected in 3D space using the disparity information of predetermined viewpoint images associated with the arbitrary viewpoint (step 104).

3D 영상상으로 역투영이 수행된 후, 실제 영상의 좌표를 임의의 시점에 해당되는 좌표로 변환한다(단계 106). After reverse projection is performed on the 3D image, the coordinates of the actual image are converted into coordinates corresponding to an arbitrary viewpoint (step 106).

좌표 변환이 완료되면, 가상 영상의 2D 평면으로 3D 좌표를 투영한다(단계 108). When the coordinate transformation is completed, the 3D coordinates are projected onto the 2D plane of the virtual image (step 108).

상술한 단계 104 내지 단계 106에 대한 상세한 방법은 별도의 도면을 참조하여 상세히 설명하기로 한다. Detailed methods of the above-described step 104 to step 106 will be described in detail with reference to the separate drawings.

이상에서는, 본 발명의 실시예에 따른 자유 시점 영상 재생을 위한 2D 가상 시점 합성을 위한 개괄적인 절차를 살펴보았으며, 이하에서는 본 발명의 제안 사항들에 대해 보다 상세히 설명하기로 한다. In the above, the general procedure for synthesizing a 2D virtual view for playing a free view image according to an embodiment of the present invention has been described. Hereinafter, the suggestions of the present invention will be described in detail.

I. 세미 N-시점 & N-깊이 방식I. Semi N-Point & N-Depth Method

본 발명의 세미 N-시점 & N-깊이 방식을 설명하기에 앞서, 종래의 N-시점 & N-깊이 방식에 대해 살펴보기로 한다. Prior to describing the semi-N-view & N-depth scheme of the present invention, the conventional N-view & N-depth scheme will be described.

도 2는 종래의 N-시점 & N-깊이 구조를 설명하기 위한 도면이다. 2 is a view for explaining a conventional N-view & N-depth structure.

종래 방식에 의할 경우, N개 시점의 영상이 주어졌을 때, 가상 시점을 합성하기 위해 N개의 깊이 맵을 획득하여야 했다. Zitnick에 의해 제안된 N-시점 & N-깊이 방식은 N개 영상에 대한 변이 추정을 통해 N개의 깊이 맵을 추정하고 중간 시점을 합성하였다. According to the conventional method, when images of N viewpoints are given, N depth maps have to be acquired to synthesize virtual viewpoints. The N-view & N-depth method proposed by Zitnick estimates N depth maps and synthesizes intermediate viewpoints through disparity estimation for N images.

도 2에 도시된 바와 같이, 7개의 시점 영상이 주어졌을 때 7개의 모든 시점 영상을 기준영상으로 하여 각각 7번의 변이 추정 과정이 수행되어야 했다. As shown in FIG. 2, when seven viewpoint images are given, seven disparity estimation processes should be performed using all seven viewpoint images as reference images.

이와 같은 변이 추정 과정은 막대한 계산량을 요구하는 바, 오프라인에서 미리 수행되는 것이 일반적이었다. 종래의 방식에서 변이 추정 복잡도가 높은 가장 큰 이유는 모든 영상에 대해 동일한 방식으로 변이 추정을 수행하기 때문이었다. Since the variation estimation process requires a great amount of computation, it is generally performed in advance offline. The biggest reason for the high complexity of the estimation of the variation in the conventional method is that the variation estimation is performed in the same manner for all images.

도 2에 도시된 7개의 시점 영상은 일부의 가려진 영역을 제외하면 대부분이 중복되는 영상임에도 불구하고 각 7개의 영상에 대해 동일한 변이 추정을 수행함으로써 불필요한 계산상의 중복이 발생하였다. Although the seven viewpoint images shown in FIG. 2 are mostly overlapping images except for some hidden regions, unnecessary computational overlap is generated by performing the same disparity estimation for each of the seven images.

본 실시예에서는 이와 같은 계산 상의 중복을 최소화하고 N 시점 영상으로부터 깊이 정보를 보다 빠르게 획득할 수 있는 세미 N-시점 & N-깊이 방식을 제안한다. This embodiment proposes a semi-N-view & N-depth method that can minimize such computational overlap and obtain depth information from an N-view image more quickly.

제안되는 세미 N-시점 & N-깊이 방식은 인접한 영상들에서의 깊이 정보는 가려진 영역을 제외하고는 차이가 없다는 점에 기초한다. The proposed semi N-view & N-depth scheme is based on the fact that the depth information in adjacent images does not differ except for the hidden region.

도 3은 인접한 다른 시점에서 획득된 두 개의 영상 및 각 영상의 깊이 지도를 도시한 도면이다.3 is a diagram illustrating two images acquired from different adjacent viewpoints and a depth map of each image.

도 3에는 브레이크 댄서를 서로 다른 시점에서 본 이미지 패어가 도시되어 있으며, 도 3을 참조하면, 두 영상의 깊이 지도는 유사하며, 단지 가려진 영역에서 차이가 있다는 점을 확인할 수 있다. 3 shows an image pair in which break dancers are viewed at different points of view. Referring to FIG. 3, it can be seen that the depth maps of the two images are similar and there is a difference in only the hidden region.

도 4는 본 발명의 일 실시예에 따른 세미 N-시점 & N-깊이 구조를 도시한 도면이다. 4 illustrates a semi-N-view & N-depth structure according to an embodiment of the present invention.

본 발명의 바람직한 실시예에 따르면, N개 시점의 영상이 주어질 때, N 개의 영상은 세 개의 종류로 구분된다. N 개의 영상 중 일부 영상은 기준 영상으로 분류되고, 일부 영상은 타겟 영상으로 분류되며, 나머지 영상은 세미 타겟 영상으로 분류된다. According to a preferred embodiment of the present invention, when an image of N viewpoints is given, N images are divided into three types. Some images of the N images are classified as reference images, some images are classified as target images, and other images are classified as semi-target images.

도 4를 참조하면, 7개의 시점 영상이 주어졌을 때, 2, 4, 6번째 영상은 기준 영상으로 설정된다. 또한, 첫 번째 및 마지막 영상은 세미 타겟 영상으로 설정된다. 나머지 영상은 타겟 영상으로 설정된다. Referring to FIG. 4, when seven viewpoint images are given, second, fourth, and sixth images are set as reference images. Also, the first and last images are set as semi target images. The remaining image is set as the target image.

본 발명의 바람직한 실시예에 따르면, N 개의 영상 중 깊이 정보는 기준 영상들에 대해서만 연산된다. 타겟 영상 및 세미 타겟 영상의 깊이 정보는 기준 영상의 변이 정보와 연관된 정보를 워핑(Warping)함으로써 산출되며 독립적으로 깊이 정보가 산출되지는 않는다. According to a preferred embodiment of the present invention, the depth information of the N images is calculated only for the reference images. Depth information of the target image and the semi-target image is calculated by warping information associated with the variation information of the reference image, and depth information is not independently calculated.

상기 워핑되는 기준 영상의 변이 정보와 연관된 정보는 기준 영상의 최적 비용 함수 정보일 수 있다. The information associated with the variation information of the warped reference image may be optimal cost function information of the reference image.

하나의 영상의 깊이 정보를 연산하는데 소요되는 리소스를 C라고 할 때, 도 2 와 같은 N-시점 & N-깊이 방식은 7C의 연산량을 요구한다. 그러나, 도 4와 같은 세미 N-시점 & N-깊이 방식의 경우 3개의 영상에 대해서만 깊이 정보가 연산되므로 3C+a의 연산량을 요구한다. When a resource required to calculate depth information of one image is C, the N-view & N-depth method as shown in FIG. 2 requires a calculation amount of 7C. However, in the case of the semi-N-view & N-depth method as shown in FIG. 4, since the depth information is calculated only for three images, an operation amount of 3C + a is required.

N 개 시점의 영상이 주어질 때, 다음과 같은 방식으로 기준 영상, 타겟 영상 및 세미 타겟 영상으로 설정할 수 있다. When an image of N viewpoints is given, a reference image, a target image, and a semi-target image may be set as follows.

N 개 시점의 영상이 주어질 때, 좌우 끝에 해당되는 영상들은 세미 타겟 영상으로 설정된다. When an image of N viewpoints is given, images corresponding to left and right ends are set as semi-target images.

또한, 기준 영상은 세미 타겟 영상을 제외한 영상들 중 일부로부터 선택될 수 있으며 서로 인접하지 않도록 선택된다. 타겟 영상은 세미 타겟 영상과 기준 영상을 제외한 영상들로 설정된다. In addition, the reference image may be selected from some of the images other than the semi-target image, and not selected to be adjacent to each other. The target image is set to images except for the semi-target image and the reference image.

도 4에는 영상의 좌우 끝에 해당되는 1번 영상 및 7번 영상이 세미 타겟 영 상으로 설정되고, 서로 인접하지 않는 2번 영상, 4번 영상 및 6번 영상이 기준 영상으로 설정되며, 기준 영상 및 세미 타겟 영상을 제외한 3번 영상 및 5번 영상이 타겟 영상으로 설정되어 있다. In FIG. 4, images 1 and 7 corresponding to the left and right ends of the image are set as semi-target images, and images 2, 4 and 6, which are not adjacent to each other, are set as reference images. Images 3 and 5 except for the semi-target image are set as target images.

도 5는 본 발명의 일 실시예에 따른 N이 짝수일 경우에 기준 영상, 타겟 영상 및 세미 타겟 영상을 설정한 예를 도시한 도면이다. 5 is a diagram illustrating an example of setting a reference image, a target image, and a semi-target image when N is an even number according to an embodiment of the present invention.

도 5를 참조하면, 8개의 영상이 주어지는 경우가 도시되어 있으며, 좌우 끝에 해당되는 1번 영상 및 8번 영상이 세미 타겟 영상으로 설정된다. 2번 영상 내지 7번 영상 중 2, 5, 7번 영상이 기준 영상으로 설정되는 경우가 도 5에 도시되어 있다. 도 5와는 달리 2, 4, 7번 영상이 기준 영상으로 설정될 수도 있다. Referring to FIG. 5, a case in which eight images are given is illustrated, and images 1 and 8 corresponding to left and right ends are set as semi-target images. FIG. 5 illustrates a case where images 2, 5, and 7 of images 2 through 7 are set as reference images. Unlike FIG. 5, images 2, 4, and 7 may be set as reference images.

N개의 영상이 주어질 때, 세미 타겟 영상의 수, 기준 영상의 수 및 타겟 영상의 수는 다음의 수학식 1과 같이 일반화될 수 있다. Given N images, the number of semi-target images, the number of reference images and the number of target images may be generalized as shown in Equation 1 below.

Figure 112007092832432-pat00003
Figure 112007092832432-pat00003

다만, 수학식 1은 세미 타겟 영상, 기준 영상 및 타겟 영상의 수를 일반화하기 위한 일 실시예에 불과하며, 필요에 따라 이와 다르게 각 영상의 수를 설정할 수도 있다는 점은 당업자에게 있어 자명할 것이다.However, Equation 1 is merely an embodiment for generalizing the number of semi-target images, reference images, and target images, and it will be apparent to those skilled in the art that the number of images may be set differently as necessary.

N=4인경우 If N = 4

도 4 및 도 5를 참조하면, 세미 타겟 영상에 대해서는 전방 워핑 또는 후방 워핑 중 어느 하나만이 수행되는 비대칭적 워핑이 수행된다. 한편, 타겟 영상에 대해서는 전후방의 기준 영상을 이용한 대칭적 워핑이 수행된다. 4 and 5, asymmetric warping is performed in which only one of front warping and rear warping is performed on the semi-target image. Meanwhile, the target image is symmetrically warped using the front and rear reference images.

도 6은 본 발명의 일 실시예에 따른 세미 N-시점 & N-깊이 방식을 이용한 변이 추정 과정을 도시한 순서도이다. 6 is a flowchart illustrating a process of estimating the variation using the semi-N-view & N-depth method according to an embodiment of the present invention.

도 6을 참조하면, 기준 영상들에 대한 최적 비용 함수를 연산한다(단계 600). 기준 영상들에 대한 변이 추정을 위해 1차적으로 최적 비용 함수를 연산한다. 전술한 바와 같이, 최적 비용 함수는 타겟 영상 또는 세미 타겟 영상에 워핑될 수 있다. Referring to FIG. 6, an optimal cost function is calculated for reference images (step 600). The optimal cost function is first calculated for the estimation of the variance for the reference images. As mentioned above, the optimal cost function may be warped to the target image or the semi target image.

기준 영상들에 대한 최적 비용 함수를 연산하면, 이를 이용한 최적화 과정을 통해 기준 영상들의 변이를 추정한다(단계 602). 최적화 방식으로는 WTA(Winner-Takes All), 그래프 컷과 같은 다양한 방식이 사용될 수 있으며, 최적화를 통해 최종적인 변이를 추정한다. When the optimal cost function is calculated for the reference images, the variation of the reference images is estimated through an optimization process using the same (step 602). Various methods such as Winner-Takes All (WTA) and graph cuts can be used as optimization methods, and the final variation is estimated through optimization.

기준 영상들에 대한 변이 추정이 완료되면, 타겟 영상 및 세미 타겟 영상들에 대한 대칭적 워핑 또는 비대칭적 워핑을 수행하여 기준 영상의 최적 비용 함수를 워핑시킨다(단계 604). When the variance estimation for the reference images is completed, symmetrical warping or asymmetrical warping for the target image and the semi-target images is performed to warp the optimal cost function of the reference image (step 604).

워핑된 최적 비용 함수를 이용하여 타겟 영상 및 세미 타겟 영상에 대한 변이를 추정한다(단계 606). 타겟 영상 및 세미 타겟 영상에 대한 변이 추정 시 기준 영상에는 존재하지 않는 가려진 영역에 대한 픽셀 처리가 필요하다. 가려진 영역의 픽셀 처리에 대해서는 별도의 도면을 참조하여 상세히 설명하기로 한다. The variance for the target image and the semi target image is estimated using the warped optimal cost function (step 606). In the estimation of the variation of the target image and the semi-target image, pixel processing is required for the masked region that does not exist in the reference image. Pixel processing of the masked region will be described in detail with reference to the accompanying drawings.

II. 기준 영상의 최적 비용 함수 연산II. Calculate Optimal Cost Function of Reference Image

일반적으로, 변이 추정 시 최소한 둘 또는 그 이상의 영상이 사용된다. i-1, i, i+1번째 영상을 각각 좌, 중앙, 우 영상이라 할때 중앙 영상의 차영상은 좌(우) 영상을 오른쪽(왼쪽)으로 이동하고 차이를 구하여 계산된다. In general, at least two or more images are used to estimate the variation. When the i-1, i, i + 1th images are called left, center, and right images, the difference image of the center image is calculated by moving the left (right) image to the right (left) and obtaining a difference.

i번째 영상의 차영상 ei ,j(p,d)는 i,j번째 영상으로 다음의 수학식 2와 같이 계산된다.The difference image e i , j (p, d) of the i-th image is calculated as Equation 2 below as the i, j-th image.

Figure 112007092832432-pat00004
Figure 112007092832432-pat00004

위 수학식 2에서, p 와 d는 픽셀의 2D 위치와 변이를 나타내며, I는 화소값을 T는 정합 비용의 상한선을 나타낸다. 픽셀당 비용 함수 ei(p,d)는 ei ,i+1과 ei ,i- 1를 이용하여 중앙 영상의 점의 가시도를 고려하여 계산된다. In Equation 2, p and d represent the 2D position and variation of the pixel, I represents the pixel value, and T represents the upper limit of the matching cost. The cost-per-pixel function ei (p, d) is calculated by taking into account the visibility of the point of the center image using e i , i + 1 and e i , i- 1 .

픽셀당 비용 함수를 e(p,d)로 정의하고, 최적의 비용 함수를 E(p,d)로 정의할 때, 픽셀당 비용 함수와 최적 비용 함수는 다음의 수학식 3과 같은 관계가 있다. When the cost per pixel function is defined as e (p, d) and the optimal cost function is defined as E (p, d), the cost per pixel function and the optimal cost function have the following relationship: .

Figure 112007092832432-pat00005
Figure 112007092832432-pat00005

위 수학식 3에서 n은 노이즈를 의미한다. 이하에서는 E(p,d)는 E(p)로 표현하기로 하며, 이는 모든 변이에 대해 같은 절차가 수행되기 때문이다.In Equation 3 above, n means noise. In the following, E (p, d) is expressed as E (p), because the same procedure is performed for all the variations.

비용 함수를 구하는 방식은 본 발명자에 의해 출원된 대한민국 특허출원 제 2007-0136756호에 기재된 비용함수 연산 방법에 기초한다. The method of obtaining the cost function is based on the cost function calculation method described in Korean Patent Application No. 2007-0136756 filed by the inventor.

최적 비용 함수의 연산을 위해 에너지 함수를 설정하며, 에너지 함수를 최소화시키는 최적 비용 함수를 연산한다. We set the energy function for the calculation of the optimal cost function and compute the optimal cost function that minimizes the energy function.

다음의 수학식 4는 본 발명에서 사용되는 에너지 함수를 표현한 수학식이다. Equation 4 below is an equation representing an energy function used in the present invention.

Figure 112007092832432-pat00006
Figure 112007092832432-pat00006

위 수학식 4에서, w는 가중치 함수이며 이웃 픽셀들과의 화소값 차이에 대한 가중치를 부여한다. w는 p와 p+n 사이의 화소값의 차가 클수록 더 작은 가중치가 부여되도록 하며, 화소값의 차이가 작을수록 더 큰 가중치가 부여되도록 한다. 즉, 화소값의 차이에 반비례하는 가중치가 부여되는 것이다. In Equation 4 above, w is a weighting function and weights a pixel value difference from neighboring pixels. w causes a smaller weight to be assigned as the difference between the pixel values between p and p + n is greater, and a larger weight to be assigned as the difference between the pixel values becomes smaller. In other words, weights are inversely proportional to the difference in pixel values.

또한, 해당 픽셀과 이웃 픽셀 사이의 비용 함수 차이값이 연산되며, 이 비용함수 차이값에 전술한 가중치가 곱해진다. In addition, a cost function difference value between the pixel and the neighboring pixel is calculated, and the cost function difference value is multiplied by the aforementioned weight.

위 수학식 3에서, n 및

Figure 112007092832432-pat00007
은 서로 직교하는 2차원 벡터이다. M은 에너지 함수에서 고려되는 이웃 픽셀 집합의 사이즈를 나타낸다.In Equation 3 above, n and
Figure 112007092832432-pat00007
Are two-dimensional vectors orthogonal to each other. M represents the size of the neighboring pixel set considered in the energy function.

최적 비용 함수는 수학식 4와 같은 에너지 함수를 최소로 하는 값이며, 비용 함수를 구하기 위해 수학식 4를 1차 미분하면 다음의 수학식 5를 얻을 수 있다.  The optimal cost function is a value that minimizes an energy function as shown in Equation 4, and the following Equation 5 can be obtained by firstly differenting Equation 4 to obtain a cost function.

Figure 112007092832432-pat00008
Figure 112007092832432-pat00008

위 수학식을 단순화하기 위해 이웃 픽셀의 집합을 재정의한다. p를 (x,y)라고 할 때, 이웃 픽셀의 집합은 다음의 수학식 6과 같이 표현될 수 있다. To simplify the above equation, we redefine the set of neighboring pixels. When p is (x, y), a set of neighboring pixels can be expressed as in Equation 6 below.

Figure 112007092832432-pat00009
Figure 112007092832432-pat00009

위 수학식 6을 이용하여, 수학식 5는 다음의 수학식 7과 같이 표현될 수 있다. Using Equation 6 above, Equation 5 may be expressed as Equation 7 below.

Figure 112007092832432-pat00010
Figure 112007092832432-pat00010

위 수학식 7로부터 최적 비용 함수 E(p)를 구하기 위해 반복 계산법(Iteration)이 이용될 수 있으며, (k+1)번째 반복 계산의 해는 다음의 수학식 8과 같이 계산된다. An iteration may be used to obtain the optimal cost function E (p) from Equation 7, and the solution of the (k + 1) th iteration is calculated as in Equation 8 below.

Figure 112007092832432-pat00011
Figure 112007092832432-pat00011

위 수학식 8은 정규화된 픽셀 당 비용함수와 이웃한 픽셀들의 비용을 가중치 평균한 비용 함수로 구성되어 있다. 반복 계산을 수행함으로써 비용함수 E(p)는 주변의 이웃한 점들의 비용 함수에 의해 정규화된다. Equation 8 includes a normalized cost function per pixel and a cost function obtained by weighted averages of costs of neighboring pixels. By performing an iterative calculation, the cost function E (p) is normalized by the cost function of neighboring points.

본 발명의 일 실시예에 따르면, CIE-Lab을 이용한 비대칭적인 가우시안 가중치 함수가 사용될 수 있다. rc와 rs는 각각 컬러와 공간상의 거리에 대한 가중치 상수로 Ci가 i번째 영상에서 계산되는 컬러 거리라 하면 가중치 함수는 다음의 수학식 9와 같이 표현될 수 있다. According to an embodiment of the present invention, an asymmetric Gaussian weight function using CIE-Lab may be used. r c and r s are weight constants for the color and spatial distance, respectively. If C i is the color distance calculated in the i-th image, the weight function may be expressed as in Equation 9 below.

Figure 112007092832432-pat00012
Figure 112007092832432-pat00012

수학식 8에 의한 비용 함수의 연산을 가속화하기 위해 가우스-사이들 가속화 방식이 본 실시예에서 제안된다. A Gaussian-sider acceleration scheme is proposed in this embodiment to accelerate the computation of the cost function by equation (8).

수학식 8에 의한 반복 계산 시 연산 속도를 늦추는 가장 큰 문제점이 이미 계산된 정보가 한번의 반복 계산이 완료된 후에야 사용된다는 점이다. The biggest problem of slowing down the calculation speed in the iteration calculation by Equation 8 is that the information already calculated is used only after one iteration is completed.

이러한 문제점을 해결하기 위해 이웃한 픽셀들의 집합인 N(p)를 인과적 파트인 Nc(p)와 비인과적인 파트인 Nn(p)루 구분하여 다음의 수학식 10에 의해 연산함으로써 연산 속도를 가속화시킬 수 있다. In order to solve this problem, N (p), which is a set of neighboring pixels, is classified by Nc (p), which is a causal part, and Nn (p), which is an in causal part, and calculated by Equation 10 below. Can be accelerated.

Figure 112007092832432-pat00013
Figure 112007092832432-pat00013

보다 신뢰성 있는 최적 비용 함수를 연산하기 위해 보다 멀리 있는 픽셀의 정보를 모으는 것이 필요하다. 이는 정확한 최적 비용 함수를 추정하기 위해 상당히 많은 수의 반복 계산을 수행하여야 한다는 것을 의미한다. To compute a more reliable optimal cost function, it is necessary to gather information from farther pixels. This means that a significant number of iterations must be performed to estimate the correct optimal cost function.

반복 계산의 횟수를 줄이기 위해 가우스-사이들 가속화 방식과 함께 다해상도 접근 방식이 제안된다. In order to reduce the number of iterative calculations, a multiresolution approach is proposed along with a Gaussian-sider acceleration.

다해상도 접근 방식은 원본 이미지의 해상도에 비해 작은 해상도에서 동일한 연산을 수행하고, 연산 결과를 보다 큰 해상도에서의 연산에 이용하는 방식이다. 설명의 편이를 위해, 이하에서는 원본 이미지의 해상도를 제1 해상도라고 하고, 제 1 해상도의 1/2에 해당되는 해상도를 제2 해상도, 제2 해상도의 1/2에 해당되는 해상도를 제3 해상도로 하기로 한다. The multiresolution approach is to perform the same operation at a smaller resolution than the resolution of the original image, and to use the result of the calculation at a higher resolution. For convenience of explanation, hereinafter, the resolution of the original image is referred to as a first resolution, and the resolution corresponding to 1/2 of the first resolution is referred to as the second resolution, and the resolution corresponding to 1/2 as the second resolution is referred to as the third resolution. Let it be.

도 7은 본 발명의 일 실시예에 따른 다해상도 접근 방식의 프레임 구조를 도시한 도면이다. 7 illustrates a frame structure of a multi-resolution approach according to an embodiment of the present invention.

수학식 8에서, 일반적으로 최적의 비용 함수 E(p)는 픽셀 당 비용함수 e(p)로 초기화될 수 있다. 본 실시예에서는 저 해상도에서의 최종 연산값을 그보다 상위 해상도에서의 초기값으로 활용하는 다해상도 접근 방식을 제안하며 이는 반복 계산 시의 수렴을 가속화시킬 수 있다. In Equation 8, in general, the optimal cost function E (p) can be initialized to the cost function e (p) per pixel. This embodiment proposes a multiresolution approach that utilizes the final computed value at lower resolutions as an initial value at higher resolutions, which can accelerate convergence in iterative computations.

도 7를 참조하면, 원본 이미지의 해상도의 1/4인 제3 해상도에서 픽셀 당 비용함수 e2(d)를 연산하고, 연산된 e2(d)는 초기치로 활용되어 제3 해상도에서의 비용 함수 E2(d)가 연산된다. Referring to FIG. 7, the cost function e 2 (d) per pixel is calculated at the third resolution, which is 1/4 of the resolution of the original image, and the calculated e 2 (d) is used as an initial value to calculate the cost at the third resolution. The function E 2 (d) is calculated.

연산된 제3 해상도에서의 E2(d)는 제2 해상도에서의 초기치로 활용된다. 제2 해상도에서는 제3 해상도에서의 최종 값을 초기치로 활용하여 비용 함수 E1(d)를 연산하며, 연산된 E1(d)는 제1 해상도에서 초기치로 활용된다. The calculated E 2 (d) at the third resolution is utilized as the initial value at the second resolution. In the second resolution, the cost function E 1 (d) is calculated by using the final value at the third resolution as an initial value, and the calculated E 1 (d) is used as the initial value at the first resolution.

즉, 낮은 해상도인 제N 해상도에서 연산된 최종값은 이보다 높은 해상도인 제(N-1) 해상도의 초기치로 활용되는 것이다. 이와 같은 방식은 최종적인 원본 해상도에서의 연산량을 크게 줄일 수 있다. That is, the final value calculated at the low resolution of the Nth resolution is used as the initial value of the higher resolution of the (N-1) th resolution. This approach can greatly reduce the amount of computation at the final original resolution.

낮은 해상도에서 최종 계산된 비용 함수는 업샘플링되어 높은 해상도의 초기 치로 활용되는데, 업샘플링 시 경계 영역에서의 오류를 최소화하는 보간법이 요구된다. The final calculated cost function at low resolution is upsampled and used as a high resolution initial value, which requires interpolation to minimize errors in the boundary region during upsampling.

업샘플링 시 경계 영역에서의 오류를 전파하는 선형 보간법보다는 다음의 수학식 11에 의한 적응적 보간을 수행하는 것이 바람직하다. It is preferable to perform adaptive interpolation according to Equation 11 below, rather than linear interpolation that propagates an error in the boundary region during upsampling.

Figure 112007092832432-pat00014
Figure 112007092832432-pat00014

위 수학식 11에서, w는 가중치 함수를 의미하고 λa는 가중치 요소이며, 일례로 15로 설정될 수 있다. In Equation 11, w denotes a weighting function and λa is a weighting factor and may be set to 15, for example.

III. 가려진 영역의 픽셀에 대한 처리III. Handle to pixels in obscured areas

전술한 바와 같이, 기준 영상에 대해 연산된 최적 비용 함수는 타겟 영상 및 세미 타겟 영상에 워핑된다. 타겟 영상의 경우 두 개의 기준 영상을 이용하여 대칭적 워핑이 이루어지기 때문에 가려진 영역이 보상되며 적은 수의 홀만이 존재한다. As described above, the optimal cost function computed for the reference image is warped to the target image and the semi target image. In the target image, since the symmetric warping is performed using two reference images, the hidden region is compensated and there are only a few holes.

그러나, 세미 타겟 영상의 경우 전방 워핑 또는 후방 워핑 중 어느 하나만이 수행되는 비대칭적 워핑이 이루어지기 때문에 가려진 영역에 대한 처리가 필요하다. However, in the case of the semi-target image, since the asymmetric warping is performed in which only one of the front warping and the rear warping is performed, processing of the hidden region is required.

예를 들어, 최 좌측 시점의 영상의 경우 후방 워핑만이 수행되므로 영상의 좌측 부분에 가려진 영역이 발생한다. 본 실시예에서는 이와 같이 세미 타겟 영상의 가려진 영역에 적절한 최적 비용 함수를 할당하는 방법을 제안한다. For example, in the case of the image at the leftmost point of view, since only rear warping is performed, an area covered by the left portion of the image occurs. In this embodiment, a method for allocating an optimal cost function to the hidden region of the semi-target image is proposed.

먼저, 타겟 영상에 대한 가려진 영역 처리에 대해 설명한다. 타겟 영상에 대해서는 전방 워핑 및 후방 워핑이 모두 수행되며, 먼저 전방 워핑에 대해 설명한다. First, the masked region processing for the target image is described. For the target image, both front warping and rear warping are performed. First, front warping will be described.

우선, 기준 영상의 점들로 구성된 타겟 영상에 대한 함수 St(j)를 정의한다. St(j)는 다음의 수학식 12와 같이 정의된다. First, a function St (j) for a target image composed of points of a reference image is defined. St (j) is defined as in Equation 12 below.

Figure 112007092832432-pat00015
Figure 112007092832432-pat00015

i와 j는 기준 영상과 타겟 영상의 x좌표를 나타내며, W는 영상의 가로 크기를 의미한다. i and j represent x-coordinates of the reference image and the target image, and W represents the horizontal size of the image.

도 8 및 도9는 기준 영상과 대상 영상 사이의 전방 워핑이 이루어질 때 가려진 영역이 발생하는 경우를 도시한 도면이다. 8 and 9 are diagrams illustrating a case where an area that is hidden occurs when forward warping is performed between a reference image and a target image.

도 8을 참조하면, 기준 영상의 4번째 내지 7번째 픽셀은 타겟 영상의 픽셀에 중복 매칭된다. 이중 2개의 픽셀은 기준 영상과 타겟 영상 모두에 존재하는 영상의 픽셀이며, 2개의 픽셀은 기준 영상에만 존재하는 픽셀이다. 한편, 타겟 영상의 8번째 및 9번째 픽셀에는 기준 영상의 픽셀이 매칭되지 않으며 이는 타겟 영상에만 존재하는 영상의 픽셀이다. Referring to FIG. 8, the fourth to seventh pixels of the reference image are overlapped with the pixels of the target image. Two pixels are pixels of an image existing in both the reference image and the target image, and two pixels are pixels only in the reference image. On the other hand, the pixels of the reference image do not match to the eighth and ninth pixels of the target image, which are pixels of the image existing only in the target image.

도 8에서, 점선으로 매칭 관계가 표시된 4번째 및 5번째 픽셀이 실제로 기준 영상에만 존재하는 픽셀이며, 기준 영상의 가려진 픽셀은 도 8과 같이 일반적으로 가려지지 않은 픽셀에 비해 작은 변이를 가지고 있다. In FIG. 8, the fourth and fifth pixels marked with a dotted line actually exist only in the reference image, and the hidden pixels of the reference image have a smaller variation than the pixels that are not normally masked as shown in FIG. 8.

한편, 도 9를 참조하면, 기준 영상의 2번재 내지 5번째 픽셀은 타겟 영상의 픽셀에 중복 매칭된다. 또한, 타겟 영상의 8번째 및 9번째 픽셀에는 기준 영상의 픽셀이 매칭되지 않으며 이는 타겟 영상에만 존재하는 영상의 픽셀이다. Meanwhile, referring to FIG. 9, the second to fifth pixels of the reference image are overlapped with the pixels of the target image. In addition, pixels of the reference image do not match to the eighth and ninth pixels of the target image, which are pixels of the image existing only in the target image.

도 9에서, 점선으로 매칭 관계가 표시된 4번째 및 5번째 픽셀이 실제로 기준 영상에만 존재하는 픽셀이며, 이 경우에는 오히려 가려진 픽셀이 그렇지 않은 픽셀에 비해 큰 변이를 가지고 있다. In Fig. 9, the fourth and fifth pixels indicated by the matching relationship with dotted lines are pixels that are actually present only in the reference image, and in this case, the hidden pixels have a larger variation than the pixels that are not.

기준 영상에서 가려진 픽셀인지 또는 가려지지 않은 픽셀인지 여부를 판단하기 위해 변이에 기반한 제1 조건과 최적 비용 함수에 기반한 제2 조건이 이용된다. A first condition based on the variation and a second condition based on the optimal cost function are used to determine whether the pixel is hidden or unhidden in the reference image.

제1 조건은 가려진 픽셀이 가려지지 않은 픽셀에 비해 변이가 작다는 특징을 이용하는 것이며, 제2 조건은 가려진 픽셀이 가려지지 않은 픽셀에 비해 비용 함수가 크다는 특징을 이용하는 것이다. The first condition utilizes the feature that the shifted pixels are smaller in variation than the unhidden pixels, and the second condition utilizes the feature that the cost is greater than the hidden pixels.

중복 매칭되는 픽셀들 중 제1 조건 및 제2 조건을 모두 만족하는 픽셀이 있을 경우 이를 기준 영상의 가려진 픽셀로 판단하며 가려지지 않은 픽셀의 비용함수만이 워핑되도록 한다. If there is a pixel that satisfies both the first condition and the second condition among the overlapped matching pixels, it is determined as the hidden pixel of the reference image, and only the cost function of the unobscured pixel is warped.

그러나, 중복 매칭되는 픽셀들 중 제1 조건 및 제2 조건을 모두 만족하는 픽셀이 존재하지 않을 경우에는 기준 영상의 어떠한 픽셀 정보가 워핑되어야 할지 결정할 수 없다. However, when there are no pixels satisfying both the first condition and the second condition among the pixels that are overlapped, it may not be determined which pixel information of the reference image should be warped.

이때, 타겟 영상에서 매칭이 안되는 픽셀 및 중복 매칭되는 픽셀 모두를 가려진 후보 픽셀로 설정한다. In this case, both the non-matching pixel and the overlapping matching pixel in the target image are set as hidden candidate pixels.

예를 들어, 도 9에서, 타겟 영상의 2번째 및 3번째 픽셀과 8번째 및 9번째 픽셀은 모두 가려진 후보 픽셀로 설정된다. For example, in FIG. 9, the second and third pixels and the eighth and ninth pixels of the target image are both set as hidden candidate pixels.

타겟 영상에서는 각 픽셀 별로 가시도 함수 Ot(j)가 설정되며, 가시도 함수는 '0'또는 '1'의 값을 가진다. 타겟 영상의 가려진 픽셀 및 가려진 후보 픽셀의 가시도 함수의 값은 '0'으로 설정되며, 그 이외의 픽셀의 가시도 함수의 값은 '1'로 설정될 수 있다. In the target image, a visibility function Ot (j) is set for each pixel, and the visibility function has a value of '0' or '1'. The value of the visibility function of the hidden pixel and the hidden candidate pixel of the target image may be set to '0', and the value of the visibility function of the other pixels may be set to '1'.

타겟 영상에서 픽셀별로 가시도 함수의 값이 설정되면, 타겟 영상에서의 가시도 함수를 이용하여 기준 영상의 비용 함수는 다음의 수학식 13과 같이 워핑된다. When the value of the visibility function is set for each pixel in the target image, the cost function of the reference image is warped as shown in Equation 13 using the visibility function in the target image.

Figure 112007092832432-pat00016
Figure 112007092832432-pat00016

즉, 타겟 영상에 존재하는 픽셀의 최적 비용 함수만이 기준 영상에서 타겟 영상으로 워핑되는 것이다. That is, only the optimal cost function of the pixels present in the target image is warped from the reference image to the target image.

위 수학식 13에서, 동일한 과정이 각 라인마다 반복되기 때문에 y 좌표는 생략되었다. 후방 워핑도 전방 워핑과 유사한 방식으로 수행되며 후방 워핑에서 St(j)는 다음의 수학식 14와 같이 정의된다. In Equation 13, the y coordinate is omitted because the same process is repeated for each line. Back warping is also performed in a similar manner to front warping, and in back warping, St (j) is defined as in Equation 14 below.

Figure 112007092832432-pat00017
Figure 112007092832432-pat00017

후방 워핑은 타겟 영상의 가시도 함수 Ot(j)를 이용하여 다음의 수학식 15와 같이 수행될 수 있다. Back warping may be performed using Equation 15 below using the visibility function Ot (j) of the target image.

Figure 112007092832432-pat00018
Figure 112007092832432-pat00018

타겟 영상에 대해 전방 워핑과 후방 워핑이 모두 수행될 때, 대상 영상의 픽셀들에 전방 및 후방 워핑이 중복되어 이루어질 수 있는데, 이 경우 해당 변이에 대한 최적 비용 함수가 작은 워핑을 선택하는 것이 바람직하다. When both front and rear warping are performed on the target image, the front and rear warping may be overlapped with the pixels of the target image. In this case, it is preferable to select a warping having a small optimal cost function for the corresponding variation. .

한편, 세미 타겟 영상의 경우 전방 워핑 및 후방 워핑 중 어느 하나만이 수행되기 때문에 가려진 영역이 처리되어야 한다. 또한, 타겟 영상의 경우에도 전방 및 후방 워핑 후 홀이 발생할 수 있으며, 이러한 홀에 대한 처리가 필요하다. On the other hand, in the case of the semi-target image, since only one of the front warping and the rear warping is performed, the hidden area must be processed. In addition, in the case of the target image, holes may occur after the front and rear warping, and processing for these holes is necessary.

세미 타겟 영상의 가려진 영역 처리 및 타겟 영상의 홀 처리는 세미 타겟 영상 또는 타겟 영상의 가시도 함수 Ot를 이용하여 다음의 수학식 16을 이용하여 수행된다. The masked region processing of the semi-target image and the hole processing of the target image are performed using the following equation (16) using the semi-target image or the visibility function Ot of the target image.

Figure 112007092832432-pat00019
Figure 112007092832432-pat00019

IV. 가상 시점 영상의 합성IV. Synthesis of Virtual Viewpoint Image

본 실시예에서, 실제 영상의 텍스쳐 정보가 가상 영상으로 매핑되며, 이 과 정은 모든 실제 영상에 대해 수행된다. 도 10은 가상 시점 영상을 합성하는 과정을 도시한 도면이다. In the present embodiment, texture information of the real image is mapped to the virtual image, and this process is performed for all real images. 10 is a diagram illustrating a process of synthesizing a virtual viewpoint image.

도 10을 참조하면, (1) 역투영과 (2) 카메라의 좌표 변환 및 (3) 투영을 통해 가상 시점 영상을 합성하는 과정이 도시되어 있다.Referring to FIG. 10, a process of synthesizing a virtual viewpoint image through (1) reverse projection, (2) coordinate transformation of a camera, and (3) projection is illustrated.

도 11은 가상 시점 a에서의 가상 시점 영상 합성을 위한 가상 카메라의 이동을 도시한 도면이다. FIG. 11 is a diagram illustrating a movement of a virtual camera for synthesizing a virtual viewpoint image at the virtual viewpoint a.

가상 카메라의 회전은 합성된 영상에 많은 홀을 발생시킬 수 있는 바, 평행 이동을 본 실시예에서는 고려한다. The rotation of the virtual camera may generate many holes in the synthesized image, so the parallel movement is considered in this embodiment.

주어진 가상 시점에 대해 가장 가까운 두 영상(i번째와 (i+1)번째)이 선택되고 가상 시점에 투영된다. i번째 영상에서 변이 di를 갖는 점 mi(xi, yi)는 3D 공간상의 점 Mi로 다음의 수학식 17과 같이 변환된다. The two closest images (i th and (i + 1) th) for a given virtual viewpoint are selected and projected onto the virtual viewpoint. The point mi (x i , y i ) having the variation di in the i-th image is converted into a point M i in 3D space as shown in Equation 17 below.

Figure 112007092832432-pat00020
Figure 112007092832432-pat00020

(x0, y0)는 영상의 기저점을 의미한다. Mi를 평행 이동(Tx, Ty, Tz)을 이용하여 가상 카메라의 좌표로 변환하고, 가상 카메라의 영상 표면으로 투영하면 실제와 가상 영상에서 대응하는 점들의 관계를 계산할 수 있다. (x 0 , y 0 ) means the base point of the image. By converting Mi into coordinates of the virtual camera using parallel movements (Tx, Ty, and Tz), and projecting onto the image surface of the virtual camera, the relationship between the corresponding points in the real and virtual images can be calculated.

가상 시점의 점

Figure 112007092832432-pat00021
는 다음의 수학식 18과 같이 계산된다. Virtual point
Figure 112007092832432-pat00021
Is calculated as in Equation 18 below.

Figure 112007092832432-pat00022
Figure 112007092832432-pat00022

수식을 간단하게 하기 위해 정규화된 좌표(ax, ay, az)=( Tx, Ty, Tz)/B를 사용하며, 카메라 간의 거리는 1로 정의될 수 있다. 와 를 실제와 투영된 영상이라고 할 때, 다음의 수학식 19와 같은 관계가 성립한다. To simplify the equation, normalized coordinates (a x , a y , a z ) = (Tx, Ty, Tz) / B are used, and the distance between cameras can be defined as 1. When and are regarded as actual and projected images, the following relation is established.

Figure 112007092832432-pat00023
Figure 112007092832432-pat00023

실제 영상에서 가상 영상으로 텍스쳐 정보를 전달하는 전방 맵핑이 수행될 때, 몇가지 문제점이 발생할 수 있다. 수학식 x의 경우 일대일 맵핑이 되지 않고, 가상 시점에 다중 투영이나 홀이 발생한다. 가상 시점에 다중 투영이 발생하는 이유는 깊이 불연속과 영상 리샘플링이 있다. When forward mapping is performed to transfer texture information from an actual image to a virtual image, some problems may occur. In the case of equation (x), one-to-one mapping is not performed, and multiple projections or holes occur at the virtual viewpoint. The reason for multiple projections at the virtual point of view is depth discontinuity and image resampling.

깊이 불연속 지점에 존재하는 점들은 그들이 다른 변이를 가지고 있음에도 불구하고 가상 시점에서 동일한 점에 투영된다. 이 경우 카메라로부터 가까운 거리에 있는 점이 나머지 점들을 감싸기 때문에 투영된 점들 중 가장 큰 변이를 갖는 점만을 보존한다. Points that exist at depth discontinuities are projected to the same point in the virtual view even though they have different variations. In this case, only the point with the largest shift among the projected points is preserved because the point close to the camera wraps the remaining points.

다른 문제는 영상의 리샘플링에 의해 발생하는데, 가상 시점 재생 시 물체의 크기가 변할 때, 같은 변이를 갖는 점들에 대해서도 다중 투영과 홀이 발생할 수 있다. 특히, 가상 시점의 점

Figure 112007092832432-pat00024
는 정수 단위가 아닐 수도 있다. 이러한 문제점을 해결하기 위해 가상 시점 합성 시 가상 영상에서 실사 영상으로 투영하는 역방향 맵핑과 선형 보간법이 이용될 수 있다. Another problem is caused by the resampling of the image. When the size of the object changes during the virtual view reproduction, multiple projections and holes may occur even for points having the same variation. In particular, the point of the virtual view
Figure 112007092832432-pat00024
May not be an integer unit. In order to solve this problem, reverse mapping and linear interpolation, which project from a virtual image to a real image, may be used in synthesizing a virtual view.

역방향 맵핑은 영상 리샘플링에서 발생할 수 있는 화질의 저하를 막아준다. 가상 카메라는 좌,우, 전방, 후방을 포함하여 x와 z축으로 움직인다. 가상 시점에 홀을 발생시킬 수 있기 때문에 y축으로의 움직임은 제한되는 것이 바람직하다. Reverse mapping prevents degradation of image quality that may occur in image resampling. The virtual camera moves along the x and z axes, including left, right, front and back. Since the hole can be generated at the virtual point of view, the movement on the y axis is preferably limited.

Figure 112007092832432-pat00025
는 가상 카메라의 실제 위치를 의미한다. V(p)를 가상 시점의 점이 실제 영상에서 보이는지 여부를 판별하는 가시 함수라고 할 때, 가상 시점은 투영된 영상의 내삽을 통해 다음의 수학식 20과 같이 연산된다.
Figure 112007092832432-pat00025
Means the actual position of the virtual camera. When V (p) is a visual function for determining whether a point of the virtual view is visible in the real image, the virtual view is calculated as shown in Equation 20 through interpolation of the projected image.

Figure 112007092832432-pat00026
Figure 112007092832432-pat00026

V. 3차원 가상 시점 영상의 생성V. Generation of 3D Virtual View Image

본 발명에서는 가상 시점에 상응하는 3차원 영상을 생성하는 방법을 제안한다. 본 발명의 바람직한 실시예에 따르면, 가상 시점이 주어질 경우 가상 시점과 연관된 두 개 이상의 시점에 대한 2차원 영상을 합성하여 가상 시점에 상응하는 3차원 영상을 생성할 수 있다. The present invention proposes a method of generating a 3D image corresponding to a virtual viewpoint. According to a preferred embodiment of the present invention, when a virtual viewpoint is given, a two-dimensional image of two or more viewpoints associated with the virtual viewpoint may be synthesized to generate a three-dimensional image corresponding to the virtual viewpoint.

도 11에는 시점 a에서의 가상 시점 영상을 위한 카메라의 이동과 함께 a, b 두 개의 가상 시점 영상을 이용하여 가상 시점에 상응하는 3차원 영상을 생성하는 경우가 도시되어 있다. FIG. 11 illustrates a case where a 3D image corresponding to a virtual viewpoint is generated using two virtual viewpoint images a and b together with the movement of the camera for the virtual viewpoint image at the viewpoint a.

도 11에서, a는 사용자에 의해 지정된 가상 시점이다. 가상 시점이 지정될 경우 지정된 시점에서의 2D 영상 및 지정된 시점에 비해 소정 거리 이동된 시점인 b에서의 2D 영상을 합성한다. In FIG. 11, a is a virtual viewpoint designated by the user. When the virtual view is designated, the 2D image at the specified view and the 2D image at b, which is a view moved by a predetermined distance from the specified view, are synthesized.

이때, 두 개의 시점간의 거리는 Bs로 도시되어 있으며, Bs의 길이는 당업자에 의해 선택될 수 있다. At this time, the distance between the two viewpoints is shown as Bs, the length of Bs can be selected by those skilled in the art.

즉, 지정된 가상 시점인 a에서 제1 2차원 영상을 합성하고, 시점 a에서 Bs만큼 이동된 시점 b 제2 2차원 영상을 합성한다. 이와 같은 2차원 영상을 스테레오 영상으로 하여 3차원 영상을 합성함으로써 가상 시점에 대한 3차원 영상의 합성이 가능하다. That is, a first two-dimensional image is synthesized at a designated virtual viewpoint a, and a view b second two-dimensional image moved by Bs from the viewpoint a is synthesized. By synthesizing the 3D image using the 2D image as the stereo image, the 3D image may be synthesized with respect to the virtual viewpoint.

도 11에는 사용자가 지정한 가상 시점에서의 2차원 영상 및 상기 지정된 가상 시점에서 소정 거리 이동된 시점에서의 2차원 영상을 이용하여 3차원 영상을 합성하는 경우가 도시되어 있으나, 이는 다양한 방식으로 변형 가능하다. FIG. 11 illustrates a case in which a 3D image is synthesized using a 2D image at a virtual view designated by a user and a 2D image at a time shifted by a predetermined distance from the designated virtual view, but it may be modified in various ways. Do.

예를 들어, 사용자가 지정한 가상 시점에서 소정 거리 오른쪽으로 이동된 시점 및 소정 거리 왼쪽으로 이동된 시점에서의 2차원 영상을 각각 합성하여 3차원 영상을 합성할 수도 있을 것이다. For example, the 3D image may be synthesized by synthesizing the 2D image from the viewpoint moved to the right of the predetermined distance and the view moved to the left of the predetermined distance from the virtual viewpoint designated by the user.

또 다른 예로 두 개의 2차원 영상이 아닌 이보다 많은 수의 2차원 영상을 획득하여 3차원 영상을 획득할 수도 있을 것이다. As another example, three-dimensional images may be obtained by acquiring a larger number of two-dimensional images rather than two two-dimensional images.

즉, 본 발명의 사상에 따르면, 지정된 가상 시점과 연관된 복수 시점에서의 2차원 영상을 획득하여 3차원 영상의 합성이 가능한 것이다. That is, according to the spirit of the present invention, a 3D image may be synthesized by obtaining a 2D image from a plurality of viewpoints associated with a designated virtual view.

본 발명의 일 실시예에 따르면, 양질의 3차원 영상 합성을 위해 시프트 센서 방식이 이용될 수 있다. 도 12는 시프트 센서 방식의 일례를 나타낸 도면이다. According to an embodiment of the present invention, a shift sensor scheme may be used for high quality 3D image synthesis. 12 is a diagram illustrating an example of a shift sensor method.

제로 시차 설정(Zero Parallax Setting, ZPS)을 하기 위해 가상 카메라의 센서가 렌즈의 위치에 대해 h만큼 평행하게 이동된다. 이는 3차원 장면이 디스플레이 장치에서 재연될 때 수렴 거리 Zc를 선택할 수 있도록 해준다. 센서의 시프팅은 카메라의 기저점의 이동을 통해 계산된다. 기저점의 수평 이동을 h라 정의할 때, 가상 시점의 점은 다음의 수학식 21에 의해 연산된다. 여기서 는 이동된 우,좌 영상을 의미한다. In order to do zero parallax setting (ZPS), the sensor of the virtual camera is moved by h parallel to the position of the lens. This allows the convergence distance Zc to be selected when the three-dimensional scene is reproduced on the display device. The shifting of the sensor is calculated through the movement of the camera's base point. When the horizontal movement of the base point is defined as h, the point of the virtual view point is calculated by the following equation (21). Here, the moved right and left images.

Figure 112007092832432-pat00027
Figure 112007092832432-pat00027

도 1은 본 발명의 일 실시예에 따른 자유 시점 영상 재생을 위한 가상 시점 합성 방법의 전체적인 흐름을 도시한 도면.1 is a view showing the overall flow of a virtual view synthesis method for free view image playback according to an embodiment of the present invention.

도 2는 종래의 N-시점 & N-깊이 구조를 설명하기 위한 도면.2 is a view for explaining a conventional N-view & N-depth structure.

도 3은 인접한 다른 시점에서 획득된 두 개의 영상 및 각 영상의 깊이 지도를 도시한 도면.3 is a diagram illustrating two images acquired at different adjacent viewpoints and a depth map of each image.

도 4는 본 발명의 일 실시예에 따른 세미 N-시점 & N-깊이 구조를 도시한 도면.4 illustrates a semi-N-view & N-depth structure in accordance with an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 N이 짝수일 경우에 기준 영상, 타겟 영상 및 세미 타겟 영상을 설정한 예를 도시한 도면.5 is a diagram illustrating an example of setting a reference image, a target image, and a semi-target image when N is an even number according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 세미 N-시점 & N-깊이 방식을 이용한 변이 추정 과정을 도시한 순서도.FIG. 6 is a flowchart illustrating a process of estimating a variation using a semi-N-view & N-depth method according to an embodiment of the present invention. FIG.

도 7은 본 발명의 일 실시예에 따른 다해상도 접근 방식의 프레임 구조를 도시한 도면.7 illustrates a frame structure of a multi-resolution approach according to an embodiment of the present invention.

도 8 및 도9는 기준 영상과 대상 영상 사이의 전방 워핑이 이루어질 때 가려진 영역이 발생하는 경우를 도시한 도면.8 and 9 are diagrams illustrating a case where an area that is hidden occurs when forward warping is performed between a reference image and a target image.

도 10은 가상 시점 영상을 합성하는 과정을 도시한 도면.10 is a diagram illustrating a process of synthesizing a virtual viewpoint image.

도 11은 가상 시점 a에서의 가상 시점 영상 합성을 위한 가상 카메라의 이동을 도시한 도면.11 is a diagram illustrating a movement of a virtual camera for synthesizing a virtual viewpoint image at the virtual viewpoint a.

Claims (26)

가상 시점에서의 영상 합성을 위한 변이 추정 방법으로서,A variation estimation method for image synthesis at a virtual viewpoint, N개의 시점에 상응하는 N 개의 영상을 획득하는 단계(a);Acquiring N images corresponding to N viewpoints (a); N 개의 영상 중 선택된 일부의 기준 영상들에 대해 변이를 추정하는 단계(b);Estimating the disparity with respect to selected reference images of the N images; N 개의 영상 중 기준 영상 이외의 영상들에 대해 상기 기준 영상의 변이 관련 정보를 워핑하는 단계(c);Warping the variation related information of the reference image with respect to images other than the reference image among N images; 상기 워핑된 변이 관련 정보를 이용하여 기준 영상 이외의 영상들에 대한 변이를 추정하는 단계(d)를 포함하는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. And estimating a disparity for images other than a reference image by using the warped disparity-related information. 제1항에 있어서, The method of claim 1, 상기 기준 영상의 변이를 추정하는 단계(b)는,Estimating the variation of the reference image (b), 기준 영상의 픽셀 당 비용 함수를 연산하는 단계;Calculating a cost per pixel function of the reference image; 상기 픽셀 당 비용 함수를 이용하여 에너지 함수를 설정하는 단계; Setting an energy function using the cost per pixel function; 상기 에너지 함수를 최소로 하는 최적 비용 함수를 연산하는 단계; 및Computing an optimal cost function that minimizes the energy function; And 상기 최적 비용 함수를 이용한 최적화 과정에 의해 변이를 추정하는 단계를 포함하는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. And estimating a disparity by an optimization process using the optimal cost function. 제1 항에 있어서,According to claim 1, 상기 기준 영상 이외의 영상은 타겟 영상 및 세미 타겟 영상으로 구분되는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. And an image other than the reference image is divided into a target image and a semi-target image. 제3항에 있어서,The method of claim 3, 상기 세미 타겟 영상은 N 개의 영상 중 최좌측 영상 및 최우측 영상이며, 상기 기준 영상은 세미 타겟 영상을 제외한 영상들 중 서로 인접하지 않도록 선택되는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. The semi-target image is the leftmost image and the rightmost image among N images, and the reference image is selected so as not to be adjacent to each other among images except the semi-target image. Way. 제3항에 있어서,The method of claim 3, 상기 변이 관련 정보는 상기 기준 영상의 최적 비용 함수인 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. And the disparity related information is a function of an optimal cost of the reference image. 제5항에 있어서,The method of claim 5, 상기 타겟 영상에 대해서는 인접한 기준 영상들의 최적 비용 함수에 대한 전방 워핑 및 후방 워핑이 수행되며, 상기 세미 타겟 영상에 대해서는 인접한 기준 영상의 최적 비용 함수에 대한 전방 워핑 또는 후방 워핑이 수행되는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. The front and rear warping of the optimal cost function of adjacent reference images is performed on the target image, and the front or rear warping of the optimal cost function of the adjacent reference image is performed on the target image. Disparity estimation method for image synthesis from virtual viewpoint. 제3항에 있어서, The method of claim 3, 상기 타겟 영상으로의 기준 영상의 최적 비용 함수 워핑 시,When warping the optimal cost function of the reference image to the target image, 제1 기준 영상의 가려진 픽셀 및 상기 타겟 영상의 가려진 픽셀을 검출하는 단계(e);(E) detecting the hidden pixels of the first reference image and the hidden pixels of the target image; 타겟 영상의 가려진 픽셀들에 대해 미리 설정된 가시도 함수 값을 설정하는 단계(f);Setting (f) a preset visibility function value for occluded pixels of a target image; 상기 가시도 함수 값을 이용하여 상기 제1 기준 영상의 최적 비용 함수를 워핑하는 단계(g); 및(G) warping an optimal cost function of the first reference image using the visibility function value; And 제2 기준 영상 및 상기 타겟 영상에 대해 상기 단계 (e) ~ (f)를 반복하는 단계를 더 포함하는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. And repeating steps (e) to (f) with respect to the second reference image and the target image. 제7항에 있어서, The method of claim 7, wherein 상기 제1 기준 영상과 상기 타겟 영상의 픽셀 매칭 시 매칭이 이루어지지 않는 픽셀을 타겟 영상의 가려진 픽셀로 설정하는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. The method of estimating disparity for image synthesis at the virtual view, characterized in that for matching the pixel between the first reference image and the target image, a pixel that is not matched is set as a hidden pixel of the target image. 제8항에 있어서,The method of claim 8, 상기 제1 기준 영상과 상기 타겟 영상의 픽셀 매칭 시 중복 매칭이 이루어지는 픽셀이 존재할 경우, 변이에 기반한 제1 조건 및 최적 비용 함수에 기반한 제2 조건을 모두 만족하는 픽셀이 존재할 경우 해당 픽셀을 제1 기준 영상의 가려진 픽 셀로 설정하며,When there is a pixel that overlaps the pixel matching between the first reference image and the target image, when there is a pixel that satisfies both the first condition based on the variation and the second condition based on the optimal cost function, the pixel is selected as the first pixel. Set to the hidden pixels of the reference image. 상기 제1 조건 및 제2 조건을 모두 만족하는 픽셀이 존재하지 않는 경우, 중복으로 매칭되는 타겟 영상의 픽셀 및 상기 매칭이 이루어지지 않는 타겟 영상의 픽셀 모두를 가려진 후보 픽셀로 설정하는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. If there are no pixels satisfying both the first condition and the second condition, both the pixels of the target image which are matched in duplicate and the pixels of the target image which do not match are set as the candidate candidate masks. Disparity estimation method for image synthesis from virtual viewpoint. 제9항에 있어서,The method of claim 9, 상기 가시도 함수는 '1'또는 '0'의 값으로 설정되고, 상기 타겟 영상의 가려진 픽셀 및 상기 타겟 영상의 가려진 후보 픽셀에는 '0'이 할당되어 다음의 수학식에 의해 제1 기준 영상의 최적 비용 함수가 상기 타겟 영상에 전방 워핑되는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. The visibility function is set to a value of '1' or '0', '0' is assigned to the masked pixel of the target image and the masked candidate pixel of the target image, so that the following reference equation And an optimal cost function is forward warped to the target image.
Figure 112009037407015-pat00028
Figure 112009037407015-pat00028
상기 수학식에서, E는 최적 비용 함수이고 d는 변위이고, i는 제1 기준 영상의 x좌표이며, O는 가시도 함수이고, 아래첨자 t는 타겟 형상을 의미하고, 아래첨자 r은 기준 영상을 의미함. In the above equation, E is the optimal cost function, d is the displacement, i is the x-coordinate of the first reference image, O is the visibility function, subscript t means the target shape, and subscript r indicates the reference image. Meaning.
제3항에 있어서,The method of claim 3, 상기 세미 타겟 영상으로의 기준 영상의 최적 비용 함수 워핑 시,When warping the optimal cost function of the reference image to the semi-target image, 상기 세미 타겟 영상과 인접한 기준 영상의 가려진 픽셀 및 상기 타겟 영상의 가려진 픽셀을 검출하는 단계;Detecting a masked pixel of the reference image adjacent to the semi-target image and a masked pixel of the target image; 상기 세미 타겟 영상의 가려진 픽셀들에 대해 미리 설정된 가시도 함수 값을 설정하는 단계; 및Setting a preset visibility function value for occluded pixels of the semi-target image; And 상기 가시도 함수 값을 이용하여 다음의 수학식에 의해 상기 세미 타겟 영상의 가려진 픽셀의 최적 비용 함수를 설정하는 단계를 포함하는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법.And setting an optimal cost function of the occluded pixels of the semi-target image by the following equation using the visibility function value.
Figure 112009037407015-pat00029
Figure 112009037407015-pat00029
상기 수학식에서, O는 가시도 함수이고, E는 최적 비용 함수이며, w는 가중치 함수이고, λ는 가중치 상수이며, p는 픽셀 좌표, m은 시그마 연산을 위해 설정한 임시 변수, N(p)는 이웃 픽셀의 집합, Nc(p)는 이웃 픽셀의 집합 중 인과적 파트, Nn(p)는 이웃 픽셀의 집합 중 비인과적 파트, 위첨자 k+1은 반복 연산에서 k+1번째를 의미하고, 윗첨자 k는 반복 연산에서 k번째를 의미하며, 아래첨자 t는 세미 타겟 영상을 의미함. In the above equation, O is a visibility function, E is an optimal cost function, w is a weight function, λ is a weight constant, p is a pixel coordinate, m is a temporary variable set for sigma operation, N (p) Is the set of neighboring pixels, N c (p) is the causal part of the set of neighboring pixels, N n (p) is the non-causal part of the set of neighboring pixels, and the superscript k + 1 means k + 1 th in the iterative operation And the superscript k means the kth in the iterative operation, and the subscript t means the semi-target image.
제11항에 있어서,The method of claim 11, 상기 세미 타겟 영상과 상기 세미 타겟 영상과 인접한 기준 영상의 픽셀 매칭 시 매칭이 이루어지지 않는 픽셀을 세미 타겟 영상의 가려진 픽셀로 설정하는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. The method of estimating disparity for image synthesis in a virtual view according to claim 11, wherein the pixel that is not matched when the pixel is matched between the semi-target image and the reference image adjacent to the semi-target image is set as a hidden pixel of the semi-target image. 제12항에 있어서,The method of claim 12, 상기 세미 타겟 영상과 상기 세미 타겟 영상에 인접한 기준 영상과의 픽셀 매칭 시 중복 매칭이 이루어지는 픽셀이 존재할 경우, 변이에 기반한 제1 조건 및 최적 비용 함수에 기반한 제2 조건을 모두 만족하는 픽셀이 존재할 경우 해당 픽셀을 기준 영상의 가려진 픽셀로 설정하며,When there is a pixel where overlapping matching occurs when pixel matching between the semi-target image and the reference image adjacent to the semi-target image, when there is a pixel that satisfies both the first condition based on the variation and the second condition based on the optimal cost function Set that pixel as the hidden pixel of the base image. 상기 제1 조건 및 제2 조건을 모두 만족하는 픽셀이 존재하지 않는 경우, 중복으로 매칭되는 세미 타겟 영상의 픽셀 및 상기 매칭이 이루어지지 않는 세미 타겟 영상의 픽셀 모두를 가려진 후보 픽셀로 설정하는 것을 특징으로 하는 가상 시점에서의 영상 합성을 위한 변이 추정 방법. If there are no pixels satisfying both the first condition and the second condition, all of the pixels of the semi-target image that are matched repeatedly and the pixels of the semi-target image that do not match are set as the candidate candidate masks. Disparity estimation method for image synthesis in a virtual view. N개의 시점에 상응하는 N 개의 영상을 획득하는 단계(a);Acquiring N images corresponding to N viewpoints (a); N 개의 영상 중 선택된 일부의 기준 영상들에 대해 변이를 추정하는 단계(b);Estimating the disparity with respect to selected reference images of the N images; N 개의 영상 중 기준 영상 이외의 영상들에 대해 상기 기준 영상의 변이 관련 정보를 워핑하는 단계(c);Warping the variation related information of the reference image with respect to images other than the reference image among N images; 상기 워핑된 변이 관련 정보를 이용하여 기준 영상 이외의 영상들에 대한 변이를 추정하는 단계(d);Estimating a disparity for images other than a reference image using the warped disparity related information; 상기 N 개 시점 영상들의 추정된 변이 정보를 이용하여 실제 영상에 있는 모든 점을 3D 공간으로 역투영하는 단계(e);(E) projecting all points in the real image into 3D space by using the estimated disparity information of the N viewpoint images; 상기 실제 영상의 좌표를 임의의 가상 시점 영상 좌표로 변환하는 단계(f); 및Converting the coordinates of the real image into arbitrary virtual viewpoint image coordinates (f); And 상기 가상 시점 영상의 2차원 평면으로 3차원 좌표를 투영하는 단계(g)를 포함하는 것을 특징으로 하는 가상 시점에서의 영상 합성 방법. And (g) projecting three-dimensional coordinates onto a two-dimensional plane of the virtual viewpoint image. 제14항에 있어서,The method of claim 14, 상기 기준 영상 이외의 영상은 타겟 영상 및 세미 타겟 영상으로 구분되는 것을 특징으로 하는 가상 시점에서의 영상 합성 방법. Images other than the reference image are divided into target images and semi-target images. 제15항에 있어서,The method of claim 15, 상기 세미 타겟 영상은 N 개의 영상 중 최좌측 영상 및 최우측 영상이며, 상기 기준 영상은 세미 타겟 영상을 제외한 영상들 중 서로 인접하지 않도록 선택되는 것을 특징으로 하는 가상 시점에서의 영상 합성 방법. The semi-target image is the leftmost image and the rightmost image among the N images, and the reference image is selected so as not to be adjacent to each other among the images except the semi-target image. 제16항에 있어서,The method of claim 16, 상기 변이 관련 정보는 상기 기준 영상의 최적 비용 함수인 것을 특징으로 하는 가상 시점에서의 영상 합성 방법. And the variation related information is a function of an optimal cost of the reference image. 제17항에 있어서,The method of claim 17, 상기 타겟 영상에 대해서는 인접한 기준 영상들의 최적 비용 함수에 대한 전방 워핑 및 후방 워핑이 수행되며, 상기 세미 타겟 영상에 대해서는 인접한 기준 영상의 최적 비용 함수에 대한 전방 워핑 또는 후방 워핑이 수행되는 것을 특징으로 하는 가상 시점에서의 영상 합성 방법. The front and rear warping of the optimal cost function of adjacent reference images is performed on the target image, and the front or rear warping of the optimal cost function of the adjacent reference image is performed on the target image. Image Synthesis in Virtual View. N개의 시점에 상응하는 N 개의 영상을 획득하는 단계(a);Acquiring N images corresponding to N viewpoints (a); 상기 N 개의 영상에 대한 변이 정보를 추정하는 단계(b);Estimating disparity information for the N images; 임의의 가상 시점이 지정될 경우, 상기 임의의 가상 시점과 연관된 제1 시점에 상응하는 제1 2차원영상 및 상기 제1 시점과는 상이하며 상기 임의의 가상 시점과 연관된 제2 시점에 상응하는 제2 2차원 영상을 상기 획득한 영상의 변이 정보를 이용하여 합성하는 단계(c);If an arbitrary virtual viewpoint is specified, a first two-dimensional image corresponding to a first viewpoint associated with the arbitrary virtual viewpoint and a second viewpoint different from the first viewpoint and corresponding to the second virtual viewpoint (C) synthesizing a two-dimensional 2D image using the obtained disparity information of the image; 상기 제1 2차원 영상 및 상기 제2 2차원 영상을 이용하여 3차원 영상을 합성하는 단계(d)를 포함하되,Comprising a step (d) of synthesizing a three-dimensional image by using the first two-dimensional image and the second two-dimensional image, 상기 임의의 가상 시점과 연관된 제1 시점 및 제2 시점은 상기 임의의 가상 시점이거나 상기 임의의 가상 시점으로부터 소정 거리 이동된 시점인 것을 특징으로 하는 임의의 가상 시점에서의 3차원 영상 합성 방법. The first viewpoint and the second viewpoint associated with the arbitrary virtual viewpoint are views of the arbitrary virtual viewpoint or a predetermined distance shifted from the arbitrary virtual viewpoint. 삭제delete 제19항에 있어서,The method of claim 19, 상기 임의의 가상 시점과 연관된 적어도 둘 이상의 시점은,At least two or more viewpoints associated with the arbitrary virtual viewpoint are: 임의의 가상 시점에서 소정 거리 왼쪽으로 이동된 시점 및 임의의 가상 시점에서 소정 거리 오른쪽으로 이동된 시점을 포함하는 것을 특징으로 하는 임의의 가상 시점에서의 3차원 영상 합성 방법. And a viewpoint moved to the left of the predetermined distance from an arbitrary virtual viewpoint and a viewpoint moved to the right of the predetermined distance from the arbitrary virtual viewpoint. 제19항에 있어서,The method of claim 19, 상기 단계(b)는,Step (b) is, N 개의 영상 중 선택된 일부의 기준 영상들에 대해 변이를 추정하는 단계;Estimating the variation with respect to the selected partial reference images of the N images; N 개의 영상 중 기준 영상 이외의 영상들에 대해 상기 기준 영상의 변이 관련 정보를 워핑하는 단계;Warping the variation-related information of the reference image with respect to images other than the reference image among N images; 상기 워핑된 변이 관련 정보를 이용하여 기준 영상 이외의 영상들에 대한 변이를 추정하는 단계를 포함하는 것을 특징으로 하는 임의의 가상 시점에서의 3차원 영상 합성 방법. Estimating variation for images other than a reference image by using the warped variation-related information. 제22항에 있어서,The method of claim 22, 상기 기준 영상 이외의 영상은 타겟 영상 및 세미 타겟 영상으로 구분되는 것을 특징으로 하는 임의의 가상 시점에서의 3차원 영상 합성 방법. And images other than the reference image are divided into target images and semi-target images. 제23항에 있어서,The method of claim 23, wherein 상기 세미 타겟 영상은 N 개의 영상 중 최좌측 영상 및 최우측 영상이며, 상기 기준 영상은 세미 타겟 영상을 제외한 영상들 중 서로 인접하지 않도록 선택되는 것을 특징으로 하는 가상 시점에서의 3차원 영상 합성 방법. The semi-target image is the leftmost image and the rightmost image among N images, and the reference image is selected so as not to be adjacent to each other among the images except the semi-target image. 제24항에 있어서,The method of claim 24, 상기 변이 관련 정보는 상기 기준 영상의 최적 비용 함수인 것을 특징으로 하는 가상 시점에서의 3차원 영상 합성 방법. And the variation related information is a function of an optimal cost of the reference image. 제25항에 있어서,The method of claim 25, 상기 타겟 영상에 대해서는 인접한 기준 영상들의 최적 비용 함수에 대한 전방 워핑 및 후방 워핑이 수행되며, 상기 세미 타겟 영상에 대해서는 인접한 기준 영상의 최적 비용 함수에 대한 전방 워핑 또는 후방 워핑이 수행되는 것을 특징으로 하는 가상 시점에서의 3차원 영상 합성 방법. The front and rear warping of the optimal cost function of adjacent reference images is performed on the target image, and the front or rear warping of the optimal cost function of the adjacent reference image is performed on the target image. 3D image synthesis method in virtual view.
KR1020070136804A 2007-12-24 2007-12-24 Method for Rendering Virtual View for 2D/3D Free View Video Generation KR100924716B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070136804A KR100924716B1 (en) 2007-12-24 2007-12-24 Method for Rendering Virtual View for 2D/3D Free View Video Generation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070136804A KR100924716B1 (en) 2007-12-24 2007-12-24 Method for Rendering Virtual View for 2D/3D Free View Video Generation

Publications (2)

Publication Number Publication Date
KR20090068980A KR20090068980A (en) 2009-06-29
KR100924716B1 true KR100924716B1 (en) 2009-11-04

Family

ID=40996299

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070136804A KR100924716B1 (en) 2007-12-24 2007-12-24 Method for Rendering Virtual View for 2D/3D Free View Video Generation

Country Status (1)

Country Link
KR (1) KR100924716B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017188714A1 (en) * 2016-04-26 2017-11-02 엘지전자 주식회사 Method for transmitting 360-degree video, method for receiving 360-degree video, apparatus for transmitting 360-degree video, apparatus for receiving 360-degree video

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130033586A1 (en) * 2010-04-21 2013-02-07 Samir Hulyalkar System, Method and Apparatus for Generation, Transmission and Display of 3D Content
KR101666019B1 (en) 2010-08-03 2016-10-14 삼성전자주식회사 Apparatus and method for generating extrapolated view
WO2012026768A2 (en) 2010-08-27 2012-03-01 Samsung Electronics Co., Ltd. Rendering apparatus and method for generating multi-views
WO2012096530A2 (en) 2011-01-13 2012-07-19 Samsung Electronics Co., Ltd. Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
KR101882421B1 (en) * 2012-02-27 2018-07-26 삼성전자주식회사 Apparatus and method for estimation disparity using visibility energy model
KR101331225B1 (en) * 2012-05-17 2013-11-19 동국대학교 산학협력단 Appartus and method for determining malignant melanoma
KR102039741B1 (en) * 2013-02-15 2019-11-01 한국전자통신연구원 Method and apparatus for image warping
KR102196032B1 (en) 2019-10-21 2020-12-29 한국과학기술원 Novel view synthesis method based on multiple 360 images for 6-dof virtual reality and the system thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070009899A (en) * 2005-07-14 2007-01-19 학교법인연세대학교 Apparatus and method for 3-dimensional modeling using multiple stereo cameras

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070009899A (en) * 2005-07-14 2007-01-19 학교법인연세대학교 Apparatus and method for 3-dimensional modeling using multiple stereo cameras

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
논문1 : 한국방송공학회
논문2 : 한국통신학회
논문3 : 한국통신학회

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017188714A1 (en) * 2016-04-26 2017-11-02 엘지전자 주식회사 Method for transmitting 360-degree video, method for receiving 360-degree video, apparatus for transmitting 360-degree video, apparatus for receiving 360-degree video

Also Published As

Publication number Publication date
KR20090068980A (en) 2009-06-29

Similar Documents

Publication Publication Date Title
KR100924716B1 (en) Method for Rendering Virtual View for 2D/3D Free View Video Generation
EP0928460B1 (en) Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
EP2064675B1 (en) Method for determining a depth map from images, device for determining a depth map
US9041819B2 (en) Method for stabilizing a digital video
CN107430782B (en) Method for full parallax compressed light field synthesis using depth information
US5917937A (en) Method for performing stereo matching to recover depths, colors and opacities of surface elements
US8611642B2 (en) Forming a steroscopic image using range map
EP2291825B1 (en) System and method for depth extraction of images with forward and backward depth prediction
US20130127988A1 (en) Modifying the viewpoint of a digital image
Tsai et al. Dense disparity estimation with a divide-and-conquer disparity space image technique
US20130129192A1 (en) Range map determination for a video frame
US9165401B1 (en) Multi-perspective stereoscopy from light fields
Lipski et al. Correspondence and depth-image based rendering a hybrid approach for free-viewpoint video
FR2724033A1 (en) METHOD FOR GENERATING SYNTHESIS IMAGE
Pearson et al. Plenoptic layer-based modeling for image based rendering
KR100897542B1 (en) Method and Device for Rectifying Image in Synthesizing Arbitary View Image
US8577202B2 (en) Method for processing a video data set
Min et al. 2D/3D freeview video generation for 3DTV system
EP1997072B1 (en) Method for determining a depth map from images, device for determining a depth map
KR100335617B1 (en) Method for synthesizing three-dimensional image
Knorr et al. Stereoscopic 3D from 2D video with super-resolution capability
Fukushima et al. Free viewpoint image generation using MultiPass dynamic programming
JP2001291116A (en) Device and method for generating three-dimensional image and program providing medium
Knorr et al. From 2D-to stereo-to multi-view video
KR100655465B1 (en) Method for real-time intermediate scene interpolation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120904

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130823

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140808

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160105

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20161024

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20171023

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20191216

Year of fee payment: 11