KR20080059883A - Intermediate view reconstruction method in stereo image - Google Patents

Intermediate view reconstruction method in stereo image Download PDF

Info

Publication number
KR20080059883A
KR20080059883A KR1020060133769A KR20060133769A KR20080059883A KR 20080059883 A KR20080059883 A KR 20080059883A KR 1020060133769 A KR1020060133769 A KR 1020060133769A KR 20060133769 A KR20060133769 A KR 20060133769A KR 20080059883 A KR20080059883 A KR 20080059883A
Authority
KR
South Korea
Prior art keywords
image
region
view image
equation
synthesizing
Prior art date
Application number
KR1020060133769A
Other languages
Korean (ko)
Other versions
KR101269302B1 (en
Inventor
이건일
안상준
김수현
박선영
윤주현
한영섭
최광철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060133769A priority Critical patent/KR101269302B1/en
Publication of KR20080059883A publication Critical patent/KR20080059883A/en
Application granted granted Critical
Publication of KR101269302B1 publication Critical patent/KR101269302B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Abstract

An IVR(Intermediate View Reconstruction) method in a stereo image is provided to process an occlusion region when reconstructing the intermediate view image effectively by using the IVR method to improve the quality of a reconstructed intermediate image. A motion predicting unit(100) obtains motion information by using a left view image and a right view image. A frame differential information generating unit(102) generates differential information about the left view image and the right view image. A region dividing unit(104) divides an image into four regions by using the motion information predicted in the motion predicting unit and the differential image information generated in the frame differential image generating unit. The four regions are divided into a stationary region, a moving region, an uncovered region, and a covered region.

Description

스테레오 영상에서 중간시점영상 합성 방법{INTERMEDIATE VIEW RECONSTRUCTION METHOD IN STEREO IMAGE}Intermediate viewpoint image synthesis method from stereo image {INTERMEDIATE VIEW RECONSTRUCTION METHOD IN STEREO IMAGE}

도 1은 본 발명의 실시 예에 따라 입력되는 좌시점 영상과 우시점 영상에 대하여 중간시점영상을 합성하기 위한 시스템의 내부 구성도,1 is an internal configuration diagram of a system for synthesizing an intermediate view image with respect to an input left view image and a right view image according to an embodiment of the present invention;

도 2는 본 발명의 실시 예에 따라 스테레오 영상에서 중간시점영상 합성 시 블록킹 현상을 방지하기 과정을 도시하는 흐름도,2 is a flowchart illustrating a process of preventing a blocking phenomenon when synthesizing an intermediate view image in a stereo image according to an embodiment of the present invention;

도 3은 본 발명의 실시 예에 따라 4개의 영역을 설명하기 위한 좌, 우시점 영상을 도시하는 예시도,3 is an exemplary diagram illustrating left and right view images for explaining four areas according to an embodiment of the present invention;

도 4는 본 발명의 실시 예에 따라 좌, 우시점 및 각각의 좌, 우시점으로부터 합성된 중간시점영상을 도시하는 예시도,4 is an exemplary view showing a middle view image synthesized from a left and a right view and each of a left and a right view according to an embodiment of the present invention;

도 5는 본 발명의 실시 예에 따라 좌, 우시점 영상에서 가려진(Occlusion) 영역을 설명하기 위한 예시도.FIG. 5 is an exemplary diagram for describing an occlusion region in a left and right view image according to an exemplary embodiment of the present invention. FIG.

본 발명은 스테레오 영상에서 중간시점영상 합성 시 발생하는 블록킹 현상을 방지하기 위한 방법에 관한 것이다.The present invention relates to a method for preventing a blocking phenomenon occurring when synthesizing a mid-view image in a stereo image.

최근들어 영상 기술이 2차원 영상에서 3차원 영상으로 구현하는 방식에 대한 연구 쪽으로 활발히 진행되고 있다. 이러한 3차원 영상은 2차원 영상에 비해 보다 사실적이고 현실감 있는 영상 정보를 표현할 수 있다. 인간 시각 특성을 활용하여 기존의 디스플레이 장치에 좌시점 영상과 우시점 영상을 각각 해당 위치에 주사한 후, 좌시점과 우시점을 사용자의 좌안과 우안에 분리하여 상이 맺히게 함으로써 3차원 입체감을 느끼게 하는 방법이 여러 가지 면에서 가능성을 인정받고 있다. 이와 같이 3차원 영상을 생성하는 방법을 이용한 초기 모델은 좌우 영상에 대한 각각 2시점으로 이미지를 표현함으로써 실감있는 표현에 한계가 많았으며, 이를 극복하기 위해 여러 위치에서도 3차원 영상을 감지함으로써 입체감을 더욱 높여 주기 위해 다시점 3차원 영상 디스플레이 장치들이 선보이고 있다. 다시점 표현을 위해서는 관찰자의 미세한 시각 위치 변화에 해당하는 영상들에 대한 정보를 모두 가지고 있다가, 해당 시각 위치에 대한 좌안과 우안에 대한 영상정보들만을 관찰자의 망막에 투사되게 함으로써 여러 각도에서 3차원 입체감을 느끼게 하는 방법이다. 그러나, 이와 같은 다시점 3차원 영상 생성을 위해서는 미세한 시각 위치 변화에 해당하는 영상들을 촬영하기 위한 많은 수의 카메라와 같은 정보 입력장치가 필요하며, 이 정보전달을 위한 방대한 채널 용량이 요구된다. 이러한 문제점을 극복하기 위해 두 시점의 영상에서 중간 영상 합성을 통해 중간 시점 영상을 합성하는 중간시점영상 합성(intermediate view reconstruction : IVR) 기법을 이용하여 다시점 3차원 영상 디스프레이를 수행할 수 있도록 하였다. 이와 같은 중간시점영상은 필요한 전 체 시점에 해당하는 모든 영상정보를 카메라도 획득하거나 전송하지 않고서, 그 중 일부 시점에 해당하는 영상정보를 균일하게 샘플링하여 획득 전송한 후 나머지 전송되지 않은 영상에 대한 정보들은 전송된 두 시점의 영상을 활용하여 두 시점의 영상에 대한 중간시점영상을 합성함으로서 생성할 수 있다. 이와 같은 방법은 작은 용량의 정보 및 전송 채널만으로 필요한 대 용량의 정보를 생성할 수 있어 많이 활용되고 있다.Recently, image technology has been actively researched for a method of realizing from 2D image to 3D image. Such a 3D image may express more realistic and realistic image information than a 2D image. By using the human visual characteristics, the left view image and the right view image are respectively scanned at the corresponding position on the existing display device, and the left view point and the right view point are separated from the user's left and right eyes to form a three-dimensional image. The method is recognized for its potential in many ways. As mentioned above, the initial model using the method of generating the 3D image has a limited number of realistic expressions by expressing the image at 2 viewpoints on the left and right images, and in order to overcome this, the 3D image is sensed by detecting the 3D image at various locations. Multi-view 3D image display devices are being introduced to further increase. In order to express a multi-view, it has all the information about the images corresponding to the minute change in the visual position of the observer, and only the image information about the left and right eye for the corresponding visual position is projected on the observer's retina. It is a way to feel the three-dimensional effect. However, such multi-view three-dimensional image generation requires an information input device such as a large number of cameras for capturing images corresponding to minute visual position changes, and requires a large channel capacity for this information transmission. In order to overcome this problem, a multiview 3D image display can be performed by using an intermediate view reconstruction (IVR) method of synthesizing an intermediate view image from an intermediate image synthesis. Such intermediate view image is obtained by uniformly sampling and transmitting image information corresponding to a certain point of time without obtaining or transmitting all image information corresponding to all necessary view points, The information may be generated by synthesizing an intermediate view image of the images of the two views using the transmitted images of the two views. Such a method has been widely used because it can generate a large amount of information required by only a small amount of information and a transmission channel.

이와 같은 중간시점영상 합성 방법에서 대표적인 방법 중 하나는 움직임 예측과 움직임 보상을 활용한 방법이다. 이러한 방법은 우선, 어느 한 시점 영상과 인접한 시점 영상을 대상으로 시점 간의 차이(disparity)를 추정한다. 이후 추정된 차이(disparity)에 대한 중간 차이(disparity)에 해당하는 위치에 새로운 영상을 합성하는 방법을 사용하여 전체적으로 중간 영상을 합성하게 된다. 이때, 두 시점의 영상간의 차이(disparity)에 대한 추정은 블록 기반의 차이 추정 방법을 사용한다.One of the representative methods in the intermediate view image synthesis method is a method using motion prediction and motion compensation. Such a method first estimates a disparity between viewpoints of a viewpoint image and an adjacent viewpoint image. Thereafter, the intermediate image is synthesized as a whole by using a method of synthesizing a new image at a position corresponding to an intermediate disparity with respect to the estimated disparity. In this case, a block-based difference estimation method is used to estimate a disparity between images of two viewpoints.

이와 같은 블록 기반 차이 추정(DE : disparity estimation)에 대해 설명하면, 이는 블록 기반 움직임 예측과 유사한데, 움직임 예측에서는 시간적으로 인접하여 입력되는 두 영상에 대해 기준이 되는 영상을 균일한 블록단위로 영역을 나누고 각각의 블록에 대한 움직인 차이(motion disparity)를 다른 영상에서 수직 수평 방향으로 찾는 방법을 활용한다. 이때, 기준 영상과 인접한 영상 사이의 움직임 차이(motion disparity)를 흔히 움직임 벡터(motion vector)라고 부른다. 이와 같은 블록 기반 차이 추정에 의한 중간시점영상 합성은 우선 좌시점 영상과 우시점 영상 중 어느 한 영상을 기준으로 기준영상을 균일한 블록으로 분할한다. 이후 기준 블록을 이용하여 상대편 영상에서 가장 유사한 블록을 찾아서 그 때의 해당 차이(disparity)의 절반 차이(disparity)에 해당하는 위치에 새로운 영상을 합성하는 방법이다.This block-based disparity estimation (DE) is described, which is similar to block-based motion prediction. In motion prediction, an image that is a reference to two images that are input in time adjacent to each other is aread in a uniform block unit. We use the method to divide and find the motion disparity for each block in the vertical and horizontal directions in different images. In this case, a motion disparity between the reference image and the adjacent image is commonly called a motion vector. In the middle view image synthesis using the block-based difference estimation, the reference image is first divided into uniform blocks based on one of the left view image and the right view image. Thereafter, the most similar block is found in the opposite image using the reference block, and a new image is synthesized at a position corresponding to half the disparity of the corresponding disparity at that time.

상술한 바와 같은 종래 기술에 따른 중간 영상 합성 방법은 블록단위로 처리되기 때문에 합성된 중간 영상에서의 모자이크 현상이라고 불리는 블록킹 현상(blocking artifacts)이 발생한다. 이와 같은 블록킹 현상으로 인해 영상의 품질 저하를 일으킬 수 있다.Since the intermediate image synthesis method according to the prior art as described above is processed in units of blocks, blocking artifacts called mosaics in the synthesized intermediate image occur. Such blocking may cause deterioration of the image.

또한, 스테레오 영상의 특성상 좌시점 영상과 우시점 영상에는 두 시점 중에서 어느 한 시점에만 존재하는 영역인 가려진(occlusion) 영역이 존재하게 된다. 따라서, 중간시점영상 합성 기법을 사용하여 중간시점영상을 합성할 시 가려진(occlusion) 영역에 대한 예외 처리 없이 일반 영역과 같은 방법으로 처리하기 때문에 합성된 중간 영상에서의 품질 저하가 심해질 수 있는 문제점이 있다.In addition, due to the characteristics of the stereo image, an occlusion area, which is an area existing only at one of two views, exists in the left view image and the right view image. Therefore, when synthesizing the intermediate view image using the intermediate view image synthesis method, the quality degradation of the synthesized intermediate image may be severe because the processing is performed in the same manner as the general region without exception processing for the occlusion area. have.

따라서, 본 발명은 중간시점영상 합성 기법을 사용하여 중간시점영상을 합성할 시 발생하는 가려진(occlusion) 영역에 대한 처리를 효과적으로 해줌으로써 합성된 중간 영상의 품질을 향상시키기 위한 방법을 제공한다.Accordingly, the present invention provides a method for improving the quality of the synthesized intermediate image by effectively processing the occlusion area generated when synthesizing the intermediate view image using the intermediate view image synthesis technique.

또한, 본 발명은 중간시점영상 합성 기법을 사용하여 중간시점영상을 합성할 시 블록단위 처리로 인해 발생하는 블록킹 현상에 의한 영상의 품질 저하를 위한 방법을 제공한다.The present invention also provides a method for degrading an image due to a blocking phenomenon that occurs due to block unit processing when synthesizing an intermediate view image using the intermediate view image synthesis technique.

상술한 바를 달성하기 위한 본 발명은 좌시점 영상과 우시점 영상을 이용하여 중간시점영상 합성 시 발생하는 블록킹 현상을 방지하기 위한 방법에 있어서, 좌시점 영상과 우시점 영상이 입력되면, 상기 좌시점 영상과 우시점 영상을 이용하여 움직임 예측을 통해 움직임 백터 정보를 생성하는 과정과, 상기 좌시점 영상과 우시점 영상간의 프레임 차영상 정보를 생성하는 과정과, 상기 움직임 벡터 정보와 프레임 차영상 정보를 이용하여 정지 영역(stationary region), 움직임 영역(moving region), 언커버드 영역(uncovered region), 커버드 영역(covered region)으로 분할하는 과정과, 상기 분할된 각 영역에 대한 중간 프레임의 영역값을 생성하여 중간시점영상을 합성하는 과정을 포함하여 이루어진 것을 특징으로 한다.According to an embodiment of the present invention, a method for preventing a blocking phenomenon occurring when synthesizing an intermediate view image by using a left view image and a right view image, when the left view image and the right view image are input, the left view point Generating motion vector information through motion prediction using an image and a right view image, generating frame difference image information between the left view image and a right view image, and generating the motion vector information and frame difference image information. Partitioning the stationary region, the moving region, the uncovered region, and the covered region by using the method, and the region value of the intermediate frame for each of the divided regions. It characterized in that it comprises a process of generating and synthesizing the intermediate view image.

이하 본 발명의 바람직한 실시 예들을 첨부한 도면을 참조하여 상세히 설명한다. 도면들 중 동일한 구성 요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the same elements in the figures are represented by the same numerals wherever possible. In addition, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.

본 발명은 좌시점 영상과 우시점 영상의 움직임 정보와 프레임 차영상 정보를 이용하여 영상을 4개의 영역인 정지 영역(stationary region), 움직임 영역(moving region), 언커버드 영역(uncovered region), 커버드 영역(covered region)으로 분류하고, 각각의 영역에 대해 서로 다른 처리 방법을 이용하여 중간영상을 합성하는 방안을 제안한다.According to an embodiment of the present invention, a motion image and frame difference image information of a left view image and a right view image are used to cover an image of four regions: a stationary region, a moving region, an uncovered region, and a cover. This paper proposes a method of classifying a middle region into a covered region and synthesizing an intermediate image using a different processing method for each region.

먼저, 도 1을 참조하여 입력되는 좌시점 영상과 우시점 영상에 대하여 중간시점영상을 합성하기 위한 시스템에 대하여 살펴보도록 한다. 본 발명에 따른 중간시점영상 합성을 위한 시스템은 움직임 예측부(100), 프레임 차영상 생성부(102), 영역 분할부(104), 중간시점영상 합성부(106)를 포함하여 구성될 수 있다. 여기서, 움직임 예측부(100)는 좌시점 영상과 우시점 영상을 이용하여 움직임 정보를 구한다. 각 영상으로부터 움직임 정보를 구하는 기술은 일반적인 영상처리 기술에서 움직임 정보 추출방법을 사용하여 구할 수 있으므로, 본 발명에서 구체적인 설명은 생략하도록 한다. 또한, 프레임 차영상 생성부(102)는 좌시점 영상과 우시점 영상에 대한 차영상을 생성한다. 또한, 영역 분할부(104)에서는 상기의 움직임 예측부(100)에서 예측된 움직임 정보와 프레임 차영상 생성부(102)로부터 생성된 차영상 정보를 이용하여 영상을 4개의 영역으로 구분한다. 이때, 4개의 영역은 정지 영역(stationary region), 움직임 영역(moving region), 언커버드 영역(uncovered region), 커버드 영역(covered region)으로 구분할 수 있다. 도 3을 참조하여 상기의 4개의 영역에 대하여 살펴보면, 정지 영역(Stationary region)이란 좌시점 영상과 우시점 영상 둘다 움직인이 없는 즉, 영상의 변화가 없는 영역이고, 움직임 영역(moving region)이란 움직임이 있는 영역이다. 예를 들어 도 3에서 300과 301 및 310과 311영역은 움직임 영역이다. 또한, 언커버드 영역(Uncovered region)은 물체가 움직임으로서 가리워져 있던 부분이 나타난 영역이며, 커버드 영역(covered region)은 보였다가 가리워진 영역이다. 예를 들어, 도 3에서 320, 330은 커버드 영역이다. 즉, 언커버드 영역(Uncovered region)과 커버드 영역(covered region)이 가려진 영역(Occlusion region)이다. 도 5를 참조하면, 이와 같은 가려진 영역(Occlusion region)을 살펴보면, 500, 502는 가려진 영역(Occlusion region)이 될 수 있다. 즉, 좌시점 영상(a)에 있던 영역인 500가 우시점 영상(b)에서는 없으므로 이 영역은 커버드 영역(covered region)이 되고, 좌시점 영상(b)에 없던 영역인 502가 우시점 영상(b)에서는 있으므로 이 영역은 언커버드 영역(Uncovered region)이 된다.First, a system for synthesizing an intermediate view image with respect to an input left view image and a right view image will be described with reference to FIG. 1. The system for synthesizing an intermediate view image according to the present invention may include a motion predictor 100, a frame difference image generator 102, an area divider 104, and an intermediate view image synthesizer 106. . Here, the motion predictor 100 obtains motion information by using a left view image and a right view image. Since a technique for obtaining motion information from each image may be obtained using a motion information extraction method in a general image processing technique, a detailed description thereof will be omitted. In addition, the frame difference image generation unit 102 generates a difference image for the left view image and the right view image. In addition, the area dividing unit 104 classifies an image into four regions by using the motion information predicted by the motion predicting unit 100 and the difference image information generated by the frame difference image generating unit 102. In this case, the four regions may be divided into a stationary region, a moving region, an uncovered region, and a covered region. Referring to FIG. 3, the four regions are the stationary region, which is a region in which both the left view image and the right view image are not moved, that is, there is no change in the image, and the moving region is a moving region. This is an area where there is movement. For example, in FIG. 3, regions 300, 301, 310, and 311 are motion regions. In addition, an uncovered region is an area in which a part where an object is hidden as a motion is shown, and a covered region is an area that is visible and hidden. For example, in FIG. 3, 320 and 330 are covered areas. That is, an uncovered region and an covered region are covered with an occlusion region. Referring to FIG. 5, referring to such occlusion regions, 500 and 502 may be occlusion regions. That is, since 500, which is an area in the left view image (a), is not included in the right view image (b), this area becomes a covered region, and 502, which is an area not included in the left view image (b), is a right view image. In (b), this area is an uncovered region.

상기와 같은 4개의 영역으로 분할하는 방법에 대하여 하기의 수학식들을 이용하여 각 영역으로 분할할 수 있다. A method of dividing into four regions as described above may be divided into regions using the following equations.

먼저, 하기의 수학식에서 사용되는 변수에 대한 정의를 설명하도록 한다.First, the definition of the variable used in the following equation will be described.

Figure 112006096254815-PAT00001
은 프레임 간 차영상의 (x,y)위치에서의 이진화 값으로, 차영상의 값이 존재하면 1, 존재하지 않으면 0을 나타낸다.
Figure 112006096254815-PAT00002
은 합성된 총 프레임 수이다. 또한,
Figure 112006096254815-PAT00003
는 i번째 합성된 프레임의 인덱스이고,
Figure 112006096254815-PAT00004
는 순방향, 역방향 수평, 수직 움직임 벡터를 나타낸다.
Figure 112006096254815-PAT00001
Is a binarization value at the (x, y) position of the difference image between frames, and indicates 1 if there is a difference image and 0 if not.
Figure 112006096254815-PAT00002
Is the total number of frames synthesized. Also,
Figure 112006096254815-PAT00003
Is the index of the i-th synthesized frame,
Figure 112006096254815-PAT00004
Denotes a forward, reverse horizontal and vertical motion vector.

1. 정지 영역(stationary region)Stationary region

프레임 내에서 배경 부분과 같이 움직임이 없는 영역을 말하며, 하기의 <수학식 1>을 이용하여 영역을 분할할 수 있다.It refers to an area where there is no movement, such as a background part, in the frame, and the area may be divided using Equation 1 below.

Figure 112006096254815-PAT00005
Figure 112006096254815-PAT00005

2. 움직임 영역(moving region)2. moving region

움직임이 있는 영역을 말하며, 하기의 <수학식 2> 및 <수학식 3>을 이용하여 영역을 분할할 수 있다.It refers to a region where there is a movement, and the region may be divided using Equations 2 and 3 below.

Figure 112006096254815-PAT00006
Figure 112006096254815-PAT00006

Figure 112006096254815-PAT00007
Figure 112006096254815-PAT00007

3. 언커버드 영역(uncovered region)3. Uncovered region

물체가 움직여서 가리워져 있던 부분이 나타난 영역을 말하며, 하기의 <수학식4> 및 <수학식5>를 이용하여 분할할 수 있다.Refers to an area where an object is hidden due to the movement of the object, and may be divided using Equation 4 and Equation 5 below.

Figure 112006096254815-PAT00008
Figure 112006096254815-PAT00008

Figure 112006096254815-PAT00009
Figure 112006096254815-PAT00009

4. 커버드 영역(covered region)4. covered region

물체가 움직여서 보였다가 가려진 영역을 말하며, 하기의 <수학식6> 및 <수학식7>을 이용하여 분할할 수 있다.Refers to an area that is hidden by moving the object, and can be divided using Equation 6 and Equation 7 below.

Figure 112006096254815-PAT00010
Figure 112006096254815-PAT00010

Figure 112006096254815-PAT00011
Figure 112006096254815-PAT00011

상기와 같이 각각의 좌시점 영상과 우시점 영상으로부터 움직임 벡터 정보와 좌시점 영상과 우시점 영상간의 차영상 정보를 이용한 상기의 수학식들과 같이 계산하면 4개의 영역으로 분할할 수 있다. 이와 같이 좌시점 영상과 우시점 영상을 4개의 영역으로 분할하는 예는 도 4와 같이 도시할 수 있다.As described above, the motion vector information and the difference image information between the left view image and the right view image can be divided into four regions from each of the left view image and the right view image. As such, an example of dividing the left view image and the right view image into four regions may be illustrated in FIG. 4.

도 4를 참조하면, 좌시점 영상에서 a와 우시점 영상에서 A는 정지영역으로 동일하므로 합성된 중간시점 영상에서 같은 위치에 1영역으로 합성된다. 또한, 좌시점 영상에서 움직임 영역은 b영역이고, 우시점 영상에서 움직임 영역은 C영역이므로 합성된 중간시점 영상에서는 중간 위치인 3영역으로 합성된다. 또한, 좌시점 영상에서는 있었지만 우시점 영상에서는 없는 c영역은 합성된 중간시점 영상에서 4영역으로 합성되고, 좌시점 영상에서는 없었지만 우시점 영상에서는 있는 B영역은 합성된 중간시점 영상에서 2영역으로 합성된다.Referring to FIG. 4, since a in the left view image and A in the right view image are the same as the still region, the synthesized middle region is synthesized as one region in the same position. In addition, since the moving region is a b region in the left view image and the moving region is a C region in the right view image, the synthesized intermediate view image is synthesized into three regions which are intermediate positions. In addition, the c region, which is present in the left view image but not in the right view image, is synthesized into four regions in the synthesized intermediate view image, and the B region which is absent in the left view image but in the right view image is synthesized into two regions in the synthesized intermediate view image. do.

한편, 중간시점영상 합성부(106)는 각각의 4개의 영역에 대해 서로 다른 방법을 사용하여 중간 영상을 합성하게 된다. 이에 대하여 구체적으로 도 5를 참조하여 살펴보도록 한다.Meanwhile, the intermediate view image synthesis unit 106 synthesizes the intermediate images by using different methods for each of the four regions. This will be described in detail with reference to FIG. 5.

도 5를 참조하면, 스테레오 영상의 특성상 좌시점 영상과 우시점 영상에는 두 시점 중에서 500과 502와 같이 어느 한 시점에만 존재하는 영역인 가려진(occlusion) 영역이 존재하게 된다. 좌시점 영상의 가려진 영역(occlusion region)인 500은 움직여서 보였다가 가려진 영역(occlusion region)으로 상기의 커버드 영역(covered region) 분할을 위한 <수학식 6> 및 <수학식 7>을 이용하여 분할할 수 있다. 또한, 우시점 영상의 가려진 영역(occlusion region)인 502는 움직여서 가리워져 있던 부분이 나타난 영역으로 언커버드 영역(uncovered region) 분할을 위한 <수학식 4> 및 <수학식 5>를 이용하여 분할할 수 있다. Referring to FIG. 5, an occlusion area, which is an area that exists only at one time point such as 500 and 502, exists in the left view image and the right view image due to the characteristics of the stereo image. The occlusion region 500 of the left-view image is shown as moving and occluded by using Equation 6 and Equation 7 for partitioning the covered region. can do. Also, the occlusion region 502, which is the occlusion region of the right-view image, is a region where the hidden part is moved and can be divided using Equations 4 and 5 for partitioning an uncovered region. have.

종래에서는 상기와 같이 4가지 영역을 고려하지 않고, 모든 영역을 동일한 특성을 가진 것으로 중간영상을 합성했기 때문에 합성된 중간영상이 블록킹 현상을 가지는 등과 같은 품질 저하를 일으키는 문제가 발생하였다. 그러나, 본 발명에서는 상기와 같이 영상을 각기 다른 특성을 가지는 4개의 영역으로 분할하고, 분할된 각 영역마다 서로 다른 영상 합성 방법을 적용하여 중간 영상을 합성함으로써 합성된 영상 품질의 향상을 가져올 수 있도록 한다.In the related art, since the intermediate images were synthesized by considering all four regions as having the same characteristics as described above, there was a problem of degrading the synthesized intermediate images such as having a blocking phenomenon. However, in the present invention, the image is divided into four regions having different characteristics as described above, and the intermediate image is synthesized by applying a different image synthesis method to each divided region so as to improve the synthesized image quality. do.

그러면, 이제 상기와 같이 영역 분할부(104)에서 분할된 각 영역에 대하여 미리 설정된 다른 합성 방법을 이용하여 중간시점 영상 합성부(106)에서 중간시점 영상을 합성하는 방법에 대하여 설명하도록 한다. 먼저, 하기에서

Figure 112006096254815-PAT00012
은 k번째 프레임의 (x,y) 위치에서의 화소 값이다.Next, a method of synthesizing the mid-view image by the mid-view image synthesizer 106 using another synthesis method preset for each region divided by the region divider 104 will be described. First off,
Figure 112006096254815-PAT00012
Is the pixel value at the (x, y) position of the kth frame.

1. 정지 영역(stationary region)Stationary region

움직임이 없는 영역이며, 영역에 대한 정보가 (k-n)번째 프레임 및 k번째 프레임에 모두 있기 때문에 다음과 같은 <수학식 8>과 같이 선형 인터폴레이션(linear interpolation)을 이용하여 생성한다.Since there is no motion and the information on the area is in both the (k-n) th frame and the kth frame, it is generated using linear interpolation as shown in Equation (8).

Figure 112006096254815-PAT00013
Figure 112006096254815-PAT00013

2. 움직임 영역(moving region)2. moving region

영역에 대한 정보가 (k-n)번째 프레임 및 k번째 프레임에 모두 있고, 움직임이 있는 영역이므로 다음과 같은 <수학식 9>과 같이 양방향 움직임 보상을 이용하여 생성한다.Since the information about the region is in both the (k-n) th frame and the kth frame, and there is motion, it is generated by using bidirectional motion compensation as shown in Equation 9 below.

Figure 112006096254815-PAT00014
Figure 112006096254815-PAT00014

3. 언커버드 영역(uncovered region)3. Uncovered region

영역에 대한 정보가 k번째 프레임에만 있기 때문에 다음과 같은 <수학식 10>과 같이 역방향 예측을 통하여 생성한다.Since information on the region exists only in the k-th frame, the information is generated through backward prediction as shown in Equation 10 below.

Figure 112006096254815-PAT00015
Figure 112006096254815-PAT00015

4. 커버드 영역(covered region)4. covered region

영역에 대한 정보가 (k-n)번째 프레임에만 있기 때문에 다음과 같은 <수학식 11>과 같이 순방향 예측을 통하여 생성한다.Since information on the region exists only in the (k-n) th frame, it is generated through forward prediction as shown in Equation 11 below.

Figure 112006096254815-PAT00016
Figure 112006096254815-PAT00016

상기에서는 한 장의 중간시점영상을 합성하는 방안에 대하여 설명하였지만, 상기의 방법을 이용하여 임의의 여러 장의 중간영상을 합성할 수 있다.In the above, a method of synthesizing one midpoint image has been described, but any of several intermediate images may be synthesized using the above method.

그러면, 상기와 도 1과 같이 구성되는 시스템에서 좌시점 영상과 우시점 영상으로부터 중간시점영상을 합성하는 과정에 대하여 도 1 및 2를 참조하여 살펴보도록 한다.Next, a process of synthesizing an intermediate view image from a left view image and a right view image in the system configured as shown in FIG. 1 will be described with reference to FIGS. 1 and 2.

먼저, 202단계에서 좌시점, 우시점 영상이 움직임 예측부(100)에 입력되면, 204단계에서 움직임 예측부(100)는 좌시점, 우시점 영상을 이용하여 움직임 예측을 수행한다. 이때, 움직임 예측은 일반적으로 동영상 압축 표준에서 널리 사용되는 블록단위로 움직임을 예측하는 블록 매칭 알고리듬을 사용한다. 도 3에 나타낸 블록 매칭 알고리듬은 입력 영상을 블록 단위로 나눈 다음 기준 블록을 이전 프레임의 정해진 탐색 범위 내의 여러 개의 블록과 비교하여 가장 닮은 블록을 찾아내 기준 블록에 대하여 매칭된 블록의 위치를 움직임 벡터로 정하는 기법이다. 즉, 검색 영역 안에서 어떤 블록이 현재 프레임의 정해진 블록으로 이동하였는가를 찾음으로 써 움직임 예측을 수행하여 움직임 벡터 정보를 도출할 수 있다.First, when the left view and right view images are input to the motion predictor 100 in step 202, the motion predictor 100 performs motion prediction using the left view and right view images in step 204. In this case, motion prediction generally uses a block matching algorithm that predicts motion on a block basis which is widely used in video compression standards. The block matching algorithm shown in FIG. 3 divides an input image into block units, compares a reference block with several blocks within a predetermined search range of a previous frame, finds the most similar block, and moves the position of the matched block with respect to the reference block. The technique is determined by. That is, the motion vector information may be derived by performing motion prediction by finding which block has moved to the predetermined block of the current frame in the search region.

206단계에서 프레임차 영상 생성부(102)는 좌시점 영상과 우시점 영상 간의 프레임 차를 생성한다. In operation 206, the frame difference image generator 102 generates a frame difference between the left view image and the right view image.

208단계에서 영역 분할부(104)는 움직임 예측을 통해서 도출된 움직임 벡터 정보와 프레임 차영상 정보를 이용하여 영상을 4개의 영역으로 분할한다. 이때, 4개의 영역으로의 분할은 상기의 도 1의 설명에서 영역 분할부(104)에서 기재한 방식으로 분할 가능하다.In operation 208, the area divider 104 divides an image into four regions using motion vector information and frame difference image information derived through motion prediction. At this time, the division into four regions can be divided in the manner described by the region divider 104 in the above description of FIG. 1.

이후, 210단계에서 중간시점 영상 합성부(106)는 각각 분할된 영역에 대한 중간 프레임의 영역 값을 생성하여 중간시점영상을 합성한다. 이때, 4개의 각각 분할된 영역에 대한 중간 프레임의 영역 값을 생성은 상기의 도 1의 설명에서 중간시점영상 합성부(106)에서 기재한 방식으로 합성 가능하다.In operation 210, the intermediate view image synthesizer 106 generates a region value of an intermediate frame for each divided region and synthesizes the intermediate view image. In this case, the region value of the intermediate frame for each of the four divided regions may be generated by the method described by the intermediate view image synthesis unit 106 in the above description of FIG. 1.

상술한 바와 같이 본 발명은 좌시점 영상과 우시점 영상의 움직임 정보와 프레임 차영상 정보를 이용하여 영상을 4개의 영역 (stationary, moving, uncovered, and covered region)으로 분류하고 각각의 영역에 대해 각각에 영역에 따른 처리 방법을 이용하여 중간시점영상을 합성한다. 이로 인해 스테레오 영상의 특성상 존재하게 되는 가려진 영역에 대한 처리를 효과적으로 해줌으로써 합성된 중간 영상의 품질을 더욱 향상시킬 수 있다. 또한, 픽셀단위 처리로 인하여 기존의 블록단위 처리로 인해 발생하는 블록킹 현상에 의한 영상의 품질 저하를 피할 수 있는 이점 이 있다. As described above, the present invention classifies an image into four regions (stationary, moving, uncovered, and covered regions) by using motion information and frame difference image information of a left view image and a right view image, respectively, for each region. The intermediate view image is synthesized using the processing method according to the region. As a result, the quality of the synthesized intermediate image may be further improved by effectively processing a masked area that exists due to the characteristics of the stereo image. In addition, due to the pixel-by-pixel processing, there is an advantage that the quality of the image due to the blocking phenomenon caused by the conventional block-based processing can be avoided.

Claims (10)

좌시점 영상과 우시점 영상을 이용하여 중간시점영상 합성 시 발생하는 블록킹 현상을 방지하기 위한 방법에 있어서,In the method for preventing the blocking phenomenon occurring when synthesizing the intermediate view image using the left view image and the right view image, 좌시점 영상과 우시점 영상이 입력되면, 상기 좌시점 영상과 우시점 영상을 이용하여 움직임 예측을 통해 움직임 백터 정보를 생성하는 과정과,When the left view image and the right view image are input, generating motion vector information through motion prediction using the left view image and the right view image; 상기 좌시점 영상과 우시점 영상간의 프레임 차영상 정보를 생성하는 과정과,Generating frame difference image information between the left view image and the right view image; 상기 움직임 벡터 정보와 프레임 차영상 정보를 이용하여 정지 영역(stationary region), 움직임 영역(moving region), 언커버드 영역(uncovered region), 커버드 영역(covered region)으로 분할하는 과정과,Dividing into a stationary region, a moving region, an uncovered region, and a covered region by using the motion vector information and the frame difference image information; 상기 분할된 각 영역에 대한 중간 프레임의 영역값을 생성하여 중간시점영상을 합성하는 과정을 포함하여 이루어진 것을 특징으로 하는 스테레오 영상에서 중간시점영상 합성 방법.And synthesizing an intermediate view image by generating a region value of an intermediate frame for each of the divided regions. 제 1항에 있어서,The method of claim 1, 상기 정지 영역(Stationary region)은 좌시점 영상과 우시점 영상 둘다 움직임이 없는 영역이고, 상기 움직임 영역(moving region)은 움직임이 있는 영역이고, 상기 언커버드 영역(Uncovered region)은 물체가 움직임으로서 가리워져 있던 부분 이 나타난 영역이고, 커버드 영역(covered region)은 보였다가 가리워진 영역인 것을 특징으로 하는 스테레오 영상에서 중간시점영상 합성 방법.The stationary region is a region in which both the left view image and the right view image are motionless, the moving region is a motion region, and the uncovered region is hidden as an object moves. A method of synthesizing a mid-view image in a stereo image, wherein the portion where the portion is displayed is a region where the covered region is a visible region. 제 2항에 있어서, The method of claim 2, 상기 정지 영역(stationary region)은 하기의 <수학식 1>을 이용하여 영역을 분할할 수 있는 것을 특징으로 하는 스테레오 영상에서 중간시점영상 합성 방법.The stationary region is a method of synthesizing an intermediate view image in a stereo image, wherein the region may be divided using Equation 1 below. [수학식 1][Equation 1]
Figure 112006096254815-PAT00017
Figure 112006096254815-PAT00017
여기서,
Figure 112006096254815-PAT00018
은 프레임 간 차영상의 (x,y)위치에서의 이진화 값으로, 차영상의 값이 존재하면 1, 존재하지 않으면 0을 나타냄.
here,
Figure 112006096254815-PAT00018
Is the binarization value at the (x, y) position of the difference image between frames, and indicates 1 if there is a difference image and 0 if not.
제 2항에 있어서, The method of claim 2, 상기 움직임 영역(moving region)은 하기의 <수학식 2> 및 <수학식 3>을 이용하여 영역을 분할할 수 있는 것을 특징으로 하는 스테레오 영상에서 중간시점영상 합성 방법.The moving region is a method of synthesizing an intermediate view image in a stereo image, wherein the region may be divided using Equations 2 and 3 below. [수학식 2][Equation 2]
Figure 112006096254815-PAT00019
Figure 112006096254815-PAT00019
[수학식 3][Equation 3]
Figure 112006096254815-PAT00020
Figure 112006096254815-PAT00020
여기서,
Figure 112006096254815-PAT00021
은 프레임 간 차영상의 (x,y)위치에서의 이진화 값으로, 차영상의 값이 존재하면 1, 존재하지 않으면 0을 나타내고,
Figure 112006096254815-PAT00022
은 합성된 총 프레임 수이고,
Figure 112006096254815-PAT00023
는 i번째 합성된 프레임의 인덱스이고,
Figure 112006096254815-PAT00024
는 순방향, 역방향 수평, 수직 움직임 벡터를 나타냄.
here,
Figure 112006096254815-PAT00021
Is a binarization value at the (x, y) position of the difference image between frames, and indicates 1 if there is a difference image and 0 if not.
Figure 112006096254815-PAT00022
Is the total number of frames synthesized,
Figure 112006096254815-PAT00023
Is the index of the i-th synthesized frame,
Figure 112006096254815-PAT00024
Represents the forward, reverse horizontal and vertical motion vectors.
제 2항에 있어서,The method of claim 2, 상기 언커버드 영역(uncovered region)은 하기의 <수학식 4> 및 <수학식 5>을 이용하여 영역을 분할할 수 있는 것을 특징으로 하는 스테레오 영상에서 중간시점영상 합성 방법.The uncovered region may be divided into regions using Equation 4 and Equation 5 below. [수학식 4][Equation 4]
Figure 112006096254815-PAT00025
Figure 112006096254815-PAT00025
[수학식 5][Equation 5]
Figure 112006096254815-PAT00026
Figure 112006096254815-PAT00026
여기서,
Figure 112006096254815-PAT00027
은 프레임 간 차영상의 (x,y)위치에서의 이진화 값으로, 차영상의 값이 존재하면 1, 존재하지 않으면 0을 나타내고,
Figure 112006096254815-PAT00028
은 합성된 총 프레임 수이고,
Figure 112006096254815-PAT00029
는 i번째 합성된 프레임의 인덱스이고,
Figure 112006096254815-PAT00030
는 순방향, 역방향 수평, 수직 움직임 벡터를 나타냄.
here,
Figure 112006096254815-PAT00027
Is a binarization value at the (x, y) position of the difference image between frames, and indicates 1 if there is a difference image and 0 if not.
Figure 112006096254815-PAT00028
Is the total number of frames synthesized,
Figure 112006096254815-PAT00029
Is the index of the i-th synthesized frame,
Figure 112006096254815-PAT00030
Represents the forward, reverse horizontal and vertical motion vectors.
제 2항에 있어서,The method of claim 2, 커버드 영역(covered region)은 하기의 <수학식 6> 및 <수학식 7>을 이용하여 영역을 분할할 수 있는 것을 특징으로 하는 스테레오 영상에서 중간시점영상 합성 방법.The covered region is a method of synthesizing a mid-view image in a stereo image, wherein the region may be divided using Equations 6 and 7 below. [수학식 6][Equation 6]
Figure 112006096254815-PAT00031
Figure 112006096254815-PAT00031
[수학식 7][Equation 7]
Figure 112006096254815-PAT00032
Figure 112006096254815-PAT00032
여기서,
Figure 112006096254815-PAT00033
은 프레임 간 차영상의 (x,y)위치에서의 이진화 값으로, 차영상의 값이 존재하면 1, 존재하지 않으면 0을 나타내고,
Figure 112006096254815-PAT00034
은 합성된 총 프레임 수이고,
Figure 112006096254815-PAT00035
는 i번째 합성된 프레임의 인덱스이고,
Figure 112006096254815-PAT00036
는 순방향, 역방향 수평, 수직 움직임 벡터를 나타냄.
here,
Figure 112006096254815-PAT00033
Is a binarization value at the (x, y) position of the difference image between frames, and indicates 1 if there is a difference image and 0 if not.
Figure 112006096254815-PAT00034
Is the total number of frames synthesized,
Figure 112006096254815-PAT00035
Is the index of the i-th synthesized frame,
Figure 112006096254815-PAT00036
Represents the forward, reverse horizontal and vertical motion vectors.
제 2항에 있어서,The method of claim 2, 상기 정지 영역(stationary region)에 대하여는 하기의 <수학식 8>과 같이 선형 인터폴레이션(linear interpolation)을 이용하여 중간시점영상을 생성하는 것을 특징으로 하는 스테레오 영상에서 중간시점영상 합성 방법.A method for synthesizing an intermediate view image in a stereo image for the stationary region by generating an intermediate view image using linear interpolation as shown in Equation 8 below. [수학식 8][Equation 8]
Figure 112006096254815-PAT00037
Figure 112006096254815-PAT00037
이때,
Figure 112006096254815-PAT00038
은 k번째 프레임의 (x,y) 위치에서의 화소 값임.
At this time,
Figure 112006096254815-PAT00038
Is the pixel value at the (x, y) position of the kth frame.
제 2항에 있어서,The method of claim 2, 상기 움직임 영역(moving region)에 대하여는 하기의 <수학식 9>과 같이 양방향 움직임 보상을 이용하여 중간시점영상을 생성하는 것을 특징으로 하는 스테레오 영상에서 중간시점영상 합성 방법.A method of synthesizing an intermediate view image in a stereo image with respect to the moving region by generating an intermediate view image using bidirectional motion compensation as shown in Equation 9 below. [수학식 9][Equation 9]
Figure 112006096254815-PAT00039
Figure 112006096254815-PAT00039
이때,
Figure 112006096254815-PAT00040
은 k번째 프레임의 (x,y) 위치에서의 화소 값임.
At this time,
Figure 112006096254815-PAT00040
Is the pixel value at the (x, y) position of the kth frame.
제 2항에 있어서,The method of claim 2, 상기 언커버드 영역(uncovered region)에 대하여는 하기의 <수학식 10>과 역방향 예측을 통하여 생성하는 것을 특징으로 하는 스테레오 영상에서 중간시점영상 합성 방법.The uncovered region is generated by performing backward prediction with Equation 10 below. [수학식 10][Equation 10]
Figure 112006096254815-PAT00041
Figure 112006096254815-PAT00041
이때,
Figure 112006096254815-PAT00042
은 k번째 프레임의 (x,y) 위치에서의 화소 값임.
At this time,
Figure 112006096254815-PAT00042
Is the pixel value at the (x, y) position of the kth frame.
제 2항에 있어서,The method of claim 2, 상기 커버드 영역(covered region)에 대하여는 하기의 <수학식 11>과 순방향 예측을 통하여 생성하는 것을 특징으로 하는 스테레오 영상에서 중간시점영상 합성 방법.A method for synthesizing a mid-view image in a stereo image, wherein the covered region is generated through Equation 11 and forward prediction. [수학식 11][Equation 11]
Figure 112006096254815-PAT00043
Figure 112006096254815-PAT00043
이때,
Figure 112006096254815-PAT00044
은 k번째 프레임의 (x,y) 위치에서의 화소 값임.
At this time,
Figure 112006096254815-PAT00044
Is the pixel value at the (x, y) position of the kth frame.
KR1020060133769A 2006-12-26 2006-12-26 Intermediate view reconstruction method in stereo image KR101269302B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060133769A KR101269302B1 (en) 2006-12-26 2006-12-26 Intermediate view reconstruction method in stereo image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060133769A KR101269302B1 (en) 2006-12-26 2006-12-26 Intermediate view reconstruction method in stereo image

Publications (2)

Publication Number Publication Date
KR20080059883A true KR20080059883A (en) 2008-07-01
KR101269302B1 KR101269302B1 (en) 2013-05-29

Family

ID=39812595

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060133769A KR101269302B1 (en) 2006-12-26 2006-12-26 Intermediate view reconstruction method in stereo image

Country Status (1)

Country Link
KR (1) KR101269302B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8803947B2 (en) 2010-08-03 2014-08-12 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view
US9071835B2 (en) 2012-09-24 2015-06-30 Samsung Electronics Co., Ltd. Method and apparatus for generating multiview image with hole filling

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100248190B1 (en) * 1997-09-26 2000-03-15 윤종용 Apparatus and method for image compression
JP3728160B2 (en) * 1999-12-06 2005-12-21 キヤノン株式会社 Depth image measuring apparatus and method, and mixed reality presentation system
JP3548071B2 (en) * 2000-02-08 2004-07-28 三洋電機株式会社 Intermediate image synthesizing method, intermediate image synthesizing device, recording medium storing intermediate image synthesizing program
KR100517517B1 (en) * 2004-02-20 2005-09-28 삼성전자주식회사 Method for reconstructing intermediate video and 3D display using thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8803947B2 (en) 2010-08-03 2014-08-12 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view
US9071835B2 (en) 2012-09-24 2015-06-30 Samsung Electronics Co., Ltd. Method and apparatus for generating multiview image with hole filling

Also Published As

Publication number Publication date
KR101269302B1 (en) 2013-05-29

Similar Documents

Publication Publication Date Title
KR100517517B1 (en) Method for reconstructing intermediate video and 3D display using thereof
KR101345303B1 (en) Dynamic depth control method or apparatus in stereo-view or multiview sequence images
KR101385514B1 (en) Method And Apparatus for Transforming Stereoscopic Image by Using Depth Map Information
RU2519433C2 (en) Method and system for processing input three-dimensional video signal
US8866884B2 (en) Image processing apparatus, image processing method and program
KR101185870B1 (en) Apparatus and method for processing 3 dimensional picture
JP4056154B2 (en) 2D continuous video 3D video conversion apparatus and method, and 3D video post-processing method
EP2560398B1 (en) Method and apparatus for correcting errors in stereo images
KR100720722B1 (en) Intermediate vector interpolation method and 3D display apparatus
Tian et al. NIQSV: A no reference image quality assessment metric for 3D synthesized views
US8803947B2 (en) Apparatus and method for generating extrapolated view
JP5673032B2 (en) Image processing apparatus, display apparatus, image processing method, and program
US8421847B2 (en) Apparatus and method for converting two-dimensional video frames to stereoscopic video frames
JPH0927969A (en) Method for generating intermediate image of plural images, parallax estimate method and device
KR20100008677A (en) Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same
JPH09275578A (en) Multi-viewpoint encoding and decoding device
KR20140021766A (en) A boundary noise removal and hole filling method for virtual viewpoint image generation
JP2014507873A (en) Method and apparatus for stereo-based expansion of stereoscopic images and image sequences {METHODANDDEVICEFORSTEROBASEEXTENSIONSIONOFSTEREOSCOPICIMAGESANDIMAGESEQUENCES}
US20040165765A1 (en) Method and an appraratus to divide image blocks
WO2012070372A1 (en) A method and a system for displaying a pair of stereoscopic images on a display
KR101269302B1 (en) Intermediate view reconstruction method in stereo image
McVeigh et al. Algorithm for automated eye-strain reduction in real stereoscopic images and sequences
US20120008855A1 (en) Stereoscopic image generation apparatus and method
Tai et al. An effiicient full frame algorithm for object-based error concealment in 3D depth-based video
US9113140B2 (en) Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee