KR100764797B1 - Method for estimating fast motion and disparity - Google Patents

Method for estimating fast motion and disparity Download PDF

Info

Publication number
KR100764797B1
KR100764797B1 KR1020060003314A KR20060003314A KR100764797B1 KR 100764797 B1 KR100764797 B1 KR 100764797B1 KR 1020060003314 A KR1020060003314 A KR 1020060003314A KR 20060003314 A KR20060003314 A KR 20060003314A KR 100764797 B1 KR100764797 B1 KR 100764797B1
Authority
KR
South Korea
Prior art keywords
vector
search range
value
disparity
motion
Prior art date
Application number
KR1020060003314A
Other languages
Korean (ko)
Other versions
KR20070075043A (en
Inventor
손광훈
김용태
서정동
박창섭
이준용
Original Assignee
연세대학교 산학협력단
한국방송공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단, 한국방송공사 filed Critical 연세대학교 산학협력단
Priority to KR1020060003314A priority Critical patent/KR100764797B1/en
Publication of KR20070075043A publication Critical patent/KR20070075043A/en
Application granted granted Critical
Publication of KR100764797B1 publication Critical patent/KR100764797B1/en

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04BGENERAL BUILDING CONSTRUCTIONS; WALLS, e.g. PARTITIONS; ROOFS; FLOORS; CEILINGS; INSULATION OR OTHER PROTECTION OF BUILDINGS
    • E04B1/00Constructions in general; Structures which are not restricted either to walls, e.g. partitions, or floors or ceilings or roofs
    • E04B1/32Arched structures; Vaulted structures; Folded structures
    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04BGENERAL BUILDING CONSTRUCTIONS; WALLS, e.g. PARTITIONS; ROOFS; FLOORS; CEILINGS; INSULATION OR OTHER PROTECTION OF BUILDINGS
    • E04B1/00Constructions in general; Structures which are not restricted either to walls, e.g. partitions, or floors or ceilings or roofs
    • E04B1/02Structures consisting primarily of load-supporting, block-shaped, or slab-shaped elements
    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04BGENERAL BUILDING CONSTRUCTIONS; WALLS, e.g. PARTITIONS; ROOFS; FLOORS; CEILINGS; INSULATION OR OTHER PROTECTION OF BUILDINGS
    • E04B1/00Constructions in general; Structures which are not restricted either to walls, e.g. partitions, or floors or ceilings or roofs
    • E04B1/32Arched structures; Vaulted structures; Folded structures
    • E04B2001/327Arched structures; Vaulted structures; Folded structures comprised of a number of panels or blocs connected together forming a self-supporting structure

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 고속 움직임 및 변이 추정 방법에 관한 것으로, 필터링을 통해 예측한 제1벡터와 카메라 배열을 이용하여 예측한 제2벡터의 차이값을 결정하여, 상기 차이값에 따라 탐색 범위를 결정할 수 있다. 본 발명에 따르면, 검색 범위를 제한하여 고속 추정을 수행하도록 한다.The present invention relates to a fast motion and disparity estimation method, and determines a difference value between a first vector predicted through filtering and a second vector predicted using a camera array, and determines a search range according to the difference value. . According to the present invention, the search range is limited to perform fast estimation.

고속, 움직임, 변위, 벡터, 추정, 카메라 High speed, motion, displacement, vector, estimation, camera

Description

고속 움직임 및 변이 추정 방법{Method for estimating fast motion and disparity}Method for estimating fast motion and disparity

도 1a는 본 발명이 적용되는 다시점 프로파일을 이용한 스테레오 영상 부호화/복호화 시스템의 구조도,1A is a structural diagram of a stereo image encoding / decoding system using a multiview profile to which the present invention is applied;

도 1b는 본 발명에 사용된 다시점 부호화기 GGOP의 구조의 일예,1B is an example of a structure of a multi-view encoder GGOP used in the present invention,

도 2는 카메라 배열을 이용한 변이 벡터를 예측하는 것을 설명하기 위한 예시도,2 is an exemplary diagram for explaining predicting a disparity vector using a camera array.

도 3은 본 발명에 따른 움직임 및 변이 동시 추정 방법을 설명하기 위한 일실시예 개략도,3 is a schematic diagram of an embodiment for explaining a method for simultaneously estimating motion and disparity according to the present invention;

도 4는 본 발명에서

Figure 112006002086725-pat00001
의 결정 방법을 설명하기 위한 일예시도,4 is in the present invention
Figure 112006002086725-pat00001
One example for explaining how to determine,

도 5는 본 발명에 따라

Figure 112006002086725-pat00002
Figure 112006002086725-pat00003
사이의 관계를 나타낸 일예시도,5 is in accordance with the present invention
Figure 112006002086725-pat00002
Wow
Figure 112006002086725-pat00003
One example showing the relationship between,

도 6a는 본 발명에 따른

Figure 112006002086725-pat00004
의 조건을 나타낸 일예시도, 6a is in accordance with the present invention
Figure 112006002086725-pat00004
An illustration showing the conditions of

도 6b는 본 발명에 따른 임계값 설정을 설명하기 위한 일실시예 그래프,Figure 6b is an embodiment graph for explaining a threshold setting according to the present invention,

도 7은 본 발명에 의해 두 참조 프레임 사이의 변이 벡터를 이용해 현재 프레임의 변이가 예측되는 것을 설명하기 위한 일예시도,7 is an exemplary view for explaining that the variation of the current frame is predicted by using the variation vector between two reference frames according to the present invention;

도 8은 본 발명에 따른 블록 위치 매칭을 위한 참조 선택 기준을 설명하기 위한 일예시도,8 is an exemplary view for explaining reference selection criteria for block position matching according to the present invention;

도 9a 및 도 9b는 본 발명에 따라 움직임 예측을 위한 블록 위치 매칭 과정을 설명하기 위한 일예시도.9A and 9B are exemplary views illustrating a block position matching process for motion prediction according to the present invention.

본 발명은 고속 움직임 및 변이 추정 방법에 관한 것으로서, 보다 상세하게는 다시점 동영상 부호화기에 사용하기 위한 고속 움직임 및 변이 추정 방법에 관한 것이다.The present invention relates to a fast motion and disparity estimation method, and more particularly, to a fast motion and disparity estimation method for use in a multiview video encoder.

일반적인 2차원 동영상 부호화기에서 벡터를 추정하기 위해서는 예측 벡터 주변으로 일정한 크기의 검색 범위를 탐색하는 전방향 탐색 알고리즘을 수행하게 된다.In order to estimate a vector in a typical 2D video encoder, an omnidirectional search algorithm searching for a constant search range around a prediction vector is performed.

그러나, 이러한 과정을 다시점 동영상 부호화기에 적용할 경우에는 그 계산이 매우 복잡해지는 문제점이 있다.However, when this process is applied to a multi-view video encoder, the calculation becomes very complicated.

이러한 종래 기술의 문제를 해결하기 위해서 효율적인 변이 벡터와 움직임 벡터의 예측을 수행하는 방법이 다수 개발되어 있다.In order to solve such a problem of the prior art, a number of methods for performing prediction of efficient disparity vectors and motion vectors have been developed.

이에 따라 정확한 벡터를 예측한 경우 작은 검색 범위를 가지고도 정확한 벡터를 예측할 수 있기 때문에 빠른 추정을 수행할 수 있다. 하지만 예측 벡터의 신 뢰도는 각 블록마다 달라지기 때문에 이 작은 검색 범위만을 적용할 경우 잘못된 벡터들을 추정하게 되는 경우가 발생하는 문제점이 있다.As a result, when an accurate vector is predicted, an accurate vector can be predicted even with a small search range, thereby enabling fast estimation. However, since the reliability of the prediction vector is different for each block, there is a problem that incorrect vectors are estimated when only this small search range is applied.

본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 신뢰도에 따라서 검색 범위를 제어함으로써, 안정적이면서도 간단하게 추정을 수행하기 위한, 고속 움직임 및 변이 추정 방법을 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above problems, and an object thereof is to provide a fast motion and disparity estimation method for stable and simple estimation by controlling a search range according to reliability.

상기한 바와 같은 목적을 달성하기 위해, 본 발명의 바람직한 실시예에 따르면, 필터링을 통해 예측한 제1벡터와 카메라 배열을 이용하여 예측한 제2벡터의 차이값을 결정하는 단계(a); 및 상기 차이값에 따라 탐색 범위를 결정하는 단계(b)를 포함하는 고속 추정 방법이 제공된다.In order to achieve the above object, according to a preferred embodiment of the present invention, the method comprises: determining a difference value between the first vector predicted through filtering and the second vector predicted using the camera array; And (b) determining a search range according to the difference value.

이때, 상기 제1벡터는, 메디안 필터링을 수행하여 결정하고, 상기 제2벡터는, 변이 예측의 경우

Figure 112006002086725-pat00005
(단,
Figure 112006002086725-pat00006
는 두 참조 시점간의 거리에 대한 참조 시점과 현재 시점간의 거리의 비율이고,
Figure 112006002086725-pat00007
은 두 참조 시점간의 거리임)에 의해 결정하거나, 움직임 예측의 경우
Figure 112006002086725-pat00008
(단,
Figure 112006002086725-pat00009
Figure 112006002086725-pat00010
는 시간 t와 t+1에서의 변이 벡터이고,
Figure 112006002086725-pat00011
는 왼쪽 시점 영상간의 움직임 벡터임)에 의해 결정하는 것이 바람직하다.In this case, the first vector is determined by performing median filtering, and the second vector is used for disparity prediction.
Figure 112006002086725-pat00005
(only,
Figure 112006002086725-pat00006
Is the ratio of the distance between the reference time point and the current time point to the distance between two reference time points,
Figure 112006002086725-pat00007
Is the distance between the two reference viewpoints)
Figure 112006002086725-pat00008
(only,
Figure 112006002086725-pat00009
Wow
Figure 112006002086725-pat00010
Is the disparity vector at times t and t + 1,
Figure 112006002086725-pat00011
Is a motion vector between left view images.

또한, 상기 차이값은,

Figure 112006002086725-pat00012
(단,
Figure 112006002086725-pat00013
은 제1벡터이며,
Figure 112006002086725-pat00014
는 제2벡터임)에 의해 결정한다.In addition, the difference value,
Figure 112006002086725-pat00012
(only,
Figure 112006002086725-pat00013
Is the first vector,
Figure 112006002086725-pat00014
Is the second vector).

상기 단계(b)는, 탐색 범위 변수를 결정하는 단계(c); 및 상기 탐색 범위 변수에 따라 새로운 탐색 범위를 결정하는 단계(d)를 포함하여 구성되는 것이 바람직하며, 상기 단계(c)는, 상기 차이값이 소정의 임계값1보다 작은 경우에는, 상기 탐색 범위 변수에 1보다 큰 일정한 값을 할당하는 단계(e); 상기 차이값이 상기 임계값1보다 크고, 소정의 임계값2보다 작은 경우에는, 상기 탐색 범위 변수에 상기 차이값에 반비례하는 1보다 큰 값을 할당하는 단계(f); 및 상기 차이값이 상기 임계값2보다 큰 경우에는, 상기 탐색 범위 변수에 실질적으로 1을 할당하는 단계(g)를 포함하는 것이 바람직하다. 이때, 상기 임계값1 및 상기 임계값2는,

Figure 112006002086725-pat00015
(단,
Figure 112006002086725-pat00016
는 상기 제2벡터가 안정적으로 새로운 탐색 범위 내에 있도록 하기 위해 곱해진 1보다 큰 수임)와 같은 조건에 의해 설정되고, 상기 상기 새로운 탐색 범위는,
Figure 112006002086725-pat00017
(단,
Figure 112006002086725-pat00018
는 새로운 탐색 범위,
Figure 112006002086725-pat00019
은 원래 탐색 범위,
Figure 112006002086725-pat00020
은 상기 탐색 범위 변수임)에 의해 결정된다.Step (b) comprises: determining (c) a search range variable; And determining (d) a new search range according to the search range variable, wherein step (c) includes the search range when the difference value is smaller than a predetermined threshold value 1. Assigning a constant value greater than one to the variable (e); (F) assigning a value greater than 1 to the search range variable in inverse proportion to the difference value if the difference value is greater than the threshold value 1 and less than a predetermined threshold value 2; And if the difference is greater than the threshold 2, assigning substantially 1 to the search range variable. At this time, the threshold value 1 and the threshold value 2,
Figure 112006002086725-pat00015
(only,
Figure 112006002086725-pat00016
Is a number greater than 1 multiplied so that the second vector is stably within a new search range, and the new search range is
Figure 112006002086725-pat00017
(only,
Figure 112006002086725-pat00018
Is the new navigation range,
Figure 112006002086725-pat00019
Is the original navigation range,
Figure 112006002086725-pat00020
Is the search range variable).

상술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 우선 각 도면의 구성요소들에 참조 번호를 부가함에 있어서, 동일한 구성요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능 한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. First, in adding reference numerals to the components of each drawing, it should be noted that the same components as possible, even if displayed on the other drawings have the same number as possible. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1a는 본 발명이 적용되는 다시점 프로파일을 이용한 스테레오 영상 부호화/복호화 시스템의 구조도이다. 1A is a structural diagram of a stereo image encoding / decoding system using a multiview profile to which the present invention is applied.

도면에 도시된 바와 같이, 기본계층(Base layer)은 움직임 보상 및 이산 여현 변환(DCT: Discrete Cosine Transform)을 이용하여 부호화하고 역과정을 통하여 복호화하며, 확장 계층(Enhancement layer)은 기본 계층을 참조하여 변이 추정 부호화기를 이용하여 부호화하여 전송된다.As shown in the figure, the base layer is encoded using a motion compensation and Discrete Cosine Transform (DCT) and decoded through an inverse process, and the enhancement layer refers to the base layer. Is encoded using the disparity estimation encoder and transmitted.

즉, 두 개의 변이 예측 또는 각각 한 개의 변이 예측 및 움직임 보상 예측이 여기에 사용될 수 있으며, 기본계층(base layer)의 부호화 및 복호화기와 마찬가지로 확장 계층의 부호화는 보조의 시점 부호화기(Auxiliary view encoder)를 이용하여 변이 및 움직임 보상 DCT 부호화기 및 복호화기를 포함한다.That is, two variance predictions or one variance prediction and a motion compensation prediction may be used here, and the encoding of the enhancement layer, like the encoder and the decoder of the base layer, may use an auxiliary view encoder. It includes a variation and motion compensation DCT encoder and decoder.

또한, 움직임 예측/보상 부호화 과정에서 움직임 예측기와 보상기가 필요한 것처럼 변이 보상 부호화 과정은 변이 예측기와 보상기가 필요하며, 블록 기반의 움직임/변이 예측 및 보상에 덧붙여 부호화 과정에서는 예측된 결과 영상과 원영상과 차영상들의 DCT, DCT 계수의 양자화, 그리고 가변장 부호화 등이 포함된다. In addition, just as a motion predictor and a compensator are required in the motion prediction / compensation encoding process, the disparity compensation encoding process requires a disparity predictor and a compensator. DCT, quantization of DCT coefficients, and variable length coding of differential images.

반대로 복호화 과정은 가변장 복호화, 역양자화, 역DCT등의 과정을 거쳐 수행된다.On the contrary, the decoding process is performed through the process of variable length decoding, inverse quantization, inverse DCT, and the like.

본 발명은 블록 기반의 움직임/변이 예측에 적용되는 것이다.The present invention is applied to block-based motion / variation prediction.

보다 더 현실적이고 자연스러운 영상의 구현을 위해 3D 영상 시스템에 대한 연구가 활발히 진행 중이다. 3D 영상은 시청자에게 깊이 정보를 제공하여 입체감을 느끼게 하는데, 이러한 깊이 정보는 인간의 양안 시차만큼 떨어진 시점에서 획득된 두 개 이상의 영상을 통해 얻을 수 있다. 넓은 시각과 시점의 이동을 허용하는 다시점 영상은 일반 2D 영상에 비해 수배의 데이터 양을 요구하며 이를 처리하기 위해서 효과적인 압축 알고리듬을 필요로 한다. 다시점 부호화기는 같은 시간에 획득된 다시점 영상 사이의 상관성을 이용하여 부호화를 수행한다. In order to realize more realistic and natural images, studies on 3D imaging systems are being actively conducted. The 3D image provides depth information to a viewer to make a 3D sense, and the depth information may be obtained through two or more images acquired at a time point separated by binocular parallax. Multi-view images that allow a wide range of vision and viewpoint movements require several times the amount of data compared to normal 2D images and require an effective compression algorithm to process them. The multi-view encoder performs encoding by using the correlation between the multi-view images obtained at the same time.

도 1b는 본 발명에 사용된 다시점 부호화기 GGOP(Group of GOP)의 구조의 일예로서, 평행식 8시점의 다시점 동영상의 경우를 예를 든 것이다. 각 사각형은 하나의 프레임을 나타내고, 가로축은 시점, 세로축은 시간을 나타낸다. 부호화 과정에서 가장 먼저 참조 프레임 없이 압축되는 프레임을 I-프레임, 이 I 프레임을 참조로 하여 한 방향으로 추정이 수행되는 프레임을 P-프레임, 그리고 이 I 또는 P 프레임 여러 개를 사용하여 양 방향 추정이 수행되는 프레임을 B-프레임이라 하자.  1B illustrates an example of a structure of a multiview encoder GGOP (Group of GOP) used in the present invention and illustrates a case of a multiview video having a parallel 8 view. Each rectangle represents one frame, the horizontal axis represents a viewpoint, and the vertical axis represents time. In the encoding process, I-frames are first compressed without a reference frame, I-frames are estimated using one I-frame, and a frame is estimated in both directions using a P-frame and two I or P frames. Let this frame be performed B-frame.

종래에는, 대응되는 블록이나 픽셀, 또는 물체를 찾기 위하여, 가장 일반적으 로 탐색 범위 내의 모든 픽셀에 대해 탐색을 수행(전방향 탐색 알고리즘)하였다. 그러나, 이 방식은 엄청난 계산량이 요구된다. 즉, 전방향 탐색 방법을 사용하면 비용 함수를 최소화 하는 가장 정확한 벡터를 찾을 수 있어 좋은 화질을 유지할 수 있지만, 이를 위한 과정이 전체 부호화 과정에서 많은 부분을 차지하기 때문에 비용 감소를 위해서 고속 알고리듬을 필요로 한다. In the past, a search was performed on all pixels within the search range most generally (a forward search algorithm) to find a corresponding block, pixel, or object. However, this method requires a great amount of computation. In other words, the omnidirectional search method can find the most accurate vector that minimizes the cost function and maintain good image quality, but the fast algorithm is required to reduce the cost because the process takes up a large part of the entire encoding process. Shall be.

벡터 추정을 수행하기 전에 인과적인 블록들의 추정된 벡터를 중간값 필터링 하여 현재 블록의 벡터를 예측한다. 이 예측 벡터를 기준으로 일정한 크기의 탐색 범위를 할당하는데 이 벡터의 신뢰성이 크다면 큰 탐색 범위를 사용할 필요가 없다. 따라서 본 발명에서는 예측된 벡터의 신뢰성에 따라 탐색 범위를 제어하는 방법을 제안하고자 한다.Before performing the vector estimation, the vector of the current block is predicted by the median filtering of the estimated vector of the causal blocks. It is not necessary to use a large search range if the reliability of this vector is high. Therefore, the present invention proposes a method of controlling the search range according to the reliability of the predicted vector.

예측 벡터의 신뢰성을 조사하기 위해서 본 발명에서는 두 가지 예측 방법을 사용한다. 첫 번째 방법은 인과적인 블록들로부터 중간값 필터링을 수행하여 구하고 두 번째 방법은 움직임과 변이 벡터의 성질을 이용하여 또 다른 예측 벡터

Figure 112006002086725-pat00021
를 계산한다. 중간값 필터링을 이용해 구한 예측 벡터
Figure 112006002086725-pat00022
Figure 112006002086725-pat00023
의 차이를 구하는데 이 차이가 작다면 먼저 구한 예측 벡터
Figure 112006002086725-pat00024
의 신뢰성이 높다고 판단할 수 있고, 따라서 탐색 범위를 줄일 수 있다. 그리고 이 차이가 크다면
Figure 112006002086725-pat00025
의 예측이 잘못되었을 수 있고, 이 블록에 대해서는 원래 크기의 탐색 범위를 사용해야 한다.In order to investigate the reliability of the prediction vector, the present invention uses two prediction methods. The first method is obtained by performing median filtering from causal blocks, and the second method is another prediction vector using the properties of motion and disparity vectors.
Figure 112006002086725-pat00021
Calculate Predictive Vectors Based on Median Filtering
Figure 112006002086725-pat00022
and
Figure 112006002086725-pat00023
If the difference is small, the first predictive vector
Figure 112006002086725-pat00024
Can be judged to have high reliability, and thus the search range can be reduced. And if this difference is big
Figure 112006002086725-pat00025
The prediction of may be wrong, and the search range of the original size should be used for this block.

이러한 방법을 사용하기 위해서는 또 다른 예측 벡터

Figure 112006002086725-pat00026
를 구하기 위한 논리적인 예측 방법이 필요하다. 변이 벡터는 카메라 배열과 변이가 밀접한 관계가 있다는 사실을 이용하여 예측할 수 있다. 이를 도 2를 참조로 설명하기로 하자.In order to use this method another predictive vector
Figure 112006002086725-pat00026
We need a logical prediction method to find. Disparity vectors can be predicted using the fact that mutations are closely related to camera arrangement. This will be described with reference to FIG. 2.

도 2는 카메라 배열을 이용한 변이 벡터를 예측하는 것을 설명하기 위한 예시도로서, Image1, 2, 3은 같은 시간에 획득된 다른 시점의 세 프레임을 나타낸다. Image1과 Image2 사이의 간격을

Figure 112006002086725-pat00027
, Image1과 Image3 사이의 간격을
Figure 112006002086725-pat00028
라 하고, 다 음의 수학식과 같은 관계를 가지는 값
Figure 112006002086725-pat00029
를 정의하는데, 이는 두 참조 시점간의 거리에 대한 한 참조 시점과 현재 시점간의 거리의 비율과 같다.FIG. 2 is an exemplary diagram for explaining a prediction of a disparity vector using a camera arrangement, and Image1, 2, and 3 show three frames of different views obtained at the same time. The gap between Image1 and Image2
Figure 112006002086725-pat00027
, The gap between Image1 and Image3
Figure 112006002086725-pat00028
Is a value that has the same relationship as
Figure 112006002086725-pat00029
This is defined as the ratio of the distance between one reference view and the current view to the distance between two reference views.

Figure 112006002086725-pat00030
Figure 112006002086725-pat00030

Image2를 부호화하기 전에 Image1과 Image3 사이의 변이 벡터

Figure 112006002086725-pat00031
을 가지고 있다면, Image1과 Image2 사이의 예측 변이 벡터
Figure 112006002086725-pat00032
는 다음과 같이 구할 수 있다. Disparity vector between Image1 and Image3 before encoding Image2
Figure 112006002086725-pat00031
If you have
Figure 112006002086725-pat00032
Can be obtained as

Figure 112006002086725-pat00033
Figure 112006002086725-pat00033

보다 정확한

Figure 112006002086725-pat00034
를 구하기 위해서는
Figure 112006002086725-pat00035
도 더욱 정확하게 계산되어야 한다. More accurate
Figure 112006002086725-pat00034
To save
Figure 112006002086725-pat00035
Should also be calculated more accurately.

도 3은 본 발명에 따른 움직임 및 변이 동시 추정 방법을 설명하기 위한 일실시예 개략도이다.3 is a schematic diagram of an embodiment for explaining a method for simultaneously estimating motion and disparity according to the present invention.

도면에 도시된 바와 같이, 본 발명은 움직임 벡터를 예측하기 위해서 두 개의 다른 시점을 가진 영상들 사이에서 변이 벡터와 움직임 벡터 사이의 관계를 이용할 수 있다. 이러한 방법은 동시 추정 기법이라 한다. As shown in the figure, the present invention may use the relationship between the disparity vector and the motion vector between images having two different viewpoints in order to predict the motion vector. This method is called a simultaneous estimation technique.

도 3의 왼쪽 시점에 있는 영상들은 오른쪽 시점의 영상을 추정하기 위해 참조된다. 우리가 시간 t와 t+1에서의 변이 벡터

Figure 112006002086725-pat00036
Figure 112006002086725-pat00037
, 그리고 왼쪽 시점 영상간의 움직임 벡터
Figure 112006002086725-pat00038
를 미리 알고 있다고 가정하면
Figure 112006002086725-pat00039
는 다음과 같이 예측할 수 있 다. The images at the left view of FIG. 3 are referenced to estimate the image at the right view. Variation vector at time t and t + 1
Figure 112006002086725-pat00036
Wow
Figure 112006002086725-pat00037
, Motion vector between left view image
Figure 112006002086725-pat00038
Assuming you know in advance
Figure 112006002086725-pat00039
Can be predicted as follows.

Figure 112006002086725-pat00040
Figure 112006002086725-pat00040

만약 변이 추정 이전에 움직임 추정이 수행될 경우 우리가

Figure 112006002086725-pat00041
를 예측하고자 할 때에 현재 시간의 변이 벡터
Figure 112006002086725-pat00042
는 존재하지 않을 수도 있다. 이 경우 시간상에서의 주변 프레임들 간의 상관성을 이용해
Figure 112006002086725-pat00043
Figure 112006002086725-pat00044
와 같은 값을 갖는다고 가정한다. 이 가정 하에서 위의 식은 간단히
Figure 112006002086725-pat00045
가 되지만 각 블록의 위치가 정확히 해당 블록의 위치에 매칭이 되지 않으므로 블록 위치 매칭 알고리듬이 필요하다. 이러한 방법으로 예측된 움직임 또는 변이 벡터
Figure 112006002086725-pat00046
와 메디안 필터링을 통해 예측된 벡터
Figure 112006002086725-pat00047
사이의 차는
Figure 112006002086725-pat00048
의 신뢰성을 의미한다. 따라서 이 차이
Figure 112006002086725-pat00049
Figure 112006002086725-pat00050
로 정의되며 새로운 탐색 범위를 결정하는데 사용된다.
Figure 112006002086725-pat00051
에 따라 각 블록에 탐색 범위 변수
Figure 112006002086725-pat00052
의 값이 할당되고, 새로운 탐색 범위는 다음과 같이 계산된다. If motion estimation is performed before disparity estimation, we
Figure 112006002086725-pat00041
Vector of current time when we want to predict
Figure 112006002086725-pat00042
May not exist. In this case, we can use the correlation between neighboring frames
Figure 112006002086725-pat00043
Is
Figure 112006002086725-pat00044
Suppose it has the same value as Under this assumption, the above equation is simply
Figure 112006002086725-pat00045
However, since the position of each block does not exactly match the position of the corresponding block, a block position matching algorithm is required. Motion or disparity vectors predicted in this way
Figure 112006002086725-pat00046
Vectors Predicted with Median Median Filtering
Figure 112006002086725-pat00047
The difference between
Figure 112006002086725-pat00048
Means reliability. So this difference
Figure 112006002086725-pat00049
Is
Figure 112006002086725-pat00050
It is defined as, and used to determine the new search range.
Figure 112006002086725-pat00051
Search scope variable in each block according to
Figure 112006002086725-pat00052
Is assigned, and the new search range is calculated as follows.

Figure 112006002086725-pat00053
Figure 112006002086725-pat00053

여기서

Figure 112006002086725-pat00054
는 새로운 탐색 범위를,
Figure 112006002086725-pat00055
은 원래 탐색 범위를 나타낸다. 따라서
Figure 112006002086725-pat00056
의 값이 커질수록 새로운 탐색 범위는 작아지므로, 신뢰성이 높은 블록에 큰 값이 할당되어야 한다. 이렇게 각 블록에서
Figure 112006002086725-pat00057
를 결정하기 위한 방법이 도 4에 나타내 있다.here
Figure 112006002086725-pat00054
New search range,
Figure 112006002086725-pat00055
Indicates the original search range. therefore
Figure 112006002086725-pat00056
As the value of becomes larger, the new search range becomes smaller. Therefore, a larger value should be assigned to a highly reliable block. In each block
Figure 112006002086725-pat00057
A method for determining is shown in FIG. 4.

도 4는 본 발명에서

Figure 112006002086725-pat00058
의 결정 방법을 설명하기 위한 일예시도이다.4 is in the present invention
Figure 112006002086725-pat00058
One example for explaining the method of determination of.

각 블록은

Figure 112007029311052-pat00059
의 값에 따라 1 내지 미리 설정된 최대값 중 세 개의 다른 섹션에 할당되고, 이를 위해 두 개의 임계값이 필요하다. 이 중 작은 값을
Figure 112007029311052-pat00060
, 큰 값을
Figure 112007029311052-pat00061
라 한다.
Figure 112007029311052-pat00062
Figure 112007029311052-pat00063
보다 작을 경우(S401), 예측 벡터
Figure 112007029311052-pat00064
이 신뢰성이 높다고 보고 1보다 큰 밀 설정된 최대값을
Figure 112007029311052-pat00065
에 할당한다(S403). 그리고 이를 ‘sect1’으로 정의한다.
Figure 112007029311052-pat00066
가 두 임계값의 사이 값을 가진다면(S405), 이
Figure 112007029311052-pat00067
에 반비례하는 1보다 크며 상기 최대값보다 작은 값이
Figure 112007029311052-pat00068
에 할당되고(S407) 이를 ‘sect2’로 정의한다. 마지막으로
Figure 112007029311052-pat00069
Figure 112007029311052-pat00070
보다 크다면(S405), 이는 이 잘못된 값을 가질 수 있다는 것을 의미하므로
Figure 112007029311052-pat00071
에 1이 할당되어 탐색 범위는 변하지 않는다(S409). 이를 ‘sect3’으로 정의한다. 따라서 많은 블록이 sect1에 할당될수록 추정에 걸리는 시간이 많이 줄어들 것이고, 많은 블록이 sect3에 할당될수록 수행 시간에 변화가 없어질 것이다. 도 5는 본 발명에 따라
Figure 112007029311052-pat00072
Figure 112007029311052-pat00073
사이의 관계를 나타낸 일예시도이다.Each block
Figure 112007029311052-pat00059
It is assigned to three different sections from 1 to a preset maximum, depending on the value of, and two thresholds are required for this. The smaller of these
Figure 112007029311052-pat00060
, Large value
Figure 112007029311052-pat00061
It is called.
Figure 112007029311052-pat00062
end
Figure 112007029311052-pat00063
Less than (S401), the prediction vector
Figure 112007029311052-pat00064
It is reported that this reliability is high.
Figure 112007029311052-pat00065
(S403). It is defined as 'sect1'.
Figure 112007029311052-pat00066
If has a value between the two thresholds (S405),
Figure 112007029311052-pat00067
Greater than 1 inversely proportional to and less than the maximum
Figure 112007029311052-pat00068
(S407) and define it as 'sect2'. Finally
Figure 112007029311052-pat00069
end
Figure 112007029311052-pat00070
If greater than (S405), this means that it can have this wrong value
Figure 112007029311052-pat00071
Is assigned to 1 and the search range does not change (S409). This is defined as 'sect3'. Therefore, the more time a block is allocated to sect1, the less time it takes to estimate, and the more time that many blocks are allocated to sect3, the longer the execution time will be. 5 is in accordance with the present invention
Figure 112007029311052-pat00072
Wow
Figure 112007029311052-pat00073
It is an example showing the relationship between.

이러한 과정에서 임계값은 전체 고속 알고리듬의 성능을 좌우하는 중요한 요소가 된다. 이를 논리적으로 정하기 위해

Figure 112006002086725-pat00074
Figure 112006002086725-pat00075
사이에 유지되어야 하는 조건을 이용한다. 도 6a는 본 발명에 따른
Figure 112006002086725-pat00076
의 조건을 나타낸 일예시도이고, 도 6b는 본 발명에 따른 임계값 설정을 설명하기 위한 일실시예 그래프이다. 도 6a를 참조로 하면,
Figure 112006002086725-pat00077
Figure 112006002086725-pat00078
보다 작아야 하므로 다음의 수학식과 같은 조건이 필요하다. In this process, the threshold value is an important factor that determines the performance of the overall fast algorithm. To make this logical
Figure 112006002086725-pat00074
Wow
Figure 112006002086725-pat00075
Use conditions that must be maintained in between. 6a is in accordance with the present invention
Figure 112006002086725-pat00076
Figure 6b is an exemplary view showing the condition of, Figure 6b is an embodiment graph for explaining the threshold setting according to the present invention. Referring to FIG. 6A,
Figure 112006002086725-pat00077
Is
Figure 112006002086725-pat00078
Since it must be smaller, the following condition is required.

Figure 112006002086725-pat00079
Figure 112006002086725-pat00079

Figure 112006002086725-pat00080
Figure 112006002086725-pat00080

여기서

Figure 112006002086725-pat00081
는 예측 벡터
Figure 112006002086725-pat00082
가 안정적으로 새로운 탐색 범위 내에 있도록 하기 위해 곱해진 1보다 큰 수이다.
Figure 112006002086725-pat00083
가 클수록 안정성은 높아지지만
Figure 112006002086725-pat00084
이 작게 지정되므로 속도 면에서 성능 향상이 덜해지고
Figure 112006002086725-pat00085
가 작아지면
Figure 112006002086725-pat00086
은 커질 수 있지만 안정성이 떨어지므로 이는 실험적으로 결정될 수 있다. here
Figure 112006002086725-pat00081
Forecast vector
Figure 112006002086725-pat00082
Is a number greater than 1 multiplied to ensure that it is stably within the new search range.
Figure 112006002086725-pat00083
The larger the value, the higher the stability.
Figure 112006002086725-pat00084
Is small, so there is less performance gain in speed
Figure 112006002086725-pat00085
Becomes smaller
Figure 112006002086725-pat00086
Can be large but is less stable and can be determined experimentally.

수학식 5와 이에 따른 각 섹션의 할당이 도 6b에 나타난 바와 같다. 초기값은 실험적으로 4로 두고 sect2에서의 기울기는 반비례 곡선에 접하도록 하여 안정적이면서도 많은 블록이 sect1과 sect2에 할당될 수 있도록 할 수 있다.Equation 5 and the allocation of each section accordingly are shown in FIG. 6B. The initial value is experimentally set to 4, and the slope at sect2 is tangent to the inverse curve so that many blocks can be allocated to sect1 and sect2.

예측된 벡터의 신뢰성을 판단하기 위해 또 다른 벡터를 새로운 방법으로 예측할 때 다른 프레임의 벡터도 참조로 사용된다. 이때 정확한 참조 블록을 선택하기 위해서는 같은 위치에 있는 블록이 아니라 같은 내용을 가진 대응되는 블록을 사용해야 한다. 이를 찾기 위한 알고리듬을 블록 위치 매칭 알고리듬이라 하고, 이 는 변이와 움직임 추정에 각각 적용된다. When predicting another vector in a new way to determine the reliability of the predicted vector, the vector of another frame is also used as a reference. In this case, in order to select the correct reference block, the corresponding block having the same contents should be used instead of the block in the same position. The algorithm for finding this is called the block position matching algorithm, which is applied to the variance and motion estimation respectively.

본 발명에서는, B-프레임의 변이 벡터를 예측하기 위해서 I 또는 P-프레임의 변이 벡터를 참조한다. 이 때, 보다 정확한 벡터를 참조하기 위해서는 B-프레임을 부호화하기 전에 두 참조 프레임과 현재 B-프레임의 블록들의 대응하는 위치를 찾을 수 있는 블록 위치 맵이 만들어져야 한다. 도 7은 본 발명에 의해 두 참조 프레임 사이의 변이 벡터를 이용해 현재 프레임의 변이가 예측되는 것을 설명하기 위한 일예시도이며, 도 8은 본 발명에 따른 블록 위치 매칭을 위한 참조 선택 기준을 설명하기 위한 일예시도이다.In the present invention, reference is made to the disparity vector of an I or P-frame to predict the disparity vector of a B-frame. At this time, in order to refer to a more accurate vector, a block position map for finding the corresponding positions of the blocks of the two reference frames and the current B-frame should be made before encoding the B-frame. FIG. 7 illustrates an example of predicting a variation of a current frame using a variation vector between two reference frames according to the present invention, and FIG. 8 illustrates reference selection criteria for block position matching according to the present invention. This is an example for.

도 8과 같이, 대응되는 블록의 위치를 계산할 때 찾아진 위치는 프레임의 매크로 블록 단위로 딱 맞아떨어지지 않기 때문에 한 참조 블록은 현재 프레임에서 여러 블록 위에 걸쳐지게 된다. 현재 프레임의 관점에서 볼 경우 한 개의 블록이 여러 개의 참조 블록을 가질 수도 있다. 도 8에서는 두 개의 다른 참조 블록이 현재 프레임의 블록 A 위에 걸쳐있고, 세 개의 다른 블록이 블록 B 위에 걸쳐 있다. 이 중 하나의 참조 블록만을 선택하기 위해서, 가장 큰 넓이를 현재 프레임의 블록과 공유하고 있는 블록을 선택하기로 했다. 따라서 블록 A와 B의 경우 진한 색의 참조 블록이 선택된다. 블록 C, D, E, F의 경우 오직 하나의 참조 블록이 이들 위에 걸쳐 있기 때문에, 네 블록 모두 이 참조 블록의 벡터를 사용하게 된다. 마지막으로 블록 G의 경우 참조 블록이 전혀 없기 때문에 블록 E와 참조 벡터를 공유하도록 한다.As shown in FIG. 8, since the position found when calculating the position of the corresponding block does not fit exactly in units of macro blocks of a frame, one reference block spans several blocks in the current frame. In view of the current frame, one block may have several reference blocks. In FIG. 8, two different reference blocks span block A of the current frame and three other blocks span block B. In FIG. In order to select only one of these reference blocks, a block sharing the largest area with the block of the current frame is selected. Therefore, in the case of blocks A and B, a dark reference block is selected. In the case of blocks C, D, E and F, since only one reference block spans them, all four blocks will use the vector of this reference block. Finally, in the case of block G, the reference vector is shared with block E since there is no reference block at all.

움직임 벡터 예측을 위한 블록 위치 매칭은 변이 벡터 예측의 경우와 기본적 으로 비슷하다.

Figure 112006002086725-pat00087
의 값이
Figure 112006002086725-pat00088
와 같다고 가정했기 때문에 구하고자 하는 움직임 벡터는 왼쪽 영상의 움직임 벡터를 그대로 사용하게 된다. 그러나 이 때 상대적으로 같은 위치에 있는 벡터를 사용하면 큰 오차가 생길 가능성이 높으므로 변이 벡터를 이용해 실제 대응되는 위치에 있는 벡터를 참조해야 한다. 이를 도면을 참조로 설명하기로 하자.Block position matching for motion vector prediction is basically similar to that for disparity vector prediction.
Figure 112006002086725-pat00087
Has a value of
Figure 112006002086725-pat00088
Since it is assumed to be equal to, the motion vector to be obtained uses the motion vector of the left image as it is. However, if you use the vector in the same position at this time is likely to cause a large error, it is necessary to refer to the vector at the actual corresponding position using the disparity vector. This will be described with reference to the drawings.

도 9a 및 도 9b는 본 발명에 따라 움직임 예측을 위한 블록 위치 매칭 과정을 설명하기 위한 일예시도이다.9A and 9B are exemplary diagrams for describing a block position matching process for motion prediction according to the present invention.

먼저, 도 9a에서

Figure 112006002086725-pat00089
Figure 112006002086725-pat00090
를 이용하여 t시간의 왼쪽 참조 프레임(왼쪽 위 프레임)에서의 대응되는 블록 위치를 찾는다. 이 과정을 통해 현재 프레임을 제외한 세 개의 참조 프레임들의 대응되는 블록이 연결된다. 이전 시간의 왼쪽 프레임의 블록들은 나머지 두 참조 프레임들에서의 대응되는 위치를 가지고 있게 된다.First, in FIG. 9A
Figure 112006002086725-pat00089
Wow
Figure 112006002086725-pat00090
Find the corresponding block position in the left reference frame (upper left frame) at time t. In this process, corresponding blocks of three reference frames except the current frame are connected. The blocks of the left frame of the previous time will have corresponding positions in the other two reference frames.

이후, 도 9b와 같이 이전 시간의 왼쪽 프레임이 가지고 있는 블록 위치 정보를 이용해, t+1 시간의 왼쪽 프레임에서 변이 벡터

Figure 112006002086725-pat00091
의 부호를 반대로 하여 현재 프레임에서의 대응되는 블록을 찾을 수 있다. 이를 통해 네 개의 프레임의 대응되는 블록들이 모두 연결된다. Then, as shown in Figure 9b, using the position information of the left frame of the previous frame, the disparity vector in the left frame of the time t +
Figure 112006002086725-pat00091
Reverse the sign of to find the corresponding block in the current frame. This connects all the corresponding blocks of four frames.

이러한 과정을 통해 현재 프레임의 블록과 대응되는 현재 시간의 왼쪽 참조 프레임의 블록 위치를 찾을 수 있다. 따라서 현재 블록의 움직임 예측 벡터

Figure 112006002086725-pat00092
는 대응되는 블록의 움직임 벡터
Figure 112006002086725-pat00093
와 같은 값을 가지게 된다. 이 과정에서도 역시 앞 에서 설명했던 참조 블록 선택 기준이 사용된다.Through this process, the block position of the left reference frame of the current time corresponding to the block of the current frame can be found. Therefore, the motion prediction vector of the current block
Figure 112006002086725-pat00092
Is the motion vector of the corresponding block
Figure 112006002086725-pat00093
It will have the same value as This process also uses the reference block selection criteria described earlier.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.The present invention described above is not limited to the above-described embodiments and the accompanying drawings, and various substitutions, modifications, and changes can be made in the art without departing from the technical spirit of the present invention. It will be clear to those of ordinary knowledge.

상기한 바와 같은 본 발명은, 다시점 영상간의 상관성을 이용하여 현재 영상의 움직임 및 변이 벡터를 효율적으로 예측하고, 이 예측 벡터를 기준으로 검색 범위를 제한하여 고속 추정을 수행하도록 하는 효과가 있다.As described above, the present invention has an effect of efficiently predicting motion and disparity vectors of a current image by using correlation between multiview images, and performing fast estimation by limiting a search range based on the prediction vector.

Claims (9)

필터링을 통해 예측한 제1벡터와 카메라 배열을 이용하여 예측한 제2벡터의 차이값을 결정하는 단계(a); 및Determining a difference value between the first vector predicted through the filtering and the second vector predicted using the camera array; And 상기 차이값에 따라 탐색 범위를 결정하는 단계(b)를 포함하는 고속 추정 방법.And (b) determining a search range according to the difference value. 제1항에 있어서, 상기 제1벡터는, 메디안 필터링을 수행하여 결정하는 고속 추정 방법.The fast estimation method of claim 1, wherein the first vector is determined by performing median filtering. 제1항에 있어서, 상기 제2벡터는, 변이 예측의 경우 다음 식에 의해 결정하는 고속 추정 방법.The fast estimation method according to claim 1, wherein the second vector is determined by the following equation in the case of disparity prediction.
Figure 112006002086725-pat00094
Figure 112006002086725-pat00094
(단,
Figure 112006002086725-pat00095
는 두 참조 시점간의 거리에 대한 한 참조 시점과 현재 시점간의 거리의 비율이고,
Figure 112006002086725-pat00096
은 두 참조 시점간의 거리임)
(only,
Figure 112006002086725-pat00095
Is the ratio of the distance between one reference time point and the current time point to the distance between two reference time points,
Figure 112006002086725-pat00096
Is the distance between two reference viewpoints)
제1항에 있어서, 상기 제2벡터는, 움직임 예측의 경우 다음 식에 의해 결정하는 고속 추정 방법.The fast estimation method according to claim 1, wherein the second vector is determined by the following equation in case of motion prediction.
Figure 112006002086725-pat00097
Figure 112006002086725-pat00097
(단,
Figure 112006002086725-pat00098
Figure 112006002086725-pat00099
는 시간 t와 t+1에서의 변이 벡터이고,
Figure 112006002086725-pat00100
는 왼쪽 시점 영상간의 움직임 벡터임)
(only,
Figure 112006002086725-pat00098
Wow
Figure 112006002086725-pat00099
Is the disparity vector at times t and t + 1,
Figure 112006002086725-pat00100
Is the motion vector between the left view images)
제1항에 있어서, 상기 차이값은, 다음 식에 의해 결정하는 고속 추정 방법.The fast estimation method according to claim 1, wherein the difference value is determined by the following equation.
Figure 112006002086725-pat00101
Figure 112006002086725-pat00101
(단,
Figure 112006002086725-pat00102
은 제1벡터이며,
Figure 112006002086725-pat00103
는 제2벡터임)
(only,
Figure 112006002086725-pat00102
Is the first vector,
Figure 112006002086725-pat00103
Is the second vector)
제1항에 있어서, 상기 단계(b)는,The method of claim 1, wherein step (b) comprises: 탐색 범위 변수를 결정하는 단계(c); 및 (C) determining a search range variable; And 상기 탐색 범위 변수에 따라 새로운 탐색 범위를 결정하는 단계(d)를 포함하는 고속 추정 방법.And (d) determining a new search range according to the search range variable. 제6항에 있어서,The method of claim 6, 상기 탐색 범위 변수는 1 내지 미리 설정된 최대값 사이의 값이 할당되며, The search range variable is assigned a value between 1 and a preset maximum value, 상기 단계(c)는,Step (c) is, 상기 차이값이 소정의 임계값1보다 작은 경우에는, 상기 탐색 범위 변수에 상기 최대값을 할당하는 단계(e); (E) assigning the maximum value to the search range variable when the difference value is smaller than a predetermined threshold value 1; 상기 차이값이 상기 임계값1보다 크고, 소정의 임계값2보다 작은 경우에는, 상기 탐색 범위 변수에 1보다 크고 상기 최대값보다 작으며 상기 차이값에 반비례하는 값을 할당하는 단계(f); 및If the difference is greater than the threshold 1 and less than a predetermined threshold 2, assigning a value to the search range variable that is greater than 1 and less than the maximum value and inversely proportional to the difference value; And 상기 차이값이 상기 임계값2보다 큰 경우에는, 상기 탐색 범위 변수에 실질적으로 1을 할당하는 단계(g)를 포함하는 고속 추정 방법. And if the difference is greater than the threshold 2, assigning substantially 1 to the search range variable. 제7항에 있어서, 상기 임계값1 및 상기 임계값2는, 다음 조건에 의해 설정되는 고속 추정 방법.The fast estimation method according to claim 7, wherein the threshold value 1 and the threshold value 2 are set under the following conditions.
Figure 112006002086725-pat00104
Figure 112006002086725-pat00104
(단,
Figure 112006002086725-pat00105
는 상기 제2벡터가 안정적으로 새로운 탐색 범위 내에 있도록 하기 위해 곱해진 1보다 큰 수임)
(only,
Figure 112006002086725-pat00105
Is a number greater than 1 multiplied to ensure that the second vector is stably within the new search range.)
제6항에 있어서, 상기 새로운 탐색 범위는, 다음 식에 의해 결정되는 고속 추정 방법.7. The fast estimation method according to claim 6, wherein the new search range is determined by the following equation.
Figure 112006002086725-pat00106
Figure 112006002086725-pat00106
(단,
Figure 112006002086725-pat00107
는 새로운 탐색 범위,
Figure 112006002086725-pat00108
은 원래 탐색 범위,
Figure 112006002086725-pat00109
은 상기 탐색 범위 변수임)
(only,
Figure 112006002086725-pat00107
Is the new navigation range,
Figure 112006002086725-pat00108
Is the original navigation range,
Figure 112006002086725-pat00109
Is the search range variable)
KR1020060003314A 2006-01-11 2006-01-11 Method for estimating fast motion and disparity KR100764797B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060003314A KR100764797B1 (en) 2006-01-11 2006-01-11 Method for estimating fast motion and disparity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060003314A KR100764797B1 (en) 2006-01-11 2006-01-11 Method for estimating fast motion and disparity

Publications (2)

Publication Number Publication Date
KR20070075043A KR20070075043A (en) 2007-07-18
KR100764797B1 true KR100764797B1 (en) 2007-10-08

Family

ID=38500249

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060003314A KR100764797B1 (en) 2006-01-11 2006-01-11 Method for estimating fast motion and disparity

Country Status (1)

Country Link
KR (1) KR100764797B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102801995B (en) * 2012-06-25 2016-12-21 北京大学深圳研究生院 A kind of multi-view video motion based on template matching and disparity vector prediction method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990011959A (en) * 1997-07-25 1999-02-18 윤종용 Binocular Difference Estimation Method for Stereoscopic Image Encoder
KR20030083285A (en) * 2002-04-20 2003-10-30 전자부품연구원 Apparatus for encoding of multi view moving picture

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990011959A (en) * 1997-07-25 1999-02-18 윤종용 Binocular Difference Estimation Method for Stereoscopic Image Encoder
KR20030083285A (en) * 2002-04-20 2003-10-30 전자부품연구원 Apparatus for encoding of multi view moving picture

Also Published As

Publication number Publication date
KR20070075043A (en) 2007-07-18

Similar Documents

Publication Publication Date Title
US8559515B2 (en) Apparatus and method for encoding and decoding multi-view video
Saldanha et al. Fast 3D-HEVC depth map encoding using machine learning
KR101276720B1 (en) Method for predicting disparity vector using camera parameter, apparatus for encoding and decoding muti-view image using method thereof, and a recording medium having a program to implement thereof
KR101023262B1 (en) Image encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
US20110317766A1 (en) Apparatus and method of depth coding using prediction mode
KR101370919B1 (en) A method and apparatus for processing a signal
KR100977255B1 (en) Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
US10158850B2 (en) Depth map encoding and decoding
US20120189060A1 (en) Apparatus and method for encoding and decoding motion information and disparity information
KR20140021952A (en) Method of adaptive frame prediction for multiview video sequence coding
JP2008509592A (en) Multi-view video direct mode motion prediction method and apparatus
KR20120084629A (en) Apparatus and method for encoding and decoding motion information and disparity information
US20070092007A1 (en) Methods and systems for video data processing employing frame/field region predictions in motion estimation
US20160316224A1 (en) Video Encoding Method, Video Decoding Method, Video Encoding Apparatus, Video Decoding Apparatus, Video Encoding Program, And Video Decoding Program
KR100646302B1 (en) Motion vector estimation apparatus and method thereof
WO2007037645A1 (en) Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method
US20150358644A1 (en) Video encoding apparatus and method, video decoding apparatus and method, and programs therefor
KR20110139882A (en) Method and apparatus for multiview depth image coding and decoding
KR100764797B1 (en) Method for estimating fast motion and disparity
JP2001285895A (en) Image data coder and its method
KR101638211B1 (en) Video coding based on global movement compensation
US20130251045A1 (en) Method and device for determining a motion vector for a current block of a current video frame
JP5706291B2 (en) Video encoding method, video decoding method, video encoding device, video decoding device, and programs thereof
Daribo et al. Joint depth-motion dense estimation for multiview video coding
JP4759537B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and computer-readable recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120904

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131002

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151002

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee