KR101174901B1 - 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법 - Google Patents

다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법 Download PDF

Info

Publication number
KR101174901B1
KR101174901B1 KR1020050114406A KR20050114406A KR101174901B1 KR 101174901 B1 KR101174901 B1 KR 101174901B1 KR 1020050114406 A KR1020050114406 A KR 1020050114406A KR 20050114406 A KR20050114406 A KR 20050114406A KR 101174901 B1 KR101174901 B1 KR 101174901B1
Authority
KR
South Korea
Prior art keywords
motion vector
block
current block
value
detected
Prior art date
Application number
KR1020050114406A
Other languages
English (en)
Other versions
KR20070055903A (ko
Inventor
김대희
조숙희
윤국진
허남호
이수인
이영렬
이융기
임성창
Original Assignee
세종대학교산학협력단
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단, 한국전자통신연구원 filed Critical 세종대학교산학협력단
Priority to KR1020050114406A priority Critical patent/KR101174901B1/ko
Publication of KR20070055903A publication Critical patent/KR20070055903A/ko
Application granted granted Critical
Publication of KR101174901B1 publication Critical patent/KR101174901B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Abstract

본 발명은 서로 다른 시점(viewpoint)을 가지는 복수의 카메라가 각기 촬영한 다시점(multi-viewpoint) 동영상 데이터들을 부호화하기 위하여 적응적으로 움직임 벡터를 예측하는 방법 및 장치에 관한 것으로서, 본 발명은 현재 블록의 인접 블록 중 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 블록 검출부; 및 블록 검출부에서 검출된 블록의 움직임 벡터를 기초로 현재 블록의 예측 움직임 벡터값을 구하는 적응적 예측부를 포함하여 적응적으로 움직임 벡터를 예측함으로써 압축률을 개선한다.
다시점 영상, H.264, 움직임 벡터 예측

Description

다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법{Method and Apparatus for prediction of adaptive motion vector in multi-viewpoint image}
도 1 (a) 는 다시점 동영상에서 적응적 움직임 벡터 예측 장치의 내부 구성도를 도시한다.
도 1 (b) 는 다시점 동영상에서 적응적 움직임 벡터 예측 장치의 내부 상세도를 도시한다.
도 2 (a) 내지 (c) 는 H.264 표준에서 움직임 벡터 예측 방법을 도시한다.
도 3 (a) 및 (b) 는 현재 블록과 하나의 인접 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 4 (a) 및 (b) 는 현재 블록과 하나의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 5 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 6 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 7 (a) 및 (b) 는 현재 블록과 인접한 모든 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 8 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 9 (a) 및 (b) 는 현재 블록의 참조 프레임은 이전 공간의 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 이전 시간에 부호화된 프레임일 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 10 (a) 및 (b) 는 현재 블록의 참조 프레임은 이전 시간에 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 현재 공간과 다른 공간의 부호화된 프레임일 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 11 은 본 발명의 바람직한 일 실시예로서, 적응적 움직임 예측 기법에 기반한 인코더를 도시한다.
도 12 는 본 발명의 바람직한 일 실시예로서, 적응적 움직임 예측 기법에 기반한 디코더를 도시한다.
도 13 은 본 발명의 바람직한 일 실시예로서, 다시점 영상에서 움직임 벡터 예측 과정을 흐름도로 도시한다.
도 14 는 본 발명의 바람직한 일 실시예로서, 인코더에서 다시점 영상의 움직임 벡터 예측 과정을 흐름도로 도시한다.
도 15 는 본 발명의 바람직한 일 실시예로서, 디코더에서 다시점 영상의 움직임 벡터 예측 과정을 흐름도로 도시한다.
본 발명은 서로 다른 시점(viewpoint)을 가지는 복수의 카메라가 각기 촬영한 다시점(multi-viewpoint) 동영상 데이터에서 적응적 움직임 벡터 예측 장치 및 방법에 관한 것으로, 보다 상세히 소정 크기의 블록에 대한 움직임 벡터예측 수행 시, 이미 부호화 및 복호화가 끝난 주위 3개 블록을 기초로 적응적으로 움직임 벡터를 예측함으로써 압축률을 높이는 방법 및 그 장치에 관한 것이다.
현재, 동영상 데이터를 부호화하기 위해 사용되는 H.264 표준에 따르면 하나의 프레임을 소정 크기의 블록으로 나누어 이미 부호화가 끝난 인접한 프레임을 참조하여 가장 유사한 블록을 검색하는 움직임 검색을 수행한다.
그러나, 주위 블록의 참조 프레임이 현재 참조 프레임과 모두 다른 경우 또는, 두 개의 블록의 참조 프레임이 현재 참조 프레임과 같은 경우에도 중간값 예측을 하여 그 값을 현재 블록의 움직임 벡터 예측 값으로 사용하는 것은 높은 압축률을 얻는데 부적합할 수 있다.
상기와 같은 부적합한 점을 해결하기 위하여, 본 발명은 현재 블록의 움직임 벡터값 예측에 있어 인접 블록이 참조하는 공간 프레임과 시간 프레임에 따라 움직임 벡터 예측 방법을 적응적으로 사용하여 압축률을 높이는 다시점 동영상에서 적응적 움직임 벡터 예측 방법 및 장치에 관한 것이다.
본 발명의 바람직한 일 실시예에서, 다시점 영상에서 적응적 움직임 벡터 예 측 장치는 현재 블록의 인접 블록 중 상기 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 블록 검출부; 및 상기 블록 검출부에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 적응적 예측부;를 포함한다.
본 발명의 바람직한 일 실시예의 적응적 예측부에서 상기 검출된 블록의 수가 하나인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 움직임 벡터값이다.
본 발명의 바람직한 일 실시예의 적응적 예측부에서 상기 검출된 블록의 수가 두 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 평균값이다.
본 발명의 바람직한 일 실시예의 적응적 예측부에서 상기 검출된 블록의 수가 세 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 중간값이다.
본 발명의 바람직한 일 실시예의 적응적 예측부에서 블록이 검출되지 않은 경우 상기 현재 블록의 예측 움직임 벡터값은 (0,0) 이다.
본 발명의 바람직한 일 실시예에서 움직임 벡터는 H.264 표준에 기초하여 추정된다.
본 발명의 또 다른 바람직한 일 실시예에서, 적응적 움직임 벡터 예측 인코더는 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블 록의 예측 움직임 벡터값을 구하는 움직임 벡터 예측부; 상기 현재 블록의 움직임 벡터값에서 상기 움직임 벡터 예측부에서 구한 현재 블록의 예측 움직임 벡터값의 차분을 부호화하는 엔트로피 부호화부;를 포함한다.
본 발명의 또 다른 바람직한 일 실시예에서 인코딩된 다시점 동영상 비트 스트림의 블록들을 적응적 움직임 벡터 예측방법을 이용하여 디코딩하는 디코더는 소정 블록의 움직임 벡터값에서 상기 소정 블록의 예측 움직임 벡터값을 차분한 움직임 벡터 차분값, 움직임 벡터 정보를 포함하는 다시점 동영상 비트스트림을 수신하는 수신부; 상기 수신된 비트 스트림 내의 블록들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 복호화하는 엔트로피 디코딩부; 상기 복호화된 비트 스트림 내의 블록 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 움직임 벡터 예측부; 및 상기 움직임 벡터 차분값에 상기 예측 움직임 벡터값을 합하여 움직임 벡터를 복원하는 움직임 벡터 복원부;를 포함한다.
본 발명의 또 다른 바람직한 일 실시예에서, 다시점 영상에서 적응적 움직임 벡터 예측 방법은 (a) 현재 블록이 시간적 또는 공간적으로 참조하는 블록을 검출하는 단계; (b) 상기 현재 블록과 인접한 블록 중 (a) 단계에서 검출된 블록을 참조하는 블록을 검출하는 단계; 및 (c) (b) 단계에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 단계;를 포함한다.
본 발명의 또 다른 바람직한 일 실시예에서, 적응적 움직임 벡터 예측에 기 반한 인코딩 방법은 (a) 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 단계; (b) 상기 현재 블록의 움직임 벡터값에서 상기 움직임 벡터 예측부에서 구한 현재 블록의 예측 움직임 벡터값의 차분을 부호화하는 단계;를 포함한다.
본 발명의 또 다른 바람직한 일 실시예에서 인코딩된 다시점 동영상 비트 스트림의 블록들을 적응적 움직임 벡터 예측에 기반하여 디코딩하는 방법은 (a) 소정 블록의 움직임 벡터값에서 상기 소정 블록의 예측 움직임 벡터값을 차분한 움직임 벡터 차분값, 움직임 벡터 정보를 포함하는 다시점 동영상 비트스트림을 수신하는 단계; (b) 상기 수신된 다시점 동영상 비트 스트림 내의 블록 들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 복호화하는 단계; (c) 상기 복호화된 비트 스트림 내의 블록 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 단계; 및 (d) 상기 움직임 벡터 차분값에 상기 예측 움직임 벡터값을 합하여 움직임 벡터를 복원하는 단계;를 포함한다.
이하 본 발명의 바람직한 실시예가 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들로 나타내고 있음에 유의해야 한다. 하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
도 1 (a), (b)는 다시점 동영상에서 적응적 움직임 벡터 예측 장치의 내부 구성도를 도시한다.
도 1 (a) 에 도시된 바와 같이, 본 발명의 바람직한 일 실시예로서 다시점 동영상에서 적응적 움직임 벡터 예측 장치(100)는 블록 검출부(110), 적응적 예측부(120)를 포함한다.
적응적 움직임 벡터 예측 장치(100)는 H.264 표준의 움직임 벡터 예측 방법에 의해 움직임 벡터를 구하는 것을 기반으로 하며, 이에 더하여 현재 블록의 움직임 벡터 예측을 위해 주변 블록이 참조하는 공간과 시간에 따라 움직임 벡터 예측 방법을 적응적으로 사용한다.
또한 다시점 동영상 부호화시, 현재 프레임을 부호화할 때 이전에 부호화된 다른 공간의 프레임 또는 이전에 부호화된 다른 시간의 프레임을 모두 참조하여 부호화 효율을 높인다.
블록 검출부(110)에서는 현재 부호화하고자 하는 블록의 참조 프레임과 인접 블록들의 참조 프레임이 공간 또는 시간이 서로 다른 경우, 인접 블록의 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 예측하면 잘못된 값이 예측될 수 있는바, 이러한 예측의 오차를 방지하기 위하여 현재 블록의 인접 블록 중 상기 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출한다.
적응적 예측부(120)는 블록 검출부(110)에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구한다. 즉, 현재 블록의 예측 움직임 벡터값은 블록 검출부(110)에서 검출된 블록의 개수와 검출된 블록의 움직임 벡터를 기초로 구해진다. 이에 대하여서는 도 1b와 관련하여 상세히 살펴보기로 한다.
다시점 동영상에서 적응적 움직임 벡터 예측 장치를 구현하는 일 실시예로서, 블록 검출부(110, 130)는 현재 블록 파악부(131), 시간 벡터 추정부(132) 및 공간 벡터 추정부(133)를 포함한다(도 1(b)).
현재 블록 파악부(131)는 현재 블록이 참조하는 블록을 검출하고, 참조 블록을 참조하는 벡터가 시간에 기반한 시간벡터를 공간에 기반한 공간 벡터인지 특성을 파악한다.
시간 벡터 추정부(132)는 현재 블록의 움직임 벡터가 참조 블록과 시간적 차이에 기반을 둔 시간 벡터에 해당하는 경우 블록 검출부(110)에서 검출된 현재 블록의 참조 블록과 동일한 참조 블록을 참조하는 블록 중 움직임 벡터가 상기 시간 벡터에 해당하는 블록을 파악한다. 구체적인 실시예로는 도 4, 도 6, 도 8을 들 수 있다.
공간 벡터 추정부(133)는 현재 블록의 움직임 벡터가 참조 블록과 공간적 차이에 기반을 둔 공간 벡터에 해당하는 경우 블록 검출부(110)에서 검출된 현재 블록의 참조 블록과 동일한 참조 블록을 참조하는 블록 중 움직임 벡터가 공간 벡터에 해당하는 블록을 파악한다. 구체적인 실시예로는 도 3, 도 5, 도 7을 들 수 있 다.
적응적 예측부(120, 140)는 시간 벡터 추정부(132) 또는 공간 벡터 추정부(133)에서 검출된 블록의 수 및 파악된 블록의 움직임 벡터를 기초로 예측 움직임 벡터값을 계산한다.
적응적 예측부(140)는 현재 블록과 동일한 참조 블록을 지닌 인접 블록이 하나일 때, 검출된 하나의 인접 블록의 움직임 벡터가 시간 벡터인 경우 시간 벡터를 현재 블록의 예측 움직임 벡터값으로 이용하고, 검출된 하나의 인접 블록의 움직임 벡터가 공간 벡터인 경우 공간 벡터를 현재 블록의 예측 움직임 벡터값으로 이용한다. 이에 대하여서는 도 3 (a),(b) 및 도 4 (a), (b)에서 보다 상세히 살펴보기로 한다.
적응적 예측부(140)는 현재 블록과 동일한 참조 블록을 지닌 인접 블록이 두 개일 때, 검출된 두 개의 블록의 움직임 벡터 평균을 현재 블록의 예측 움직임 벡터값으로 이용한다. 보다 상세히, 현재 블록의 참조 블록과의 움직임 벡터가 공간 벡터인 경우 검출된 두 개 블록의 움직임 공간 벡터 평균으로, 현재 블록의 참조 블록과의 움직임 벡터가 시간 벡터인 경우 검출된 두 개의 블록의 움직임 시간 벡터 평균 각각을 현재 블록의 예측 움직임 벡터값으로 구한다. 이에 대하여서는 도 5 (a),(b) 및 도 6 (a), (b)에서 보다 상세히 살펴보기로 한다.
적응적 예측부(140)는 현재 블록과 동일한 참조 블록을 지닌 인접 블록이 세 개, 즉, 인접한 블록 전체인 경우, 검출된 세 개의 블록의 움직임 벡터 중간값을 현재 블록의 예측 움직임 벡터값으로 이용한다. 보다 상세히, 현재 블록의 참조 블록과의 움직임 벡터가 공간 벡터인 경우 검출된 세 개 블록의 움직임 공간 벡터 중간값, 현재 블록의 참조 블록과의 움직임 벡터가 시간 벡터인 경우 검출된 세 개 블록의 움직임 시간 벡터 중간값 각각을 현재 블록의 예측 움직임 벡터값으로 이용한다. 이에 대하여서는 도 7 (a),(b) 및 도 8 (a), (b)에서 보다 상세히 살펴보기로 한다.
적응적 예측부(140)는 현재 블록과 동일한 참조 블록을 지닌 인접 블록이 존재하지 않는 경우, 보다 상세히, 현재 블록의 참조 프레임은 이전 공간의 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 이전 시간의 부호화된 프레임일 경우;및 현재 블록의 참조 프레임은 이전 시간에 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 현재 공간과 다른 공간의 부호화된 프레임일 경우 (0,0) 벡터를 예측 움직임 벡터값으로 이용한다. 이에 대하여서는 도 9 (a),(b) 및 도 10 (a), (b)에서 보다 상세히 살펴보기로 한다.
도 2 (a) 내지 (c) 는 H.264 표준에서 움직임 벡터 예측 방법을 도시한다.
동영상 데이터를 부호화하기 위해 사용되는 H.264 표준에 따르면 하나의 프레임을 소정 크기의 블록으로 나누어 이미 부호화가 끝난 인접한 프레임을 참조하여 가장 유사한 블록을 검색하는 움직임 검색을 수행한다. 즉, 현재 매크로 블록의 좌측과 상단, 그리고 상단 우측의 세 매크로 블록의 움직임 벡터 중에서 중간값을 움직임 벡터의 예측 값으로 정한다.
그 후 움직임 검색에서 얻은 최적의 움직임 벡터로 현재 진행 중인 블록을 표현하여 압축률을 높이고 움직임 검색을 수행하기 전에 움직임 벡터 예측을 수행 하여 실제 움직임 벡터와 예측된 움직임 벡터의 차분을 최소화하여 부호화한다.
보다 구체적으로, 도 2 (a) 는 H.264 표준에서 움직임 벡터 중간값 예측 방법을 도시한다. 주위의 블록 A, B, C가 같은 슬라이스이면 그 블록들의 움직임 벡터 중간값을 현재 블록의 움직임 벡터 예측 값으로 사용한다.
이 과정이 수행되기 위해서는 먼저 주위의 블록이 현재 참조 프레임과 같은지를 조사한다. 주위 세 개의 블록 A, B, C 중에 하나만 같은 참조 프레임을 참조하는 경우 중간값 예측을 수행하지 않고 바로 같은 참조 프레임을 가지는 블록의 움직임 벡터를 현재 블록의 움직임 벡터 예측 값으로 사용하고 그렇지 않은 경우에는 A, B, C 세 개 블록의 움직임 벡터에서 중간값 예측을 수행하여 현재 블록의 움직임 벡터 예측 값으로 이용한다.
도 2 (b) 및 2 (c)는 H.264 표준에서 블록 크기가 각각 16x8, 8x16 일 경우에 움직임 벡터 예측 방법을 도시한다.
도 2 (b)에서 현재 블록 E의 크기가 16x8(220, 230)일때, 현재 블록 E1(220)의 참조 프레임과 블록 B의 참조 프레임이 같을 경우 블록 B의 움직임 벡터를 현재 블록 E1(220)의 움직임 벡터 예측 값으로 사용하고, 그렇지 않을 경우 중간값 예측 방법을 사용한다.
또, 현재 블록 E2(230)의 참조 프레임이 블록 A의 참조 프레임과 같을 경우 블록 A의 움직임 벡터를 현재 블록 E2의 움직임 벡터 예측 값으로 사용하고, 그렇지 않을 경우 중간값 예측 방법을 사용한다.
그리고, 도 2 (c)에서 현재의 블록 E의 크기가 8x16(240, 250)이면, 블록 E3(240)의 참조 프레임이 블록 A의 참조 프레임과 같을 경우 블록 A의 움직임 벡터를 현재 블록 E3의 움직임 벡터 예측 값으로 사용하고, 그렇지 않을 경우 중간값 예측 방법을 사용한다.
또, 현재 블록 E4의 참조 프레임이 블록 C의 참조 프레임과 같을 경우 블록 C의 움직임 벡터를 E4 블록의 움직임 벡터 예측값으로 사용하고, 그렇지 않을 경우 중간값 예측 방법을 사용한다.
이하, 도 3에서 도 10은 본 발명의 바람직한 일 실시예로서, H.264 표준의 움직임 예측 방법을 기초로 다시점 영상에서 움직임 예측 벡터를 구하는 방법 및 그 일 실시예 들을 살펴보겠다.
상세 설명에 앞서, 도 3에서 도 10의 점선은 현재 블록과 참조 블록 간에 시간적 차이에 기반을 둔 시간 벡터를 표시하고, 실선은 현재 블록과 참조 블록 간에 공간적 차이에 기반을 둔 공간 벡터를 표시한다.
도 3 (a) 및 (b) 는 현재 블록과 하나의 인접 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 3 (a)는 현재 블록(301)과 인접 블록 B(302)의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터는 공간 벡터이며, 이 경우 현재 블록의 예측 움직임 벡터값을 구하기 위하여 이전 공간의 같은 시간 프레임을 참조하는 블록 B의 공간 움직임 벡터를 이용한다.
도 3(b) 는 현재 블록과 인접 블록 B의 참조 프레임이 이전 공간의 같은 시간 프레임일 경우 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 현재 블록의 실제 공간 움직임 벡터와 예측된 공간 움직임 벡터 간의 차분 계산 과정을 도시한다.
이 경우, 움직임 검색을 통한 최적의 공간 움직임 벡터 DV = (4, 3)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 공간 움직임 벡터 PDV = (5, 3)(이전 공간의 같은 시간 프레임을 참조하는 블록 B의 공간 움직임 벡터)간의 차분 DVD = (-1, 0)을 인코더에서 이용한다.
도 4 (a) 및 (b) 는 현재 블록과 하나의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 4 (a)에서 현재 블록과 하나의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우(402) 움직임 벡터 예측 값을 구하기 위하여 동일 공간의 이전 공간에 부호화된 프레임을 참조하는 블록 A(401)의 움직임 벡터를 이용한다.
도 4(b)는 현재 블록과 인접 블록 A의 참조 프레임이 이전 시간의 동일 공간에서 부호화된 프레임일 경우에 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 현재 블록의 실제 시간 움직임 벡터와 예측된 시간 움직임 벡터 간의 차분을 구하는 계산 과정을 나타낸다.
이 경우, 움직임 검색을 통한 최적의 시간 움직임 벡터 MV = (1, 4)와 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 시간 움직임 벡터 PMV = (0, 3)(이전 시간에 부호화된 프레임을 참조하는 블록 A의 움직임 벡터)간의 차분 MVD = (1, 1)을 예측 움직임 벡터값으로 인코더에서 사용한다.
도 5 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 5 (a)에서 현재 블록과 인접 블록 중 블록 A, B의 참조 프레임이 이전 공간의 같은 시간 프레임인 경우(501, 502, 503) 공간 움직임 벡터 예측 값은 이전 공간의 같은 시간 프레임을 참조하는 블록 A, B(501, 503)의 공간 움직임 벡터 평균을 그 값으로 사용한다.
도 5 (b) 는 현재 블록과 인접 블록 중 블록 A, B의 참조 프레임이 이전 공간의 같은 시간 프레임일 경우에 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 실제 공간 움직임 벡터와 예측된 공간 움직임 벡터간의 차분을 구하는 과정을 나타낸다.
이 경우, 움직임 검색을 통한 최적의 공간 움직임 벡터 DV = (4, 1)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 공간 움직임 벡터 PDV = (4, 1)(이전 공간의 같은 시간 프레임을 참조하는 블록 A, B의 공간 움직임 벡터 평균 값)간의 차분 DVD = (0, 0)을 사용한다.
도 6 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 6 (a)에서 현재 블록과 인접 블록 중 블록 B, C의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우(601,602,603), 움직임 벡터 예측 값을 구하기 위하여 현재 시점의 이전에 부호화된 프레임을 참조하는 블록 B, C(602,603)의 움직임 벡터 평균을 이용한다.
도 6 (b)는 현재 블록과 인접 블록 중 블록 B, C의 참조 프레임이 이전 시간 의 동일 공간 프레임인 경우 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 실제 시간 움직임 벡터와 예측된 시간 움직임 벡터간의 차분을 구하는 과정을 나타낸다.
이 경우, 움직임 검색을 통한 최적의 시간 움직임 벡터 MV = (3, 3)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 움직임 시간 벡터 PMV = (2, 3)(이전 시간의 동일 공간 프레임을 참조하는 블록 B, C의 움직임 벡터 평균 값)간의 차분 MVD = (1, 0)을 사용한다.
도 7 (a) 및 (b) 는 현재 블록과 인접한 모든 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 7 (a)에서 현재 블록과 인접한 모든 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우(701, 702, 703, 704) 움직임 예측 값을 구하기 위하여 주변 블록들의(702, 703, 704) 공간 움직임 벡터 중간값을 이용한다.
도 7 (b)는 현재 블록과 인접한 모든 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 실제 공간 움직임 벡터와 예측된 공간 움직임 벡터간의 차분을 구하는 과정을 나타낸다.
이 경우, 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 움직임 검색을 통한 최적의 공간 움직임 벡터 DV = (8,3)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 공간 움직임 벡터 PDV = (6, 2)(인접 블록들의 공간 움직임 벡터 중간값) 또는 PDV = (7, 3)(인접 블록들의 공간 움직임 벡터 평균 값)간의 차분 DVD = (1, 2) 또는 DVD = (2,2)를 사용한다.
도 8 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 8 (a)에서 현재 블록과 인접한 모든 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우(801, 802, 803, 804), 움직임 예측 값을 구하기 위하여 주변 블록(802, 803, 804)의 움직임 벡터 중간값을 이용한다.
도 8 (b)는 현재 블록과 인접한 모든 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 실제 움직임 벡터와 예측된 움직임 벡터간의 차분을 구하는 과정을 나타낸다.
이 경우도, 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 움직임 검색을 통한 최적의 시간 움직임 벡터 MV = (4, 3)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 움직임 시간 벡터 PMV = (3, 1)(인접 블록들의 움직임 시간 벡터 중간값) 또는 PMV = (2, 1)(인접 블록들의 움직임 시간 벡터 평균 값)간의 차분 MVD = (1, 2) 또는 MVD = (2, 2)를 사용한다.
도 9 (a) 및 (b) 는 현재 블록의 참조 프레임은 이전 공간의 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 이전 시간에 부호화된 프레임일 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 9 (a)에서 현재 블록의 참조 프레임은 이전 공간의 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 이전 시간에 부호화된 프레임일 경우, 인접 블록에서는 현재 블록의 변위 움직임 벡터 예측을 수행하는데 필요한 정보를 얻을 수 없기 때문에 변위 움직임 벡터 예측 값은 (0,0) 벡터를 그 값으로 사용한다.
도 9 (b)는 이전 공간의 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 이전 시간에 부호화된 프레임일 경우, 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 움직임 검색을 통한 최적의 움직임 벡터 DV = (3, 3)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 공간 움직임 벡터 PDV = (0,0)((0,0) 벡터)간의 차분 DVD = (3, 3)을 사용한다.
도 10 (a) 및 (b) 는 현재 블록의 참조 프레임은 이전 시간에 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 현재 공간과 다른 공간의 부호화된 프레임일 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다.
도 10 (a)에서 현재 블록의 참조 프레임은 이전 시간에 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 현재 공간과 다른 공간의 부호화된 프레임일 경우, 인접 블록에서는 현재 블록의 움직임 벡터 예측을 수행하는데 필요한 정보를 얻을 수 없기 때문에 움직임 벡터 예측 값은 (0,0) 벡터를 그 값으로 사용한다.
도 10 (b)는 이전 시간에 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 현재 공간과 다른 공간의 부호화된 프레임일 경우, 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 움직임 검색을 통한 최적의 움직임 벡터 MV = (2, 1)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 벡터 PMV = (0,0)((0,0) 벡터)간의 차분 MVD = (2, 1)을 인코더에서 사용한다.
도 11 은 본 발명의 바람직한 일 실시예로서, 적응적 움직임 예측 기법에 기반한 인코더를 도시한다.
적응적 움직임 예측 기법에 기반한 인코더는 움직임 벡터 예측부(1110) 및 엔트로피 부호화부(1120)를 포함한다.
움직임 벡터 예측부(1110)는 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구한다. 또한, 움직임 벡터 예측부(1110)는 블록 검출부(1111)와 적응적 예측부(1112)를 포함하며, 이에 관한 설명은 도 1에서 관련된 설명과 기술적 구성이 유사한 바 이를 참고하기로 한다.
엔트로피 부호화부(1120)는 움직임 예측을 통해 찾은 현재 블록의 움직임 벡터(MV(Motion Vector)(s1122)에서 움직임 벡터 예측부(1110)에서 본 발명의 적응적 움직임 벡터 예측을 통해 구한 현재 블록의 예측 움직임 벡터값(PMV(Prediction Motion Vector)(s1121)의 차분(MVD, motion vector diffrerence)을 부호화한다. 구체적인 예로 도 3(b)~ 도 10(b)에서 구한 차분 값을 부호화 한다.
인코더 내의 엔트로피 부호화부(1120)에서는 본 발명의 적응적 움직임 벡터 예측 방법을 통해 예측 움직임 벡터값을 구하여 예측 정도가 더 정확해 질수록 현재 블록의 움직임 벡터에서 현재 블록의 예측 움직임 벡터값의 차분(MVD= MV- PMV)이 줄어들어 부호화에 사용될 비트수가 감소된다.
도 12 는 본 발명의 바람직한 일 실시예로서, 적응적 움직임 예측 기법에 기반한 디코더를 도시한다.
인코딩된 다시점 동영상 비트 스트림의 블록들을 적응적 움직임 벡터 예측방법을 이용하여 디코딩하는 디코더는 수신부(도시 안됨), 엔트로피 디코딩부(1210), 움직임 벡터 예측부(1230), 움직임 벡터 복원부(1240)을 포함한다.
수신부는 움직임 벡터 정보, 인코더에서 소정 블록의 움직임 벡터에서 상기 소정 블록의 예측 움직임 벡터값의 차분(MVD= MV- PMV)한 값인 움직임 벡터 차분값을 포함하는 인코더에서 생성된 다시점 동영상 비트스트림을 수신한다.
엔트로피 디코딩부(1210)에서는 인코더에서 생성된 다시점 동영상 비트스트림을 받아 수신된 비트 스트림 내의 블록들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 먼저 인트라(Intra) 프레임을 복호화를 수행한 후 인터(Inter) 프레임을 엔트로피 복호화 한다.
움직임 벡터 예측부(1230)는 엔트로피 디코딩부(1210)에서 복호화된 비트 스트림 내의 블록 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구한다. 움직임 벡터 예측부(1230)에서 예측 움직임 벡터값을 구하는 기술적 사상은 도 1과 관련하여 기술한 기술적 사상이 유사한바, 상세한 설명은 도 1과 관련한 부분을 참고한다.
움직임 벡터 복원부(1240) 엔트로피 디코딩 부(1210)에서 인터 프레임을 엔트로피 복호화 한 후 생성된 움직임 벡터 차분(MVD)과 움직임 벡터 예측부(1230)에서 구한 블록의 예측 움직임 벡터값(PMV)을 합하여 움직임 벡터를 복원한다.
도 13 은 본 발명의 바람직한 일 실시예로서, 다시점 영상에서 움직임 벡터 예측 과정을 흐름도로 도시한다.
다시점 영상에서 움직임 벡터를 예측하기 위하여, 현재 블록의 참조 블록을 참조하는 인접 블록을 검출한다(S1310). 현재 블록의 움직임 벡터가 시간 기반 벡 터인지 공간 기반 벡터인지 여부를 판단한다(S1320). 검출된 블록 중에서 움직임 벡터가 현재 블록의 움직임 벡터의 벡터 종류와 동일한 블록을 검출한다(S1330, S1340).
현재 블록의 움직임 벡터가 시간 기반 벡터인 경우의 실시예는 도 4, 6, 8, 10 에 도시되어 있고, 현재 블록의 움직임 벡터가 공간 기반 벡터의 실시예는 3, 5, 7, 9에 도시되어 있다.
검출된 시간 기반 또는 공간 기반 움직임 벡터를 기초로 예측 움직임 벡터값을 적응적으로 예측한다. 움직임 벡터의 종류 및 검출된 블록의 수에 기초하여 현재 블록의 예측 움직임 벡터값을 검출하며, 이에 대하여서는 도 1의 적응적 예측부(140)에 관한 설명을 참고한다.
도 14 는 본 발명의 바람직한 일 실시예로서, 인코더에서 다시점 영상의 움직임 벡터 예측 과정을 흐름도로 도시한다.
다시점 영상에서 움직임 벡터를 적응적 예측 방법을 기반으로 부호화 하기 위하여, 현재 블록이 시간적 또는 공간적으로 참조하는 블록을 검출한다. 그 후 현재 블록과 인접한 블록 중 현재 블록이 참조하는 블록을 참조하는 블록을 검출한다(S1410). 여기서 현재 블록의 인접 블록은 현재 블록의 좌측, 상측 및 우상측의 블록을 의미한다.
그 후, 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구한다(S1430). 이 경우 상기 현재 블록의 예측 움직임 벡터값을 구하는 방법은 도 1 의 적응적 예측부(140)에서 예측 움직임 벡터값을 구하는 방법과 기술 적 사상에 있어 유사한바 이를 참고하기로 한다.
그 후, 현재 블록의 움직임 벡터에서 상기 현재 블록의 예측 움직임 벡터값의 차분(MVD= MV- PMV)한 값인 움직임 벡터 차분값을 구하고, 그 차분값을 부호화 한다(S1430, S1440).
도 15 는 본 발명의 바람직한 일 실시예로서, 디코더에서 다시점 영상의 움직임 벡터 예측 과정을 흐름도로 도시한다.
인코딩된 다시점 동영상 비트 스트림의 블록들을 적응적 움직임 벡터 예측에 기반하여 디코딩하기 위하여, 인코딩된 다시점 동영상 비트스트림을 수신한다(S1510). 이 경우 다시점 동영상 비트스트림은 소정 블록의 움직임 벡터값에서 상기 소정 블록의 예측 움직임 벡터값을 차분한 움직임 벡터 차분값, 움직임 벡터 정보를 포함한다.
그 후 수신된 다시점 동영상 비트 스트림 내의 블록 들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 복호화한다(S1520).
다음 복호화된 비트 스트림 내의 블록 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하고(S1530), 움직임 벡터 차분(MVD)과 움직임 벡터 예측부(1230)에서 구한 블록의 예측 움직임 벡터값(PMV)을 합하여 움직임 벡터를 복원한다(S1540).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스 템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상 도면과 명세서에서 최적 실시예들이 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다.
그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
본 발명에서는 움직임 벡터 예측의 정확도를 높이기 위해 주위의 블록 중에 현재 프레임과 관련된 블록만을 이용하여 움직임 벡터 차분을 줄여 압축률을 높이는 효과가 있다.
또한, 본 발명의 움직임 벡터 예측 방법은 주위 블록의 상태에 따라 결정하 기 때문에 기존의 신택스(syntax)에 어떠한 영향을 주지 않으며, 부호화 및 복호화 단계의 움직임 벡터 예측 방법의 의미(semantics)만 약간 수정함으로써 달성될 수 있는 효과가 있다.
이에 따라, 보다 정확한 움직임 벡터 예측을 하여 실제 움직임 벡터와 예측된 움직임 벡터간의 차분 값을 줄여 엔트로피 부호화의 효율을 높임으로써 종래의 부호화 방법보다 높은 압축률을 얻을 수 있다.

Claims (36)

  1. 현재 블록의 인접 블록 중 상기 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 블록 검출부; 및
    상기 블록 검출부에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 적응적 예측부;를 포함하는 것을 특징으로 하는 다시점 영상에서 적응적 움직임 벡터 예측 장치.
  2. 제 1 항에 있어서, 상기 적응적 예측부는
    상기 검출된 블록의 수가 하나인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 움직임 벡터값인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 장치.
  3. 제 1 항에 있어서, 상기 적응적 예측부는
    상기 검출된 블록의 수가 두 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 평균값인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 장치.
  4. 제 1 항에 있어서, 상기 적응적 예측부는
    상기 검출된 블록의 수가 세 개인 경우 상기 현재 블록의 예측 움직임 벡터 값은 상기 검출된 블록들의 움직임 벡터의 중간값인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 장치.
  5. 제 1 항에 있어서, 상기 적응적 예측부는
    블록이 검출되지 않은 경우 상기 현재 블록의 예측 움직임 벡터값은 (0,0) 인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 장치.
  6. 삭제
  7. 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 움직임 벡터 예측부;
    상기 현재 블록의 움직임 벡터값에서 상기 움직임 벡터 예측부에서 구한 현재 블록의 예측 움직임 벡터값의 차분을 부호화하는 엔트로피 부호화부;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더.
  8. 제 7 항에 있어서, 상기 움직임 벡터 예측부는
    상기 현재 블록의 좌측 블록, 상측 블록 및 우상측 블록 중 상기 현재 블록 이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 블록 검출부; 및
    상기 블록 검출부에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 적응적 예측부;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더.
  9. 제 7 항에 있어서, 상기 움직임 벡터 예측부에서
    상기 검출된 블록의 수가 하나인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 움직임 벡터값인 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더.
  10. 제 7 항에 있어서, 상기 움직임 벡터 예측부에서
    상기 검출된 블록의 수가 두 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 평균값인 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더.
  11. 제 7 항에 있어서, 상기 움직임 벡터 예측부에서
    상기 검출된 블록의 수가 세 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 중간값인 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더.
  12. 제 7 항에 있어서, 상기 움직임 벡터 예측부에서
    블록이 검출되지 않은 경우 상기 현재 블록의 예측 움직임 벡터값은 (0,0) 인 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더.
  13. 인코딩된 다시점 동영상 비트 스트림의 블록들을 적응적 움직임 벡터 예측방법을 이용하여 디코딩하는 디코더에 있어서,
    소정 블록의 움직임 벡터값에서 상기 소정 블록의 예측 움직임 벡터값을 차분한 움직임 벡터 차분값, 움직임 벡터 정보를 포함하는 다시점 동영상 비트스트림을 수신하는 수신부;
    상기 수신된 비트 스트림 내의 블록들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 복호화하는 엔트로피 디코딩부;
    상기 복호화된 비트 스트림 내의 블록 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 움직임 벡터 예측부; 및
    상기 움직임 벡터 차분값에 상기 예측 움직임 벡터값을 합하여 움직임 벡터를 복원하는 움직임 벡터 복원부;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더.
  14. 제 13 항에 있어서, 상기 움직임 벡터 예측부는
    현재 블록의 좌측 블록, 상측 블록 및 우상측 블록 중 상기 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 블록 검출부; 및
    상기 블록 검출부에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 적응적 예측부;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더.
  15. 제 13 항에 있어서, 상기 움직임 벡터 예측부에서
    상기 검출된 블록의 수가 하나인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 움직임 벡터값인 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더.
  16. 제 13 항에 있어서, 상기 움직임 벡터 예측부에서
    상기 검출된 블록의 수가 두 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 평균값인 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더.
  17. 제 13 항에 있어서, 상기 움직임 벡터 예측부에서
    상기 검출된 블록의 수가 세 개인 경우 상기 현재 블록의 예측 움직임 벡터 값은 상기 검출된 블록들의 움직임 벡터의 중간값인 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더.
  18. 제 13 항에 있어서, 상기 움직임 벡터 예측부에서
    블록이 검출되지 않은 경우 상기 현재 블록의 예측 움직임 벡터값은 (0,0) 인 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더.
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
  36. 삭제
KR1020050114406A 2005-11-28 2005-11-28 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법 KR101174901B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050114406A KR101174901B1 (ko) 2005-11-28 2005-11-28 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050114406A KR101174901B1 (ko) 2005-11-28 2005-11-28 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020120068178A Division KR101255230B1 (ko) 2012-06-25 2012-06-25 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20070055903A KR20070055903A (ko) 2007-05-31
KR101174901B1 true KR101174901B1 (ko) 2012-08-17

Family

ID=38277167

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050114406A KR101174901B1 (ko) 2005-11-28 2005-11-28 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101174901B1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101039204B1 (ko) * 2006-06-08 2011-06-03 경희대학교 산학협력단 다시점 비디오 코딩에서의 움직임 벡터 예측 방법 및 이를이용한 다시점 영상의 부호화/복호화 방법 및 장치
KR101366092B1 (ko) 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
KR101301181B1 (ko) * 2007-04-11 2013-08-29 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
US8548261B2 (en) 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
KR101660312B1 (ko) 2009-09-22 2016-09-27 삼성전자주식회사 3차원 비디오의 움직임 탐색 장치 및 방법
KR101349405B1 (ko) * 2010-08-23 2014-01-10 한국전자통신연구원 스케일러블 비디오 코덱의 압축 효율 향상을 위한 템플릿 매칭 방법 및 장치
CA2841921C (en) 2011-06-14 2021-01-26 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information and method and apparatus for decoding same
WO2014065546A1 (ko) * 2012-10-22 2014-05-01 (주)휴맥스 3차원 비디오에서의 뷰간 움직임 예측 방법 및 뷰간 병합 후보 결정 방법

Also Published As

Publication number Publication date
KR20070055903A (ko) 2007-05-31

Similar Documents

Publication Publication Date Title
RU2688149C1 (ru) Устройство и способ декодирования движущегося изображения, адаптированные к извлечению информации о движении, долговременный считываемый компьютером носитель записи, хранящий программу декодирования движущегося изображения, адаптированную к извлечению информации о движении
KR101174901B1 (ko) 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법
US9369731B2 (en) Method and apparatus for estimating motion vector using plurality of motion vector predictors, encoder, decoder, and decoding method
TWI600315B (zh) 動態影像解碼裝置、動態影像解碼方法及記錄有動態影像解碼程式的記錄媒體
KR101449679B1 (ko) 영상 부호화/복호화 장치 및 방법, 및 참조픽처 인덱싱 장치 및 방법
TWI580263B (zh) Dynamic image decoding device, dynamic image decoding method and dynamic image decoding program
JP2010516158A (ja) 多視点映像の符号化、復号化方法及び装置
KR101255230B1 (ko) 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법
KR101367815B1 (ko) 적응적 움직임 벡터 예측에 기반한 비디오 데이터 디코딩 방법
KR101261577B1 (ko) 다시점 동영상을 부호화 및 복호화하는 장치 및 방법
Nam et al. Novel motion prediction for multi-view video coding using global disparity
KR20180117095A (ko) 비디오 글로벌 디스패리티 벡터에 대한 부호화 방법, 복호화 방법, 및 장치.

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150728

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160726

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee