KR100704626B1 - 다 계층 기반의 모션 벡터를 압축하는 방법 및 장치 - Google Patents

다 계층 기반의 모션 벡터를 압축하는 방법 및 장치 Download PDF

Info

Publication number
KR100704626B1
KR100704626B1 KR1020050028683A KR20050028683A KR100704626B1 KR 100704626 B1 KR100704626 B1 KR 100704626B1 KR 1020050028683 A KR1020050028683 A KR 1020050028683A KR 20050028683 A KR20050028683 A KR 20050028683A KR 100704626 B1 KR100704626 B1 KR 100704626B1
Authority
KR
South Korea
Prior art keywords
motion vector
macroblock
motion
lower layer
region
Prior art date
Application number
KR1020050028683A
Other languages
English (en)
Other versions
KR20060090141A (ko
Inventor
한우진
이교혁
차상창
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2006/000352 priority Critical patent/WO2006083107A1/en
Priority to BRPI0606786-7A priority patent/BRPI0606786A2/pt
Priority to EP06715805A priority patent/EP1847129A1/en
Priority to US11/348,316 priority patent/US20060176957A1/en
Publication of KR20060090141A publication Critical patent/KR20060090141A/ko
Application granted granted Critical
Publication of KR100704626B1 publication Critical patent/KR100704626B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 다 계층 구조를 사용하는 비디오 코더(coder)에 있어서, 하위 계층의 모션 벡터를 이용하여 현재 계층의 모션 벡터를 효율적으로 예측하는 방법 및 그 방법을 이용하는 장치에 관한 것이다.
상기 목적을 달성하기 위하여, 본 발명에 따른 모션 벡터 압축 방법은, 현재 계층 프레임의 제1 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에 상기 제1 매크로블록에 대한 모션 벡터를 압축하는 방법으로서, 적어도 하나의 주변 매크로블록의 모션 벡터로부터 상기 영역이 속하는 제2 매크로블록의 모션 벡터를 보간하는 단계와, 상기 보간된 모션 벡터를 이용하여 상기 제1 매크로블록의 모션 벡터를 예측하는 단계를 포함한다.
모션 추정, 모션 벡터, 모션 예측, 스케일러빌리티

Description

다 계층 기반의 모션 벡터를 압축하는 방법 및 장치{Method and apparatus for compressing multi-layered motion vectors}
도 1은 다 계층 구조를 이용한 스케일러블 비디오 코덱의 한 예를 보여주는 도면.
도 2는 모션 예측을 통하여 모션 벡터를 효율적으로 표현하는 방법을 설명하는 도면.
도 3은 종래의 3가지 예측 방법을 설명하는 개략도.
도 4는 본 발명의 기본 개념을 나타낸 개략도.
도 5는 계층간 해상도가 동일한 경우에 제1 실시예에 따라서 모션 벡터를 예측하는 방법을 설명하는 도면.
도 6은 계층간 해상도가 상이한 경우에 제1 실시예에 따라서 모션 벡터를 예측하는 방법을 설명하는 도면.
도 7은 본 발명의 제2 실시예에 따라서 모션 필드를 보간하는 방법을 설명하는 도면.
도 8은 제2 실시예에 따라 제1 하위 계층의 매크로블록에 대한 사방 4개의 매크로블록을 주변 매크로블록으로 상정하는 경우를 설명하는 도면.
도 9는 제2 실시예에 따라 제1 하위 계층의 매크로블록을 둘러싼 8개의 매크 로블록을 주변 매크로블록으로 상정하는 경우를 설명하는 도면.
도 10은 인접 서브블록 각각에 모션 벡터를 할당하는 방법에 관하여 설명하는 도면.
도 11은 계층별 해상도가 상이한 경우에 보간된 모션 벡터를 이용하여 현재 매크로블록에 대한 모션 예측을 수행하는 과정을 설명하는 도면.
도 12는 본 발명의 일 실시예에 따른 비디오 인코더의 구성을 도시한 블록도.
도 13은 본 발명의 일 실시예에 따른 비디오 디코더의 구성을 나타낸 블록도.
도 14는 도 12의 비디오 인코더, 또는 도 13의 비디오 디코더가 동작하는 시스템 환경을 나타내는 구성도.
도 15는 본 발명의 일 실시예에 따른 모션 예측 방법을 나타내는 흐름도.
(도면의 주요부분에 대한 부호 설명)
100 비디오 인코더 110 : 다운 샘플러
111, 211 : 제1 업샘플러 112, 212 : 제2 업샘플러
120, 121, 122 : 모션 추정부 131 : 예측부
132 : 변환부 133 : 양자화부
140 : 모션 예측부 150 : 모션 필드 보간부
160 : 엔트로피 부호화부 200 : 비디오 디코더
210 : 엔트로피 복호화부 221 : 역 양자화부
222 : 역 변환부 223 : 역 예측부
230 : 모션 복원부 240 : 모션 필드 보간부
본 발명은 비디오 압축 방법에 관한 것으로, 보다 상세하게는 본 발명은 다 계층 구조를 사용하는 비디오 코더(coder)에 있어서, 하위 계층의 모션 벡터를 이용하여 현재 계층의 모션 벡터를 효율적으로 예측하는 방법 및 그 방법을 이용하는 장치에 관한 것이다.
인터넷을 포함한 정보통신 기술이 발달함에 따라 문자, 음성뿐만 아니라 화상통신이 증가하고 있다. 기존의 문자 위주의 통신 방식으로는 소비자의 다양한 욕구를 충족시키기에는 부족하며, 이에 따라 문자, 영상, 음악 등 다양한 형태의 정보를 수용할 수 있는 멀티미디어 서비스가 증가하고 있다. 멀티미디어 데이터는 그 양이 방대하여 대용량의 저장매체를 필요로 하며 전송시에 넓은 대역폭을 필요로 한다. 따라서 문자, 영상, 오디오를 포함한 멀티미디어 데이터를 전송하기 위해서는 상기 데이터를 압축하는 것이 필수적이다.
이러한 데이터를 압축하는 기본적인 원리는 데이터의 중복(redundancy) 요소를 제거하는 과정이다. 이미지에서 동일한 색이나 객체가 반복되는 것과 같은 공간적 중복이나, 동영상 프레임에서 인접 프레임이 거의 변화가 없는 경우나 오디오에서 같은 음이 계속 반복되는 것과 같은 시간적 중복, 또는 인간의 시각 및 지각 능 력이 높은 주파수에 둔감한 것을 고려한 지각적 중복을 제거함으로써 데이터를 압축할 수 있다. 일반적인 비디오 코딩 방법에 있어서, 시간적 중복은 모션 보상에 근거한 시간적 필터링(temporal filtering)에 의해 제거하고, 공간적 중복은 공간적 변환(spatial transform)에 의해 제거한다.
데이터의 중복을 제거한 후 생성되는 멀티미디어를 전송하기 위해서는, 전송매체가 필요한데 그 성능은 전송매체 별로 차이가 있다. 현재 사용되는 전송매체는 초당 수십 메가비트의 데이터를 전송할 수 있는 초고속통신망부터 초당 384 킬로비트의 전송속도를 갖는 이동통신망 등과 같이 다양한 전송속도를 갖는다. 이와 같은 환경에서는, 다양한 속도의 전송매체를 지원하기 위하여 또는 전송환경에 따라 이에 적합한 전송률로 멀티미디어를 전송할 수 있도록 하는 방법, 즉 스케일러블 비디오 코딩(scalable video coding) 방법이 요구된다.
이러한 스케일러블 비디오 코딩이란, 이미 압축된 비트스트림(bit-stream)에 대하여 전송 비트율, 전송 에러율, 시스템 자원 등의 주변 조건에 따라 상기 비트스트림의 일부를 잘라내어 비디오의 해상도, 프레임율, 및 SNR(Signal-to-Noise Ratio) 등을 조절할 수 있게 해주는 부호화 방식을 의미한다. 이러한 스케일러블 비디오 코딩에 관하여, 이미 MPEG-21(moving picture experts group-21) Part 13에서 그 표준화 작업을 진행 중에 있는데, 특히 다 계층(multi-layered) 기반으로 스케일러빌리티를 구현하는 방법에 관한 많은 연구가 있었다. 예를 들면 기초 계층(base layer), 제1 향상 계층(enhanced layer 1), 제2 향상 계층(enhanced layer 2)의 다 계층을 두어, 각각의 계층은 서로 다른 해상도(QCIF, CIF, 2CIF), 또는 서 로 다른 프레임율(frame-rate)을 갖도록 구성함으로써 스케일러빌리티를 구현할 수 있는 것이다.
다 계층으로 코딩하는 경우에 있어서는, 시간적 중복성(temporal redundancy)를 제거하기 위하여 필요한 모션 벡터(motion vector; MV)를 각 계층별로 구할 필요가 있다. 이러한 모션 벡터는 각 계층마다 별도로 검색하여 사용하는 경우(전자)가 있고, 하나의 계층에서 모션 벡터 검색을 한 후 이를 다른 계층에서도 그대로 또는 업/다운 샘플링하여 이용하는 경우(후자)도 있다.
전자의 경우는 후자의 경우에 비하여 정확한 모션 벡터를 찾음으로써 얻는 이점과, 계층 별로 생성된 모션 벡터가 오버 헤드로 작용하는 단점이 공존한다. 그러나, 모션 벡터의 정확성은 텍스쳐 데이터의 시간적 중복을 줄이는데 매우 큰 영향을 미치므로 일반적으로 전자와 같이 계층별로 정확한 모션 벡터를 찾는 방법을 사용한다. 그런데, 이러한 경우에는 각 계층 별 모션 벡터들 간의 중복성을 보다 효율적으로 제거하는 것이 매우 중요한 과제가 된다.
도 1은 다 계층 구조를 이용한 스케일러블 비디오 코덱의 한 예를 보여주고 있다. 먼저 기초 계층을 QCIF(Quarter Common Intermediate Format), 15Hz(프레임 레이트)로 정의하고, 제1 향상 계층을 CIF(Common Intermediate Format), 30hz로, 제2 향상 계층을 SD(Standard Definition), 60hz로 정의한다. 만약 CIF 0.5Mbps 스트림(stream)을 원한다면, 제1 향상 계층의 CIF_30Hz_0.7M에서 비트율(bit-rate)이 0.5M로 되도록 비트스트림을 잘라서 보내면 된다. 이러한 방식으로 공간적, 시간적, SNR 스케일러빌리티를 구현할 수 있다.
이와 같은 다 계층 비디오 코덱에서 각 계층 별로 모션 벡터를 구한다면, 기존의 단일 계층 코덱에 비하여 2배 정도의 오버헤드(overhead)가 발생하기 때문에, 하위 계층의 모션 벡터를 이용하여 상위 계층의 모션 벡터를 예측하는 방법, 즉 모션 예측(motion prediction)이 매우 중요하다. 물론, 이러한 모션 벡터는 시간적으로 주변에 존재하는 프레임을 참조하여 인코딩되는 인터 매크로블록에서만 사용되므로, 주변의 프레임과 무관하게 인코딩되는 인트라 매크로블록에서는 사용되지 않는다.
도 1에서 동일한 시간적 위치를 갖는 각 계층에서의 프레임은 그 이미지가 유사할 것으로 추정할 수 있고, 그에 따라서 모션 벡터도 유사할 것으로 추정할 수 있다. 따라서, 하위 계층의 모션 벡터로부터 현재 계층의 모션 벡터를 예측하고, 예측된 값과 실제 구한 모션 벡터와 차이를 인코딩함으로써 효율적으로 모션 벡터를 표현하는 방법이 이미 제안되어 있다.
도 2는 이와 같은 모션 예측을 수행하는 방법을 설명하는 도면이다. 이에 따르면, 현재 계층의 모션 벡터의 예측 모션 벡터로는 같은 시간적 위치를 갖는 하위 계층의 모션 벡터를 그대로 이용한다.
인코더(encoder)는 각각의 계층에서 소정의 정밀도로 각 계층의 모션 벡터(MV0, MV1, MV2)를 구한 후, 이를 이용하여 각 계층에서 시간적 중복을 제거하는 인터 예측 과정을 수행한다. 그러나, 실제로 인코더는 기초 계층의 모션 벡터와, 제1 향상 계층의 성분(D1) 및 제2 향상 계층의 차분(D2)만을 프리디코더(내지 비디오 스 트림 서버) 단으로 전송한다. 프리디코더(pre-decoder)는 네트워크 상황에 맞게 기초 계층의 모션 벡터만을 디코더 단으로 전송하거나, 기초 계층의 모션 벡터 및 제1 향상 계층의 모션 벡터 성분(D1)을 디코더 단으로 전송하거나, 또는 기초 계층의 모션 벡터와 제1 향상 계층의 모션 벡터 성분(D1), 및 제2 향상 계층의 모션 벡터 성분(D2)을 디코더 단으로 전송할 수 있다.
그러면, 디코더(decoder)는 전송된 데이터에 따라서, 해당 계층의 모션 벡터를 복원할 수 있다. 예를 들어, 디코더가 기초 계층의 모션 벡터 및 제1 향상 계층의 모션 벡터 성분(D1)을 수신한 경우에는 상기 기초 계층의 모션 벡터 및 제1 향상 계층의 모션 벡터 성분(D1)을 가산함으로써 제1 향상 계층의 모션 벡터(MV1)을 복원할 수 있고, 상기 복원된 모션 벡터(MV1)를 이용하여 제1 향상 계층의 텍스쳐(texture) 데이터를 복원할 수 있다.
그런데, 현재 진행중인 스케일러블 비디오 코딩 표준에서는, 기존의 H.264에서 현재 블록 내지 매크로블록에 대한 예측을 위하여 사용되는 인터 예측(inter prediction) 및 방향적 인트라 예측(directional intra prediction; 이하 단순히 인트라 예측이라고 함)이외에도, 현재 블록과 이에 대응되는 하위 계층 블록 간의 상관성을 이용하여 현재 블록이 속한 계층을 예측하는 방법을 추가적으로 도입하고 있다. 이러한 예측 방법을 상기 표준에서는 "인트라 BL(intra_BL) 예측"이라고 한다.
도 3은 상기 3가지 예측 방법을 설명하는 개략도로서, 현재 프레임(1)의 어 떤 매크로블록(4)에 대하여 인트라 예측을 하는 경우(①)와, 현재 프레임(1)과 다른 시간적 위치에 있는 프레임(2)을 이용하여 인터 예측을 하는 경우(②)와, 상기 매크로블록(4)과 대응되는 기초 계층 프레임(3)의 영역(6)에 대한 텍스쳐 데이터를 이용하여 인트라 BL 예측을 하는 경우(③)를 각각 나타내고 있다. 여기서, 상기 3가지 예측 방법에 의하여 부호화되는 매크로블록을 각각 인트라 매크로블록, 인터 매크로블록, 및 인트라 BL 매크로블록이라고 한다.
이와 같이, 상기 스케일러블 비디오 코딩 표준에서는 매크로블록 단위로 상기 세가지 예측 방법 중 유리한 하나의 방법을 선택하고, 그에 따라서 해당 매크로블록을 부호화하는 방법을 이용한다. 따라서, 하나의 프레임이라도 인터 매크로블록, 인트라 매크로블록, 및 인트라 BL 매크로블록의 조합으로 이루어질 수 있는 것이다.
현재 프레임에 대응되는 하위 계층 프레임이 존재한다고 하더라도, 상기 현재 프레임 내의 어떤 인터 매크로블록에 대응되는 하위 계층의 매크로블록은 인터 매크로블록이 아닐 수 있기 때문에, 상기 인터 매크로블록의 모션 벡터를 예측하기 위한 하위 계층의 모션 벡터를 얻을 수 없다. 만약, 대응되는 하위 계층의 모션 벡터가 존재하지 않음으로 인하여 상기 인터 매크로블록을 독립적으로 부호화한다면 이는 부호화 효율의 감소로 이어질 수 있다.
따라서, 어떤 인터 매크로블록에 대응되는 하위 계층의 매크로블록이 모션 벡터를 갖지 않는 인트라 매크로블록 또는 인트라 BL 매크로블록인 경우에도 상기 인터 매크로블록의 모션 벡터를 효율적으로 예측할 수 있는 방법을 강구할 필요가 있다.
본 발명은 상기한 필요성을 고려하여 창안된 것으로, 현재 프레임의 모션 벡터 예측을 위하여 상기 현재 프레임에 대응되는 하위 계층 프레임에 비어있는 모션 필드(missing motion field)를 생성하는 방법 및 장치를 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위하여, 본 발명에 따른 모션 벡터 압축 방법은, 현재 계층 프레임의 제1 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에 상기 제1 매크로블록에 대한 모션 벡터를 압축하는 방법으로서, (a) 적어도 하나의 주변 매크로블록의 모션 벡터로부터 상기 영역이 속하는 제2 매크로블록의 모션 벡터를 보간하는 단계; (b) 상기 보간된 모션 벡터를 이용하여 상기 제1 매크로블록에 대한 예측 모션 벡터를 구하는 단계; 및 (c) 상기 제1 매크로블록의 모션 벡터로부터 상기 구한 예측 모션 벡터를 차분하는 단계를 포함한다.
또한 상기 목적을 달성하기 위하여, 본 발명에 따른 모션 벡터 압축 장치는, 현재 계층 프레임의 제1 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에 상기 제1 매크로블록에 대한 모션 벡터를 압축하는 장치로서, 적어도 하나의 주변 매크로블록의 모션 벡터로부터 상기 영역이 속하는 제2 매크로블록의 모션 벡터를 보간하는 수단; 상기 보간된 모션 벡터를 이용하여 상기 제1 매크로블록에 대한 예측 모션 벡터를 구하는 수단; 및 상기 제1 매크로블록의 모션 벡터로부터 상기 구한 예측 모션 벡터를 차분하는 수단을 포함한다.
상기 목적을 달성하기 위하여, 본 발명에 따른 모션 벡터 복원 방법은, 현재 계층 프레임의 제1 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에 상기 제1 매크로블록에 대한 모션 차분으로부터 상기 제1 매크로블록에 대한 모션 벡터를 복원하는 방법으로서, (a) 적어도 하나의 주변 매크로블록의 모션 벡터로부터 상기 영역이 속하는 제2 매크로블록의 모션 벡터를 보간하는 단계; (b) 상기 보간된 모션 벡터를 이용하여 상기 제1 매크로블록에 대한 예측 모션 벡터를 구하는 단계; 및 (c) 상기 제1 매크로블록에 대한 모션 차분 및 상기 구한 예측 모션 벡터를 가산하는 단계를 포함한다.
그리고 상기 목적을 달성하기 위하여, 본 발명에 따른 모션 벡터 복원 장치는, 현재 계층 프레임의 제1 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에 상기 제1 매크로블록에 대한 모션 차분으로부터 상기 제1 매크로블록에 대한 모션 벡터를 복원하는 장치로서, 적어도 하나의 주변 매크로블록의 모션 벡터로부터 상기 영역이 속하는 제2 매크로블록의 모션 벡터를 보간하는 수단; 상기 보간된 모션 벡터를 이용하여 상기 제1 매크로블록에 대한 예측 모션 벡터를 구하는 수단; 및 상기 제1 매크로블록에 대한 모션 차분 및 상기 구한 예측 모션 벡터를 가산하는 수단을 포함한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발 명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
도 4는 본 발명의 기본 개념을 나타낸 개략도이다. 현재 계층 프레임(10) 중 인터 예측을 수행할 인터 매크로블록(11)의 모션 벡터는 하위 계층의 모션 벡터를 이용하여 효율적으로 예측된다. 그런데, 상기 인터 매크로블록(11)에 대응되는 제1 하위 계층의 블록(21)은 인터 매크로블록에 속할 수도 있고 인터 매크로블록에 속하지 않을 수도 있다. 본 명세서에서 "블록"은 매크로블록 또는 그 보다 작은 크기의 영역을 의미한다. 만일, 계층 간의 해상도가 동일하다면 상기 제1 하위 계층의 블록(21)의 크기는 매크로블록의 크기를 갖겠지만, 계층 간의 해상도가 상이하다면 상기 제1 하위 계층의 블록(21)은 매크로블록보다 작은 크기를 가질 수도 있는 것이다.
그런데, 상기 제1 하위 계층의 블록(21)이 인터 매크로블록에 속하지 않는다면 상기 블록(21)에 대한 모션 벡터는 존재하지 않는다. 따라서 통상적인 방법으로는 상기 인터 매크로블록(11)에 대한 모션 예측을 수행할 수 없다.
이와 같은 경우에도 모션 예측을 이용할 수 있도록 하기 위하여, 본 발명에서는 두 가지 실시예를 제안한다. 제1 실시예는, 현재의 인터 매크로블록(11)에 대응되는 제1 하위 계층 블록(21)에 대한 모션 벡터가 존재하지 않는 경우에는, 상기 제1 하위 계층 블록(21)에 대응되는 제2 하위 계층 블록(31)의 모션 벡터를 이용하여 현재의 인터 매크로블록(11)을 예측하는 방법이다. 그런데, 제2 하위 계층 블록(31)도 마찬가지로 모션 벡터를 갖지 않을 수도 있는데 이 때는 다음의 제2 실시예를 이용할 수 있다.
제2 실시예에 따르면, 제1 하위 계층의 블록(21)을 포함하는 매크로블록(21; 도 4에서는 블록(21)은 매크로블록의 크기를 갖는다)의 빠진 모션 필드(missing motion fields)는 주변의 인터 매크로블록(22, 23 등)을 이용하여 보간된다. 그리고, 상기 보간된 모션 필드를 이용하여 현재의 인터 매크로블록(11)에 대한 모션 예측을 수행할 수 있다.
상기 제2 실시예는 상기 제1 실시예를 사용할 수 없는 경우에 한하여 적용할 수도 있지만, 상기 제1 실시예와 무관하게 독립적으로 사용될 수 있다. 즉, 대응되는 제2 하위 계층의 블록(31)이 모션 벡터를 갖는가와 무관하게 사용될 수 있으며, 제2 하위 계층 자체가 존재하지 않는 경우에도 사용될 수 있다.
본 명세서에서, "예측"이라 함은 어떤 데이터를 비디오 인코더 및 비디오 디코더에서 공통적으로 이용할 수 있는 정보를 이용하여 상기 데이터에 대한 예측 데이터를 생성하고 상기 어떤 데이터와 상기 생성된 예측 데이터와의 차분을 구함으로써 데이터의 정보량을 감소시키는 작업을 의미한다. 이 중에서도, 소정의 방법으로 생성된 예측 모션 벡터를 이용하여 원래의 모션 벡터를 예측하는 것을 "모션 예측"이라고 한다.
도 5는 계층간 해상도가 동일한 경우에 제1 실시예에 따라서 모션 벡터를 예 측하는 방법을 설명하는 도면이다. 제2 하위 계층 및 현재 계층은 독립적으로 모션 추정을 수행하므로, 서로 매크로블록 패턴 및 모션 벡터가 다를 수 있다.
도 5와 같은 경우에, 현재 계층의 매크로블록(11)에 대한 모션 벡터들은 대응되는 제2 하위 계층의 매크로블록(31)에 대한 모션 벡터들로부터 예측된다. 그런데 양자간에는 매크로블록 패턴이 동일하지 않기 때문에 이 경우 각각 무엇을 예측 모션 벡터로 삼는가가 문제이다.
구체적으로 보면, 모션 벡터(11a)에 대응되는 위치에서의 모션 벡터는 모션 벡터(31a) 및 모션 벡터(31b)이므로, 모션 벡터(11a)에 대한 예측 모션 벡터로는, 예를 들어, 모션 벡터(31a) 및 모션 벡터(31b)를 평균한 결과를 이용할 수 있다.
모션 벡터(11b)에 대응되는 위치에서의 모션 벡터는 모션 벡터(31e)이므로, 상기 모션 벡터(31e)를 모션 벡터(11b)에 대한 예측 모션 벡터로 이용할 수 있다. 모션 벡터(11b)가 할당된 영역의 크기와 모션 벡터(31e)가 할당된 영역의 크기가 다르기는 하지만 상기 모션 벡터(31e)가 할당된 영역을 8개의 영역으로 나누고 각각의 영역에 상기 모션 벡터(31e)가 할당된 것으로 볼 수 있기 때문이다. 따라서, 마찬가지로 모션 벡터(11c)에 대응되는 위치에서의 모션 벡터도 모션 벡터(31e)가 될 것이다.
모션 벡터(11d)에 대응되는 위치의 모션 벡터는 모션 벡터(31c), 모션 벡터(31d), 및 모션 벡터(31e)이다. 그런데, 모션 벡터(31e)가 할당된 영역 중에서 대응되는 위치는 상기 할당된 영역의 1/2만이다. 따라서, 상기 모션 벡터(11d)의 예측 모션 벡터로는 다음의 수학식 1과 같이, 각 모션 벡터가 적용된 면적별 가중치 를 적용한 평균을 사용할 수 있다.
mvq = (mv31c+mv31d+2×mv31e)/4
여기서, mvq는 모션 벡터(11d)에 대한 예측 모션 벡터를, mv31c는 모션 벡터(31c)를, mv31d는 모션 벡터(31d)를, 그리고 mv31e는 모션 벡터(31e)를 나타낸다.
도 6은 계층간 해상도가 상이한 경우에 제1 실시예에 따라서 모션 벡터를 예측하는 방법을 설명하는 도면이다.
계층간 해상도가 상이한 경우에는, 현재 계층의 매크로블록(11)과 대응되는 제2 하위 계층의 블록(40)은 어떤 제2 하위 계층의 매크로블록(31) 중 일부 영역이다. 상기 제2 하위 계층의 블록(40)에 대한 모션 벡터를 이용하여 현재 계층의 매크로블록(11)에 대한 모션 예측을 수행하기 위해서는 업샘플링 과정이 필요하다. 따라서, 상기 제2 하위 계층의 블록(40)에 할당된 모션 벡터를 제2 하위 계층에 대한 현재 계층의 해상도 배율(m)만큼 업샘플링한다. 그 후, 현재 계층의 매크로블록(11)에 대한 모션 벡터들을 상기 업샘플링된 모션 벡터를 이용하여 예측한다. 이 경우 현재 계층의 매크로블록(11)의 파티션 패턴과 상기 업샘플링된 모션 벡터가 할당된 영역의 파티션 패턴과 상이할 수 있는데, 이 경우 대응되는 예측 모션 벡터를 생성하는 방법은 도 5에서 설명한 바와 마찬가지이다.
도 7은 본 발명의 제2 실시예에 따라서 모션 필드를 보간하는 방법을 설명하는 도면이다.
현재 계층의 매크로블록에 대응되는 제1 하위 계층의 매크로블록(21)이 인트라 매크로블록(또는 인트라 BL 매크로블록)인 경우에는 모션 필드를 갖지 않는다. 이 경우에는 주변의 인터 매크로블록(22, 23, 24)에 할당된 모션 벡터를 이용하여 상기 매크로블록(21)의 빠진 모션 필드를 보간할 수 있다.
도 7과 같이 주변의 인터 매크로블록(22, 23, 24) 내에서 상기 매크로블록(21)과 인접한 서브블록(예: 4×4블록)이 갖는 모션 벡터들을 이용하여 상기 매크로블록(21)의 모션 벡터 내지 모션 필드를 보간한다. 다음의 수학식 2는 이러한 보간 방법의 일 예를 나타낸다. 여기서 mvp는 보간된 모션 벡터를, mvi는 참조되는 인접 서브블록의 모션 벡터들을, 그리고, i는 상기 모션 벡터들의 인덱스를 나타낸다. 그리고, N은 참조되는 인접 서브블록의 수를 나타낸다.
Figure 112005018053556-pat00001
만약, 참조되는 인접 서브블록들이 도 5와 같이 9개가 존재한다고 하면, 보간되는 모션 벡터 mvp는 다음 수학식 3과 같이 구해진다.
mvp = ( mv_l0 +mv_l1 +mv_l2 +mv_l3 +mv_a0 +mv_a1 +mv_a2 +mv_a3 +mv_ar0) / 9
도 7에서와 같이 인접 서브블록을 9개로 한 것은 종래의 단일 계층의 모션 벡터를 주변 모션 벡터를 이용하여 예측/압축하는 방법과 일관성을 유지하기 위하여 채택된 예지만, 이에 한정될 필요는 없고 다른 방법으로 참조할 인접 서브블록을 선택하여 상기 수학식 2를 적용할 수도 있다.
특히, 계층간 모션 예측의 경우는 단일 계층에서의 예측과는 달리 좌측, 상측 뿐만 아니라 우측, 및 하측 매크로블록도 참조할 수 있다. 따라서, 상기 매크로블록(21) 주변의 매크로블록 중에서 인터 매크로블록만을 선택하여, 그 중에서 인접 서브블록의 모션 벡터들을 이용하는 방법을 생각할 수 있는데, 도 8 및 도 9는 그러한 예를 도시한다.
도 8은 사방의 4개의 매크로블록(22, 23, 26, 28)으로 주변 매크로블록으로 상정한 경우이고, 도 9는 제1 하위 계층의 매크로블록(21)을 둘러싼 8개의 매크로블록(22 내지 29)를 주변 매크로블록으로 상정한 경우이다.
도 8에서는, 4개의 주변 매크로블록 중 좌측의 하나의 매크로블록(23)이 인트라 매크로블록(또는 인트라 BL 매크로블록)이고 나머지 3개(22, 26, 28)는 인터 매크로블록이다. 이 경우에는 수학식 2에서의 참조되는 인접 서브블록들은 12개가 존재하므로, 이들 각각에 할당된 모션 벡터를 평균함으로써 상기 인트라 매크로블록(21)에 대한 모션 벡터를 보간할 수 있다.
한편 도 9에서는, 9개의 주변 매크로블록 중 좌측, 좌하측, 및 우하측 매크로블록(23, 27, 29)이 인트라 매크로블록(또는 인트라 BL 매크로블록)이고 나머지 5개(22, 24, 25, 26, 28)는 인터 매크로블록이다. 이 경우에는 수학식 2에서의 참조되는 인접 서브블록들은 14개가 존재하므로, 이들 각각에 할당된 모션 벡터를 평 균함으로써 인트라 매크로블록(21)에 대한 모션 벡터를 보간할 수 있다.
이상과 같이 계산되는 모션 벡터 mvp는 상기 제1 하위 계층의 매크로블록(21) 전체를 대표한다.
그런데, 모션 벡터가 할당되는 블록의 크기는 일정하지 않은 경우가 있다. 이러한 일반적인 경우에 인접 서브블록별 모션 벡터를 어떻게 구하는지를 살펴 본다. 도 10에서 어떤 인터 매크로블록(50)은 소정의 파티션 패턴을 가지며 각 파티션마다 모션 벡터가 할당된다. 그런데, 상기 파티션에는 그 크기가 4×4 서브블록의 크기와 같은 것(52, 53, 54, 55)도 있지만, 4×4 서브블록의 크기보다 큰 것(51, 56, 57)도 있다. 이 때 4×4 서브블록 단위로 모션 벡터를 할당한다면 도 10의 우측 그림처럼 될 것이다. 이 때, 4×4 서브블록 보다 큰 단위 파티션들은 몇 개의 4×4 서브블록으로 분할되면서 각각의 서브블록에는 상기 파티션의 모션 벡터들이 동일하게 할당된다.
만약, 상기 매크로블록(50)이 도 5의 매크로블록(23)이라고 한다면, mv_l0는 모션 벡터(53)와 같고, mv_l1은 모션 벡터(55)와 같으며, mv_l2 mv_l3은 모션 벡터(57)와 같게 될 것이다. 이와 같은 서브 블록별 모션 벡터 할당을 통하여 모든 인접한 서브 블록에 대한 모션 벡터를 결정할 수 있게 된다.
도 11은 계층별 해상도가 상이한 경우에 상기 수학식 2에 따라 보간된 모션 벡터(mvp)를 이용하여 현재 매크로블록에 대한 모션 예측을 수행하는 과정을 설명하는 도면이다. 상기 보간된 모션 벡터(mvp)는 제1 향상 계층의 해상도에 대한 현재 계층의 해상도의 비율만큼 업샘플링된 후 상기 현재 매크로블록(11)에 대한 예측 모션 벡터로 사용된다. 현재 매크로블록(11)과 대응되는 제1 하위 계층 매크로블록(21) 내의 영역(29)은 상기 제1 하위 계층 매크로블록(21)의 일부분이므로, 상기 영역(29)에 대한 모션 벡터는 상기 제1 하위 계층 매크로블록(21)에 대한 모션 벡터(mvp)와 같다.
도 12는 본 발명의 일 실시예에 따른 비디오 인코더(100)의 구성을 도시한 블록도이다.
다운 샘플러(110)는 입력된 비디오를 각 계층에 맞는 해상도와 프레임율로 다운 샘플링한다. 다운 샘플러(110)는 각 계층 간에 해상도만을 다운 샘플링할 수도 있고, 프레임율만을 다운 샘플링할 수도 있다. 그리고, 해상도와 프레임율 모두를 다운 샘플링할 수도 있다. 해상도면에서의 다운 샘플링은 MPEG 다운 샘플러나 웨이블릿 다운샘플러를 이용할 수 있으며, 프레임율 면에서의 다운 샘플링은 프레임 스킵 또는 프레임 보간 등의 방법을 통하여 수행될 수 있다. 이러한 다운 샘플링 결과, 현재 계층 프레임(F0), 제1 하위 계층 프레임(F1), 및 제2 하위 계층 프레임(F2)이 각각 생성될 수 있다. 여기서, 상기 프레임들(F0, F1, F2)은 각각 시간적으로 대응되는 위치에 존재하는 것으로 가정한다.
모션 추정부(120)는 현재 계층의 다른 프레임을 참조 프레임으로 하여 현재 계층 프레임(F0)에 대해 모션 추정을 수행하여 현재 계층 프레임에 대한 모션 벡터 (MV0)를 구한다. 이러한 모션 추정은 참조 프레임 상에서 현재 프레임의 블록과 가장 유사한, 즉 가장 에러가 블록을 찾는 과정으로서 고정 크기 블록 매칭 방법 또는 계층적 가변 사이즈 블록 매칭법(Hierarchical Variable Size Block Matching; HVSBM) 등 다양한 방법이 사용될 수 있다.
이와 마찬가지로 모션 추정부(121)는 제1 하위 계층의 프레임(F1)의 모션 벡터(MV1)를 구하고, 모션 추정부(122)는 제2 하위 계층의 프레임(F2)의 모션 벡터(MV2)를 구한다. 모션 추정부(121)에서 구해진 모션 벡터(MV1)는 모션 필드 보간부(150), 모션 예측부(140), 및 엔트로피 부호화부(160)에 제공되며, 모션 추정부(122)에서 구해진 모션 벡터(MV2)는 제2 업샘플러(112), 및 엔트로피 부호화부(160)에 제공된다.
모션 필드 보간부(150)는 상기 현재 계층 프레임(F0) 중의 소정 매크로블록(이하 "현재 매크로블록"이라 함)에 대응되는 제1 하위 계층의 프레임(F1) 중의 매크로블록에 대한 모션 벡터를, 주변 매크로블록의 모션 벡터로부터 보간한다. 이러한 보간 방법에 대해서는 도 7 내지 도 11의 설명에서 전술한 바 있으므로 중복된 설명은 생략하기로 한다. 이와 같이 보간된 모션 벡터(MVp)는 제1 업샘플러(111)에 제공된다. 제1 업샘플러(111)는 상기 보간된 모션 벡터를 상기 제1 하위 계층에 대한 상기 현재 계층의 해상도의 비율만큼 업샘플링한다. 물론, 제1 하위 계층과 현재 계층의 해상도가 동일하다면 제1 업샘플러(111)에서의 업샘플링 과정은 생략된다. 상기 업샘플링된 모션 벡터(U1(MVp))는 모션 예측부(140)에 제공된다.
한편, 제2 업샘플러(112)는 모션 추정부(122)로부터 제공된 모션 벡터(MV2)를 상기 제2 하위 계층에 대한 상기 현재 계층의 해상도의 비율만큼 업샘플링하고, 그 결과(U2(MV2))를 모션 예측부(140)에 제공한다.
모션 예측부(140)는 상기 현재 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에는 본 발명에 따른 모션 예측 방식(제1 실시예, 또는 제2 실시예)을 적용한다. 이 경우, 모션 예측부(140)는 상기 제1 하위 계층의 영역에 대응되는 제2 하위 계층의 영역이 모션 벡터를 갖는지 여부를 판단한다. 그 결과, 상기 제2 하위 계층의 영역이 모션 벡터를 갖는 경우에는 제1 실시예를 이용하고, 그렇지 않은 경우에는 제2 실시예를 이용한다. 물론, 이러한 판단을 수행하지 않고 바로 제2 실시예를 적용할 수도 있다.
제1 실시예를 이용하는 경우, 모션 예측부(140)는 현재 프레임의 모션 벡터(MV0) 중 현재 매크로블록의 모션 벡터에서, 제2 업샘플러(112)에 의하여 업샘플링된 모션 벡터(U2(MV2)) 중 현재 매크로블록에 대응되는 영역의 모션 벡터를 차분한다.
제2 실시예를 이용하는 경우, 모션 예측부(140)는 상기 현재 매크로블록의 모션 벡터에서, 제1 업샘플러(111)에 의하여 업샘플링된 모션 벡터(U1(MV2)) 중 현재 매크로블록에 대응되는 영역의 모션 벡터를 차분한다.
이와 같이 모션 예측부(140)에서 차분 결과 생성되는 모션 차분(△MV)은 엔트로피 부호화부(160)에 제공된다.
한편, 예측부(131)는 모션 추정부(120)에서 구한 현재 프레임의 모션 벡터(MV0), 및 모션 추정부(120)에서 이용된 참조 프레임을 이용하여 현재 프레임(F0)에 대한 예측 프레임(prediction frame)을 구성하고, 상기 현재 프레임에서 상기 구성한 예측 프레임을 차분한다. 그 결과 잔차 프레임(R)이 생성된다.
변환부(132)는 상기 잔차 프레임(R)에 대하여, 공간적 변환을 수행하고 변환 계수(C)를 생성한다. 이러한 공간적 변환 방법으로는, DCT(Discrete Cosine Transform), 웨이블릿 변환(wavelet transform) 등의 방법이 사용될 수 있다. DCT를 사용하는 경우 상기 변환 계수는 DCT 계수이고, 웨이블릿 변환을 사용하는 경우 상기 변환 계수는 웨이블릿 계수이다.
양자화부(133)는 상기 변환 계수(C)를 양자화(quantization) 한다. 양자화(quantization)란 임의의 실수 값으로 표현되는 상기 변환 계수를 일정 구간으로 나누어 불연속적인 값(discrete value)으로 나타내고, 이를 소정의 양자화 테이블에 따른 인덱스로 매칭(matching)시키는 작업을 의미한다.
엔트로피 부호화부(160)는 양자화부(133)에 의하여 양자화된 결과(T0), 상기 모션 차분(△MV), 제1 하위 계층의 모션 벡터(MV1), 및 제2 하위 계층의 모션 벡터(MV2)를 무손실 부호화하여 비트 스트림을 생성한다. 물론, 비디오 인코더(100)가 제2 실시예만을 이용하는 경우는 MV2는 생략될 수 있다. 이러한 무손실 부호화 방법으로는, 허프만 부호화(Huffman coding), 산술 부호화(arithmetic coding), 가변 길이 부호화(variable length coding) 등의 다양한 부호화 방법이 이용될 수 있다.
도 13은 본 발명의 일 실시예에 따른 비디오 디코더(200)의 구성을 나타낸 블록도이다.
엔트로피 복호화부(210)는 무손실 복호화를 수행하여, 입력된 비트스트림으로부터 현재 계층 프레임의 텍스쳐 데이터(T), 현재 계층에 대한 모션 차분(△MV), 제1 하위 계층의 모션 벡터(MV1), 및 제2 하위 계층의 모션 벡터(MV2)를 추출한다.
모션 필드 보간부(240)는 상기 현재 계층 프레임(F0) 중 현재 매크로블록에 대응되는 제1 하위 계층의 매크로블록에 대한 모션 벡터를, 주변 매크로블록의 모션 벡터(MV1에 포함됨)로부터 보간한다. 이러한 보간 방법에 대해서는 도 7 내지 도 11의 설명에서 전술한 바 있으므로 중복된 설명은 생략하기로 한다. 이와 같이 보간된 모션 벡터(MVp)는 제1 업샘플러(211)에 제공된다. 제1 업샘플러(211)는 상기 보간된 모션 벡터를 상기 제1 하위 계층에 대한 상기 현재 계층의 해상도의 비율만큼 업샘플링한다. 물론, 제1 하위 계층과 현재 계층의 해상도가 동일하다면 제1 업샘플러(211)에서의 업샘플링 과정은 생략된다. 상기 업샘플링된 모션 벡터(U1(MVp))는 모션 복원부(230)에 제공된다.
한편, 제2 업샘플러(212)는 상기 제2 하위 계층의 모션 벡터(MV2)를 상기 제 2 하위 계층에 대한 상기 현재 계층의 해상도의 비율만큼 업샘플링하고, 그 결과(U2(MV2))를 모션 복원부(230)에 제공한다.
모션 복원부(230)는 상기 현재 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에는 본 발명에 따른 모션 예측 방식(제1 실시예, 또는 제2 실시예)을 적용한다. 이 경우, 모션 복원부(230)는 상기 제1 하위 계층의 영역에 대응되는 제2 하위 계층의 영역이 모션 벡터를 갖는지 여부를 판단한다. 그 결과, 상기 제2 하위 계층의 영역이 모션 벡터를 갖는 경우에는 제1 실시예를 이용하고, 그렇지 않은 경우에는 제2 실시예를 이용한다. 물론, 이러한 판단을 수행하지 않고 바로 제2 실시예를 적용할 수도 있다.
제1 실시예를 이용하는 경우, 모션 복원부(230)는 현재 프레임의 모션 벡터(MV0) 중 현재 매크로블록에 대한 모션 차분(△MV)과, 제2 업샘플러(212)에 의하여 업샘플링된 모션 벡터(U2(MV2)) 중 현재 매크로블록에 대응되는 영역의 모션 벡터를 가산한다.
제2 실시예를 이용하는 경우, 모션 복원부(230)는 상기 모션 차분(△MV)과, 제1 업샘플러(211)에 의하여 업샘플링된 모션 벡터(U1(MV2)) 중 현재 매크로블록에 대응되는 영역의 모션 벡터를 가산한다. 이와 같은 가산 과정을 통하여 현재 매크로블록에 대한 모션 벡터(MV0)가 복원되며, 이는 역 예측부(223)에 제공된다.
한편, 역 양자화부(221)는 엔트로피 복호화부(210)로부터 출력되는 텍스쳐 데이터(T0)를 역 양자화한다. 이러한 역 양자화 과정은 양자화 과정에서 사용된 양자화 테이블을 그대로 이용하여 양자화 과정에서 생성된 인덱스로부터 그에 매칭되는 값을 복원하는 과정이다.
역 변환부(222)는 상기 역 양자화된 결과에 대하여 역 공간적 변환을 수행한다. 이러한 역 공간적 변환은 비디오 인코더(100) 단의 변환부(132)에 대응되는 방식으로서 수행되며, 구체적으로 역 DCT 변환, 역 웨이블릿 변환 등이 사용될 수 있다.
역 예측부(223)는 상기 역 변환된 결과에 시간적 변환부(131)에서의 과정을 역으로 수행하여 비디오 프레임을 복원한다. 즉, 모션 복원부(230)에서 복원된 모션 벡터를 이용하여 예측 프레임을 생성하고, 상기 역 변환된 결과와 상기 생성된 예측 프레임을 가산함으로써 비디오 프레임을 복원하게 된다.
도 14는 본 발명의 일 실시예에 따른 비디오 인코더(100), 또는 비디오 디코더(200)가 동작하는 시스템 환경을 나타내는 구성도이다. 상기 시스템은 TV, 셋탑박스, 데스크 탑, 랩 탑 컴퓨터, 팜 탑(palmtop) 컴퓨터, PDA(personal digital assistant), 비디오 또는 이미지 저장 장치(예컨대, VCR(video cassette recorder), DVR(digital video recorder) 등)를 나타내는 것일 수 있다. 뿐만 아니라, 상기 시스템은 상기한 장치들을 조합한 것, 또는 상기 장치가 다른 장치의 일부분으로 포함된 것을 나타내는 것일 수도 있다. 상기 시스템은 적어도 하나 이상의 비디오 소스(video source; 910), 하나 이상의 입출력 장치(920), 프로세서 (940), 메모리(950), 그리고 디스플레이 장치(930)를 포함하여 구성될 수 있다.
비디오 소스(910)는 TV 리시버(TV receiver), VCR, 또는 다른 비디오 저장 장치를 나타내는 것일 수 있다. 또한, 상기 소스(910)는 인터넷, WAN(wide area network), LAN(local area network), 지상파 방송 시스템(terrestrial broadcast system), 케이블 네트워크, 위성 통신 네트워크, 무선 네트워크, 전화 네트워크 등을 이용하여 서버로부터 비디오를 수신하기 위한 하나 이상의 네트워크 연결을 나타내는 것일 수도 있다. 뿐만 아니라, 상기 소스는 상기한 네트워크들을 조합한 것, 또는 상기 네트워크가 다른 네트워크의 일부분으로 포함된 것을 나타내는 것일 수도 있다.
입출력 장치(920), 프로세서(940), 그리고 메모리(950)는 통신 매체(960)를 통하여 통신한다. 상기 통신 매체(960)에는 통신 버스, 통신 네트워크, 또는 하나 이상의 내부 연결 회로를 나타내는 것일 수 있다. 상기 소스(910)로부터 수신되는 입력 비디오 데이터는 메모리(950)에 저장된 하나 이상의 소프트웨어 프로그램에 따라 프로세서(940)에 의하여 처리될 수 있고, 디스플레이 장치(930)에 제공되는 출력 비디오를 생성하기 위하여 프로세서(940)에 의하여 실행될 수 있다.
특히, 메모리(950)에 저장된 소프트웨어 프로그램은 본 발명에 따른 방법을 수행하는 다 계층 기반의 비디오 코덱을 포함할 수 있다. 상기 코덱은 메모리(950)에 저장되어 있을 수도 있고, CD-ROM이나 플로피 디스크와 같은 저장 매체에서 읽어 들이거나, 각종 네트워크를 통하여 소정의 서버로부터 다운로드한 것일 수도 있다. 상기 소프트웨어에 의하여 하드웨어 회로에 의하여 대체되거나, 소프트웨어와 하드웨어 회로의 조합에 의하여 대체될 수 있다.
도 15는 본 발명의 일 실시예에 따른 모션 예측 방법을 나타내는 흐름도이다.
먼저, 모션 예측부(140)는 현재 계층 프레임의 제1 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖는가를 판단한다(S10). 상기 판단 결과 그러하다면(S10의 예) 제1 업샘플러(112)는 상기 제1 하위 계층의 영역이 갖는 모션 벡터를 업샘플링하여 모션 예측부에 제공한다(S70). 그러면, 모션 예측부(140)는 상기 업샘플링된 모션 벡터를 예측 모션 벡터로 하여 상기 제1 매크로블록의 모션 벡터를 예측한다(S80). 상기 S70의 과정은 종래 기술과 동일한 과정이므로 도 12 및 도 13의 설명에서는 생략하였다.
S10의 판단 결과, 그러하지 아니하다면(S10의 아니오), 모션 예측부(140)는 다시 제1 매크로블록에 대응되는 제2 하위 계층의 영역이 모션 벡터를 갖는가를 판단한다(S20). 상기 판단 결과 그러하다면(S20의 예), 제2 업샘플러(111)는 상기 제2 하위 계층의 영역이 갖는 모션 벡터를, 상기 제2 하위 계층 해상도에 대한 상기 현재 계층 해상도의 비율만큼 업샘플링한다(S60). 물론, 이러한 업샘플링 과정은 계층간에 동일해상도를 갖는 경우에는 생략될 수 있다. 그러면, 모션 예측부(140)는 상기 업샘플링된 모션 벡터를 상기 업샘플링된 모션 벡터를 예측 모션 벡터로 하여 상기 제1 매크로블록의 모션 벡터를 예측한다(S80).
한편, S20의 판단 결과, 그러하지 아니하다면(S20의 아니오), 주변 매크로블록으로부터 상기 현재 매크로블록에 대응되는 제2 매크로블록의 모션 벡터를 보간 한다(S30). 이 경우 제2 매크로블록은 인트라 매크로블록 또는 인트라 BL 매크로블록인 경우일 것이다.
상기 보간 방법은, 상기 주변 매크로블록 중 인터 매크로블록 내의 인접 서브블록이 갖는 모션 벡터를 평균(수학식 2 참조)함으로써 이루어질 수 있다. 특히, 상기 서브블록은 상기 제1 매크로블록의 좌측 매크로블록 내에서 상기 제1 매크로블록과 인접한 4개의 4×4 서브블록(도 7의 mv_l0, mv_l1, mv_l2, mv_l3)과, 상기 제1 매크로블록의 상측 매크로블록 내에서 상기 제1 매크로블록과 인접한 4개의 4×4 서브블록(도 7의 mv_a0, mv_a1, mv_a2, mv_a3)과, 상기 제1 매크로블록의 우상측 매크로블록 내에서 상기 제1 매크로블록에 가장 가까운 1개의 4×4 서브블록(도 7의 mv_ar0)을 의미하는 것일 수 있다.
업샘플러(111)는 상기 보간된 모션 벡터를 상기 제1 하위 계층 해상도에 대한 상기 현재 계층 해상도의 비율만큼 업샘플링한다(S40). 물론, 이러한 업샘플링 과정은 계층간에 동일해상도를 갖는 경우에는 생략될 수 있다. 그러면, 모션 예측부(140)는 상기 업샘플링된 모션 벡터를 예측 모션 벡터로 하여 상기 제1 매크로블록의 모션 벡터를 예측한다(S80). 상기 S80은 상기 보간된 모션 벡터를 이용하여 예측 모션 벡터를 구하는 단계와, 상기 제1 매크로블록의 모션 벡터로부터 상기 구한 예측 모션 벡터를 차분하는 단계를 포함한다.
마지막으로, 엔트로피 부호화부(160)는 S80 단계에서 예측 결과 구해지는 모션 차분(MV)을 무손실 부호화한다(S90).
이상과 같이, 상기 S30, 및 S40의 과정은 상기 S20의 판단 결과 그러하지 아 니한 경우에 수행되는 것으로 할 수도 있지만 상기 S20의 판단과 상관없이 수행될 수도 있음은 전술한 바와 같다.
지금까지 도 14의 설명은 비디오 인코더(100)를 기준으로 하여 설명한 것이지만, 비디오 디코더(200)의 경우에도 S10 내지 S70의 과정은 마찬가지이다. 다만, S80의 과정은 업샘플링된 모션 벡터를 예측 모션 벡터를 엔트로피 복호화부(210)에서 제공된 모션 차분(△MV)를 가산하는 과정으로 대체되고, S90 과정은 존재하지 않을 것이다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
본 발명에 따르면, 다 계층 기반의 모션 벡터를 효율적으로 예측함으로써 비디오 압축 성능을 향상시킬 수 있다.

Claims (24)

  1. 현재 계층 프레임의 제1 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에 상기 제1 매크로블록에 대한 모션 벡터를 압축하는 방법으로서,
    (a) 상기 영역에 인접한 적어도 하나 이상의 주변 매크로블록의 모션 벡터로부터 상기 영역의 모션 벡터를 보간하는 단계;
    (b) 상기 보간된 모션 벡터를 이용하여 상기 제1 매크로블록에 대한 예측 모션 벡터를 구하는 단계; 및
    (c) 상기 제1 매크로블록의 모션 벡터로부터 상기 구한 예측 모션 벡터를 차분하는 단계를 포함하는 모션 벡터 압축 방법.
  2. 제1항에 있어서,
    (d) 상기 차분된 결과를 무손실 부호화하는 단계를 더 포함하는 모션 벡터 압축 방법.
  3. 제1항에 있어서. 상기 영역이 포함되는 제2 매크로블록은
    인트라 매크로블록 또는 인트라 BL 매크로블록인 모션 벡터 압축 방법.
  4. 제1항에 있어서, 상기 (b) 단계는
    상기 보간된 모션 벡터를 상기 제1 하위 계층에 대한 상기 현재 계층의 해상도의 비율만큼 업샘플링하는 단계를 포함하는 모션 벡터 압축 방법.
  5. 제1항에 있어서,
    상기 제1 하위 계층의 영역에 대응되는 제2 하위 계층의 영역이 모션 벡터를 갖는지 여부를 판단하는 단계를 더 포함하며,
    상기 판단 결과 상기 모션 벡터를 갖지 않는 경우에 한하여 상기 (a) 단계 내지 (c) 단계를 수행하는 모션 벡터 압축 방법.
  6. 제5항에 있어서,
    상기 판단 결과 상기 모션 벡터를 갖는 경우에는, 상기 제2 하위 계층의 영역이 갖는 모션 벡터를 이용하여 상기 제1 매크로블록의 모션 벡터를 예측하는 단계를 더 포함하는 모션 벡터 압축 방법.
  7. 제6항에 있어서, 상기 예측하는 단계는
    상기 제2 하위 계층의 영역이 갖는 모션 벡터를 상기 제2 하위 계층에 대한 상기 현재 계층의 해상도의 비율만큼 업샘플링하는 단계; 및
    상기 제1 매크로블록의 모션 벡터로부터 상기 업샘플링된 모션 벡터를 차분하는 단계를 포함하는 모션 벡터 압축 방법.
  8. 제1항에 있어서, 상기 (a) 단계는
    상기 주변 매크로블록 중 인터 매크로블록 내의 인접 서브블록이 갖는 모션 벡터를 평균함으로써 이루어지는 모션 벡터 압축 방법.
  9. 제8항에 있어서, 상기 인접 서브블록은
    상기 제1 매크로블록의 좌측 매크로블록 내에서 상기 제1 매크로블록과 인접한 4개의 서브블록과, 상기 제1 매크로블록의 상측 매크로블록 내에서 상기 제1 매크로블록과 인접한 4개의 서브블록과, 상기 제1 매크로블록의 우상측 매크로블록 내에서 상기 제1 매크로블록에 가장 가까운 1개의 서브블록을 의미하는 모션 벡터 압축 방법.
  10. 현재 계층 프레임의 제1 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에 상기 제1 매크로블록에 대한 모션 벡터를 압축하는 장치로서,
    상기 영역에 인접한 적어도 하나 이상의 주변 매크로블록의 모션 벡터로부터 상기 영역의 모션 벡터를 보간하는 수단;
    상기 보간된 모션 벡터를 이용하여 상기 제1 매크로블록에 대한 예측 모션 벡터를 구하는 수단; 및
    상기 제1 매크로블록의 모션 벡터로부터 상기 구한 예측 모션 벡터를 차분하는 수단을 포함하는 모션 벡터 압축 장치.
  11. 제10항에 있어서,
    상기 차분된 결과를 무손실 부호화하는 수단을 더 포함하는 모션 벡터 압축 장치.
  12. 제10항에 있어서. 상기 영역이 포함되는 제2 매크로블록은
    인트라 매크로블록 또는 인트라 BL 매크로블록인 모션 벡터 압축 장치.
  13. 제10항에 있어서, 상기 예측 모션 벡터를 구하는 수단은
    상기 보간된 모션 벡터를 상기 제1 하위 계층에 대한 상기 현재 계층의 해상도의 비율만큼 업샘플링하는 모션 벡터 압축 장치.
  14. 제10항에 있어서,
    상기 제1 하위 계층의 영역에 대응되는 제2 하위 계층의 영역이 모션 벡터를 갖는지 여부를 판단하는 수단을 더 포함하며,
    상기 판단 결과 상기 모션 벡터를 갖지 않는 경우에 한하여 상기 보간하는 수단, 상기 예측 모션 벡터를 구하는 수단, 및 상기 차분하는 수단을 동작시키는 모션 벡터 압축 장치.
  15. 제14항에 있어서,
    상기 판단 결과 상기 모션 벡터를 갖는 경우에는, 상기 제2 하위 계층의 영역이 갖는 모션 벡터를 이용하여 상기 제1 매크로블록의 모션 벡터를 예측하는 수단을 더 포함하는 모션 벡터 압축 장치.
  16. 제15항에 있어서, 상기 제1 매크로블록의 모션 벡터를 예측하는 수단은
    상기 제2 하위 계층의 영역이 갖는 모션 벡터를 상기 제2 하위 계층에 대한 상기 현재 계층의 해상도의 비율만큼 업샘플링하는 수단; 및
    상기 제1 매크로블록의 모션 벡터로부터 상기 업샘플링된 모션 벡터를 차분하는 수단을 포함하는 모션 벡터 압축 장치.
  17. 제10항에 있어서, 상기 보간하는 수단은
    상기 주변 매크로블록 중 인터 매크로블록 내의 인접 서브블록이 갖는 모션 벡터를 평균하는 모션 벡터 압축 장치.
  18. 제17항에 있어서, 상기 인접 서브블록은
    상기 제1 매크로블록의 좌측 매크로블록 내에서 상기 제1 매크로블록과 인접한 4개의 서브블록과, 상기 제1 매크로블록의 상측 매크로블록 내에서 상기 제1 매크로블록과 인접한 4개의 서브블록과, 상기 제1 매크로블록의 우상측 매크로블록 내에서 상기 제1 매크로블록에 가장 가까운 1개의 서브블록을 의미하는 모션 벡터 압축 장치.
  19. 현재 계층 프레임의 제1 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에 상기 제1 매크로블록에 대한 모션 차분으로부터 상기 제1 매크로블록에 대한 모션 벡터를 복원하는 방법으로서,
    (a) 상기 영역에 인접한 적어도 하나 이상의 주변 매크로블록의 모션 벡터로부터 상기 영역의 모션 벡터를 보간하는 단계;
    (b) 상기 보간된 모션 벡터를 이용하여 상기 제1 매크로블록에 대한 예측 모션 벡터를 구하는 단계; 및
    (c) 상기 제1 매크로블록에 대한 모션 차분 및 상기 구한 예측 모션 벡터를 가산하는 단계를 포함하는 모션 벡터 복원 방법.
  20. 제19항에 있어서. 상기 영역이 포함되는 제2 매크로블록은
    인트라 매크로블록 또는 인트라 BL 매크로블록인 모션 벡터 복원 방법.
  21. 제19항에 있어서, 상기 (b) 단계는
    상기 보간된 모션 벡터를 상기 제1 하위 계층에 대한 상기 현재 계층의 해상도의 비율만큼 업샘플링하는 단계를 포함하는 모션 벡터 복원 방법.
  22. 제19항에 있어서, 상기 (a) 단계는
    상기 주변 매크로블록 중 인터 매크로블록 내의 인접 서브블록이 갖는 모션 벡터를 평균함으로써 이루어지는 모션 벡터 복원 방법.
  23. 제19항에 있어서, 상기 인접 서브블록은
    상기 제1 매크로블록의 좌측 매크로블록 내에서 상기 제1 매크로블록과 인접한 4개의 서브블록과, 상기 제1 매크로블록의 상측 매크로블록 내에서 상기 제1 매크로블록과 인접한 4개의 서브블록과, 상기 제1 매크로블록의 우상측 매크로블록 내에서 상기 제1 매크로블록에 가장 가까운 1개의 서브블록을 의미하는 모션 벡터 복원 방법.
  24. 현재 계층 프레임의 제1 매크로블록에 대응되는 제1 하위 계층의 영역이 모션 벡터를 갖지 않는 경우에 상기 제1 매크로블록에 대한 모션 차분으로부터 상기 제1 매크로블록에 대한 모션 벡터를 복원하는 장치로서,
    상기 영역에 인접한 적어도 하나 이상의 주변 매크로블록의 모션 벡터로부터 상기 영역의 모션 벡터를 보간하는 수단;
    상기 보간된 모션 벡터를 이용하여 상기 제1 매크로블록에 대한 예측 모션 벡터를 구하는 수단; 및
    상기 제1 매크로블록에 대한 모션 차분 및 상기 구한 예측 모션 벡터를 가산하는 수단을 포함하는 모션 벡터 복원 장치.
KR1020050028683A 2005-02-07 2005-04-06 다 계층 기반의 모션 벡터를 압축하는 방법 및 장치 KR100704626B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/KR2006/000352 WO2006083107A1 (en) 2005-02-07 2006-02-01 Method and apparatus for compressing multi-layered motion vector
BRPI0606786-7A BRPI0606786A2 (pt) 2005-02-07 2006-02-01 método de restauração de um vetor de movimento, e aparelho para restauração de um vetor de movimento
EP06715805A EP1847129A1 (en) 2005-02-07 2006-02-01 Method and apparatus for compressing multi-layered motion vector
US11/348,316 US20060176957A1 (en) 2005-02-07 2006-02-07 Method and apparatus for compressing multi-layered motion vector

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US65017305P 2005-02-07 2005-02-07
US60/650,173 2005-02-07

Publications (2)

Publication Number Publication Date
KR20060090141A KR20060090141A (ko) 2006-08-10
KR100704626B1 true KR100704626B1 (ko) 2007-04-09

Family

ID=37571514

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050028683A KR100704626B1 (ko) 2005-02-07 2005-04-06 다 계층 기반의 모션 벡터를 압축하는 방법 및 장치

Country Status (4)

Country Link
US (1) US20060176957A1 (ko)
KR (1) KR100704626B1 (ko)
CN (1) CN101156454A (ko)
BR (1) BRPI0606786A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018074825A1 (ko) * 2016-10-19 2018-04-26 에스케이텔레콤 주식회사 영상 부호화 또는 복호화를 위한 장치 및 방법
US10924757B2 (en) 2016-10-19 2021-02-16 Sk Telecom Co., Ltd. Apparatus and method for encoding or decoding video

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101147399B (zh) * 2005-04-06 2011-11-30 汤姆森许可贸易公司 编码增强层视频数据的方法和设备
JP2008109632A (ja) * 2006-09-28 2008-05-08 Toshiba Corp 動きベクトル検出装置及びその方法
US8929434B2 (en) * 2006-10-14 2015-01-06 Ubiquity Broadcasting Corporation Video enhancement internet media experience in converting high definition formats to video formats
US8514939B2 (en) * 2007-10-31 2013-08-20 Broadcom Corporation Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing
EP2266318B1 (en) * 2008-03-19 2020-04-22 Nokia Technologies Oy Combined motion vector and reference index prediction for video coding
WO2011004027A2 (en) * 2009-07-10 2011-01-13 British Broadcasting Corporation Compression of pictures
US8611414B2 (en) * 2010-02-17 2013-12-17 University-Industry Cooperation Group Of Kyung Hee University Video signal processing and encoding
EP2559243B1 (en) 2010-04-13 2014-08-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. A video decoder and a video encoder using motion-compensated prediction
US20130188719A1 (en) * 2012-01-20 2013-07-25 Qualcomm Incorporated Motion prediction in svc using motion vector for intra-coded block
EP2642755B1 (en) * 2012-03-20 2018-01-03 Dolby Laboratories Licensing Corporation Complexity scalable multilayer video coding
US9420285B2 (en) 2012-04-12 2016-08-16 Qualcomm Incorporated Inter-layer mode derivation for prediction in scalable video coding
US9491458B2 (en) * 2012-04-12 2016-11-08 Qualcomm Incorporated Scalable video coding prediction with non-causal information
US10609394B2 (en) * 2012-04-24 2020-03-31 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and deriving parameters for coded multi-layer video sequences
US9319684B2 (en) * 2012-08-21 2016-04-19 Qualcomm Incorporated Alternative transform in scalable video coding
CN103716629B (zh) * 2012-09-29 2017-02-22 华为技术有限公司 用于图像处理的方法、装置、编码器和解码器
US9648319B2 (en) * 2012-12-12 2017-05-09 Qualcomm Incorporated Device and method for scalable coding of video information based on high efficiency video coding
KR20170023484A (ko) * 2015-08-24 2017-03-06 삼성전자주식회사 이미지 처리장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060035542A (ko) * 2004-10-21 2006-04-26 삼성전자주식회사 다 계층 기반의 비디오 코더에서 모션 벡터를 효율적으로압축하는 방법 및 장치

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5731840A (en) * 1995-03-10 1998-03-24 Kabushiki Kaisha Toshiba Video coding/decoding apparatus which transmits different accuracy prediction levels
US6023301A (en) * 1995-07-14 2000-02-08 Sharp Kabushiki Kaisha Video coding device and video decoding device
US6621865B1 (en) * 2000-09-18 2003-09-16 Powerlayer Microsystems, Inc. Method and system for encoding and decoding moving and still pictures

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060035542A (ko) * 2004-10-21 2006-04-26 삼성전자주식회사 다 계층 기반의 비디오 코더에서 모션 벡터를 효율적으로압축하는 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
1020060035542 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018074825A1 (ko) * 2016-10-19 2018-04-26 에스케이텔레콤 주식회사 영상 부호화 또는 복호화를 위한 장치 및 방법
US10924757B2 (en) 2016-10-19 2021-02-16 Sk Telecom Co., Ltd. Apparatus and method for encoding or decoding video
US11962798B2 (en) 2016-10-19 2024-04-16 Sk Telecom Co., Ltd. Apparatus and method for encoding or decoding video using adaptive motion vector resolution

Also Published As

Publication number Publication date
KR20060090141A (ko) 2006-08-10
US20060176957A1 (en) 2006-08-10
BRPI0606786A2 (pt) 2009-07-14
CN101156454A (zh) 2008-04-02

Similar Documents

Publication Publication Date Title
KR100704626B1 (ko) 다 계층 기반의 모션 벡터를 압축하는 방법 및 장치
KR100664929B1 (ko) 다 계층 기반의 비디오 코더에서 모션 벡터를 효율적으로압축하는 방법 및 장치
KR100631777B1 (ko) 다 계층의 모션 벡터를 효율적으로 압축하는 방법 및 장치
KR100763181B1 (ko) 기초계층과 향상계층의 데이터를 바탕으로 예측 정보를코딩하여 코딩율을 향상시키는 방법 및 장치
KR100703740B1 (ko) 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치
KR100703734B1 (ko) Dct 업샘플링을 이용한 다 계층 비디오 인코딩/디코딩방법 및 장치
KR100703774B1 (ko) 인트라 코딩을 선택적으로 적용하여 인트라 bl 예측모드의 비디오 신호를 인코딩 및 디코딩하는 방법 및 장치
RU2341035C1 (ru) Способ кодирования и декодирования видеосигнала с использованием взвешенного предсказания и устройство для его осуществления
KR100703760B1 (ko) 시간적 레벨간 모션 벡터 예측을 이용한 비디오인코딩/디코딩 방법 및 장치
KR100714696B1 (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR100679031B1 (ko) 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치
KR100763182B1 (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR100772878B1 (ko) 비트스트림의 비트율 조절을 위한 우선권 할당 방법,비트스트림의 비트율 조절 방법, 비디오 디코딩 방법 및 그방법을 이용한 장치
KR100703745B1 (ko) 비동기 프레임을 효율적으로 예측하는 비디오 코딩 방법 및장치
KR100703746B1 (ko) 비동기 프레임을 효율적으로 예측하는 비디오 코딩 방법 및장치
EP1659797A2 (en) Method and apparatus for compressing motion vectors in video coder based on multi-layer
KR20060135992A (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR100621584B1 (ko) 스무딩 필터를 이용하는 비디오 디코딩 방법 또는 비디오디코더
EP1730967B1 (en) Method and apparatus for effectively compressing motion vectors in multi-layer structure
KR100703751B1 (ko) 가상 영역의 영상을 참조하여 인코딩 및 디코딩 하는 방법및 장치
EP1847129A1 (en) Method and apparatus for compressing multi-layered motion vector

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment
FPAY Annual fee payment

Payment date: 20160701

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20180402

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20190402

Year of fee payment: 13