KR20070000022A - 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치 - Google Patents

다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치 Download PDF

Info

Publication number
KR20070000022A
KR20070000022A KR1020050055041A KR20050055041A KR20070000022A KR 20070000022 A KR20070000022 A KR 20070000022A KR 1020050055041 A KR1020050055041 A KR 1020050055041A KR 20050055041 A KR20050055041 A KR 20050055041A KR 20070000022 A KR20070000022 A KR 20070000022A
Authority
KR
South Korea
Prior art keywords
picture
motion
lower layer
current picture
weighted
Prior art date
Application number
KR1020050055041A
Other languages
English (en)
Other versions
KR100714696B1 (ko
KR20060135992A (ko
Inventor
이교혁
한우진
이배근
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020050055041A priority Critical patent/KR100714696B1/ko
Priority to US11/454,908 priority patent/US20060291562A1/en
Priority to BRPI0611946-8A priority patent/BRPI0611946A2/pt
Priority to CN2006800228026A priority patent/CN101208958B/zh
Priority to EP06253231.2A priority patent/EP1737243A3/en
Priority to PCT/KR2006/002423 priority patent/WO2006137709A1/en
Priority to TW095122692A priority patent/TWI326188B/zh
Publication of KR20070000022A publication Critical patent/KR20070000022A/ko
Publication of KR20060135992A publication Critical patent/KR20060135992A/ko
Application granted granted Critical
Publication of KR100714696B1 publication Critical patent/KR100714696B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process

Abstract

본 발명은 다계층 기반의 비디오 코덱에서 계층간 정보를 이용하여 복수의 계층을 효율적으로 부호화하는 방법 및 장치에 관한 것이다.
본 발명에 따른 비디오 인코딩 방법은, 하위 계층의 가중 인자를 판독하는 단계와, 상기 현재 픽쳐에 대한 참조 픽쳐를 모션 벡터에 의하여 모션 보상하는 단계와, 상기 판독된 가중 인자를 이용하여 상기 모션 보상된 참조 픽쳐의 가중합을 구함으로써 상기 현재 픽쳐에 대한 예측 픽쳐를 생성하는 단계와, 상기 현재 픽쳐와 상기 예측 픽쳐와의 차분을 부호화하는 단계로 이루어진다.

Description

다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및 장치{Method and apparatus for coding video using weighted prediction based on multi-layer}
본 발명은 비디오 코딩에 관한 것으로서, 다계층 기반의 비디오 코덱에서 계층간 정보를 이용하여 복수의 계층을 효율적으로 부호화하는 방법 및 장치에 관한 것이다.
인터넷을 포함한 정보통신 기술이 발달함에 따라 문자, 음성뿐만 아니라 화상통신이 증가하고 있다. 기존의 문자 위주의 통신 방식으로는 소비자의 다양한 욕구를 충족시키기에는 부족하며, 이에 따라 문자, 영상, 음악 등 다양한 형태의 정보를 수용할 수 있는 멀티미디어 서비스가 증가하고 있다. 멀티미디어 데이터는 그 양이 방대하여 대용량의 저장매체를 필요로 하며 전송시에 넓은 대역폭을 필요로 한다. 예를 들면 640*480의 해상도를 갖는 24 bit 트루 컬러의 이미지는 한 픽쳐당 640*480*24 bit의 용량 다시 말해서 약 7.37Mbit의 데이터가 필요하다. 이를 초당 30 픽쳐로 전송하는 경우에는 221Mbit/sec의 대역폭을 필요로 하며, 90분 동안 상영되는 영화를 저장하려면 약 1200G bit의 저장공간을 필요로 한다. 따라서 문자, 영상, 오디오를 포함한 멀티미디어 데이터를 전송하기 위해서는 압축코딩기법을 사용하는 것이 필수적이다.
데이터를 압축하는 기본적인 원리는 데이터의 중복(redundancy)을 제거하는 과정이다. 이미지에서 동일한 색이나 객체가 반복되는 것과 같은 공간적 중복이나, 동영상 픽쳐에서 인접 픽쳐가 거의 변화가 없는 경우나 오디오에서 같은 음이 계속 반복되는 것과 같은 시간적 중복, 또는 인간의 시각 및 지각 능력이 높은 주파수에 둔감한 것을 고려한 심리시각 중복을 제거함으로써 데이터를 압축할 수 있다. 데이터 압축의 종류는 소스 데이터의 손실 여부와, 각각의 픽쳐에 대해 독립적으로 압축하는 지 여부와, 압축과 복원에 필요한 시간이 동일한 지 여부에 따라 각각 손실/무손실 압축, 픽쳐 내/픽쳐간 압축, 대칭/비대칭 압축으로 나눌 수 있다. 이 밖에도 압축 복원 지연 시간이 50ms를 넘지 않는 경우에는 실시간 압축으로 분류하고, 픽쳐들의 해상도가 다양한 경우는 스케일러블 압축으로 분류한다. 문자 데이터나 의학용 데이터 등의 경우에는 무손실 압축이 이용되며, 멀티미디어 데이터의 경우에는 주로 손실 압축이 이용된다. 한편 공간적 중복을 제거하기 위해서는 픽쳐 내 압축이 이용되며 시간적 중복을 제거하기 위해서는 픽쳐간 압축이 이용된다.
멀티미디어를 전송하기 위한 전송매체는 매체 별로 그 성능이 다르다. 현재 사용되는 전송매체는 초당 수십 메가비트의 데이터를 전송할 수 있는 초고속통신망부터 초당 384 킬로비트의 전송속도를 갖는 이동통신망 등과 같이 다양한 전송속도를 갖는다. MPEG-1, MPEG-2, H.263 또는 H.264와 같은 종전의 비디오 코딩은 모션 보상 예측법에 기초하여 시간적 중복은 모션 보상에 의해 제거하고 공간적 중복은 변환 코딩에 의해 제거한다. 이러한 방법들은 좋은 압축률을 갖고 있지만 주 알고리즘에서 재귀적 접근법을 사용하고 있어 진정한 스케일러블 비트스트림(true scalable bitstream)을 위한 유연성을 갖지 못한다. 이에 따라 최근에는 웨이블릿 기반의 스케일러블 비디오 코딩에 대한 연구가 활발하다. 스케일러블 비디오 코딩은 스케일러빌리티를 갖는 비디오 코딩을 의미한다. 스케일러빌리티란 압축된 하나의 비트스트림으로부터 부분 디코딩, 즉, 다양한 비디오를 재생할 수 있는 특성을 의미한다. 스케일러빌리티는 비디오의 해상도를 조절할 수 있는 성질을 의미하는 공간적 스케일러빌리티와 비디오의 화질을 조절할 수 있는 성질을 의미하는 SNR(Signal-to-Noise Ratio) 스케일러빌리티와, 픽쳐 레이트를 조절할 수 있는 시간적 스케일러빌리티와, 이들 각각을 조합한 것을 포함하는 개념이다.
현재 MPEG(Motion Picture Expert Group)과 ITU(International Telecommunication Union) 간의 연합 그룹(joint group)인 JVT(Joint Video Team)에서는 H.264 Scalable Extension (이하 "H.264 SE"라 함)의 표준화가 진행되고 있다. H.264 SE는 기본적으로는 H.264 기반의 코딩 기술을 대부분 그대로 채택하되 복수의 계층을 코딩하기 위하여 계층간의 관련성을 이용한다는 점에서 특징이 있다. 복수의 계층은 해상도, 프레임률, 또는 SNR 면에서 다소 상이한 면이 있지만 기본적으로는 동일한 비디오 소스로부터 생성된다는 점에서 상당한 유사성을 갖기 마련이기 때문에, 상위 계층의 데이터를 코딩함에 있어 하위 계층의 정보를 효율적으로 이용하는 다양한 기법들이 제시되고 있다.
도 1은 기존의 H.264에 제시된 가중 예측(weighted prediction) 기술을 설명하는 도면이다. 상기 가중 예측 기술이란 모션 보상된 참조 픽쳐를 단순히 평균하는 것이 아니라 적절히 스케일링함으로써 예측 효율을 높이는 기술을 의미한다.
현재 픽쳐(10) 내의 어떤 모션 블록(11)("모션 벡터의 할당 단위가 되는 매크로블록 또는 서브 매크로블록"을 의미함)은 순방향 모션 벡터(22)에 의하여 좌측 참조 픽쳐(20)의 소정 이미지(21)와 대응되고, 역방향 모션 벡터(32)에 의하여 우측 참조 픽쳐(30)의 소정 이미지(31)와 대응된다.
인코더는 상기 이미지들(21, 31)로부터 예측 이미지를 구한 후, 상기 모션 블록(11)에서 상기 예측 이미지를 차분함으로써 상기 모션 블록(11)에 소요되는 데이터량을 감소시킨다.
그런데, 가중 예측을 이용하지 않는 경우에는 상기 이미지들(21, 31)을 단순히 평균하여 예측 이미지를 구한다. 하지만, 일반적으로 상기 모션 블록(11)이 좌측 이미지(21)과 우측 이미지(31)의 평균과 일치하지는 않기 때문에 이와 같은 방법으로는 정확한 예측 이미지를 구할 수 없다.
따라서, H.264에서는 슬라이스(slice) 단위로 가중 인자(w0, w1)을 결정하고 상기 이미지들(21, 31)에 각각 가중 인자를 곱하여 더한 결과를 예측 이미지로 사용한다. 상기 슬라이스는 복수의 매크로블록으로 이루어질 수 있으며 픽쳐와 일치할 수도 있지만, 복수의 슬라이스가 하나의 픽쳐를 구성하기도 한다. 이와 같이 하면, 가중 인자(w0, w1)를 조절함으로써 상기 모션 블록(11)과의 차이가 매우 작은 예측 이미지를 구할 수 있고, 상기 모션 블록(11)과 상기 예측 이미지를 차분함으로써 코딩 효율을 향상시킬 수 있다.
이상의 H.264의 가중 예측 기술이 매우 효과적이기는 하지만, 이는 단순히 단일 계층의 코딩에서 적용되는 기술로서, 다계층 기반의 스케일러블 비디오 코딩에서는 어떻게 응용되어야 하는지에 관한 연구는 아직까지 이루어지고 있지 않은 실정에 있다.
본 발명이 이루고자 하는 기술적 과제는, 다 계층 기반의 비디오 코덱에서 하위 계층의 가중 예측시 사용된 가중 인자를 이용하여 상위 계층을 가중 예측하는 방법 및 장치를 제공하고자 하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 비디오 인코딩 방법은, (a) 하위 계층의 가중 인자를 판독하는 단계; (b) 상기 현재 픽쳐에 대한 참조 픽쳐를 모션 벡터에 의하여 모션 보상하는 단계; (c) 상기 판독된 가중 인자를 이용하여 상기 모션 보상된 참조 픽쳐의 가중합을 구함으로써 상기 현재 픽쳐에 대한 예측 픽쳐를 생성하는 단계; 및 (d) 상기 현재 픽쳐와 상기 예측 픽쳐와의 차분을 부호화하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 비디오 디코딩 방법은, (a) 입력된 비트스트림으로부터 상위 계층에 속하는 현재 픽쳐의 텍스쳐 데이터, 모션 벡터, 및 하위 계층 픽쳐의 가중 인자를 추출하는 단계; (b) 상기 현재 픽쳐에 대한 참조 픽쳐를 상기 모션 벡터에 의하여 모션 보상하는 단계; (c) 상기 가중 인자를 이용하여 상기 모션 보상된 참조 픽쳐의 가중합을 구함으로써 상기 현재 픽쳐에 대한 예측 픽쳐를 생성하는 단계; 및 (d) 상기 현재 픽쳐의 텍스쳐 데이터와 상기 예측 픽쳐를 가산하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 비디오 인코더는, 상위 계층의 현재 픽쳐와 다른 시간적 위치에 있는 참조 픽쳐를 참조하여 현재 픽쳐에 대한 모션 추정을 수행함으로써 모션 벡터를 구하는 모션 추정부; 상기 모션 벡터를 이용하여 상기 참조 픽쳐를 모션 보상하는 모션 보상부; 상기 판독된 가중 인자를 이용하여 상기 모션 보상된 참조 픽쳐의 가중합을 구함으로써 상기 현재 픽쳐에 대한 예측 픽쳐를 생성하는 가중 예측부; 및 상기 현재 픽쳐와 상기 예측 픽쳐와의 차분을 부호화하는 수단을 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 비디오 디코더는, 입력된 비트스트림으로부터 상위 계층에 속하는 현재 픽쳐의 텍스쳐 데이터, 모션 벡터, 및 하위 계층 픽쳐의 가중 인자를 추출하는 엔트로피 복호화부; 상기 모션 벡터를 이용하여 상기 참조 픽쳐를 모션 보상하는 모션 보상부; 상기 가중 인자를 이용하여 상기 모션 보상된 참조 픽쳐의 가중합을 구함으로써 상기 현재 픽쳐에 대한 예측 픽쳐를 생성하는 가중 예측부; 및 상기 현재 픽쳐의 텍스쳐 데이터와 상기 예측 픽쳐를 가산하는 가산기를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.
H.264의 가중 예측법에 따른 예측 이미지(predPart)는 다음의 수학식 1과 같이 계산될 수 있다. 여기서, predPartL0는 좌측 참조 픽쳐 중의 대응 이미지를 의미하고, predPartL1은 우측 참조 픽쳐 중의 대응 이미지를 의미한다.
predPart = w0×predPartL0 + w1×predPartL1
그런데, 이러한 가중 예측 방법에는 'Explicit' 가중 예측 방법과, 'Implicit' 가중 예측 방법이 있다.
'Explicit' 타입에서는, 가중 인자(w0, w1)은 인코더에 의하여 추정되어 슬라이스 헤더에 포함되어 디코더에 전송된다. 'Implicit' 타입에서는, 디코더 단으로 가중 인자(w0, w1)가 전송되지는 않는다. 대신에, 디코더는 가중 인자(w0, w1)를 L0(List 0) 참조 픽쳐 및 L1(List 1) 참조 픽쳐들의 상대적인 시간적 위치에 기반하여 추정한다. 여기서 L0는 순방향 참조 픽쳐(시간적으로 앞서는 참조 픽쳐)를, L1은 역방향 참조 픽쳐(시간적으로 뒤지는 참조 픽쳐)를 의미하는 것일 수 있다.
H.264에는 I 슬라이스, P 슬라이스, B 슬라이스 등의 슬라이스 타입이 존재한다. 이 중에서, P 슬라이스에는 Explicit 가중 예측법이 사용될 수 있고, B 슬라이스에는 Explicit 가중 예측 및 Implicit 가중 예측이 모두 사용될 수 있어 결국 3가지 타입이 존재할 수 있다.
가중 인자에는 디폴트(default) 값이 할당되어 있어서, 가중 예측을 사용하지 않는 모드에서는 상기 디폴트 값이 적용된다. 양방향 참조(B 슬라이스)에서 w0 및 w1의 디폴트 값은 모두 1/2(단순 평균을 의미함)로 설정되어 있고, 단방향 참조(P 슬라이스, SP 슬라이스)에서 w0 또는 w1의 디폴트 값은 1로 설정되어 있다.
이하에서는, H.264에서 사용되는 3가지 타입의 가중 예측 방식을 살펴 본다. 첫째, P 슬라이스에 대한 Explicit 타입의 가중 예측은 'weighted_pred_flag'가 1이고 참조 방식이 단방향 참조일 때 수행된다. 이 경우, 예측 이미지는 다음의 수학식 2에 따라서 구해질 수 있다.
predPart = wx×predPartLx where, x is 0 or 1
예측 인자 wx의 정보는 비트스트림 중 슬라이스 헤더에 코딩되어 디코더 단으로 전달된다.
둘째, B 슬라이스에 대한 Explicit 타입의 가중 예측은 'weighted_bipred_flag'가 1이고 참조 방식이 양방향 참조일 때 수행된다. 이 경우 예측 이미지는 상기 수학식 1에 따라서 구해질 수 있으며, w0 및 w1의 정보는 비트스트림 중 슬라이스 헤더에 코딩되어 디코더 단으로 전달된다.
셋째, B 슬라이스에 대한 Implicit 타입의 가중 예측은 'weighted_bipred_flag'가 2이고 참조 방식이 양방향 참조일 때 수행된다. 이 경우, w0 및 w1의 정보는 디코더 단으로 전달되지 않고, H.264의 디코더의 가중 예측 프로세스(weighted prediction process)에 의하여 추정/생성된다. 상기 가중 예측 프로세스는 참조 픽쳐의 시간적 거리를 고려하여 디자인되었다.
Explicit 타입에 비한 Implicit 타입의 장점은 비트스트림에 가중 예측에 관한 별도의 정보를 기록할 필요가 없어 오버헤드가 발생하지 않는다는 점이다. 그러나, Implicit 타입의 경우 디코더 단에서 추정된 w0 및 w1는 인코더에서 계산되는 w0 및 w1와는 동일하지는 않으므로 복원된 픽쳐의 품질이 하락할 우려가 있다는 단점도 있다.
본 발명에서는, 다계층 구조의 비디오 코덱에서, 하위 계층의 가중 인자를 상위 계층에서 그대로 이용하여 상위 계층에 대한 가중 예측을 수행하는 방법을 제안하고자 한다. JVT에서는 현재 JSVM (Joint Scalable Video Model)을 작업 초안으로 채택하고 있는데, JSVM은 하위 계층이 H.264 호환 구조로 되어 있다. 따라서, JSVM에 본 발명을 적용하기 위하여, 상기 하위 계층은 H.264에 의하여 코딩되는 것이 바람직하다. 하지만, 반드시 그에 한정되지는 않으며, 단지 하위 계층에서 가중 인자를 사용하는 경우라면 본 발명이 적용될 수 있다.
가중 예측법은 페이드인(Fade-In) 또는 페이드아웃(Fade-Out) 비디오 시퀀스에서 매우 효율적으로 동작한다. 상기 페이드인 또는 페이드아웃 시퀀스가 JSVM과 같은 다 계층 구조의 코덱에 의하여 코딩된다면, 상위 계층의 가중 인자는 하위 계층의 것과 유사할 것으로 예상된다. 더욱이, 잔차 예측(residual prediction)을 하는 경우라면 더더욱, 대응되는 하위 계층 슬라이스를 갖는 슬라이스에 대하여 동일한 가중 예측을 적용하는 것이 합리적일 것이다. 상기 잔차 예측은 상위 계층에서 시간적 예측을 통하여 생성되는 잔차 신호와, 하위 계층에서 시간적 예측을 통하여 생성되며 상기 잔차 신호와 동일한 시간적 위치에 있는 잔차 신호를 차분함으로써 코딩 효율을 한층 더 높이는 방법으로서, 현재 JSVM에 포함되어 있다.
도 2는 본 발명의 일 실시예에 따른 다계층 기반의 가중 예측법을 설명하는 흐름도이다. 먼저, 인코더는 상위 계층의 현재 픽쳐가 입력되면(S10), 상기 현재 픽쳐가 동기 픽쳐인지를 판단한다(S20). 본 발명에서, 동기 픽쳐(synchronized picture)라 함은 하위 계층에서 대응되는 픽쳐, 즉 동일한 시간적 위치를 갖는 픽쳐(이하, '기초 픽쳐'라 함)를 갖는 상위 계층의 픽쳐를 의미한다. 따라서, 비동기 픽쳐는 하위 계층에서 대응되는 픽쳐를 갖지 않는 상위 계층의 픽쳐를 의미한다. 상기 시간적 위치의 동일 여부는 예를 들어, JSVM에서 정의된 POC(Picture of Count)의 동일 여부에 의하여 판단할 수 있다.
S20의 판단 결과 그러하다면(S20의 예), 인코더는 현재 픽쳐와 기초 픽쳐의 참조 방식 및 참조 거리가 동일한가를 판단한다(S30). 상기 참조 방식에는 순방향 참조, 역방향 참조, 양방향 참조, 또는 기타 다중 참조가 있을 수 있다. 그리고, 참조 거리는 참조하는 픽쳐와 참조 픽쳐간의 시간적 거리를 의미한다. 상기 시간적 거리는 JSVM에서는 참조하는 픽쳐의 POC와 참조 픽쳐의 POC와의 차이로 표현될 수 있다.
S30의 판단 결과 그러하다면(S30의 예), 인코더는 기초 픽쳐에서 가중 예측을 사용하고 있는가를 판단한다(S40). JSVM에 따를 때, 기초 픽쳐에서 가중 예측을 사용하는가 여부는 기초 픽쳐(또는 기초 슬라이스)의 weighted_pred_flag, 또는 weighted_bipred_flag을 확인함으로써 판단할 수 있다.
전술한 바와 같이 기초 슬라이스가 P 슬라이스라면 weighted_pred_flag라는 플래그의 값이 1이면 가중 예측(Explicit)이 사용되는 경우를, 그 값이 0이면 가중 예측이 사용되지 않는 경우를 나타낸다. 그리고, 기초 슬라이스가 B 슬라이스라면 weighted_bipred_flag라는 플래그의 값이 0이면 가중 예측이 사용되지 않는 경우를, 1이면 Explicit 타입의 가중 예측이 사용되는 경우를, 2이면 Implicit 타입의 가중 예측이 사용되는 경우를 각각 나타낸다.
S40의 판단 결과 그러하다면(S40의 아니오), 인코더는 현재 픽쳐에 가중 예측을 적용한다(S50).
한편, 현재 픽쳐가 비동기 픽쳐이거나(S20의 아니오), 현재 픽쳐와 기초 픽쳐의 참조 방식이 다르거나(S30), 또는 기초 픽쳐에서 가중 예측을 사용하지 않는 경우(S40)에는 현재 픽쳐에 가중 예측을 적용하지 않는다(S60).
도 3은 도 2의 S50단계의 세부 단계를 나타낸 흐름도이다.
먼저, 인코더는 기초 픽쳐의 가중 인자(w0 및/또는 w1)를 읽어 들인다(S51). 인코더는 상기 가중 인자를 슬라이스 헤더(slice header)로부터 읽어 들일 수도 있지만, 슬라이스 헤더에 기록되기 이전 메모리에 저장된 파라미터 형태의 가중 인자를 읽어 들일 수도 있다.
다음, 인코더는 모션 벡터에 의하여 현재 픽쳐에 대한 참조 픽쳐를 모션 보상한다(S52). 상기 모션 보상 과정에는 모션 추정 과정을 통하여 추정된 모션 벡터가 사용된다. 상기 참조 픽쳐가 복수인 경우에는 해당 모션 벡터를 이용하여 각각의 참조 픽쳐를 모션 보상하여야 할 것이다.
그리고, 인코더는 모션 보상된 참조 픽쳐에 가중 인자(w0 및/또는 w1)를 곱하고, 가중 인자가 곱해진 참조 픽쳐를 가산한다(S53). 상기 가산 결과 예측 픽쳐(또는 예측 슬라이스)가 구해진다.
인코더는 상기 현재 픽쳐(또는 슬라이스)와 상기 예측 픽쳐(또는 슬라이스)와의 차분(difference)을 계산하고(S54), 상기 계산된 차분을 부호화한다(S55).
상위 계층에서는 가중 예측과 관련된 그 어떤 추가적인 플래그나 가중 인자가 디코더 단으로 전송될 필요가 없으며, 디코더는 하위 계층의 플래그 및 가중 인자를 그대로 이용할 수 있다.
도 4 내지 도 8은 본 발명이 적용될 수 있는 여러 가지 상위 계층 및 하위 계층의 구조들을 보여주는 도면들이다. 이 중에서, 도 4는 상위 계층(계층 2) 픽쳐의 해상도가 하위 계층(계층 1) 픽쳐의 해상도의 2배가 되고, 양 계층간에 프레임률은 동일하며, 양 계층 단일 시간적 레벨로 이루어진 경우를 나타낸다. 도 4에서, I는 I 픽쳐(또는 슬라이스)를, P는 P 픽쳐(또는 슬라이스)를, B는 B 픽쳐(또는 슬라이스)를 각각 나타낸다.
도 4에서 보면, 양 계층은 서로 해상도는 다르지만 계층간에 대응되는 픽쳐들이 동일한 참조 방식 및 참조 거리를 가지고 있어서, 참조 픽쳐들의 위치가 계층 별로 동일하다는 것을 알 수 있다. 이와 같이 동일한 참조 방식 및 참조 거리를 가지고 있는 기초 픽쳐를 갖는 상위 계층의 현재 픽쳐는 상기 기초 픽쳐의 가중 인자를 그대로 이용하여 인코딩되거나 디코딩될 수 있다. 물론, 계층간 참조 방식이 동일하기만 하다면 인접하지 않은 픽쳐를 참조 픽쳐로 하더라도 무방하다.
도 5는 상위 계층(계층 2)과 하위 계층(계층 1)이 모두 MCTF 구조로 이루어진 경우를 나타낸다. 도 5를 참조하면, 상위 계층의 프레임률은 하위 계층의 프레임률의 2배이다. 따라서, 상위 계층의 시간적 레벨이 하위 계층에 비하여 하나 더 많다. 이와 같이 상하위 계층이 모두 계층적인 시간적 레벨로 분해되는 구조를 갖더라도 본 발명은 적용될 수 있다. 즉, 상위 계층의 고주파 픽쳐들 중에서 도 2에서 설명한 조건들을 만족시키는 픽쳐들(54, 55, 56)은 기초 픽쳐(57, 58, 59)의 가중 인자를 그대로 이용하여 효율적으로 인코딩되거나 디코딩될 수 있다. 다만, 상위 계층이 최상위 레벨(레벨 2)에 존재하는 고주파 픽쳐들(50, 51, 52, 53)은 대응되는 기초 픽쳐가 존재하지 않으므로 가중 예측이 적용되지 않는다.
도 6은 상위 계층(계층 2)과 하위 계층(계층 1)이 모두 H.264의 Hierarchical B 구조로 이루어진 경우를 나타낸다. 도 6에서도 상위 계층의 프레임률은 하위 계층의 프레임률의 2배이다. Hierarchical B의 구조는 MCTF와는 다른 형태로 시간적 분해가 이루어진다. 즉, 레벨이 낮아질수록 프레임률이 높아진다. 만약, 상위 계층의 프레임률이 A라고 할 때, 디코더가 프레임률인 A/4인 비디오를 원한다면 인코더는 레벨 2에 존재하는 픽쳐들만 전송하면 되고, A/2인 비디오를 원한다면 인코더는 레벨 2 및 레벨 1에 존재하는 픽쳐들만 전송하면 된다. 물론, 프레임률이 A인 비디오를 원한다면 인코더는 전체 픽쳐들을 모두 전송하면 될 것이다.
상하위 계층이 모두 Hierarchical B 구조로 이루어지더라도 본 발명을 적용할 수 있는데, 예를 들어 고주파 픽쳐(61)은 기초 픽쳐(64)와 동일한 참조 방식 및 참조 거리를 가지고, 고주파 픽쳐(62)는 기초 픽쳐(65)와 동일한 참조 방식 및 참조 거리를 갖는다. 따라서, 고주파 픽쳐(61, 62)는 대응되는 기초 픽쳐(64, 65)의 가중 인자를 그대로 이용하여 가중 예측될 수 있다. 반면에, 고주파 픽쳐(63)는 대응되는 기초 픽쳐가 존재하지 않으므로 가중 예측이 적용되지 않는다.
도 7은 상위 계층(계층 2)은 MCTF 구조로 이루어지고, 하위 계층(계층 1)은 Hierarchical B 구조로 이루어진 경우를 나타낸다. 이 경우 상위 계층의 레벨 2에 존재하는 고주파 픽쳐들은 기초 픽쳐를 가지지 않으므로 가중 예측이 적용되지 않는다. 반면에, 레벨 1 또는 레벨 0에 존재하는 고주파 픽쳐들은 기초 픽쳐를 가진다. 예를 들어, 고주파 픽쳐(72)의 기초 픽쳐는 픽쳐(75)이다. 픽쳐(72)는 MCTF 구조에 속하고 픽쳐(75)는 Hierarchical B 구조에 속하므로 서로 이질적이지만, 참조 방식 및 참조 거리만 같다면 가중 예측이 적용되는 데는 문제가 없다. 픽쳐(72)는 픽쳐(75)와 참조 방식 및 참조 거리가 모두 동일하므로 가중 예측이 적용될 수 있다. 마찬가지로, 픽쳐(73)도 픽쳐(74)의 가중 인자를 그대로 이용하여 가중 예측될 수 있다.
도 8은 상위 계층 및 하위 계층이 모두 단일 시간적 레벨로 구성되고 상위 계층의 모든 고주파 픽쳐는 대응되는 기초 픽쳐를 갖는 경우를 나타낸다. 하지만, 기초 픽쳐와 참조 방식 및 참조 거리가 동일한 고주파 픽쳐와 그렇지 않은 고주파 픽쳐가 모두 존재한다.
예를 들어, 고주파 픽쳐(81)은 양방향 참조 방식 및 참조 거리를 1로 가지므로 기초 픽쳐(85)의 것과 동일하고, 고주파 픽쳐(82)는 역방향 참조 방식 및 참조 거리를 1로 가지므로 기초 픽쳐(86)의 것과 동일하다. 그러나, 고주파 픽쳐(83, 84)는 기초 픽쳐와 참조 방식이 동일하지 않다. 따라서 가중 예측이 적용되지 않는다.
도 9는 본 발명의 일 실시예에 따른 비디오 인코더(100)의 구성을 나타낸 블록도이다. 입력되는 현재 픽쳐(F)은 모션 추정부(105), 차분기(115), 및 다운샘플러(170)로 입력된다.
다운샘플러(170)는 현재 픽쳐를 공간적 및/또는 시간적으로 다운샘플링 하여 하위 계층 인코더(180)에 제공한다. 하위 계층 인코더(180)는 상기 다운샘플링된 현재 픽쳐를 입력 받아 하위 계층의 인코딩된 데이터(B)를 출력한다. 하위 계층 인코더(180)는 다양한 방식의 부호화 방식을 사용할 수 있으며, 가중 예측부(110)에 가중 인자를 적어도 포함하는 하위 계층 정보를 제공한다. 본 발명에서, 하위 계층 인코더(180)는 가중 인자를 이용한 가중 예측을 통하여 부호화하는 기능을 가지면 족하고, 하위 계층을 실제 구체적인 어떠한 알고리즘을 통하여 부호화하는지는 본 발명의 논점에서는 다소 벗어나므로 하나의 모듈로 표기한 것이다. 다만, 현재 단일 계층에서 가중 예측을 사용하는 코덱으로 H.264가 사용되고 있으므로, 상기 하위 계층 인코더(180)는 H.264 기반의 인코더인 것이 바람직하다.
이하에서는 상위 계층에서 일어나는 동작에 대하여 상세히 설명하기로 한다.
모션 추정부(105)는 현재 픽쳐와 다른 시간적 위치에 있는 참조 픽쳐를 참조하여 현재 픽쳐에 대한 모션 추정을 수행함으로써 모션 벡터(MV)를 구한다. 그런데, 상기 참조 픽쳐로는 오리지널 이미지(Fr)이 사용될 수도 있고(개루프 코딩 방식), 복호화된 이미지(Fr')가 사용될 수도 있다(폐루프 코딩 방식). 이하, 본 발명의 비디오 인코더(100)는 폐루프 코딩 방식을 갖는 것으로 하여 설명하기로 한다.
상기 모션 추정을 위해서 블록 매칭(block matching) 알고리즘이 널리 사용되고 있다. 즉, 주어진 블록을 참조 픽쳐의 특정 탐색영역 내에서 픽셀 또는 서브 픽셀(1/2 픽셀, 1/4픽셀 등) 단위로 움직이면서 그 에러가 최저가 되는 경우의 변위를 움직임 벡터로 추정하는 것이다. 모션 추정을 위하여 고정된 블록을 이용할 수도 있지만, 계층적 가변 사이즈 블록 매칭법(Hierarchical Variable Size Block Matching; HVSBM)에 의한 계층적인 방법을 사용할 수도 있다.
모션 보상부(110)는 상기 모션 벡터(MV)를 이용하여 참조 픽쳐(Fr')을 모션 보상하여, 모션 보상 픽쳐(mc(Fr'))를 구한다. 만약, 참조 픽쳐(Fr')가 복수인 경우에는 복수의 참조 픽쳐가 모션 보상되어야 할 것이다.
가중 예측부(110)는 도 2에서 설명한 알고리즘에 따라서, 현재 픽쳐에 대하여 가중 예측을 적용할지를 결정한다. 이를 위하여, 하위 계층 픽쳐의 시간적 위치에 관한 정보(예: POC), 참조 방식에 관한 정보(예: L0, L1), 참조 거리에 관한 정보(예: POC의 차이), 및 가중 인자(예: w0, w1)를 제공받을 수 있다.
만약, 가중 예측을 적용하는 것으로 결정되는 경우에는, 기초 픽쳐의 가중 인자를 이용하여 상기 모션 보상된 참조 픽쳐(mc(Fr'))의 가중합(weighted sum)을 구함으로써 상기 현재 픽쳐에 대한 예측 픽쳐(P)를 생성한다. 이와 같은 가중 합이란 각각의 가중 인자를 해당 참조 픽쳐(모션 보상된 참조 픽쳐)와 곱한 후 곱한 결과를 가산하는 것을 의미하며, 참조 픽쳐가 하나인 경우에는 단순히 가중 인자를 참조 픽쳐와 곱하는 것을 의미한다.
한편, 가중 예측을 적용하지 않는 것으로 결정되는 경우에는, 가중 인자의 디폴트 값(default value)을 사용하여, 즉 기초 픽쳐의 가중 인자를 이용하지 않고서 예측 픽쳐(P)를 생성한다. 따라서, 양방향 참조의 경우 모션 보상된 참조 픽쳐 각각에 1/2을 곱한 후 가산함으로써 예측 픽쳐(P)를 생성할 수 있고, 단방향 참조의 경우 모션 보상된 참조 픽쳐가 그대로 예측 픽쳐(P)로 사용될 수 있다.
차분기(115)는 현재 픽쳐(F)에서 상기 예측 픽쳐를 차분하여 계산되는 잔차 신호(R)를 변환부(120)에 제공한다.
변환부(120)는 상기 잔차 신호(R)에 대하여, 공간적 변환을 수행함으로써 변환 계수(RT)를 생성한다. 이러한 공간적 변환 방법으로는, DCT(Discrete Cosine Transform), 웨이블릿 변환(wavelet transform) 등이 사용될 수 있다. DCT를 사용하는 경우 상기 변환 계수는 DCT 계수가 될 것이고, 웨이블릿 변환을 사용하는 경우 상기 변환 계수는 웨이블릿 계수가 될 것이다.
양자화부(125)는 상기 변환 계수를 양자화(quantization) 한다. 상기 양자화(quantization)는 임의의 실수 값으로 표현되는 상기 변환 계수를 불연속적인 값(discrete value)으로 나타내는 과정을 의미한다. 예를 들어, 양자화부(125)는 임의의 실수 값으로 표현되는 상기 변환 계수를 소정의 양자화 스텝(quantization step)으로 나누고, 그 결과를 정수 값으로 반올림하는 방법으로 양자화를 수행할 수 있다.
양자화부(125)에 의하여 양자화된 결과, 즉 양자화 계수(RQ)는 엔트로피 부호화부(150) 및 역 양자화부(130)에 제공된다.
역 양자화부(130)는 상기 양자화 계수를 역 양자화한다. 이러한 역 양자화 과정은 양자화 과정에서 사용된 것과 동일한 양자화 스텝을 이용하여 양자화 과정에서 생성된 인덱스로부터 그에 매칭되는 값을 복원하는 과정이다.
역 변환부(135)는 상기 역 양자화된 결과를 입력 받아 역 변환을 수행한다. 이러한 역 변환은 변환부(120)의 변환 과정의 역 과정으로 수행되며, 구체적으로는 역 DCT 변환, 역 웨이블릿 변환 등이 사용될 수 있다. 가산기(140)는 상기 역 변환된 결과와 상기 모션 보상부(110)의 모션 보상 과정에서 사용되었던 예측 픽쳐(P)를 가산함으로써 복원된 현재 픽쳐(F')를 생성할 수 있다.
버퍼(145)는 가산기(140)로부터 제공되는 결과를 저장한다. 따라서 버퍼(145)에는 복원된 현재 픽쳐(F') 뿐만이 아니라, 미리 복원된 참조 픽쳐(Fr')도 저장될 수 있는 것이다.
엔트로피 부호화부(150)는 모션 추정부(105)에서 추정된 모션 벡터(MV)와, 양자화부(125)로부터 제공되는 RQ와, 하위 계층 인코더(180)로부터 제공되는 데이터(B)를 무손실 부호화하여 비트스트림을 생성한다. 이러한 무손실 부호화 방법으로는, 허프만 부호화(Huffman coding), 산술 부호화(arithmetic coding), 가변 길이 부호화(variable length coding), 기타 다양한 방법이 이용될 수 있다.
도 10은 본 발명의 일 실시예에 따른 비디오 디코더(200)의 구성을 나타낸 블록도이다.
엔트로피 복호화부(210)는 입력된 비트스트림에 대하여 무손실 복호화를 수행하여, 하위 계층의 인코딩된 데이터(B)와, 상위 계층의 모션 벡터(MV)와, 상위 계층의 텍스쳐 데이터(RQ)를 추출한다. 무손실 복호화는 인코더 단에서의 무손실 부호화 과정의 역으로 진행되는 과정이다.
상기 추출된 하위 계층의 텍스쳐 데이터(B)는 하위 계층 디코더(290)에 제공되고, 상기 추출된 모션 벡터(MV)는 모션 보상부(260)에 제공되며, 텍스쳐 데이터(RQ)는 역 양자화부(220)에 제공된다.
하위 계층 디코더(290)는 도 9의 하위 계층 인코더(180)에 대응되는 복호화 방식을 사용하며, 가중 예측부(110)에 가중 인자를 적어도 포함하는 하위 계층 정보를 제공한다. 상기 하위 계층 정보는 비트스트림 내에 기록될 수 있는데, 특히 상기 가중 인자는 픽쳐 헤더(picture header) 또는 슬라이스 헤더(slice header)에 기록될 수 있다. 하위 계층 디코더(290)는 상기 하위 계층 정보를 가중 예측부(270)에 제공한다. 상기 하위 계층 디코더(290)는 H.264 기반의 디코더일 수 있다.
역 양자화부(220)는 상기 텍스쳐 데이터(RQ)를 역 양자화한다. 이러한 역 양자화 과정은 양자화 과정에서 사용된 것과 동일한 양자화 테이블을 이용하여 양자화 과정에서 생성된 인덱스로부터 그에 매칭되는 값을 복원하는 과정이다.
역 변환부(230)는 상기 역 양자화된 결과에 대하여 역 변환을 수행한다. 이러한 역 변환은 인코더 단의 변환 과정의 역으로 수행되며, 구체적으로 역 DCT 변환, 역 웨이블릿 변환 등이 사용될 수 있다. 상기 역 변환 결과, 복원되는 잔차 신호(R')는 가산기(240)에 제공된다.
모션 보상부(260)는 추출된 모션 벡터(MV)를 이용하여, 미리 복원되어 버퍼(250)에 저장된 하위 계층의 참조 픽쳐(Fr')을 모션 보상함으로써 모션 보상 픽쳐(mc(Fr'))를 생성하고, 이를 가산기(240)에 제공한다. 만약, 참조 픽쳐(Fr')가 복수인 경우에는 복수의 참조 픽쳐들 각각에 대하여 모션 보상을 수행하여야 할 것이다.
가중 예측부(270)는 도 2에서 설명한 알고리즘에 따라서, 현재 픽쳐에 대하여 가중 예측을 적용할지를 결정한다. 이를 위하여, 하위 계층 픽쳐의 시간적 위치에 관한 정보(예: POC), 참조 방식에 관한 정보(예: L0, L1), 참조 거리에 관한 정보(예: POC의 차이), 및 가중 인자(예: w0, w1)를 제공받을 수 있다.
만약, 가중 예측을 적용하는 것으로 결정되는 경우에는, 상기 모션 보상된 참조 픽쳐(mc(Fr'))에 가중 인자를 곱함으로써 예측 픽쳐(P)를 생성한다. 물론, 참조 픽쳐가 복수인 경우에는 각각의 가중 인자를 해당 참조 픽쳐에 곱한 후, 각각의 곱한 값들을 가산함으로써 예측 픽쳐(P)를 생성한다.
한편, 가중 예측을 적용하지 않는 것으로 결정되는 경우에는, 가중 인자의 디폴트 값(default value)을 사용하여, 즉 기초 픽쳐의 가중 인자를 이용하지 않고서 예측 픽쳐(P)를 생성한다. 따라서, 양방향 참조의 경우 모션 보상된 참조 픽쳐 각각에 1/2을 곱한 후 가산함으로써 예측 픽쳐(P)를 생성할 수 있고, 단방향 참조의 경우 모션 보상된 참조 픽쳐가 그대로 예측 픽쳐(P)로 사용될 수 있다.
가산기(240)는 입력된 R' 및 P를 가산함으로써 복원된 현재 픽쳐(F')를 출력하고, 버퍼(250)는 상기 복원된 픽쳐(F')를 일시 저장한다. 따라서, 버퍼(250)에는 픽쳐(F') 뿐만이 아니라, 미리 복원된 참조 픽쳐(Fr')도 저장될 수 있는 것이다.
이상의 설명에서, 하위 계층의 가중 인자를 통한 상위 계층의 가중 예측은 픽쳐 단위로 수행되는 것으로 설명하였지만 이는 일 예에 불과하고, 실제 하위 계층에서 가중 예측이 적용된 단위(픽쳐, 슬라이스, 매크로블록, 모션 블록 등)와 동일한 단위로 상위 계층의 가중 예측이 수행되어야 할 것이다. 또한, 이상에서의 다계층은 상위 계층과 하위 계층의 두 계층으로 이루어지는 것으로 하여 설명하였지만, 이에 한하지 않고 3개 이상의 계층이 존재하는 경우라도 이미 가중 예측이 적용된 하나의 계층과 다른 계층간에는 본 발명을 적용할 수 있음을 당업자라면 충분히 이해할 수 있을 것이다.
도 11은 본 발명의 일 실시예에 따른 비디오 인코더(100), 또는 비디오 디코더(200)를 구현하기 위한 시스템의 구성도이다. 상기 시스템은 TV, 셋탑박스, 데스크 탑, 랩 탑 컴퓨터, 팜 탑(palmtop) 컴퓨터, PDA(personal digital assistant), 비디오 또는 이미지 저장 장치(예컨대, VCR(video cassette recorder), DVR(digital video recorder) 등)를 나타내는 것일 수 있다. 뿐만 아니라, 상기 시스템은 상기한 장치들을 조합한 것, 또는 상기 장치가 다른 장치의 일부분으로 포함된 것을 나타내는 것일 수도 있다. 상기 시스템은 적어도 하나 이상의 비디오 소스(video source; 910), 하나 이상의 입출력 장치(920), 프로세서(940), 메모리(950), 그리고 디스플레이 장치(930)를 포함하여 구성될 수 있다.
비디오 소스(910)는 TV 리시버(TV receiver), VCR, 또는 다른 비디오 저장 장치를 나타내는 것일 수 있다. 또한, 상기 소스(910)는 인터넷, WAN(wide area network), LAN(local area network), 지상파 방송 시스템(terrestrial broadcast system), 케이블 네트워크, 위성 통신 네트워크, 무선 네트워크, 전화 네트워크 등을 이용하여 서버로부터 비디오를 수신하기 위한 하나 이상의 네트워크 연결을 나타내는 것일 수도 있다. 뿐만 아니라, 상기 소스는 상기한 네트워크들을 조합한 것, 또는 상기 네트워크가 다른 네트워크의 일부분으로 포함된 것을 나타내는 것일 수도 있다.
입출력 장치(920), 프로세서(940), 그리고 메모리(950)는 통신 매체(960)를 통하여 통신한다. 상기 통신 매체(960)에는 통신 버스, 통신 네트워크, 또는 하나 이상의 내부 연결 회로를 나타내는 것일 수 있다. 상기 소스(910)로부터 수신되는 입력 비디오 데이터는 메모리(950)에 저장된 하나 이상의 소프트웨어 프로그램에 따라 프로세서(940)에 의하여 처리될 수 있고, 디스플레이 장치(930)에 제공되는 출력 비디오를 생성하기 위하여 프로세서(940)에 의하여 실행될 수 있다.
특히, 메모리(950)에 저장된 소프트웨어 프로그램은 본 발명에 따른 방법을 수행하는 스케일러블 비디오 코덱을 포함할 수 있다. 상기 인코더 또는 상기 코덱은 메모리(950)에 저장되어 있을 수도 있고, CD-ROM이나 플로피 디스크와 같은 저장 매체에서 읽어 들이거나, 각종 네트워크를 통하여 소정의 서버로부터 다운로드한 것일 수도 있다. 상기 소프트웨어에 의하여 하드웨어 회로에 의하여 대체되거나, 소프트웨어와 하드웨어 회로의 조합에 의하여 대체될 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
상술한 바와 같이 본 발명에 따른 비디오 인코더 또는 비디오 디코더에 의하면, 대응되는 기초 픽쳐의 가중 인자를 그대로 사용함으로써 별도의 추가 정보를 디코더 단으로 전달하지 않고서도 향상 계층의 픽쳐를 효율적으로 가중 예측할 수 있다.
상기 가중 예측을 적용하여 비디오 데이터의 코딩 효율을 보다 향상시킬 수 있다.
도 1은 기존의 H.264에 제시된 가중 예측(weighted prediction) 기술을 설명하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 다계층 기반의 가중 예측법을 설명하는 흐름도이다.
도 3은 도 2의 S50단계의 세부 단계를 나타낸 흐름도이다.
도 4는 상위 계층 픽쳐의 해상도가 하위 계층 픽쳐의 해상도의 2배가 되고, 양 계층간에 프레임률은 동일한 다 계층 비디오 구조를 예시하는 도면이다.
도 5는 상위 계층과 하위 계층이 모두 MCTF 구조로 이루어진 다계층 비디오 구조를 예시하는 도면이다.
도 6은 상위 계층과 하위 계층이 모두 Hierarchical B 구조로 이루어진 다계층 비디오 구조를 예시하는 도면이다.
도 7은 상위 계층은 MCTF 구조로 이루어지고, 하위 계층은 Hierarchical B 구조로 이루어진 다계층 비디오 구조를 예시하는 도면이다.
도 8은 양 계층간에 프레임률은 동일하고 픽쳐들이 다양한 참조 방식을 갖는 다계층 비디오 구조를 예시하는 도면이다.
도 9는 본 발명의 일 실시예에 따른 비디오 인코더의 구성을 나타낸 블록도이다.
도 10은 본 발명의 일 실시예에 따른 비디오 디코더의 구성을 나타낸 블록도이다.
도 11은 본 발명의 일 실시예에 따른 비디오 인코더, 또는 비디오 디코더를 구현하기 위한 시스템의 구성도이다.
(도면의 주요부분에 대한 부호 설명)
100 : 비디오 인코더 105 : 모션 추정부
110, 260 : 모션 보상부 115 : 차분기
120 : 변환부 125 : 양자화부
130, 220 : 역 양자화부 135, 230 : 역 변환부
140, 240 : 가산기 145, 250 : 버퍼
150 : 엔트로피 부호화부 160, 270 : 가중 예측부
170 : 다운샘플러 180 : 하위 계층 인코더
200 : 비디오 디코더 210 : 엔트로피 복호화부
290 : 하위 계층 디코더

Claims (20)

  1. 하위 계층 픽쳐의 가중 인자를 이용하여 상위 계층의 현재 픽쳐를 가중 예측하는 비디오 인코딩 방법에 있어서,
    (a) 하위 계층의 가중 인자를 판독하는 단계;
    (b) 상기 현재 픽쳐에 대한 참조 픽쳐를 모션 벡터에 의하여 모션 보상하는 단계;
    (c) 상기 판독된 가중 인자를 이용하여 상기 모션 보상된 참조 픽쳐의 가중합을 구함으로써 상기 현재 픽쳐에 대한 예측 픽쳐를 생성하는 단계; 및
    (d) 상기 현재 픽쳐와 상기 예측 픽쳐와의 차분을 부호화하는 단계를 포함하는 비디오 인코딩 방법.
  2. 제1항에 있어서, 상기 (c) 단계는
    상기 현재 픽쳐가 동기 픽쳐인 경우에 수행되는 비디오 인코딩 방법.
  3. 제2항에 있어서, 상기 현재 픽쳐는
    상기 현재 픽쳐의 POC(Picture Order Count)와 동일한 POC를 갖는 하위 계층 픽쳐가 존재하는 경우에 동기 픽쳐로 판단되는 비디오 인코딩 방법.
  4. 제2항에 있어서, 상기 (c) 단계는
    상기 현재 픽쳐와 대응되는 하위 계층 픽쳐와의 참조 방식 및 참조 거리가 동일한 경우에 수행되는 비디오 인코딩 방법.
  5. 제4항에 있어서, 상기 참조 거리는
    참조하는 픽쳐의 POC와 참조 픽쳐의 POC와의 차이인 비디오 인코딩 방법.
  6. 제1항에 있어서,
    상기 가중 예측은 픽쳐, 슬라이스(slice), 매크로블록, 및 모션 블록 중 하나를 단위로 하여 수행되는 비디오 인코딩 방법.
  7. 제1항에 있어서, 상기 (a) 단계는
    상기 하위 계층 픽쳐의 소정 플래그를 확인하는 단계를 포함하는 비디오 인코딩 방법.
  8. 제7항에 있어서, 상기 플래그는
    상기 하위 계층 픽쳐의 슬라이스 헤더에 기록되는 weighted_pred_flag 또는 weighted_bipred_flag인 비디오 인코딩 방법.
  9. 제1항에 있어서, 상기 (c) 단계는
    상기 모션 보상된 참조 픽쳐가 하나인 경우에는 상기 가중 인자와 상기 모션 보상된 참조 픽쳐와의 곱을 구하는 단계; 및
    상기 모션 보상된 참조 픽쳐가 복수인 경우에는 상기 가중 인자와 상기 모션 보상된 참조 픽쳐를 곱하고, 상기 곱한 결과들을 가산하는 단계를 포함하는 비디오 인코딩 방법.
  10. 하위 계층 픽쳐의 가중 인자를 이용하여 상위 계층의 현재 픽쳐를 가중 예측하는 비디오 디코딩 방법에 있어서,
    (a) 입력된 비트스트림으로부터 상위 계층에 속하는 현재 픽쳐의 텍스쳐 데이터, 모션 벡터, 및 하위 계층 픽쳐의 가중 인자를 추출하는 단계;
    (b) 상기 현재 픽쳐에 대한 참조 픽쳐를 상기 모션 벡터에 의하여 모션 보상하는 단계;
    (c) 상기 가중 인자를 이용하여 상기 모션 보상된 참조 픽쳐의 가중합을 구함으로써 상기 현재 픽쳐에 대한 예측 픽쳐를 생성하는 단계; 및
    (d) 상기 현재 픽쳐의 텍스쳐 데이터와 상기 예측 픽쳐를 가산하는 단계를 포함하는 비디오 디코딩 방법.
  11. 제10항에 있어서, 상기 (c) 단계는
    상기 현재 픽쳐가 동기 픽쳐인 경우에 수행되는 비디오 디코딩 방법.
  12. 제11항에 있어서, 상기 현재 픽쳐는
    상기 현재 픽쳐의 POC(Picture Order Count)와 동일한 POC를 갖는 하위 계층 픽쳐가 존재하는 경우에 동기 픽쳐로 판단되는 비디오 디코딩 방법.
  13. 제11항에 있어서, 상기 (c) 단계는
    상기 현재 픽쳐와 대응되는 하위 계층 픽쳐와의 참조 방식 및 참조 거리가 동일한 경우에 수행되는 비디오 디코딩 방법.
  14. 제13항에 있어서, 상기 참조 거리는
    참조하는 픽쳐의 POC와 참조 픽쳐의 POC와의 차이인 비디오 디코딩 방법.
  15. 제10항에 있어서, 상기 (d) 단계의 텍스쳐 데이터는
    상기 (a) 단계의 텍스쳐 데이터를 역 양자화한 후 역 변환한 결과인 비디오 디코딩 방법.
  16. 제10항에 있어서,
    상기 가중 예측은 픽쳐, 슬라이스(slice), 매크로블록, 및 모션 블록 중 하나를 단위로 하여 수행되는 비디오 디코딩 방법.
  17. 제10항에 있어서, 상기 (a) 단계는
    상기 하위 계층 픽쳐의 소정 플래그를 확인하는 단계를 포함하는 비디오 디코딩 방법.
  18. 제17항에 있어서, 상기 플래그는
    상기 하위 계층 픽쳐의 슬라이스 헤더에 기록되는 weighted_pred_flag 또는 weighted_bipred_flag인 비디오 디코딩 방법.
  19. 상위 계층의 현재 픽쳐와 다른 시간적 위치에 있는 참조 픽쳐를 참조하여 현재 픽쳐에 대한 모션 추정을 수행함으로써 모션 벡터를 구하는 모션 추정부;
    상기 모션 벡터를 이용하여 상기 참조 픽쳐를 모션 보상하는 모션 보상부;
    상기 판독된 가중 인자를 이용하여 상기 모션 보상된 참조 픽쳐의 가중합을 구함으로써 상기 현재 픽쳐에 대한 예측 픽쳐를 생성하는 가중 예측부; 및
    상기 현재 픽쳐와 상기 예측 픽쳐와의 차분을 부호화하는 수단을 포함하는 비디오 인코더.
  20. 입력된 비트스트림으로부터 상위 계층에 속하는 현재 픽쳐의 텍스쳐 데이터, 모션 벡터, 및 하위 계층 픽쳐의 가중 인자를 추출하는 엔트로피 복호화부;
    상기 모션 벡터를 이용하여 상기 참조 픽쳐를 모션 보상하는 모션 보상부;
    상기 가중 인자를 이용하여 상기 모션 보상된 참조 픽쳐의 가중합을 구함으로써 상기 현재 픽쳐에 대한 예측 픽쳐를 생성하는 가중 예측부; 및
    상기 현재 픽쳐의 텍스쳐 데이터와 상기 예측 픽쳐를 가산하는 가산기를 포함하는 비디오 디코더.
KR1020050055041A 2005-06-24 2005-06-24 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치 KR100714696B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020050055041A KR100714696B1 (ko) 2005-06-24 2005-06-24 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
US11/454,908 US20060291562A1 (en) 2005-06-24 2006-06-19 Video coding method and apparatus using multi-layer based weighted prediction
BRPI0611946-8A BRPI0611946A2 (pt) 2005-06-24 2006-06-22 método de decodificação de um quadro atual a partir de um quadro de referência, e aparelho para decodificação de um quadro atual a partir de um quadro de referência
CN2006800228026A CN101208958B (zh) 2005-06-24 2006-06-22 使用基于多层的加权预测的视频编码方法和装置
EP06253231.2A EP1737243A3 (en) 2005-06-24 2006-06-22 Video coding method and apparatus using multi-layer based weighted prediction
PCT/KR2006/002423 WO2006137709A1 (en) 2005-06-24 2006-06-22 Video coding method and apparatus using multi-layer based weighted prediction
TW095122692A TWI326188B (en) 2005-06-24 2006-06-23 Video coding method and apparatus using multi-layer based weighted prediction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050055041A KR100714696B1 (ko) 2005-06-24 2005-06-24 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치

Publications (3)

Publication Number Publication Date
KR20070000022A true KR20070000022A (ko) 2007-01-02
KR20060135992A KR20060135992A (ko) 2007-01-02
KR100714696B1 KR100714696B1 (ko) 2007-05-04

Family

ID=37125972

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050055041A KR100714696B1 (ko) 2005-06-24 2005-06-24 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치

Country Status (7)

Country Link
US (1) US20060291562A1 (ko)
EP (1) EP1737243A3 (ko)
KR (1) KR100714696B1 (ko)
CN (1) CN101208958B (ko)
BR (1) BRPI0611946A2 (ko)
TW (1) TWI326188B (ko)
WO (1) WO2006137709A1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013051897A1 (ko) * 2011-10-05 2013-04-11 한국전자통신연구원 영상 부호화 방법과 영상 복호화 방법
KR101377883B1 (ko) * 2009-07-09 2014-04-02 퀄컴 인코포레이티드 비디오 인코딩에서 넌-제로 라운딩 및 예측 모드 선택 기법들
WO2014058207A1 (ko) * 2012-10-08 2014-04-17 엘지전자 주식회사 다시점 비디오 신호의 인코딩 방법, 디코딩 방법 및 이에 대한 장치
WO2014092515A1 (ko) * 2012-12-14 2014-06-19 엘지전자 주식회사 비디오 인코딩 방법 및 비디오 디코딩 방법과 이를 이용하는 장치
US8995526B2 (en) 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US9161057B2 (en) 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
US9819940B2 (en) 2008-10-16 2017-11-14 Qualcomm Incorporated Weighted prediction based on vectorized entropy coding

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527139A (ja) * 2003-07-08 2007-09-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動き補償画像信号の補間
EP1915870B1 (en) * 2005-07-21 2017-03-08 Thomson Licensing Method and apparatus for weighted prediction for scalable video coding
WO2007018688A1 (en) * 2005-07-22 2007-02-15 Thomson Licensing Method and apparatus for weighted prediction for scalable video coding
JP5275806B2 (ja) * 2005-10-12 2013-08-28 トムソン ライセンシング スケーラブルビデオ符号化及び復号における重み付け予測方法及び装置
TWI499304B (zh) * 2007-07-02 2015-09-01 Nippon Telegraph & Telephone 動畫像可縮放編碼方法及解碼方法、其裝置、其程式及記錄程式之記錄媒體
US20090010341A1 (en) * 2007-07-02 2009-01-08 Feng Pan Peak signal to noise ratio weighting module, video encoding system and method for use therewith
CA2702525C (en) * 2007-10-25 2014-07-15 Nippon Telegraph And Telephone Corporation Video scalable encoding method and decoding method and apparatuses therefor
ATE526787T1 (de) * 2007-12-11 2011-10-15 Alcatel Lucent Verfahren zum zustellen eines videostroms über einen drahtlosen kanal
KR101442608B1 (ko) * 2008-02-05 2014-09-25 삼성전자주식회사 영상을 효율적으로 부호화/복호화하는 방법 및 장치
KR101611437B1 (ko) * 2009-10-28 2016-04-26 삼성전자주식회사 복수의 프레임을 참조하여 영상을 부호화, 복호화하는 방법 및 장치
KR20110071047A (ko) * 2009-12-20 2011-06-28 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
CN102413326B (zh) * 2010-09-26 2014-04-30 华为技术有限公司 视频编码、解码方法和装置
EP3637777A1 (en) * 2010-10-06 2020-04-15 NTT DoCoMo, Inc. Bi-predictive image decoding device and method
CN102055979B (zh) * 2010-12-28 2014-09-03 深圳市云宙多媒体技术有限公司 帧运动补偿编码、解码方法及装置
US9008181B2 (en) 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
WO2013061551A1 (ja) * 2011-10-27 2013-05-02 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
RU2646328C1 (ru) 2011-10-28 2018-03-02 Сан Пэтент Траст Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений и устройство декодирования изображений
EP2773111B1 (en) 2011-10-28 2020-01-01 Sun Patent Trust Image encoding method, image decoding method, image encoding device, and image decoding device
US9432665B2 (en) * 2011-12-02 2016-08-30 Qualcomm Incorporated Coding least significant bits of picture order count values identifying long-term reference pictures
CN105519108B (zh) * 2012-01-09 2019-11-29 华为技术有限公司 量化矩阵编码的加权预测方法和装置
TWI528803B (zh) * 2012-04-06 2016-04-01 瑞昱半導體股份有限公司 多媒體系統、多媒體信息顯示裝置及其信息傳送方法
US9843801B2 (en) * 2012-07-10 2017-12-12 Qualcomm Incorporated Generalized residual prediction for scalable video coding and 3D video coding
US9641836B2 (en) * 2012-08-07 2017-05-02 Qualcomm Incorporated Weighted difference prediction under the framework of generalized residual prediction
US10009619B2 (en) * 2012-09-28 2018-06-26 Sony Corporation Image processing device for suppressing deterioration in encoding efficiency
AU2013367540B2 (en) * 2012-12-26 2017-02-02 Sony Corporation Image processing device and method
US9900605B2 (en) * 2013-10-14 2018-02-20 Qualcomm Incorporated Device and method for scalable coding of video information
CN105072481A (zh) * 2015-07-23 2015-11-18 柳州龙辉科技有限公司 一种视频数据的加载及播放方法
CN116708783A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
US11172221B2 (en) * 2017-06-26 2021-11-09 Interdigital Madison Patent Holdings, Sas Method and apparatus for intra prediction with multiple weighted references
CN107483949A (zh) * 2017-07-26 2017-12-15 千目聚云数码科技(上海)有限公司 增加svac svc实用性的方法及系统
US10412410B2 (en) * 2017-08-14 2019-09-10 Google Llc Compound motion-compensated prediction

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2127151A1 (en) * 1993-09-21 1995-03-22 Atul Puri Spatially scalable video encoding and decoding
US6788740B1 (en) * 1999-10-01 2004-09-07 Koninklijke Philips Electronics N.V. System and method for encoding and decoding enhancement layer data using base layer quantization data
KR20020070362A (ko) * 1999-12-22 2002-09-06 제너럴 인스트루먼트 코포레이션 공간 스케일성 및 시뮬캐스트 코딩을 이용한 멀티캐스트환경의 비디오 압축
US6907070B2 (en) * 2000-12-15 2005-06-14 Microsoft Corporation Drifting reduction and macroblock-based control in progressive fine granularity scalable video coding
US6792044B2 (en) 2001-05-16 2004-09-14 Koninklijke Philips Electronics N.V. Method of and system for activity-based frequency weighting for FGS enhancement layers
US7170937B2 (en) * 2002-05-01 2007-01-30 Texas Instruments Incorporated Complexity-scalable intra-frame prediction technique
US6750204B2 (en) * 2002-06-25 2004-06-15 Enanta Pharmaceuticals, Inc. 11-C-substituted ketolides

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9819940B2 (en) 2008-10-16 2017-11-14 Qualcomm Incorporated Weighted prediction based on vectorized entropy coding
US9161057B2 (en) 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
US8711930B2 (en) 2009-07-09 2014-04-29 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
US8995526B2 (en) 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US9609357B2 (en) 2009-07-09 2017-03-28 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
KR101377883B1 (ko) * 2009-07-09 2014-04-02 퀄컴 인코포레이티드 비디오 인코딩에서 넌-제로 라운딩 및 예측 모드 선택 기법들
WO2013051897A1 (ko) * 2011-10-05 2013-04-11 한국전자통신연구원 영상 부호화 방법과 영상 복호화 방법
WO2014058207A1 (ko) * 2012-10-08 2014-04-17 엘지전자 주식회사 다시점 비디오 신호의 인코딩 방법, 디코딩 방법 및 이에 대한 장치
US9894384B2 (en) 2012-10-08 2018-02-13 Lg Electronics Inc. Multiview video signal encoding method and decoding method, and device therefor
WO2014092515A1 (ko) * 2012-12-14 2014-06-19 엘지전자 주식회사 비디오 인코딩 방법 및 비디오 디코딩 방법과 이를 이용하는 장치
US10116940B2 (en) 2012-12-14 2018-10-30 Lg Electronics Inc. Method for encoding video, method for decoding video, and apparatus using same
US10462469B2 (en) 2012-12-14 2019-10-29 Lg Electronics Inc. Method for encoding video, method for decoding video, and apparatus using same
US10873750B2 (en) 2012-12-14 2020-12-22 Lg Electronics Inc. Method for encoding video, method for decoding video, and apparatus using same

Also Published As

Publication number Publication date
EP1737243A2 (en) 2006-12-27
WO2006137709A8 (en) 2007-11-29
TW200709695A (en) 2007-03-01
TWI326188B (en) 2010-06-11
WO2006137709A1 (en) 2006-12-28
KR100714696B1 (ko) 2007-05-04
US20060291562A1 (en) 2006-12-28
CN101208958A (zh) 2008-06-25
BRPI0611946A2 (pt) 2010-10-13
EP1737243A3 (en) 2013-04-24
CN101208958B (zh) 2012-05-30

Similar Documents

Publication Publication Date Title
KR100714696B1 (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR100763182B1 (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR20060135992A (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR100703760B1 (ko) 시간적 레벨간 모션 벡터 예측을 이용한 비디오인코딩/디코딩 방법 및 장치
KR100703788B1 (ko) 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
KR100763179B1 (ko) 비동기 픽쳐의 모션 벡터를 압축/복원하는 방법 및 그방법을 이용한 장치
KR100679011B1 (ko) 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치
KR100834750B1 (ko) 엔코더 단에서 스케일러빌리티를 제공하는 스케일러블비디오 코딩 장치 및 방법
US20080013630A1 (en) Scalable Video Coding With Grid Motion Estimation and Compensation
KR100703745B1 (ko) 비동기 프레임을 효율적으로 예측하는 비디오 코딩 방법 및장치
US20060176957A1 (en) Method and apparatus for compressing multi-layered motion vector
KR20050078099A (ko) 적응적으로 키 프레임을 삽입하는 비디오 코딩 장치 및 방법
KR100703746B1 (ko) 비동기 프레임을 효율적으로 예측하는 비디오 코딩 방법 및장치
US20060250520A1 (en) Video coding method and apparatus for reducing mismatch between encoder and decoder
JP2007519274A (ja) 過剰ウェーブレット領域におけるビデオ符号化
WO2006118384A1 (en) Method and apparatus for encoding/decoding multi-layer video using weighted prediction
US20060088100A1 (en) Video coding method and apparatus supporting temporal scalability
WO2006132509A1 (en) Multilayer-based video encoding method, decoding method, video encoder, and video decoder using smoothing prediction
KR20050074151A (ko) 스케일러블 비디오 코딩에서 모션 벡터를 선정하는 방법및 그 방법을 이용한 비디오 압축 장치
WO2006083107A1 (en) Method and apparatus for compressing multi-layered motion vector
WO2006043754A1 (en) Video coding method and apparatus supporting temporal scalability
WO2006109989A1 (en) Video coding method and apparatus for reducing mismatch between encoder and decoder
WO2006098586A1 (en) Video encoding/decoding method and apparatus using motion prediction between temporal levels

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment
FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170330

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180329

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20190328

Year of fee payment: 13