JP2014511645A - 映像の符号化方法及びその装置、その復号化方法及びその装置 - Google Patents

映像の符号化方法及びその装置、その復号化方法及びその装置 Download PDF

Info

Publication number
JP2014511645A
JP2014511645A JP2013557656A JP2013557656A JP2014511645A JP 2014511645 A JP2014511645 A JP 2014511645A JP 2013557656 A JP2013557656 A JP 2013557656A JP 2013557656 A JP2013557656 A JP 2013557656A JP 2014511645 A JP2014511645 A JP 2014511645A
Authority
JP
Japan
Prior art keywords
reference picture
unit
list
syntax
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013557656A
Other languages
English (en)
Other versions
JP5801908B2 (ja
Inventor
リ,タミー
パク,ヨン−オ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014511645A publication Critical patent/JP2014511645A/ja
Application granted granted Critical
Publication of JP5801908B2 publication Critical patent/JP5801908B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

動き予測された現在予測単位の動き情報を符号化する方法及びその装置、復号化する方法及びその装置に係り、該映像符号化方法は、第1参照ピクチャリスト、第2参照ピクチャリスト、及び第1参照ピクチャリストに含まれた参照ピクチャと、第2参照ピクチャリストに含まれた参照ピクチャと、を結合した結合参照ピクチャリストを獲得し、単方向動き予測モードの場合の数、及び双方向動き予測モードの場合の数に基づいて、現在予測単位の符号化に利用された動き予測モード及び参照ピクチャを示す1つの参照シンタックスを符号化する。

Description

本発明は、静止映像及び動画の符号化、復号化の方法及びその装置に係り、さらに具体的には、現在予測単位の動き情報を効率的に符号化する方法及びその装置、復号化する方法及びその装置に係わる。
MPEG−4 H.264/MPEG−4 AVC(advanced video coding)のようなコーデックでは、動き予測時、現在ブロックの動き方向を示す予測モード情報及び現在ブロックの動き予測に利用される参照ピクチャ情報を、別途のシンタックスを利用して符号化する。
本発明が解決しようとする技術的課題は、現在予測単位の動き予測モード情報及び動き予測に利用された参照ピクチャ情報を、1つのシンタックスを介して効率的に符号化する方法及びその装置、その復号化する方法及びその装置を提供するものである。
本発明の実施形態は、1つの参照シンタックスを介して、動き予測モード及び参照ピクチャ情報を符号化する方法及びその装置を提供する。
本発明によれば、1つの参照シンタックスを利用して、現在予測単位に利用された予測方向(予測モード)の情報及び参照ピクチャ情報を、効率的に符号化することができるので、映像の圧縮効率が向上する。
本発明の一実施形態によるビデオ符号化装置のブロック図である。 本発明の一実施形態によるビデオ復号化装置のブロック図である。 本発明の一実施形態による符号化単位の概念を図示する図面である。 本発明の一実施形態による符号化単位に基づいた映像符号化部のブロック図である。 本発明の一実施形態による符号化単位に基づいた映像復号化部のブロック図である。 本発明の一実施形態による、深度別符号化単位及びパーティションを図示する図面である。 本発明の一実施形態による、符号化単位及び変換単位の関係を図示する図面である。 本発明の一実施形態による深度別符号化情報を図示する図面である。 本発明の一実施形態による深度別符号化単位を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 表1の符号化モード情報による、符号化単位、予測単位及び変換単位の関係を図示する図面である。 本発明の一実施形態による、Bピクチャ内の予測単位が参照する参照ピクチャの一例を示した図面である。 本発明の一実施形態による、参照ピクチャに割り当てられる参照ピクチャ・インデックスの一例を示す図面である。 本発明の一実施形態による、参照ピクチャに割り当てられる参照ピクチャ・インデックスの一例を示す図面である。 本発明の一実施形態による、参照ピクチャに割り当てられる参照ピクチャ・インデックスの一例を示す図面である。 本発明の一実施形態による、単方向予測に利用される結合参照ピクチャリストを示す図面である。 本発明の一実施形態による、単方向予測に利用される結合参照ピクチャリストを示す図面である。 本発明の一実施形態による、単方向動き予測モードの場合の数、及び双方向動き予測モードの場合の数に基づいて、単方向及び双方向の動き予測モード及び参照ピクチャを示す参照シンタックス値(Value)を割り当てるテーブルである。 本発明の一実施形態による、参照シンタックス情報を二進化する過程の一例を示す図面である。 本発明の一実施形態による映像符号化方法を示したフローチャートである。 本発明の一実施形態による映像復号化方法を示したフローチャートである。
本発明の一実施形態による映像の符号化方法は、第1参照ピクチャリスト、第2参照ピクチャリスト、及び前記第1参照ピクチャリストに含まれた参照ピクチャと、前記第2参照ピクチャリストに含まれた参照ピクチャと、を結合した結合参照ピクチャリストを獲得する段階;前記結合参照リストに含まれた参照ピクチャを利用して、現在予測単位に係わる単方向動き予測を行う単方向動き予測モード、及び前記第1参照ピクチャリストと、前記第2参照ピクチャリストとを利用して、前記現在予測単位に係わる双方向動き予測を行う双方向動き予測モードのうち一つを利用して、前記現在予測単位を符号化する段階;及び前記単方向動き予測モードの場合の数、及び前記双方向動き予測モードの場合の数に基づいて、前記現在予測単位の符号化に利用された動き予測モード及び参照ピクチャを示す1つの参照シンタックスを符号化する段階;を含むことを特徴とする。
本発明の一実施形態による映像符号化装置は、第1参照ピクチャリストに含まれた参照ピクチャと、前記第2参照ピクチャリストに含まれた参照ピクチャと、を結合した結合参照ピクチャリストに含まれた参照ピクチャを利用して、前記現在予測単位に係わる単方向動き予測を行う単方向動き予測モード、及び前記第1参照ピクチャリストと、前記第2参照ピクチャリストとを利用して、前記現在予測単位に係わる双方向動き予測を行う双方向動き予測モードのうち一つを利用して、前記現在予測単位を予測する動き予測部;及び前記単方向動き予測モードの場合の数、及び前記双方向動き予測モードの場合の数に基づいて、前記現在予測単位の符号化に利用された動き予測モード及び参照ピクチャを示す1つの参照シンタックスを符号化するエントロピ符号化部;を含むことを特徴とする。
本発明の一実施形態による映像の復号化方法は、第1参照ピクチャリスト、第2参照ピクチャリスト、及び前記第1参照ピクチャリストに含まれた参照ピクチャと、前記第2参照ピクチャリストに含まれた参照ピクチャと、を結合した結合参照ピクチャリストを獲得する段階;前記結合参照リストに含まれた参照ピクチャを利用する単方向動き予測モードの可能な場合の数、及び前記第1参照ピクチャリストと、前記第2参照ピクチャリストとを利用する双方向動き予測モードの可能な場合の数に基づいて、前記現在予測単位の符号化に利用された動き予測モード及び参照ピクチャによる参照シンタックスの値を決定する段階;ビットストリームから、前記現在予測単位の参照シンタックスを獲得する段階;前記獲得された参照シンタックスの値を利用して、前記現在予測単位の動き予測モード及び参照ピクチャを決定する段階;及び前記決定された動き予測モード及び参照ピクチャを利用して、前記現在予測単位に係わる動き補償を行う段階;を含むことを特徴とする。
本発明の一実施形態による映像の復号化装置は、第1参照ピクチャリスト、第2参照ピクチャリスト、及び前記第1参照ピクチャリストに含まれた参照ピクチャと、前記第2参照ピクチャリストに含まれた参照ピクチャと、を結合した結合参照ピクチャリストを獲得し、前記結合参照リストに含まれた参照ピクチャを利用する単方向動き予測モードの可能な場合の数、及び前記第1参照ピクチャリストと、前記第2参照ピクチャリストとを利用する双方向動き予測モードの可能な場合の数に基づいて、前記現在予測単位の符号化に利用された動き予測モード及び参照ピクチャによる参照シンタックスの値を決定し、ビットストリームから獲得された前記現在予測単位の参照シンタックスの値を利用して、前記現在予測単位の動き予測モード及び参照ピクチャを決定するエントロピ復号化部;及び前記決定された動き予測モード及び参照ピクチャを利用して、前記現在予測単位に係わる動き補償を行う動き補償部;を含むことを特徴とする。
以下、添付された図面を参照し、本発明の望ましい実施形態について具体的に説明する。
図1は、本発明の一実施形態によるビデオ符号化装置のブロック図を図示している。一実施形態によるビデオ符号化装置100は、最大符号化単位分割部110、符号化単位決定部120及び出力部130を含む。
最大符号化単位分割部110は、映像の現在ピクチャのための最大サイズの符号化単位である最大符号化単位に基づいて、現在ピクチャを区画することができる。現在ピクチャが最大符号化単位より大きければ、現在ピクチャの映像データは、少なくとも1つの最大符号化単位に分割されてもよい。一実施形態による最大符号化単位は、サイズ32x32,64x64,128x128,256x256などのデータ単位であり、縦横サイズが8より大きい2の自乗である正方形のデータ単位でもある。映像データは、少なくとも1つの最大符号化単位別に符号化単位決定部120に出力される。
一実施形態による符号化単位は、最大サイズ及び深度で特徴づけられる。深度とは、最大符号化単位から、符号化単位が空間的に分割された回数を示し、深度が深くなるほど、深度別符号化単位は、最大符号化単位から最小符号化単位まで分割される。最大符号化単位の深度が最上位深度であり、最小符号化単位が最下位符号化単位と定義される。最大符号化単位は、深度が深くなるにつれ、深度別符号化単位の大きさは小さくなるので、上位深度の符号化単位は、複数個の下位深度の符号化単位を含んでもよい。
前述のように、符号化単位の最大サイズによって、現在ピクチャの映像データを最大符号化単位に分割し、それぞれの最大符号化単位は、深度別に分割される符号化単位を含んでもよい。一実施形態による最大符号化単位は、深度別に分割されるので、最大符号化単位に含まれた空間領域(spatial domain)の映像データが、深度によって階層的に分類されもする。
最大符号化単位の高さ及び幅を階層的に分割することができる総回数を制限する最大深度及び符号化単位の最大サイズが事前に設定されている。
符号化単位決定部120は、深度ごとに、最大符号化単位の領域が分割された少なくとも1つの分割領域を符号化し、少なくとも1つの分割領域別に最終符号化結果が出力される深度を決定する。すなわち、符号化単位決定部120は、現在ピクチャの最大符号化単位ごとに、深度別符号化単位で、映像データを符号化し、最小の符号化誤差が発生する深度を選択して符号化深度として決定する。決定された符号化深度及び最大符号化単位別映像データは、出力部130に出力される。
最大符号化単位内の映像データは、最大深度以下の少なくとも1つの深度によって、深度別符号化単位に基づいて符号化され、それぞれの深度別符号化単位に基づいた符号化結果が比較される。深度別符号化単位の符号化誤差の比較結果、符号化誤差が最小である深度が選択される。それぞれの最大化符号化単位ごとに、少なくとも1つの符号化深度が決定される。
最大符号化単位の大きさは、深度が深くなるにつれて符号化単位が階層的に分割されて分割され、符号化単位の個数は増加する。また、1つの最大符号化単位に含まれる同一深度の符号化単位であるとしても、それぞれのデータに係わる符号化誤差を測定し、下位深度への分割いかんが決定される。従って、1つの最大符号化単位に含まれるデータであるとしても、位置によって、深度別符号化誤差が異なるので、位置によって、符号化深度が異なって決定される。従って、1つの最大符号化単位について、符号化深度が一つ以上設定されてもよく、最大符号化単位のデータは、一つ以上の符号化深度の符号化単位によって区画されもする。
従って、一実施形態による符号化単位決定部120は、現在最大符号化単位に含まれるツリー構造による符号化単位が決定される。一実施形態による「ツリー構造による符号化単位」は、現在最大符号化単位に含まれる全ての深度別符号化単位のうち、符号化深度として決定された深度の符号化単位を含む。符号化深度の符号化単位は、最大符号化単位内で、同一領域では、深度によって階層的に決定され、他の領域については、独立して決定される。同様に、現在領域に係わる符号化深度は、他の領域に係わる符号化深度と独立して決定される。
一実施形態による最大深度は、最大符号化単位から最小符号化単位までの分割回数に係わる指標である。一実施形態による第1最大深度は、最大符号化単位から最小符号化単位までの全分割回数を示すことができる。一実施形態による第2最大深度は、最大符号化単位から最小符号化単位までの深度レベルの総個数を示すことができる。例えば、最大符号化単位の深度が0であるとするとき、最大符号化単位が1回分割された符号化単位の深度は、1に設定され、2回分割された符号化単位の深度は、2に設定される。その場合、最大符号化単位から4回分割された符号化単位が最小符号化単位であるならば、深度0,1,2,3及び4の深度レベルが存在するので、第1最大深度は、4、第2最大深度は、5に設定される。
最大符号化単位の予測符号化及び周波数変換が遂行される。予測符号化及び周波数変換も同様に、最大符号化単位ごとに、最大深度以下の深度ごとに、深度別符号化単位を基に行われる。
最大符号化単位が深度別に分割されるたびに、深度別符号化単位の個数が増加するので、深度が深くなるにつれて生成される全ての深度別符号化単位について、予測符号化及び周波数変換を含んだ符号化が行われなければならない。以下、説明の便宜のために、少なくとも1つの最大符号化単位のうち、現在深度の符号化単位を基に、予測符号化及び周波数変換について説明する。
一実施形態によるビデオ符号化装置100は、映像データの符号化のためのデータ単位の大きさまたは形態を多様に選択することができる。映像データの符号化のためには、予測符号化、周波数変換、エントロピ符号化などの段階を経るが、全ての段階にわたって同一のデータ単位が使用されもし、段階別にデータ単位が変更されもする。
例えば、ビデオ符号化装置100は、映像データの符号化のための符号化単位だけでなく、符号化単位の映像データの予測符号化を行うために、符号化単位と異なるデータ単位を選択することができる。
最大符号化単位の予測符号化のためには、一実施形態による符号化深度の符号化単位、すなわち、さらに理想的な分割されない符号化単位を基に、予測符号化が行われてもよい。以下、予測符号化の基になる、さらに理想的な分割されない符号化単位を「予測単位」と呼ぶ。予測単位が分割されたパーティションは、予測単位、及び予測単位の高さ及び幅のうち少なくとも一つが分割されたデータ単位を含んでもよい。
例えば、サイズ2Nx2N(ただし、Nは、正の整数)の符号化単位が、それ以上分割されない場合、サイズ2Nx2Nの予測単位になり、パーティションの大きさは、2Nx2N、2NxN、Nx2N、NxNでもある。一実施形態によるパーティション・タイプは、予測単位の高さまたは幅が対称的な比率に分割された対称的パーティションだけではなく、1:nまたはn:1のように、非対称的な比率に分割されたパーティション、任意的形態のパーティションなどを選択的に含むこともできる。
予測単位の予測モードは、イントラモード、インターモード及びスキップモードのうち少なくとも一つでもある。例えば、イントラモード及びインターモードは、2Nx2N,2NxN,Nx2N,NxNサイズのパーティションに対して行われる。また、スキップモードは、2Nx2Nサイズのパーティションについてのみ行われる。符号化単位以内の1つの予測単位ごとに独立して符号化が行われ、符号化誤差が最小である予測モードが選択される。
また、一実施形態によるビデオ符号化装置100は、映像データの符号化のための符号化単位だけでなく、符号化単位と異なるデータ単位を基に、符号化単位の映像データの周波数変換を行うことができる。
符号化単位の周波数変換のためには、符号化単位より小さいか、あるいはそれと同じ大きさのデータ単位を基に、周波数変換が行われる。例えば、周波数変換のためのデータ単位は、イントラモードのためのデータ単位、及びインターモードのためのデータ単位を含んでもよい。
以下、周波数変換の基になるデータ単位は、「変換単位」と呼ぶことにする。符号化単位と類似した方式で、符号化単位内の変換単位も、再帰的にさらに小サイズの変換単位に分割されながら、符号化単位の残差データが、変換深度によって、ツリー構造による変換単位によって区画される。
一実施形態による変換単位についても、符号化単位の高さ及び幅が分割され、変換単位に至るまでの分割回数を示す変換深度が設定される。例えば、サイズ2Nx2Nの現在符号化単位の変換単位の大きさが2Nx2Nであるならば、変換深度0、変換単位の大きさがNxNであるならば、変換深度1、変換単位の大きさがN/2xN/2であるならば、変換深度2に設定されてもよい。すなわち、変換単位についても、変換深度によって、ツリー構造による変換単位が設定される。
符号化深度別符号化情報は、符号化深度だけでなく、予測関連情報及び周波数変換関連情報が必要である。従って、符号化単位決定部120は、最小符号化誤差を発生させた符号化深度だけでなく、予測単位をパーティションに分割したパーティション・タイプ、予測単位別予測モード、周波数変換のための変換単位の大きさなどを決定することができる。
一実施形態による最大符号化単位のツリー構造による符号化単位及びパーティションの決定方式については、図3ないし図12を参照して詳細に後述する。
符号化単位決定部120は、深度別符号化単位の符号化誤差をラグランジュ乗数(Lagrangian multiplier)基盤の率・歪曲最適化技法(rate-distortion optimization)を利用して測定することができる。
出力部130は、符号化単位決定部120で決定された少なくとも1つの符号化深度に基づいて符号化された最大符号化単位の映像データ、及び深度別符号化モードに係わる情報を、ビットストリーム形態で出力する。
符号化された映像データは、映像の残差データの符号化結果でもある。
深度別符号化モードに係わる情報は、符号化深度情報、予測単位のパーティション・タイプ情報、予測モード情報、変換単位のサイズ情報などを含んでもよい。
符号化深度情報は、現在深度で符号化せずに、下位深度の符号化単位で符号化するか否かを示す深度別分割情報を利用して定義されてもよい。現在符号化単位の現在深度が符号化深度であるならば、現在符号化単位は、現在深度の符号化単位で符号化されるので、現在深度の分割情報は、それ以上、下位深度に分割されないように定義される。一方、現在符号化単位の現在深度が符号化深度ではないならば、下位深度の符号化単位を利用した符号化を試みなければならないので、現在深度の分割情報は、下位深度の符号化単位に分割されるように定義されてもよい。
現在深度が符号化深度ではないならば、下位深度の符号化単位に分割された符号化単位に対して符号化が行われる。現在深度の符号化単位内に、下位深度の符号化単位が一つ以上存在するので、それぞれの下位深度の符号化単位ごとに、反復的に符号化が行われ、同一深度の符号化単位ごとに、再帰的(recursive)符号化が行われてもよい。
1つの最大符号化単位内に、ツリー構造の符号化単位が決定され、符号化深度の符号化単位ごとに、少なくとも1つの符号化モードに係わる情報が決定されなければならないので、1つの最大符号化単位については、少なくとも1つの符号化モードに係わる情報が決定される。また、最大符号化単位のデータは、深度によって階層的に区画され、位置別に符号化深度が異なりもするので、データについて、符号化深度及び符号化モードに係わる情報が設定される。
従って、一実施形態による出力部130は、最大符号化単位に含まれている符号化単位、予測単位及び最小単位のうち少なくとも一つについて、当該符号化深度及び符号化モードに係わる符号化情報を割り当てられる。
一実施形態による最小単位は、最下位符号化深度である最小符号化単位が4分割された大きさの正方形のデータ単位であり、最大符号化単位に含まれる全ての符号化単位、予測単位及び変換単位内に含まれもする最大サイズの正方形データ単位でもある。
例えば、出力部130を介して出力される符号化情報は、深度別符号化単位別符号化情報と、予測単位別符号化情報とに分類される。深度別符号化単位別符号化情報は、予測モード情報、パーティションサイズ情報を含んでもよい。予測単位別に伝送される符号化情報は、インターモードの推定方向に係わる情報、インターモードの参照映像インデックスに係わる情報、動きベクトルに係わる情報、イントラモードのクロマ成分に係わる情報、イントラモードの補間方式に係わる情報などを含んでもよい。また、ピクチャ別、スライス別またはGOP(group of pictures)別に定義される符号化単位の最大サイズに係わる情報、及び最大深度に係わる情報は、ビットストリームのヘッダに挿入されてもよい。
ビデオ符号化装置100の最も簡単な形態の実施形態によれば、深度別符号化単位は、1階層上位深度の符号化単位の高さ及び幅を半分にした大きさの符号化単位である。すなわち、現在深度の符号化単位の大きさが2Nx2Nであるならば、下位深度の符号化単位の大きさは、NxNである。また、2Nx2Nサイズの現在符号化単位は、NxNサイズの下位深度符号化単位を最大4個含む。
従って、一実施形態によるビデオ符号化装置100は、現在ピクチャの特性を考慮して決定された最大符号化単位の大きさ及び最大深度を基に、それぞれの最大符号化単位ごとに、最適の形態及び大きさの符号化単位を決定し、ツリー構造による符号化単位を構成することができる。また、それぞれの最大符号化単位ごとに、多様な予測モード、周波数変換方式などで符号化することができるので、多様な映像サイズの符号化単位の映像特性を考慮して、最適の符号化モードが決定される。
従って、映像の解像度が非常に高かったり、あるいはデータ量が非常に多い映像を既存マクロブロック単位で符号化するならば、ピクチャ当たりマクロブロックの数が過度に多くなる。そのために、マクロブロックごとに生成される圧縮情報も多くなるので、圧縮情報の伝送負担が大きくなり、データ圧縮効率が低下するという傾向がある。従って、一実施形態によるビデオ符号化装置は、映像の大きさを考慮して、符号化単位の最大サイズを増大させながら、映像特性を考慮して、符号化単位を調節することができるので、映像圧縮効率が上昇する。
図2は、本発明の一実施形態によるビデオ復号化装置のブロック図を図示している。一実施形態によるビデオ復号化装置200は、受信部210、映像データ及び符号化情報抽出部220及び映像データ復号化部230を含む。一実施形態によるビデオ復号化装置200の各種プロセッシングのための符号化単位、深度、予測単位、変換単位、各種符号化モードに係わる情報など各種用語の定義は、図1及びビデオ符号化装置100を参照して説明したところと同一である。
受信部210は、符号化されたビデオに係わるビットストリームを受信してパージング(parsing)する。映像データ及び符号化情報抽出部220は、パージングされたビットストリームから、最大符号化単位別に、ツリー構造による符号化単位により、符号化単位ごとに符号化された映像データを抽出し、映像データ復号化部230に出力する。映像データ及び符号化情報抽出部220は、現在ピクチャに係わるヘッダから、現在ピクチャの符号化単位の最大サイズに係わる情報を抽出することができる。
また、映像データ及び符号化情報抽出部220は、パージングされたビットストリームから、最大符号化単位別に、ツリー構造による符号化単位に係わる符号化深度及び符号化モードに係わる情報を抽出する。抽出された符号化深度及び符号化モードに係わる情報は、映像データ復号化部230に出力される。すなわち、ビット列の映像データを最大符号化単位に分割し、映像データ復号化部230に、最大符号化単位ごとに、映像データを復号化させることができる。
最大符号化単位別符号化深度及び符号化モードに係わる情報は、一つ以上の符号化深度情報について設定されてもよく、符号化深度別符号化モードに係わる情報は、当該符号化単位のパーティション・タイプ情報、予測モード情報及び変換単位のサイズ情報などを含んでもよい。また、符号化深度情報として、深度別分割情報が抽出されもする。
映像データ及び符号化情報抽出部220が抽出した最大符号化単位別符号化深度及び符号化モードに係わる情報は、一実施形態によるビデオ符号化装置100のように、符号化端で、最大符号化単位別深度別符号化単位ごとに反復的に符号化を行い、最小符号化誤差を発生させると決定された符号化深度及び符号化モードに係わる情報である。従って、ビデオ復号化装置200は、最小符号化誤差を発生させる符号化方式により、データを復号化して映像を復元することができる。
一実施形態による符号化深度及び符号化モードに係わる符号化情報は、当該符号化単位、予測単位及び最小単位のうち、所定データ単位について割り当てられているので、映像データ及び符号化情報抽出部220は、所定データ単位別に、符号化深度及び符号化モードに係わる情報を抽出することができる。所定データ単位別に、当該最大符号化単位の符号化深度及び符号化モードに係わる情報が記録されているのであれば、同一の符号化深度及び符号化モードに係わる情報を有している所定データ単位は、同一の最大符号化単位に含まれるデータ単位であると類推される。
映像データ復号化部230は、最大符号化単位別符号化深度及び符号化モードに係わる情報に基づいて、それぞれの最大符号化単位の映像データを復号化し、現在ピクチャを復元する。すなわち、映像データ復号化部230は、最大符号化単位に含まれるツリー構造による符号化単位のうちそれぞれの符号化単位ごとに、読み取られたパーティション・タイプ、予測モード、変換単位に基づいて符号化された映像データを復号化することができる。復号化過程は、イントラ予測及び動き補償を含む予測過程、及び周波数逆変換過程を含んでもよい。
映像データ復号化部230は、符号化深度別符号化単位の予測単位のパーティション・タイプ情報及び予測モード情報に基づいて、符号化単位ごとに、それぞれのパーティション及び予測モードによって、イントラ予測または動き補償を行うことができる。
また、映像データ復号化部230は、最大符号化単位別周波数逆変換のために、符号化深度別符号化単位の変換単位のサイズ情報に基づいて、符号化単位ごとにそれぞれの変換単位によって、周波数逆変換を行うことができる。
映像データ復号化部230は、深度別分割情報を利用して、現在最大符号化単位の符号化深度を決定することができる。もし分割情報が現在深度で、それ以上分割されないということを示しているのであれば、現在深度が符号化深度である。従って、映像データ復号化部230は、現在最大符号化単位の映像データについて、現在深度の符号化単位を、予測単位のパーティション・タイプ、予測モード及び変換単位サイズ情報を利用して、復号化することができる。
すなわち、符号化単位、予測単位及び最小単位のうち、所定データ単位について設定されている符号化情報を観察し、同一の分割情報を含んだ符号化情報を保有しているデータ単位が集まり、映像データ復号化部230により、同一の符号化モードで復号化する1つのデータ単位と見なされる。
一実施形態によるビデオ復号化装置200は、符号化過程で、最大符号化単位ごとに再帰的に符号化を行い、最小符号化誤差を発生させた符号化単位に係わる情報を獲得し、現在ピクチャに係わる復号化に利用することができる。すなわち、最大符号化単位ごとに、最適符号化単位に決定されたツリー構造による符号化単位の符号化された映像データの復号化が可能になる。
従って、高い解像度の映像またはデータ量が過度に多い映像でも、符号化端から伝送された最適符号化モードに係わる情報を利用して、映像の特性に適応的に決定された符号化単位の大きさ及び符号化モードによって、効率的に映像データを復号化して復元することができる。
以下、図3ないし図13を参照し、本発明の一実施形態によるツリー構造による符号化単位、予測単位及び変換単位の決定方式について説明する。
図3は、階層的符号化単位の概念を図示している。
符号化単位の例は、符号化単位の大きさは、幅x高さで表現され、サイズ64x64である符号化単位から、32x32,16x16,8x8を含んでもよい。サイズ64x64の符号化単位は、サイズ64x64,64x32,32x64,32x32のパーティションに分割されてもよく、サイズ32x32の符号化単位は、サイズ32x32,32x16,16x32,16x16のパーティションに、サイズ16x16の符号化単位は、サイズ16x16,16x8,8x16,8x8のパーティションに、サイズ8x8の符号化単位は、サイズ8x8,8x4,4x8,4x4のパーティションに分割されてもよい。
ビデオデータ310については、解像度が1920x1080、符号化単位の最大サイズが64、最大深度が2に設定されている。ビデオデータ320については、解像度が1920x1080、符号化単位の最大サイズが64、最大深度が3に設定されている。ビデオデータ330については、解像度が352x288、符号化単位の最大サイズが16、最大深度が1に設定されている。図3に図示された最大深度は、最大符号化単位から最小符号化単位までの全分割回数を示す。
解像度が高いか、あるいはデータ量が多い場合、符号化効率の向上だけでなく、映像特性を正確に反映させるために、符号化サイズの最大サイズが相対的に大きいことが望ましい。従って、ビデオデータ330に比べ、解像度が高いビデオデータ310,320は、符号化サイズの最大サイズが64に選択される。
ビデオデータ310の最大深度が2であるので、ビデオデータ310の符号化単位315は、長軸サイズが64である最大符号化単位から、2回分割され、深度が2階層深くなり、長軸サイズが32、16である符号化単位まで含んでもよい。一方、ビデオデータ330の最大深度が1であるので、ビデオデータ330の符号化単位335は、長軸サイズが16である符号化単位から、1回分割され、深度が1階層深くなり、長軸サイズが8である符号化単位まで含んでもよい。
ビデオデータ320の最大深度が3であるので、ビデオデータ320の符号化単位325は、長軸サイズが64である最大符号化単位から、3回分割され、深度が3階層深くなり、長軸サイズが32、16、8である符号化単位まで含んでもよい。深度が深くなるほど、詳細情報の表現能力が向上する。
図4は、本発明の一実施形態による符号化単位に基づいた映像符号化部のブロック図を図示している。
一実施形態による映像符号化部400は、ビデオ符号化装置100の符号化単位決定部120で、映像データを符号化するのに経る作業を含む。すなわち、イントラ予測部410は、現在フレーム405において、イントラモードの符号化単位について、イントラ予測を行い、動き推定部420及び動き補償部425は、インターモードの現在フレーム405及び参照フレーム495を利用して、インター推定及び動き補償を行う。
イントラ予測部410、動き推定部420及び動き補償部425から出力されたデータは、周波数変換部430及び量子化部440を経て量子化された変換係数として出力される。量子化された変換係数は、逆量子化部460、周波数逆変換部470を介して空間領域のデータに復元され、復元された空間領域のデータは、デブロッキング部480及びループ・フィルタリング部490を経て後処理され、参照フレーム495として出力される。量子化された変換係数は、エントロピ符号化部450を経て、ビットストリーム455として出力される。
一実施形態によるビデオ符号化装置100に適用されるためには、映像符号化部400の構成要素である、イントラ予測部410、動き推定部420、動き補償部425、周波数変換部430、量子化部440、エントロピ符号化部450、逆量子化部460、周波数逆変換部470、デブロッキング部480及びループ・フィルタリング部490が、いずれも最大符号化単位ごとに、最大深度を考慮して、ツリー構造による符号化単位のうち、それぞれの符号化単位に基づいた作業を行わなければならない。
特に、イントラ予測部410、動き推定部420及び動き補償部425は、現在最大符号化単位の最大サイズ及び最大深度を考慮して、ツリー構造による符号化単位のうち、それぞれの符号化単位のパーティション及び予測モードを決定し、周波数変換部430は、ツリー構造による符号化単位のうち、それぞれの符号化単位内の変換単位の大きさを決定しなければならない。
図5は、本発明の一実施形態による符号化単位に基づいた映像復号化部のブロック図を図示している。ビットストリーム505が、パージング部510を経て、復号化対象である符号化された映像データ及び復号化のために必要な符号化に係わる情報がパージングされる。符号化された映像データは、エントロピ復号化部520及び逆量子化部530を経て、逆量子化されたデータとして出力され、周波数逆変換部540を経て、空間領域の映像データが復元される。
空間領域の映像データについて、イントラ予測部550は、イントラモードの符号化単位についてイントラ予測を行い、動き補償部560は、参照フレーム585を共に利用して、インターモードの符号化単位について動き補償を行う。
イントラ予測部550及び動き補償部560を経た空間領域のデータは、デブロッキング部570及びループ・フィルタリング部580を経て後処理され、復元フレーム595として出力される。また、デブロッキング部570及びループ・フィルタリング部580を経て後処理されたデータは、参照フレーム585として出力される。
ビデオ復号化装置200の映像データ復号化部230で、映像データを復号化するために、一実施形態による映像復号化部500のパージング部510以後の段階別作業が行われる。
一実施形態によるビデオ復号化装置200に適用されるためには、映像復号化部500の構成要素である、パージング部510、エントロピ復号化部520、逆量子化部530、周波数逆変換部540、イントラ予測部550、動き補償部560、デブロッキング部570及びループ・フィルタリング部580が、いずれも最大符号化単位ごとに、ツリー構造による符号化単位に基づいて作業を行わなければならない。
特に、イントラ予測部550、動き補償部560は、ツリー構造による符号化単位ごとにそれぞれパーティション及び予測モードを決定し、周波数逆変換部540は、符号化単位ごとに、変換単位の大きさを決定しなければならない。
図6は、本発明の一実施形態による深度別符号化単位及びパーティションを図示している。
一実施形態によるビデオ符号化装置100、及び一実施形態によるビデオ復号化装置200は、映像特性を考慮するために、階層的な符号化単位を使用する。符号化単位の最大高及び最大幅、最大深度は、映像の特性によって適応的に決定され、ユーザの要求によって多様に設定されもする。既設定の符号化単位の最大サイズによって、深度別符号化単位の大きさが決定される。
一実施形態による符号化単位の階層構造600は、符号化単位の最大高及び最大幅が64であり、最大深度が4である場合を図示している。一実施形態による符号化単位の階層構造600の縦軸に沿って深度が深くなるので、深度別符号化単位の高さ及び幅がそれぞれ分割される。また、符号化単位の階層構造600の横軸に沿って、それぞれの深度別符号化単位の予測符号化の基になる予測単位及びパーティションが図示されている。
すなわち、符号化単位610は、符号化単位の階層構造600のうち最大符号化単位であって、深度が0であり、符号化単位の大きさ、すなわち、高さ及び幅が64x64である。縦軸に沿って深度が深くなり、サイズ32x32である深度1の符号化単位620、サイズ16x16である深度2の符号化単位630、サイズ8x8である深度3の符号化単位640、サイズ4x4である深度4の符号化単位650が存在する。サイズ4x4である深度4の符号化単位650は、最小符号化単位である。
それぞれの深度別に、横軸に沿って、符号化単位の予測単位及びパーティションが配列される。すなわち、深度0のサイズ64x64の符号化単位610が予測単位であるならば、予測単位は、サイズ64x64の符号化単位610に含まれるサイズ64x64のパーティション610、サイズ64x32のパーティション612、サイズ32x64のパーティション614、サイズ32x32のパーティション616に分割される。
同様に、深度1のサイズ32x32の符号化単位620の予測単位は、サイズ32x32の符号化単位620に含まれるサイズ32x32のパーティション620、サイズ32x16のパーティション622、サイズ16x32のパーティション624、サイズ16x16のパーティション626に分割されてもよい。
同様に、深度2のサイズ16x16の符号化単位630の予測単位は、サイズ16x16の符号化単位630に含まれるサイズ16x16のパーティション630、サイズ16x8のパーティション632、サイズ8x16のパーティション634、サイズ8x8のパーティション636に分割されてもよい。
同様に、深度3のサイズ8x8の符号化単位640の予測単位は、サイズ8x8の符号化単位640に含まれるサイズ8x8のパーティション640、サイズ8x4のパーティション642、サイズ4x8のパーティション644、サイズ4x4のパーティション646に分割されてもよい。
最後に、深度4のサイズ4x4の符号化単位650は、最小符号化単位であり、最下位深度の符号化単位であり、当該予測単位も、サイズ4x4のパーティション650だけに設定される。
一実施形態によるビデオ符号化装置100の符号化単位決定部120は、最大符号化単位610の符号化深度を決定するために、最大符号化単位610に含まれるそれぞれの深度の符号化単位ごとに符号化を行わなければならない。
同一の範囲及び大きさのデータを含むための深度別符号化単位の個数は、深度が深くなるほど、深度別符号化単位の個数も増加する。例えば、深度1の符号化単位一つが含むデータに対して、深度2の符号化単位は、四つが必要である。従って、同一のデータの符号化結果を深度別に比べるために、1つの深度1の符号化単位及び4つの深度2の符号化単位を利用して、それぞれ符号化されなければならない。
それぞれの深度別符号化のためには、符号化単位の階層構造600の横軸に沿って、深度別符号化単位の予測単位ごとに符号化を行い、当該深度で最小の符号化誤差である代表符号化誤差が選択される。また、符号化単位の階層構造600の縦軸に沿って深度が深くなり、それぞれの深度ごとに符号化を行い、深度別代表符号化誤差を比べて、最小符号化誤差が検索される。最大符号化単位610において、最小符号化誤差が発生する深度及びパーティションが、最大符号化単位610の符号化深度及びパーティション・タイプに選択される。
図7は、本発明の一実施形態による、符号化単位及び変換単位の関係を図示している。
一実施形態によるビデオ符号化装置100、または一実施形態によるビデオ復号化装置200は、最大符号化単位ごとに、最大符号化単位より小さいか、あるいはそれと同じ大きさの符号化単位で、映像を符号化するか復号化する。符号化過程において、周波数変換のための変換単位の大きさは、それぞれの符号化単位より大きくないデータ単位を基に選択される。
例えば、一実施形態によるビデオ符号化装置100、または一実施形態によるビデオ復号化装置200で、現在符号化単位710が64x64サイズであるとき、32x32サイズの変換単位720を利用して周波数変換が行われる。
また、64x64サイズの符号化単位710のデータを、64x64サイズ以下の32x32,16x16,8x8,4x4サイズの変換単位でそれぞれ周波数変換を行って符号化した後、原本との誤差が最小である変換単位が選択される。
図8は、本発明の一実施形態による深度別符号化情報を図示している。
一実施形態によるビデオ符号化装置100の出力部130は、符号化モードに係わる情報であり、それぞれの符号化深度の符号化単位ごとに、パーティション・タイプに係わる情報800、予測モードに係わる情報810、変換単位サイズに対する情報820を符号化して伝送することができる。
パーティション・タイプに係わる情報800は、現在符号化単位の予測符号化のためのデータ単位であり、現在符号化単位の予測単位が分割されたパーティションの形態に係わる情報を示す。例えば、サイズ2Nx2Nの現在符号化単位CU_0は、サイズ2Nx2Nのパーティション802、サイズ2NxNのパーティション804、サイズNx2Nのパーティション806、サイズNxNのパーティション808のうちいずれか1つのタイプに分割されて利用される。その場合、現在符号化単位のパーティション・タイプに係わる情報800は、サイズ2Nx2Nのパーティション802、サイズ2NxNのパーティション804、サイズNx2Nのパーティション806及びサイズNxNのパーティション808のうち一つを示すように設定される。
予測モードに係わる情報810は、それぞれのパーティションの予測モードを示す。例えば、予測モードに係わる情報810を介して、パーティション・タイプに係わる情報800が示すパーティションが、イントラモード812、インターモード814及びスキップモード816のうち一つで予測符号化が行われるかが設定される。
また、変換単位サイズに係わる情報820は、現在符号化単位を、変換単位を基に周波数変換を行うか否かを示す。例えば、変換単位は、第1イントラ変換単位サイズ822、第2イントラ変換単位サイズ824、第1インター変換単位サイズ826、第2イントラ変換単位サイズ828のうち一つでもある。
一実施形態によるビデオ復号化装置200の映像データ及び符号化情報抽出部210は、それぞれの深度別符号化単位ごとに、パーティション・タイプに係わる情報800、予測モードに係わる情報810、変換単位サイズに係わる情報820を抽出して、復号化に利用することができる。
図9は、本発明の一実施形態による深度別符号化単位を図示している。
深度の変化を示すために、分割情報が利用される。分割情報は、現在深度の符号化単位が下位深度の符号化単位に分割されるか否かを示す。
深度0及び2N_0x2N_0サイズの符号化単位900の予測符号化のための予測単位910は、2N_0x2N_0サイズのパーティション・タイプ912、2N_0xN_0サイズのパーティション・タイプ914、N_0x2N_0サイズのパーティション・タイプ916、N_0xN_0サイズのパーティション・タイプ918を含んでもよい。予測単位が対称的な比率に分割されたパーティション912,914,916,918だけが例示されているが、前述のように、パーティション・タイプは、それらに限定されるものではなく、非対称的パーティション、任意的形態のパーティション、幾何学的形態のパーティションなどを含んでもよい。
パーティション・タイプごとに、1つの2N_0x2N_0サイズのパーティション、2つの2N_0xN_0サイズのパーティション、2つのN_0x2N_0サイズのパーティション、4つのN_0xN_0サイズのパーティションのそれぞれごとに反復的に予測符号化が行われなければならない。サイズ2N_0x2N_0、サイズN_0x2N_0、サイズ2N_0xN_0及びサイズN_0xN_0のパーティションについては、イントラモード及びインターモードで予測符号化が行われてもよい。スキップモードは、サイズ2N_0x2N_0のパーティションについてのみ予測符号化が行われる。
サイズ2N_0x2N_0 912、2N_0xN_0 914及びN_0x2N_0 916のパーティション・タイプのうち一つによる符号化誤差が最小であれば、それ以上下位深度に分割する必要はない。
サイズN_0xN_0のパーティション・タイプ918による符号化誤差が最小であれば、深度0を1に変更しながら分割し(920)、深度2及びサイズN_0xN_0のパーティション・タイプの符号化単位930について反復的に符号化を行い、最小符号化誤差を検索していくことができる。
深度1及びサイズ2N_1x2N_1(=N_0xN_0)の符号化単位930の予測符号化のための予測単位940は、サイズ2N_1x2N_1のパーティション・タイプ942、サイズ2N_1xN_1のパーティション・タイプ944、サイズN_1x2N_1のパーティション・タイプ946、サイズN_1xN_1のパーティション・タイプ948を含む。
また、サイズN_1xN_1サイズのパーティション・タイプ948による符号化誤差が最小であれば、深度1を深度2に変更しながら分割し(950)、深度2及びサイズN_2xN_2の符号化単位960について反復的に符号化を行い、最小符号化誤差を検索していくことができる。
最大深度がdである場合、深度別分割情報は、深度d−1になるまで設定され、分割情報は、深度d−2まで設定されてもよい。すなわち、深度d−2から分割され(970)、深度d−1まで符号化が行われる場合、深度d−1及びサイズ2N_(d−1)x2N_(d−1)の符号化単位980の予測符号化のための予測単位990は、サイズ2N_(d−1)x2N_(d−1)のパーティション・タイプ992、サイズ2N_(d−1)xN_(d−1)のパーティション・タイプ994、サイズN_(d−1)x2N_(d−1)のパーティション・タイプ996、サイズN_(d−1)xN_(d−1)のパーティション・タイプ998を含んでもよい。
パーティション・タイプのうち、1つのサイズ2N_(d−1)x2N_(d−1)のパーティション、2つのサイズ2N_(d−1)xN_(d−1)のパーティション、2つのサイズN_(d−1)x2N_(d−1)のパーティション、4つのサイズN_(d−1)xN_(d−1)のパーティションごとに反復的に予測符号化を介した符号化が行われ、最小符号化誤差が発生するパーティション・タイプが検索される。
サイズN_(d−1)xN_(d−1)のパーティション・タイプ998による符号化誤差が最小であるとしても、最大深度がdであるので、深度d−1の符号化単位CU_(d−1)は、それ以上下位深度への分割過程を経ず、現在最大符号化単位900に係わる符号化深度が深度d−1に決定され、パーティション・タイプは、N_(d−1)xN_(d−1)に決定される。また、最大深度がdであるので、深度d−1の符号化単位952については、分割情報が設定されない。
データ単位999は、現在最大符号化単位に係わる「最小単位」であると呼ばれる。一実施形態による最小単位は、最下位符号化深度である最小符号化単位が4分割された大きさの正方形のデータ単位でもある。このような反復的符号化過程を介して、一実施形態によるビデオ符号化装置100は、符号化単位900の深度別符号化誤差を比べて、最小の符号化誤差が発生する深度を選択し、符号化深度を決定し、当該パーティション・タイプ及び予測モードが、符号化深度の符号化モードに設定される。
このように、深度0,1,…,d−1,dの全ての深度別最小符号化誤差を比べて、誤差が最小である深度が選択されて符号化深度に決定される。符号化深度、予測単位のパーティション・タイプ及び予測モードは、符号化モードに係わる情報として符号化されて伝送される。また、深度0から符号化深度に至るまで符号化単位が分割されなければならないので、符号化深度の分割情報だけが「0」に設定され、符号化深度を除いた深度別分割情報は、「1」に設定されなければならない。
一実施形態によるビデオ復号化装置200の映像データ及び符号化情報抽出部220は、符号化単位900に係わる符号化深度及び予測単位に係わる情報を抽出し、符号化単位912を復号化するのに利用することができる。一実施形態によるビデオ復号化装置200は、深度別分割情報を利用して、分割情報が「0」である深度を符号化深度として把握し、当該深度に係わる符号化モードに係わる情報を利用して、復号化に利用することができる。
図10、図11及び図12は、本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示している。
符号化単位1010は、最大符号化単位について、一実施形態によるビデオ符号化装置100が決定した符号化深度別符号化単位である。予測単位1060は、符号化単位1010において、それぞれの符号化深度別符号化単位の予測単位のパーティションであり、変換単位1070は、それぞれの符号化深度別符号化単位の変換単位である。
深度別符号化単位1010は、最大符号化単位の深度が0であるとすれば、符号化単位1012,1054は、深度が1、符号化単位1014,1016,1018,1028,1050,1052は、深度が2、符号化単位1020,1022,1024,1026,1030,1032,1048は、深度が3、符号化単位1040,1042,1044,1046は、深度が4である。
予測単位1060のうち一部パーティション1014,1016,1022,1032,1048,1050,1052,1054は、符号化単位が分割された形態である。すなわち、パーティション1014,1022,1050,1054は、2NxNのパーティション・タイプであり、パーティション1016,1048,1052は、Nx2Nのパーティション・タイプ、パーティション1032は、NxNのパーティション・タイプである。深度別符号化単位1010の予測単位及びパーティションは、それぞれの符号化単位より小さいか、それと同じである。
変換単位1070のうち一部1052の映像データについては、符号化単位に比べて小サイズのデータ単位であり、周波数変換または周波数逆変換が行われる。また、変換単位1014,1016,1022,1032,1048,1050,1052,1054は、予測単位1060のうち、当該予測単位及びパーティションと比べてみれば、互いに異なる大きさまたは形態のデータ単位である。すなわち、一実施形態によるビデオ符号化装置100、及び一実施形態によるビデオ復号化装置200は、同一の符号化単位に係わるイントラ予測/動き推定/動き補償作業、及び周波数変換/逆変換作業であるとしても、それぞれ別個のデータ単位を基に行うことができる。
そのために、最大符号化単位ごとに、領域別に階層的な構造の符号化単位ごとに再帰的に符号化が行われ、最適符号化単位が決定されることにより、再帰的ツリー構造による符号化単位が構成される。符号化情報は、符号化単位に係わる分割情報、パーティション・タイプ情報、予測モード情報、変換単位サイズ情報を含んでもよい。以下の表1は、一実施形態によるビデオ符号化装置100、及び一実施形態によるビデオ復号化装置200で設定することができる一例を示している。
Figure 2014511645
一実施形態によるビデオ符号化装置100の出力部130は、ツリー構造による符号化単位に係わる符号化情報を出力し、一実施形態によるビデオ復号化装置200の符号化情報抽出部220は、受信されたビットストリームから、ツリー構造による符号化単位に係わる符号化情報を抽出することができる。
分割情報は、現在符号化単位が下位深度の符号化単位に分割されるか否かを示す。現在深度dの分割情報が0であるならば、現在符号化単位が、現在符号化単位が下位符号化単位にそれ以上分割されない深度が符号化深度であるので、符号化深度について、パーティション・タイプ情報、予測モード、変換単位サイズ情報が定義される。分割情報によって、1段階さらに分割されなければならない場合には、分割された4個の下位深度の符号化単位ごとに、独立して符号化が行われなければならない。
予測モードは、イントラモード、インターモード及びスキップモードのうち一つで示すことができる。イントラモード及びインターモードは、全てのパーティション・タイプで定義され、スキップモードは、パーティション・タイプ2Nx2Nでのみ定義される。
パーティション・タイプ情報は、予測単位の高さまたは幅が対称的な比率に分割された対称的パーティション・タイプ2Nx2N,2NxN,Nx2N及びNxNと、非対称的な比率に分割された非対称的パーティション・タイプ2NxnU,2NxnD,nLx2N,nRx2Nとを示すことができる。非対称的パーティション・タイプ2NxnU及び2NxnDは、それぞれ高さが1:3及び3:1に分割された形態であり、非対称的パーティション・タイプnLx2N及びnRx2Nは、それぞれ幅が1:3及び3:1に分割された形態を示す。
変換単位サイズは、イントラモードで2種類の大きさ、インターモードで2種類の大きさに設定される。すなわち、変換単位分割情報が0であるならば、変換単位の大きさが、現在符号化単位のサイズ2Nx2Nに設定される。変換単位分割情報が1であるならば、現在符号化単位が、分割された大きさの変換単位に設定される。また、サイズ2Nx2Nである現在符号化単位に係わるパーティション・タイプが、対称形パーティション・タイプであるならば、変換単位の大きさは、NxN、非対称形パーティション・タイプであるならば、N/2xN/2に設定される。
一実施形態によるツリー構造による符号化単位の符号化情報は、符号化深度の符号化単位、予測単位及び最小単位のうち少なくとも一つについて割り当てられる。符号化深度の符号化単位は、同一の符号化情報を保有している予測単位及び最小単位を一つ以上含んでもよい。
従って、隣接したデータ単位同士それぞれ保有している符号化情報を確認すれば、同一の符号化深度の符号化単位に含まれるか否かが確認される。また、データ単位が保有している符号化情報を利用すれば、当該符号化深度の符号化単位を確認することができるので、最大符号化単位内の符号化深度の分布が類推される。
従って、その場合、現在符号化単位が周辺データ単位を参照して予測する場合、現在符号化単位に隣接する深度別符号化単位内のデータ単位の符号化情報が直接参照されて利用されもする。
他の実施形態で、現在符号化単位が周辺符号化単位を参照して予測符号化が行われる場合、隣接する深度別符号化単位の符号化情報を利用して、深度別符号化単位内で、現在符号化単位に隣接するデータが検索されることにより、周辺符号化単位が参照される。
図13は、表1の符号化モード情報による符号化単位、予測単位及び変換単位の関係を図示している。最大符号化単位1300は、符号化深度の符号化単位1302,1304,1306,1312,1314,1316,1318を含む。このうち1つの符号化単位1318は、符号化深度の符号化単位であるので、分割情報が0に設定される。サイズ2Nx2Nの符号化単位1318のパーティション・タイプ情報は、パーティション・タイプ2Nx2N 1322,2NxN 1324,Nx2N 1326,NxN 1328,2NxnU 1332,2NxnD 1334,nLx2N 1336及びnRx2N 1338のうち一つに設定される。
パーティション・タイプ情報が、対称形パーティション・タイプ2Nx2N 1322,2NxN 1324,Nx2N 1326及びNxN 1328のうち一つに設定されている場合、変換単位分割情報(TU size flag)が0であるならば、サイズ2Nx2Nの変換単位1342が設定され、変換単位分割情報が1であるならば、サイズNxNの変換単位1344が設定される。
パーティション・タイプ情報が、非対称形パーティション・タイプ2NxnU 1332,2NxnD 1334,nLx2N 1336及びnRx2N 1338のうち一つに設定された場合、変換単位分割情報(TU size flag)が0であるならば、サイズ2Nx2Nの変換単位1352が設定され、変換単位分割情報が1であるならば、サイズN/2xN/2の変換単位1354が設定される。
以下、図4の本発明の一実施形態による映像符号化装置100の動き予測部420、動き補償部425及び図5の映像復号化装置200の動き補償部550で行われる動き予測及び補償過程、並びに図4のエントロピ符号化部450及び図5のエントロピ復号化部520で行われる動き予測情報の符号化及び復号化過程について具体的に説明する。以下の説明で、前述の予測単位は、ブロックと呼びもする。
動き予測部420は、Pスライス内に含まれた予測単位に係わる単方向予測(uni-direction prediction)を行って予測値を生成する。また、動き予測部420は、Bスライス内に含まれた予測単位を単方向予測またはリスト0(list 0)とリスト1(list 1)との2つのリストに含まれた参照ピクチャを利用した双方向予測(bi-directional prediction)を行うことによって予測値を生成する。従来、MPEG−2で行われる双方向予測は、現在ピクチャの直前に出る参照ピクチャ1枚と、現在ピクチャの直後に出る参照ピクチャ1枚とに参照ピクチャが制限されるが、本発明の実施形態による動き予測部420で行われる双方向予測モードは、現在ピクチャ前後の参照ピクチャに制限されず、任意の2枚の参照ピクチャを使用することができ、双予測モード(bi-predictive mode)と呼ばれもする。
現在予測単位の動き予測モードは、結合参照リストに含まれた参照ピクチャを参照し、現在予測単位に係わる単方向動き予測を行って獲得された予測値を符号化した結果と、第1参照ピクチャリスト(List 0)に含まれた第1参照ピクチャ(L0ピクチャ)、及び第2参照ピクチャリスト(List 1)に含まれた第2参照ピクチャ(L1ピクチャ)を利用して、現在予測単位に係わる双方向動き予測を行って獲得された予測値を符号化した結果のコストを比較し、さらに小さいコストを有する予測モードを、現在予測単位の最終的な予測モードに決定することができる。コスト比較時には、率・歪曲(rate-distortion)に基づいて、さらに効率的な予測モードを決定することができる。
図14は、本発明の一実施形態によるBピクチャ内の予測単位が参照する参照ピクチャの一例を示した図面である。図14を参照すれば、参照ピクチャA 1430及び参照ピクチャB 1420は、現在ピクチャ1410より、POC(picture order count)が先行する順方向ピクチャ(forward picture)であり、参照ピクチャC 1440及び参照ピクチャD 1450は、現在ピクチャ1410よりPOCが遅れる逆方向ピクチャ(backward picture)である。
現在ピクチャ1410がBピクチャである場合、現在ピクチャ1410内の予測単位は、イントラ予測モード、単方向予測モード、双方向予測モード及び直接予測モードのうち1つの予測モードに基づいて符号化される。イントラ予測モードで、現在予測単位は、周辺ピクセルの値を利用して予測される。単方向予測モードで、現在予測単位は、第1参照ピクチャリスト(List 0)と、第2参照ピクチャリスト(List 1)とを結合した結合参照ピクチャリスト内の1枚の参照ピクチャを利用して予測される。双方向予測モードで、現在予測単位は、第1参照ピクチャリスト(List 0)の第1参照ピクチャと、第2参照ピクチャリスト(List 1)の第2参照ピクチャとの全2枚の参照ピクチャを利用して予測される。直接予測モードは、現在予測単位の周辺予測単位の動きベクトルを利用して生成された予測動きベクトルを、現在予測単位の動きベクトルとして利用するモードであり、直接予測モードは、予測モード情報及び残差情報だけが符号化情報として符号化される。
単方向予測または双方向予測が行われるBピクチャ内の予測単位は、i)同じ方向の2枚の互いに異なる参照ピクチャを参照する予測単位、ii)他の方向の2枚の互いに異なる参照ピクチャを参照する予測単位、iii)同一の参照ピクチャを2回参照する予測単位、及びiv)任意の参照ピクチャを1枚だけ参照する予測単位に分類されてもよい。i)〜iii)の場合2枚の参照ピクチャを利用して双方向予測される予測単位に該当し、iv)の場合、1枚の参照ピクチャを利用して単方向予測される予測単位に該当する。
i)の例として、予測単位1411は、現在ピクチャ1410以前の参照ピクチャA 1430の対応ブロック1431、及び参照ピクチャB 1420の対応ブロック1421の平均値を利用して予測される。ii)の例として、予測単位1413は、参照ピクチャB 1420の対応ブロック(1423)及び参照ピクチャC 1440の対応ブロック1441の平均値を利用して予測される。iii)の例として、予測単位1414は、参照ピクチャA 1430の対応ブロック1432,1433の平均値を利用して予測される。iv)の例として、予測単位1415は、参照ピクチャD 1450の対応ブロック1451を利用して予測される。
このように、本発明の一実施形態による動き予測部420は、予測単位別に、複数枚の参照ピクチャを利用してインター予測を行い、予測単位の予測値を生成する。復号化側で、予測単位の予測値を生成するように、各予測単位ごとに、いかなるピクチャを参照しているかに係わる参照ピクチャ情報及び予測方向、すなわち、予測モード情報が伝送されなければならない。
図15Aないし図15Cは、本発明の一実施形態による、参照ピクチャに割り当てられる参照ピクチャ・インデックスの一例を示している。
動き予測部420は、双方向予測される予測単位の参照ピクチャとして、第1参照ピクチャリスト(List 0)内の第1参照ピクチャと、第2参照ピクチャリスト(List 1)内の第2参照ピクチャの2枚の参照ピクチャを利用する。第1参照ピクチャリスト(List 0)内の各参照ピクチャを示すための参照ピクチャ・インデックス(L0_idx)を割り当てるために、図15Aに図示されたように、順方向ピクチャ1520のうち、現在ピクチャ1510に近いほど小さい参照ピクチャ・インデックスが割り当てられ、その次の順序として、逆方向ピクチャ1530のうち、現在ピクチャ1510に近いほど小さい参照ピクチャ・インデックスが割り当てられる。第2参照ピクチャリスト(List 1)内の各参照ピクチャを示すための参照ピクチャ・インデックス(L1_idx)を割り当てるために、図15Aに図示されたように、逆方向ピクチャ1530のうち、現在ピクチャ1510に近いほど小さい参照ピクチャ・インデックスが割り当てられ、その次の順序として、順方向ピクチャ1520のうち、現在ピクチャ1510に近いほど小さい参照ピクチャ・インデックスが割り当てられる。
図15Bを参照すれば、第1参照ピクチャリスト(List 0)では、最も最近の過去ピクチャから、それ以前のピクチャの順序で、参照ピクチャ・インデックスが割り当てられ、その次に最も近い将来ピクチャから、その後のピクチャの順序で、参照ピクチャ・インデックスが割り当てられる。図15Cを参照すれば、第2参照ピクチャリスト(List 1)では、第1参照ピクチャリスト(List 0)と反対に、最も近い将来ピクチャから、その後のピクチャ順序で、参照ピクチャ・インデックスが割り当てられ、その次に最も最近の過去ピクチャから、それ以前のピクチャの順序で、参照ピクチャ・インデックスが割り当てられる。
後述するように、本発明の一実施形態によるエントロピ符号化部450は、第1参照ピクチャリスト(List 0)内の第1参照ピクチャを示す第1参照ピクチャ・インデックス(L0_idx)、及び第2参照ピクチャリスト(List 1)内の第2参照ピクチャを示す第2参照ピクチャ・インデックス(L1_idx)をそのまま符号化するのではなく、単方向動き予測モードの場合の数、及び双方向動き予測モードの場合の数に基づいて、現在予測単位の符号化に利用された動き予測モード及び参照ピクチャを示す1つの参照シンタックス(Ref Syntax)を符号化する。
動き予測部420で、単方向予測された予測単位の参照ピクチャ情報も、復号化側に伝送されなければならない。単方向予測に利用された参照ピクチャを示す参照ピクチャ情報は、第1参照ピクチャリスト(List 0)と、第2参照ピクチャリスト(List 1)とを結合した結合参照ピクチャリスト内の参照ピクチャに割り当てられた参照シンタックスを利用して伝送される。
図16A及び図16Bは、本発明の一実施形態による、単方向予測に利用される結合参照ピクチャリストを示す図面である。
エントロピ符号化部450は、双方向予測に利用される第1参照ピクチャリスト(List 0)と、第2参照ピクチャリスト(List 1)を結合した結合参照ピクチャリストを生成し、結合参照ピクチャリストに含まれた各参照ピクチャに、参照シンタックス(Ref Syntax)を割り当てた後、割り当てられた参照シンタックスを利用して、単方向予測モード情報、及び単方向予測モードに利用された参照ピクチャに係わる情報を符号化することができる。
例えば、図16Aを参照すれば、エントロピ符号化部450は、第1参照ピクチャリスト(List 0)1610と、第2参照ピクチャリスト(List 1)1620との参照ピクチャを、図示された矢印順に順次にスキャンしながら、新しくスキャンされる参照ピクチャは、結合参照ピクチャリストに含め、以前にスキャンされた参照ピクチャは、結合参照ピクチャリストに含めないことにより、結合参照ピクチャリスト1630を生成することができる。結合参照ピクチャリスト1630で、以前にスキャンされた第1参照ピクチャリスト(List 0)1610の参照ピクチャ(Ref 4)1611、及び第2参照ピクチャリスト(List 1)1620の参照ピクチャ(Ref 2)1621は、以前にスキャンされた参照ピクチャと重複するので、結合参照ピクチャリスト1630に新しく付加しない。そして、エントロピ符号化部450は、現在予測単位が、結合参照ピクチャリスト上の参照ピクチャを利用して単方向予測された場合、単方向予測に利用された参照ピクチャに割り当てられた参照シンタックス情報を、現在予測単位の動き予測情報として符号化する。例えば、現在予測単位が、Ref 4を参照して単方向予測された場合、エントロピ符号化部450は、現在予測単位の予測モード及び参照ピクチャ情報として1の値を有する参照シンタックス(Ref Syntax)を符号化する。復号化側では、1の値を有する参照シンタックス(Ref Syntax)を受信した場合、現在予測単位がRef 4を参照し、単方向予測されたことを決定することができる。
結合参照ピクチャリストは、前述の図16Aのような方式で生成される以外に、第1参照ピクチャリストと、第2参照ピクチャリストとの重複する参照ピクチャを除き、互いに異なる参照ピクチャのみを含む多様な方式で生成されてもよい。例えば、図16Bを参照すれば、エントロピ符号化部450は、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)の参照ピクチャを順次にスキャンした参照ピクチャリスト1640で重複した参照ピクチャ1641,1642を除去することにより、結合参照ピクチャリスト1650を生成することができる。結合参照ピクチャリストを生成する方式は、符号化側と復号化側とで同一に事前に設定されることが望ましい。多様な方式で、複数個の結合参照ピクチャリストを生成する場合、結合参照ピクチャリストを生成する方式ごとに、所定のインデックスを割り当て、符号化側から、結合参照リスト生成時に利用された生成方式のインデックスを別途に復号化側に伝送することもできる。符号化側と復号化側とで結合参照ピクチャリストを生成する方式が既設定である場合、かような結合参照ピクチャリストを生成する方式に係わるインデックスの伝送は、不要である。
本発明の一実施形態によるエントロピ符号化部450は、かような単方向予測モード、双方向予測モード、及び各予測モードによる参照ピクチャの情報を、1つの参照シンタックス(Ref Syntax)を利用して符号化する。
前述のように、現在予測単位が、結合参照ピクチャリスト上の参照ピクチャを利用して、単方向予測された場合、エントロピ符号化部450は、単方向予測に利用された参照ピクチャに割り当てられた参照シンタックス情報を、現在予測単位の動き予測情報として符号化する。すなわち、前述の図16Aの例で、参照シンタックス(Ref Syntax)が0の値を有する場合、現在予測単位は、Ref 2を参照して単方向予測され、参照シンタックス(Ref Syntax)が1の値を有する場合、現在予測単位は、Ref 4を参照して単方向予測され、参照シンタックス(Ref Syntax)が2の値を有する場合、現在予測単位は、Ref 1を参照して単方向予測され、参照シンタックス(Ref Syntax)が3の値を有する場合、現在予測単位は、Ref 5を参照して単方向予測されたことを示す。
単方向予測モードと区別されながら、双方向予測モード及び双方向予測モードに利用された2枚の参照ピクチャ(L0ピクチャ及びL1ピクチャ)に係わる情報を、1つの参照シンタックス(Ref Syntax)を介して符号化するために、エントロピ符号化部450は、単方向動き予測モードの場合の数、及び前記双方向動き予測モードの場合の数に基づいて、双方向予測モードで利用可能な参照ピクチャの組み合わせごとに、参照シンタックス値を割り当て、現在予測単位の双方向予測に利用された参照ピクチャの組み合わせに割り当てられた参照シンタックス値を、動き予測情報として符号化する。
図17は、本発明の一実施形態による、単方向動き予測モードの場合の数、及び前記双方向動き予測モードの場合の数に基づいて、単方向及び双方向の動き予測モード及び参照ピクチャを示す参照シンタックス値(Value)を割り当てるテーブルである。
図17を参照すれば、MaxValは、単方向動き予測モードの場合の数、及び双方向動き予測モードの場合の数を合わせた値(MaxValue)に基づいて決定された値である。MaxValは、参照シンタックス値(Value)の最大値を示すものであり、MaxVal=MaxValue−1の値を有する。
前述のように、単方向動き予測モードの場合、結合参照ピクチャリストのうちいずれの参照ピクチャを参照するかによって、場合の数が分類されるので、単方向動き予測モードの場合の数は、結局、結合参照ピクチャリスト内の参照ピクチャの枚数(NumOfRec_LC)によって決定される。
第1参照ピクチャリストに含まれた参照ピクチャの枚数を、NumOfRef_L0、第2参照ピクチャリストに含まれた参照ピクチャの枚数を、NumOfRef_L1、第1参照ピクチャリストと、第2参照ピクチャリストとに重複して含まれた参照ピクチャの枚数を、NumOfRedundancyとするとき、結合参照ピクチャリスト内に含まれた参照ピクチャの枚数(NumOfRec_LC)は、NumOfRef_L0+NumOfRef_L1−NumOfRedundancy枚の互いに重複しない参照ピクチャを含む。
一方、単方向動き予測モードの発生可能な全ての場合ごとに、参照シンタックスを設定する代わりに、最大MaxCombinedRefNum個の場合にのみ、図17に図示されたような参照シンタックスを割り当て、MaxCombinedRefNum個の場合を超える場合には、別途に処理される。例えば、MaxCombinedRefNumが4であると仮定すれば、エントロピ符号化部450は、結合参照ピクチャリストに含まれた最初の参照ピクチャから4枚目の参照ピクチャまでの参照ピクチャにのみ参照シンタックスを割り当て、単方向予測される現在予測単位の参照ピクチャが、結合参照ピクチャリスト上の参照ピクチャに含まれた場合、割り当てられた参照シンタックスを利用して、現在予測単位の単方向予測モード及び利用される参照ピクチャを示す1つの参照シンタックスを決定して符号化する。もし現在予測単位が参照する参照ピクチャが、参照シンタックス割り当てテーブルに、事前に規定された場合ではない場合には、参照シンタックス値をMaxValue値に符号化することができる。言い替えれば、参照シンタックス値がMaxValueを有する場合は、図17に図示されたような予測モード及び参照ピクチャによる場合から外れる例外的な場合であり、その場合、別途に例外処理を行う。例外処理される場合の現在予測単位については、別途に予測モード及び参照ピクチャ情報が符号化されてもよい。
このように、参照シンタックス割り当てテーブルによって既設定の結合参照ピクチャリスト上の参照ピクチャの最大枚数がMaxCombinedRefNum以下に制限される場合、結合参照ピクチャリスト内に含まれた参照ピクチャの枚数(NumOfRec_LC)は、min(MaxCombinedRefNum,NumOfRef_L0+NumOfRef_L1−NumOfRedundancy)の値を有する。もし参照シンタックス割り当てテーブルによって既設定の第1参照ピクチャリスト及び第2参照ピクチャリストに含まれる参照ピクチャの枚数が、所定枚数n(nは整数)に制限される場合、NumOfRef_L0は、min(n,NumOfRef_L0)、NumOfRef_L1は、min(n,NumOfRef_L1)の値を有するように調整される。
双方向動き予測モードの場合の数は、第1参照ピクチャリスト(List 0)の参照ピクチャのうち、いかなるピクチャを第1参照ピクチャとして利用して、第2参照ピクチャリスト(List 1)の参照ピクチャのうち、いかなるピクチャを第2参照ピクチャとして利用したかによって分類されるので、結局、双方向動き予測モードの場合の数は、NumOfRef_L0*NumOfRef_L1の値を有する。例えば、第1参照ピクチャリスト(List 0)に2枚の参照ピクチャ、第2参照ピクチャリスト(List 1)に2枚の参照ピクチャを含む場合、双方向動き予測モードの場合の数は、2*2、すなわち、全4個の場合に分類される。
結局、単方向動き予測モードの場合の数、及び双方向動き予測モードの場合の数を合わせた全ての場合の数(MaxValue)は、次の数式:MaxValue=NumOfRef_LC+NumOfRef_L0*NumOfRef_L1の値を有する。
従って、エントロピ符号化部450は、単方向動き予測モードで利用される参照ピクチャ、及び双方向動き予測モードで利用される参照ピクチャの組み合わせに、0から(MaxValue−1)の値のうち1つの値を割り当て、割り当てられた値を参照シンタックスの値(Value)として符号化することにより、動き予測モードに係わる情報、及び利用された参照ピクチャ情報を1つの参照シンタックスとして符号化することができる。
以下、図17を参照し、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)に含まれた参照ピクチャの枚数、並びに結合参照ピクチャリストの個数によって、適応的に参照シンタックスを決定する過程について具体的に説明する。以下の説明で、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)に含まれる参照ピクチャの最大枚数は、それぞれ2枚に制限されると仮定する。また、図17で、動き予測モード(InterDir)は、動き予測方向を示すものであり、LCは、結合参照ピクチャリストを利用する単方向動き予測モード、BIは、第1参照ピクチャリスト(List 0)の第1参照ピクチャ(L0ピクチャ)、及び第2参照ピクチャリスト(List 1)の第2参照ピクチャ(L1ピクチャ)を利用する双方向動き予測モードを示す。また、図17で、参照ピクチャ・インデックス(Ref Idx)は、単方向動き予測モードまたは双方向動き予測モードで利用される参照ピクチャを示すものであり、単方向動き予測モード(LC)でのRefIdxは、図16Aで説明した参照シンタックス(Ref Syntax)のように、結合参照ピクチャリスト上の参照ピクチャを示す値である。双方向動き予測モード(BI)でのRefIdxである(x,y)(x,yは、0または1)の場合、xの値は、第1参照ピクチャリスト(List 0)の第1参照ピクチャ(L0ピクチャ)の参照ピクチャ・インデックスを、yの値は、第2参照ピクチャリスト(List 1)の第2参照ピクチャ(L1ピクチャ)の参照ピクチャ・インデックスを示す。例えば、(Ref Idx)=(0,0)である場合、第1参照ピクチャリスト(List 0)のRefidx=0の値を有する第1参照ピクチャ(L0ピクチャ)、及び第2参照ピクチャリスト(List 1)のRefidx=0の値を有する第2参照ピクチャ(L1ピクチャ)を利用する双方向動き予測モードを示す。
a)MaxVal=1である場合(図面符号1710の場合)
もし第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)がそれぞれ1枚の参照ピクチャのみを含み(L0=1,L1=1)、L0ピクチャ及びL1ピクチャが同一である場合、L0ピクチャ及びL1ピクチャが同一であるので、結合参照ピクチャリストには、1枚の参照ピクチャだけが含まれるので、単方向動き予測は、1枚の参照ピクチャのみを利用して、予測される1種の場合のみが存在し、双方向動き予測は、1枚の同一の参照ピクチャ(L0,L1)を2回参照し、予測される1種の場合のみが存在する。
従って、エントロピ符号化部1410は、単方向動き予測される場合、参照シンタックス(Ref Syntax)の値として0を割り当て、両方向動き予測される場合、参照シンタックス(Ref Syntax)の値として1を割り当て、現在予測単位に適用された予測モードによって、0または1の値を現在予測単位の動き情報として符号化する。
復号化側では、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)がそれぞれ1枚の参照ピクチャのみを含み(L0=1,L1=1)、L0ピクチャ及びL1ピクチャが同一である場合、参照シンタックス(Ref Syntax)値として0を受信すれば、L0ピクチャ(またはL1ピクチャ)を利用して単方向動き予測を行い、1を受信すれば、L0ピクチャ(またはL1ピクチャ)を2回参照して双方向動き予測を行う。
b)MaxVal=2である場合(図面符号1720の場合)
もし第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)がそれぞれ1枚の参照ピクチャのみを含み(L0=1,L1=1)、L0ピクチャ及びL1ピクチャが同一ではない場合、結合参照ピクチャリストには、全2枚の参照ピクチャが含まれるので、単方向動き予測は、2枚の参照ピクチャを利用する2種の場合が存在する。双方向動き予測は、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)の各参照ピクチャ(L0ピクチャ及びL1ピクチャ)を参照する1種の場合のみが存在する。
従って、エントロピ符号化部1410は、現在ピクチャの予測単位の単方向動き予測時、いかなる参照ピクチャが利用されたかによって、参照シンタックス(Ref Syntax)の値として0または1の値を割り当て、両方向動き予測される場合、参照シンタックス(Ref Syntax)の値として2の値を割り当て、現在予測単位に適用された予測モード及び参照ピクチャによって、0ないし2の値のうち1つの値を動き情報として符号化する。
復号化側では、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)がそれぞれ1枚の参照ピクチャのみを含み(L0=1,L1=1)、L0ピクチャ及びL1ピクチャが同一ではない場合、参照シンタックス(Ref Syntax)値として0を受信すれば、結合参照ピクチャリストに含まれた2枚の参照ピクチャのうち最初の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として1を受信すれば、結合参照ピクチャリストに含まれた2枚の参照ピクチャのうち2枚目の参照ピクチャを利用して、単方向動き予測を行う。また、復号化側では、参照シンタックス(Ref Syntax)値として2を受信した場合、L0ピクチャ及びL1ピクチャを参照して双方向動き予測を行う。
c)MaxVal=3である場合(図面符号1730の場合)
もし第1参照ピクチャリスト(List 0)は、2枚の参照ピクチャを含み、第2参照ピクチャリスト(List 1)は、1枚の参照ピクチャのみを含み(L0=2,L1=1)、L0ピクチャ及びL1ピクチャのうち1枚のピクチャが重複する場合には、結合参照ピクチャリストには、全2枚の参照ピクチャが含まれる。従って、単方向動き予測は、2枚の参照ピクチャを利用する2種の場合が存在する。双方向動き予測時、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)の各参照ピクチャ(L0ピクチャ及びL1ピクチャ)を参照する場合の数は、2種の場合((0,0)、(1,0))が存在する。
従って、エントロピ符号化部1410は、現在ピクチャの予測単位の単方向動き予測時、いかなる参照ピクチャが利用されたかによって、参照シンタックス(Ref Syntax)の値として0または1の値を割り当て、両方向動き予測される場合、参照シンタックス(Ref Syntax)の値として2または3の値を割り当て、現在予測単位に適用された予測モード及び参照ピクチャによって、0ないし3の値のうち1つの値を動き情報として符号化する。
復号化側では、第1参照ピクチャリスト(List 0)は、2枚の参照ピクチャを含み、第2参照ピクチャリスト(List 1)は、1枚の参照ピクチャのみを含み(L0=2,L1=1)、L0ピクチャ及びL1ピクチャのうち1枚のピクチャが重複する場合、参照シンタックス(Ref Syntax)値として0を受信すれば、結合参照ピクチャリストに含まれた2枚の参照ピクチャのうち最初の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として1を受信すれば、結合参照ピクチャリストに含まれた2枚の参照ピクチャのうち2枚目の参照ピクチャを利用して、単方向動き予測を行う。また、復号化側では、参照シンタックス(Ref Syntax)値として2を受信した場合、第1参照ピクチャリスト(List 0)内の最初の参照インデックスの参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の1枚の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として3を受信した場合、第1参照ピクチャリスト(List 0)内の2番目の参照インデックスの参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の1枚の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。
d)MaxVal=3である場合(図面符号1740の場合)
もし第1参照ピクチャリスト(List 0)は、1枚の参照ピクチャのみを含み、第2参照ピクチャリスト(List 1)は、2枚の参照ピクチャを含み(L0=1,L1=2)、L0ピクチャ及びL1ピクチャのうち1枚のピクチャが重複する場合には、結合参照ピクチャリストには、全2枚の参照ピクチャが含まれる。従って、単方向動き予測は、2枚の参照ピクチャを利用する2種の場合が存在する。双方向動き予測時、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)の各参照ピクチャ(L0ピクチャ及びL1ピクチャ)を参照する場合の数は、2種の場合((0,0),(0,1))が存在する。
従って、エントロピ符号化部1410は、現在ピクチャの予測単位の単方向動き予測時、いかなる参照ピクチャが利用されたかによって、参照シンタックス(Ref Syntax)の値として0または1の値を割り当て、両方向動き予測される場合、参照シンタックス(Ref Syntax)の値として2または3の値を割り当て、現在予測単位に適用された予測モード及び参照ピクチャによって、0ないし3の値のうち1つの値を動き情報として符号化する。
復号化側では、第1参照ピクチャリスト(List 0)は、1枚の参照ピクチャを含み、第2参照ピクチャリスト(List 1)は、2枚の参照ピクチャを含み(L0=1,L1=2)、L0ピクチャ及びL1ピクチャのうち1枚のピクチャが重複する場合、参照シンタックス(Ref Syntax)値として0を受信すれば、結合参照ピクチャリストに含まれた2枚の参照ピクチャのうち最初の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として1を受信すれば、結合参照ピクチャリストに含まれた2枚の参照ピクチャのうち2枚目の参照ピクチャを利用して、単方向動き予測を行う。また、復号化側では、参照シンタックス(Ref Syntax)値として2を受信した場合、第1参照ピクチャリスト(List 0)内の1枚の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の最初の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として3を受信した場合、第1参照ピクチャリスト(List 0)内の1枚の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の2枚目の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。
e)MaxVal=5の場合(図面符号1750の場合)
もし第1参照ピクチャリスト(List 0)は、2枚の参照ピクチャを含み、第2参照ピクチャリスト(List 1)は、1枚の参照ピクチャのみを含み(L0=2,L1=1)、L0ピクチャ及びL1ピクチャのうち重複するピクチャが存在しない場合、結合参照ピクチャリストには、総3枚の参照ピクチャが含まれる。従って、単方向動き予測は、3枚の参照ピクチャを利用する3種の場合が存在する。双方向動き予測時、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)の各参照ピクチャ(L0ピクチャ及びL1ピクチャ)を参照する場合の数は、2種の場合((0,0),(1,0))が存在する。
従って、エントロピ符号化部1410は、現在ピクチャの予測単位の単方向動き予測時、いかなる参照ピクチャが利用されたかによって、参照シンタックス(Ref Syntax)の値として0ないし2の値を割り当て、両方向動き予測される場合、参照シンタックス(Ref Syntax)の値として3または4の値を割り当て、現在予測単位に適用された予測モード及び参照ピクチャによって、0ないし4の値のうち1つの値を動き情報として符号化する。
復号化側では、第1参照ピクチャリスト(List 0)は、2枚の参照ピクチャを含み、第2参照ピクチャリスト(List 1)は、1枚の参照ピクチャのみを含み(L0=2,L1=1)、L0ピクチャ及びL1ピクチャのうち重複するピクチャが存在しない場合、参照シンタックス(Ref Syntax)値として0を受信すれば、結合参照ピクチャリストに含まれた3枚の参照ピクチャのうち最初の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として1を受信すれば、結合参照ピクチャリストに含まれた3枚の参照ピクチャのうち2枚目の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として2を受信すれば、結合参照ピクチャリストに含まれた3枚の参照ピクチャのうち3枚目の参照ピクチャを利用して、単方向動き予測を行う。
また、復号化側では、参照シンタックス(Ref Syntax)値として3を受信した場合、第1参照ピクチャリスト(List 0)内の最初の参照インデックスの参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の1枚の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として4を受信した場合、第1参照ピクチャリスト(List 0)内の2番目の参照インデックスの参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の1枚の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。
f)MaxVal=4である場合(図面符号1760の場合)
もし第1参照ピクチャリスト(List 0)は、1枚の参照ピクチャのみを含み、第2参照ピクチャリスト(List 1)は、2枚の参照ピクチャを含み(L0=1,L1=2)、L0ピクチャ及びL1ピクチャのうち重複するピクチャが存在しない場合、結合参照ピクチャリストには、総3枚の参照ピクチャが含まれる。従って、単方向動き予測は、3枚の参照ピクチャを利用する3種の場合が存在する。双方向動き予測時、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)の各参照ピクチャ(L0ピクチャ及びL1ピクチャ)を参照する場合の数は、2種の場合((0,0),(0,1))が存在する。
従って、エントロピ符号化部1410は、現在ピクチャの予測単位の単方向動き予測時、いかなる参照ピクチャが利用されたかによって、参照シンタックス(Ref Syntax)の値として0ないし2の値を割り当て、両方向動き予測される場合、参照シンタックス(Ref Syntax)の値として3または4の値を割り当て、現在予測単位に適用された予測モード及び参照ピクチャによって、0ないし4の値のうち1つの値を動き情報として符号化する。
復号化側では、第1参照ピクチャリスト(List 0)は、1枚の参照ピクチャを含み、第2参照ピクチャリスト(List 1)は、2枚の参照ピクチャを含み(L0=1,L1=2)、L0ピクチャ及びL1ピクチャのうち重複するピクチャが存在しない場合、参照シンタックス(Ref Syntax)値として0を受信すれば、結合参照ピクチャリストに含まれた3枚の参照ピクチャのうち最初の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として1を受信すれば、結合参照ピクチャリストに含まれた3枚の参照ピクチャのうち2枚目の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として1を受信すれば、結合参照ピクチャリストに含まれた3枚の参照ピクチャのうち3枚目の参照ピクチャを利用して、単方向動き予測を行う。
また、復号化側では、参照シンタックス(Ref Syntax)値として3を受信した場合、第1参照ピクチャリスト(List 0)内の1枚の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の最初の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として4を受信した場合、第1参照ピクチャリスト(List 0)内の1枚の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の2枚目の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。
g)MaxVal=5である場合(図面符号1770の場合)
もし第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)が2枚の参照ピクチャを含み(L0=2,L1=2)、L0ピクチャ及びL1ピクチャのうち2枚の参照ピクチャが重複する場合、結合参照ピクチャリストには、全2枚の参照ピクチャが含まれる。従って、単方向動き予測は、2枚の参照ピクチャを利用する2種の場合が存在する。双方向動き予測時、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)の各参照ピクチャ(L0ピクチャ及びL1ピクチャ)を参照する場合の数は、4種の場合((0,0),(0,1),(1,0),(1,1))が存在する。
従って、エントロピ符号化部1410は、現在ピクチャの予測単位の単方向動き予測時、いかなる参照ピクチャが利用されたかによって、参照シンタックス(Ref Syntax)の値として0または1の値を割り当て、両方向動き予測される場合、参照シンタックス(Ref Syntax)の値として2ないし5の値を割り当て、現在予測単位に適用された予測モード及び参照ピクチャによって、0ないし5の値のうち1つの値を動き情報として符号化する。
復号化側では、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)が2枚の参照ピクチャを含み(L0=2,L1=2)、L0ピクチャ及びL1ピクチャのうち2枚の参照ピクチャが重複する場合、参照シンタックス(Ref Syntax)値として0を受信すれば、結合参照ピクチャリストに含まれた2枚の参照ピクチャのうち最初の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として1を受信すれば、結合参照ピクチャリストに含まれた2枚の参照ピクチャのうち2枚目の参照ピクチャを利用して、単方向動き予測を行う。
また、復号化側では、参照シンタックス(Ref Syntax)値として2を受信した場合、第1参照ピクチャリスト(List 0)内の最初の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の最初の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として3を受信した場合、第1参照ピクチャリスト(List 0)内の最初の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の2枚目の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として4を受信した場合、第1参照ピクチャリスト(List 0)内の2枚目の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の最初の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として5を受信した場合、第1参照ピクチャリスト(List 0)内の2枚目の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の2枚目の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。
h)MaxVal=6である場合(図面符号1780の場合)
もし第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)が2枚の参照ピクチャを含み(L0=2,L1=2)、L0ピクチャ及びL1ピクチャのうち1枚の参照ピクチャが重複する場合、結合参照ピクチャリストには、総3枚の参照ピクチャが含まれる。従って、単方向動き予測は、3枚の参照ピクチャを利用する3種の場合が存在する。双方向動き予測時、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)の各参照ピクチャ(L0ピクチャ及びL1ピクチャ)を参照する場合の数は、4種の場合((0,0),(0,1),(1,0),(1,1))が存在する。
従って、エントロピ符号化部1410は、現在ピクチャの予測単位の単方向動き予測時、いかなる参照ピクチャが利用されたかによって、参照シンタックス(Ref Syntax)の値として0ないし2の値を割り当て、両方向動き予測される場合、参照シンタックス(Ref Syntax)の値として3ないし6の値を割り当て、現在予測単位に適用された予測モード及び参照ピクチャによって、0ないし6の値のうち1つの値を動き情報として符号化する。
復号化側では、1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)が2枚の参照ピクチャを含み(L0=2,L1=2)、L0ピクチャ及びL1ピクチャのうち1枚の参照ピクチャが重複する場合、参照シンタックス(Ref Syntax)値として0を受信すれば、結合参照ピクチャリストに含まれた3枚の参照ピクチャのうち最初の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として1を受信すれば、結合参照ピクチャリストに含まれた3枚の参照ピクチャのうち2枚目の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として2を受信すれば、結合参照ピクチャリストに含まれた3枚の参照ピクチャのうち3枚目の参照ピクチャを利用して、単方向動き予測を行う。
また、復号化側では、参照シンタックス(Ref Syntax)値として3を受信した場合、第1参照ピクチャリスト(List 0)内の最初の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の最初の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として4を受信した場合、第1参照ピクチャリスト(List 0)内の最初の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の2枚目の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として5を受信した場合、第1参照ピクチャリスト(List 0)内の2枚目の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の最初の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として6を受信した場合、第1参照ピクチャリスト(List 0)内の2枚目の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の2枚目の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。
i)MaxVal=7である場合(図面符号1790の場合)
もし第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)が2枚の参照ピクチャを含み(L0=2,L1=2)、L0ピクチャ及びL1ピクチャに重複するピクチャが存在しない場合、結合参照ピクチャリストには、総4枚の参照ピクチャが含まれる。従って、単方向動き予測は、4枚の参照ピクチャを利用する4種の場合が存在する。双方向動き予測時、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)の各参照ピクチャ(L0ピクチャ及びL1ピクチャ)を参照する場合の数は、4種の場合((0,0),(0,1),(1,0),(1,1))が存在する。
従って、エントロピ符号化部1410は、現在ピクチャの予測単位の単方向動き予測時、いかなる参照ピクチャが利用されたかによって、参照シンタックス(Ref Syntax)の値として0ないし3の値を割り当て、両方向動き予測される場合、参照シンタックス(Ref Syntax)の値として4ないし7の値を割り当て、現在予測単位に適用された予測モード及び参照ピクチャによって、0ないし7の値のうち1つの値を動き情報として符号化する。
復号化側では、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)が2枚の参照ピクチャを含み(L0=2,L1=2)、L0ピクチャ及びL1ピクチャに重複するピクチャが存在しない場合、参照シンタックス(Ref Syntax)値として0を受信すれば、結合参照ピクチャリストに含まれた4枚の参照ピクチャのうち最初の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として1を受信すれば、結合参照ピクチャリストに含まれた4枚の参照ピクチャのうち2枚目の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として2を受信すれば、結合参照ピクチャリストに含まれた4枚の参照ピクチャのうち3枚目の参照ピクチャを利用して、単方向動き予測を行い、参照シンタックス(Ref Syntax)値として3を受信すれば、結合参照ピクチャリストに含まれた4枚の参照ピクチャのうち4枚目の参照ピクチャを利用して、単方向動き予測を行う。
また、復号化側では、参照シンタックス(Ref Syntax)値として4を受信した場合、第1参照ピクチャリスト(List 0)内の最初の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の最初の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として5を受信した場合、第1参照ピクチャリスト(List 0)内の最初の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の2枚目の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として6を受信した場合、第1参照ピクチャリスト(List 0)内の2枚目の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の最初の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。復号化側では、参照シンタックス(Ref Syntax)値として7を受信した場合、第1参照ピクチャリスト(List 0)内の2枚目の参照ピクチャをL0ピクチャとして決定し、第2参照ピクチャリスト(List 1)内の2枚目の参照ピクチャをL1ピクチャとして決定した後、双方向動き予測を行う。
このように、エントロピ符号化部450は、単方向動き予測モードで利用可能な参照ピクチャ、及び前記双方向動き予測モードで利用可能な参照ピクチャの組み合わせごとに、0から(MaxValue−1)の値のうち一つを参照シンタックスの値として割り当て、現在予測単位に適用された動き予測モード及び参照ピクチャによって対応する参照シンタックスの値を符号化することにより、1つの参照シンタックスとして、現在予測単位の動き予測モード及び参照ピクチャ情報を符号化することができる。
すなわち、エントロピ符号化部450は、結合参照ピクチャリスト内の参照ピクチャの枚数NumOfRef_LCに基づいて、単方向動き予測される現在予測単位の予測モード情報及び参照ピクチャの情報として利用される結合参照ピクチャリスト内の参照ピクチャ・インデックスによって、0から(NumOfRef_LC−1)の値を割り当て、現在予測単位の動き情報を符号化することができる。また、エントロピ符号化部450は、双方向動き予測される現在予測単位の予測モード情報及び参照ピクチャの情報として、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)のうちいずれの第1参照ピクチャ及び第2参照ピクチャを利用するかによって、NumOfRef_LCから(MaxValue−1)の値を割り当て、現在予測単位の動き情報を符号化することができる。
また、エントロピ符号化部450は、参照シンタックス(Ref Syntax)がMaxValue値を有する場合、既設定の参照シンタックスを利用して、動き予測モード及び参照ピクチャを示す場合ではない例外的な場合を示すと設定することができる。
エントロピ符号化部450は、参照シンタックス(Ref Syntax)を切削型単項二進符号化(truncated unary binarization)を介して二進化し、ビットストリームを生成することができる。
図18は、本発明の一実施形態によって、参照シンタックス情報を二進化する過程の一例を示している。図18を参照すれば、エントロピ符号化部450は、参照シンタックス(Ref Syntax)を符号化するとき、切削型単項二進符号化を利用して、参照シンタックスの値を二進化することができる。すなわち、エントロピ符号化部450は、図17に図示されたような参照シンタックスの値(Value)に対応する1と、それに続く1つの0とを出力することにより、参照シンタックスを二進化する。もし図17に図示されたような参照シンタックス割り当てテーブルによって、事前に規定された場合ではない場合、エントロピ符号化部450は、(MaxValue−1)個の1で構成された二進ビット列を出力することにより、事前に規定された場合ではない例外的な場合であるということを示すことができる。例えば、参照シンタックスを利用して、既設定の単方向動き予測モード及び双方向動き予測モードの全場合の数(MaxValue)が7であり、現在予測単位が、事前に参照シンタックスによって設定された場合のうち一つに該当する場合、エントロピ符号化部450は、現在予測単位に対応する参照シンタックスの値(Value)によって、図18に図示されたように連続的な1と、それに続く1つの0とから構成された二進ビット列を出力する。エントロピ符号化部450は、参照シンタックス(Ref Syntax)が7の値を有する場合を既設定の単方向動き予測モードの参照ピクチャ、及び双方向動き予測モードの参照ピクチャの組み合わせを利用する場合ではない例外的な場合を示す場合として設定し、かような例外処理情報を示す「1111111」を出力する。
図19は、本発明の一実施形態による映像符号化方法を示したフローチャートである。図19を参照すれば、段階1910で、エントロピ符号化部450は、第1参照ピクチャリスト、第2参照ピクチャリスト、及び第1参照ピクチャリストに含まれた参照ピクチャと、第2参照ピクチャリストに含まれた参照ピクチャとを結合した結合参照ピクチャリストを獲得する。前述のように、第1参照ピクチャリストに含まれた参照ピクチャの枚数をNumOfRef_L0、第2参照ピクチャリストに含まれた参照ピクチャの枚数をNumOfRef_L1、第1参照ピクチャリストと、第2参照ピクチャリストとに重複して含まれた参照ピクチャの枚数をNumOfRedundancyとするとき、結合参照ピクチャリストは、NumOfRef_L0+NumOfRef_L1−NumOfRedundancy枚の互いに重複しない参照ピクチャを含むことになる。
段階1920で、動き予測部420は、結合参照リストに含まれた参照ピクチャを利用して、現在予測単位に係わる単方向動き予測;及び第1参照ピクチャリストと、第2参照ピクチャリストとを利用して現在予測単位に係わる双方向動き予測;を行い、さらに小さいコストを有する動き予測モードを、現在予測単位の予測モードに決定する。
段階1930で、エントロピ符号化部450は、単方向動き予測モードの場合の数、及び双方向動き予測モードの場合の数に基づいて、現在予測単位の符号化に利用された動き予測モード及び参照ピクチャを示す1つの参照シンタックスを符号化する。エントロピ符号化部450は、結合参照ピクチャリスト内の参照ピクチャの枚数NumOfRef_LCに基づいて、単方向動き予測される現在予測単位の予測モード情報及び参照ピクチャの情報として利用される結合参照ピクチャリスト内の参照ピクチャ・インデックスによって、0から(NumOfRef_LC−1)の値を割り当て、現在予測単位の動き情報を符号化することができる。また、エントロピ符号化部450は、双方向動き予測される現在予測単位の予測モード情報及び参照ピクチャの情報として、第1参照ピクチャリスト(List 0)、及び第2参照ピクチャリスト(List 1)のうちいずれの第1参照ピクチャ及び第2参照ピクチャを利用するかによって、NumOfRef_LCから(MaxValue−1)の値を割り当て、現在予測単位の動き情報を符号化することができる。また、エントロピ符号化部450は、参照シンタックス(Ref Syntax)がMaxValue値を有する場合、既設定の単方向動き予測モードの場合、及び双方向動き予測モードの場合に含まれない例外的な場合を示す場合として設定して符号化することができる。
復号化過程で、図5のエントロピ復号化部520は、第1参照ピクチャリスト、第2参照ピクチャリスト、及び前記第1参照ピクチャリストに含まれた参照ピクチャと、第2参照ピクチャリストに含まれた参照ピクチャとを結合した結合参照ピクチャリストを獲得し、結合参照リストに含まれた参照ピクチャを利用する単方向動き予測モードの可能な場合の数、及び第1参照ピクチャリストと、第2参照ピクチャリストとを利用する双方向動き予測モードの可能な場合の数に基づいて、現在予測単位の符号化に利用された動き予測モード及び参照ピクチャによる参照シンタックスの値を決定する。
具体的には、エントロピ復号化部520は、前述のエントロピ符号化部450と同一に、単方向動き予測モードの場合の数、及び双方向動き予測モードの場合の数を合わせた全ての場合の数MaxValueを次の数式:MaxValue=NumOfRef_LC+NumOfRef_L0*NumOfRef_L1によって計算した後、参照シンタックス(Ref Syntax)が、0から(NumOfRef_LC−1)の値を有する場合には、NumOfRef_LC個の結合参照ピクチャリストのうち1枚の参照ピクチャを参照して、単方向動き予測される場合を示し、参照シンタックスが、NumOfRef_LCから(MaxValue−1)の値を有する場合には、第1参照ピクチャリストの第1参照ピクチャと、第2参照ピクチャリストの第2参照ピクチャとの組み合わせによる2枚の参照ピクチャを利用する双方向動き予測モードに決定する。前述のように、現在予測単位が、単方向動き予測モード及び双方向動き予測モードのうちいずれの予測モードによって予測されたかということと、利用される参照ピクチャの情報は、参照シンタックス値自体から決定される。
動き補償部560は、エントロピ復号化部520で獲得された現在予測単位の参照シンタックスから決定された予測モード情報及び参照ピクチャを利用して、現在予測単位に係わる単方向動き補償及び双方向動き補償を行い、現在予測単位の予測値を生成する。
図20は、本発明の一実施形態による映像復号化方法を示したフローチャートである。図20を参照すれば、段階2010で、エントロピ復号化部520は、第1参照ピクチャリスト、第2参照ピクチャリスト、及び前記第1参照ピクチャリストに含まれた参照ピクチャと、前記第2参照ピクチャリストに含まれた参照ピクチャと、を結合した結合参照ピクチャリストを獲得する。段階2020で、エントロピ復号化部520は、結合参照リストに含まれた参照ピクチャを利用する単方向動き予測モードの可能な場合の数、及び第1参照ピクチャリストと、第2参照ピクチャリストとを利用する双方向動き予測モードの可能な場合の数に基づいて、現在予測単位の符号化に利用された動き予測モード及び参照ピクチャによる参照シンタックスの値を決定する。
段階2030で、エントロピ復号化部520は、ビットストリームから、現在予測単位の参照シンタックスを獲得する。前述のように、参照シンタックスは、切削型単項二進符号化を介して符号化され、予測モードの全ての可能な場合の数(MaxValue)に基づいて、現在参照シンタックスが、図17に図示された予測モードの場合の数のうちいかなる場合を示すか決定される。
段階2040で、エントロピ復号化部520は、参照シンタックスの値を利用して、前記現在予測単位の動き予測モード及び参照ピクチャを決定し、段階2050で、動き補償部560は、決定された動き予測モード及び参照ピクチャを利用して、現在予測単位に係わる動き補償を行い、現在予測単位の予測値を生成する。
本発明はまた、コンピュータで読み取り可能な記録媒体に、コンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータ・システムによって読み取り可能なデータが保存される全ての種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM(read-only memory)、RAM(random-access memory)、CD(compact disc)−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などが含まれる。また、コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータ・システムに分散され、分散方式で、コンピュータで読み取り可能なコードとして保存されて実行されもする。
以上、本発明について、その望ましい実施形態を中心に説明した。本発明が属する技術分野で当業者であるならば、本発明が、本発明の本質的な特性から外れない範囲で変形された形態で具現されるということを理解することができるであろう。本発明の範囲は、前述の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての差異は、本発明に含まれたものであると解釈されなければならないのである。

Claims (15)

  1. 映像の符号化方法において、
    第1参照ピクチャリスト、第2参照ピクチャリスト、及び前記第1参照ピクチャリストに含まれた参照ピクチャと、前記第2参照ピクチャリストに含まれた参照ピクチャと、を結合した結合参照ピクチャリストを獲得する段階と、
    前記結合参照リストに含まれた参照ピクチャを利用して、現在予測単位に係わる単方向動き予測を行う単方向動き予測モード、及び前記第1参照ピクチャリストと、前記第2参照ピクチャリストとを利用して、前記現在予測単位に係わる双方向動き予測を行う双方向動き予測モードのうち一つを利用して、前記現在予測単位を符号化する段階と、
    前記単方向動き予測モードの場合の数、及び前記双方向動き予測モードの場合の数に基づいて、前記現在予測単位の符号化に利用された動き予測モード及び参照ピクチャを示す1つの参照シンタックスを符号化する段階と、を含むことを特徴とする映像の符号化方法。
  2. 前記参照シンタックスを符号化する段階は、
    前記単方向動き予測モードで利用可能な参照ピクチャ、及び前記双方向動き予測モードで利用可能な参照ピクチャの組み合わせごとに、互いに異なる値を有する参照シンタックスを割り当て、前記現在予測単位の動き予測モード、及び前記現在予測単位の動き予測に利用される参照ピクチャに対応する参照シンタックスの値を符号化することを特徴とする請求項1に記載の映像の符号化方法。
  3. 前記結合参照リストに含まれた参照ピクチャの枚数をNumOfRef_LC、前記第1参照ピクチャリストに含まれた参照ピクチャの枚数をNumOfRef_L0、前記第2参照ピクチャリストに含まれた参照ピクチャの枚数をNumOfRef_L1、前記現在予測単位に対して、単方向動き予測及び双方向動き予測が行われる全ての場合の数をMaxValueとするとき、前記全ての場合の数MaxValueは、次の数式:MaxValue=NumOfRef_LC+NumOfRef_L0*NumOfRef_L1の値を有し、
    前記単方向動き予測モードで利用可能な参照ピクチャ、及び前記双方向動き予測モードで利用可能な参照ピクチャの組み合わせごとに、0から(MaxValue−1)の値のうち一つが、前記参照シンタックスの値として割り当てられることを特徴とする請求項2に記載の映像の符号化方法。
  4. 前記第1参照ピクチャリストと、前記第2参照ピクチャリストとに重複して含まれた参照ピクチャの枚数をNumOfRedundancyとするとき、前記結合参照ピクチャリストは、NumOfRef_L0+NumOfRef_L1−NumOfRedundancy枚の互いに重複しない参照ピクチャを含むことを特徴とする請求項3に記載の映像の符号化方法。
  5. 前記現在予測単位が単方向動き予測された場合、前記現在予測単位が参照する前記結合参照ピクチャリストの参照ピクチャによって、0から(NumOfRef_LC−1)の値が、前記現在予測単位の参照シンタックスとして符号化されることを特徴とする請求項3に記載の映像の符号化方法。
  6. 前記現在予測単位が双方向動き予測された場合、前記現在予測単位が参照する第1参照ピクチャリストの第1参照ピクチャと、前記第2参照ピクチャリストの第2参照ピクチャとの組み合わせによって、NumOfRef_LCから(MaxValue−1)の値が、前記現在予測単位の参照シンタックスとして符号化されることを特徴とする請求項3に記載の映像の符号化方法。
  7. 前記参照シンタックスがMaxValueの値を有する場合、既設定の前記単方向動き予測モードの参照ピクチャ、及び前記双方向動き予測モードの参照ピクチャの組み合わせを利用しない例外的な場合を示すことを特徴とする請求項3に記載の映像の符号化方法。
  8. 映像の復号化方法において、
    第1参照ピクチャリスト、第2参照ピクチャリスト、及び前記第1参照ピクチャリストに含まれた参照ピクチャと、前記第2参照ピクチャリストに含まれた参照ピクチャと、を結合した結合参照ピクチャリストを獲得する段階と、
    前記結合参照リストに含まれた参照ピクチャを利用する単方向動き予測モードの可能な場合の数、及び前記第1参照ピクチャリストと、前記第2参照ピクチャリストとを利用する双方向動き予測モードの可能な場合の数に基づいて、前記現在予測単位の符号化に利用された動き予測モード及び参照ピクチャによる参照シンタックスの値を決定する段階と、
    ビットストリームから、前記現在予測単位の参照シンタックスを獲得する段階と、
    前記獲得された参照シンタックスの値を利用して、前記現在予測単位の動き予測モード及び参照ピクチャを決定する段階と、
    前記決定された動き予測モード及び参照ピクチャを利用して、前記現在予測単位に係わる動き補償を行う段階と、を含むことを特徴とする映像の復号化方法。
  9. 前記第1参照ピクチャリストは、前記現在ピクチャに最も近い順方向参照ピクチャから、それ以前の参照ピクチャ順序で、参照ピクチャ・インデックスが割り当てられ、前記第2参照ピクチャリストは、前記現在ピクチャに最も近い逆方向参照ピクチャから、その後の参照ピクチャ順序で、参照ピクチャ・インデックスが割り当てられることを特徴とする請求項8に記載の映像の復号化方法。
  10. 前記参照シンタックスは、
    前記単方向動き予測モードで利用可能な参照ピクチャ、及び前記双方向動き予測モードで利用可能な参照ピクチャの組み合わせごとに割り当てられた値を有することを特徴とする請求項8に記載の映像の復号化方法。
  11. 前記結合参照リストに含まれた参照ピクチャの枚数をNumOfRef_LC、前記第1参照ピクチャリストに含まれた参照ピクチャの枚数をNumOfRef_L0、前記第2参照ピクチャリストに含まれた参照ピクチャの枚数をNumOfRef_L1、前記現在予測単位に対して、単方向動き予測及び双方向動き予測が行われる全ての場合の数をMaxValueとするとき、前記全ての場合の数MaxValueは、次の数式:MaxValue=NumOfRef_LC+NumOfRef_L0*NumOfRef_L1の値を有し、
    前記単方向動き予測モードで利用可能な参照ピクチャ、及び前記双方向動き予測モードで利用可能な参照ピクチャの組み合わせごとに、0から(MaxValue−1)の値のうち一つが、前記参照シンタックスの値として割り当てられることを特徴とする請求項10に記載の映像の復号化方法。
  12. 前記第1参照ピクチャリストと、前記第2参照ピクチャリストとに重複して含まれた参照ピクチャの枚数をNumOfRedundancyとするとき、前記結合参照ピクチャリストは、NumOfRef_L0+NumOfRef_L1−NumOfRedundancy個の互いに重複しない参照ピクチャを含むことを特徴とする請求項11に記載の映像の復号化方法。
  13. 前記現在予測単位が単方向動き予測された場合、前記現在予測単位が参照する前記結合参照ピクチャリストの参照ピクチャによって、0から(NumOfRef_LC−1)の値が、前記現在予測単位の参照シンタックスとして復号化されることを特徴とする請求項11に記載の映像の復号化方法。
  14. 前記現在予測単位が双方向動き予測された場合、前記現在予測単位が参照する第1参照ピクチャリストの第1参照ピクチャと、前記第2参照ピクチャリストの第2参照ピクチャとの組み合わせによって、NumOfRef_LCから(MaxValue−1)の値が、前記現在予測単位の参照シンタックスとして復号化されることを特徴とする請求項11に記載の映像の復号化方法。
  15. 前記参照シンタックスがMaxValueの値を有する場合、既設定の前記単方向動き予測モードの参照ピクチャ、及び前記双方向動き予測モードの参照ピクチャの組み合わせを利用しない例外的な場合を示すことを特徴とする請求項11に記載の映像の復号化方法。
JP2013557656A 2011-03-11 2012-03-12 映像の符号化方法及びその装置、その復号化方法及びその装置 Expired - Fee Related JP5801908B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161451789P 2011-03-11 2011-03-11
US61/451,789 2011-03-11
PCT/KR2012/001793 WO2012124961A2 (ko) 2011-03-11 2012-03-12 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2014511645A true JP2014511645A (ja) 2014-05-15
JP5801908B2 JP5801908B2 (ja) 2015-10-28

Family

ID=46831195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013557656A Expired - Fee Related JP5801908B2 (ja) 2011-03-11 2012-03-12 映像の符号化方法及びその装置、その復号化方法及びその装置

Country Status (6)

Country Link
US (1) US20140003521A1 (ja)
EP (1) EP2685722A4 (ja)
JP (1) JP5801908B2 (ja)
KR (2) KR20120104128A (ja)
CN (1) CN103563382A (ja)
WO (1) WO2012124961A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020096387A (ja) * 2012-01-19 2020-06-18 ヴィド スケール インコーポレイテッド 映像符号化参照ピクチャリストをシグナリングおよび構築する方法および装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4124034B1 (en) * 2010-12-22 2023-08-23 LG Electronics Inc. Intra prediction in video coding
US8934552B2 (en) * 2011-03-31 2015-01-13 Qualcomm Incorporated Combined reference picture list construction and mapping
WO2012177052A2 (ko) 2011-06-21 2012-12-27 한국전자통신연구원 인터 예측 방법 및 그 장치
KR20120140592A (ko) 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
US20130114710A1 (en) * 2011-11-08 2013-05-09 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by prediction using reference picture list, and method and apparatus for decoding video by performing compensation using reference picture list
US20130121417A1 (en) * 2011-11-16 2013-05-16 Qualcomm Incorporated Constrained reference picture sets in wave front parallel processing of video data
KR102137149B1 (ko) * 2012-03-02 2020-07-23 선 페이턴트 트러스트 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치 및 화상 부호화 복호 장치
KR102226893B1 (ko) 2012-09-28 2021-03-11 엘지전자 주식회사 영상 복호화 방법 및 이를 이용하는 장치
JP6352248B2 (ja) * 2013-04-04 2018-07-04 シャープ株式会社 画像復号装置、および画像符号化装置
CN105578180B (zh) * 2014-10-16 2019-01-15 联想(北京)有限公司 一种编码方法及装置
CN107113440B (zh) * 2014-10-31 2020-10-13 三星电子株式会社 一种由视频解码装置执行的视频解码方法
EP3654646A1 (en) * 2015-06-05 2020-05-20 Intellectual Discovery Co., Ltd. Methods for encoding and decoding intra-frame prediction based on block shape
US10986358B2 (en) * 2016-07-05 2021-04-20 Kt Corporation Method and apparatus for processing video signal
ES2737843B2 (es) * 2016-07-05 2021-07-15 Kt Corp Metodo y aparato para procesar una senal de video
ES2802817B2 (es) * 2016-07-05 2023-06-22 Kt Corp Metodo y aparato para procesar senal de video
JP2018007278A (ja) * 2017-10-11 2018-01-11 株式会社東芝 復号方法及び復号装置
JP2018007279A (ja) * 2017-10-11 2018-01-11 株式会社東芝 復号方法及び復号装置
WO2019083120A1 (ko) * 2017-10-23 2019-05-02 엘지전자 주식회사 360도 비디오에 대한 영상 코딩 시스템에서 회전된 360도 비디오를 프로젝션하여 도출된 참조 픽처를 사용한 영상 디코딩 방법 및 장치
WO2019216736A1 (ko) * 2018-05-11 2019-11-14 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US11196988B2 (en) * 2018-12-17 2021-12-07 Apple Inc. Reference picture management and list construction
CN111726632B (zh) * 2019-03-18 2022-08-26 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009543521A (ja) * 2006-07-11 2009-12-03 トムソン ライセンシング バーチャルリファレンスピクチャを使用した方法及び装置
WO2011075071A1 (en) * 2009-12-17 2011-06-23 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangement for video coding
WO2012099656A1 (en) * 2011-01-22 2012-07-26 Qualcomm Incorporated Combined reference picture list construction for video coding
WO2012102973A1 (en) * 2011-01-24 2012-08-02 Qualcomm Incorporated Single reference picture list construction for video coding

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1351510A4 (en) * 2001-09-14 2008-12-10 Ntt Docomo Inc ENCODING METHOD, DECODING METHOD, ENCODING APPARATUS, DECODING APPARATUS, IMAGE PROCESSING SYSTEM, ENCODING PROGRAM, AND DECODING PROGRAM
KR100491530B1 (ko) * 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
JP2007503776A (ja) * 2003-08-26 2007-02-22 トムソン ライセンシング インター符号化に使われる参照画像数を最小化するための方法および装置
JP2007028393A (ja) * 2005-07-20 2007-02-01 Matsushita Electric Ind Co Ltd 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法
JP5023739B2 (ja) * 2007-02-28 2012-09-12 ソニー株式会社 画像情報符号化装置及び符号化方法
KR100985268B1 (ko) * 2008-07-18 2010-10-04 엘지전자 주식회사 모션벡터 결정방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009543521A (ja) * 2006-07-11 2009-12-03 トムソン ライセンシング バーチャルリファレンスピクチャを使用した方法及び装置
WO2011075071A1 (en) * 2009-12-17 2011-06-23 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangement for video coding
WO2012099656A1 (en) * 2011-01-22 2012-07-26 Qualcomm Incorporated Combined reference picture list construction for video coding
WO2012102973A1 (en) * 2011-01-24 2012-08-02 Qualcomm Incorporated Single reference picture list construction for video coding

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
CSNC201318001285; Bin Li,et al: 'Improvement and extension of inter prediction direction and reference frame index combined coding in' JCTVC-D141 , 201101, インターネット<URL:http://phenix.it-sudparis.eu/j *
CSNC201318001876; Suzuki,Y., et al: 'Extension of uni-prediction simplification in B slices[online]' Joint Collaborative Team on Video Coding (JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC- , 20110125, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
CSNC201318017112; Tzu-Der Chuang, et al: 'Removal of Syntax Redundancy in Reference Picture Indices for Bi-Prediction' JCTVC-E052 , 20110310, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
CSNC201318017116; Chih-Wei Hsu, et al: 'Unified Syntax of Reference Picture List Reordering' JCTVC-E053 , 20110310, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
JPN6014032793; Suzuki,Y., et al: 'Extension of uni-prediction simplification in B slices[online]' Joint Collaborative Team on Video Coding (JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC- , 20110125, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
JPN6014032795; Chih-Wei Hsu, et al: 'Unified Syntax of Reference Picture List Reordering' JCTVC-E053 , 20110310, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
JPN6014032796; Tzu-Der Chuang, et al: 'Removal of Syntax Redundancy in Reference Picture Indices for Bi-Prediction' JCTVC-E052 , 20110310, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
JPN6014032798; Bin Li et al.: 'Improvement and extension of inter prediction direction and reference frame index combined coding in' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-D141r1, 201101, pp.1-4, 4th Meeting: Daegu, KR *
JPN6014032798; Bin Li,et al: 'Improvement and extension of inter prediction direction and reference frame index combined coding in' JCTVC-D141 , 201101, インターネット<URL:http://phenix.it-sudparis.eu/j *
JPN6015029305; Jianle Chen et al.: 'Improvement of inter prediction direction and reference frame index combined coding in LCEC' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-E381_r1, 201103, pp.1-4, 5th Meeting: Geneva, CH *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020096387A (ja) * 2012-01-19 2020-06-18 ヴィド スケール インコーポレイテッド 映像符号化参照ピクチャリストをシグナリングおよび構築する方法および装置
JP7083000B2 (ja) 2012-01-19 2022-06-09 ヴィド スケール インコーポレイテッド 映像符号化参照ピクチャリストをシグナリングおよび構築する方法および装置
US11490074B2 (en) 2012-01-19 2022-11-01 Vid Scale, Inc. Method and apparatus for signaling and construction of video coding reference picture lists

Also Published As

Publication number Publication date
EP2685722A2 (en) 2014-01-15
WO2012124961A3 (ko) 2012-12-27
JP5801908B2 (ja) 2015-10-28
KR20140085392A (ko) 2014-07-07
KR101635112B1 (ko) 2016-06-30
CN103563382A (zh) 2014-02-05
KR20120104128A (ko) 2012-09-20
US20140003521A1 (en) 2014-01-02
EP2685722A4 (en) 2014-09-03
WO2012124961A2 (ko) 2012-09-20

Similar Documents

Publication Publication Date Title
JP5801908B2 (ja) 映像の符号化方法及びその装置、その復号化方法及びその装置
JP6835910B2 (ja) 映像復号化方法、映像符号化方法及び記録媒体
JP6402234B2 (ja) ビデオ復号化方法及び装置とビデオ符号化方法及び装置
JP6595679B2 (ja) ビデオ復号化装置
JP6247354B2 (ja) ビデオ復号化方法及びその装置
KR101456500B1 (ko) 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치
DK2719179T3 (en) Border pixel padding for intra prediction in video coding
KR102111768B1 (ko) 계층적 부호화 단위에 따라 스캔 순서를 변경하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR20180008445A (ko) 적응적 가중치 예측을 위한 신택스 시그널링을 이용하여 영상을 부호화 또는 복호화하는 방법 및 장치
KR102179383B1 (ko) 병합 모드 결정 방법 및 장치
JP2013524676A (ja) ツリー構造による符号化単位に基づいたインループ・フィルタリングを伴うビデオ符号化方法及びその装置、並びに復号化方法及びその装置
KR102088383B1 (ko) 비디오의 부호화 방법 및 장치, 비디오의 복호화 방법 및 장치
JP2015526016A (ja) 時間的スケーラビリティを有するビデオ符号化方法及びその装置、並びに時間的スケーラビリティを有するビデオ復号化方法及びその装置
CN113228645A (zh) 图像编码/解码方法和装置以及存储有比特流的记录介质
KR20230146483A (ko) 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150827

R150 Certificate of patent or registration of utility model

Ref document number: 5801908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees