JP2008104188A - 画像の系列をスケーラブル形式で符号化する装置および方法ならびに対応する復号装置および方法 - Google Patents

画像の系列をスケーラブル形式で符号化する装置および方法ならびに対応する復号装置および方法 Download PDF

Info

Publication number
JP2008104188A
JP2008104188A JP2007271308A JP2007271308A JP2008104188A JP 2008104188 A JP2008104188 A JP 2008104188A JP 2007271308 A JP2007271308 A JP 2007271308A JP 2007271308 A JP2007271308 A JP 2007271308A JP 2008104188 A JP2008104188 A JP 2008104188A
Authority
JP
Japan
Prior art keywords
macroblock
block
image data
intra
base layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007271308A
Other languages
English (en)
Inventor
Vincent Bottreau
ボトロー ヴァンサン
Dominique Thoreau
トロ ドミニク
Yannick Olivier
オリヴィエ ヤニック
Edouard Francois
フランソワ エドワール
Jerome Vieron
ヴィロン ジェローム
Christophe Chevance
シュヴァンス クリストフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2008104188A publication Critical patent/JP2008104188A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】階層符号化における予測マクロブロックの生成方法を提供する。
【解決手段】画像データ・マクロブロック(MBEL)は向上層に属しており、前記画像データ・マクロブロック(MBEL)には基本層において画像データ・ブロック(BBL)が対応している。前記画像データ・マクロブロック(MBEL)について、以前に符号化され、再構成された前記基本層の画像データ・ブロックから画像データの予測マクロブロック(MBpred)を生成するステップと、前記予測マクロブロック(MBpred)および向上層の画像データ・マクロブロックMBELから残差のマクロブロック(MBEL residues)を生成する。前記基本層の画像データ・ブロックは、対応するブロック(BBL)とは別である。
【選択図】図3

Description

本発明は、画像の系列をスケーラブル形式で符号化する装置に関する。本発明はまた、画像の系列の再構成のためにスケーラブル・ビットストリームを復号する装置にも関する。本発明はまた、画像の系列をスケーラブル形式で符号化するための使用のために画像データ・マクロブロックを符号化する方法および画像の系列のマクロブロックの再構成のためにスケーラブル・ビットストリームの一部を復号する方法にも関する。
図1を参照すると、符号化装置ENC1は、基本層(BL: base layer)および少なくとも一つの向上層(EL: enhancement layer)の形で呈示される画像の系列がスケーラブル形式で符号化されることを可能にする。BL層の画像は一般にEL層の画像のサブサンプリングされたバージョンである。符号化装置ENC1は、BL層を符号化するための第一の符号化モジュールENC_BL1およびEL層を符号化するための第二の符号化モジュールENC_EL1を有する。一般に、符号化装置ENC1は、符号化モジュールENC_BL1およびENC_EL1によって生成されたビットストリームを多重化するために符号化モジュールENC_BL1およびENC_EL1に接続されたモジュールMUXをも有する。多重化モジュールMUXは符号化装置ENC1の外部であってもよい。
一般に、第一の符号化モジュールENC_BL1はBL層の画像データ・ブロックを、たとえばMPEG-2、MPEG-4 AVC、H.261、H.262、H.263といった、ビデオ符号化器の技術分野の当業者に知られたビデオ符号化規格に従って符号化する。
EL層の画像間の空間的な冗長性を減らすため、第二の符号化モジュールENC_EL1は、EL層の画像データ・マクロブロックを標準的な符号化様式に従って符号化するよう適応されている。標準的な符号化様式とはたとえば、前記画像データ・マクロブロックをEL層の他の画像データ・マクロブロックから時間的または空間的に予測することによるものである。図2を参照すると、第二の符号化モジュールENC_EL1は、MBELと記されるEL層のイントラ型の画像データ・マクロブロックを、前記マクロブロックMBELの空間的近隣ブロックでありかつ、それまでに符号化され、次いで再構成された画像データ・マクロブロック(たとえばA、B、C、D)から予測および符号化できる。たとえば、マクロブロックMBELは、MPEG-4 AVC規格によって定義されているような同じ型の標準的なイントラ・モードに従って予測および符号化される。MPEG-4 AVC規格は、“Information technology―Coding of audio-visual objects―Part10: Advanced Video Coding”と題する文書ISO/IEC14496-10にある。さらに、BL層の画像とEL層の画像との間の冗長性を減らすために、第二の符号化モジュールENC_EL1は、「層間(inter-layer)」として知られる符号化モードに従ってBL層の画像データからEL層の画像データ・マクロブロックを符号化するようにも適応される。第二の符号化モジュールENC_EL1はまた、以前に符号化され、再構成され、次いでマクロブロックMBEL UPとしてアップサンプリングされた、対応する基本層の画像データ・ブロックBBLから(すなわちイントラBLと書かれる層間イントラ・モードに従って)前記画像データ・マクロブロックMBELを予測および符号化することもできる。
再び図1を参照すると、第二の符号化モジュールENC_EL1は伝統的には、EL層の所与のマクロブロックについて、所定の選択基準に従って符号化モード(たとえばイントラBLモード)を選択するよう適応されている。この選択は、たとえばレート‐ひずみ型の基準を基礎として実行される。すなわち、選択されるモードは、ビットレートと画質の最良の妥協を提供するモードである。図1にはイントラBLモードでEL層の画像データ・マクロブロックを符号化するのに必要とされるENC_BL1およびENC_EL1モジュールしか示していない。この図に示されていない、ビデオ符号化器の当業者によく知られた他のモジュール(たとえば動き推定モジュール)によって、EL層のマクロブロックは、ISO/IEC14496-10文書で定義されるような標準的な諸モード(たとえばイントラ、インターなど)に従って符号化できるようになる。この目的のため、第二の符号化モジュールENC_EL1は、第一の符号化モジュールENC_BL1によって再構成された(reconstructed)画像データ・ブロックBBL recを、たとえば双線形補間によって、アップサンプリングするためのモジュール20を含む。これにより得られるのがアップサンプリングされた画像データ・マクロブロックMBBL UPであり、これは予測マクロブロックとも呼ばれる。第二の符号化モジュールENC_EL1は、向上層MBELの画像データ・マクロブロックからピクセルごとに予測マクロブロックMBEL UPを引き算するよう適応されているモジュール30をも含む。よって、モジュール30は、MBEL residuesと記される残差のマクロブロックを生成し、この残差マクロブロックが次いでモジュール40によって変換され、量子化され、符号化される。画像データは伝統的に各ピクセルに割り当てられた輝度または色度の値である。
一般に、符号化装置ENC1は、マクロブロックMBELがイントラBLモードで符号化されることを、BL層の対応するブロックBBLがイントラ・モードで符号化されていない、すなわちインター・モードで符号化されている場合には、許容しない。そのような制限は、EL層の再構成前にBL層の全体的な再構成をしないようにすることを可能にし、符号化装置ENC1によって生成されるビットストリームを復号する復号装置の複雑さを軽減することを可能にもする。実際、符号化装置ENC1がマクロブロックMBELをイントラBLモードで符号化する一方、対応するブロックBBLがインター・モードで符号化されるとすると、マクロブロックMBELを再構成するよう適応されている復号装置は、まずインター・モードで符号化されているブロックBBLを再構成しなければならない。この符号化装置ENC1は、逆動き補償を動作させなければならないという欠点がある。だがこの逆動き補償の運用は複雑である。さらに、対応するブロックBBLがインター・モードで符号化されているときにマクロブロックMBELがイントラBLモードで符号化されることを許容しない符号化装置ENC1は、EL層の画像データとBL層の画像データとの間の冗長性をEL層符号化のために十分に利用しないという欠点がある。
WO2006/080779A(Samsung Electronics Co. Ltd. [KR]; Cha Sang-chang [KR]; Han Woo-jin [KR])2006年8月3日(段落0043〜0072、0092〜0101、図5、6、14) Joseph K et al.,"Design and performance evaluation of a variable bit-rate (VBR) video compression algorithm for ATM networks", Countdown to the New Millennium, Phoenix, Dec. 2-5, 1991, Proceedings of the Global Telecommunications Conference (GLOBECOM), New York, IEEE, US, vol. 3, 1991年12月2日 pp.9-15(頁1.2.2〜1.2.3、段落II)
本発明の目的は、従来技術の少なくとも一つの欠点を克服することである。
本発明は、基本層および少なくとも一つの向上層の形で呈示される画像の系列の画像データ・マクロブロックを符号化する方法に関する。前記画像データ・マクロブロックは前記向上層に属しており、前記画像データ・マクロブロックには基本層において画像データ・ブロックが対応しており、そのブロックは対応するブロックと呼ばれる。本方法は、次のステップを有する:
・前記画像データ・マクロブロックについて、以前に符号化され、再構成された基本層の画像データの一ブロックないし数ブロックから画像データの予測マクロブロックを生成するステップと、
・前記予測マクロブロックおよび向上層の画像データ・マクロブロックMBELから残差のマクロブロックを生成するステップと、
・前記残差のマクロブロックを符号化するステップとである。
好ましくは、前記予測マクロブロックは、対応するブロックとは異なる基本層の画像データのブロックからのみ生成される。
ある個別的な特徴によれば、前記予測マクロブロックを生成するために使われる基本層の画像データ・ブロックは、対応するブロックに隣接するものである。
別の個別的な特徴によれば、前記予測マクロブロックを生成するために使われる基本層の画像データ・ブロックは、対応するブロックの非因果的な近隣領域に位置するものである。
別の個別的な特徴によれば、前記予測マクロブロックは、
・対応するブロック(BBL)の左下にあるブロック;
・対応するブロック(BBL)の右下にあるブロック;
・対応するブロック(BBL)のすぐ右にあるブロック;および
・対応するブロック(BBL)のすぐ下にあるブロック、
からなる集合に属する基本層の画像データの一ブロックないし数ブロックから生成される。
本発明はまた、基本層および少なくとも一つの向上層の形で呈示される画像の系列を符号化する装置に関する。向上層は少なくとも一つの画像データ・マクロブロックを含んでおり、前記画像データ・マクロブロックには基本層においてブロックが対応しており、そのブロックは対応するブロックと呼ばれる。本装置は、基本層の画像データ・ブロックを符号化するための第一の符号化モジュールと、向上層の画像データ・マクロブロックを符号化するための第二の符号化モジュールとを有する。第二の符号化モジュールは:
・向上層の前記画像データ・マクロブロックについて、第一の符号化モジュールによって以前に符号化され、再構成された基本層の画像データの一ブロックないし数ブロックから予測マクロブロックを生成する第一の手段と、
・前記予測マクロブロックおよび向上層の画像データ・マクロブロックから残差のマクロブロックを生成する第二の手段と、
・前記残差のマクロブロックを符号化する第三の手段とを有する。
有利には、前記第一の手段は、前記予測マクロブロックを、対応するブロックとは異なる基本層の画像データのブロックからのみ生成するよう適応される。
本発明はまた、基本層および少なくとも一つの向上層の形で呈示される画像の系列を表すビットストリームの一部を、向上層の画像データ・マクロブロックの再構成のために復号するための方法にも関する。前記画像データ・マクロブロックには基本層において画像データ・ブロックが対応しており、そのブロックは対応するブロックと呼ばれる。本方法は、次のステップを有する:
・前記画像データ・マクロブロックについて、前記画像データ・ブロックを表すビットストリームの第一の部分から以前に再構成された基本層の画像データの一ブロックないし数ブロックから予測マクロブロックを生成するステップと、
・残差のマクロブロックを表す前記ビットストリームの第二の部分から残差のマクロブロックを再構成するステップと、
・前記予測マクロブロックおよび前記再構成された残差のマクロブロックから向上層のマクロブロックを再構成するステップとである。
好ましくは、前記予測マクロブロックは、対応するブロックとは異なる基本層の画像データのブロックからのみ生成される。
本発明はまた、基本層および少なくとも一つの向上層の形で呈示される画像の系列を表すビットストリームを復号する装置にも関する。本装置は、基本層の画像データ・ブロックを再構成するよう適応された第一の復号モジュールと、向上層の画像データ・マクロブロックを再構成するよう適応された第二の復号モジュールとを有する。第二の復号モジュールは:
・対応するブロックと呼ばれる基本層の画像データ・ブロックが対応する向上層のある画像データ・マクロブロックについて、前記画像データ・ブロックを表すビットストリームの第一の部分から第一の復号モジュールによって以前に再構成された基本層の画像データの一ブロックないし数ブロックから予測マクロブロックを生成する第一の手段と、
・残差のマクロブロックを表す前記ビットストリームの第二の部分から残差のマクロブロックを再構成する第二の手段と、
・前記予測マクロブロックおよび前記再構成された残差のマクロブロックから画像データ・マクロブロックを再構成する第三の手段とを有する。
有利には、前記第一の手段は、前記予測マクロブロックを、対応するブロックとは異なる基本層の画像データのブロックからのみ生成するよう適応される。
本発明はまた、基本層および少なくとも一つの向上層の形で呈示される画像の系列を表す符号化されたデータ・ストリームに関する。該符号化されたデータ・ストリームは、向上層のある画像データ・マクロブロックに関連するバイナリー・データを含む。該画像データ・マクロブロックには基本層の画像データ・ブロックが対応する。ある個別的な特徴によれば、バイナリー・データは、前記マクロブロックが、対応するブロックとは異なる基本層の画像データのブロックからのみ符号化されていることを示す。
符号化されたデータ・ストリームはたとえばMPEG型のシンタックスに従っている。
本発明は、付録として添付された図面を参照しつつ、決して限定的なものではない有利な実施形態および実装によってよりよく理解され、解説される。
本記載において、使用される用語は次の規格において定義されているものに対応する:MPEG-4 AVC(ISO/IEC14496-10)およびSVC(ISO/IEC MPEG&ITU-T VCEG JVT-R202で、“Draft of the Joint Draft 7”と題する)。同様に、使用される数学的演算子はISO/IEC14496-10で定義されているものである。演算子>>は右へのシフトを示す。図3および図6ないし図10で、示されているモジュールは機能的なユニットであり、物理的に区別可能なユニットに対応していても、いなくてもよい。たとえば、これらのモジュールあるいはその一部は単一のコンポーネントにまとめられることができ、あるいは同一のソフトウェアの機能をなすこともできる。逆に、一部のモジュールは別個の物理的実体からなっていてもよい。これらの図面は本発明の本質的な構成要素のみを示す。
図3を参照するに、本発明は、基本層および少なくとも一つの向上層の形で呈示される画像の系列を符号化する方法による使用を視野に、画像データ・マクロブロックMBELを符号化する方法に関する。画像データ・マクロブロックMBELはEL層のマクロブロックである。本発明に基づく符号化方法は、MPEG4 AVC符号化規格で定義されているような標準的な符号化モードに従ってマクロブロックMBELを符号化するよう適応されている。本方法はまた、ブロックBBLがイントラ・モードで符号化されている場合、BL層の対応するブロックBBLから層間モードにおいて(すなわちイントラBLモードで)マクロブロックMBELを符号化するようにも適応されている;イントラBLモードは、対応するブロックBBLがインター・モードで符号化されている場合には許容されない。本発明によれば、図4を参照するに、本方法はまた、マクロブロックMBELを、BL層のブロックBBLに近隣の、すなわち対応するブロックBBLとは異なる画像データ・ブロック(たとえばe、f、g、h)から層間モードで符号化するようにも適応される。図4では、ブロックe、f、g、hはブロックBBLに隣接しており、ブロックBBLの非因果的な近隣領域に位置している、すなわちブロックBBLのほうがブロックh、g、f、eが符号化されるより前に符号化される。一方、ブロックBBLに隣接するブロックa、b、c、dはブロックBBLの因果的な近隣領域に位置している、すなわち、ブロックBBLが符号化されるより前に符号化される。「隣接(adjacent)」の語は、その近隣の(neighbouring)ブロックがブロックBBLと辺または角を共有することを含意する。
第一の実施形態によれば、次の4つのモードが定義される:イントラBL_DC、イントラBL_Vert、イントラBL_Hor、イントラBL_Planeである。これら新しい層間イントラ・モードは、マクロブロックMBELが、以前にステップE70で符号化され、ステップE71で再構成され、次いでステップE72でアップサンプリングされた基本層の画像データ・ブロックe、fおよび/またはgから符号化されることを可能にする。前記ブロックがアップサンプリングされたものはそれぞれeUP、fUPおよびgUPと記される。これら4つのモードは輝度画像データについて定義されるが、色度ブロックの場合にもただちに拡張されうる。マクロブロックMBELを予測するために使われる予測(prediction)マクロブロックをMBpredと記し、マクロブロック中の座標(x,y)のピクセルに関連付けられた輝度値を、xがマクロブロック中のピクセルの水平位置を示し、yが垂直位置を示すものとして、MBpred[x,y]と記す。同様に、マクロブロックeUP中の座標(x,y)のピクセルに関連付けられた輝度値をeUP[x,y]、マクロブロックgUP中の座標(x,y)のピクセルに関連付けられた輝度値をgUP[x,y]およびマクロブロックfUP中の座標(x,y)のピクセルに関連付けられた輝度値をfUP[x,y]と記す。ピクセル・ブロックの左上のピクセルが座標(0,0)を有し、右下のピクセルはブロックのサイズをNとして座標(N−1,N−1)を有し、座標(x,y)のピクセルはブロックの列x、行yに位置する。たとえばレート‐ひずみ型の所定の基準に基づいて以前に定義された符号化モードをcod_modeで示す。マクロブロックMBELは、選択された符号化モードcod_modeに従ってマクロブロックeUP、fUPおよび/またはgUPからステップE73において構築される予測マクロブロックMBpredを使って予測される。ステップE74の間に、予測マクロブロックMBpredが向上層の画像データ・マクロブロックMBELからピクセルごとに引き算される。このステップE74は、MBEL residuesと記される残差のマクロブロックを生成する。この残差のマクロブロックは次いでステップE75の間に変換され、量子化され、符号化される。ステップE75はビットストリーム、すなわち一連のビットを生成する。
本発明によれば、マクロブロックMBELがイントラBL_DCモードで符号化される場合、すなわちcod_mode=イントラBL_DCの場合、マクロブロックMBpredは次のように構築される:
・MBpredを構築するために使われるブロックe UPおよびg UPのピクセルが利用可能である、すなわち使われるピクセルが画像外でない場合には:
Figure 2008104188
・上記の場合以外で、MBpredを構築するために使われるブロックg UPのピクセルが利用可能でない場合には:
Figure 2008104188
・上記の場合以外で、MBpredを構築するために使われるブロックe UPのピクセルが利用可能でない場合には:
Figure 2008104188
・上記の場合以外には:
MBpred[x,y]=128, ここでx,y=0..15である。
マクロブロックMBELがイントラBL_Vertモードで符号化される場合、すなわちcod_mode=イントラBL_Vertの場合、マクロブロックMBpredは次のように構築される:
・MBpredを構築するために使われるブロックg UPのピクセルが利用可能である、すなわち使われるピクセルが画像外でない場合には:
MBpred[x,y]=gUP[x,0], ここでx,y=0..15
・上記以外の場合にはこのモードは許容されない。
マクロブロックMBELがイントラBL_Horモードで符号化される場合、すなわちcod_mode=イントラBL_Horの場合、マクロブロックMBpredは次のように構築される:
・MBpredを構築するために使われるブロックe UPのピクセルが利用可能である、すなわち使われるピクセルが画像外でない場合には:
MBpred[x,y]=eUP[0,y], ここでx,y=0..15
・上記以外の場合にはこのモードは許容されない。
マクロブロックMBELがイントラBL_Planeモードで符号化される場合、すなわちcod_mode=イントラBL_Planeの場合、マクロブロックMBpredは次のように構築される:
・MBpredを構築するために使われるブロックe UP、fUPおよびgUPのピクセルが利用可能である、すなわち使われるピクセルが画像外でない場合には、gUP[16,0]=fUP[0,0]およびeUP[0,16]=fUP[0,0]と置き、次のようにする:
MBpred[x,y]=(a+b*(x−7)+c*(y−7)), ここでx,y=0..15
ここで、・a=16*(eUP[0,0]+gUP[0,0])、b=(5*H+32)/64、c=(5*V+32)/64
Figure 2008104188
・上記以外の場合にはこのモードは許容されない。
第二の実施形態によれば、前記4つのモード、イントラBL_DC、イントラBL_Vert、イントラBL_Hor、イントラBL_Planeの定義は、EL層の画像を再構成するために必ずしもBL層の画像を完全に再構成しなくてもよいように行われる。この層間イントラ・モードはマクロブロックMBELを、以前にステップE70で符号化され、ステップE71で再構成され、次いでステップE72でアップサンプリングされた基本層の画像データ・ブロックe、fおよび/またはgから符号化することを可能にする。アップサンプリングされたブロックはそれぞれeUP、fUPおよびgUPと記されている。これら4つのモードは輝度画像データについて定義されるが、色度ブロックの場合にもただちに拡張されうる。マクロブロックMBELを予測するために使われる予測(prediction)マクロブロックをMBpredと記し、マクロブロック中の座標(x,y)のピクセルに関連付けられた輝度値を、xがマクロブロック中のピクセルの水平位置を示し、yが垂直位置を示すものとして、MBpred[x,y]と記す。同様に、マクロブロックeUP中の座標(x,y)のピクセルに関連付けられた輝度値をeUP[x,y]、マクロブロックgUP中の座標(x,y)のピクセルに関連付けられた輝度値をgUP[x,y]およびマクロブロックfUP中の座標(x,y)のピクセルに関連付けられた輝度値をfUP[x,y]と記す。ピクセル・ブロックの左上のピクセルが座標(0,0)を有し、右下のピクセルはブロックのサイズをNとして座標(N−1,N−1)を有し、座標(x,y)のピクセルはブロックの列x、行yに位置する。たとえばレート‐ひずみ型の所定の基準に基づいて以前に定義された符号化モードをcod_modeで示す。マクロブロックMBELは、選択された符号化モードcod_modeに従ってマクロブロックeUP、fUPおよび/またはgUPからステップE73において構築される予測マクロブロックMBpredを使って予測される。ステップE74の間に、予測マクロブロックMBpredが向上層の画像データ・マクロブロックMBELからピクセルごとに引き算される。このステップE74は、MBEL residuesと記される残差のマクロブロックを生成する。この残差のマクロブロックは次いでステップE75の間に変換され、量子化され、符号化される。ステップE75はビットストリーム、すなわち一連のビットを生成する。この実施形態によれば、マクロブロックMBpredはステップE73の間に、イントラ・モードで符号化されているBL層のブロックe、fおよび/またはgから一意的に構築される。
マクロブロックMBELがイントラBL_DCモードで符号化される場合、すなわちcod_mode=イントラBL_DCの場合、マクロブロックMBpredは次のように構築される:
・MBpredを構築するために使われるブロックe UPおよびg UPのピクセルが利用可能である、すなわち使われるピクセルが画像外でなく、かつブロックeおよびgがイントラ・モードで符号化されている場合には:
Figure 2008104188
・上記の場合以外で、MBpredを構築するために使われるブロックg UPのピクセルが利用可能でない場合には:
Figure 2008104188
・上記の場合以外で、MBpredを構築するために使われるブロックe UPのピクセルが利用可能でない場合には:
Figure 2008104188
・上記の場合以外には:
MBpred[x,y]=128, ここでx,y=0..15である。
マクロブロックMBELがイントラBL_Vertモードで符号化される場合、すなわちcod_mode=イントラBL_Vertの場合、マクロブロックMBpredは次のように構築される:
・MBpredを構築するために使われるブロックg UPのピクセルが利用可能である、すなわち使われるピクセルが画像外でなく、かつブロックgがイントラ・モードで符号化されている場合には:
MBpred[x,y]=gUP[x,0], ここでx,y=0..15
・上記以外の場合にはこのモードは許容されない。
マクロブロックMBELがイントラBL_Horモードで符号化される場合、すなわちcod_mode=イントラBL_Horの場合、マクロブロックMBpredは次のように構築される:
・MBpredを構築するために使われるブロックe UPのピクセルが利用可能である、すなわち使われるピクセルが画像外でなく、かつブロックeがイントラ・モードで符号化されている場合には:
MBpred[x,y]=eUP[0,y], ここでx,y=0..15
・上記以外の場合にはこのモードは許容されない。
マクロブロックMBELがイントラBL_Planeモードで符号化される場合、すなわちcod_mode=イントラBL_Planeの場合、マクロブロックMBpredは次のように構築される:
・MBpredを構築するために使われるブロックe UP、fUPおよびgUPのピクセルが利用可能である、すなわち使われるピクセルが画像外でない場合には、gUP[16,0]=fUP[0,0]およびeUP[0,16]=fUP[0,0]と置き、次のようにする:
MBpred[x,y]=(a+b*(x−7)+c*(y−7)), ここでx,y=0..15
ここで、・a=16*(eUP[0,0]+gUP[0,0])、b=(5*H+32)/64、c=(5*V+32)/64
Figure 2008104188
・上記以外の場合にはこのモードは許容されない。
これら二つの実施形態は、有利なことに、BL層の対応するブロックBBLを符号化するモードに関わりなく、すなわちブロックBBLがイントラ・モードで符号化されているかインター・モードで符号化されているかに関わりなく、EL層のマクロブロックMBELの画像データを層間イントラ・モードに従って符号化することを可能にする。実際、前記二つの実施形態では、前記新たに定義された諸モードによれば、対応するブロックBBLは予測マクロブロックMBpredの構築に使われない。より精密には、予測マクロブロックMBpredは、対応するブロックBBLとは異なる基本層の画像データ・ブロックからのみ生成される。よって、本発明に基づく符号化方法は、BL層の画像データとEL層の画像データとの間の空間的冗長性を利用する度合いがより大きくなり、それによりEL層をより効率的に、すなわちより少数のビットで符号化する。さらに、前記二つの実施形態によれば、対応するブロックBBLの非因果的な近隣領域に位置するブロックe、f、gのみが予測マクロブロックMBpredを構築するために使われる。これは、追加されるモードの数を制限することによって、符号化方法の複雑さを制限する。ブロックe、f、gはブロックBBLの非因果的な近隣領域にあるので、マクロブロックMBELをEL層のマクロブロックE、F、GおよびH(図2参照)から空間的に予測することは、マクロブロックE、F、GおよびHが非因果的な近隣領域に位置しているために、できない、という事実を克服するために使われる。さらに、図5に示されるように、マクロブロックA、B、C、DとマクロブロックMBELとの間に遷移(すなわち、基本層の輪郭C2が対応する輪郭C1)が存在する場合、それらはマクロブロックMBELをより精密に予測するために使うことができる。実際、MBELに近隣のマクロブロックA、B、C、Dから構築された予測マクロブロックMBpredはマクロブロックMBELを十分な精度で予測しない。この場合、マクロブロックMBELは符号化するのにビット数の面で非常にコスト高である。他方、ブロックe、f、gおよびhから構築される予測マクロブロックMBpredはマクロブロックMBELをより高い精度で予測する。この場合、マクロブロックMBELは符号化するのにビット数の面で以前の場合ほどコスト高ではない。色度値が関連付けられているピクセル・ブロックを予測し、符号化するためにも、類推によって同じ諸モード、イントラBL_DC、イントラBL_Vert、イントラBL_Hor、イントラBL_Planeが定義できる。
図6に示される第三の実施形態は、ISO/IEC MPEG&ITU-T VCEGの、J. Reichel, H. Schwarz, M. Wienによる“Draft of the Joint Draft 7”と題するJVT-T005文書で定義されているSVC符号化規格の一部として提供される。図6に示される符号化方法のステップで図3に示される符号化方法と同一のものは、図6において同じ参照符号を使って指定されており、さらなる説明はしない。SVCによれば、マクロブロックMBELは、スケーラビリティに関するMPEG-4 AVC規格の拡張によって定義されるモード、イントラ16×16、イントラ4×4またはイントラ8×8に従って符号化されうる。この実施形態によれば、イントラ4×4BL、イントラ8×8 BLおよびイントラ16×16 BLと記される新しい符号化モードが定義され、マクロブロックMBELを符号化するために選択されることができる。マクロブロックMBELの新しいブロック予測モードも定義される。新しい層間イントラ・モード、イントラ4×4BL、イントラ8×8 BLおよびイントラ16×16 BLによりマクロブロックMBELが、以前にステップE70で符号化され、ステップE71で再構成され、次いでステップE72でアップサンプリングされた基本層の画像データ・ブロックe、f、gおよび/またはhから符号化されることを可能にする。前記ブロックがアップサンプリングされたものはそれぞれeUP、fUP、gUPおよびhUPと記される。これらのモードは輝度画像データについて定義されるが、色度ブロックについてもただちに拡張されうる。マクロブロックMBELは、選択された符号化モードcod_modeおよび可能性としては前記マクロブロックMBELを形成するブロックのそれぞれの予測モードblc_mode(s)に従ってステップE73′の間に構築される予測マクロブロックMBpredを使って予測される。ステップE74の間に、予測マクロブロックMBpredが向上層の画像データ・マクロブロックMBELからピクセルごとに引き算される。このステップE74は、MBEL residuesと記される残差のマクロブロックを生成する。この残差のマクロブロックは次いでステップE75の間に変換され、量子化され、符号化される。ステップE75はビットストリーム、すなわち一連のビットを生成する。
マクロブロックMBELがイントラ4×4BLモードで符号化される場合、4×4ブロックと記される4かける4のブロック16個のそれぞれは次のモードの一つに従って予測される:
Hier_Intra_4×4_Vertical_Up、Hier_Intra_4×4_Horizontal_Left、Hier_Intra_4×4_DC_Down_Right、Hier_Intra_4×4_Diagonal_Top_Right、Hier_Intra_4×4_Diagonal_Top_Left、Hier_Intra_4×4_Vertical_Up_Left、Hier_Intra_4×4_Horizontal_Top、Hier_Intra_4×4_Vertical_Up_RightおよびHier_Intra_4×4_Horizontal_Down_Left。
4×4ブロックのblc_modeとして記される予測モードの選択は、レート‐ひずみ型の基準に従ってなされうる。この選択は、マクロブロックの符号化cod_modeの選択と同時になされうる。マクロブロックMBELのうち、BELと記され、図12に灰色で示される4×4ブロックを予測するために使われる予測ブロックをpred4×4Lと記し、予測ブロック中の座標(x,y)のピクセルに関連付けられた輝度値を、xがブロック中のピクセルの水平位置を示し、yが垂直位置を示すものとして、pred4×4L[x,y]と記す。予測ブロックの左上のピクセルが座標(0,0)を有し、右下のピクセルはブロックのサイズをNとして座標(N−1,N−1)を有し、座標(x,y)のピクセルはブロックの列x、行yに位置する。図12を参照するに、第一の軸(X,Y)はブロックの左上のピクセルを原点とするブロックBELに関し、第二の軸(X′,Y′)はブロックBELの右下のピクセルを原点とするブロックBELに関する。x′=3−x、y′=3−yおよびp′[x′,y′]=p[3−x′,3−y′]=p[x,y]とおく。p[x,y]は第一の軸における座標(x,y)のピクセルに関する輝度値であり、p′[x′,y′]は第二の軸における座標(x′,y′)のピクセルに関する輝度値である。
マクロブロックMBELの各4×4ブロックに関連付けられた予測ブロックpred4×4Lは、予測マクロブロックMBpredを形成する。
マクロブロックMBELがイントラ4×4BLモードで符号化され、ブロックBELがモードHier_Intra_4×4_Vertical_Upに従って予測する場合、ブロックpred4×4Lは次のように構築される:
pred4×4L[x,y]=p′[x′,−1] ここで、x=0..3およびy=0..3
予測モードHier_Intra_4×4_Vertical_Upが許されるのは、ピクセルp′[x′,−1]が利用可能である、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロック(すなわちe、f、g、h)から生成されたものである場合のみである。
マクロブロックMBELがイントラ4×4BLモードで符号化され、ブロックBELがモードHier_Intra_4×4_Horizontal_Leftに従って予測される場合、ブロックpred4×4Lは次のように構築される:
pred4×4L[x,y]=p′[−1,y′] ここで、x=0..3およびy=0..3
予測モードHier_Intra_4×4_Horizontal_Leftが許されるのは、ピクセルp′[−1,y′]が利用可能である、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックから生成されたものである場合のみである。
マクロブロックMBELがイントラ4×4BLモードで符号化され、ブロックBELがモードHier_Intra_4×4_DC_Down_Rightに従って予測される場合、ブロックpred4×4Lは次のように構築される:
・x=0..3、y=0..3としてピクセルp′[x′,−1]およびピクセルp′[−1,y′]が利用可能である場合、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックから生成されたものである場合、x=0..3、y=0..3として、値pred4×4L[x,y]は次のように決定される:
pred4×4L[x,y]=(p′[0,−1]+p′[1,−1]+p′[2,−1]+p′[3,−1]+p′[−1,0]+p′[−1,1]+p′[−1,2]+p′[−1,3]+4)>>3
・上記以外の場合であって、x=0..3としてピクセルp′[x′,−1]の一つが利用可能でなく、かつy=0..3としてピクセルp′[−1,y′]はすべて利用可能である場合、x=0..3、y=0..3として値pred4×4L[x,y]は次のように決定される:
pred4×4L[x,y]=(p′[−1,0]+p′[−1,1]+p′[−1,2]+p′[−1,3]+2)>>2
・上記以外の場合であって、y=0..3としてピクセルp′[−1,y′]の一つが利用可能でなく、
かつx=0..3としてピクセルp′[x′,−1]はすべて利用可能である場合、x=0..3、y=0..3として値pred4×4L[x,y]は次のように決定される:
pred4×4L[x,y]=(p′[0,−1]+p′[1,−1]+p′[2,−1]+p′[3,−1]+2)>>
・上記以外の場合(x=0..3としてピクセルp′[x′,−1]の一部およびy=0..3としてピクセルp′[−1,y′]の一部が利用可能である場合)、x=0..3、y=0..3として値pred4×4L[x,y]は次のように決定される:
pred4×4L[x,y]=(1<<(BitDepthY−1))
予測モードHier_Intra_4×4_DC_Down_Rightは常に使用できる。
マクロブロックMBELがイントラ4×4BLモードで符号化され、ブロックBELがモードHier_Intra_4×4_Diagonal_Top_Rightに従って予測される場合、ブロックpred4×4Lは次のように構築される:
・x′=3かつy′=3の場合、
pred4×4L[x,y]=(p′[6,−1]+3*p′[7,−1]+2)>>2
・その他の場合(すなわち、x′が3に等しくない、またはy′が3に等しくない場合)、
pred4×4L[x,y]=(p′[x′+y′,−1]+2*p′[x′+y′+1,−1]+p′[x′+y′+2,−1]+2)>>2
予測モードHier_Intra_4×4_Diagonal_Top_Rightが許されるのは、x=0..7としてピクセルp′[x′,−1]が利用可能である場合のみである。
マクロブロックMBELがイントラ4×4BLモードで符号化され、ブロックBELがモードHier_Intra_4×4_Diagonal_Top_Leftに従って予測される場合、ブロックpred4×4Lは次のように構築される:
・x′>y′の場合、
pred4×4L[x,y]=(p′[x′−y′−2,−1]+2*p′[x′−y′−1,−1]+p′[x′−y′,−1]+2)>>2
・それ以外で、x′<y′の場合、
pred4×4L[x,y]=(p′[−1,y′−x′−2]+2*p′[−1,y′−x′−1]+p′[−1,y′−x′]+2)>>2
・それ以外の場合(すなわち、x′がy′に等しい場合)、
pred4×4L[x,y]=(p′[0,−1]+2*p′[−1,−1]+p′[−1,0]+2)>>2
予測モードHier_Intra_4×4_Diagonal_Top_Leftが許されるのは、x=0..7、y=0..7としてピクセルp′[x′,−1]およびp′[−1,y′]が利用可能である場合のみである。
マクロブロックMBELがイントラ4×4BLモードで符号化され、ブロックBELがモードHier_Intra_4×4_Vertical_Up_Leftに従って予測される場合、変数zVR′を2*x′−y′に等しいとして、ブロックpred4×4Lは次のように構築される、すなわちx=0..3、y=0..3として:
・zVR′が0,2,4または6に等しい場合、
pred4×4L[x,y]=(p′[x′−(y′>>1)−1,−1]+p′[x′−(y′>>1),−1]+1)>>1
・それ以外の場合で、zVR′が1,3または5に等しい場合、
pred4×4L[x,y]=(p′[x′−(y′>>1)−2,−1]+2*p′[x′−(y′>>1)−1,−1]+p′[x′−(y′>>1),−1]+2)>>2
・それ以外の場合で、zVR′が−1に等しい場合、
pred4×4L[x,y]=(p′[−1,0]+2*p′[−1,−1]+p′[0,−1]+2)>>2
・それ以外の場合(すなわちzVR′が−2または−3に等しい場合)、
pred4×4L[x,y]=(p′[−1,y′−1]+2*p′[−1,y′−2]+p′[−1,y′−3]+2)>>2
予測モードHier_Intra_4×4_Vertical_Up_Leftが許されるのは、x=0..7、y=0..7としてピクセルp′[x′,−1]およびp′[−1,y′]が利用可能である場合のみである。
マクロブロックMBELがイントラ4×4BLモードで符号化され、ブロックBELがモードHier_Intra_4×4_Horizontal_Topに従って予測される場合、変数zHD′を2*y′−x′に等しいとして、ブロックpred4×4Lは次のように構築される、すなわちx=0..3、y=0..3として:
・zHD′が0,2,4または6に等しい場合、
pred4×4L[x,y]=(p′[−1,y′−(x′>>1)−1]+p′[−1,y′−(x′>>1)]+1)>>1
・それ以外の場合で、zHD′が1,3または5に等しい場合、
pred4×4L[x,y]=(p′[−1,y′−(x′>>1)−2]+2*p′[−1,y′−(x′>>1)−1]+p′[−1,y′−(x′>>1)]+2)>>2
・それ以外の場合で、zHD′が−1に等しい場合、
pred4×4L[x,y]=(p′[−1,0]+2*p′[−1,−1]+p′[0,−1]+2)>>2
・それ以外の場合(すなわちzHD′が−2または−3に等しい場合)、
pred4×4L[x,y]=(p′[x′−1,−1]+2*p′[x′−2,−1]+p′[x′−3,−1]+2)>>2
予測モードHier_Intra_4×4_Horizontal_Topが許されるのは、x=0..7、y=0..7としてピクセルp′[x′,−1]およびp′[−1,y′]が利用可能である場合のみである。
マクロブロックMBELがイントラ4×4BLモードで符号化され、ブロックBELがモードHier_Intra_4×4_Vertical_Up_Rightに従って予測される場合、ブロックpred4×4Lは次のように構築される、すなわちx=0..3、y=0..3として:
・y′=0または2に等しい場合、
pred4×4L[x,y]=(p′[x′+(y′>>1),−1]+p′[x′+(y′>>1)+1,−1]+1)>>1
・そうでない場合(y′は1または3に等しい)、
pred4×4L[x,y]=(p′[x′+(y′>>1),−1]+2*p′[x′+(y′>>1)+1,−1]+p′[x′+(y′>>1)+2,−1]+2)>>2
マクロブロックMBELがイントラ4×4BLモードで符号化され、ブロックBELがモードHier_Intra_4×4_Horizontal_Down_Leftに従って予測される場合、変数zHU′をx′+2*y′に等しいとして、ブロックpred4×4Lは次のように構築される、すなわちx=0..3、y=0..3として:
・zHU′が0,2または4に等しい場合、
pred4×4L[x,y]=(p′[−1,y′+(x′>>1)]+p′[−1,y′+(x′>>1)+1]+1)>>1
・それ以外の場合で、zHU′が1または3に等しい場合、
pred4×4L[x,y]=(p′[−1,y′+(x′>>1)]+2*p′[−1,y′+(x′>>1)+1]+p′[−1,y′+(x′>>1)+2]+2)>>2
・それ以外の場合で、zHU′が5に等しい場合、
pred4×4L[x,y]=(p′[−1,2]+3*p′[−1,3]+2)>>2
・それ以外の場合(すなわちzHU′>5の場合)、
pred4×4L[x,y]=p′[−1,3]。

マクロブロックMBELがイントラ8×8BLモードで符号化される場合、8×8ブロックと記される8かける8のブロック4個のそれぞれは次のモードの一つに従って予測される:
Hier_Intra_8×8_Vertical、Hier_Intra_8×8_Horizontal、Hier_Intra_8×8_DC、Hier_Intra_8×8_Diagonal_Up_Right、Hier_Intra_8×8_Diagonal_Up_Left、Hier_Intra_8×8_Vertical_Left、Hier_Intra_8×8_Horizontal_Up、Hier_Intra_8×8_Vertical_RightおよびHier_Intra_8×8_Horizontal_Down。
8×8ブロックの予測モードの選択は、レート‐ひずみ型の基準に従ってなされうる。
マクロブロックMBELのうち、BELと記され、図12に灰色で示される8×8ブロックを予測するために使われる予測ブロックをpred8×8Lと記し、該ブロック中の座標(x,y)のピクセルに関連付けられた輝度値を、xが8×8ブロック中のピクセルの水平位置を示し、yが垂直位置を示すものとして、pred8×8L[x,y]と記す。ピクセル・ブロックの左上のピクセルが座標(0,0)を有し、右下のピクセルは8×8ブロックのサイズをNとして座標(N−1,N−1)を有し、座標(x,y)のピクセルはブロックの列x、行yに位置する。
図12を参照するに、第一の軸(X,Y)はブロックの左上のピクセルを原点とするブロックBELに関し、第二の軸(X′,Y′)はブロックBELの右下のピクセルを原点とするブロックBELに関する。x′=7−x、y′=7−yおよびp′[x′,y′]=p[7−x′,7−y′]=p[x,y]とする。ここで、p[x,y]は第一の軸における座標(x,y)のピクセルに関する輝度値であり、p′[x′,y′]は第二の軸における座標(x′,y′)のピクセルに関する輝度値である。
x′=−1、y′=−1..7およびx′=0..15、y′=−1について、フィルタされ、p″[x′,y′]と記される前記の基準ピクセルは次のように構築される:
●x′=0..7としてすべてのピクセルp′[x′,−1]が利用可能であれば:
○p″[0,−1]の値は次のように得られる:
・p′[−1,−1]が利用可能である場合、
p″[0,−1]=(p′[−1,−1]+2*p′[0,−1]+p′[1,−1]+2)>>2
・そうでない場合、
p″[0,−1]=(3* p′[0,−1]+p′[1,−1]+2)>>2
○p″[x′,−1]の値は、x′=1..7として次のように得られる:
p″[x′,−1]=(p′[x′−1,−1]+2*p′[x′,−1]+p′[x′+1,−1]+2)>>2
●x′=7..15としてすべてのピクセルp′[x′,−1]が利用可能であれば:
○p″[x′,−1]の値は、x′=8..14として、次のように得られる:
p″[x′,−1]=(p′[x′−1,−1]+2*p′[x′,−1]+p′[x′+1,−1]+2)>>2
○p″[15,−1]の値は次のように得られる:
p″[15,−1]=(p′[14,−1]+3*p′[15,−1]+2)>>2
●ピクセルp′[−1,−1]が利用可能であれば、p″[−1,−1]の値は次のように得られる:
○ピクセルp′[0,−1]が利用可能である、あるいはピクセルp′[−1,0]が利用可能でない場合、
・ピクセルp′[0,−1]が利用可能である場合、
p″[−1,−1]=(3*p′[−1,−1]+p′[0,−1]+2)>>2
・そうでない場合(ピクセルp′[0,−1]が利用可能でなく、かつピクセルp′[−1,0]が利用可能)、
p″[−1,−1]=(3* p′[−1,−1]+p′[−1,0]+2)>>2
○そうでない場合(ピクセルp′[0,−1]が利用可能であり、かつピクセルp′[−1,0]が利用可能である場合)、
p″[−1,−1]=(p′[0,−1],2* p′[−1,−1]+p′[−1,0]+2)>>2
●y′=0..7としてすべてのピクセルp′[−1,y′]が利用可能であれば:
○p″[−1,0]の値は次のように得られる:
・p′[−1,−1]が利用可能である場合、
p″[−1,0]=(p′[−1,−1]+2*p′[−1,0]+p′[−1,1]+2)>>2
・そうでない場合(p′[−1,−1]が利用可能でない場合)、
p″[−1,0]=(3* p′[−1,0]+p′[−1,1]+2)>>2
○p″[−1,y′]の値は、y′=1..6として次のように得られる:
p″[−1,y′]=(p′[−1,y′−1]+2*p′[−1,y′]+p′[−1,y′+1]+2)>>2
●p″[−1,7]の値は次のように得られる:
p″[−1,7]=(p′[−1,6]+3*p′[−1,7]+2)>>2
マクロブロックMBELがイントラ8×8BLモードで符号化され、ブロックBELがモードHier_Intra_8×8_Verticalに従って予測する場合、ブロックpred8×8Lは次のように構築される:
pred8×8L[x,y]=p″[x′,−1] ここで、x′=0..7およびy′=0..7
予測モードHier_Intra_8×8_Verticalが許されるのは、ピクセルp″[x′,−1]が利用可能である、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックgから生成されたものである場合のみである。
マクロブロックMBELがイントラ8×8BLモードで符号化され、ブロックBELがモードHier_Intra_8×8_Horizontalに従って予測される場合、ブロックpred8×8Lは次のように構築される:
pred8×8L[x,y]=p″[−1,y′] ここで、x′=0..7およびy′=0..7
予測モードHier_Intra_8×8_Horizontalが許されるのは、ピクセルp′[−1,y′]が利用可能である、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックeから生成されたものである場合のみである。
マクロブロックMBELがイントラ8×8BLモードで符号化され、ブロックBELがモードHier_Intra_8×8_DCに従って予測される場合、ブロックpred8×8Lは次のように構築される:
・x=0..7、y=0..7としてピクセルp′[x′,−1]およびピクセルp′[−1,y′]が利用可能である場合、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックから生成されたものである場合、x=0..7、y=0..7として、値pred8×8L[x,y]は次のように決定される:
Figure 2008104188
・上記以外の場合であって、x=0..3としてピクセルp′[x′,−1]の一つが利用可能でなく、かつy=0..3としてピクセルp′[−1,y′]はすべて利用可能である場合、x=0..3、y=0..3として値pred4×4L[x,y]は次のように決定される:
pred4×4L[x,y]=(p′[−1,0]+p′[−1,1]+p′[−1,2]+p′[−1,3]+2)>>2
・上記以外の場合であって、x=0..7としてピクセルp′[x′,−1]の一つが利用可能でなく、かつy=0..7としてピクセルp′[−1,y′]がすべて利用可能である場合、x=0..7、y=0..7として値pred8×8L[x,y]は次のように決定される:
Figure 2008104188
・上記以外の場合であって、y′=0..7としてピクセルp′[−1,y′]のいくつかおよびx′=0..7としてピクセルp′[x′,−1]のすべてが利用可能である場合、x=0..7、y=0..7として値pred8×8L[x,y]は次のように決定される:
Figure 2008104188
・上記以外の場合(x=0..7としていくつかのピクセルp′[x′,−1]およびy=0..7としていくつかのピクセルp′[−1,y′]が利用可能でない場合)、x=0..7、y=0..7として値pred8×8L[x,y]は次のように決定される:
pred8×8L[x,y]=(1<<(BitDepthY−1))
予測モードHier_Intra_4×4_DCは常に使用できる。
マクロブロックMBELがイントラ8×8BLモードで符号化され、ブロックBELがモードHier_Intra_8×8_Diagonal_Up_Rightに従って予測される場合、ブロックpred8×8Lは次のように構築される:
・x′=7かつy′=7の場合、
pred8×8L[x,y]=(p″[14,−1]+3*p″[15,−1]+2)>>2
・その他の場合(すなわち、x′が7に等しくない、またはy′が7に等しくない場合)、
pred8×8L[x,y]=(p″[x′+y′,−1]+2*p″[x′+y′+1,−1]+p″[x′+y′+2,−1]+2)>>2
予測モードHier_Intra_8×8_Diagonal_Up_Rightが許されるのは、x=0..15としてピクセルp′[x′,−1]が利用可能である場合のみである。
マクロブロックMBELがイントラ8×8BLモードで符号化され、ブロックBELがモードHier_Intra_8×8_Diagonal_Up_Leftに従って予測される場合、ブロックpred8×8Lは次のように構築される:
・x′がy′より大きい場合、
pred8×8L[x,y]=(p″[x′−y′−2,−1]+2*p″[x′−y′−1,−1]+p″[x′−y′,−1]+2)>>2
・それ以外で、x′がy′より小さい場合、
pred8×8L[x,y]=(p″[−1,y′−x′−2]+2*p″[−1,y′−x′−1]+p″[−1,y′−x′]+2)>>2
・それ以外の場合(すなわち、x′がy′に等しい場合)、
pred8×8L[x,y]=(p″[0,−1]+2*p″[−1,−1]+p″[−1,0]+2)>>2
予測モードHier_Intra_8×8_Diagonal_Up_Rightが許されるのは、x=0..7、y=0..7としてピクセルp′[x′,−1]およびp′[−1,y′]が利用可能である場合のみである。
マクロブロックMBELがイントラ8×8BLモードで符号化され、ブロックBELがモードHier_Intra_8×8_Vertical_Leftに従って予測される場合、変数zVR′を2*x′−y′に等しいとして、ブロックpred4×4Lは次のように構築される、すなわちx=0..7、y=0..7として:
・zVR′が0,2,4,6,10,12または14に等しい場合、
pred8×8L[x,y]=(p″[x′−(y′>>1)−1,−1]+p″[x′−(y′>>1),−1]+1)>>1
・それ以外の場合で、zVR′が1,3,5,7,9,11または13に等しい場合、
pred8×8L[x,y]=(p″[x′−(y′>>1)−2,−1]+2*p″[x′−(y′>>1)−1,−1]+p″[x′−(y′>>1),−1]+2)>>2
・それ以外の場合で、zVR′が−1に等しい場合、
pred8×8L[x,y]=(p″[−1,0]+2*p″[−1,−1]+p″[0,−1]+2)>>2
・それ以外の場合(すなわちzVR′が−2,−3,−4,−5,−6,−7に等しい場合)、
pred8×8L[x,y]=(p″[−1,y′−2*x′−1]+2*p″[−1,y′−2*x′−2]+p″[−1,y′−2*x′−3]+2)>>2
予測モードHier_Intra_8×8_Vertical_Leftが許されるのは、x=0..7、y=−1..7としてピクセルp′[x′,−1]およびp′[−1,y′]が利用可能である場合のみである。
マクロブロックMBELがイントラ8×8BLモードで符号化され、ブロックBELがモードHier_Intra_8×8_Horizontal_Upに従って予測される場合、変数zHD′を2*y′−x′に等しいとして、ブロックpred8×8Lは次のように構築される、すなわちx′=0..7、y′=0..7として:
・zHD′が0,2,4,6,10,12または14に等しい場合、
pred8×8L[x,y]=(p″[−1,y′−(x′>>1)−1]+p″[−1,y′−(x′>>1)]+1)>>1
・それ以外の場合で、zHD′が1,3,5,7,9,11または13に等しい場合、
pred8×8L[x,y]=(p″[−1,y′−(x′>>1)−2]+2*p″[−1,y′−(x′>>1)−1]+p″[−1,y′−(x′>>1)]+2)>>2
・それ以外の場合で、zHD′が−1に等しい場合、
pred8×8L[x,y]=(p″[−1,0]+2*p″[−1,−1]+p″[0,−1]+2)>>2
・それ以外の場合(すなわちzHD′が−2,−3,−5,−6,−7に等しい場合)、
pred8×8L[x,y]=(p″[x′−2*y′−1,−1]+2*p″[x′−2*y′−2,−1]+p″[x′−2*y′−3,−1]+2)>>2
予測モードHier_Intra_8×8_Horizontal_Upが許されるのは、x=0..7、y=−1..7としてピクセルp′[x′,−1]およびp′[−1,y′]が利用可能である場合のみである。
マクロブロックMBELがイントラ8×8BLモードで符号化され、ブロックBELがモードHier_Intra_8×8_Vertical_Rightに従って予測される場合、ブロックpred8×8Lは次のように構築される、すなわちx′=0..7、y′=0..7として:
・y′=0,2,4または6に等しい場合、
pred8×8L[x,y]=(p″[x′+(y′>>1),−1]+p″[x′+(y′>>1)+1,−1]+1)>>1
・そうでない場合(y′は1,3,5,7に等しい)、
pred8×8L[x,y]=(p″[x′+(y′>>1),−1]+2*p″[x′+(y′>>1)+1,−1]+p″[x′+(y′>>1)+2,−1]+2)>>2
予測モードHier_Intra_8×8_Vertical_Rightが許されるのは、x=0..15としてピクセルp′[x′,−1]が利用可能である場合のみである。
マクロブロックMBELがイントラ8×8BLモードで符号化され、ブロックBELがモードHier_Intra_8×8_Horizontal_Downに従って予測される場合、変数zHU′をx′+2*y′に等しいとして、ブロックpred8×8Lは次のように構築される、すなわちx′=0..7、y′=0..7として:
・zHU′が0,2,4,6,8,10または12に等しい場合、
pred8×8L[x,y]=(p″[−1,y′+(x′>>1)]+p″[−1,y′+(x′>>1)+1]+1)>>1
・それ以外の場合で、zHU′が1,3,5,7,9または11に等しい場合、
pred8×8L[x,y]=(p″[−1,y′+(x′>>1)]+2*p″[−1,y′+(x′>>1)+1]+p″[−1,y′+(x′>>1)+2]+2)>>2
・それ以外の場合で、zHU′が13に等しい場合、
pred8×8L[x,y]=(p″[−1,6]+3*p″[−1,7]+2)>>2
・それ以外の場合(すなわちzHU′が13より大きい場合)、
pred8×8L[x,y]=p″[−1,7]
予測モードHier_Intra_8×8_Horizontal_Downが許されるのは、y=0..7としてピクセルp′[−1,y′]が利用可能である場合のみである。

マクロブロックMBELがイントラ16×16BLモードで符号化される場合、該マクロブロックMBELは次のモードの一つに従って予測される:Hier_Intra_16×16_Vertical、Hier_Intra_16×16_Horizontal、Hier_Intra_16×16_DCおよびHier_Intra_16×16_Plane。
16×16ブロックの予測モードの選択は、レート‐ひずみ型の基準に従ってなされうる。
図12に灰色で示されるマクロブロックMBELを予測するために使われる予測マクロブロックをpred16×16Lと記し、該マクロブロック中の座標(x,y)のピクセルに関連付けられた輝度値を、xがマクロブロック中のピクセルの水平位置を示し、yが垂直位置を示すものとして、pred16×16L[x,y]と記す。ブロックの左上のピクセルが座標(0,0)を有し、右下のピクセルはNをマクロブロックのサイズとして座標(N−1,N−1)を有し、座標(x,y)のピクセルはマクロブロックの列x、行yに位置する。図12を参照するに、第一の軸(X,Y)はマクロブロックの左上のピクセルを原点とするマクロブロックBELに関し、第二の軸(X′,Y′)はブロックMBELの右下のピクセルを原点とするマクロブロックMBELに関する。x′=15−x、y′=15−yおよびp′[x′,y′]=p[15−x′,15−y′]=p[x,y]とする。ここで、p[x,y]は第一の軸における座標(x,y)のピクセルに関する輝度値であり、p′[x′,y′]は第二の軸における座標(x′,y′)のピクセルに関する輝度値である。
マクロブロックMBELがイントラ16×16BLモードで符号化され、モードHier_Intra_16×16_Verticalに従って予測する場合、マクロブロックpred16×16Lは次のように構築される、すなわちx=0..15およびy=0..15として:
pred16×16L[x,y]=p′[x′,−1]
予測モードHier_Intra_16×16_Verticalが許されるのは、ピクセルp′[x′,−1]が利用可能である、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックgから生成されたものである場合のみである。
マクロブロックMBELがイントラ16×16BLモードで符号化され、モードHier_Intra_16×16_Horizontalに従って予測される場合、マクロブロックpred16×16Lは次のように構築される、すなわちx=0..15およびy=0..15として:
pred16×16L[x,y]=p′[−1,y′]
予測モードHier_Intra_16×16_Horizontalが許されるのは、ピクセルp′[−1,y′]が利用可能である、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックeから生成されたものである場合のみである。
マクロブロックMBELがイントラ16×16BLモードで符号化され、モードHier_Intra_16×16_DCに従って予測される場合、マクロブロックpred16×16Lは次のように構築される、すなわちx=0..15およびy=0..15として:
・ピクセルp′[x′,−1]およびピクセルp′[−1,y′]がすべて利用可能である場合、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックgおよびeから生成されたものである場合:
Figure 2008104188
・上記以外の場合であって、ピクセルp′[x′,−1]の一つが利用可能でなく、かつピクセルp′[−1,y′]はすべて利用可能である場合、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックeから生成されたものである場合:
Figure 2008104188
・上記以外の場合であって、ピクセルp′[−1,y′]の一つが利用可能でなく、かつピクセルp′[x′,−1]のすべてが利用可能である場合、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックgから生成されたものである場合:
Figure 2008104188
・上記以外の場合で、ピクセルp′[−1,y′]の一つが利用可能でなく、かつピクセルp′[x′,−1]の一つが利用可能でない場合:
pred16×16L[x,y]=(1<<(BitDepthY−1))
マクロブロックMBELがイントラ16×16BLモードで符号化され、モードHier_Intra_16×16_Planeに従って予測される場合、マクロブロックpred16×16Lは次のように構築される、すなわちx=0..15およびy=0..15として:
・ピクセルp′[x′,−1]およびピクセルp′[−1,y′]がすべて利用可能である場合、すなわち該ピクセルが存在し、かつイントラ・モードで符号化されたBL層のピクセル・ブロックgおよびeから生成されたものである場合:
pred16×16L[x,y]=ClipY( (a′+b′*(x′−7)+c′*(y′−7)+16) >>5 )
ここで、
・ClipY(x)=clip3(0, (1<<BitDepthY)−1, x) ここで、
clip3(x,y,z)=x z<xの場合
=y z>xの場合
=z その他の場合
・a′=16*(p′[−1,15]+p′[15.−1])
・b′=(5*H′+32)>>6
・c′=(5*V′+32)>>6
Figure 2008104188
各色度ブロックは次の4つの予測モードの一つに従って予測される:Hier_Intra_Chroma_DC、Hier_Intra_Chroma_Horizontal、Hier_Intra_Chroma_VerticalおよびHier_Intra_Chroma_Plane。これらのモードはイントラ16×16予測モード、つまりHier_Intra_16×16_DC、Hier_Intra_16×16_Horizontal、Hier_Intra_16×16_VerticalおよびHier_Intra_16×16_Planeとの類推により定義される。両方の色度ブロックに対して常に同じ予測モードが使われる。8×8輝度ブロックの一つがイントラ・モードで符号化されていれば、二つの色度ブロックもイントラで符号化されることを注意しておくべきであろう。
この第三の実施形態は第二の実施形態と同じ利点を有する。すなわち:
・BL層の画像とEL層の画像との間に存在する空間的冗長さを利用する度合いがより大きくなる、すなわちマクロブロックMBELに対応する基本層のブロックBBLがインター・モードで符号化されているときでさえも前記空間的冗長さを利用する。これは、前記ブロックBBLが予測マクロブロックMBpredを構築するために使われないからである;
・近隣マクロブロックA、B、CおよびDから輪郭線によって隔てられているマクロブロックMBELのより効率的な符号化を、該マクロブロックMBELをブロックe、f、gおよび/またはhから予測することによって可能にする;
・EL層を再構成するためにBL層全体を再構成する必要がないような、特にインター・モードで符号化されたBL層のブロックを再構成する、すなわち時間的予測をする必要がないような仕方でマクロブロックMBELを符号化することを可能にする。
さらに、対応するブロックBBLの非因果的な近隣領域に位置するブロックe、f、gおよびhのみが利用される。これは、追加されるモードの数を制限することによって、符号化方法の複雑さを制限する。ブロックe、f、gおよびhはブロックBBLの非因果的な近隣領域にあるので、マクロブロックMBELをEL層のマクロブロックE、F、GおよびH(図2参照)から空間的に予測することが、マクロブロックE、F、GおよびHが非因果的な近隣領域に位置しているためにできない、という事実を克服するために使われる。

本発明はまた、基本層および少なくとも一つの向上層の形で呈示される画像の系列のMBEL recと記されるマクロブロックの再構成を視野に、ビットストリームの一部を復号する方法にも関する。前記マクロブロックMBEL recには基本層においてブロックが対応しており、そのブロックは対応するブロックと呼ばれ、前記マクロブロックは向上層に属する。図7および図8を参照すると、本方法は、ビットストリームの第一の部分から画像データ・ブロックe、f、gおよび/またはhを再構成するためのステップE80を含む。ステップE81の間に、マクロブロックMBEL recを再構成するもとになる、ステップE80で再構成されたブロックe、f、gおよび/またはhが、たとえば双線形補間によりアップサンプリングされる。ステップE82の間に、符号化方法(第一および第二の実施形態)のために上で定義した式から、ステップE83の間に復号されたモードcod_modeに従って、予測マクロブロックMBpredが構築される。図8に示されるある変形によれば、予測マクロブロックMBpredはステップE82′の間に、符号化方法(第三の実施形態)のために上で定義した式から、ステップE83′の間に復号された符号化モードcod_modeおよび可能性としては予測モードblc_mode(s)に従って、構築される。予測マクロブロックMpredを構築するために使われない基本層のブロックを再構成およびアップサンプリングすることは必要ない。予測マクロブロックMpredは、ステップE82またはE82′の間の復号方法によるのと同じようにステップE73またはE73′の間の符号化方法によって構築されている。ステップE83またはE83′の間に、残差のマクロブロックMBEL res_recも前記ビットストリームの第二の部分から再構成される。ステップE84の間に、予測マクロブロックMBpredが再構成された残差のマクロブロックMBEL res_recにピクセルごとに加算される。ステップE84は再構成されたマクロブロックMBEL recを生成する。
図9を参照すると、本発明は、基本層BLおよび少なくとも一つの向上層ELの形で呈示される画像の系列を符号化する装置ENC2に関する。本符号化装置ENC2のモジュールで符号化装置ENC1のモジュールと同一のものは図9では同じ参照符号を使って指定されており、さらなる説明はしない。符号化装置ENC2は符号化モジュールENC_BL1、向上層を符号化するよう適応された新しい符号化モジュールENC_EL2および多重化モジュールMUXを含む。
符号化モジュールENC_EL2は、EL層のマクロブロックを、標準的な符号化モード(すなわちインター・モードまたはイントラ・モード)に従って、すなわち前記マクロブロックを当該EL層の他のマクロブロックから空間的または時間的に予測することによって、符号化するよう適応されている。さらに、基本層の画像と向上層の画像との間の冗長性を減らすため、符号化モジュールENC_EL2は、層間(inter-layer)と呼ばれる符号化モードに従ってBL層の画像データ・ブロックからEL層のマクロブロックを符号化するようにも適応される。すなわち、当該EL層の前記画像データ・マクロブロックをBL層の画像データ・ブロックから予測するのである。図9には、イントラ型のEL層の画像データ・マクロブロックMBELを基本層の画像データ・ブロックから、すなわち層間予測モードに従って予測し、符号化し、前記マクロブロックMBELを符号化するのに必要とされるENC_BL1およびENC_EL1モジュールしか示していない。この図に示されていない、ビデオ符号化器の当業者によく知られた他のモジュール(たとえば動き推定モジュール、空間的予測モジュール、時間的予測モジュールなど)によって、EL層のマクロブロックは、標準的なインター・モード(たとえば双方向モード)に従って、あるいは標準的なイントラ・モード(AVCで定義されるような)に従って、近隣マクロブロックA、B、Cおよび/またはDから符号化できるようになる。図9を参照するに、モジュールENC_EL2は特に符号化モジュール40およびアップサンプリング・モジュール20を含んでいる。モジュールENC_EL2はまた、たとえばレート‐ひずみ型の所定の基準に従ってマクロブロックMBELの符号化モードcod_modeおよび可能性としては該マクロブロックを形成するブロックのそれぞれの予測モードblc_modeをモードの集合のうちから、特に符号化方法について上記した実施形態で定義されているモードのうちから選択するよう適応された決定モジュール15をも含む。最後に、モジュールENC_EL2は、モジュール15によって決定された符号化モードおよび可能性としてはモードblc_mode(s)に従って、モジュール20によってアップサンプリングされたブロックe、f、gおよび/またはhから予測マクロブロックMBpredを生成するよう適応されたモジュール25を含む。モジュールENC_EL2はまた、予測マクロブロックMBpredをマクロブロックMBELからピクセルごとに引き算する引き算モジュール30をも含む。このモジュールは残差のマクロブロックMBEL residuesを生成し、この残差マクロブロックが符号化モジュール40によって符号化される。
図10を参照するに、本発明は、基本層および少なくとも一つの向上層の形で呈示される画像の系列を表すビットストリームを復号する装置DECにも関する。復号装置DECの入力で受信されたビットストリームは多重化解除モジュールDEMUXによって多重化解除されて、基本層に関するビットストリームT_BLおよび向上層に関する少なくとも一つのビットストリームT_ELを生成する。ある変形によれば、多重化解除モジュールDEMUXは復号装置DECの外部である。さらに、復号装置DECは、少なくとも部分的にビットストリームT_BLから基本層を再構成できる第一の復号モジュールDEC_BLを含む。有利なことに、本発明によれば、向上層の画像を再構成するために基本層の画像が完全に再構成されることは必要ではない。実際、第一の復号モジュールDEC_BLは、少なくとも、向上層の画像を再構成するために必要とされる基本層の画像データを再構成しなければならない。装置DECはまた、ビットストリームT_ELおよび可能性としては第一の復号モジュールDEC_BLによって以前に再構成された基本層の画像データから向上層を再構成できる第二の復号モジュールDEC_ELをも含む。第二の復号モジュールDEC_ELは、ビットストリームT_ELの一部から残差のマクロブロックMBEL res_recを再構成し、該再構成された残差のマクロブロックMBEL res_recに関連するモードcod_modeおよび可能性としてはマクロブロックの各ブロックに関連するモードblc_mode(s)を復号するモジュール70を含んでいる。第二の復号モジュールDEC_ELはまた、第一の復号モジュールDEC_BLによって再構成された基本層のブロックをアップサンプリングするモジュール50をも含む。モジュール50は双線形補間フィルタの例である。第二の復号モジュールDEC_ELはまた、モジュール50によってアップサンプリングされた基本層のブロックから、モードcod_modeおよび可能性としてはモードblc_mode(s)に従って予測マクロブロックMBpredを再構成するモジュール60をも有する。さらに、第二の復号モジュールDEC_ELは、モジュール60によって生成された予測マクロブロックMBpredとモジュール70によって再構成された残差のマクロブロックMBEL res_recとをピクセルごとに加算するモジュール80を有する。モジュール80は、MBEL recと記される、向上層のマクロブロックを再構成する。

本発明はまた、EL層のマクロブロックMBELが、基本層の対応するブロックBBLの近隣の少なくとも一つのブロックから層間イントラ・モードに従って符号化されていることを示す、たとえば1ビット上のコードされるフィールド(たとえばhier_intra_bl_flag)を有するMPEGデータ・ビットストリームにも関する。
どんなビデオ符号化規格でも、該規格と互換であるためにすべてのビットストリームが従わなければならないシンタックスを定義している。シンタックスは、具体的には、種々の情報(たとえば、系列に含まれる画像に関するデータ、動きベクトルなど)がどのように符号化されるかを定義する。SVCによれば、基本層はMPEG-4 AVC規格に従って符号化される。提案される新しいMPEG-4 AVCシンタックスは、下で表中に擬似コードとして提示される。この擬似コードは、JVT-T005文書、あるいはより一般にISO/IEC14496-10文書のスケーラビリティに関する部分における規則と同じである。特に、演算子==は「等しい」を表す。演算子!は否定を表す論理演算子である。この表において、追加される情報はイタリックで示されている。
Figure 2008104188
Figure 2008104188
hier_intra_bl_flagはたとえば1ビット上でコードされるフィールドであり、EL層のマクロブロックMBELが、基本層の対応するブロックBBLの近隣の少なくとも一つのブロックから層間型イントラ・モードに従って符号化されているかどうかを示す。

もちろん、本発明は上で言及した実施形態の例に限定されるものではない。特に、SVC規格について記述された発明は、画像の系列をスケーラブル形式で符号化するための別の定義された符号化規格に適用されてもよい。さらに、マクロブロックMBpredまたは予測ブロックpred4×4Lを生成するために、定義されているのとは別の式を使ってもよい。与えられている式は参考用でしかない。
さらに、基本層のブロックe、f、gおよびhについて記載されている符号化方法および復号方法は、前記マクロブロックMBELに対応するブロックBBLを取り巻くブロックa、b、cおよびdについて使うことができる。図11に示される実施形態によれば、予測マクロブロックMBpredは、ブロックa、b、cおよびdのアップサンプリングされたバージョンである一つまたはいくつかのマクロブロックaUP、bUP、cUPおよびdUPから構築される。マクロブロックMBpredはたとえば、MPEG-4 AVC規格で定義される、マクロブロックの空間的予測(すなわちイントラ)のための式から構築されてもよい。これらの式において、マクロブロックAはマクロブロックaUPで、マクロブロックBはマクロブロックbUPで、マクロブロックCはマクロブロックcUPで、マクロブロックDはマクロブロックdUPで置き換えられる。同様に、本発明は、対応するブロックの、必ずしも隣接していない他の近隣ブロックに拡張されてもよい。
もちろん、以上の実施形態を組み合わせることもできる。すると、マクロブロックMBpredはブロックA、B、Cおよび/またはDから、b、c、d、e、f、gおよび/またはhから、あるいはブロックBBLからのいずれでも構築される。その選択は符号化するための、よってたとえばレート‐ひずみ基準に従ってマクロブロックMBELを予測するための方法の決定ステップでなされている。
画像の系列をスケーラブル形式で符号化するための従来技術に基づく装置を示す図である。 向上層のマクロブロックMBELおよび空間的近隣ブロックA、B、C、Dならびに前記マクロブロックMBELに対応する基本層のブロックBBLおよび空間的に近隣のブロックa、b、c、d、e、f、g、hを示す図である。 本発明に基づいてマクロブロックを符号化する方法を示す図である。 向上層のマクロブロックMBELおよび空間的近隣ブロックA、B、C、Dおよび前記マクロブロックMBELに対応する基本層のブロックBBLおよび空間的に近隣のブロックa、b、c、d、e、f、g、hおよびそのアップサンプリングされたバージョンを示す図である。 向上層における輪郭線C1および基本層における輪郭線C2の位置を示す図である。 本発明に基づいてマクロブロックを符号化する方法の第二の実施形態を示す図である。 本発明に基づいてマクロブロックを復号する方法を示す図である。 本発明に基づいてマクロブロックを復号する方法の第二の実施形態を示す図である。 本発明に基づいて画像の系列をスケーラブル形式で符号化する装置を示す図である。 本発明に基づいてスケーラブル形式で符号化された画像の系列を復号する装置を示す図である。 向上層のマクロブロックMBEL、前記マクロブロックMBELに対応する基本層のブロックBBLおよび空間的に近隣のブロックa、b、c、d、e、f、g、hおよびそのアップサンプリングされたバージョンを示す図である。 ピクセルのブロックまたはマクロブロックおよび関連する二つの軸を示す図である。
符号の説明
BL 基本層
EL 向上層
T_BL 基本層に関するビットストリーム
T_EL 向上層に関するビットストリーム
ENC1 符号化装置
ENC2 符号化装置(図9の本願発明)
ENC_BL1 BL層を符号化するための第一の符号化モジュール
ENC_EL1 EL層を符号化するための第二の符号化モジュール
ENC_EL2 EL層を符号化するためのモジュール(図9の本願発明)
BBL 対応する基本層の画像データ・ブロック
BBL rec 再構成された画像データ・ブロック
MBBL UP BBL recをアップサンプリングした画像データ・マクロブロック
MBpred 予測マクロブロック
MBEL EL層の画像データ・マクロブロック
MBEL residues 残差マクロブロック
MBEL res_rec 再構成された残差のマクロブロック
MBEL rec 再構成されたマクロブロック
MUX マルチプレクサ
DEMUX デマルチプレクサ
DEC_BL 基本層を再構成できる第一の復号モジュール
DEC_EL 向上層を再構成できる第二の復号モジュール
DEC 復号装置
a、b、c、d、e、f、g、h 画像データ・ブロック
UP、fUP、gUP、hUP アップサンプリングされた画像データ・マクロブロック
20 アップサンプリング・モジュール
30 引き算モジュール
40 変換、量子化、符号化モジュール
50 アップサンプリング・モジュール
60 予測マクロブロックを再構成するモジュール
70 残差のマクロブロックを再構成し、関連するモードを復号するモジュール
E70 符号化
E71 再構成
E72 アップサンプリング
E73 予測マクロブロック構築
E74 予測マクロブロックを向上層の画像データ・マクロブロックから引き算
E75 変換、量子化、符号化
E80 再構成
E81 アップサンプリング
E82 予測マクロブロック構築
E83 モードを復号
E84 予測マクロブロックを再構成された残差のマクロブロックに加算

Claims (8)

  1. 基本層および少なくとも一つの向上層の形で呈示される画像の系列の画像データ・マクロブロック(MBEL)を符号化する方法であって、前記画像データ・マクロブロック(MBEL)は前記向上層に属しており、前記画像データ・マクロブロック(MBEL)には前記基本層において画像データ・ブロック(BBL)が対応しており、そのブロックは対応するブロックと呼ばれ、当該方法は:
    ・前記画像データ・マクロブロック(MBEL)について、以前に符号化され(E70)、再構成された(E71)前記基本層の画像データの一ブロックないし数ブロックから画像データの予測マクロブロック(MBpred)を生成する(E72、E73、E74)ステップと、
    ・前記予測マクロブロック(MBpred)および向上層の画像データ・マクロブロック(MBEL)から残差のマクロブロック(MBEL residues)を生成する(E74)ステップと、
    ・前記残差のマクロブロック(MBEL residues)を符号化するステップとを有しており、
    前記予測マクロブロック(MBpred)が、対応するブロック(BBL)とは違う基本層の画像データのブロックからのみ生成されることを特徴とする方法。
  2. 基本層の画像データの前記ブロックが、前記対応するブロック(BBL)に隣接する、請求項1記載の方法。
  3. 基本層の画像データの前記ブロックが、前記対応するブロック(BBL)の非因果的な近隣領域に位置するものである、請求項1記載の方法。
  4. 前記予測マクロブロック(MBpred)が、
    ・前記対応するブロック(BBL)の左下にあるブロック;
    ・前記対応するブロック(BBL)の右下にあるブロック;
    ・前記対応するブロック(BBL)のすぐ右にあるブロック;および
    ・前記対応するブロック(BBL)のすぐ下にあるブロック、
    からなる集合に属する基本層の画像データの一ブロックないし数ブロックから生成される、請求項3記載の方法。
  5. 基本層および少なくとも一つの向上層の形で呈示される画像の系列を符号化する装置(ENC2)であって、前記向上層は少なくとも一つの画像データ・マクロブロック(MBEL)を含んでおり、前記画像データ・マクロブロック(MBEL)には前記基本層においてブロック(BBL)が対応しており、そのブロックは対応するブロックと呼ばれ、当該装置(ENC2)は、前記基本層の画像データ・ブロックを符号化するための第一の符号化モジュール(ENC_BL1)と、前記向上層の画像データ・マクロブロックを符号化するための第二の符号化モジュール(ENC_EL2)とを有しており、該第二の符号化モジュール(ENC_EL2)は:
    ・前記向上層の画像データの前記マクロブロック(MBEL)について、前記第一の符号化モジュール(ENC_BL1)によって以前に符号化され、再構成された前記基本層の画像データの一ブロックないし数ブロックから予測マクロブロック(MBpred)を生成する第一の手段(20、25)と、
    ・前記予測マクロブロック(MBpred)および向上層の画像データ・マクロブロック(MBEL)から残差のマクロブロック(MBEL residues)を生成する第二の手段(30)と、
    ・前記残差のマクロブロック(MBEL residues)を符号化する第三の手段(40)とを有しており、
    前記第一の手段(20、25)が、前記予測マクロブロック(MBpred)を、対応するブロック(BBL)とは違う基本層の画像データのブロックからのみ生成するよう適応されていることを特徴とする、装置。
  6. 基本層および少なくとも一つの向上層の形で呈示される画像の系列を表すビットストリームの一部を、前記向上層の画像データ・マクロブロック(MBEL rec)の再構成のために復号する方法であって、前記画像データ・マクロブロック(MBEL rec)には基本層において画像データ・ブロックが対応しており、そのブロックは対応するブロックと呼ばれ、当該復号方法は:
    ・前記画像データ・マクロブロック(MBEL rec)について、前記画像データ・ブロックを表すビットストリームの第一の部分から以前に再構成された(E80)前記基本層の画像データの一ブロックないし数ブロックから予測マクロブロック(MBpred)を生成する(E81、E82、E82′)ステップと、
    ・残差のマクロブロックを表す前記ビットストリームの第二の部分から該残差のマクロブロック(MBEL res_rec)を再構成する(E83、E83′)ステップと、
    ・前記予測マクロブロック(MBpred)および前記再構成された残差のマクロブロック(MBEL res_rec)から前記向上層の前記マクロブロック(MBEL rec)を再構成する(E84)ステップとを有しており、
    前記予測マクロブロック(MBpred)が、対応するブロック(BBL)とは違う基本層の画像データのブロックからのみ生成されることを特徴とする、方法。
  7. 基本層および少なくとも一つの向上層の形で呈示される画像の系列を表すビットストリームの復号装置(DEC)であって、前記基本層の画像データ・ブロックを再構成するよう適応された第一の復号モジュール(DEC_BL)と、前記向上層の画像データ・マクロブロックを再構成するよう適応された第二の復号モジュール(DEC_EL)とを有しており、前記第二の復号モジュール(DEC_EL)は:
    ・対応するブロックと呼ばれる前記基本層の画像データ・ブロックが対応する前記向上層の画像データ・マクロブロック(MBEL rec)について、該画像データ・ブロックを表す前記ビットストリームの第一の部分から前記第一の復号モジュール(DEC_BL)によって以前に再構成された画像データの一ブロックないし数ブロックから予測マクロブロック(MBpred)を生成する第一の手段(50、60)と、
    ・残差のマクロブロックを表す前記ビットストリームの第二の部分から残差のマクロブロック(MBEL res_rec)を再構成する第二の手段(70)と、
    ・前記予測マクロブロック(MBpred)および前記再構成された残差のマクロブロック(MBEL res_rec)から前記画像データ・マクロブロック(MBEL rec)を再構成する第三の手段(80)とを有しており、
    前記第一の手段(20、25)が、前記予測マクロブロック(MBpred)を、対応するブロック(BBL)とは違う基本層の画像データのブロックからのみ生成するよう適応されていることを特徴とする、復号装置。
  8. 基本層および少なくとも一つの向上層の形で呈示される画像の系列を表す符号化されたデータ・ストリームであって、前記向上層の画像データ・マクロブロック(MBEL)に関連する二値データを含んでおり、該画像データ・マクロブロック(MBEL)には前記基本層の画像データ・ブロック(BBL)が対応しており、前記二値データは、前記マクロブロック(MBEL)が、対応するブロック(BBL)とは違う基本層の画像データのブロックからのみ符号化されていることを示すものであることを特徴とする、データ・ストリーム。
JP2007271308A 2006-10-19 2007-10-18 画像の系列をスケーラブル形式で符号化する装置および方法ならびに対応する復号装置および方法 Withdrawn JP2008104188A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0654367A FR2907630A1 (fr) 2006-10-19 2006-10-19 Dispositif et procede de codage sous forme scalable d'une sequence d'images et dispositif et procede de decodage correspondants

Publications (1)

Publication Number Publication Date
JP2008104188A true JP2008104188A (ja) 2008-05-01

Family

ID=38180040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007271308A Withdrawn JP2008104188A (ja) 2006-10-19 2007-10-18 画像の系列をスケーラブル形式で符号化する装置および方法ならびに対応する復号装置および方法

Country Status (6)

Country Link
US (1) US20080260043A1 (ja)
EP (1) EP1914996A2 (ja)
JP (1) JP2008104188A (ja)
KR (1) KR20080035497A (ja)
CN (1) CN101184240A (ja)
FR (1) FR2907630A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010095556A1 (ja) * 2009-02-19 2010-08-26 ソニー株式会社 画像処理装置および方法
JPWO2010095557A1 (ja) * 2009-02-19 2012-08-23 ソニー株式会社 画像処理装置および方法
JP2014131265A (ja) * 2012-12-28 2014-07-10 Panasonic Corp 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置及び画像符号化復号装置
US8934531B2 (en) 2009-02-19 2015-01-13 Sony Corporation Image processing apparatus and method
JP2015530828A (ja) * 2012-08-31 2015-10-15 クゥアルコム・インコーポレイテッドQualcomm Incorporated スケーラブル映像コーディングに関するイントラ予測改良

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100939917B1 (ko) 2008-03-07 2010-02-03 에스케이 텔레콤주식회사 움직임 예측을 통한 부호화 시스템 및 움직임 예측을 통한부호화 방법
RU2506711C2 (ru) * 2008-07-25 2014-02-10 Сони Корпорейшн Способ и устройство обработки изображения
US8767816B2 (en) * 2009-07-10 2014-07-01 Samsung Electronics Co., Ltd. Spatial prediction method and apparatus in layered video coding
KR101066117B1 (ko) * 2009-11-12 2011-09-20 전자부품연구원 스케일러블 영상 코딩 방법 및 장치
JP5625342B2 (ja) * 2009-12-10 2014-11-19 ソニー株式会社 画像処理方法、画像処理装置、プログラム
JP5428886B2 (ja) * 2010-01-19 2014-02-26 ソニー株式会社 情報処理装置、情報処理方法、及びそのプログラム
KR20120086232A (ko) * 2011-01-25 2012-08-02 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
JP5703781B2 (ja) 2010-09-03 2015-04-22 ソニー株式会社 画像処理装置および方法
WO2013139212A1 (en) * 2012-03-21 2013-09-26 Mediatek Singapore Pte. Ltd. Method and apparatus for intra mode derivation and coding in scalable video coding
US9420285B2 (en) 2012-04-12 2016-08-16 Qualcomm Incorporated Inter-layer mode derivation for prediction in scalable video coding
US9491458B2 (en) * 2012-04-12 2016-11-08 Qualcomm Incorporated Scalable video coding prediction with non-causal information
CN104412593B (zh) * 2012-07-03 2018-11-06 夏普株式会社 图像解码装置以及图像编码装置
US10375405B2 (en) * 2012-10-05 2019-08-06 Qualcomm Incorporated Motion field upsampling for scalable coding based on high efficiency video coding
US9955177B2 (en) 2012-11-15 2018-04-24 Mediatek Inc. Inter-layer texture coding with adaptive transform and multiple inter-layer motion candidates
US20140185671A1 (en) * 2012-12-27 2014-07-03 Electronics And Telecommunications Research Institute Video encoding and decoding method and apparatus using the same
FR3008840A1 (fr) * 2013-07-17 2015-01-23 Thomson Licensing Procede et dispositif de decodage d'un train scalable representatif d'une sequence d'images et procede et dispositif de codage correspondants

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100679031B1 (ko) * 2004-12-03 2007-02-05 삼성전자주식회사 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치
KR100703748B1 (ko) * 2005-01-25 2007-04-05 삼성전자주식회사 다 계층 기반의 비디오 프레임을 효율적으로 예측하는 방법및 그 방법을 이용한 비디오 코딩 방법 및 장치
WO2006080779A1 (en) * 2005-01-25 2006-08-03 Samsung Electronics Co., Ltd. Method of effectively predicting multi-layer based video frame, and video coding method and apparatus using the same
KR100725407B1 (ko) * 2005-07-21 2007-06-07 삼성전자주식회사 방향적 인트라 잔차 예측에 따라 비디오 신호를 인코딩하고디코딩하는 방법 및 장치
KR100746011B1 (ko) * 2005-08-24 2007-08-06 삼성전자주식회사 잔차 예측의 성능 개선 방법, 상기 방법을 이용한 비디오인코더 및 비디오 디코더
KR100891663B1 (ko) * 2005-10-05 2009-04-02 엘지전자 주식회사 비디오 신호 디코딩 및 인코딩 방법
EP1977609A4 (en) * 2006-01-09 2015-02-18 Lg Electronics Inc INTER-LAYER PREDICTION PROCEDURE FOR A VIDEO SIGNAL
US9014280B2 (en) * 2006-10-13 2015-04-21 Qualcomm Incorporated Video coding with adaptive filtering for motion compensated prediction

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010095556A1 (ja) * 2009-02-19 2010-08-26 ソニー株式会社 画像処理装置および方法
US8934531B2 (en) 2009-02-19 2015-01-13 Sony Corporation Image processing apparatus and method
JPWO2010095557A1 (ja) * 2009-02-19 2012-08-23 ソニー株式会社 画像処理装置および方法
US8457422B2 (en) 2009-02-19 2013-06-04 Sony Corporation Image processing device and method for generating a prediction image
US10721480B2 (en) 2009-02-19 2020-07-21 Sony Corporation Image processing apparatus and method
US8824542B2 (en) 2009-02-19 2014-09-02 Sony Corporation Image processing apparatus and method
JPWO2010095556A1 (ja) * 2009-02-19 2012-08-23 ソニー株式会社 画像処理装置および方法
US8995779B2 (en) 2009-02-19 2015-03-31 Sony Corporation Image processing device and method for generating a prediction image
US10931944B2 (en) 2009-02-19 2021-02-23 Sony Corporation Decoding device and method to generate a prediction image
US9277235B2 (en) 2009-02-19 2016-03-01 Sony Corporation Image processing apparatus and method
US9282345B2 (en) 2009-02-19 2016-03-08 Sony Corporation Image processing apparatus and method
US9462294B2 (en) 2009-02-19 2016-10-04 Sony Corporation Image processing device and method to enable generation of a prediction image
US9872020B2 (en) 2009-02-19 2018-01-16 Sony Corporation Image processing device and method for generating prediction image
US10321136B2 (en) 2009-02-19 2019-06-11 Sony Corporation Image processing apparatus and method
US10334244B2 (en) 2009-02-19 2019-06-25 Sony Corporation Image processing device and method for generation of prediction image
US10491919B2 (en) 2009-02-19 2019-11-26 Sony Corporation Image processing apparatus and method
JP2015530828A (ja) * 2012-08-31 2015-10-15 クゥアルコム・インコーポレイテッドQualcomm Incorporated スケーラブル映像コーディングに関するイントラ予測改良
JP2014131265A (ja) * 2012-12-28 2014-07-10 Panasonic Corp 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置及び画像符号化復号装置

Also Published As

Publication number Publication date
FR2907630A1 (fr) 2008-04-25
CN101184240A (zh) 2008-05-21
US20080260043A1 (en) 2008-10-23
EP1914996A2 (en) 2008-04-23
KR20080035497A (ko) 2008-04-23

Similar Documents

Publication Publication Date Title
JP2008104188A (ja) 画像の系列をスケーラブル形式で符号化する装置および方法ならびに対応する復号装置および方法
CN111869212B (zh) 视频解码方法、装置和可读介质
EP2829066B1 (en) Method and apparatus of scalable video coding
US7847861B2 (en) Method and apparatus for encoding video pictures, and method and apparatus for decoding video pictures
CN106851319B (zh) 推导方法及推导装置
EP2719183B1 (en) Method and apparatus of scalable video coding
US10091515B2 (en) Method and apparatus for intra mode derivation and coding in scalable video coding
JP6432662B2 (ja) 映像符号化装置、映像符号化方法及びプログラム
CN111937326B (zh) 视频解码方法、装置和可读存储介质
KR20140122189A (ko) 계층 간 결합된 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 그 장치
CN115004700A (zh) 用于视频编码的方法和装置
CN112073720B (zh) 视频解码的方法和装置、计算机设备和存储介质
KR20080002936A (ko) 하나 이상의 디지털 영상을 인코딩하는 방법, 인코더 및컴퓨터 프로그램 생성물
US9167266B2 (en) Method for deriving motion for high resolution pictures from motion data of low resolution pictures and coding and decoding devices implementing said method
CN113574895A (zh) 帧间位置相关的预测组合模式的改进
CA3133354A1 (en) Method for parameter set reference in coded video stream
EP4088474A1 (en) Method and apparatus for video coding
CN116998153A (zh) 基于多个预测模式的交叉通道预测
CN116806427A (zh) 用于基于偏移的修正和多参考行选择的协调设计

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101015

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110927