JP2016526848A - マルチレイヤビデオコーディングのためのレイヤ間予測シグナリングに対する最適化 - Google Patents

マルチレイヤビデオコーディングのためのレイヤ間予測シグナリングに対する最適化 Download PDF

Info

Publication number
JP2016526848A
JP2016526848A JP2016524293A JP2016524293A JP2016526848A JP 2016526848 A JP2016526848 A JP 2016526848A JP 2016524293 A JP2016524293 A JP 2016524293A JP 2016524293 A JP2016524293 A JP 2016524293A JP 2016526848 A JP2016526848 A JP 2016526848A
Authority
JP
Japan
Prior art keywords
layer
parameter set
video
picture
layers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016524293A
Other languages
English (en)
Other versions
JP2016526848A5 (ja
Inventor
チェン、ジャンレ
チェン、イン
ワン、イェ−クイ
ラパカ、クリシュナカンス
ヘンドライ、フヌ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016526848A publication Critical patent/JP2016526848A/ja
Publication of JP2016526848A5 publication Critical patent/JP2016526848A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

ビデオデータをコーディングする方法は、ビデオ情報の1つまたは複数のレイヤを受け取ることを含む。各レイヤは、少なくとも1つのピクチャを含むことができる。この方法は、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定することを含むことができる。この方法は、1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定することをさらに含むことができる。直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、この方法は、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えることをさらに含むことができる。それに加えてまたはその代わりに、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、この方法は、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加することを含むことができる。

Description

[0001]本開示は、全般的にはビデオコーディングと圧縮とに関し、具体的には、スケーラブルビデオコーディング(scalable video coding、SVC)と、マルチビュービデオコーディングと、3Dビデオコーディングとに関する。
[0002]デジタルビデオ能力は、デジタルテレビジョン、デジタル直接ブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータもしくはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレイヤ、ビデオゲーミングデバイス、ビデオゲーム機、セルラー電話機もしくは衛星無線電話機、いわゆる「スマートフォン」、ビデオ会議デバイス、ビデオストリーミングデバイス、および類似物を含む広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part 10,Advanced Video Coding(AVC)、現在開発中の高効率ビデオコーディング(High Efficiency Video Coding、HEVC)標準規格、およびそのような標準規格の拡張に記載されたものなどのビデオコーディング技法を実施する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報を送信、受信、符号化、復号、および/または記憶することができる。
[0003]ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間(イントラピクチャ)予測および/または時間(インターピクチャ)予測を含む。ブロックベースのビデオコーディングでは、ビデオスライス(たとえば、ビデオフレームまたはビデオフレームの一部分)は、ツリーブロック、コーディングユニット(CU)、および/またはコーディングノードと呼ばれることもある、ビデオブロックに区分され得る。ピクチャのイントラコーディングされた(I)スライス内のビデオブロックは、同一ピクチャ内の隣接ブロック内の参照サンプルに関する空間予測を使用して符号化される。ピクチャのインターコーディングされた(PまたはB)スライス内のビデオブロックは、同一ピクチャ内の隣接ブロック内の参照サンプルに関する空間予測または他の参照ピクチャ内の参照サンプルに関する時間予測を使用することができる。ピクチャは、フレームと呼ばれる場合があり、参照ピクチャは、参照フレームと呼ばれる場合がある。
[0004]空間予測または時間予測は、コーディングされるブロックに関する予測ブロックをもたらす。残差データは、コーディングされるオリジナルブロックと予測ブロックとの間のピクセル差を表す。インターコーディングされたブロックは、予測ブロックを形成する参照サンプルのブロックをポイントする動きベクトルと、コーディングされたブロックと予測ブロックとの間の差を示す残差データとに従って符号化される。イントラコーディングされたブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて、残差変換係数が得られ得、その残差変換係数は、量子化され得る。量子化された変換係数は、当初は2次元配列内に配置され、変換係数の1次元ベクトルを作るためにスキャンされ得、さらなる圧縮を達成するために、エントロピーコーディングが適用され得る。
[0005]いくつかの実施形態によれば、ビデオ情報を符号化するように構成された装置は、プロセッサとメモリとを備える。メモリは、ビデオ情報の1つまたは複数のレイヤ(たとえば、ビュー)を記憶するように構成され得、各レイヤが少なくとも1つのピクチャを備える。プロセッサは、メモリと通信している。プロセッサは、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定するように構成され得る。プロセッサは、1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定するようにさらに構成され得る。プロセッサは、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいかどうかを決定するようにさらに構成され得る。プロセッサは、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えるようにさらに構成され得る。
[0006]いくつかの実施形態では、プロセッサは、スライスヘッダまたはピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの個数を指定する第1のインジケータを処理するようにさらに構成され得る。プロセッサは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの個数を指定する第2のインジケータを処理するようにさらに構成され得る。いくつかの実施形態では、プロセッサは、少なくともインジケータを生成することによって、インジケータを処理するように構成され得る。
[0007]いくつかの実施形態では、プロセッサは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内でインジケータをシグナリングすることによってインジケータを処理するように構成される。
[0008]いくつかの実施形態では、プロセッサは、任意のビデオスライスのスライスヘッダ内にレイヤ間参照ピクチャ情報シグナリングに関する任意のさらなるシンタックス要素(syntax element)を含めることを控えることによって、レイヤ間参照ピクチャ情報をさらにシグナリングすることを控えるように構成される。直接参照レイヤピクチャは、各時間サブレイヤ内のレイヤごとにビデオパラメータセット内で指定されるレイヤ内のピクチャを備えることができる。
[0009]いくつかの実施形態では、装置は、メモリとプロセッサとを備える、デジタルテレビジョン、デジタル直接ブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータもしくはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレイヤ、ビデオゲーミングデバイス、ビデオゲーム機、セルラー電話機もしくは衛星無線電話機、およびビデオ会議デバイスをさらに備える。
[0010]別の実施形態では、ビデオ情報を復号するように構成された装置は、プロセッサとメモリとを含む。メモリは、ビデオ情報の1つまたは複数のレイヤ(たとえば、ビュー)を記憶するように構成され得、各レイヤが少なくとも1つのピクチャを備える。プロセッサは、メモリと通信している。プロセッサは、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定するように構成され得る。プロセッサは、1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定するようにさらに構成され得る。プロセッサは、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいかどうかを決定するようにさらに構成され得る。プロセッサは、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセット(reference picture set)に追加するようにさらに構成され得る。
[0011]いくつかの実施形態では、プロセッサは、スライスヘッダまたはピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの個数を指定する第1のインジケータを処理するようにさらに構成され得る。プロセッサは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの個数を指定する第2のインジケータを処理するようにさらに構成され得る。いくつかの実施形態では、プロセッサは、少なくともインジケータを受け取ることによって、インジケータを処理するように構成され得る。
[0012]いくつかの実施形態では、プロセッサは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内でインジケータを受け取ることによってインジケータを処理するように構成される。
[0013]いくつかの実施形態では、プロセッサは、任意のビデオスライスのスライスヘッダ内でレイヤ間シグナリングに関するシンタックス要素を受け取らずに、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加するように構成される。直接参照レイヤピクチャは、各時間サブレイヤ内のレイヤごとにビデオパラメータセット内で指定されるレイヤ内のピクチャを備えることができる。
[0014]装置は、メモリとプロセッサとを備える、デジタルテレビジョン、デジタル直接ブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータもしくはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレイヤ、ビデオゲーミングデバイス、ビデオゲーム機、セルラー電話機もしくは衛星無線電話機、およびビデオ会議デバイスのうちの少なくとも1つをさらに備えることができる。
[0015]別の実施形態では、ビデオ情報を符号化する方法は、ビデオ情報の1つまたは複数のレイヤを受け取ることと、各レイヤが少なくとも1つのピクチャを備える、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定することと、1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定することと、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいかどうかを決定することと、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えることとを含む。符号化の方法は、スライスヘッダまたはピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの個数を指定する第1のインジケータを生成することと、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの個数を指定する第2のインジケータを生成することとをさらに含むことができる。
[0016]別の実施形態では、ビデオ情報を復号する方法は、ビデオ情報の1つまたは複数のレイヤを受け取ることと、各レイヤが少なくとも1つのピクチャを備える、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定することと、1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定することと、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいかどうかを決定することと、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加することとを含む。復号する方法は、スライスヘッダまたはピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤの個数を指定する第1のインジケータを受け取ることと、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの個数を指定する第2のインジケータを受け取ることとをさらに含むことができる。
[0017]別の実施形態では、ビデオコーディング装置は、ビデオ情報の1つまたは複数のレイヤを記憶するための手段と、各レイヤが少なくとも1つのピクチャを備える、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定するための手段と、1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定するための手段と、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいかどうかを決定するための手段と、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加することとを含むことができる。
[0018]別の実施形態では、実行された時に、装置に、ビデオ情報の1つまたは複数のレイヤを受け取らせ、各レイヤが少なくとも1つのピクチャを備える、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定させ、1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定させ、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいかどうかを決定させ、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加させるコードをその上に記憶された非一時的コンピュータ可読媒体。
[0019]本開示で説明される態様による技法を利用することができる、例のビデオ符号化および復号システムを示すブロック図。 [0020]本開示で説明される態様による技法を実施することができる、ビデオエンコーダの例を示すブロック図。 [0021]本開示で説明される態様による技法を実施することができる、ビデオデコーダの例を示すブロック図。 [0022]本開示の態様による3つの異なる次元でのスケーラビリティを示すブロック図。 [0023]本開示の態様によるスケーラブルビデオコーディング(SVC)のビットストリームの例の構造を示すブロック図。 [0024]本開示の態様によるビットストリーム内の例のSVCアクセスユニットを示すブロック図。 [0025]一実施形態に従ってビデオデータを符号化する例の方法を示す図。 [0026]一実施形態に従ってビデオデータを復号する方法を示す図。 [0027]一実施形態に従ってビデオデータを符号化する例の方法を示す図。 [0028]一実施形態に従ってビデオデータを復号する方法を示す図。
[0029]本開示で説明される技法は、一般に、スケーラブルビデオコーディング(SVC)および/またはマルチビュー/3Dビデオコーディングに関する。たとえば、技法は、高効率ビデオコーディング(HEVC)スケーラブルビデオコーディング(SVC)拡張に関するものとされ得、それを伴って、またはそれの中で使用されてもよい。SVCでは、ビデオ情報の複数のレイヤが存在し得る。ビデオ情報の最下部のレベルすなわち最も低いレベルのレイヤは、ベースレイヤ(BL)または参照レイヤ(RL)として働くことができ、ビデオ情報の最上部のレベルすなわち最も高いレベルのレイヤは、エンハンストレイヤ(EL)として働くことができる。「エンハンストレイヤ」は、「エンハンスメントレイヤ」と同義であると考えられ得、これらの用語は、交換可能に使用される場合がある。BLとELとの間のレイヤは、ELおよび/またはRLとして働くことができる。たとえば、所与のレイヤは、ベースレイヤまたは間に入る任意のエンハンスメントレイヤなどの、所与のレイヤよりも下の(たとえば、先行する)レイヤのためのELであり得る。さらに、所与のレイヤは、所与のレイヤよりも上の(たとえば、後続の)エンハンスメントレイヤのための参照レイヤとして働くこともできる。ベースレイヤ(たとえば、レイヤ識別(ID)が「1」に設定されているか、または「1」と等しい、たとえば、最下レイヤ)とトップレイヤ(すなわち、最上レイヤ)との間にある任意の所与のレイヤは、所与のレイヤに関してより上位のレイヤによるレイヤ間予測のための参照として使用され得、レイヤ間予測のための参照として所与のレイヤよりも下位のレイヤを使用して、決定され得る。
[0030]例示のみのために、本開示で説明される技法が、2つのレイヤ(たとえば、参照レイヤなどの下位レベルレイヤと、エンハンストレイヤなどの上位レベルレイヤ)だけを含む例を用いて説明される場合がある。本開示で説明される例が、複数のベースレイヤまたは参照レイヤとエンハンスメントレイヤとを有する例にも拡張され得ることを理解されたい。加えて、説明を簡単にするために、以下の開示は「フレーム」または「ブロック」という用語を主に使用する。しかしながら、これらの用語は、限定的であることを意図されたものではない。たとえば、下で説明される技法は、ブロック(たとえば、CU、PU、TU、マクロブロックなど)、スライス、ピクチャ、その他などの異なるビデオユニットと共に使用され得る。
[0031]HEVC拡張のレイヤ間予測(ILP)は、一般に、スライスヘッダ内でのレイヤ間参照ピクチャ情報のシグナリングに関する問題と短所とを有する。たとえば、スライスヘッダ内でのレイヤ間参照ピクチャ情報のシグナリングは、直接参照レイヤの個数が0より多い限り、非ベースレイヤピクチャに関して必要である。参照レイヤは、レイヤ間予測に参照レイヤを利用して、所与のエンハンスメントレイヤに基づいて所与のエンハンスメントレイヤへの直接参照レイヤを構成する。しかしながら、多くの通常のシナリオに関して、スライスごとにレイヤ間参照ピクチャ情報を変更する必要がない場合があり(たとえば、レイヤ間参照ピクチャ情報が、あるスライスヘッダから次のスライスヘッダへ同一のままになる場合がある)、および/またはスライスヘッダ内でレイヤ間参照ピクチャ情報をシグナリングする必要が全くない場合がある。これらの状況では、スライスヘッダ内でレイヤ間予測に使用されるシグナリングビットが、不要になり、これらのシグナリングビットを含めることが、コーディング効率を下げる。これらの状況は、通常のマルチビュービデオコーディングシナリオにおいて、ビデオパラメータセット(VPS)内で指定されるレイヤ間参照ピクチャセット(RPS)内の直接参照レイヤピクチャのすべてが、レイヤ間予測に使用される可能性があり、直接参照レイヤピクチャのすべてが、現在のピクチャの少なくとも1つの参照ピクチャリストに挿入される可能性がある状況を含む。それに加えてまたはその代わりに、直接参照レイヤの個数が、ビデオ情報に関連付けられたアクティブ参照レイヤピクチャの個数と等しい時には、レイヤ間予測をシグナリングする必要がない。
[0032]いくつかの実施形態では、2つ以上のレイヤをサポートしながらも、低いコーディング(たとえば、復号、符号化)複雑さを提供するシステムと方法とが提供される。本明細書で説明される技法は、HEVCのマルチビュー拡張または3DV拡張、ならびに任意の他のコーディングフレームワーク、たとえばH.264/AVCに基づく同様のスケーラブル、マルチビュー、および/または3DVのコーディングシナリオにも適用される(レイヤがビューまたはビューのテクスチャもしくは深度部分としても考えられ得るので)。
[0033]2つ以上のレイヤを有するビデオ情報に関するコーディング複雑さを減らすために、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数が、決定され得る。1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数が、決定され得る。直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいかどうかが、決定され得る。直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でのレイヤ間参照ピクチャ情報のさらなるシグナリングを控えることができる。
[0034]いくつかの実施形態では、ビデオエンコーダは、スライスヘッダまたはピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの個数を指定する第1のインジケータを処理することができる。ビデオエンコーダは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの個数を指定する第2のインジケータを処理することもできる。ビデオエンコーダは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内でインジケータをシグナリングすることによって、インジケータを処理することができる。いくつかの実施形態では、ビデオエンコーダは、任意のビデオスライスのスライスヘッダ内にレイヤ間シグナリングに関する任意のさらなるシンタックス要素を含めることを控えることによって、レイヤ間参照ピクチャ情報のさらなるシグナリングを控えることができる。
[0035]いくつかの実施形態では、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数が、決定され得る。1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数が、決定され得る。直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいかどうかが、決定され得る。直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスのすべての直接参照レイヤピクチャが、レイヤ間参照ピクチャセットに追加され得る。いくつかの実施形態では、スライスヘッダまたはピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの個数を指定する第1のインジケータが、受け取られ得る。いくつかの実施形態では、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの個数を指定する第2のインジケータが、受け取られ得る。
[0036]加えて、ビデオデコーダは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内からインジケータを受け取ることによって、インジケータを処理することができる。いくつかの実施形態では、ビデオデコーダは、任意のビデオスライスのスライスヘッダ内でレイヤ間シグナリングに関する任意のさらなるシンタックス要素を受け取らずに、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスのすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加することができる。
ビデオコーディング標準規格
[0037]本明細書で説明されるある種の実施形態は、HEVC(高効率ビデオコーディング)などの高度なビデオコーデックの文脈でのスケーラブルビデオコーディングのためのレイヤ間予測に関する。より具体的には、本開示は、スケーラブルビデオコーディング(SVC)、マルチビュービデオコーディング、および/またはHEVCの3Dビデオコーディング拡張でのレイヤ間予測の改善された性能のためのシステムと方法とに関する。下の説明では、ある種の実施形態に関するH.264/AVC技法が説明され、HEVC標準規格および関連する技法も議論される。ある種の実施形態が、本明細書でHEVC標準規格および/またはH.264標準規格の文脈で説明されるが、当業者は、本明細書で開示されるシステムおよび方法が、任意の適切なビデオコーディング標準規格に適用可能とされ得ることを了解することができる。たとえば、本明細書で開示される実施形態は、以下の標準規格、すなわち、ITU−T H.261、ISO/IEC MPEG−1ビジュアルと、ITU−T H.262もしくはISO/IEC MPEG−2ビジュアルと、ITU−T H.263、ISO/IEC MPEG−4ビジュアルと、そのスケーラブルビデオコーディング(SVC)拡張およびマルチビュービデオコーディング(MVC)拡張を含むITU−T H.264(ISO/IEC MPEG−4 AVCとも呼ばれる)とのうちの1つまたは複数に適用可能とされ得る。
[0038]スケーラブルビデオコーディング(SVC)は、品質(信号対雑音比(SNR)とも呼ばれる)スケーラビリティ、空間スケーラビリティ、および/または時間スケーラビリティを提供するために使用され得る。たとえば、一実施形態では、参照レイヤ(たとえば、ベースレイヤ)は、第1の品質レベルでビデオを表示するのに十分なビデオ情報を含み、エンハンスメントレイヤは、参照レイヤとエンハンスメントレイヤとが、一緒に、第1のレベルより高い第2の品質レベル(たとえば、より少ないノイズ、より高い解像度、より良いフレームレートなど)でビデオを表示するのに十分なビデオ情報を含むように、参照レイヤに対して追加のビデオ情報を含む。エンハンストレイヤは、ベースレイヤとは異なる空間分解能を有することができる。たとえば、ELとBLとの間の空間アスペクト比は、1.0、1.5、2.0、または他の異なる比とされ得る。言い換えると、ELの空間アスペクトは、BLの空間アスペクトの1.0倍、1.5倍、または2.0倍と等しくされ得る。いくつかの例では、ELのスケーリング係数は、BLより大きくされ得る。たとえば、EL内のピクチャのサイズは、BL内のピクチャのサイズより大きくされ得る。この形で、ELの空間分解能がBLの空間分解能より高いことを可能にすることができるが、これは、限定ではない。
[0039]H.264のSVC拡張では、現在のブロックの予測は、SVCに関して提供される異なるレイヤを使用して実行され得る。そのような予測は、レイヤ間予測と呼ばれる場合がある。レイヤ間予測方法は、レイヤ間冗長性を減らすためにSVCにおいて利用され得る。レイヤ間予測のいくつかの例は、レイヤ間イントラ予測と、レイヤ間動き予測と、レイヤ間モード予測と、レイヤ間残差予測とを含むことができる。レイヤ間イントラ予測は、エンハンスメントレイヤ内の現在のブロックを予測するのにベースレイヤ内の配列されたブロックの再構成を使用する。レイヤ間動き予測は、エンハンスメントレイヤ内の動きを予測するのにベースレイヤの動きを使用する。レイヤ間モード予測は、ベースレイヤ内のモードに基づいて、エンハンスメントレイヤ内のモードを予測する。レイヤ間残差予測は、エンハンスメントレイヤの残差を予測するのにベースレイヤの残差を使用する。
[0040]新規のシステムと、装置と、方法との様々な態様が、添付図面を参照して以下でより十分に説明される。しかしながら、本開示は、多数の異なる形で実施され得、本開示全体を通じて提示される特定の構造または機能に限定されると解釈されてはならない。そうではなく、これらの態様は、本開示が完全になり、当業者に本開示の範囲を十分に伝えるようにするために提供されるものである。本明細書の教示に基づいて、当業者は、本開示の範囲が、本発明の任意の他の態様と独立に実施されようとそれらと組み合わされようと、本明細書で開示される新規のシステムと、装置と、方法とのすべての態様を包含することが意図されていることを了解するに違いない。たとえば、本明細書で示される態様のうちの任意の個数を使用して、装置を実施することができ、あるいは、方法を実践することができる。加えて、本発明の範囲は、本明細書で示される本発明の様々な態様に加えて、またはそれら以外の他の構造、機能性、または構造と機能性とを使用して実践される装置または方法を包含することが意図されている。本明細書で開示されるすべての態様が、ある請求項の1つまたは複数の要素によって実施され得ることを理解されたい。
[0041]特定の態様が本明細書で説明されるが、これらの態様の多数の変形と置換とが、本開示の範囲に含まれる。好ましい態様のいくつかの利益と利点とが言及されるが、本開示の範囲は、特定の利益、使用、または目的に限定されることを意図されてはいない。そうではなく、本開示の諸態様は、その一部が例として図面と好ましい態様の以下の説明とに示される、異なるワイヤレス技術と、システム構成と、ネットワークと、伝送プロトコルとに幅広く適用可能であることが意図されている。詳細な説明と図面とは、単に、限定的であるのではなく本開示の実例となるものであり、本開示の範囲は、添付の特許請求の範囲とその同等物とによって定義される。
[0042]図1は、本開示で説明される態様による技法を利用することができる、例のビデオ符号化および復号システムを示すブロック図である。図1に示されているように、システム10は、宛先デバイス14によって後刻に復号される符号化されたビデオデータを提供するソースデバイス12を含む。具体的には、ソースデバイス12は、コンピュータ可読媒体16を介して宛先デバイス14にビデオデータを供給する。ソースデバイス12と宛先デバイス14とは、デスクトップコンピュータ、ノートブック(たとえば、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話送受話器、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレイヤ、ビデオゲーム機、ビデオストリーミングデバイス、または類似物を含む、広範囲のデバイスのいずれをも備えることができる。加えて、いくつかの実施形態では、システム10は、単一のデバイス内に実装され得る。たとえば、電話送受話器を含む、任意のそのような単一のデバイスが、ソースデバイス12と宛先デバイス14の両方、ならびにコンピュータ可読媒体16を備えることができる。いくつかの場合に、ソースデバイス12と宛先デバイス14とは、ワイヤレス通信のための備えを有することができる。
[0043]宛先デバイス14は、コンピュータ可読媒体16を介して、復号されるべき符号化されたビデオデータを受け取ることができる。コンピュータ可読媒体16は、ソースデバイス12から宛先デバイス14に符号化されたビデオデータを移動することができる、すべてのタイプの媒体またはデバイスを備えることができる。一例では、コンピュータ可読媒体16は、ソースデバイス12が宛先デバイス14に直接にリアルタイムで符号化されたビデオデータを送信することを可能にする通信媒体を備えることができる。符号化されたビデオデータは、ワイヤレス通信プロトコルなどの通信標準規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、ラジオ周波数(RF)スペクトルまたは1つもしくは複数の物理伝送線など、任意のワイヤレス通信媒体または有線通信媒体を備えることができる。通信媒体は、ローカルエリアネットワーク、広域ネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースのネットワークの一部を形成することができる。通信媒体は、ソースデバイス12から宛先デバイス14への通信を容易にするのに有用とすることのできる、ルータ、スイッチ、基地局、または任意の他の機器を含むことができる。
[0044]いくつかの例では、符号化されたデータは、出力インターフェース22からストレージデバイスに出力され得る。同様に、符号化されたデータは、ストレージデバイスから入力インターフェースによってアクセスされ得る。ストレージデバイスは、ハードドライブ、ブルーレイ(登録商標)ディスク(disc)、DVD、CD−ROM、フラッシュメモリ、揮発性もしくは不揮発性のメモリ、または符号化されたビデオデータを記憶するための任意の他の適切なデジタル記憶媒体など、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれをも含むことができる。さらなる例では、ストレージデバイスは、ソースデバイス12によって生成された符号化されたビデオを記憶することができるファイルサーバまたは別の中間ストレージデバイスに対応することができる。宛先デバイス14は、ストリーミングまたはダウンロードを介して、ストレージデバイスから記憶されたビデオデータにアクセスすることができる。ファイルサーバは、符号化されたビデオデータを記憶でき、符号化されたビデオデータを宛先デバイス14に送信できる、任意のタイプのサーバとすることができる。例のファイルサーバは、ウェブサーバ(たとえば、ウェブサイト用の)、FTPサーバ、ネットワークアタッチドストレージ(NAS)デバイス、またはローカルディスク(disk)ドライブを含む。宛先デバイス14は、インターネット接続を含む任意の標準データ接続を介して、符号化されたビデオデータにアクセスすることができる。これは、ファイルサーバ上に記憶された符号化されたビデオデータにアクセスするのに適する、ワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、有線接続(たとえば、DSL、ケーブルモデムなど)、またはその両方の組合せを含むことができる。ストレージデバイスからの符号化されたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはその組合せとすることができる。
[0045]本開示の技法は、ワイヤレス応用またはワイヤレス設定に必ずしも限定されない。本技法は、無線テレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、HTTP上の動的適応ストリーミング(dynamic adaptive streaming over HTTP、DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体上に記憶されたデジタルビデオの復号、または他の応用例など、様々なマルチメディア応用のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオ放送、および/またはビデオ電話などの応用例をサポートするために一方向または両方向のビデオ送信をサポートするように構成され得る。
[0046]図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。いくつかの実施形態では、セルラー電話機などのワイヤレス通信デバイスは、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含むソースデバイス12を備えることができる。宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。いくつかの実施形態では、セルラー電話機などのワイヤレス通信デバイスは、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む宛先デバイス14を備えることができる。たとえば、いくつかの場合に、単一のワイヤレス通信デバイスが、ソースデバイス12と宛先デバイス14の両方を備えることができる。本開示によれば、ソースデバイス12のビデオエンコーダ20は、複数の標準規格または標準規格拡張に準拠するビデオデータを含むビットストリームをコーディングするための技法を適用するように構成され得る。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または配置を含むことができる。たとえば、ソースデバイス12は、外部カメラなどの外部ビデオソース18からビデオデータを受け取ることができる。同様に、宛先デバイス14は、一体化されたディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースすることができる。
[0047]図1の示されたシステム10は、単に1つの例である。現在のブロックの動きベクトル候補の候補リストの候補を決定する技法は、任意のデジタルビデオ符号化デバイスおよび/またはデジタルビデオ復号デバイスによって実行され得る。一般に、本開示の技法は、ビデオ符号化デバイスによって実行されるが、これらの技法は、通常は「コーデック」と呼ばれるビデオエンコーダ/デコーダによっても実行され得る。さらに、本開示の技法は、ビデオプリプロセッサによっても実行され得る。ソースデバイス12および宛先デバイス14は、単に、ソースデバイス12が宛先デバイス14への伝送のためにコーディングされたビデオデータを生成するコーディングデバイスの例である。いくつかの例では、デバイス12、14は、デバイス12、14の各々がビデオ符号化構成要素とビデオ復号構成要素とを含むように、実質的に対称の形で動作することができる。したがって、システム10は、たとえばビデオストリーミング、ビデオ再生、ビデオ放送、またはビデオ電話のために、ビデオデバイス12、14の間の一方向または両方向のビデオ伝送をサポートすることができる。
[0048]ソースデバイス12のビデオソース18は、ビデオカメラなどのビデオ取込デバイス、以前に取り込まれたビデオを含むビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するビデオフィードインターフェースを含むことができる。さらなる代替案として、ビデオソース18は、ソースビデオとしてコンピュータグラフィックスベースのデータまたは、生ビデオと、アーカイブされたビデオと、コンピュータ生成されたビデオとの組合せを生成することができる。いくつかの場合に、ビデオソース18がビデオカメラである場合に、ソースデバイス12と宛先デバイス14とは、いわゆるカメラフォンまたはビデオフォンを形成することができる。しかしながら、上で言及されたように、本開示で説明される技法は、ビデオコーディング全般に適用可能とされ得、ワイヤレス応用例および/または有線応用例に適用され得る。各場合に、取り込まれたビデオ、事前に取り込まれたビデオ、またはコンピュータ生成されたビデオは、ビデオエンコーダ20によって符号化され得る。符号化されたビデオ情報は、その後、出力インターフェース22によってコンピュータ可読媒体16に出力され得る。
[0049]コンピュータ可読媒体16は、ワイヤレス放送もしくは有線ネットワーク伝送などの過渡的媒体、またはハードディスク(disk)、フラッシュドライブ、コンパクトディスク(disc)、デジタルビデオディスク(disc)、ブルーレイディスク(disc)、もしくは他のコンピュータ可読媒体などの記憶媒体(すなわち、非一時的記憶媒体)を含むことができる。たとえば、ソースデバイス12および宛先デバイス14がワイヤレス送受話器などの単一のデバイスとして実装されるいくつかの実施形態では、コンピュータ可読媒体16は任意の記憶媒体を含むことができる。いくつかの例では、ネットワークサーバ(図示せず)は、ソースデバイス12から符号化されたビデオデータを受信し、たとえば、ネットワーク送信、直接有線通信などを介して、その符号化されたビデオデータを宛先デバイス14に供給することができる。同様に、ディスク(disc)プレス加工施設などの媒体生産施設のコンピューティングデバイスは、符号化されたビデオデータをソースデバイス12から受け取り、符号化されたビデオデータを含むディスク(disc)を生産することができる。したがって、コンピュータ可読媒体16は、様々な例で、様々な形態の1つまたは複数のコンピュータ可読媒体を含むと理解され得る。
[0050]宛先デバイス14の入力インターフェース28は、情報をコンピュータ可読媒体16から受け取る。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義され、ビデオデコーダ30によって使用もされ、ブロックと他のコーディングされたユニット、たとえばGOPの特性および/または処理を記述するシンタックス要素とを含む、シンタックス情報を含むことができる。ディスプレイデバイス32は、復号されたビデオデータをユーザに表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなどの様々なディスプレイデバイスのうちのいずれをも備えることができる。
[0051]ビデオエンコーダ20とビデオデコーダ30とは、高効率ビデオコーディング(HEVC)標準規格などのビデオコーディング標準規格に従って動作することができ、HEVCテストモデル(HM)に準拠することができる。代替案では、ビデオエンコーダ20とビデオデコーダ30とは、他のプロプライエタリ標準規格または、MPEG−4,Part 10,Advanced Video Coding(AVC)とも称するITU−T H.264標準規格などの産業標準規格、あるいはそのような標準規格の拡張に従って動作することができる。しかしながら、本開示の技法は、上でリストした標準規格のすべてを含むがこれに限定されない、いかなる特定のコーディング標準規格にも限定されない。ビデオコーディング標準規格の他の例は、MPEG−2およびITU−T H.263を含む。いくつかの態様では、ビデオエンコーダ20とビデオデコーダ30とは、各々、オーディオエンコーダとオーディオデコーダと一体化され得、共通のデータストリーム内または別々のデータストリーム内のオーディオとビデオの両方の符号化を処理するために、適当なMUX−DEMUXユニットまたは他のハードウェアとソフトウェアとを含むことができる。適用可能であれば、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0052]ビデオエンコーダ20とビデオデコーダ30とは、各々、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアまたはそれらの任意の組合せなど、様々な適切なエンコーダ回路網のいずれかとして実装され得る。技法が、部分的にソフトウェアで実施される時に、デバイスは、ソフトウェアの命令を、適切な非一時的コンピュータ可読媒体内に記憶し、本開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェア内で命令を実行することができる。ビデオエンコーダ20とビデオデコーダ30の各々は、1つまたは複数のエンコーダまたはデコーダ内に含められ得、このエンコーダまたはデコーダのいずれもが、それぞれのデバイス内で組み合わされたエンコーダ/デコーダ(コーデック)の一部として一体化され得る。ビデオエンコーダ20および/またはビデオデコーダ30を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話機などのワイヤレス通信デバイスを備えることができる。
[0053]JCT−VCは、HEVC標準規格の開発に取り組みつつある。HEVC標準化の努力は、HEVCテストモデル(HM)と称するビデオコーディングデバイスの進化するモデルに基づく。HMは、たとえばITU−T H.264/AVCに従う既存のデバイスに対する、ビデオコーディングデバイスの複数の追加能力を仮定する。たとえば、H.264は、9つのイントラ予測符号化モードを提供するが、HMは、33個もの多数のイントラ予測符号化モードを提供することができる。
[0054]一般に、HMのワーキングモデルは、ビデオフレームまたはピクチャが、ルマサンプルとクロマサンプルの両方を含むツリーブロックまたは最大コーディングユニット(largest coding unit、LCU)のシーケンスに分割され得ることを記述する。ビットストリーム内の構文データは、LCUのサイズを定義することができ、このLCUは、ピクセルの個数に関する最大のコーディングユニットである。スライスは、コーディング順序での、いくつかの連続するツリーブロックを含む。ビデオフレームまたはピクチャは、1つまたは複数のスライスに区分され得る。各ツリーブロックは、四分木に従ってコーディングユニット(CU)に分割され得る。一般に、四分木データ構造は、1CUあたり1つのノードを含み、ルートノードはツリーブロックに対応する。あるCUが、4つのサブCUに分割される場合には、CUに対応するノードは、4つの葉ノードを含み、葉ノードの各々は、サブCUのうちの1つに対応する。
[0055]四分木データ構造の各ノードは、対応するCUのシンタックスデータを提供することができる。たとえば、四分木内のノードは、そのノードに対応するCUがサブCUに分割されるのかどうかを示す分割フラグを含むことができる。CUのシンタックス要素は、再帰的に定義され得、CUがサブCUに分割されるのかどうかに依存することができる。CUがさらには分割されない場合には、そのCUは、葉CUとして参照される。本開示では、葉CUの4つのサブCUも、オリジナルの葉CUの明示的な分割がない場合であっても、葉CUと呼ばれる。たとえば、16x16サイズのCUがさらには分割されない場合に、4つの8x8サブCUも、16x16CUが一度も分割されなかったのに葉CUと呼ばれる。
[0056]CUは、CUがサイズの区別を有しないことを除いて、H.264標準規格のマクロブロックに類似する目的を有する。たとえば、ツリーブロックは、4つの子ノード(サブCUとも呼ばれる)に分割され得、各子ノードは、次に、親ノードになることができ、別の4つの子ノードに分割され得る。4分木の葉ノードと呼ばれる、最終的な分割されない子ノードは、葉CUとも呼ばれるコーディングノードを備える。コーディングされたビットストリームに関連付けられたシンタックスデータは、最大CU深度と呼ばれる、ツリーブロックが分割され得る回数の最大数を定義することができ、また、コーディングノードの最小サイズを定義することもできる。したがって、ビットストリームは、最小コーディングユニット(smallest coding unit、SCU)をも定義することができる。本開示は、「ブロック」という用語を、HEVCの文脈でのCU、PU、またはTUのうちのいずれか、または他の標準規格の文脈での同様のデータ構造(たとえば、H.264/AVCのマクロブロックとそのサブブロックと)を参照するのに使用する。
[0057]CUは、コーディングノードと、コーディングノードに関連付けられた予測ユニット(PU)および変換ユニット(TU)とを含む。CUのサイズは、コーディングノードのサイズに対応し、形状において正方形でなければならない。CUのサイズは、8x8ピクセルから、64x64ピクセル以上の最大値を有するツリーブロックのサイズまでの範囲にわたることができる。各CUは、1つまたは複数のPUと1つまたは複数のTUとを含むことができる。CUに関連付けられたシンタックスデータは、たとえば、1つまたは複数のPUへのCUの区分を記述することができる。区分モードは、CUがスキップモード符号化もしくは直接モード符号化されるのか、イントラ予測モード符号化されるのか、またはインター予測モード符号化されるのかの間で異なる可能性がある。PUは、形状において非正方形に区分され得る。CUに関連付けられたシンタックスデータは、たとえば、四分木に従う1つまたは複数のTUへのCUの区分を記述することもできる。TUは、形状において正方形または非正方形(たとえば、長方形)とすることができる。
[0058]HEVC標準規格は、TUに従う変換を可能にし、このTUは、異なるCUについて異なるものとすることができる。TUは、通常、区分されたLCUについて定義される所与のCU内のPUのサイズに基づくサイズを与えられるが、必ずそうなっているとは限らない。TUは、通常、PU以下のサイズである。いくつかの例では、CUに対応する残差サンプルは、「残差四分木」(RQT)と称する四分木構造を使用して、より小さいユニットに副分割され得る。RQTの葉ノードは、変換ユニット(TU)と呼ばれる場合がある。TUに関連付けられたピクセル差値は、量子化され得る変換係数を作るために変換され得る。
[0059]葉CUは、1つまたは複数の予測ユニット(PU)を含むことができる。一般に、PUは、対応するCUのすべてまたは一部に対応する空間的区域を表し、PUの参照サンプルを取り出すためのデータを含むことができる。さらに、PUは、予測に関するデータを含む。たとえば、PUが、イントラモード符号化される時に、PUのデータは、残差四分木(RQT)内に含まれ得、このRQTは、PUに対応するTUのイントラ予測モードを記述するデータを含むことができる。別の例として、PUがインターモード符号化される時に、PUは、そのPUの1つまたは複数の動きベクトルを定義するデータを含むことができる。PUの動きベクトルを定義するデータは、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの分解能(たとえば、1/4ピクセル精度または1/8ピクセル精度)、動きベクトルがポイントする参照ピクチャ、および/または動きベクトルの参照ピクチャリスト(たとえば、リスト0、リスト1、またはリストC)を記述することができる。
[0060]1つまたは複数のPUを有する葉CUは、1つまたは複数の変換ユニット(TU)をも含むことができる。変換ユニットは、上で論じたように、RQT(TU四分木構造とも称する)を使用して指定され得る。たとえば、分割フラグは、葉CUが4つの変換ユニットに分割されるのかどうかを示すことができる。その場合に、各変換ユニットは、さらなるサブTUにさらに分割され得る。TUがさらには分割されない時に、TUは、葉TUと呼ばれる場合がある。一般に、イントラコーディングに関して、1つの葉CUに属するすべての葉TUは、同一のイントラ予測モードを共有する。すなわち、同一のイントラ予測モードが、一般に、1つの葉CUのすべてのTUについて、予測された値を計算するために適用される。イントラコーディングについて、ビデオエンコーダは、CUのうちでTUに対応する部分と元のブロックとの間の差として、イントラ予測モードを使用して葉TUごとに残差値を計算することができる。TUは、必ずしもPUのサイズに限定されない。したがって、TUは、PUよりも大きくてもまたは小さくてもよい。イントラコーディングについて、PUは、同一のCUの対応する葉TUと同一位置に配置され得る。いくつかの例では、葉TUの最大サイズは、対応する葉CUのサイズに対応することができる。
[0061]さらに、葉CUのTUは、残差四分木(RQT)と称するそれぞれの四分木データ構造にも関連付けられ得る。すなわち、葉CUは、その葉CUがTUにどのように区分されるのかを示す四分木を含むことができる。TU四分木のルートノードは、一般に、葉CUに対応し、CU四分木のルートノードは、一般に、ツリーブロック(またはLCU)に対応する。分割されないRQTのTUは、葉TUと呼ばれる。一般に、本開示は、そうではないと注記されない限り、それぞれ葉CUと葉TUとを指すのにCUとTUという用語を使用する。
[0062]ビデオシーケンスは、通常、一連のビデオフレームまたはピクチャを含む。グループオブピクチャ(GOP)は、一般に、一連の1つまたは複数のビデオピクチャを備える。GOPは、GOPのヘッダ内、ピクチャのうちの1つまたは複数のヘッダ内、または他所に、そのGOP内に含まれるピクチャの個数を記述するシンタックスデータを含むことができる。ピクチャの各スライスは、それぞれのスライスの符号化モードを記述するスライスシンタックスデータを含むことができる。ビデオエンコーダ20は、通常、ビデオデータを符号化するために、個々のビデオスライス内のビデオブロックに作用する。ビデオブロックは、CU内のコーディングモードに対応することができる。ビデオブロックは、固定されたサイズまたは変化するサイズを有することができ、指定されたコーディング標準規格に従ってサイズにおいて変化することができる。
[0063]一例として、HMは、様々なPUサイズでの予測をサポートする。特定のCUのサイズが2Nx2Nであると仮定すると、HMは、2Nx2NまたはNxNのPUサイズでのイントラ予測と、2Nx2N、2NxN、Nx2N、またはNxNの対称PUサイズでのインター予測とをサポートする。HMは、2NxnUと、2NxnDと、nLx2Nと、nRx2NとのPUサイズでのインター予測のための非対称区分をもサポートする。非対称区分では、CUの一方の方向は、区分されず、他方の方向は、25%と75%とに区分される。CUのうちで25%区分に対応する部分は、「n」とそれに続く「Up(上)」、「Down(下)」、「Left(左)」、または「Right(右)」の表示とによって示される。したがって、たとえば、「2NxnU」は、水平に区分され、上に2Nx0.5NのPU、下に2Nx1.5NのPUを有する2Nx2NのCUを指す。
[0064]本開示では、「NxN」と「N×N」とが、たとえば16x16ピクセルまたは16×16ピクセルなど、垂直次元と水平次元とに関するビデオブロックのピクセル寸法を指すのに交換可能に使用される場合がある。一般に、16x16ブロックは、垂直方向に16ピクセルを有し(y=16)、水平方向に16ピクセルを有する(x=16)。同様に、NxNブロックは、一般に、垂直方向にNピクセル、水平方向にNピクセルを有し、Nは、非負の整数値を表す。ブロック内のピクセルは、行と列とに配置され得る。さらに、ブロックは、必ずしも、水平方向において垂直方向と同一個数のピクセルを有するとは限らない。たとえば、ブロックは、NxMピクセルを備えることができ、Mは、必ずしもNと等しくはない。
[0065]CUのPUを使用するイントラ予測コーディングまたはインター予測コーディングの後に、ビデオエンコーダ20は、CUのTUの残差データを計算することができる。PUは、空間領域(ピクセル領域とも称する)で予測ピクセルデータを生成する方法またはモードを記述するシンタックスデータを備えることができ、TUは、残差ビデオデータに対する変換、たとえば離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に類似する変換の適用に続く変換領域での係数を備えることができる。残差データは、符号化されていないピクチャのピクセルとPUに対応する予測値との間のピクセル差に対応することができる。ビデオエンコーダ20は、CUの残差データを含むTUを形成し、その後、CUの変換係数を作るためにTUを変換することができる。
[0066]変換係数を作るためのすべての変換の後に、ビデオエンコーダ20は、変換係数の量子化を実行することができる。量子化は、その最も広義の通常の意味を有することを意図された広義の用語である。一実施形態では、量子化は、さらなる圧縮を提供する、係数を表すのに使用されるデータの量をおそらくは減らすために変換係数が量子化されるプロセスを指す。量子化プロセスは、係数の一部またはすべてに関連付けられたビット深度を減らすことができる。たとえば、nビット値が、量子化中にmビット値に下に丸められ得、nは、mより大きい。
[0067]量子化の後に、ビデオエンコーダは、変換係数をスキャンし、量子化された変換係数を含む2次元行列から1次元ベクトルを作ることができる。スキャンは、より高いエネルギー(したがって、より低い頻度)の係数を配列の前方に配置し、より低いエネルギー(したがって、より高い頻度)の係数を配列の後方に配置するように設計され得る。いくつかの例では、ビデオエンコーダ20は、エントロピー符号化され得るシリアライズされたベクトルを作るために量子化された変換係数をスキャンするのに事前定義のスキャン順序を利用することができる。他の例では、ビデオエンコーダ20は、適応スキャンを実行することができる。1次元ベクトルを形成するために、量子化された変換係数をスキャンした後に、ビデオエンコーダ20は、たとえばコンテキスト適応可変長コーディング(context-adaptive variable length coding、CAVLC)、コンテキスト適応2進算術コーディング(context-adaptive binary arithmetic coding、CABAC)、シンタックスベースコンテキスト適応2進算術コーディング(syntax-based context-adaptive binary arithmetic coding、SBAC)、確率区間区分エントロピー(Probability Interval Partitioning Entropy、PIPE)コーディング、または別のエントロピー符号化方法論に従って、1次元ベクトルをエントロピー符号化することができる。ビデオエンコーダ20は、ビデオデータを復号する際のビデオデコーダ30による使用のために、符号化されたビデオデータに関連付けられたシンタックス要素をエントロピー符号化することもできる。
[0068]CABACを実行するために、ビデオエンコーダ20は、送信されるシンボルに、コンテキストモデル内のコンテキストを割り当てることができる。コンテキストは、たとえば、シンボルの隣接値が非ゼロであるか否かに関するものとすることができる。CAVLCを実行するために、ビデオエンコーダ20は、送信されるシンボルの可変長コードを選択することができる。VLCにおける符号語は、相対的により短いコードがよりありそうなシンボルに対応し、より長いコードがよりありそうにないシンボルに対応するように構成され得る。この形で、VLCの使用は、たとえば送信されるシンボルごとに等しい長さの符号語を使用することに対するビット節約を達成することができる。確率決定は、シンボルに割り当てられたコンテキストに基づくものとされ得る。
[0069]ビデオエンコーダ20は、たとえばフレームヘッダ内、ブロックヘッダ内、スライスヘッダ内、またはGOPヘッダ内で、ビデオデコーダ30に、ブロックベースのシンタックスデータ、フレームベースのシンタックスデータ、およびGOPベースのシンタックスデータなどのシンタックスデータをさらに送ることができる。GOPシンタックスデータは、それぞれのGOP内のフレームの個数を記述することができ、フレームシンタックスデータは、対応するフレームを符号化するのに使用された符号化/予測モードを示すことができる。
[0070]図2は、本開示で説明される態様による技法を実施することができる、ビデオエンコーダの例を示すブロック図である。ビデオエンコーダ20は、本開示の技法のいずれかまたはすべてを実行するように構成され得る。たとえば、下で図7と図8とに関して説明される方法を含む、本開示で説明される技法は、ビデオエンコーダ20の様々な構成要素の間で共有され得る。いくつかの例では、それに加えてまたはその代わりに、プロセッサ(図示せず)が、本開示で説明される技法のいずれかまたはすべてを実行するように構成され得る。
[0071]ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングとインターコーディングとを実行することができる。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオ内の空間冗長性を減らすか除去するために、空間予測に頼る。インターコーディングは、ビデオシーケンスの隣接するフレームまたはピクチャ内のビデオ内の時間冗長性を減らすか除去するために、時間予測に頼る。イントラモード(Iモード)は、複数の空間ベースのコーディングモードのいずれをも指すことができる。単一方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、複数の時間ベースのコーディングモードのいずれをも指すことができる。
[0072]図2に示されているように、ビデオエンコーダ20は、符号化されるべきビデオフレーム内の現在のビデオブロックを受け取る。図1の例では、ビデオエンコーダ20は、モード選択ユニット40と、参照フレームメモリ64と、合計器50と、変換処理ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56とを含む。モード選択ユニット40は、動き補償ユニット44と、動き推定ユニット42と、イントラ予測ユニット46と、分割ユニット48とを含む。ビデオブロックの再構成のために、ビデオエンコーダ20は、逆量子化ユニット58と、逆変換ユニット60と、合計器62とをも含む。デブロッキングフィルタ(図2には図示せず)も、再構成されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタリングするために、含まれ得る。望まれる場合に、デブロッキングフィルタは、通常、合計器62の出力をフィルタリングするはずである。追加のフィルタ(インループまたはポストループ)も、デブロッキングフィルタに加えて使用され得る。そのようなフィルタは、簡潔さのために図示されていないが、望まれる場合には、合計器50の出力をフィルタリングすることができる(インループフィルタとして)。
[0073]符号化プロセス中に、ビデオエンコーダ20は、コーディングされるべきビデオフレームまたはスライスを受け取る。フレームまたはスライスは、複数のビデオブロックに分割され得る。動き推定ユニット42および動き補償ユニット44は、時間予測を提供するために、1つまたは複数の参照フレーム内の1つまたは複数のブロックに対する相対的な受け取られたビデオブロックのインター予測コーディングを実行する。イントラ予測ユニット46は、その代わりに、空間予測を提供するために、コーディングされるべきブロックと同一のフレームまたはスライス内の1つまたは複数の隣接ブロックに対する相対的な受け取られたビデオブロックのイントラ予測コーディングを実行することができる。ビデオエンコーダ20は、たとえばビデオデータのブロックごとに適当なコーディングモードを選択するために、複数のコーディングパスを実行することができる。
[0074]さらに、区分ユニット48は、前のコーディングパス内の前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分することができる。たとえば、区分ユニット48は、当初に、フレームまたはスライスをLCUに区分し、レートひずみ分析(たとえば、レートひずみ最適化)に基づいて、LCUの各々をサブCUに区分することができる。モード選択ユニット40は、サブCUへのLCUの区分を示す四分木データ構造をさらに作ることができる。四分木の葉ノードCUは、1つまたは複数のPUと1つまたは複数のTUとを含むことができる。
[0075]モード選択ユニット40は、たとえば誤差結果に基づいて、コーディングモードのうちの1つすなわちイントラまたはインターを選択し、結果のイントラコーディングされたブロックまたはインターコーディングされたブロックを、残差ブロックデータを生成するために合計器50に、参照フレームとしての使用のために符号化されたブロックを再構成するために合計器62に供給することができる。モード選択ユニット40は、動きベクトル、イントラモードインジケータ、区分情報、および他のそのような構文情報などのシンタックス要素をエントロピー符号化ユニット56に供給することもする。
[0076]動き推定ユニット42および動き補償ユニット44は、高度に一体化され得るが、概念上の目的から別々に図示されている。動き推定ユニット42によって実行される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、現在のフレーム(または他のコーディングされたユニット)内でコーディングされつつある現在のブロックに対する相対的な、参照フレーム(または他のコーディングされたユニット)内の予測ブロックに対する相対的な現在のビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示すことができる。予測ブロックは、絶対差の合計(sum of absolute difference、SAD)、二乗差の合計(sum of square difference、SSD)、または他の差メトリックによって決定され得るピクセル差に関する、コーディングされるブロックとよく一致することがわかったブロックである。いくつかの例では、ビデオエンコーダ20は、参照フレームメモリ64内に記憶された参照ピクチャのサブ整数ピクセル位置の値を計算することができる。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置の値を補間することができる。したがって、動き推定ユニット42は、フルピクセル位置および分数ピクセル位置に関する動き検索を実行し、分数ピクセル精度を有する動きベクトルを出力することができる。
[0077]動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコーディングされたスライス内のビデオブロックのPUの動きベクトルを計算する。参照ピクチャは、各々が参照フレームメモリ64内に記憶された1つまたは複数の参照ピクチャを識別する第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得る。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。
[0078]動き補償ユニット44によって実行される動き補償は、動き推定ユニット42によって決定された動きベクトルに基づいて予測ブロックを取り出し、またはこれを生成することを含むことができる。やはり、動き推定ユニット42および動き補償ユニット44は、いくつかの例で、機能的に一体化され得る。現在のビデオブロックのPUの動きベクトルを受け取る時に、動き補償ユニット44は、参照ピクチャリストのうちの1つにおいて動きベクトルがポイントする予測ブロックを突き止めることができる。合計器50は、下で議論されるように、コーディングされつつある現在のビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差値を形成することによって、残差ビデオブロックを形成する。一般に、動き推定ユニット42は、ルマ成分に対して相対的に動き推定を実行し、動き補償ユニット44は、クロマ成分とルマ成分の両方に関して、ルマ成分に基づいて計算された動きベクトルを使用する。モード選択ユニット40は、ビデオスライスのビデオブロックを復号する際のビデオデコーダ30による使用のために、ビデオブロックとビデオスライスとに関連付けられたシンタックス要素を生成することもできる。
[0079]イントラ予測ユニット46は、上で説明された、動き推定ユニット42と動き補償ユニット44とによって実行されるインター予測に対する代替案として、現在のブロックをイントラ予測しまたは計算することができる。具体的には、イントラ予測ユニット46は、現在のブロックを符号化するのに使用すべきイントラ予測モードを決定することができる。いくつかの例では、イントラ予測ユニット46は、たとえば別々の符号化パス中に、様々なイントラ予測モードを使用して現在のブロックを符号化することができ、イントラ予測ユニット46(または、いくつかの例ではモード選択ユニット40)は、テストされたモードから使用すべき適当なイントラ予測モードを選択することができる。
[0080]たとえば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードに関するレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの中で最良のレートひずみ特性を有するイントラ予測モードを選択することができる。レートひずみ分析は、一般に、符号化されたブロックと、符号化されたブロックを作るために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化されたブロックを作るのに使用されたビットレート(すなわち、ビットの個数)を決定する。イントラ予測ユニット46は、どのイントラ予測モードがブロックに関して最良のレートひずみ値を示すのかを決定するために、様々な符号化されたブロックのひずみとレートとから比率を計算することができる。
[0081]ブロックのイントラ予測モードを選択した後に、イントラ予測ユニット46は、ブロックの選択されたイントラ予測モードを示す情報をエントロピー符号化ユニット56に供給することができる。エントロピー符号化ユニット56は、選択されたイントラ予測モードを示す情報を符号化することができる。ビデオエンコーダ20は、複数のイントラ予測モードインデックステーブルと複数の変更されたイントラ予測モードインデックステーブル(符号語マッピングテーブルとも称する)とを含むことができる送信されるビットストリーム構成データ内に、様々なブロックの符号化コンテキストの定義と、最もありそうなイントラ予測モードの表示と、イントラ予測モードインデックステーブルと、コンテキストの各々について使用すべき変更されたイントラ予測モードインデックステーブルとを含めることができる。
[0082]ビデオエンコーダ20は、コーディングされつつある元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって、残差ビデオブロックを形成する。合計器50は、この減算演算を実行する構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に類似する変換などの変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを作る。変換処理ユニット52は、DCTに概念的に類似する他の変換を実行することができる。ウェーブレット変換、整数変換、サブバンド変換、または他のタイプの変換も、使用され得る。どの場合においても、変換処理ユニット52は、残差ブロックに変換を適用して、残差変換係数のブロックを作る。変換は、残差情報をピクセル値領域から周波数領域などの変換領域に変換することができる。変換処理ユニット52は、結果の変換係数を量子化ユニット54に送ることができる。量子化ユニット54は、ビットレートをさらに減らすために、変換係数を量子化する。量子化プロセスは、係数の一部またはすべてに関連付けられたビット深度を減らすことができる。量子化の度合は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット54は、その後、量子化された変換係数を含む行列のスキャンを実行することができる。代替案では、エントロピー符号化ユニット56が、このスキャンを実行することができる。
[0083]量子化の後に、エントロピー符号化ユニット56は、量子化された変換係数をエントロピーコーディングする。たとえば、エントロピー符号化ユニット56は、コンテキスト適応可変長コーディング(CAVLC)、コンテキスト適応2進算術コーディング(CABAC)、シンタックスベースコンテキスト適応2進算術コーディング(SBAC)、確率区間区分エントロピー(PIPE)コーディング、または別のエントロピーコーディング技法を実行することができる。コンテキストベースのエントロピーコーディングの場合に、コンテキストは、隣接ブロックに基づくものとされ得る。エントロピー符号化ユニット56によるエントロピーコーディングの後に、符号化されたビットストリームは、別のデバイス(たとえば、ビデオデコーダ30)に送信され、または後の送信もしくは取出のためにアーカイブされ得る。
[0084]逆量子化ユニット58および逆変換ユニット60は、たとえば参照ブロックとして後の値の使用のために、ピクセル領域の残差ブロックを再構成するために、それぞれ逆量子化と逆変換とを適用する。動き補償ユニット44は、参照フレームメモリ64のフレームのうちの1つの予測ブロックに残差ブロックを加算することによって、参照ブロックを計算することができる。動き補償ユニット44は、動き推定での使用のためにサブ整数ピクセル値を計算するために、再構成された残差ブロックに1つまたは複数の補間フィルタを適用することもできる。合計器62は、参照フレームメモリ64での記憶のために再構成されたビデオブロックを作るために、動き補償ユニット44によって作られた動き補償された予測ブロックに再構成された残差ブロックを加算する。再構成されたビデオブロックは、後続ビデオフレーム内のブロックをインターコーディングするための参照ブロックとして、動き推定ユニット42と動き補償ユニット44とによって使用され得る。
[0085]図3は、本開示で説明される態様による技法を実施することができる、ビデオデコーダの例を示すブロック図である。ビデオデコーダ30は、図7と図8とに関して下で説明される方法を含む、本開示の技法のいずれかまたはすべてを実行するように構成され得る。一例として、動き補償ユニット72および/またはイントラ予測ユニット74は、本開示で説明される技法のいずれかまたはすべてを実行するように構成され得る。しかしながら、本開示の諸態様は、それに限定されない。いくつかの例では、本開示で説明される技法は、ビデオデコーダ30の様々な構成要素の間で共有され得る。いくつかの例では、それに加えてまたはその代わりに、プロセッサ(図示せず)が、本開示で説明される技法のいずれかまたはすべてを実行するように構成され得る。
[0086]図3の例では、ビデオデコーダ30は、エントロピー復号ユニット70と、動き補償ユニット72と、イントラ予測ユニット74と、逆量子化ユニット76と、逆変換ユニット78と、参照フレームメモリ82と、合計器80とを含む。ビデオデコーダ30は、いくつかの例では、ビデオエンコーダ20(図2)に関して説明された符号化パスに対して全般的に相反の復号パスを実行することができる。動き補償ユニット72は、エントロピー復号ユニット70から受け取られた動きベクトルに基づいて、予測データを生成することができ、イントラ予測ユニット74は、エントロピー復号ユニット70から受け取られたイントラ予測モードインジケータに基づいて、予測データを生成することができる。
[0087]復号プロセス中に、ビデオデコーダ30は、符号化されたビデオスライスのビデオブロックと関連付けられたシンタックス要素とを表す符号化されたビデオビットストリームをビデオエンコーダ20から受け取る。ビデオデコーダ30のエントロピー復号ユニット70は、量子化された係数と、動きベクトルまたはイントラ予測モードインジケータと、他のシンタックス要素とを生成するために、ビットストリームをエントロピー復号する。エントロピー復号ユニット70は、動きベクトルと他のシンタックス要素とを動き補償ユニット72に転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受け取ることができる。
[0088]ビデオスライスが、イントラコーディングされた(I)スライスとしてコーディングされる時に、イントラ予測ユニット74は、シグナリングされたイントラ予測モードと現在のフレームまたはピクチャの以前に復号されたブロックからのデータとに基づいて、現在のビデオスライスのビデオブロックの予測データを生成することができる。ビデオフレームが、インターコーディングされた(たとえば、B、P、またはGPB)スライスとしてコーディングされる時に、動き補償ユニット72は、エントロピー復号ユニット70から受け取られた動きベクトルと他のシンタックス要素とに基づいて、現在のビデオスライスのビデオブロックの予測ブロックを作る。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから作られ得る。ビデオデコーダ30は、参照フレームメモリ92内に記憶された参照ピクチャに基づいて、デフォルト構成技法を使用して、参照フレームリストすなわちリスト0とリスト1とを構成することができる。動き補償ユニット72は、動きベクトルと他のシンタックス要素とを解析することによって、現在のビデオスライスのビデオブロックの予測情報を決定し、復号されつつある現在のビデオブロックの予測ブロックを作るのにその予測情報を使用する。たとえば、動き補償ユニット72は、現在のビデオスライス内のビデオブロックを復号するために、ビデオスライスのビデオブロックをコーディングするのに使用された予測モード(たとえば、イントラ予測またはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)と、スライスの参照ピクチャリストのうちの1つまたは複数の構成情報と、スライスのインター符号化されたビデオブロックごとの動きベクトルと、スライスのインターコーディングされたビデオブロックごとのインター予測状況と、他の情報とを決定するのに、受け取られたシンタックス情報の一部を使用する。
[0089]動き補償ユニット72は、補間フィルタに基づいて補間を実行することもできる。動き補償ユニット72は、参照ブロックのサブ整数ピクセルの補間された値を計算するために、ビデオブロックの符号化中にビデオエンコーダ20によって使用された補間フィルタを使用することができる。この場合に、動き補償ユニット72は、受け取られたシンタックス要素から、ビデオエンコーダ20によって使用された補間フィルタを決定し、予測ブロックを作るのにその補間フィルタを使用することができる。
[0090]逆量子化ユニット76は、ビットストリーム内で供給され、エントロピー復号ユニット70によって復号された量子化された変換係数を逆量子化し、たとえばデクォンタイズ(de-quantize)する。逆量子化プロセスは、量子化の度合と、同様に適用すべき逆量子化の度合とを決定するための、ビデオスライス内のビデオブロックごとにビデオデコーダ30によって計算された量子化パラメータQPYの使用を含むことができる。
[0091]逆変換ユニット78は、ピクセル領域で残差ブロックを作るために、変換係数に逆変換、たとえば逆DCT、逆整数変換、または概念的に類似する逆変換プロセスを適用する。
[0092]動き補償ユニット72が、動きベクトルと他のシンタックス要素とに基づいて現在のビデオブロックの予測ブロックを生成した後に、ビデオデコーダ30は、逆変換ユニット78からの残差ブロックと動き補償ユニット72によって生成された対応する予測ブロックとを合計することによって、復号されたビデオブロックを形成する。合計器80は、この合計演算を実行する構成要素を表す。望まれる場合に、デブロッキングフィルタも、ブロッキネスアーティファクトを除去するために、復号されたブロックをフィルタリングするために適用され得る。他のループフィルタ(コーディングループ内またはコーディングループの後のいずれであれ)も、ピクセル推移を平滑化し、または他の形でビデオ品質を改善するために、使用され得る。その後、所与のフレームまたはピクチャ内の復号されたビデオブロックは、参照ピクチャメモリ82内に記憶され、参照ピクチャメモリ82は、後続の動き補償のために使用される参照ピクチャを記憶する。参照フレームメモリ82は、図1のディスプレイデバイス32などのディスプレイデバイス上での後の提示のために、復号されたビデオをも記憶する。
HEVCにおける動き補償
[0093]上述されたように、HEVCは次世代のビデオコーディング規格である。一般に、HEVCは、以前のビデオコーディング標準規格のフレームワークに従う。HEVCの動き補償ループは、H.264/AVCと同一に保たれ得る、すなわち、現在のフレーム
Figure 2016526848
の再構成は、デクォンタイズされた係数rに時間予測Pを加えたものと等しい。
Figure 2016526848
ここで、Pは、Pフレームもしくはスライスの単一方向予測、またはBフレームもしくはスライスの両方向予測を示す。
[0094]HEVCの動き補償の単位は、以前のビデオコーディング標準規格のものとは異なり得る。実際に、以前のビデオコーディング標準規格におけるマクロブロックの概念は、HEVCには存在しない。その代わりに、マクロブロックの概念は、包括的な4分木方式に基づく極めて柔軟な階層構造に置換される。この方式の中で、3タイプのブロックすなわち、コーディングユニット(CU)、予測ユニット(PU)、および変換ユニット(TU)が、定義される。CUは、領域分割の基本単位である。CUは、マクロブロックの概念に類似するが、CUは、最大サイズを制限せず、CUは、コンテンツ適応性を改善するために、4つの等しいサイズのCUへの再帰的分割を可能にする。PUは、インター/イントラ予測の基本単位であり、PUは、不規則なイメージパターンを効率的にコーディングするために、単一のPU内での複数の任意形状区分を含むことができる。TUは、変換の基本単位である。TUは、PUとは独立に定義され得るが、TUのサイズは、そのTUが属するCUに制限される。3つの異なる概念へのブロック構造のこの分離は、各ブロック構造をその役割に従って最適化することを可能にし、これは、改善されたコーディング効率をもたらす。
スケーラブルビデオコーディング
[0095]異なる次元でのスケーラビリティ400の例が、図4に示されている。この例では、スケーラビリティは、3つの次元402と404と406とにおいて可能である。時間次元402では、たとえば、7.5Hz、15Hzまたは30Hzを有するフレームレートが、時間スケーラビリティ(T)によってサポートされ得る。空間スケーラビリティ(S)404がサポートされる時には、たとえば、QCIF、CIFおよび4CIFなどの異なる解像度が、使用可能にされる。特定の空間分解能およびフレームレートごとに、SNR(Q)レイヤ406が、ピクチャ品質を改善するために追加され得る。各レイヤ402、404、406からのビットストリームは、単一のビットストリームに一緒に多重化され得る。ビデオコンテンツがそのような拡張可能な形で符号化された後に、エクストラクタツールが、たとえば、クライアントまたは伝送チャネルに依存するアプリケーション要件に従って、実際に配送されるコンテンツを適応させるのに使用され得る。図4に示された例では、各立方体408は、同一のフレームレート(時間レベル)、空間分解能、およびSNRレイヤを有するピクチャを含む。これらの立方体408(ピクチャ)を任意の次元402、404、406に追加することによって、より良い表現が達成され得る。組み合わされたスケーラビリティは、2つ、3つ、またはさらに多くのスケーラビリティが使用可能にされる時サポートされる。
[0096]SVC仕様によれば、最低の空間レイヤ410と品質レイヤ412とを有するピクチャは、H.264/AVCと互換であり、最低の時間レベル414のピクチャは、時間ベースレイヤを形成し、より上位の時間レベルのピクチャを用いて質を高められ得る。H.264/AVC互換レイヤに加えて、複数の空間レイヤおよび/またはSNRエンハンスメントレイヤが、空間スケーラビリティおよび/または品質スケーラビリティを提供するために追加され得る。SNRスケーラビリティ406は、品質スケーラビリティとしても参照される。各空間レイヤ404またはSNRエンハンスメントレイヤ406自体は、H.264/AVC互換レイヤと同一の時間スケーラビリティ構造を用いて、時間的にスケーラブルとされ得る。1つの空間レイヤまたはSNRエンハンスメントレイヤに関して、より低いレイヤ空間レイヤまたはSNRエンハンスメントレイヤは、特定の空間レイヤまたはSNRエンハンスメントレイヤのベースレイヤとしても参照される。
[0097]SVCコーディング構造500の例が、図5に示されている。最も低い空間レイヤを有するピクチャおよび最も低い品質レイヤを有するピクチャ(レイヤ0 502およびレイヤ1 504の、QCIF解像度のピクチャ)は、H.264/AVCと互換である。これらの中で、最も低い時間レベルのこれらのピクチャは、図5のレイヤ0 502に示されているように、時間ベースレイヤを形成する。この時間ベースレイヤ(レイヤ0)502は、より高い時間レベル(レイヤ1)504のピクチャを用いて質を高められ得る。H.264/AVC互換レイヤ504に加えて、いくつかの空間レイヤおよび/またはSNRエンハンスメントレイヤ506、508、510が、空間スケーラビリティおよび/または品質スケーラビリティをもたらすために、追加され得る。たとえば、エンハンスメントレイヤは、レイヤ2 506と同一の解像度を有するCIF表現であり得る。この例では、レイヤ3 508は、SNRエンハンスメントレイヤである。この例に示されているように、各空間レイヤ自体または各SNRエンハンスメントレイヤ自体は、H.264/AVC互換レイヤと同一の時間スケーラビリティ構造を用いて、時間的にスケーラブルとされ得る。また、エンハンスメントレイヤは、空間解像度とフレームレートの両方の質を高めることができる。たとえば、レイヤ4 510は、フレームレートを15Hzから30Hzにさらに高める、4CIFエンハンスメントレイヤを提供する。
[0098]図6に示されているように、同一の時間的瞬間にコーディングされるスライスは、ビットストリーム順序で連続し、SVCのコンテキストにおいて1つのアクセスユニット600を形成する。次に、これらのSVCアクセスユニット600は、復号順序に従い、この復号順序は、表示順序と異なるものとされ得、たとえば時間予測関係によって決定され得る。
[0099]一般に、レイヤ間テクスチャ予測は、再構成されたベースレイヤピクセル値がエンハンスメントレイヤ内のピクセル値を予測するのに使用されるケースを指す。「イントラBLモード」および「レイヤ間参照ピクチャ」は、レイヤ間テクスチャ予測に対する2つのアプローチである。
[0100](コーディングされた)ピクチャ、アクセスユニット(AU)、イントラランダムアクセスポイント(IRAP)AU、コーディングされたビデオシーケンス(CVS)、およびビットストリームという用語は、広義の通常の意味を有する広義の用語である。いくつかの実施形態では、これらの用語は、以下を指す。コーディングされたピクチャは、SVCのレイヤ表現、MVCのビューコンポーネント、およびMVC+Dのテクスチャまたはデプスビューと同等である。SVCおよびMVCにおいて、アクセスユニット(AU)は、同一の出力時刻に関連付けられたすべてのコーディングされたピクチャと、それらに関連付けられた非VCL NALユニットとからなる。IRAPアクセスユニットは、すべてのコーディングされたピクチャがIRAPピクチャであるアクセスユニットである。コーディングされたビデオシーケンス(CVS)は、復号順序で、1と等しいNoRaslOutputFlagを有するIRAPアクセスユニットである任意の後続のアクセスユニットを含まないものまでのすべての後続アクセスユニットを含む、1と等しいNoRaslOutputFlagを有するIRAPアクセスユニットではない0個以上のアクセスユニットによって後続される、1と等しいNoRaslOutputFlagを有するIRAPアクセスユニットからなるアクセスユニットのシーケンスである。ビットストリームは、1つまたは複数のCVSの表現を形成する、NALユニットストリームまたはバイトストリームの形のビットのシーケンスである。ビットストリーム内の最初のAUは、IRAP AUである。
レイヤ間RPSのシグナリングおよび導出
[0101]レイヤ間参照ピクチャセット(RPS)シグナリングおよび導出の1つの方法が、以下の目的を伴って設計される。レイヤ間RPSサブセットは、ピクチャレベルシンタックスに基づいて導出され得る(たとえば、ピクチャレベルシンタックスは、スライスヘッダ内でシグナリングされ得る)。レイヤ間RPSサブセットは、レイヤ間ピクチャ参照に使用されるピクチャの消失を検出するのに使用され得る。シーケンスレベル表示は、通常のユーザケースに関するピクチャレベルシグナリングオーバーヘッドを減らすのに使用され得る。たとえば、SHVCでは、通常、1つの参照レベルピクチャだけが、ピクチャをコーディングするためにレイヤ間予測において使用される。したがって、最大のレイヤidを有する参照レイヤが、インター予測に使用され、したがって、レイヤ間参照ピクチャ情報は、どのスライスヘッダ内でも明示的にシグナリングされない。
[0102]MV−HEVCおよびSHVCでは、シンタックスおよびセマンティクスが、以下のように提供され得る。
MV−HEVCおよびSHVCでビデオパラメータセット拡張のシンタックスおよびセマンティクス
Figure 2016526848
[0103]表1のこの例では、1と等しいmax_one_active_ref_layer_flagは、多くとも1つのピクチャが、CVS内のピクチャごとのレイヤ間予測に使用されることを指定し、またはこれを示すことができる。また、0と等しいmax_one_active_ref_layer_flagは、複数のピクチャが、CVS内のピクチャごとのレイヤ間予測に使用されることを指定し、またはこれを示すことができる。
全般的なスライスセグメントヘッダのシンタックス
[0104]下の表2の例では、1と等しいinter_layer_pred_enabled_flagは、レイヤ間予測が現在のピクチャの復号に使用され得ることを指定し、またはこれを示すことができる。また、0と等しいinter_layer_pred_enabled_flagは、レイヤ間予測が現在のピクチャの復号に使用されないことを指定し、またはこれを示すことができる。inter_layer_pred_enabled_flagがビットストリーム内に存在しない時、またはinter_layer_pred_enabled_flagの値がビットストリーム内でシグナリングされない時には、inter_layer_pred_enabled_flagの値は、デコーダによって0と等しいと推論され得る。
[0105]表2の例では、num_inter_layer_ref_pics_minus1に1を加えたものが、レイヤ間予測に関して現在のピクチャの復号において使用され得るピクチャの個数を指定し、またはこれを示すことができる。num_inter_layer_ref_pics_minus1シンタックス要素の長さは、Ceil(Log2(NumDirectRefLayers[nuh_layer_id]−1)ビットとすることができる。num_inter_layer_ref_pics_minus1の値は、両端を含めて0からNumDirectRefLayers[nuh_layer_id]−1までの範囲内のビーとすることができる。
Figure 2016526848
[0106]変数NumActiveRefLayerPicsは、次のコードに示されているように導出され得る。
Figure 2016526848
コーディングされたピクチャのすべてのスライスが、同一の値のNumActiveRefLayerPicsを有することができる。
[0107]表2の例では、inter_layer_pred_layer_idc[i]は、レイヤ間予測に関して現在のピクチャによって使用され得る第iのピクチャのnuh_layer_idを表す変数RefPicLayerId[i]を指定し、またはこれを示すことができる。シンタックス要素inter_layer_pred_layer_idc[i]の長さは、Ceil(Log2(NumDirectRefLayers[nuh_layer_id]))ビットである。inter_layer_pred_layer_idc[i]の値は、両端を含めて0からNumDirectRefLayers[nuh_layer_id]−1までの範囲内とすることができる。inter_layer_pred_layer_idc[i]がビットストリーム内に存在しない時、またはinter_layer_pred_layer_idc[i]の値がビットストリーム内でシグナリングされない時には、inter_layer_pred_layer_idc[i]の値は、デコーダによって0と等しいと推論され得る。iが0より大きい時には、inter_layer_pred_layer_idc[i]は、inter_layer_pred_layer_idc[i−1]より大きくなり得る。
[0108]両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの各値に関する変数RefPicLayerId[i]は、次のように導出され得る。
Figure 2016526848
あるピクチャのすべてのスライスは、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの各値に関する同一の値のinter_layer_pred_layer_idc[i]を有することができる。
[0109]いくつかの実施態様では、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの値ごとに、次の2つの条件のいずれかが真になることが、ビットストリームコンフォーマンス(bitstream conformance)の要件である。第1の条件は、max_sublayer_for_ilp_plus1[LayerIdInVps[RefPicLayerId[i]]]の値がTemporalIdより大きいことである。第2の条件は、max_sublayer_for_ilp_plus1[LayerIdInVps[RefPicLayerId[i]]]の値およびTemporalIdの値が、両方とも0と等しく、RefPicLayerId[i]と等しいnuh_layer_idを有する現在のアクセスユニット内のピクチャが、IRAPピクチャであることである。
[0110]いくつかの実施態様では、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの値ごとに、SamplePredEnabledFlag[nuh_layer_id][RefPicLayerId[i]]またはMotionPredEnabledFlag[nuh_layer_id][RefPicLayerId[i]]の値が1と等しいことが、ビットストリームコンフォーマンスの要件である。
[0111]表2の例では、1と等しいinter_layer_sample_pred_only_flagは、インター予測が現在のピクチャの復号で使用されないことを指定し、またはこれを示すことができる。また、0と等しいinter_layer_sample_pred_only_flagは、インター予測が現在のピクチャの復号で使用され得ることを指定し、またはこれを示すことができる。inter_layer_sample_pred_only_flagがビットストリーム内に存在しない時、またはinter_layer_sample_pred_only_flagの値がビットストリーム内でシグナリングされない時には、inter_layer_sample_pred_only_flagの値は、デコーダによって0と等しいと推論され得る。
[0112]変数InterRefEnabledInRPLFlagは、次のように導出され得る。NumSamplePredRefLayers[nuh_layer_id]が0より大きく、NumActiveRefLayerPicsが0より大きい場合には、InterRefEnabledInRPLFlagは、!inter_layer_sample_pred_only_flagと等しくセットされ得る。そうではない場合には、InterRefEnabledInRPLFlagは、1と等しくセットされ得る。
[0113]MV−HEVCおよびSHVCでのレイヤ間予測(ILP)のシンタックスおよびセマンティクスは、ある種の問題と短所とを有する。たとえば、スライスヘッダ内でのレイヤ間予測のシグナリングは、NumDirectRefLayers[nuh_layer_id]が0より大きい限り、非ベースレイヤピクチャについて必ず必要である。しかしながら、様々な通常のシナリオについて、レイヤ間予測をスライスごとに変更することは、必要ではない。その結果、スライスヘッダ内ですべてのレイヤ間予測をシグナリングすることは、必要ではない。したがって、スライスヘッダ内でレイヤ間予測をシグナリングするのに利用されるビットは、これらの状況では不必要になる。そのようなシナリオは、通常のマルチビュービデオコーディングシナリオにおいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内で指定されるレイヤ間RPS内の直接参照レイヤピクチャのすべてが、レイヤ間予測に使用され、そのすべてが、現在のピクチャの少なくとも1つの参照ピクチャリスト内に挿入される時を含む。スライスヘッダ内でレイヤ間予測をシグナリングするのに利用されるビットが不必要になる、そのようなシナリオは、それに加えてまたはその代わりに、NumDirectRefLayers[nuh_layer_id]の値がNumActiveRefLayerPicsの値と等しいシナリオを含むことができる。NumDirectRefLayers[nuh_layer_id]がNumActiveRefLayerPicsと等しい時には、inter_layer_pred_layer_idc[i]をシグナリングする必要がない。
[0114]いくつかの実施形態では、以下の技法が、上で説明された問題と短所とに対処し、スライスヘッダ内での不必要なシグナリングを回避するための機構を提供する。これらの技法は、改善されたコーディング効率と、下げられたコンピューティングリソース要件とをもたらす。
[0115]いくつかの実施形態では、技法は、各レイヤが少なくとも1つのピクチャを備える、ビデオ情報の1つまたは複数のレイヤを受け取ることを含む。技法は、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられたすべての直接参照レイヤピクチャがレイヤ間参照ピクチャセットに追加されるかどうかを示す、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内のインジケータを処理することを含むことができる。技法は、インジケータに基づいて(たとえば、すべての関連付けられた直接参照レイヤピクチャがレイヤ間参照ピクチャセットに追加されることをインジケータが示す場合に)、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えることを含むことができる。たとえば、技法は、すべての直接参照レイヤピクチャがレイヤ間参照ピクチャセット(RPS)に追加されるかどうかの、ビデオパラメータセット(VPS)内の表示を有するVPSを参照する(たとえば、これに関連付けられた)すべてのビデオスライスが、そのVPSを参照しまたはこれに関連付けられた任意のスライスのレイヤ間参照ピクチャセットに追加されるように、そのような表示を提供すること、および/またはそのような表示を処理することを含む。たとえば、VPSを参照しまたはこれに関連付けられたビデオスライスは、どのビデオスライスのスライスヘッダ内にも、レイヤ間シグナリングに関する任意のさらなるシンタックス要素を含まない。代替案では、すべての直接参照レイヤピクチャがビデオパラメータセット内のレイヤ間RPSに追加されるかどうかを示す表示が、SPS内またはPPS内に存在することができる。したがって、すべての直接参照レイヤピクチャがSPSまたはPPSを参照する(たとえば、これに関連付けられた)任意のおよびすべてのスライスのレイヤ間RPSに追加されるという制約が、同様にあてはまる。加えて、すべての直接参照レイヤピクチャがレイヤ間RPSに追加されるという制約は、その制約が必ず適用され得るように、MV−HEVCについて導入され得る。この場合に、すべての直接参照レイヤピクチャがレイヤ間RPSに追加されるという制約のシグナリングは、必須とされ得る。
[0116]いくつかの実施形態では、技法は、各レイヤが少なくとも1つのピクチャを備える、ビデオ情報の1つまたは複数のレイヤを受け取ることを含む。技法は、1つまたは複数のレイヤのうちの1つに関連付けられた直接参照レイヤの個数を決定することをさらに含むことができる。技法は、直接参照レイヤの個数がビデオ情報に関連付けられたアクティブ参照レイヤピクチャの個数と等しい時に、レイヤ間予測をシグナリングすることを控えることをさらに含むことができる。たとえば、NumDirectRefLayers[nuh_layer_id]がNumActiveRefLayerPicsと等しい時には、inter_layer_pred_layer_idcはシグナリングされない。
[0117]いくつかの実施形態は、様々なHEVC標準規格および草案で提供されるある種のシンタックス要素およびセマンティクス要素に対する変更(追加および削除など)を含む。たとえば、MV−HEVC WD4およびSHVC WD2に対する追加および削除が、下で説明される。加えて、言及されないか、追加されまたは除去されるものとして他の形で示されない、いくつかの部分は、MV−HEVC WD3およびSHVC WD1と同一であり、または同一とすることができる。
ビデオパラメータセット拡張シンタックスおよびセマンティクス(実施形態の第1のセット)
[0118]実施形態の第1のセットの一部の実施形態では、構文は、下の表3に示されたものに対応することができる。
Figure 2016526848
[0119]表3の例では、1と等しいall_dep_layer_used_flagは、VPS構文によって指定され得る現在のピクチャのすべての直接参照レイヤピクチャ(必要な時には再サンプリングされる)が、VPSを参照する各ピクチャのレイヤ間参照ピクチャセットに追加されることを指定し、またはこれを示すことができる。たとえば、いくつかの実施形態で、ビデオ情報をコーディングする方法は、ビデオ情報の1つまたは複数のレイヤを受け取ることと、各レイヤが少なくとも1つのピクチャを備える、少なくとも1つのビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)に関連付けられたすべての直接参照レイヤピクチャがレイヤ間参照ピクチャセットに追加されるのかどうかを示す、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内の、all_dep_layer_used_flagなどのインジケータを処理することと、インジケータに基づいて(たとえば、all_dep_layer_used_flagが1と等しい場合に)、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えることとを含む。
[0120]加えて、0と等しいall_dep_layer_used_flagは、VPSシンタックスによって指定される現在のピクチャのすべての直接参照レイヤピクチャ(必要な時には再サンプリングされる)が、VPSを参照するピクチャのレイヤ間参照ピクチャセットに追加されてもされなくてもよいことを指定し、またはこれを示すことができる。たとえば、いくつかの実施形態で、ビデオ情報をコーディングする方法は、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられたすべての直接参照レイヤピクチャがレイヤ間参照ピクチャセットに追加されるのかどうかを示す、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内の、all_dep_layer_used_flagなどのインジケータを処理することと、インジケータが、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられたすべての直接参照レイヤピクチャがレイヤ間参照ピクチャセットに追加されることを示さない場合(たとえば、all_dep_layer_used_flagが0と等しい場合)に、少なくとも1つのビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)に関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えないこととを含む。言い換えると、all_dep_layer_used_flagが0の値を有する場合には、レイヤ間参照ピクチャ情報は、VPS、SPS、またはPPSのうちの少なくとも1つに関連付けられた任意のビデオスライス内でシグナリングされ得る。たとえば、all_dep_layer_used_flagが0と等しい場合に、現在のピクチャのすべての直接参照レイヤピクチャは、VPSを参照するピクチャのレイヤ間参照ピクチャセットに追加されてもされなくてもよい。
[0121]表3および表4の例では、1と等しいmax_one_active_ref_layer_flagは、多くとも1つのピクチャがCVS内の各ピクチャのレイヤ間予測に使用されることを指定し、またはこれを示すことができる。また、0と等しいmax_one_active_ref_layer_flagは、複数のピクチャがCVS内の各ピクチャのレイヤ間予測に使用されることを指定し、またはこれを示すことができる。
[0122]表3および表4の例では、1と等しいhighest_dep_layer_used_flagは、最大の値のnuh_layer_idを有する従属レイヤだけが、レイヤ間予測を使用する各ピクチャのレイヤ間予測に使用されることを指定し、またはこれを示すことができる。また、0と等しいhighest_dep_layer_used_flagは、すべての従属レイヤが、各ピクチャのレイヤ間予測に使用されてもされなくてもよいことを指定し、またはこれを示すことができる。highest_dep_layer_used_flagがビットストリーム内に存在しない時、またはhighest_dep_layer_used_flagの値がビットストリーム内でシグナリングされない時には、highest_dep_layer_used_flagの値は、デコーダによって0と等しいと推論され得る。
[0123]実施形態の第1のセットの他の実施形態では、シンタックスは、下の表4に示されたものに対応することができる。
Figure 2016526848
[0124]実施形態の第1のセットのさらなる他の実施形態では、シンタックスは、下の表5に示されたものに対応することができる。
Figure 2016526848
表5の例では、selective_dep_layer_idcは、表6に示された値をとることができる。
Figure 2016526848
全般的なスライスセグメントヘッダのシンタックスおよびセマンティクス(実施形態の第2のセット)
[0125]実施形態の第2のセットの一部の実施形態では、シンタックスは、下の表7に示されたものに対応することができる。
[0126]表7および表8の例では、1と等しいinter_layer_pred_enabled_flagは、レイヤ間予測が現在のピクチャの復号で使用され得ることを指定し、またはこれを示すことができる。また、0と等しいinter_layer_pred_enabled_flagは、レイヤ間予測が現在のピクチャの復号で使用されないことを指定し、またはこれを示すことができる。inter_layer_pred_enabled_flagがビットストリーム内に存在しない時、またはinter_layer_pred_enabled_flagの値がビットストリーム内でシグナリングされない時には、inter_layer_pred_enabled_flagの値は、デコーダによってall_dep_layer_used_flagの値と等しいと推論され得る。
Figure 2016526848
[0127]表7および表8の例では、num_inter_layer_ref_pics_minus1に1を加えたものが、レイヤ間予測に関して現在のピクチャの復号で使用され得るピクチャの個数を指定し、またはこれを示すことができる。num_inter_layer_ref_pics_minus1シンタックス要素の長さは、Ceil(Log2(NumDirectRefLayers[nuh_layer_id]−1)ビットとすることができる。num_inter_layer_ref_pics_minus1の値は、両端を含めて0からNumDirectRefLayers[nuh_layer_id]−1までの範囲内のビーとすることができる。
[0128]表7および表8の例では、変数NumActiveRefLayerPicsは、次のように導出され得る。
Figure 2016526848
コーディングされたピクチャのすべてのスライスが、同一の値のNumActiveRefLayerPicsを有することができる。
[0129]表7および表8の例では、inter_layer_pred_layer_idc[i]は、レイヤ間予測に関して現在のピクチャによって使用され得る第iのピクチャのnuh_layer_idを表す変数RefPicLayerId[i]を指定し、またはこれを示すことができる。シンタックス要素inter_layer_pred_layer_idc[i]の長さは、Ceil(Log2(NumDirectRefLayers[nuh_layer_id]))ビットとすることができる。inter_layer_pred_layer_idc[i]の値は、両端を含めて0からNumDirectRefLayers[nuh_layer_id]−1までの範囲内とすることができる。
[0130]inter_layer_pred_layer_idc[i]がビットストリーム内に存在しない時、またはinter_layer_pred_layer_idc[i]の値がビットストリーム内でシグナリングされない時には、inter_layer_pred_layer_idc[i]の値は、次のようにデコーダによって推論され得る。
Figure 2016526848
iが0より大きい時には、inter_layer_pred_layer_idc[i]は、inter_layer_pred_layer_idc[i−1]より大きくなり得る。
[0131]両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの各値の変数RefPicLayerId[i]は、次のように導出され得る。
Figure 2016526848
あるピクチャのすべてのスライスが、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの各値について、同一の値のinter_layer_pred_layer_idc[i]を有することができる。
[0132]実施形態の第2のセットの他の実施形態では、シンタックスは、下の表8に示されたものに対応することができる。
Figure 2016526848
[0133]いくつかの実施形態では、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの値ごとに、次の2つの条件のいずれかが真になることが、ビットストリームコンフォーマンスの要件になり得る。第1の条件は、max_sublayer_for_ilp_plus1[LayerIdInVps[RefPicLayerId[i]]]の値がTemporalIdより大きいことである。第2の条件は、max_sublayer_for_ilp_plus1[LayerIdInVps[RefPicLayerId[i]]]の値とTemporalIdの値の両方が、0と等しく、RefPicLayerId[i]と等しいnuh_layer_idを有する現在のアクセスユニット内のピクチャが、IRAPピクチャであることである。
[0134]いくつかの実施形態では、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの値ごとに、SamplePredEnabledFlag[nuh_layer_id][RefPicLayerId[i]]の値またはMotionPredEnabledFlag[nuh_layer_id][RefPicLayerId[i]]の値が、1と等しくなることが、ビットストリームコンフォーマンスの要件になり得る。
[0135]実施形態の第2のセットの他の実施形態では、シンタックスは、下の表9に示されたものに対応することができる。
Figure 2016526848
全般的なスライスセグメントヘッダのシンタックスおよびセマンティクス(実施形態の第3のセット)
[0136]実施形態の第3のセットでは、参照レイヤピクチャのアクティブ個数が参照レイヤピクチャの総数と同一である場合に情報を送ることを回避するために、スライスヘッダ内の参照レイヤピクチャ(RLP)インデックスのシグナリングに関する条件が、追加され得る。たとえば、いくつかの実施形態では、ビデオ情報をコーディングする方法は、ビデオ情報の1つまたは複数のレイヤを受け取ることと、各レイヤが少なくとも1つのピクチャを備える、1つまたは複数のレイヤのうちの1つに関連付けられた直接参照レイヤの個数を決定することと、直接参照レイヤの個数がビデオ情報に関連付けられたアクティブ参照レイヤピクチャの個数と等しい時に、レイヤ間参照ピクチャ情報をシグナリングすることを控えることとを含むことができる。この方法は、前記決定することに少なくとも部分的に基づいて前記ビデオ情報をコーディングすることをさらに含むことができる。
[0137]実施形態の第3のセットのいくつかの実施形態では、シンタックスは、下の表10に示されたものに対応することができる。
Figure 2016526848
[0138]表10の例では、inter_layer_pred_layer_idc[i]は、レイヤ間予測に関して現在のピクチャによって使用され得る第iのピクチャのnuh_layer_idを表す変数RefPicLayerId[i]を指定し、またはこれを示すことができる。シンタックス要素inter_layer_pred_layer_idc[i]の長さは、Ceil(Log2(NumDirectRefLayers[nuh_layer_id]))ビットとすることができる。inter_layer_pred_layer_idc[i]の値は、両端を含めて0からNumDirectRefLayers[nuh_layer_id]−1までの範囲内とすることができる。
[0139]inter_layer_pred_layer_idc[i]がビットストリーム内に存在しない時、またはinter_layer_pred_layer_idc[i]の値がビットストリーム内でシグナリングされない時には、inter_layer_pred_layer_idc[i]の値は、次のようにデコーダによって推論され得る。
Figure 2016526848
全般的なスライスセグメントヘッダのシンタックスおよびセマンティクス(実施形態の第4のセット)
[0140]実施形態の第4のセットのいくつかの実施形態では、シンタックスhighest_ref_layer_active_flagは、最大の値のnuh_layer_idを有する参照レイヤからのピクチャが、必ずレイヤ間参照ピクチャセット内に含まれるかどうかを示すためにシグナリングされ得る。たとえば、highest_ref_layer_active_flagが1と等しく、レイヤ間参照ピクチャセットが空ではない時には、最大の値のnuh_layer_idを有する参照レイヤからのピクチャが、レイヤ間参照ピクチャセット内の最初のエントリとして必ず存在することができる。
[0141]これらの実施形態では、最大の値のnuh_layer_idを有するピクチャが、レイヤ間参照ピクチャセット内に含まれる(たとえば、highest_ref_layer_active_flagによって示される)時であっても、他の参照レイヤからのピクチャが、それでも、レイヤ間参照ピクチャセットに追加され得る。
[0142]実施形態の第4のセットのいくつかの実施形態では、シンタックスは、下の表11に示されたものに対応することができる。
Figure 2016526848
[0143]表11および表12の例では、1と等しいall_ref_layers_active_flagは、VPSを参照するピクチャごとに、VPSによって指定されるすべての直接参照レイヤのピクチャが、同一のアクセスユニット内に存在し、レイヤ間参照ピクチャセット内に含まれることを指定し、またはこれを示すことができる。また、0と等しいall_dep_layer_used_flagは、上記の制約が適用されてもされなくてもよいことを指定し、またはこれを示すことができる。
[0144]表11および表12の例では、1と等しいhighest_ref_layer_active_flagは、VPSを参照する現在のピクチャの、最大の値のnuh_layer_idを有する直接参照レイヤピクチャが、レイヤ間参照ピクチャセット内に含まれることを指定し、またはこれを示すことができる。また、0と等しいhighest_ref_layer_active_flagは、上記の制約が適用されてもされなくてもよいことを指定し、またはこれを示すことができる。highest_ref_layer_active_flagがビットストリーム内に存在しない時、またはhighest_ref_layer_active_flagの値がビットストリーム内でシグナリングされない時には、highest_ref_layer_active_flagの値は、デコーダによって0であると推論され得る。
[0145]実施形態の第4のセットの一部の実施形態では、シンタックスは、下の表12に示されたものに対応することができる。
[0146]表12の例では、num_inter_layer_ref_pics_minus1に1を加えたものが、レイヤ間予測に関して現在のピクチャの復号で使用され得るピクチャの個数を指定し、またはこれを示すことができる。num_inter_layer_ref_pics_minus1シンタックス要素の長さは、Ceil(Log2(NumDirectRefLayers[nuh_layer_id]−1)ビットとすることができる。num_inter_layer_ref_pics_minus1の値は、両端を含めて0からNumDirectRefLayers[nuh_layer_id]−1までの範囲内のビーとすることができる。
Figure 2016526848
[0147]変数NumActiveRefLayerPicsは、次のように導出され得る。
Figure 2016526848
コーディングされたピクチャのすべてのスライスが、同一の値のNumActiveRefLayerPicsを有することができる。
[0148]表12の例では、inter_layer_pred_layer_idc[i]が、レイヤ間予測に関して現在のピクチャによって使用され得る第iのピクチャのnuh_layer_idを表す変数RefPicLayerId[i]を指定し、またはこれを示すことができる。シンタックス要素inter_layer_pred_layer_idc[i]の長さは、Ceil(Log2(NumDirectRefLayers[nuh_layer_id]))ビットとすることができる。inter_layer_pred_layer_idc[i]の値は、両端を含めて0からNumDirectRefLayers[nuh_layer_id]−1までの範囲内のビーとすることができる。
[0149]NumActiveRefLayerPicsが0より大きい時には、以下が、inter_layer_pred_layer_idc[i]の値の推論に関してあてはまる可能性がある。
Figure 2016526848
iが0より大きい時に、inter_layer_pred_layer_idc[i]は、inter_layer_pred_layer_idc[i−1]以下であることができる。
[0150]両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの各値の変数RefPicLayerId[i]と、変数NumActiveMotionPredRefLayersと、両端を含めて0からNumActiveMotionPredRefLayers−1までの範囲内のjの各値の変数ActiveMotionPredRefLayerId[j]とは、次のように導出され得る。
Figure 2016526848
あるピクチャのすべてのスライスが、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの各値について同一の値のinter_layer_pred_layer_idc[i]を有することができる。
[0151]いくつかの実施形態では、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの値ごとに、次の2つの条件のいずれかが真であることが、ビットストリームコンフォーマンスの要件になり得る。第1の条件は、max_tid_il_ref_pics_plus1[LayerIdxInVps[RefPicLayerId[i]]]の値がTemporalIdより大きいことである。第2の条件は、max_tid_il_ref_pics_plus1[LayerIdxInVps[RefPicLayerId[i]]]の値とTemporalIdの値の両方が、0と等しく、RefPicLayerId[i]と等しいnuh_layer_idを有する現在のアクセスユニット内のピクチャが、IRAPピクチャであることである。
[0152]いくつかの実施形態では、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの値ごとに、SamplePredEnabledFlag[nuh_layer_id][RefPicLayerId[i]]の値またはMotionPredEnabledFlag[nuh_layer_id][RefPicLayerId[i]]の値が1と等しいことが、ビットストリームコンフォーマンスの要件になり得る。
全般的なスライスセグメントヘッダのシンタックスおよびセマンティクス(実施形態の第5のセット)
[0153]実施形態の第5のセットでは、VPSシンタックス設計は、上で議論された実施形態の第4のセットのVPSシンタックス設計と同一とされ得る。しかしながら、実施形態の第5のセットでは、inter_layer_pred_layer_idc[i]の値のザ順序が、異なるものとされ得る。たとえば、実施形態の第5のセットでは、highest_ref_layer_active_flagが1と等しい時に、このピクチャは、レイヤ間参照ピクチャセット内の最後のエントリとして必ず存在することができる。実施形態の第4のセットに似て、最大の値のnuh_layer_idを有するピクチャが、レイヤ間参照ピクチャセット内に含まれる(たとえば、highest_ref_layer_active_flagによって示される)時であっても、他の参照レイヤからのピクチャが、それでも、レイヤ間参照ピクチャセットに追加され得る。
[0154]実施形態の第5のセットの一部の実施形態では、シンタックスは、下の表13に示されたものに対応することができる。
Figure 2016526848
[0155]表13の例では、num_inter_layer_ref_pics_minus1に1を加えたものが、レイヤ間予測に関して現在のピクチャの復号で使用され得るピクチャの個数を指定し、またはこれを示すことができる。num_inter_layer_ref_pics_minus1シンタックス要素の長さは、Ceil(Log2(NumDirectRefLayers[nuh_layer_id]−1)ビットとすることができる。num_inter_layer_ref_pics_minus1の値は、両端を含めて0からNumDirectRefLayers[nuh_layer_id]−1までの範囲内とすることができる。
[0156]変数NumActiveRefLayerPicsは、次のように導出され得る。
Figure 2016526848
コーディングされたピクチャのすべてのスライスが、同一の値のNumActiveRefLayerPicsを有することができる。
[0157]表13の例では、inter_layer_pred_layer_idc[i]は、レイヤ間予測に関して現在のピクチャによって使用され得る第iのピクチャのnuh_layer_idを表す変数RefPicLayerId[i]を指定し、またはこれを示すことができる。シンタックス要素inter_layer_pred_layer_idc[i]の長さは、Ceil(Log2(NumDirectRefLayers[nuh_layer_id]))ビットとすることができる。inter_layer_pred_layer_idc[i]の値は、両端を含めて0からNumDirectRefLayers[nuh_layer_id]−1までの範囲内とすることができる。
[0158]NumActiveRefLayerPicsが0より大きい時には、以下が、inter_layer_pred_layer_idc[i]の値の推論についてあてはまる可能性がある。
Figure 2016526848
iが0より大きい時には、inter_layer_pred_layer_idc[i]は、inter_layer_pred_layer_idc[i−1]より大きくなり得る。
[0159]両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの各値の変数RefPicLayerId[i]、変数NumActiveMotionPredRefLayers、および両端を含めて0からNumActiveMotionPredRefLayers−1までの範囲内のjの各値の変数ActiveMotionPredRefLayerId[j]は、次のように導出され得る。
Figure 2016526848
あるピクチャのすべてのスライスが、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの値ごとに同一の値のinter_layer_pred_layer_idc[i]を有することができる。
[0160]いくつかの実施形態では、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの値ごとに、以下の2つの条件のいずれかが真になることが、ビットストリームコンフォーマンスの要件になり得る。第1の条件は、max_tid_il_ref_pics_plus1[LayerIdxInVps[RefPicLayerId[i]]]の値がTemporalIdより大きいことである。第2の条件は、max_tid_il_ref_pics_plus1[LayerIdxInVps[RefPicLayerId[i]]]の値とTemporalIdの値の両方が、0と等しく、RefPicLayerId[i]と等しいnuh_layer_idを有する現在のアクセスユニット内のピクチャが、IRAPピクチャであることである。
[0161]いくつかの実施形態では、両端を含めて0からNumActiveRefLayerPics−1までの範囲内のiの値ごとに、SamplePredEnabledFlag[nuh_layer_id][RefPicLayerId[i]]の値またはMotionPredEnabledFlag[nuh_layer_id][RefPicLayerId[i]]の値が1と等しいことが、ビットストリームコンフォーマンスの要件になり得る。
[0162]図7は、例の実施形態に従ってビデオデータを符号化する例の方法700を示す。方法700は、たとえばビデオエンコーダ20の1つまたは複数の構成要素によって実行され得る。いくつかの実施形態では、他の構成要素が、本明細書で説明されるステップのうちの1つまたは複数を実施するのに使用され得る。
[0163]ブロック702では、ビデオ情報の1つまたは複数のレイヤが、受け取られ得る。各レイヤは、少なくとも1つのピクチャを含むことができる。
[0164]ブロック704では、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられたすべての直接参照レイヤピクチャがレイヤ間参照ピクチャセットに追加されるのかどうかを示す、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内のインジケータが、処理され得る。たとえば、すべての従属レイヤピクチャが追加されることを指定しまたは示す表示を有するVPSを参照する任意のスライスが、スライスヘッダ内にレイヤ間シグナリングに関する任意のさらなるシンタックス要素を含まないように、すべての直接参照レイヤピクチャがビデオパラメータセット(VPS)内のレイヤ間参照ピクチャセット(RPS)に追加されるのかどうかの表示が、VPSに導入され得る。代替案では、この表示は、SPS内および/またはPPS内に存在することができる。したがって、すべての直接参照レイヤピクチャが、SPSまたはPPSを参照する(たとえば、これに関連付けられた)任意のおよびすべてのスライスに関してレイヤ間RPSに追加されるという制約が、同様にあてはまる。加えて、すべての直接参照レイヤピクチャがレイヤ間RPSに追加されるという制約は、制約が必ず適応され得るように、MV−HEVCについて導入され得る。いくつかの実施形態では、all_dep_layer_used_flagなどのインジケータは、VPS構文によって指定され得る現在のピクチャのすべての直接参照レイヤピクチャが、VPSを参照するピクチャごとにレイヤ間参照ピクチャセットに追加されるかどうかを指定しまたは示すために、処理され得る。
[0165]ブロック706では、インジケータの値が、評価され得る。インジケータに基づいて(たとえば、インジケータが、すべての関連付けられた直接参照レイヤピクチャがレイヤ間参照ピクチャセットに追加されることを示さない場合に)、方法700は、終了することができる。たとえば、all_dep_layer_used_flagなどのインジケータが0と等しい場合に、VPSシンタックスによって指定される現在のピクチャのすべての直接参照レイヤピクチャは、VPSを参照するピクチャに関してレイヤ間参照ピクチャセットに追加されてもされなくてもよい。たとえば、いくつかの実施形態では、インジケータに基づいて(たとえば、all_dep_layer_used_flagが0と等しい場合に)、この方法は、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えないことを含むことができる。
[0166]ブロック708では、インジケータに基づいて(たとえば、すべての関連付けられた直接参照レイヤピクチャがレイヤ間参照ピクチャセットに追加されることをインジケータが示す場合に)、方法700は、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えることを含むことができる。たとえば、いくつかの実施形態では、インジケータに基づいて(たとえば、all_dep_layer_used_flagが1と等しい場合に)、方法700は、少なくとも1つのビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)に関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えることを含むことができる。
[0167]図8は、例の実施形態に従ってビデオデータを復号する例の方法800を示す。方法800は、たとえばビデオデコーダ30の1つまたは複数の構成要素によって実行され得る。いくつかの実施形態では、他の構成要素が、本明細書で説明されるステップのうちの1つまたは複数を実施するのに使用され得る。
[0168]ブロック802では、ビデオ情報の1つまたは複数のレイヤが、受け取られ得る。各レイヤは、少なくとも1つのピクチャを含むことができる。
[0169]ブロック804では、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられたすべての直接参照レイヤピクチャがレイヤ間参照ピクチャセットに追加されるのかどうかを示す、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つ内のインジケータが、処理され得る。たとえば、すべての直接参照レイヤピクチャがビデオパラメータセット(VPS)内のレイヤ間参照ピクチャセット(RPS)に追加されるのかどうかの表示を、VPS内で受け取ることができる。そのような表示を用いて、VPSに関連付けられたすべてのスライスが、任意のビデオスライスのスライスヘッダ内のレイヤ間シグナリングに関するシンタックス要素を受け取ることなく、レイヤ間参照ピクチャセットに追加される。代替案では、表示は、SPS内またはPPS内で受け取られ得る。したがって、すべての直接参照レイヤピクチャが、SPSまたはPPSを参照する(たとえば、これに関連付けられた)任意のおよびすべてのスライスに関してレイヤ間RPSに追加されるという制約が、同様にあてはまる。加えて、すべての直接参照レイヤピクチャがレイヤ間RPSに追加されるという制約は、制約が必ず適応され得るように、MV−HEVCについて導入され得る。いくつかの実施形態では、all_dep_layer_used_flagなどのインジケータは、VPSシンタックスによって指定され得る現在のピクチャのすべての直接参照レイヤピクチャが、VPSを参照するピクチャごとにレイヤ間参照ピクチャセットに追加されるかどうかを指定しまたは示すために、処理され得る。
[0170]ブロック806では、インジケータの値が、評価され得る。インジケータによって示されない場合には、方法800は、終了することができる。たとえば、all_dep_layer_used_flagなどのインジケータが0と等しい場合に、VPSシンタックスによって指定され得る現在のピクチャのすべての直接参照レイヤピクチャは、VPSを参照するピクチャに関してレイヤ間参照ピクチャセットに追加されてもされなくてもよい。たとえば、いくつかの実施形態では、インジケータによって示される場合に(たとえば、all_dep_layer_used_flagが0と等しい場合に)、この方法は、少なくとも1つのビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)に関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えないことを含むことができる。
[0171]ブロック808では、インジケータによって示される場合に、方法800は、少なくとも1つのビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)に関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加することを含むことができる。たとえば、いくつかの実施形態では、インジケータによって示される場合に(たとえば、all_dep_layer_used_flagが1と等しい場合に)、方法800は、少なくとも1つのビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)に関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加することを含むことができる。
[0172]図9は、別の実施形態に従ってビデオデータを符号化する例の方法900を示す。方法900は、たとえばビデオエンコーダ20の1つまたは複数の構成要素によって実行され得る。いくつかの実施形態では、他の構成要素が、本明細書で説明されるステップのうちの1つまたは複数を実施するのに使用され得る。
[0173]ブロック902では、ビデオ情報の1つまたは複数のレイヤが、受け取られ得る。各レイヤは、少なくとも1つのピクチャを含むことができる。
[0174]ブロック904では、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数が、決定され得る。たとえば、アクティブ参照レイヤピクチャの個数を指定する第1のインジケータは、スライスヘッダまたはピクチャパラメータセット(PPS)のうちの少なくとも1つ内で生成され得る。ブロック906では、1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数が、決定され得る。たとえば、直接参照レイヤの個数を指定する第2のインジケータは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはPPSのうちの少なくとも1つ内で生成され得る。
[0175]ブロック908では、方法900は、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいかどうかを決定することを含むことができる。直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、ブロック910では、方法900は、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えることを含むことができる。たとえば、NumDirectRefLayers[nuh_layer_id]がNumActiveRefLayerPicsと等しい時に、方法900は、レイヤ間参照ピクチャ情報をシグナリングすることを控えることができる。具体的には、いくつかの実施形態で、NumDirectRefLayers[nuh_layer_id]がNumActiveRefLayerPicsと等しい時に、inter_layer_pred_layer_idc[i]は、シグナリングされない。
[0176]図10は、一実施形態に従ってビデオデータを復号する例の方法1000を示す。方法1000は、たとえばビデオデコーダ30の1つまたは複数の構成要素によって実行され得る。いくつかの実施形態では、他の構成要素が、本明細書で説明されるステップのうちの1つまたは複数を実施するのに使用され得る。
[0177]ブロック1002では、ビデオ情報の1つまたは複数のレイヤを受け取ることができる。各レイヤは、少なくとも1つのピクチャを含むことができる。
[0178]ブロック1004では、1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数が決定され得る。たとえば、アクティブ参照レイヤピクチャの個数を指定する第1のインジケータは、スライスヘッダまたはピクチャパラメータセット(PPS)のうちの少なくとも1つ内で受け取られ得る。ブロック1006では、1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数が、決定され得る。たとえば、直接参照レイヤの個数を指定する第2のインジケータは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはPPSのうちの少なくとも1つ内で受け取られ得る。
[0179]ブロック1008では、方法1000は、直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいかどうかを決定することを含むことができる。直接参照レイヤの個数がアクティブ参照レイヤピクチャの個数と等しいことに基づいて、ブロック1010で、方法1000は、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加することを含むことができる。たとえば、NumDirectRefLayers[nuh_layer_id]がNumActiveRefLayerPicsと等しい時に、方法1000は、レイヤ間参照ピクチャ情報を決定することができる。具体的には、いくつかの実施形態で、NumDirectRefLayers[nuh_layer_id]がNumActiveRefLayerPicsと等しい時に、inter_layer_pred_layer_idc[i]は、デコーダによって決定される。
[0180]例に依存して、本明細書で説明される技法のいずれかのある種の行為または事象が、異なるシーケンスで実行され得、追加され、合併され、または完全に除外され得る(たとえば、すべての説明された行為または事象が、技法の実践に必要とは限らない)ことを了解されたい。さらに、ある種の例では、行為または事象は、順次ではなく同時に、たとえばマルチスレッド式処理、割込み処理、または複数のプロセッサを介して実行され得る。
[0181]1つまたは複数の例では、説明される機能が、ハードウェア、ソフトウェア、ファームウェア、またはその任意の組合せで実施され得る。ソフトウェアで実施される場合に、機能は、コンピュータ可読媒体上の1つまたは複数の命令またはコード上に記憶されまたはこれを介して伝送され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形の媒体に対応するコンピュータ可読記憶媒体、またはたとえば通信プロトコルに従う、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含むことができる。この形で、コンピュータ可読媒体は、一般に、(1)非一時的である有形のコンピュータ可読記憶媒体または(2)信号もしくは搬送波などの通信媒体に対応することができる。データ記憶媒体は、本開示で説明される技法の実施のために命令、コード、および/またはデータ構造を取り出すために1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされ得る任意の使用可能な媒体とされ得る。コンピュータプログラム製品は、コンピュータ可読媒体を含むことができる。
[0182]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMもしくは他の光ディスク(disk)ストレージ、磁気ディスク(disk)ストレージもしくは他の磁気ストレージデバイス、フラッシュメモリ、または命令もしくはデータ構造の形で所望のプログラムコードを記憶するのに使用され得、コンピュータによってアクセスされ得る任意の他の媒体を備えることができる。また、すべての接続は、当然、コンピュータ可読媒体と呼ばれる。たとえば、命令が、ウェブサイト、サーバ、または他のリモートソースから、同軸ケーブル、光ファイバケーブル、より対線、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して送信される場合に、同軸ケーブル、光ファイバケーブル、より対線、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体が、接続、搬送波、信号、または他の一時的媒体を含むのではなく、非一時的な有形の記憶媒体を対象とすることを理解されたい。ディスク(diskおよびdisc)は、本明細書で使用される時に、コンパクトディスク(disc、CD)、レーザディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc、DVD)、フロッピー(登録商標)ディスク(disk)、およびブルーレイディスク(disc)を含み、ディスク(disk)は、通常はデータを磁気的に再生し、ディスク(disc)は、レーザを用いてデータを光学的に再生する。上記の組合せも、コンピュータ可読媒体の範囲に含まれなければならない。
[0183]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他の同等の集積回路もしくはディスクリート論理回路などの1つまたは複数のプロセッサによって実行され得る。したがって、「プロセッサ」という用語は、本明細書で使用される時に、前述の構造のいずれかまたは本明細書で説明される技法の実施に適する任意の他の構造を指すことができる。加えて、他の態様では、本明細書で説明される機能性が、符号化と復号とのために構成された専用のハードウェアモジュールおよび/またはソフトウェアモジュール内で提供され、または組み合わされたコーデック内に組み込まれ得る。また、この技法は、1つまたは複数の回路または論理要素内で完全に実施され得る。
[0184]本開示の技法は、ワイヤレス送受話器、集積回路(IC)、または1組のIC(たとえば、チップセット)を含む、多種多様なデバイスまたは装置内で実施され得る。様々な構成要素、モジュール、またはユニットは、開示された技法を実行するように構成されたデバイスの機能的態様を強調するために、本開示で説明されるが、必ずしも異なるハードウェアユニットによる実現を要求するとは限らない。むしろ、上で説明されるように、様々なユニットは、コーデックハードウェアユニット内で組み合わされ、または、適当なソフトウェアおよび/またはファームウェアに関連する、上で説明された1つまたは複数のプロセッサを含む相互作用するハードウェアユニットの集合によって提供され得る。様々な例が、説明された。これらおよび他の例は、以下の特許請求の範囲に含まれる。
[0184]本開示の技法は、ワイヤレス送受話器、集積回路(IC)、または1組のIC(たとえば、チップセット)を含む、多種多様なデバイスまたは装置内で実施され得る。様々な構成要素、モジュール、またはユニットは、開示された技法を実行するように構成されたデバイスの機能的態様を強調するために、本開示で説明されるが、必ずしも異なるハードウェアユニットによる実現を要求するとは限らない。むしろ、上で説明されるように、様々なユニットは、コーデックハードウェアユニット内で組み合わされ、または、適当なソフトウェアおよび/またはファームウェアに関連する、上で説明された1つまたは複数のプロセッサを含む相互作用するハードウェアユニットの集合によって提供され得る。様々な例が、説明された。これらおよび他の例は、以下の特許請求の範囲に含まれる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1] ビデオ情報の1つまたは複数のレイヤを記憶するように構成されたメモリと、各レイヤが少なくとも1つのピクチャを備える、
前記メモリに動作可能に結合され、
前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定し、
前記1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定し、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定し、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控える
ように構成されたプロセッサと
を備える、ビデオ情報を符号化するための装置。
[C2] 前記プロセッサは、
スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理し、
前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理する
ようにさらに構成される、C1に記載の装置。
[C3] 前記プロセッサは、少なくとも前記インジケータを生成することによって、前記インジケータを処理するように構成される、C1に記載の装置。
[C4] 前記プロセッサは、前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、前記ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内で前記インジケータをシグナリングすることによって前記インジケータを処理するように構成される、C1に記載の装置。
[C5] 前記プロセッサは、任意のビデオスライスのスライスヘッダ内にレイヤ間シグナリングに関する任意のさらなるシンタックス要素を含めることを控えることによって、レイヤ間参照ピクチャ情報をさらにシグナリングすることを控えるように構成される、C1に記載の装置。
[C6] 前記直接参照レイヤピクチャは、各時間サブレイヤ内のレイヤごとに前記ビデオパラメータセット内で指定されるレイヤ内のピクチャを備える、C1に記載の装置。
[C7] 前記メモリと前記プロセッサとを備える、デジタルテレビジョン、デジタル直接ブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータもしくはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレイヤ、ビデオゲーミングデバイス、ビデオゲーム機、セルラー電話機もしくは衛星無線電話機、およびビデオ会議デバイスのうちの少なくとも1つをさらに備える、C1に記載の装置。
[C8] ビデオ情報の1つまたは複数のレイヤを記憶するように構成されたメモリと、各レイヤが少なくとも1つのピクチャを備える、
前記メモリに動作可能に結合され、
前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定し、
前記1つまたは複数のレイヤのうちの前記少なくとも1つに関連付けられた直接参照レイヤの個数を決定し、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定し、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加する
ように構成されたプロセッサと
を備える、ビデオ情報を復号するための装置。
[C9] 前記プロセッサは、
スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理し、
前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理する
ようにさらに構成される、C8に記載の装置。
[C10] 前記プロセッサは、少なくとも前記インジケータを受け取ることによって、前記インジケータを処理するように構成される、C8に記載の装置。
[C11] 前記プロセッサは、前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、前記ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内で前記インジケータを受け取ることによって前記インジケータを処理するように構成される、C8に記載の装置。
[C12] 前記プロセッサは、任意のビデオスライスのスライスヘッダ内でレイヤ間シグナリングに関する任意のさらなるシンタックス要素を受け取らずに、前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの前記少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャを前記レイヤ間参照ピクチャセットに追加するように構成される、C9に記載の装置。
[C13] 前記直接参照レイヤピクチャは、各時間サブレイヤ内のレイヤごとに前記ビデオパラメータセット内で指定されるレイヤ内のピクチャを備える、C8に記載の装置。
[C14] 前記メモリと前記プロセッサとを備える、デジタルテレビジョン、デジタル直接ブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータもしくはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレイヤ、ビデオゲーミングデバイス、ビデオゲーム機、セルラー電話機もしくは衛星無線電話機、およびビデオ会議デバイスのうちの少なくとも1つをさらに備える、C8に記載の装置。
[C15] ビデオ情報の1つまたは複数のレイヤを受け取ることと、各レイヤが少なくとも1つのピクチャを備える、
前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定することと、
前記1つまたは複数のレイヤのうちの前記少なくとも1つに関連付けられた直接参照レイヤの個数を決定することと、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定することと、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えることと
を備える、ビデオ情報を符号化する方法。
[C16] スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理することと、
前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理することと
をさらに備える、C15に記載の方法。
[C17] 前記処理することは、前記インジケータを生成することを備える、C15に記載の方法。
[C18] 前記処理することは、前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、前記ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内で前記インジケータをシグナリングすることを備える、C15に記載の方法。
[C19] レイヤ間参照ピクチャ情報をさらにシグナリングすることを前記控えることは、前記スライスヘッダ内にレイヤ間シグナリングに関する任意のさらなるシンタックス要素を含めることを控えることを備える、C15に記載の方法。
[C20] 前記直接参照レイヤピクチャは、各時間サブレイヤ内のレイヤごとに前記ビデオパラメータセット内で指定されるレイヤ内のピクチャを備える、C15に記載の方法。
[C21] ビデオ情報の1つまたは複数のレイヤを受け取ることと、各レイヤが少なくとも1つのピクチャを備える、
前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定することと、
前記1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定することと、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定することと、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャを前記レイヤ間参照ピクチャセットに追加することと
を備える、ビデオ情報を復号する方法。
[C22] スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理することと、
前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理することと
をさらに備える、C21に記載の方法。
[C23] 前記処理することは、前記インジケータを受け取ることを備える、C21に記載の方法。
[C24] 前記処理することは、前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、前記ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内で前記インジケータを受け取ることを備える、C21に記載の方法。
[C25] 前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの前記少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャを前記レイヤ間参照ピクチャセットに前記追加することは、任意のビデオスライスのスライスヘッダ内でレイヤ間シグナリングに関する任意のさらなるシンタックス要素を受け取らずに追加される、C21に記載の方法。
[C26] 前記直接参照レイヤピクチャは、各時間サブレイヤ内のレイヤごとに前記ビデオパラメータセット内で指定されるレイヤ内のピクチャを備える、C24に記載の方法。
[C27] ビデオ情報の1つまたは複数のレイヤを記憶するための手段と、各レイヤが少なくとも1つのピクチャを備える、
前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定するための手段と、
前記1つまたは複数のレイヤのうちの前記少なくとも1つに関連付けられた直接参照レイヤの個数を決定するための手段と、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定するための手段と、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加することと
を備えるビデオコーディング装置。
[C28] スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理するための手段と、
前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理するための手段と
をさらに備える、C27に記載のビデオコーディング装置。
[C29] 実行された時に、装置に、
ビデオ情報の1つまたは複数のレイヤを受け取らせ、各レイヤが少なくとも1つのピクチャを備える、
前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定させ、
前記1つまたは複数のレイヤのうちの前記少なくとも1つに関連付けられた直接参照レイヤの個数を決定させ、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定させ、
直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャを前記レイヤ間参照ピクチャセットに追加させる
コードをその上に記憶された非一時的コンピュータ可読媒体。
[C30] 実行された時に、前記装置に、
スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理させ、
前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理させる
コードをその上にさらに記憶された、C30に記載の非一時的コンピュータ可読媒体。

Claims (30)

  1. ビデオ情報の1つまたは複数のレイヤを記憶するように構成されたメモリと、各レイヤが少なくとも1つのピクチャを備える、
    前記メモリに動作可能に結合され、
    前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定し、
    前記1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定し、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定し、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控える
    ように構成されたプロセッサと
    を備える、ビデオ情報を符号化するための装置。
  2. 前記プロセッサは、
    スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理し、
    前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理する
    ようにさらに構成される、請求項1に記載の装置。
  3. 前記プロセッサは、少なくとも前記インジケータを生成することによって、前記インジケータを処理するように構成される、請求項1に記載の装置。
  4. 前記プロセッサは、前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、前記ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内で前記インジケータをシグナリングすることによって前記インジケータを処理するように構成される、請求項1に記載の装置。
  5. 前記プロセッサは、任意のビデオスライスのスライスヘッダ内にレイヤ間シグナリングに関する任意のさらなるシンタックス要素を含めることを控えることによって、レイヤ間参照ピクチャ情報をさらにシグナリングすることを控えるように構成される、請求項1に記載の装置。
  6. 前記直接参照レイヤピクチャは、各時間サブレイヤ内のレイヤごとに前記ビデオパラメータセット内で指定されるレイヤ内のピクチャを備える、請求項1に記載の装置。
  7. 前記メモリと前記プロセッサとを備える、デジタルテレビジョン、デジタル直接ブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータもしくはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレイヤ、ビデオゲーミングデバイス、ビデオゲーム機、セルラー電話機もしくは衛星無線電話機、およびビデオ会議デバイスのうちの少なくとも1つをさらに備える、請求項1に記載の装置。
  8. ビデオ情報の1つまたは複数のレイヤを記憶するように構成されたメモリと、各レイヤが少なくとも1つのピクチャを備える、
    前記メモリに動作可能に結合され、
    前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定し、
    前記1つまたは複数のレイヤのうちの前記少なくとも1つに関連付けられた直接参照レイヤの個数を決定し、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定し、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加する
    ように構成されたプロセッサと
    を備える、ビデオ情報を復号するための装置。
  9. 前記プロセッサは、
    スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理し、
    前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理する
    ようにさらに構成される、請求項8に記載の装置。
  10. 前記プロセッサは、少なくとも前記インジケータを受け取ることによって、前記インジケータを処理するように構成される、請求項8に記載の装置。
  11. 前記プロセッサは、前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、前記ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内で前記インジケータを受け取ることによって前記インジケータを処理するように構成される、請求項8に記載の装置。
  12. 前記プロセッサは、任意のビデオスライスのスライスヘッダ内でレイヤ間シグナリングに関する任意のさらなるシンタックス要素を受け取らずに、前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの前記少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャを前記レイヤ間参照ピクチャセットに追加するように構成される、請求項9に記載の装置。
  13. 前記直接参照レイヤピクチャは、各時間サブレイヤ内のレイヤごとに前記ビデオパラメータセット内で指定されるレイヤ内のピクチャを備える、請求項8に記載の装置。
  14. 前記メモリと前記プロセッサとを備える、デジタルテレビジョン、デジタル直接ブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータもしくはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレイヤ、ビデオゲーミングデバイス、ビデオゲーム機、セルラー電話機もしくは衛星無線電話機、およびビデオ会議デバイスのうちの少なくとも1つをさらに備える、請求項8に記載の装置。
  15. ビデオ情報の1つまたは複数のレイヤを受け取ることと、各レイヤが少なくとも1つのピクチャを備える、
    前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定することと、
    前記1つまたは複数のレイヤのうちの前記少なくとも1つに関連付けられた直接参照レイヤの個数を決定することと、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定することと、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライス内でレイヤ間参照ピクチャ情報をさらにシグナリングすることを控えることと
    を備える、ビデオ情報を符号化する方法。
  16. スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理することと、
    前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理することと
    をさらに備える、請求項15に記載の方法。
  17. 前記処理することは、前記インジケータを生成することを備える、請求項15に記載の方法。
  18. 前記処理することは、前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、前記ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内で前記インジケータをシグナリングすることを備える、請求項15に記載の方法。
  19. レイヤ間参照ピクチャ情報をさらにシグナリングすることを前記控えることは、前記スライスヘッダ内にレイヤ間シグナリングに関する任意のさらなるシンタックス要素を含めることを控えることを備える、請求項15に記載の方法。
  20. 前記直接参照レイヤピクチャは、各時間サブレイヤ内のレイヤごとに前記ビデオパラメータセット内で指定されるレイヤ内のピクチャを備える、請求項15に記載の方法。
  21. ビデオ情報の1つまたは複数のレイヤを受け取ることと、各レイヤが少なくとも1つのピクチャを備える、
    前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定することと、
    前記1つまたは複数のレイヤのうちの少なくとも1つに関連付けられた直接参照レイヤの個数を決定することと、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定することと、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャを前記レイヤ間参照ピクチャセットに追加することと
    を備える、ビデオ情報を復号する方法。
  22. スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理することと、
    前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理することと
    をさらに備える、請求項21に記載の方法。
  23. 前記処理することは、前記インジケータを受け取ることを備える、請求項21に記載の方法。
  24. 前記処理することは、前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、前記ピクチャパラメータセット(PPS)、またはその任意の組合せのうちの1つ内で前記インジケータを受け取ることを備える、請求項21に記載の方法。
  25. 前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの前記少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャを前記レイヤ間参照ピクチャセットに前記追加することは、任意のビデオスライスのスライスヘッダ内でレイヤ間シグナリングに関する任意のさらなるシンタックス要素を受け取らずに追加される、請求項21に記載の方法。
  26. 前記直接参照レイヤピクチャは、各時間サブレイヤ内のレイヤごとに前記ビデオパラメータセット内で指定されるレイヤ内のピクチャを備える、請求項24に記載の方法。
  27. ビデオ情報の1つまたは複数のレイヤを記憶するための手段と、各レイヤが少なくとも1つのピクチャを備える、
    前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定するための手段と、
    前記1つまたは複数のレイヤのうちの前記少なくとも1つに関連付けられた直接参照レイヤの個数を決定するための手段と、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定するための手段と、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャをレイヤ間参照ピクチャセットに追加することと
    を備えるビデオコーディング装置。
  28. スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理するための手段と、
    前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理するための手段と
    をさらに備える、請求項27に記載のビデオコーディング装置。
  29. 実行された時に、装置に、
    ビデオ情報の1つまたは複数のレイヤを受け取らせ、各レイヤが少なくとも1つのピクチャを備える、
    前記1つまたは複数のレイヤの少なくとも1つのピクチャに関連付けられたアクティブ参照レイヤピクチャの個数を決定させ、
    前記1つまたは複数のレイヤのうちの前記少なくとも1つに関連付けられた直接参照レイヤの個数を決定させ、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいかどうかを決定させ、
    直接参照レイヤの前記個数がアクティブ参照レイヤピクチャの前記個数と等しいことに基づいて、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のうちの少なくとも1つに関連付けられた任意のビデオスライスに関するすべての直接参照レイヤピクチャを前記レイヤ間参照ピクチャセットに追加させる
    コードをその上に記憶された非一時的コンピュータ可読媒体。
  30. 実行された時に、前記装置に、
    スライスヘッダまたは前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内でアクティブ参照レイヤピクチャの前記個数を指定する第1のインジケータを処理させ、
    前記ビデオパラメータセット(VPS)、前記シーケンスパラメータセット(SPS)、または前記ピクチャパラメータセット(PPS)のうちの少なくとも1つ内で直接参照レイヤの前記個数を指定する第2のインジケータを処理させる
    コードをその上にさらに記憶された、請求項30に記載の非一時的コンピュータ可読媒体。
JP2016524293A 2013-07-02 2014-06-30 マルチレイヤビデオコーディングのためのレイヤ間予測シグナリングに対する最適化 Pending JP2016526848A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361842326P 2013-07-02 2013-07-02
US61/842,326 2013-07-02
US201361845299P 2013-07-11 2013-07-11
US61/845,299 2013-07-11
US14/318,230 2014-06-27
US14/318,230 US9756335B2 (en) 2013-07-02 2014-06-27 Optimizations on inter-layer prediction signalling for multi-layer video coding
PCT/US2014/044917 WO2015002891A1 (en) 2013-07-02 2014-06-30 Optimizations on inter-layer prediction signaling for multi-layer video coding

Publications (2)

Publication Number Publication Date
JP2016526848A true JP2016526848A (ja) 2016-09-05
JP2016526848A5 JP2016526848A5 (ja) 2017-11-09

Family

ID=52132814

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016524291A Active JP6285024B2 (ja) 2013-07-02 2014-06-30 マルチレイヤビデオコーディングのためのレイヤ間予測シグナリングに対する最適化
JP2016524293A Pending JP2016526848A (ja) 2013-07-02 2014-06-30 マルチレイヤビデオコーディングのためのレイヤ間予測シグナリングに対する最適化

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016524291A Active JP6285024B2 (ja) 2013-07-02 2014-06-30 マルチレイヤビデオコーディングのためのレイヤ間予測シグナリングに対する最適化

Country Status (9)

Country Link
US (2) US9648326B2 (ja)
EP (2) EP3017601B1 (ja)
JP (2) JP6285024B2 (ja)
KR (2) KR101821067B1 (ja)
CN (2) CN105432085B (ja)
BR (2) BR112015032832A2 (ja)
MX (2) MX352910B (ja)
TW (2) TWI615021B (ja)
WO (2) WO2015002887A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016531451A (ja) * 2013-07-14 2016-10-06 シャープ株式会社 シグナリング表示および制約事項

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI694715B (zh) 2012-06-29 2020-05-21 愛爾蘭商維洛思媒介國際公司 資訊處理設備及資訊處理方法
MY172999A (en) * 2012-07-09 2019-12-18 Vid Scale Inc Codec architecture for multiple layer video coding
KR20140087971A (ko) * 2012-12-26 2014-07-09 한국전자통신연구원 계층적 비디오 부호화에서 다중참조계층을 적용한 화면간 부/복호화 방법 및 그 장치
US9648326B2 (en) * 2013-07-02 2017-05-09 Qualcomm Incorporated Optimizations on inter-layer prediction signalling for multi-layer video coding
WO2015005331A1 (ja) * 2013-07-10 2015-01-15 シャープ株式会社 画像復号装置および画像符号化装置
RU2662922C2 (ru) * 2013-07-12 2018-07-31 Сони Корпорейшн Способ и устройство кодирования изображений
WO2015052942A1 (en) * 2013-10-11 2015-04-16 Sharp Kabushiki Kaisha Signaling information for coding
US9681145B2 (en) 2013-10-14 2017-06-13 Qualcomm Incorporated Systems and methods for inter-layer RPS derivation based on sub-layer reference prediction dependency
KR102294092B1 (ko) 2014-01-02 2021-08-27 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
WO2015147426A1 (ko) 2014-03-24 2015-10-01 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
CN105463276B (zh) * 2015-12-21 2017-04-26 东睦新材料集团股份有限公司 一种具有致密化表面的铝基粉末冶金零件的制备方法
CN107770601B (zh) * 2016-08-16 2021-04-02 上海交通大学 一种面向多媒体内容组件个性化呈现的方法及系统
CN110100440B (zh) * 2016-12-22 2023-04-25 株式会社Kt 一种用于对视频进行解码、编码的方法
US10552218B2 (en) * 2017-01-06 2020-02-04 Microsoft Technology Licensing, Llc Dynamic context of tasks
CN116419000A (zh) * 2019-07-08 2023-07-11 华为技术有限公司 用于视频译码中的参考图像重采样的多个图像大小和符合性窗口的处理
WO2021027767A1 (en) 2019-08-10 2021-02-18 Beijing Bytedance Network Technology Co., Ltd. Position restriction for inter coding mode
US11310492B2 (en) * 2019-09-20 2022-04-19 Tencent America LLC Signaling of inter layer prediction in video bitstream
US11178418B2 (en) * 2019-09-27 2021-11-16 Tencent America LLC Method and apparatus for efficient signaling of picture size and partitioning information in video bitstream
BR112022007408A2 (pt) 2019-10-18 2022-09-27 Beijing Bytedance Network Tech Co Ltd Método e aparelho de processamento de vídeo, e, meio legível por computador
WO2021134019A1 (en) 2019-12-26 2021-07-01 Bytedance Inc. Constraints on coding of layered video
WO2021134015A1 (en) 2019-12-26 2021-07-01 Bytedance Inc. Profile, tier and layer indication in video coding
EP4066499A4 (en) 2019-12-27 2023-01-11 ByteDance Inc. SYNTAX FOR SIGNALING VIDEO IMAGES
JP7451723B2 (ja) 2020-01-09 2024-03-18 バイトダンス インコーポレイテッド ビデオビットストリームにおける値範囲に対する制約
JP2021117379A (ja) * 2020-01-27 2021-08-10 株式会社ジャパンディスプレイ 電子機器
US11582466B2 (en) 2020-02-19 2023-02-14 Mediatek Inc. Constraints for inter-layer referencing
CN111372083B (zh) * 2020-03-19 2023-03-31 宁波大学 一种基于层间处理的shvc视频加密方法
US11431998B2 (en) 2020-05-22 2022-08-30 Tencent America LLC Systems and methods for decoding based on inferred video parameter sets

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014104725A1 (ko) * 2012-12-26 2014-07-03 한국전자통신연구원 영상의 부호화/복호화 방법 및 이를 이용하는 장치
WO2014205067A1 (en) * 2013-06-18 2014-12-24 Vid Scale, Inc. Inter-layer parameter set for hevc extensions
WO2015005137A1 (ja) * 2013-07-12 2015-01-15 ソニー株式会社 画像符号化装置および方法
WO2015005331A1 (ja) * 2013-07-10 2015-01-15 シャープ株式会社 画像復号装置および画像符号化装置
WO2015006281A2 (en) * 2013-07-09 2015-01-15 Sony Corporation High level syntax improvement on inter-layer prediction for shvc/mv-hevc
WO2015008479A1 (en) * 2013-07-14 2015-01-22 Sharp Kabushiki Kaisha Signaling indications and constraints

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1224263C (zh) * 2001-02-27 2005-10-19 皇家菲利浦电子有限公司 Mpeg-4视频数据的编码方法
CN101213840B (zh) * 2005-02-18 2011-02-02 汤姆森许可贸易公司 从低分辨率图像导出高分辨率图像的编码信息的方法以及实现该方法的编码和解码设备
AU2006233279C1 (en) * 2005-04-13 2011-01-27 Nokia Technologies Oy Method, device and system for effectively coding and decoding of video data
CN101288311B (zh) * 2005-10-12 2011-05-11 汤姆森特许公司 用于可分级视频编码和解码中的加权预测的方法和装置
JP2007115293A (ja) * 2005-10-17 2007-05-10 Toshiba Corp 情報記憶媒体、プログラム、情報再生方法、情報再生装置、データ転送方法、及びデータ処理方法
JP5112332B2 (ja) * 2006-01-05 2013-01-09 トムソン ライセンシング インターレイヤ動き予測方法
KR20070074452A (ko) * 2006-01-09 2007-07-12 엘지전자 주식회사 영상신호의 엔코딩/디코딩시의 레이어간 예측 방법
KR101450921B1 (ko) * 2006-07-05 2014-10-15 톰슨 라이센싱 멀티뷰 비디오 엔코딩 및 디코딩을 위한 방법 및 장치
TWI350696B (en) * 2007-08-27 2011-10-11 Univ Nat Chiao Tung Low complexity macroblock mode decision and motion search method for scalable video coding with combined coarse granular scalability (cgs) and temporal scalability
WO2012012584A1 (en) * 2010-07-21 2012-01-26 Dolby Laboratories Licensing Corporation Systems and methods for multi-layered frame-compatible video delivery
EP2723079A4 (en) * 2011-06-15 2015-03-04 Korea Electronics Telecomm MODULABLE VIDEO ENCODING AND DECODING METHOD AND DEVICE APPLYING THE SAME
WO2012173440A2 (ko) * 2011-06-15 2012-12-20 한국전자통신연구원 스케일러블 비디오 코딩 및 디코딩 방법과 이를 이용한 장치
JP5993453B2 (ja) * 2011-07-15 2016-09-14 テレフオンアクチーボラゲット エルエム エリクソン(パブル) クリーンランダムアクセス画像に最下レイヤ識別情報を割り当てるための符号器およびその方法
US9451284B2 (en) * 2011-10-10 2016-09-20 Qualcomm Incorporated Efficient signaling of reference picture sets
JP6017574B2 (ja) * 2011-10-24 2016-11-02 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 参照ピクチャマーキング
US8693793B2 (en) * 2012-01-19 2014-04-08 Sharp Laboratories Of America, Inc. Reducing reference picture set signal overhead on an electronic device
CN104396240B (zh) * 2012-01-31 2018-02-02 Vid拓展公司 用于可缩放的高效视频编码(hevc)的参考图片集(rps)信令
EP2842322A1 (en) * 2012-04-24 2015-03-04 Telefonaktiebolaget LM Ericsson (Publ) Encoding and deriving parameters for coded multi-layer video sequences
US20140140406A1 (en) * 2012-11-16 2014-05-22 General Instrument Corporation Devices and methods for processing of non-idr related syntax for high efficiency video coding (hevc)
US10419778B2 (en) 2013-01-04 2019-09-17 Sony Corporation JCTVC-L0227: VPS_extension with updates of profile-tier-level syntax structure
KR20140091494A (ko) 2013-01-10 2014-07-21 삼성전자주식회사 멀티 레이어 비디오의 복호화 방법 및 장치, 멀티 레이어 비디오의 부호화 방법 및 장치
WO2014116047A1 (ko) 2013-01-23 2014-07-31 삼성전자 주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
EP2996339A4 (en) 2013-04-04 2016-11-02 Sharp Kk IMAGE DECODING APPARATUS AND IMAGE ENCODING APPARATUS
US9351009B2 (en) * 2013-04-05 2016-05-24 Sharp Kabushiki Kaisha Marking pictures for inter-layer prediction
US9807421B2 (en) 2013-04-05 2017-10-31 Sharp Kabushiki Kaisha NAL unit type restrictions
US9532067B2 (en) * 2013-04-05 2016-12-27 Sharp Kabushiki Kaisha Decoding of inter-layer reference picture set and reference picture list construction
US9648326B2 (en) 2013-07-02 2017-05-09 Qualcomm Incorporated Optimizations on inter-layer prediction signalling for multi-layer video coding
WO2015052942A1 (en) * 2013-10-11 2015-04-16 Sharp Kabushiki Kaisha Signaling information for coding
US9681145B2 (en) 2013-10-14 2017-06-13 Qualcomm Incorporated Systems and methods for inter-layer RPS derivation based on sub-layer reference prediction dependency

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014104725A1 (ko) * 2012-12-26 2014-07-03 한국전자통신연구원 영상의 부호화/복호화 방법 및 이를 이용하는 장치
WO2014205067A1 (en) * 2013-06-18 2014-12-24 Vid Scale, Inc. Inter-layer parameter set for hevc extensions
WO2015006281A2 (en) * 2013-07-09 2015-01-15 Sony Corporation High level syntax improvement on inter-layer prediction for shvc/mv-hevc
WO2015005331A1 (ja) * 2013-07-10 2015-01-15 シャープ株式会社 画像復号装置および画像符号化装置
WO2015005137A1 (ja) * 2013-07-12 2015-01-15 ソニー株式会社 画像符号化装置および方法
WO2015008479A1 (en) * 2013-07-14 2015-01-22 Sharp Kabushiki Kaisha Signaling indications and constraints

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JUN XU, ALI TABATABAI, OHJI NAKAGAMI AND TERUHIKO SUZUKI: "MV-HEVC/SHVC HLS: On inter-layer prediction related syntax", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-N0081, JPN6018003511, July 2013 (2013-07-01), pages 1 - 8, ISSN: 0003735933 *
JUNG WON KANG, HAHYUN LEE, JINHO LEE AND JIN SOO CHOI: "MV-HEVC/SHVC HLS: On signalling of inter-layer RPS in slice segment header", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-N0154r1, JPN6018003512, July 2013 (2013-07-01), pages 1 - 3, ISSN: 0003735934 *
MISKA M. HANNUKSELA AND JILL BOYCE: "MV-HEVC/SHVC HLS: On inter-layer sample and syntax prediction indications (combining aspects of JCTV", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-M0457_v2, JPN6018003507, April 2013 (2013-04-01), pages 1 - 8, ISSN: 0003735931 *
SACHIN DESHPANDE: "Comments On SHVC and MV-HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-N0195, JPN6018003514, July 2013 (2013-07-01), pages 1 - 7, ISSN: 0003735935 *
YE-KUI WANG ET AL.: "MV-HEVC/SHVC HLS: On signalling and derivation of inter-layer RPS (combining aspects of JCTVC-M0046", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-M0458, JPN6018003509, April 2013 (2013-04-01), pages 1 - 5, ISSN: 0003735932 *
YONG HE, XIAOYU XIU, YAN YE AND YUWEN HE: "On SHVC High Level Syntax", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-N0217, JPN6018003516, July 2013 (2013-07-01), pages 1 - 7, ISSN: 0003735936 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016531451A (ja) * 2013-07-14 2016-10-06 シャープ株式会社 シグナリング表示および制約事項

Also Published As

Publication number Publication date
BR112015032977B8 (pt) 2023-10-24
CN105432085B (zh) 2019-04-02
KR20160026981A (ko) 2016-03-09
TW201509171A (zh) 2015-03-01
US9756335B2 (en) 2017-09-05
EP3017601B1 (en) 2020-03-18
MX2015017304A (es) 2016-03-11
US9648326B2 (en) 2017-05-09
CN105340276A (zh) 2016-02-17
MX352910B (es) 2017-12-13
WO2015002887A1 (en) 2015-01-08
TWI618396B (zh) 2018-03-11
US20150010050A1 (en) 2015-01-08
TWI615021B (zh) 2018-02-11
KR20160030174A (ko) 2016-03-16
JP6285024B2 (ja) 2018-02-28
KR101821067B1 (ko) 2018-01-22
EP3017602A1 (en) 2016-05-11
BR112015032977B1 (pt) 2023-04-11
EP3017601A1 (en) 2016-05-11
US20150010051A1 (en) 2015-01-08
WO2015002891A1 (en) 2015-01-08
MX2015017309A (es) 2016-03-11
MX353372B (es) 2018-01-10
BR112015032832A2 (pt) 2017-07-25
BR112015032977A2 (ja) 2017-07-25
CN105432085A (zh) 2016-03-23
JP2016527785A (ja) 2016-09-08
TW201509174A (zh) 2015-03-01

Similar Documents

Publication Publication Date Title
JP6285024B2 (ja) マルチレイヤビデオコーディングのためのレイヤ間予測シグナリングに対する最適化
JP6388929B2 (ja) マルチレイヤビデオコーディングにおけるレイヤ間予測タイプに関するビットストリーム制約を処理すること
JP6129969B2 (ja) スケーラブルビデオコード化における代替変換
JP6716253B2 (ja) ビデオコーディングにおけるhevc拡張用の多重レイヤの低複雑度サポート
JP6158422B2 (ja) アラインされていないirapピクチャを含み得るマルチレイヤビットストリームのクロスレイヤpocアラインメント
JP6352314B2 (ja) 異なるアスペクト比を伴う空間スケーラビリティのためのレイヤ間の参照ピクチャの構築
JP6293756B2 (ja) スケーラブルビデオ符号化における変換基準の調整
JP2018125863A (ja) ビデオプロパティの指示
JP6352391B2 (ja) Shvcのための複数のベースレイヤ参照ピクチャ
KR102221569B1 (ko) 멀티-계층 비디오 코딩에서의 크로스 계층 픽처 타입 정렬의 표시
JP6363190B2 (ja) Vps内のビットレート情報およびピクチャレート情報のシグナリング
JP2016518764A (ja) マルチレイヤビデオコーディングにおけるクロスレイヤ位置合わせ
JP2016509436A (ja) レイヤ間シンタックス予測制御
CN111149361B (zh) 具有在用于视频译码的随机存取配置中的未来参考帧的自适应图片群组结构

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170929

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170929

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180911