JP2015531561A - スケーラブルビデオコーディングのための重み付け予測モード - Google Patents

スケーラブルビデオコーディングのための重み付け予測モード Download PDF

Info

Publication number
JP2015531561A
JP2015531561A JP2015531230A JP2015531230A JP2015531561A JP 2015531561 A JP2015531561 A JP 2015531561A JP 2015531230 A JP2015531230 A JP 2015531230A JP 2015531230 A JP2015531230 A JP 2015531230A JP 2015531561 A JP2015531561 A JP 2015531561A
Authority
JP
Japan
Prior art keywords
predictor
current block
layer
weighted
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015531230A
Other languages
English (en)
Other versions
JP2015531561A5 (ja
Inventor
セレジン、バディム
チェン、ジャンレ
リ、シャン
ラパカ、クリシュナカンス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015531561A publication Critical patent/JP2015531561A/ja
Publication of JP2015531561A5 publication Critical patent/JP2015531561A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Abstract

いくつかの態様による、ビデオデータをコーディングするための装置は、メモリと、メモリと通信しているプロセッサとを含む。メモリは、ベースレイヤビデオ情報およびエンハンスメントレイヤビデオ情報などのビデオ情報を記憶するように構成される。プロセッサは、現在のビデオユニットの少なくとも1つの色成分の重み付けレイヤ間予測子および重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の現在のビデオユニットの値を判断するように構成される。

Description

[0001]本開示は、ビデオコーディングおよび圧縮に関し、詳細には、スケーラブルビデオコーディング(SVC:scalable video coding)に関する。
[0002]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラーまたは衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part 10,Advanced Video Coding(AVC)、現在開発中の高効率ビデオコーディング(HEVC:High Efficiency Video Coding)規格によって定義された規格、およびそのような規格の拡張に記載されているビデオコーディング技法など、ビデオコーディング技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
[0003]ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するための空間的(イントラピクチャ)予測および/または時間的(インターピクチャ)予測を含む。ブロックベースのビデオコーディングの場合、ビデオスライス(たとえば、ビデオフレームまたはビデオフレームの一部分)が、ツリーブロック、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもあるビデオブロックに区分され得る。ピクチャのイントラコーディングされた(I)スライス中のビデオブロックは、同じピクチャ中の近隣ブロック中の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコーディングされた(PまたはB)スライス中のビデオブロックは、同じピクチャ中の近隣ブロック中の参照サンプルに対する空間的予測、または他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0004]空間的予測または時間的予測は、コーディングされるべきブロックの予測ブロックを生じる。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトルと、コード化ブロックと予測ブロックとの間の差分を示す残差データとに従って符号化される。イントラコード化ブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて、残差変換係数が得られ得、その残差変換係数は、次いで量子化され得る。量子化変換係数は、最初は2次元アレイで構成され、変換係数の1次元ベクトルを生成するために走査され得、なお一層の圧縮を達成するために、エントロピーコーディングが適用され得る。
[0005]いくつかのブロックベースのビデオコーディングおよび圧縮方式は、スケーラブルビデオコーディング(SVC)などのスケーラブル技法を利用する。概して説明するように、スケーラブルビデオコーディングは、ベースレイヤおよび1つまたは複数のスケーラブルエンハンスメントレイヤが使用されるビデオコーディングを指す。SVCの場合、ベースレイヤは、一般に、ベースレベルの品質でビデオデータを搬送する。1つまたは複数のエンハンスメントレイヤは追加ビデオデータを搬送して、より高い空間レベル、時間レベルおよび/または(信号対雑音比またはSNRとも呼ばれる)品質レベルをサポートする。場合によっては、ベースレイヤは、エンハンスメントレイヤの送信よりも信頼できる方法で送信され得る。
[0006]これらのレイヤの各々は、特定のコーディング順序でコーディングされ得る(たとえば、左から右およびラインごと、上から下に連続的にコーディングされ得る)1つまたは複数のビデオブロックを含み得る。レイヤは、レイヤの空間解像度に応じて同じブロックサイズまたは異なるブロックサイズを有し得る。
[0007]本発明のシステム、方法、およびデバイスは、それぞれいくつかの態様を有し、それらのうちの単一の態様が、単独でそれの望ましい属性を担当するとは限らない。次に、以下の特許請求の範囲によって表される本発明の範囲を限定することなしに、いくつかの特徴について手短に説明する。この説明を考察すれば、特に「発明を実施するための形態」と題するセクションを読めば、本発明の特徴が、ビデオデータの第1のレイヤの重み付け予測子およびビデオデータの第2のレイヤの重み付け予測子に基づいてビデオ情報のブロックの予測子を判断することを含む利点をどのように提供するかが理解されよう。
[0008]一実施形態では、デジタルビデオをコーディングするための装置を提供する。本装置は、ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを記憶するように構成されたメモリを含む。本装置は、メモリと通信しているプロセッサをさらに含む。プロセッサは、現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および現在のブロックの少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の現在のブロックの予測子を判断することを行うように構成される。
[0009]別の実施形態では、ビデオを復号する方法を提供する。復号する方法は、ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを定義するビデオビットストリームを取得することを含む。本方法はまた、現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および現在のブロックの少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の現在のブロックの予測子を判断することを含む。
[0010]追加の実施形態では、ビデオを符号化する方法を提供する。符号化する方法は、ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを定義するビデオビットストリームを生成することを含む。符号化する方法はまた、現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および現在のブロックの少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の現在のブロックの予測子を判断することを含む。
[0011]さらなる実施形態では、実行可能な命令を備えるコンピュータ可読記憶媒体を提供する。命令は、装置に、ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを取得することを行わせる。命令はまた、装置に、現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および現在のブロックの少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の現在のブロックの予測子を判断することを行わせる。
[0012]またさらなる実施形態では、デジタルビデオをコーディングするための装置を提供する。本装置は、ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを取得するための手段を含む。本装置は、現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および現在のブロックの少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の現在のブロックの予測子を判断するための手段をさらに含む。
[0013]1つまたは複数の例の詳細は、添付の図面および以下の説明に記載されている。他の特徴、目的、および利点は、その説明および図面から、ならびに特許請求の範囲から明らかになろう。
[0014]本開示で説明する態様による技法を利用し得る例示的なビデオ符号化および復号システムを示すブロック図。 [0015]本開示で説明する態様による技法を実装し得るビデオエンコーダの一例を示すブロック図。 [0016]本開示で説明する態様による技法を実装し得るビデオデコーダの一例を示すブロック図。 [0017]エンハンスメントレイヤビデオユニットの例示的な予測を示すブロック図。 [0018]エンハンスメントレイヤビデオユニットの例示的な重み付けモード予測を示すブロック図。 [0019]1つまたは複数の予測モードに従って生成される重み付け予測を使用してビデオユニットの値を判断するための例示的なプロセスの流れ図。 [0020]ブロックサイズ上の重み付けモードベースの使用を制限するための例示的なプロセスの流れ図。 [0021]重み付けモードとの動き補償の使用を制限するための例示的なプロセスの流れ図。 [0022]本開示の態様による、一般化残差予測のための例示的な方法を示すフローチャート。 本開示の態様による、一般化残差予測のための例示的な方法を示すフローチャート。 [0023]本開示の態様による、シングルループ復号を使用した一般化残差予測のための例示的な方法を示すフローチャート。 [0024]本開示の態様による、マルチループ復号を使用した一般化残差予測のための例示的な方法を示すフローチャート。 本開示の態様による、マルチループ復号を使用した一般化残差予測のための例示的な方法を示すフローチャート。 [0025]本開示の態様による、一般化残差予測パラメータをシグナリングするための例示的な方法を示すフローチャート。 [0026]本開示の態様による、一般化残差予測パラメータを導出するための例示的な方法を示すフローチャート。 [0027]本開示の態様による、一般化残差予測においてレイヤをアップサンプリングまたはダウンサンプリングするための例示的な方法を示すフローチャート。 [0028]本開示の態様による、一般化残差予測において動き情報を再マッピング、アップサンプリング、またはダウンサンプリングするための例示的な方法を示すフローチャート。 [0029]本開示の態様による、一般化残差予測において重み係数を判断するための例示的な方法を示すフローチャート。
[0030]概して説明するように、本開示は、ビデオコーディングを関連させる。ビデオコーディングプロセス中に、個別のビデオユニットの構成要素(たとえば、ピクセルまたはピクセルのブロック)に関して予測が行われ得る。たとえば、いくつかのピクセルまたはピクセルのブロックのルーマおよび/またはクロマ値が他の情報から予測され得る。デコーダが値を適切に予測するように構成される場合、予測値がビットストリームから除外され得るので、これにより、コンピューティングリソース(たとえば、帯域幅、ストレージスペース)を節約することが可能になる。シングルレイヤビデオコーディングでは、予測は、一般的に、(たとえば、コーディングされているビデオの同じフレーム中の他のビデオユニットに基づく)空間的なものであるか、または(たとえば、前のフレームまたは後のフレームの対応するビデオユニットに基づく)時間的なものである。スケーラブルビデオコーディング(SVC)では、ビデオ情報は、ベースレイヤおよび任意の数のエンハンスメントレイヤなどの複数のレイヤとして論理的または物理的にコーディングされ得る。したがって、SVCビデオの個別のフレームは、複数のレイヤのビデオ情報を包含し得る。SVCでは、エンハンスメントレイヤフレーム中のブロックの予測は、上記で説明したように、空間もしくは時間に基づいて行われるか、またはレイヤ間に基づいて(たとえば、同じフレームのためのベースレイヤの対応するビデオユニットに基づいて)行われ得る。しかしながら、場合によっては、上述の予測方法(たとえば、空間的予測、時間的予測、またはレイヤ間予測)のうちの1つに従って行われる予測は、画質の点で他の予測モードに勝る実質的な利点を与えないことがある。さらに、個々の予測モードはそれ自体の制限を有する。複数の予測モードに従って行われる予測を組み合わせることは、場合によっては、画質の点で単一の予測モードに従って行われる予測の使用に勝る利点を与え得る。
[0031]本開示の態様は、ビデオユニットの最終予測を生成するために複数の予測方法またはモードに従って行われる予測を組み合わせることに関する。いくつかの実施形態では、合成モードまたは重み付けモードと呼ばれることがある新しい予測モードが定義され得る。合成モードまたは重み付けモードでは、他の個別の予測モードに従って行われる予測は、最終予測にダイバーシティを追加するために重み付けされ組み合わされ得る(たとえば、重み付けレイヤ間予測が重み付けレイヤ内予測と組み合わされ得る)。最終予測にダイバーシティを追加することによって、たとえば、単一の予測モードが、他の予測モードに勝るまたは複数の予測モードに従って行われる予測の組合せに勝る実質的な利点を与えない場合、より良い予測に結果し得る。たとえば、空間的予測(たとえば、以下でより詳細に説明するイントラ予測)は、時間的予測またはレイヤ間予測(たとえば、それぞれ、以下でより詳細に説明するインター予測またはイントラBL予測)よりもわずかしか良好でない結果またはまったく良好でない結果を与え得る。インター予測は、重み付けされた方式で1つまたは複数の他の予測と組み合わされ得る。予測は、1つのモードに従って行われる予測が異なるモードに従って行われる予測よりも所与のビデオユニットの最終予測でより重度に重み付けされるように重み付けされ得る。合成予測は、随意に正規化され得る。このようにして生成された最終予測子は、任意の単一の予測子よりも実質的に良好な結果を与え得る。
[0032]いくつかの実施形態では、重み付けモードで使用される重みは、ビデオユニットの個別の色成分(たとえば、ルーマおよび両方のクロマ)のうちの1つまたは複数ごとに異なり得る。たとえば、重みの第1のセット(たとえば、0.5および0.5)が、ビデオユニットのルーマ成分のそれぞれ2つの異なる予測子に適用され得る。重みの第2のセット(たとえば、0および1)が、クロマ成分のそれぞれ2つの異なる予測子に適用され得る。いくつかの実施形態では、重み付けモードは、ルーマ成分だけになど、ビデオユニットの構成要素に選択的に適用され得る。
[0033]本明細書で説明する重み付けモードまたは合成モードで最終予測子を生成するために組み合わされ得る予測は、イントラBL予測など、インター予測、イントラ予測、および/またはレイヤ間予測に限定されない。むしろ、重み付けモードでビデオユニットの任意の予測が使用され得る。たとえば、残差予測技法を使用して再構成されるベースレイヤブロックに基づくエンハンスメントレイヤブロックの予測も使用され得る。このレイヤ間残差予測では、ベースレイヤの残差は、エンハンスメントレイヤ中の現在ブロックまたは他のビデオユニットを予測するために使用され得る。残差は、ビデオユニットの時間的予測とソースビデオユニット(たとえば、入力ビデオユニット)の時間的予測との間の差分として定義され得る。本明細書では一般化残差予測とも呼ばれるレイヤ間残差予測では、ベースレイヤの残差が現在のエンハンスメントレイヤの現在のブロックの予測に組み込まれる。残差予測技法について、以下でより詳細に説明する。重み付けモードで最終予測子を生成するために他の予測技法も組み合わされ得る。
[0034]本開示の追加の態様は、ビデオコーディング、ビデオ情報ストレージ、またはビットストリーム送信のパフォーマンスに対して重み付けモードの実装が有し得るあらゆる悪影響を低減するかまたはなくすことに関する。いくつかの実施形態では、重み付けモードは、いくつかのより大きいブロックサイズのためにのみ使用され得る。これにより、コード化ビットストリーム中に含まれる追加の重み付けモード情報の量を最小限に抑えることができる。追加の実施形態では、重み付けモードで使用されるときにいくつかの予測モードが限定または制限され得る。たとえば、最終予測子が重み付けモードで生成されているとき、エンハンスメントレイヤブロックのために単方向動き予測のみが使用され得る。これにより、コード化ビットストリーム中に含まれる動き補償情報の量と関連する計算複雑さとを低減することができる。さらなる実施形態では、重み付けモードで使用されるときに、場合によっては、いくつかの予測モードが改変され得る。たとえば、双方向動き補償情報がビットストリーム中に含まれる場合でも、単方向予測がいくつかのブロックサイズのために使用され、それによって、コーディング複雑さを低減し得る。別の例として、重み付けモードフラグがビットストリーム中でシグナリングされる場合でも、双方向動き補償情報が含まれるとき、または予測されるべきブロックがあるサイズを下回るとき、重み付けモードが使用されないことがあり、さもなければ、重み付けモードが使用されることになる。
[0035]本開示で説明する技法は、概して、スケーラブルビデオコーディング(SVC)および3Dビデオコーディングに関係する。たとえば、本技法は、高効率ビデオコーディング(HEVC)スケーラブルビデオコーディング(SVC)拡張に関係し、それとともにまたはそれの中で使用され得る。SVCは、(信号対雑音(SNR)とも呼ばれる)品質スケーラビリティ、空間スケーラビリティおよび/または時間スケーラビリティを与えるために使用され得る。SVC拡張では、ビデオ情報の複数のレイヤがあり得る。最下位レベルにあるレイヤはベースレイヤ(BL:base layer)として働き、最上位にあるレイヤはエンハンストレイヤ(EL:enhanced layer)として働き得る。「エンハンストレイヤ」は「エンハンスメントレイヤ」と呼ばれることがあり、これらの用語は互換的に使用され得る。中間にあるすべてのレイヤは、ELまたはBLの一方または両方として働き得る。たとえば、中間にあるレイヤは、ベースレイヤまたは介在エンハンスメントレイヤ(intervening enhancement layer)など、それの下のレイヤのためのELであり、同時にそれの上のエンハンスメントレイヤのためのBLとして働き得る。
[0036]単に説明のために、本開示で説明する技法は、単に2つのレイヤ(たとえば、ベースレイヤなどの下位レベルレイヤと、エンハンストレイヤなどの上位レベルレイヤ)を含む例を用いて説明する。本開示で説明する例が、複数のベースレイヤおよびエンハンスメントレイヤをもつ例にも拡張され得ることを理解されたい。
[0037]エンハンスメントレイヤは、ベースレイヤとは異なる空間解像度を有し得る。たとえば、ELとBLとの間の空間アスペクト比は、1.0、1.5、2.0または他の異なる比であり得る。言い換えれば、ELの空間アスペクトは、BLの空間アスペクトの1.0倍、1.5倍、または2.0倍に等しくなり得る。いくつかの例では、ELのスケーリングファクタはBLよりも大きくなり得る。たとえば、EL中のピクチャのサイズは、BL中のピクチャのサイズよりも大きくなり得る。このようにして、限定はしないが、ELの空間解像度がBLの空間解像度よりも大きくなることが可能であり得る。
[0038]ビデオコーディング規格は、ITU−T H.261、ISO/IEC MPEG−1 Visual、ITU−T H.262またはISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 Visual、およびそれのスケーラブルビデオコーディング(SVC)拡張とマルチビュービデオコーディング(MVC:Multiview Video Coding)拡張とを含む、(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264を含む。さらに、新しいビデオコーディング規格、すなわち、高効率ビデオコーディング(HEVC)が、ITU−T Video Coding Experts Group(VCEG)とISO/IEC Motion Picture Experts Group(MPEG)とのJoint Collaboration Team on Video Coding(JCT−VC)によって開発されている。2012年6月7日現在、http://wg11.sc29.org/jct/doc_end_user/current_document.php?id=5885/JCTVC-I1003-v2からHEVCの最近のドラフトが入手可能である。2012年6月7日現在、http://phenix.it-sudparis.eu/jct/doc_end_user/documents/9_Geneva/wg11/JCTVC-I1003-v3.zipから「HEVCワーキングドラフト7」と呼ばれるHEVC規格の別の最近のドラフトがダウンロード可能である。HEVCワーキングドラフト7についての完全引用は、文書HCTVC−I1003、Brossら、「High Efficiency Video Coding (HEVC) Text Specification Draft 7」、ITU−T SG16 WP3およびISO/IEC JTC1/SC29/WG11のJoint Collaborative Team on Video Coding(JCT−VC)、第9回会合:ジュネーブ、スイス、2012年4月27日〜2012年5月7日である。これらの参照の各々は、その全体が参照により組み込まれる。
[0039]添付の図面を参照しながら新規のシステム、装置、および方法の様々な態様について以下でより十分に説明する。ただし、本開示は、多くの異なる形態で実施され得、本開示全体にわたって提示される任意の特定の構造または機能に限定されるものと解釈されるべきではない。むしろ、これらの態様は、本開示が周到で完全になり、本開示の範囲を当業者に十分に伝えるように与えられる。本明細書の教示に基づいて、本開示の範囲は、本開示の他の態様とは無関係に実装されるにせよ、または本開示の他の態様と組み合わせて実装されるにせよ、本明細書で開示する新規のシステム、装置、および方法のいかなる態様をもカバーするものであることを、当業者なら諒解されたい。たとえば、本明細書に記載の態様の複数またはサブセットを使用しても、装置は実装され得、または方法は実施され得る。さらに、本開示の範囲は、本明細書の開示の様々な態様に加えてまたはそれらの態様以外に、他の構造、機能、または構造および機能を使用して実施されるそのような装置またはそのような方法をカバーするものとする。本明細書で開示する任意の態様が請求項の1つまたは複数の要素によって実施され得ることを理解されたい。
[0040]本明細書では特定の態様について説明するが、これらの態様の多くの変形および置換は本開示の範囲内に入る。好ましい態様のいくつかの利益および利点について説明するが、本開示の範囲は特定の利益、使用、または目的に限定されるものではない。むしろ、本開示の態様は、様々なワイヤレス技術、システム構成、ネットワーク、および伝送プロトコルに広く適用可能であるものとし、それらのいくつかを例として、図および好適な態様についての以下の説明において示す。発明を実施するための形態および図面は、本開示を限定するものではなく説明するものにすぎず、本開示の範囲は添付の特許請求の範囲およびそれの均等物によって定義される。
[0041]図1は、本開示で説明する態様による技法を利用し得る例示的なビデオ符号化および復号システムを示すブロック図である。図1に示すように、システム10は、宛先デバイス14によって後で復号されるべき符号化ビデオデータを与えるソースデバイス12を含む。特に、ソースデバイス12は、コンピュータ可読媒体16を介してビデオデータを宛先デバイス14に与える。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(たとえば、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備え得る。場合によっては、ソースデバイス12および宛先デバイス14は、ワイヤレス通信のために装備され得る。
[0042]宛先デバイス14は、コンピュータ可読媒体16を介して復号されるべき符号化ビデオデータを受信し得る。コンピュータ可読媒体16は、ソースデバイス12から宛先デバイス14に符号化されたビデオデータを移動させることができる任意のタイプの媒体またはデバイスを備え得る。一例では、コンピュータ可読媒体16は、ソースデバイス12が、符号化ビデオデータを宛先デバイス14にリアルタイムで直接送信することを可能にするための通信媒体を備え得る。符号化ビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、無線周波数(RF)スペクトルまたは1つもしくは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、ソースデバイス12から宛先デバイス14への通信を可能にするために有用であり得るルータ、スイッチ、基地局、または任意の他の機器を含み得る。
[0043]いくつかの例では、符号化データは、出力インターフェース22からストレージデバイスに出力され得る。同様に、符号化データは、入力インターフェースによってストレージデバイスからアクセスされ得る。ストレージデバイスは、ハードドライブ、ブルーレイ(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、揮発性もしくは不揮発性メモリ、または符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体など、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。さらなる一例では、ストレージデバイスは、ソースデバイス12によって生成された符号化ビデオを記憶し得るファイルサーバまたは別の中間ストレージデバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介してストレージデバイスから、記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶し、その符号化ビデオデータを宛先デバイス14に送信することが可能な任意のタイプのサーバであり得る。例示的なファイルサーバは、(たとえば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)デバイス、またはローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含む、任意の標準のデータ接続を介して符号化ビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、または両方の組合せを含み得る。ストレージデバイスからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組合せであり得る。
[0044]本開示の技法は、必ずしもワイヤレス適用例または設定に限定されるとは限らない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH:dynamic adaptive streaming over HTTP)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0045]図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。本開示によれば、ソースデバイス12のビデオエンコーダ20は、複数の規格または規格拡張に準拠するビデオデータを含むビットストリームをコーディングするための技法を適用するように構成され得る。他の例では、ソースデバイスおよび宛先デバイスは他の構成要素または構成を含み得る。たとえば、ソースデバイス12は、外部カメラなど、外部ビデオソース18からビデオデータを受信し得る。同様に、宛先デバイス14は、内蔵ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。
[0046]図1の図示のシステム10は一例にすぎない。現在のブロックの動きベクトル予測子の候補リストの候補を判断するための技法は、任意のデジタルビデオ符号化および/または復号デバイスによって実行され得る。概して、本開示の技法はビデオ符号化デバイスによって実行されるが、本技法は、一般に「コーデック」と呼ばれるビデオエンコーダ/デコーダによっても実行され得る。さらに、本開示の技法は、ビデオプリプロセッサによっても実行され得る。ソースデバイス12および宛先デバイス14は、ソースデバイス12が宛先デバイス14に送信するためのコード化ビデオデータを生成するような、コーディングデバイスの例にすぎない。いくつかの例では、デバイス12、14は、デバイス12、14の各々がビデオ符号化構成要素とビデオ復号構成要素とを含むように、実質的に対称的に動作し得る。したがって、システム10は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャストまたはビデオ電話のための、ビデオデバイス12とビデオデバイス14との間の一方向または双方向のビデオ送信をサポートし得る。
[0047]ソースデバイス12のビデオソース18は、ビデオカメラなどのビデオキャプチャデバイス、あらかじめキャプチャされたビデオを含んでいるビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースを含み得る。さらなる代替として、ビデオソース18は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブビデオとコンピュータ生成ビデオとの組合せを生成し得る。場合によっては、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラフォンまたはビデオフォンを形成し得る。ただし、上述のように、本開示で説明する技法は、概してビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤード適用例に適用され得る。各場合において、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成ビデオは、ビデオエンコーダ20によって符号化され得る。符号化されたビデオ情報は、次いで、出力インターフェース22によってコンピュータ可読媒体16上に出力され得る。
[0048]コンピュータ可読媒体16は、ワイヤレスブロードキャストまたはワイヤードネットワーク送信などの一時媒体、またはハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、ブルーレイディスク、または他のコンピュータ可読媒体などの記憶媒体(すなわち、非一時的記憶媒体)を含み得る。いくつかの例では、ネットワークサーバ(図示せず)は、ソースデバイス12から符号化ビデオデータを受信し、たとえば、ネットワーク送信、直接ワイヤード通信などを介して、その符号化ビデオデータを宛先デバイス14に与え得る。同様に、ディスクスタンピング設備など、媒体製造設備のコンピューティングデバイスは、ソースデバイス12から符号化ビデオデータを受信し、その符号化ビデオデータを含んでいるディスクを生成し得る。したがって、様々な例では、コンピュータ可読媒体16は、様々な形態の1つまたは複数のコンピュータ可読媒体を含むと理解され得る。
[0049]宛先デバイス14の入力インターフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義され、またビデオデコーダ30によって使用される、ブロックおよび他のコード化ユニット、たとえば、GOPの特性および/または処理を記述するシンタックス要素を含む、シンタックス情報を含み得る。ディスプレイデバイス32は、復号されたビデオデータをユーザに対して表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
[0050]ビデオエンコーダ20およびビデオデコーダ30は、現在開発中の高効率ビデオコーディング(HEVC)規格などのビデオコーディング規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20およびビデオデコーダ30は、代替的にMPEG−4,Part 10,Advanced Video Coding(AVC)と呼ばれるITU−T H.264規格など、他のプロプライエタリ規格もしくは業界規格、またはそのような規格の拡張に従って動作し得る。ただし、本開示の技法は、限定はしないが、上記に記載した規格のいずれかを含む特定のコーディング規格に限定されない。ビデオコーディング規格の他の例としては、MPEG−2およびITU−T H.263がある。図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、それぞれオーディオエンコーダおよびオーディオデコーダと統合され得、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含んで、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理し得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0051]ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアまたはそれらの任意の組合せなど、様々な好適なエンコーダ回路のいずれかとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェアの命令を記憶し、1つまたは複数のプロセッサを使用してその命令をハードウェアで実行して、本開示の技法を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。ビデオエンコーダ20および/またはビデオデコーダ30を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話などのワイヤレス通信デバイスを備え得る。
[0052]JCT−VCは、HEVC規格の開発に取り組んでいる。HEVC規格化の取り組みは、HEVCテストモデル(HM)と呼ばれるビデオコーディングデバイスの発展的モデルに基づく。HMは、たとえば、ITU−T H.264/AVCに従う既存のデバイスに対してビデオコーディングデバイスのいくつかの追加の能力を仮定する。たとえば、H.264は9つのイントラ予測符号化モードを提供するが、HMは33個ものイントラ予測符号化モードを提供し得る。
[0053]概して、HMの作業モデルは、ビデオフレームまたはピクチャが、ルーマサンプルとクロマサンプルの両方を含む一連のツリーブロックまたは最大コーディングユニット(LCU:largest coding unit)に分割され得ることを記載している。ビットストリーム内のシンタックスデータが、ピクセルの数に関して最大コーディングユニットであるLCUのサイズを定義し得る。スライスは、コーディング順序でいくつかの連続するツリーブロックを含む。ビデオフレームまたはピクチャは、1つまたは複数のスライスに区分され得る。各ツリーブロックは、4分木に従ってコーディングユニット(CU)に分割され得る。概して、4分木データ構造はCUごとに1つのノードを含み、ルートノードはツリーブロックに対応する。CUが4つのサブCUに分割された場合、CUに対応するノードは4つのリーフノードを含み、リーフノードの各々はサブCUのうちの1つに対応する。
[0054]4分木データ構造の各ノードは、対応するCUのシンタックスデータを与え得る。たとえば、4分木のノードは、そのノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUのシンタックス要素は、再帰的に定義され得、かつCUがサブCUに分割されるかどうかに依存し得る。CUがさらに分割されない場合、そのCUはリーフCUと呼ばれる。本開示では、元のリーフCUの明示的分割が存在しない場合でも、リーフCUの4つのサブCUをリーフCUとも呼ぶ。たとえば、16×16サイズのCUがさらに分割されない場合、この16×16CUが決して分割されなくても、4つの8×8サブCUをリーフCUとも呼ぶ。
[0055]CUは、CUがサイズの差異を有さないことを除いて、H.264規格のマクロブロックと同様の目的を有する。たとえば、ツリーブロックは、4つの子ノード(サブCUとも呼ばれる)に分割され得、各子ノードは、今度は親ノードとなり、別の4つの子ノードに分割され得る。4分木のリーフノードと呼ばれる、最後の分割されていない子ノードは、リーフCUとも呼ばれるコーディングノードを備える。コード化ビットストリームに関連するシンタックスデータは、最大CU深さと呼ばれる、ツリーブロックが分割され得る最大回数を定義し得、また、コーディングノードの最小サイズを定義し得る。それに応じて、ビットストリームは最小コーディングユニット(SCU:smallest coding unit)をも定義し得る。本開示では、HEVCのコンテキストにおけるCU、PU、もしくはTU、または他の規格のコンテキストにおける同様のデータ構造(たとえば、H.264/AVCにおけるマクロブロックおよびそれのサブブロック)のいずれかを指すために「ブロック」という用語を使用する。
[0056]CUは、コーディングノードと、コーディングノードに関連する予測ユニット(PU:prediction unit)および変換ユニット(TU:transform unit)とを含む。CUのサイズは、コーディングノードのサイズに対応し、かつ形状が方形でなければならない。CUのサイズは、8×8ピクセルから最大64×64以上のピクセルを有するツリーブロックのサイズまでに及び得る。各CUは、1つまたは複数のPUと、1つまたは複数のTUとを含み得る。CUに関連するシンタックスデータは、たとえば、CUを1つまたは複数のPUに区分することを記述し得る。区分モードは、CUが、スキップモード符号化もしくはダイレクトモード符号化されるか、イントラ予測モード符号化されるか、またはインター予測モード符号化されるかによって異なり得る。PUは、形状が非方形になるように区分され得る。CUに関連するシンタックスデータは、たとえば、4分木に従って、CUを1つまたは複数のTUに区分することも記述し得る。TUは、形状が方形または非方形(たとえば、矩形)であり得る。
[0057]HEVC規格は、CUごとに異なり得るTUに従う変換を可能にする。TUは、一般に、区分されたLCUについて定義された所与のCU内のPUのサイズに基づいてサイズ決定されるが、常にそうであるとは限らない。TUは、一般にPUと同じサイズであるかまたはPUよりも小さい。いくつかの例では、CUに対応する残差サンプルは、「残差クワッドツリー」(RQT:residual quad tree)として知られるクワッドツリー構造を使用して、より小さいユニットに再分割され得る。RQTのリーフノードは変換ユニット(TU)と呼ばれることがある。TUに関連するピクセル差分値は、量子化され得る変換係数を生成するために変換され得る。
[0058]リーフCUは、1つまたは複数の予測ユニット(PU)を含み得る。概して、PUは、対応するCUの全部または一部分に対応する空間的エリアを表し、そのPUの参照サンプルを取り出すためのデータを含み得る。その上、PUは、予測に関係するデータを含む。たとえば、PUがイントラモード符号化されるとき、PUについてのデータは、PUに対応するTUについてのイントラ予測モードを記述するデータを含み得る残差4分木(RQT)中に含まれ得る。別の例として、PUがインターモード符号化されるとき、PUは、PUのための1つまたは複数の動きベクトルを定義するデータを含み得る。PUの動きベクトルを定義するデータは、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(たとえば、1/4ピクセル精度または1/8ピクセル精度)、動きベクトルが指す参照ピクチャ、および/または動きベクトルの参照ピクチャリスト(たとえば、リスト0、リスト1、またはリストC)を記述し得る。
[0059]1つまたは複数のPUを有するリーフCUはまた、1つまたは複数の変換ユニット(TU)を含み得る。変換ユニットは、上記で説明したように、(TU4分木構造とも呼ばれる)RQTを使用して指定され得る。たとえば、分割フラグは、リーフCUが4つの変換ユニットに分割されるかどうかを示し得る。次いで、各変換ユニットは、さらに、さらなるサブTUに分割され得る。TUがさらに分割されないとき、そのTUはリーフTUと呼ばれることがある。概して、イントラコーディングの場合、リーフCUに属するすべてのリーフTUは同じイントラ予測モードを共有する。すなわち、概して、リーフCUのすべてのTUの予測値を計算するために同じイントラ予測モードが適用される。イントラコーディングの場合、ビデオエンコーダは、イントラ予測モードを使用して各リーフTUの残差値をTUに対応するCUの一部と元のブロックとの間の差分として計算し得る。TUは、必ずしもPUのサイズに制限されるとは限らない。したがって、TUはPUよりも大きくまたは小さくなり得る。イントラコーディングの場合、PUは、同じCUの対応するリーフTUとコロケートされ得る。いくつかの例では、リーフTUの最大サイズは、対応するリーフCUのサイズに対応し得る。
[0060]さらに、リーフCUのTUはまた、残差4分木(RQT)と呼ばれる、それぞれの4分木データ構造に関連付けられ得る。すなわち、リーフCUは、リーフCUがどのようにTUに区分されるかを示す4分木を含み得る。TU4分木のルートノードは概してリーフCUに対応し、CU4分木のルートノードは概してツリーブロック(またはLCU)に対応する。分割されないRQTのTUはリーフTUと呼ばれる。概して、本開示では、特に明記しない限り、リーフCUおよびリーフTUに言及するためにそれぞれCUおよびTUという用語を使用する。
[0061]ビデオシーケンスは、一般に、一連のビデオフレームまたはピクチャを含む。ピクチャグループ(GOP)は、概して、ビデオピクチャのうちの一連の1つまたは複数を備える。GOPは、GOP中に含まれるいくつかのピクチャを記述するシンタックスデータを、GOPのヘッダ中、ピクチャのうちの1つまたは複数のヘッダ中、または他の場所に含み得る。ピクチャの各スライスは、それぞれのスライスの符号化モードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は、一般に、ビデオデータを符号化するために個々のビデオスライス内のビデオブロックに対して動作する。ビデオブロックは、CU内のコーディングノードに対応し得る。ビデオブロックは、固定サイズまたは可変サイズを有し得、かつ指定のコーディング規格に応じてサイズが異なり得る。
[0062]一例として、HMは、様々なPUサイズでの予測をサポートする。特定のCUのサイズが2N×2Nであると仮定すると、HMは、2N×2NまたはN×NのPUサイズでのイントラ予測をサポートし、2N×2N、2N×N、N×2N、またはN×Nの対称的なPUサイズでのインター予測をサポートする。HMはまた、2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズでのインター予測のための非対称区分をサポートする。非対称区分では、CUの一方向は区分されないが、他の方向は25%と75%とに区分される。25%の区分に対応するCUの部分は、「n」とその後ろに付く「Up」、「Down」、「Left」、または「Right」という表示によって示される。したがって、たとえば、「2N×nU」は、上部の2N×0.5N PUと下部の2N×1.5N PUとで水平方向に区分された2N×2N CUを指す。
[0063]本開示では、「N×N(NxN)」および「N×N(N by N)」は、垂直寸法および水平寸法に関するビデオブロックのピクセル寸法、たとえば、16×16(16x16)ピクセルまたは16×16(16 by 16)ピクセルを指すために互換的に使用され得る。概して、16×16ブロックは、垂直方向に16ピクセルを有し(y=16)、水平方向に16ピクセルを有する(x=16)。同様に、N×Nブロックは、概して、垂直方向にNピクセルを有し、水平方向にNピクセルを有し、ただし、Nは非負整数値を表す。ブロック中のピクセルは行と列で構成され得る。さらに、ブロックは、必ずしも、水平方向に垂直方向と同じ数のピクセルを有さなくてもよい。たとえば、ブロックはN×Mピクセルを備え得、ただし、Mは必ずしもNに等しいとは限らない。
[0064]CUのPUを使用したイントラ予測コーディングまたはインター予測コーディングの後、ビデオエンコーダ20は、CUのTUのための残差データを計算し得る。PUは、(ピクセル領域とも呼ばれる)空間領域において予測ピクセルデータを生成する方法またはモードを記述するシンタックスデータを備え得、TUは、変換、たとえば、残差ビデオデータへの離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に同様の変換の適用後に、変換領域において係数を備え得る。残差データは、符号化されていないピクチャのピクセルと、PUに対応する予測値との間のピクセル差分に対応し得る。ビデオエンコーダ20は、CUのための残差データを含むTUを形成し、次いで、TUを変換して、CUの変換係数を生成し得る。
[0065]変換係数を生成するための任意の変換の後に、ビデオエンコーダ20は、変換係数の量子化を実行し得る。量子化は、その最も広い通常の意味を有することが意図された広義の用語である。一実施形態では、量子化は、係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を行うプロセスを指す。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。たとえば、量子化中にnビット値がmビット値に切り捨てられ得、ただし、nはmよりも大きい。
[0066]量子化の後に、ビデオエンコーダは、変換係数を走査して、量子化変換係数を含む2次元行列から1次元ベクトルを生成し得る。走査は、より高いエネルギー(したがってより低い周波数)の係数をアレイの前方に配置し、より低いエネルギー(したがってより高い周波数)の係数をアレイの後方に配置するように設計され得る。いくつかの例では、ビデオエンコーダ20は、エントロピー符号化され得るシリアル化ベクトルを生成するために、量子化変換係数を走査するためにあらかじめ定義された走査順序を利用し得る。他の例では、ビデオエンコーダ20は適応型走査を実行し得る。量子化変換係数を走査して1次元ベクトルを形成した後に、ビデオエンコーダ20は、たとえば、コンテキスト適応型可変長コーディング(CAVLC:context-adaptive variable length coding)、コンテキスト適応型バイナリ算術コーディング(CABAC:context-adaptive binary arithmetic coding)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)、確率間隔区分エントロピー(PIPE:Probability Interval Partitioning Entropy)コーディング、または別のエントロピー符号化方法に従って1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ20はまた、ビデオデータを復号する際にビデオデコーダ30が使用するための符号化ビデオデータに関連するシンタックス要素をエントロピー符号化し得る。
[0067]CABACを実行するために、ビデオエンコーダ20は、送信されるべきシンボルに、コンテキストモデル内のコンテキストを割り当て得る。コンテキストは、たとえば、シンボルの隣接値が非0であるか否かに関係し得る。CAVLCを実行するために、ビデオエンコーダ20は、送信されるべきシンボルのための可変長コードを選択し得る。VLCにおけるコードワードは、比較的短いコードが優勢シンボルに対応し、より長いコードが劣勢シンボルに対応するように構成され得る。このようにして、VLCの使用は、たとえば、送信されるべき各シンボルのために等長コードワードを使用するよりも、ビット節約を達成し得る。確率判断は、シンボルに割り当てられたコンテキストに基づき得る。
[0068]ビデオエンコーダ20は、さらに、ブロックベースのシンタックスデータ、フレームベースのシンタックスデータ、およびGOPベースのシンタックスデータなどのシンタックスデータを、たとえば、フレームヘッダ、ブロックヘッダ、スライスヘッダ、またはGOPヘッダ中でビデオデコーダ30に送り得る。GOPシンタックスデータは、それぞれのGOP中のいくつかのフレームを記述し得、かつフレームシンタックスデータは、対応するフレームを符号化するために使用される符号化/予測モードを示し得る。
[0069]図2は、本開示で説明する態様による技法を実装し得るビデオエンコーダの例を示すブロック図である。ビデオエンコーダ20は、本開示の技法のいずれかまたはすべてを実行するように構成され得る。一例として、モード選択ユニット40は、本開示で説明する技法のいずれかまたはすべてを実行するように構成され得る。ただし、本開示の態様はそのように限定されない。いくつかの例では、本開示で説明する技法は、ビデオエンコーダ20の様々な構成要素間で共有され得る。いくつかの例では、追加としてまたは代わりに、プロセッサ(図示せず)が、本開示で説明する技法のいずれかまたはすべてを実行するように構成され得る。
[0070]いくつかの実施形態では、モード選択ユニット40、動き推定ユニット42、動き補償ユニット44、レイヤ間予測ユニット45、イントラ予測ユニット46、重み付け予測ユニット47、もしくはモード選択ユニット40の別の構成要素(図示済みまたは図示せず)、またはエンコーダ20の別の構成要素(図示済みまたは図示せず)が本開示の技法を実行し得る。たとえば、モード選択ユニット40は、符号化するためのビデオデータを受信し得、符号化するためのビデオデータは、ベースレイヤと対応する1つまたは複数のエンハンスメントレイヤとに符号化され得る。モード選択ユニット40、動き推定ユニット42、動き補償ユニット44、レイヤ間予測ユニット45、イントラ予測ユニット46、重み付け予測ユニット47、またはエンコーダ20の別の適切なユニットは、イントラ予測、インター予測、イントラBL予測などのレイヤ間予測、一般化残差予測などを含む2つ以上の重み付け予測の組合せに少なくとも部分的に基づいて現在のビデオユニットの値を判断し得る。エンコーダ20は、ビデオユニットを符号化し、ビットストリーム中で(1つまたは複数の)重み係数または重み情報をシグナリングすることができる。
[0071]ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングおよびインターコーディングを実行し得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオの空間的冗長性を低減または除去するために空間的予測に依拠する。インターコーディングは、ビデオシーケンスの隣接フレームまたはピクチャ内のビデオの時間的冗長性を低減または除去するために時間的予測に依拠する。イントラモード(Iモード)は、いくつかの空間ベースのコーディングモードのいずれかを指し得る。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベースのコーディングモードのいずれかを指し得る。
[0072]図2に示すように、ビデオエンコーダ20は、符号化されるべきビデオフレーム内の現在のビデオブロックを受信する。図1の例では、ビデオエンコーダ20は、モード選択ユニット40と、参照フレームメモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピーコーディングユニット56とを含む。モード選択ユニット40は、今度は、動き補償ユニット44と、動き推定ユニット42と、レイヤ間予測ユニット45と、イントラ予測ユニット46と、重み付け予測ユニット47と、パーティションユニット48とを含む。ビデオブロック再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。再構成されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタ処理するデブロッキングフィルタ(図2に図示せず)も含まれ得る。所望される場合、デブロッキングフィルタは、一般に、加算器62の出力をフィルタ処理することになる。また、デブロッキングフィルタに加えて追加のフィルタ(ループ内またはループ後)が使用され得る。そのようなフィルタは、簡潔のために示されていないが、所望される場合、(ループ内フィルタとして)加算器62の出力をフィルタ処理し得る。
[0073]符号化プロセス中に、ビデオエンコーダ20は、コーディングされるべきビデオフレームまたはスライスを受信する。フレームまたはスライスは複数のビデオブロックに分割され得る。動き推定ユニット42および動き補償ユニット44は、時間的予測を行うために、1つまたは複数の参照フレーム中の1つまたは複数のブロックに対して、受信されたビデオブロックのインター予測コーディングを実行する。レイヤ間予測ユニット45は、以下でより詳細に説明するように、ベースレイヤのコロケートブロックなど、ビデオ情報の異なるレイヤの1つまたは複数のブロックに対して受信されたビデオブロックのレイヤ間予測コーディングを代替的に実行し得る。イントラ予測ユニット46は、代替的に、空間的予測を行うために、コーディングされるべきブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに対して受信されたビデオブロックのイントラ予測コーディングを実行し得る。ビデオエンコーダ20は、たとえば、ビデオデータのブロックごとに適切なコーディングモードを選択するために、複数のコーディングパスを実行し得る。重み付け予測ユニット47は、以下でより詳細に説明するように、様々な予測モードに従って行われる予測の組合せを使用して重み付け予測を代替的に実行し得る。
[0074]その上、パーティションユニット48は、前のコーディングパスにおける前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。たとえば、パーティションユニット48は、初めにフレームまたはスライスをLCUに区分し、レートひずみ分析(たとえば、レートひずみ最適化)に基づいてLCUの各々をサブCUに区分し得る。モード選択ユニット40は、LCUをサブCUに区分することを示す4分木データ構造をさらに生成し得る。4分木のリーフノードCUは、1つまたは複数のPUおよび1つまたは複数のTUを含み得る。
[0075]モード選択ユニット40は、たとえば、誤差結果に基づいて、コーディングモード、すなわち、イントラまたはインターのうちの1つを選択することができ、残差ブロックデータを生成するために、得られたイントラコーディングされたブロックまたはインターコーディングされたブロックを加算器50に与え、かつ参照フレームとして使用するための符号化されたブロックを復元するために、得られたイントラコーディングされたブロックまたはインターコーディングされたブロックを加算器62に与える。モード選択ユニット40はまた、動きベクトル、イントラモードインジケータ、パーティション情報、および他のそのようなシンタックス情報などのシンタックス要素をエントロピーコーディングユニット56に与える。
[0076]動き推定ユニット42および動き補償ユニット44は、高度に統合され得るが、概念的な目的のために別々に示してある。動き推定ユニット42によって実行される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、現在のフレーム(または他のコード化ユニット)内でコーディングされている現在のブロックに対する参照フレーム(または他のコード化ユニット)内の予測ブロックに対する現在のビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。予測ブロックは、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、または他の差分メトリックによって判断され得るピクセル差分に関して、コーディングされるべきブロックにぴったり一致することがわかるブロックである。いくつかの例では、ビデオエンコーダ20は、参照フレームメモリ64に記憶された参照ピクチャのサブ整数ピクセル位置の値を計算し得る。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置と分数ピクセル位置とに対する動き探索を実行し、分数ピクセル精度で動きベクトルを出力し得る。
[0077]動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコード化スライスにおけるビデオブロックのPUのための動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得、それらの参照ピクチャリストの各々は、参照フレームメモリ64に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。
[0078]動き補償ユニット44によって実行される動き補償は、動き推定ユニット42によって判断された動きベクトルに基づいて予測ブロックをフェッチまたは生成することに関与し得る。この場合も、いくつかの例では、動き推定ユニット42および動き補償ユニット44は機能的に統合され得る。現在のビデオブロックのPUについての動きベクトルを受信すると、動き補償ユニット44は、動きベクトルが参照ピクチャリストのうちの1つにおいて指す予測ブロックの位置を特定し得る。加算器50は、以下で説明するように、コーディングされている現在のビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって、残差ビデオブロックを形成する。概して、動き推定ユニット42はルーマ成分に対して動き推定を実行し、かつ動き補償ユニット44は、クロマ成分とルーマ成分の両方のためにルーマ成分に基づいて計算された動きベクトルを使用する。モード選択ユニット40はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30が使用するためのビデオブロックとビデオスライスとに関連するシンタックス要素を生成し得る。
[0079]イントラ予測ユニット46は、上記で説明したように、動き推定ユニット42と動き補償ユニット44とによって実行されるインター予測の代替として、現在ブロックをイントラ予測または計算し得る。特に、イントラ予測ユニット46は、現在のブロックを符号化するために使用すべきイントラ予測モードを判断し得る。いくつかの例では、イントラ予測ユニット46は、たとえば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在のブロックを符号化し得、イントラ予測ユニット46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。
[0080]たとえば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードのためのレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの中で最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は、概して、符号化ブロックと、符号化ブロックを生成するために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化ブロックを生成するために使用されるビットレート(すなわち、ビット数)を判断する。イントラ予測ユニット46は、どのイントラ予測モードがブロックについて最良のレートひずみ値を呈するかを判断するために、様々な符号化ブロックのひずみおよびレートから比率を計算し得る。
[0081]ブロックのためのイントラ予測モードを選択した後に、イントラ予測ユニット46は、ブロックのための選択されたイントラ予測モードを示す情報をエントロピーコーディングユニット56に提供し得る。エントロピーコーディングユニット56は、選択されたイントラ予測モードを示す情報を符号化し得る。ビデオエンコーダ20は、送信ビットストリーム中に、複数のイントラ予測モードインデックステーブルおよび複数の変更されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも呼ばれる)と、様々なブロックの符号化コンテキストの定義と、コンテキストの各々について使用すべき、最確イントラ予測モード、イントラ予測モードインデックステーブル、および変更されたイントラ予測モードインデックステーブルの指示とを含み得る構成データを含み得る。
[0082]ビデオエンコーダ20は、コーディングされている元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって残差ビデオブロックを形成する。加算器50は、この減算演算を実行する1つまたは複数の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換処理ユニット52は、DCTと概念的に同様である他の変換を実行し得る。ウェーブレット変換、整数変換、サブバンド変換または他のタイプの変換も使用され得る。いずれの場合も、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報をピクセル値領域から周波数領域などの変換領域に変換し得る。変換処理ユニット52は、得られた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット54は、次いで、量子化変換係数を含む行列の走査を実行し得る。代替的に、エントロピー符号化ユニット56が走査を実行し得る。
[0083]量子化の後、エントロピーコーディングユニット56は、量子化変換係数をエントロピーコーディングする。たとえば、エントロピーコーディングユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディングまたは別のエントロピーコーディング技法を実行し得る。コンテキストベースのエントロピーコーディングの場合、コンテキストは、隣接するブロックに基づき得る。エントロピーコーディングユニット56によるエントロピーコーディングの後、符号化されたビットストリームは、別のデバイス(たとえば、ビデオデコーダ30)に送信されるか、または後で送信するかまたは取り出すためにアーカイブされ得る。
[0084]逆量子化ユニット58および逆変換ユニット60は、それぞれ逆量子化および逆変換を適用して、たとえば参照ブロックとして後で使用するために、ピクセル領域中で残差ブロックを再構成する。動き補償ユニット44は、残差ブロックを参照フレームメモリ64のフレームのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、再構成された残差ブロックに1つまたは複数の補間フィルタを適用して、動き推定において使用するサブ整数ピクセル値を計算し得る。加算器62は、再構成された残差ブロックを、動き補償ユニット44によって生成された動き補償予測ブロックに加算して、参照フレームメモリ64に記憶するための再構成されたビデオブロックを生成する。再構成されたビデオブロックは、後続のビデオフレーム中のブロックをインターコーディングするために動き推定ユニット42および動き補償ユニット44によって参照ブロックとして使用され得る。
[0085]図3は、本開示で説明する態様による技法を実装し得るビデオデコーダの例を示すブロック図である。ビデオデコーダ30は、本開示の技法のいずれかまたはすべてを実行するように構成され得る。一例として、動き補償ユニット72、レイヤ間予測ユニット73、イントラ予測ユニット74、および/または重み付け予測ユニット75は、本開示で説明する技法のいずれかまたはすべてを実行するように構成され得る。ただし、本開示の態様はそのように限定されない。いくつかの例では、本開示で説明する技法は、ビデオデコーダ30の様々な構成要素間で共有され得る。いくつかの例では、追加としてまたは代わりに、プロセッサ(図示せず)が、本開示で説明する技法のいずれかまたはすべてを実行するように構成され得る。
[0086]いくつかの実施形態では、エントロピー復号ユニット70、動き補償ユニット72、レイヤ間予測ユニット73、イントラ予測ユニット74、重み付け予測ユニット75、またはデコーダ30の別の構成要素(図示済みまたは図示せず)が本開示の技法を実行し得る。たとえば、エントロピー復号ユニット70は、符号化ビデオビットストリームを受信し得、符号化ビデオビットストリームは、ベースレイヤと対応する1つまたは複数のエンハンスメントレイヤとに関するデータを符号化し得る。動き補償ユニット72、レイヤ間予測ユニット73、イントラ予測ユニット74、重み付け予測ユニット75、またはデコーダ30の別の適切なユニットは、イントラ予測、インター予測、イントラBL予測、一般化残差予測などを含む2つ以上の重み付け予測の組合せに少なくとも部分的に基づいて現在のビデオユニットの値を判断し得る。デコーダ30は、ビデオユニットを復号し、ビットストリーム中で(1つまたは複数の)重み係数または重み情報を受信することができる。
[0087]図3の例では、ビデオデコーダ30は、エントロピー復号ユニット70と、動き補償ユニット72と、レイヤ間予測ユニット73と、イントラ予測ユニット74と、重み付け予測ユニット75と、逆量子化ユニット76と、逆変換ユニット78と、参照フレームメモリ82と、加算器80とを含む。ビデオデコーダ30は、いくつかの例では、ビデオエンコーダ20(図2)に関して説明した符号化パスとは概して逆の復号パスを実行し得る。動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルに基づいて予測データを生成し得、イントラ予測ユニット74は、エントロピー復号ユニット70から受信されたイントラ予測モードインジケータに基づいて予測データを生成し得る。
[0088]復号プロセス中に、ビデオデコーダ30は、ビデオエンコーダ20から、符号化ビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化ビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット70は、量子化係数、動きベクトルまたはイントラ予測モードインジケータ、および他のシンタックス要素を生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット70は、動きベクトルと他の予測シンタックス要素とを動き補償ユニット72に転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。
[0089]ビデオスライスがイントラコード化(I)スライスとしてコーディングされるとき、イントラ予測ユニット74は、シグナリングされたイントラ予測モードと、現在フレームまたはピクチャの、前に復号されたブロックからのデータとに基づいて、現在のビデオスライスのビデオブロックのための予測データを生成し得る。ビデオフレームがインターコード化(たとえば、B、PまたはGPB)スライスとしてコーディングされるとき、動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルと他のシンタックス要素とに基づいて、現在のビデオスライスのビデオブロックのための予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照フレームメモリ92に記憶された参照ピクチャに基づいて、デフォルトの構成技法を使用して、参照フレームリスト、すなわち、リスト0およびリスト1を構成し得る。動き補償ユニット72は、動きベクトルと他のシンタックス要素とをパースすることによって現在のビデオスライスのビデオブロックのための予測情報を判断し、その予測情報を使用して、復号されている現在のビデオブロックのための予測ブロックを生成する。たとえば、動き補償ユニット72は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(たとえば、イントラまたはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)と、スライスの参照ピクチャリストのうちの1つまたは複数のための構成情報と、スライスの各インター符号化ビデオブロックのための動きベクトルと、スライスの各インターコード化ビデオブロックのためのインター予測ステータスと、現在のビデオスライス中のビデオブロックを復号するための他の情報とを判断するために、受信されたシンタックス要素のいくつかを使用する。
[0090]動き補償ユニット72はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット72は、ビデオブロックの符号化中にビデオエンコーダ20によって使用された補間フィルタを使用して、参照ブロックのサブ整数ピクセルの補間値を計算し得る。この場合、動き補償ユニット72は、受信されたシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを判断し、その補間フィルタを使用して予測ブロックを生成し得る。
[0091]逆量子化ユニット76は、ビットストリーム中で与えられ、エントロピー復号ユニット80によって復号された量子化変換係数を逆量子化(inverse quantize)、たとえば、逆量子化(de-quantize)する。逆量子化プロセスは、量子化の程度を判断し、同様に、適用されるべき逆量子化の程度を判断するための、ビデオスライス中のビデオブロックごとにビデオデコーダ30によって計算される量子化パラメータQPYの使用を含み得る。
[0092]逆変換ユニット78は、ピクセル領域において残差ブロックを生成するために、逆変換、たとえば逆DCT、逆整数変換、または概念的に同様の逆変換プロセスを変換係数に適用する。
[0093]動き補償ユニット82が、動きベクトルと他のシンタックス要素とに基づいて現在のビデオブロックのための予測ブロックを生成した後に、ビデオデコーダ30は、逆変換ユニット78からの残差ブロックを動き補償ユニット72によって生成された対応する予測ブロックに加算することによって、復号されたビデオブロックを形成する。加算器90は、この加算演算を実行する1つまたは複数の構成要素を表す。所望される場合、ブロッキネスアーティファクトを除去するために、復号ブロックをフィルタ処理するためにデブロッキングフィルタも適用され得る。ピクセル遷移を平滑化するために、または場合によってはビデオ品質を改善するために、他のループフィルタも(コーディングループ中またはコーディングループ後のいずれかで)使用され得る。所与のフレームまたはピクチャ中の復号されたビデオブロックは、次いで、その後の動き補償のために使用される参照ピクチャを記憶する参照ピクチャメモリ92に記憶される。参照フレームメモリ82はまた、図1のディスプレイデバイス32などのディスプレイデバイス上での後の表示のための、復号されたビデオを記憶する。
[0094]上記で説明した例示的なエンコーダ20およびデコーダ30は、例にすぎず、限定するものではない。いくつかの実施形態では、本明細書で説明する技法を実行し、機能を与えるように構成されたエンコーダまたはデコーダは、追加の構成要素またはより少ない構成要素を含み得る。いくつかの実施形態では、他の構成要素またはデバイスは、コンピュータ可読媒体に記憶された特定の命令を実行するように構成された汎用コンピュータプロセッサなど、本明細書で説明する機能を与え得る。
[0095]上記で説明したように、重み付けモード予測は、様々な予測モードに従って生成される個別の予測の組合せを含み得る。たとえば、単一の重み付けモード予測は、イントラ予測および/またはインター予測を含み得る。SVC固有の予測モードはまた、重み付けモードの個別の予測を与えるために使用され得る。たとえば、イントラBLモード、差分領域イントラモードに従って行われる予測、一般化残差予測などは、互いにおよび/またはインター予測、イントラ予測などと組み合わされ得る。これらおよび他の予測モードについて以下でより詳細に説明する。上述の予測モードは、例にすぎず、限定するものではない。概して、任意の予測モードまたは技法に従って行われる予測は、本明細書で説明する重み付けモードで組み合わされ得る。
[0096]図4Aに、レイヤ内予測とレイヤ間予測の両方を含む、特定のビデオユニットの例示的な予測を示す。エンハンスメントレイヤ(EL)フレーム140のブロックまたは他のビデオユニットは、同じフレーム中と異なるフレーム中の両方および同じレイヤ中または異なるレイヤ中の両方の様々なソースから予測され得る。図4Aに示すように、現在のブロック142は、同じフレーム140中および同じレイヤ(EL)中の別のブロック144から(A)において予測され得る。現在のブロック142はまた、同じレイヤ中の参照フレーム130中の対応するブロック132から(B)において予測され得る。現在のブロック142はまた、異なるレイヤ−ベースレイヤ(BL)のフレーム120中の対応するブロック122から(C)において予測され得る。ELが、異なる解像度、たとえば、より大きい解像度を有する場合、そのBL(たとえば、ELが空間魅力を与える)、対応するELブロックを予測するより前にELの解像度に一致するようにBL再構成ブロックのアップサンプリングが適用され得る。
[0097]レイヤ間予測のいくつかの例としては、レイヤ間イントラ予測、レイヤ間動き予測、およびレイヤ間残差予測があり得る。レイヤ間イントラ予測またはIntraBLは、ベースレイヤ中のコロケートブロックの再構成を使用してエンハンスメントレイヤ中の現在ブロックを予測する。レイヤ間動き予測は、ベースレイヤの動きを使用してエンハンスメントレイヤ中の動作を予測する。レイヤ間残差予測は、ベースレイヤの残差を使用してエンハンスメントレイヤの残差を予測する。
[0098]レイヤ間残差予測では、ベースレイヤの残差は、エンハンスメントレイヤ中の現在ブロックを予測するために使用され得る。残差は、ビデオユニットの時間的予測とソースビデオユニットとの間の差分として定義され得る。いくつかの実施形態では、現在ELブロックは、エンハンスメントレイヤからの残差、エンハンスメントレイヤからの時間的予測、およびベースレイヤからの残差を使用して再構成され得る。現在ブロックは以下の式に従って再構成され得る。
Figure 2015531561
上式で、
Figure 2015531561
(または
Figure 2015531561
)は現在ブロックの再構成を示し、reはエンハンスメントレイヤからの残差を示し、Pe(Pc)はエンハンスメントレイヤからの時間的予測を示し、rbはベースレイヤからの残差予測を示す。
[0099]エンハンスメントレイヤ中のブロックのためにレイヤ間残差予測を使用するために、ベースレイヤ中のコロケートブロックはインターコード化ブロックであるべきであり、コロケートベースレイヤブロックの残差は、(たとえば、SVCにおけるレイヤは異なる空間解像度を有し得るので)エンハンスメントレイヤの空間解像度比に従ってアップサンプリングされ得る。レイヤ間残差予測では、エンハンスメントレイヤの残差とアップサンプリングされたベースレイヤの残差との間の差分がビットストリーム中でコーディングされ得る。ベースレイヤの残差は、ベースレイヤの量子化ステップとエンハンスメントレイヤの量子化ステップとの間の比に基づいて正規化され得る。レイヤ間残差予測については、以下でより詳細に説明する。
[00100]最終予測にさらなるダイバーシティを追加するために、上記で説明した予測モードまたは他の予測モードからの予測子が重み付けされ組み合わされて、重み付けモード予測子を生成し得る。図4Bに、重み付けモードで生成された現在のブロック142の例示的な予測を示す。同じレイヤ中のブロック144からのイントラ予測は、重み付けされ、ベースレイヤ中のブロック122からの重み付けイントラBL予測と組み合わされ得る。別の例では、同じレイヤ中のブロック132からのインター予測は、重み付けされ、ベースレイヤ中のブロック122からの重み付けイントラBL予測と組み合わされ得る。もう1つの例では、3つすべての前述の予測(イントラ予測、インター予測およびレイヤ間予測)が、重み付けされ組み合わされ得る。したがって、ブロック142の再構成は、いくつかの個別の予測から判断された多様な予測に基づき得る。これは、個別の予測モードに固有の誤りおよび他の制限を回避するのに役立ち得る。
[00101]概して説明するように、重み付けモード予測子は、次のように判断され得る。
Figure 2015531561
上式で、Predictoriは、ある予測モードからの予測子であり、wiは、予測モードに対応する重みであり、Normは、正規化ファクタである。合計は、予測モードの数iにわたって実行される。いくつかの実施形態では、予測モードの数iは3以上であり得る。
[00102]式(2)における重みおよび正規化ファクタは、任意の数(たとえば、浮動小数点数または整数)であり得、色成分ごとに異なり得る。1つの特定の非限定的な実施形態では、ルーマ成分については、w1=1、w2=1、およびNorm=2であり、一方、クロマ成分については、w1=0、w2=1、およびNorm=1である。これらの重みは、例示的なものにすぎない。いくつかの実施形態では、重みは、予測されているビデオユニットの各色成分について同じであり得る。
[00103]いくつかの実施形態では、次のように追加の制約が式(2)に課され得る。
Figure 2015531561
式(3)に示すように、正規化ファクタNormは、重み係数の和に等しくなり得る。そのような制約がNormに課されるとき、式(2)は、複数の予測子の重み付け平均を生成することができる。
[00104]図5に、重み付けモードを使用して、ピクセルまたはピクセルのブロックなどの現在のビデオユニットの値を判断するための例示的な方法またはプロセス500を示す。たとえば、上記で説明したエンコーダ20またはデコーダ30などのデジタルビデオコーダは、重み付けモードで予測を生成するためにプロセス500を使用し得る。いくつかの実施形態では、プロセス500は、何らかの他の構成要素または装置によって実行され得る。例示的に、以下の説明は、図3中のデコーダ30の重み付け予測ユニット75および他の構成要素に関するプロセス500のステップについて説明する。
[00105]プロセス500は、ブロック502において開始する。ブロック504において、ビデオ情報が記憶される。たとえば、ブロック504において、ベースレイヤ、エンハンスメントレイヤ、アップサンプリングされたレイヤ、ダウンサンプリングされたレイヤ、基準レイヤ、または任意の組合せに関連するビデオ情報が記憶され得る。
[00106]ブロック506において、個別の予測モードに従って生成される重み付け予測を使用して、現在のビデオユニット(ピクセルまたはピクセルのブロックなど)の値が判断(または予測)される。重み付けモードは、ビデオユニットのすべての色成分またはそれらのいくつかのサブセットに適用され得る。たとえば、重み付けモードは、ルーマと両方のクロマとに適用され得、または代替的に、重み付けモードは、ルーマ成分にのみなど、1つまたは複数の構成要素に選択的に適用され得る。重み付けモードでは、ビデオユニットの値は、ビデオユニットの少なくとも1つの色成分の1つまたは複数の重み付け予測を使用して判断され得る。たとえば、利用されている個別の予測モードに応じて、ビデオ情報の1つまたは複数の色成分に重み係数を選択的に適用することによって値が判断され得る。
[00107]図4B中の例に戻ると、ELブロック142の重み付けモード予測は、イントラ予測とイントラBL予測の両方を使用して行われる予測に基づくべきである。第1に、イントラ予測は、ELブロック144からの値と重み係数とを使用してELブロック142中のビデオユニットに対して行われ得る。重み係数は、任意の数のファクタに基づいて判断され得る。いくつかの実施形態では、最終重み付けモード予測において使用される各予測のための重み係数は、各予測(たとえば、この場合はイントラ予測およびイントラBL予測)が一様に重み付けされるように判断され得る。いくつかの実施形態では、重み係数は、予測されるべきビデオユニットのロケーションに少なくとも部分的に基づき得る。同じレイヤおよびフレーム中の以前に再構成されたビデオユニットまたはブロックに近接しているサブブロックまたはピクセルなどのビデオユニットの場合、イントラ予測のためにイントラBL予測よりも高い重み係数が使用され得る。図4Bの例では、ELブロック142の上部に近接している、したがって、以前に再構成されたELブロック144に近接しているピクセルまたは他のビデオユニットのイントラ予測は、1に近いかまたは1に等しい重みを与えられ得る。ELブロック142の下部にあるビデオユニットについて重みが0に近くなるかまたは0に等しくなるなど、ELブロック142の上部から遠くにあるビデオユニットのイントラ予測はより低い重みが与えられ得る。この例は、例示的なものにすぎず、垂直予測方向など、多くの詳細を仮定している。当業者なら諒解するように、重み係数を判断するための他のファクタおよび技法が使用され得る。
[00108]508において、プロセス500は、個別の予測モードに従って行われる予測に適用されるべき追加の重み係数があるかどうかを判断する。そうである場合、プロセス500は506に戻る。図4Bの例に戻ると、ELブロック142中の所与のビデオユニットのイントラBL予測は、ベースレイヤ中のコロケートするまたは場合によっては対応するブロック122からの重み付け予測であり得る。ELブロック142の上部に近いビデオユニットについて、重み係数は、イントラBL予測について0に近いかまたは0に等しくなり得る。イントラBL予測の重み係数は、ELブロック142の下部により近いかまたはELブロック142の下部にあるビデオユニットについて1に近くなるかまたは1に等しくなり得る。現在のビデオユニットの値は、すべての重み付け予測の和として判断されるか、または重み付け予測子の選択されたグループの和として判断され得る。
[00109]ブロック508において追加の重み係数がない場合、プロセスは、ブロック510において終了し得る。
[00110]重み付けモードは、少なくともブロック、PU、CU、LCU、スライス、フレーム、シーケンスレベルまたは他の場所において追加のフラグ(たとえば、weighted_mode_flag=0または1)としてコード化ビットストリーム中で明確にシグナリングされ得る。たとえば、上記のプロセス500を実装するエンコーダ20は、重み付けモードが使用されるべきであると最初に判断し、次いで、後に続く特定のブロック、PU、CU、LCU、スライス、フレームまたはシーケンスレベルについてのビデオ情報が重み付けモードで符号化されることをデコーダが知り得るようにビットストリーム中で重み付けモードフラグをシグナリングし得る。プロセス500を実装するデコーダ30は、重み付けモードフラグを検出し、次いで、プロセス500を使用して、ビットストリームの少なくとも一部分を復号し得る。代替的に、重み付けモードを使用すべきかどうかの判断は、BL情報、EL情報、それらの何らかの組合せなどから導出され得る。
[00111]いくつかの実施形態では、重み付けモードフラグがシグナリングされる場合、ブロック、PU、CU、LCU、スライス、フレーム、シーケンスレベルまたは他の場所ごとに重みもシグナリングされ得る。代替的に、上記で説明したように、重み付けモードで使用される重みは、固定される(たとえば、2つの予測が組み合わされるとき、wi=1または0.5)か、以前に再構成されたネイバーから導出されるか、またはブロック境界からの距離に基づいて判断され得る。たとえば、イントラ重み付けモードの場合、イントラ予測はすぐ隣のネイバーピクセルに対して良い相関を有し得るので、ブロック境界に閉じられたピクセルについてイントラ予測モードにより大きい重みが与えられ得る。
[00112]いくつかの実施形態では、重みは、1つまたは複数のエントリをもつリストに編成され得、ここで、1つまたは複数の重みがリストの各重みインデックスに割り当てられる。重みインデックスは、ビットストリーム中でシグナリングされ得る。このリストは、固定であるか、または場合によってはエンコーダとデコーダの両方に知らされ得る。他の実施形態では、リストは、暗黙的にまたは明示的に導出される。たとえば、重みリストは、前のコード化ブロックから取得された重みのヒット率に基づいて判断され得る。代替または追加として、リストは、重み付けモードの異なる予測モードごとに異なり得る。たとえば、1つのリストがイントラ予測ブロックのために使用され得、別のリストがインター予測ブロックのために使用され得る。これらのリストは、たとえば、以前に処理されたブロックからの統計値に基づいて別個に更新され得る。このモードの使用量は、スライス、ピクチャ、シーケンスヘッダまたはビデオパラメータセットなど、1つまたは複数のヘッダ中のシンタックス要素によって示され得る。
[00113]1つの特定の非限定的な実施形態では、式(2)におけるPredictor1は、再構成された(たとえば、空間スケーラビリティの場合はアップサンプリングされた)BLブロックまたはイントラBL予測子であり得る。従来のイントラまたはインターモード予測子がPredictor2として使用され得る。ルーマ成分のために重みw1=1およびw2=1ならびにNorm=2が使用され得、両方のクロマ成分のためにw1=0、w2=1、およびNorm=1が使用され得る。
[00114]上記の例におけるPredictor2がイントラ予測モードに従って生成される予測子であるとき、ルーマ成分および/またはクロマ成分を予測するために、すべてのイントラ方向またはそれのいくつかのサブセットが使用され得る。いくつかの実施形態では、イントラ方向のオーバーヘッドを低減するために、両方のクロマ成分のためにイントラDCまたはDM予測が使用され得る。したがって、(1つまたは複数の)クロマイントラ方向をシグナリングする必要がない。これにより、最良のイントラ方向を探索することが必要なくなるので、オーバーヘッドシグナリングとエンコーダ複雑さのいずれかまたは両方が低減され得る。
[00115]重み付けモードの適用例に応じて異なるシンタックス構造が使用され得る。たとえば、CU、PUなどごとに「weighted_mode」フラグがシグナリングされ得る。ベースブロックの様々なアップサンプリングに重み付けが適用される場合、フラグは、ルーマおよびクロマイントラ予測方向の前にシグナリングされ得る。そのような場合、ルーマおよび/またはクロマインター方向のシグナリングが抑制され得る。
[00116]また別の例として、BLブロックに異なるアップサンプリングフィルタが適用され得、重み付けモードが差分アップサンプラの結果に適用され得る。当業者なら諒解するように、他のモード組合せ、重み、および正規化ファクタが使用され得る。
[00117]いくつかの実施形態では、すべてのブロックの重み付けモードフラグをコーディングするために1つのコンテキストモデルが使用される。他の実施形態では、コンテキストモデルは、どの個別の予測モードが重み付けモードとともに使用されるかに依存し得る。たとえば、1つのコンテキストモデルがイントラ予測ブロックに割り当てられ得、別のコンテキストモデルがインター予測ブロックに割り当てられ得る。
[00118]追加の実施形態では、コンテキストモデルは、どのインター予測モード(たとえば、単予測または双予測)が使用されるかに従って分離され得る。たとえば、単予測ブロックが、1つのコンテキストモデルを使用することができ、双予測ブロックが、別のコンテキストモデルを使用することができる。さらなる実施形態では、コンテキストモデルは、イントラ方向、マージフラグ、スキップフラグ、CU深度またはスライスタイプなどの他のファクタに依存し得る。ELコンテキストモデル初期化のために使用される既存の初期化テーブルから最良のCABAC初期化テーブルを判断するために、重み付けモードコンテキストモデルコストが使用され得る。
[00119]いくつかの状況では、重み付けモードの使用によってもたらされる帯域幅要件および/またはコーディング複雑さは、パフォーマンスを劣化させるかまたはさもなければ不満足な結果をもたらし得る。たとえば、エンハンスメントレイヤのために双方向サブピクセル(サブペル)動き補償を使用し、ベースレイヤのためにアップサンプリングを使用する重み付けモードは、HEVC単一レイヤコーディング技法と比較すると、新しい「ワーストケースシナリオ」になり得る。HEVC単一レイヤコーディングでは、「ワーストケースシナリオ」は、双方向予測にのみ関与する。重み付けモードを使用してSVCの帯域幅要件および/またはコーディング複雑さを低減するために、図6および図7に関して以下で説明する技法およびプロセスが適用され得る。
[00120]図6に、いくつかのブロックサイズに重み付けモードの使用を制限するための例示的なプロセス600を示す。有利には、これにより、重み付けモード固有の情報をシグナリングするのに必要な帯域幅を低減することができる。プロセス600は、エンコーダ20の重み付け予測ユニット47、デコーダ30の重み付け予測ユニット75、または上記で説明したエンコーダ20および/もしくはデコーダ30の何らかの他の構成要素など、任意の数の構成要素またはデバイスによって実装され得る。
[00121]プロセス600は、ブロック602において開始する。604において、再構成されるべき現在のELブロックのサイズが判断される。たとえば、ブロックサイズは、間に様々なサイズを含む4×4から32×32の範囲にあり得る。
[00122]決定ブロック606において、プロセス600を実装する構成要素またはデバイスは、上で判断されたサイズがしきい値を超えるかどうかを判断することができる。そうである場合、プロセス600は608に進み、そこで、図5に関して上記で説明したように、予測に重み係数を選択的に適用することによって、現在のELブロック中のビデオユニットの少なくとも1つの色成分の値が判断される。たとえば、8×8よりも大きいかまたは16×16よりも大きいブロックが、重み付け予測モードを使用してコーディング(たとえば、符号化または復号)され得る。
[00123]606において上で判断したように、しきい値を満たすかまたはそれを超えることができないブロックについては、プロセス600は610に進む。610において、現在のブロック中のビデオユニットの値は、(たとえば、複数の予測モードに従って行われる重み付け予測を加算することなしに)個別の予測モードを使用して生成される。
[00124]いくつかの実施形態では、必ずしもしきい値サイズが使用されるとは限らないことがある。代わりに、重み付けモードが使用され得るブロックサイズのリストまたはグループが維持され得る。いくつかの実施形態では、重み付けモードが使用され得る最小ブロックサイズおよびパーティションモードが定義され得る。1つの特定の非限定的な例では、8×8以上の、2N×2Nに等しいパーティションモードを有するCUサイズのためだけに重み付けモードが使用され得る。そのようなブロックについては、プロセス600は、上記で説明したように608に進む。2N×2N以外のパーティションモードを有する8×8CUについては、重み付けモードが禁止、制限、または、抑制され得(たとえば、エンコーダ20によってそのCUについて重み付けモードフラグがシグナリングされないか、またはデコーダ30によって重み付けモードフラグが無視され)、プロセス600は610に進む。
[00125]また別の実施形態として、いくつかの個別の予測モードとのみ重み付けモードが使用され得る。たとえば、イントラ残差予測モード、インタースキップモードなどを使用するとき、重み付けモードが抑制され得る(重み付けモードフラグがシグナリングされないか、または、シグナリングされた重み付けモードフラグが無視される)。別の例として、いくつかのイントラ方向を使用して行われるイントラ予測とのみ重み付けモードが使用され得る。さらなる例として、重み付けモードが使用されるとき、いくつかのタイプの動き補償が抑制、制限、または限定され得、またはいくつかのタイプの動き補償が使用されるとき、重み付けモードが抑制され得る。
[00126]図7に、いくつかのタイプの動き補償予測モードをもつ重み付けモードの使用を限定、制限、または抑制するための例示的なプロセス700を示す。有利には、これにより、そのようなモードが使用されるとき重み付けモード固有の情報をシグナリングするのに必要な帯域幅を低減することができる。また、これにより、重み付けモードを使用してビデオユニット値を判断する複雑さを低減することができる。プロセス700は、エンコーダ20の重み付け予測ユニット47、デコーダ30の重み付け予測ユニット75、または上記で説明したエンコーダ20および/もしくはデコーダ30の何らかの他の構成要素など、任意の数の構成要素またはデバイスによって実装され得る。
[00127]プロセス700は、ブロック702において開始する。ブロック704において、プロセス700を実行する構成要素またはデバイスは、現在のブロックのために動き補償が使用されるべきであると判断し得る。決定ブロック706において、プロセス700に実行する構成要素またはデバイスは、動き補償が双方向であるかどうか、またはさもなければ、双予測が使用されるべきであるかを判断し得る。たとえば、マージモードでは、インター予測のために使用される動きベクトル候補が双方向であり得る。そうである場合、プロセス700は708に進む。そうでない場合、プロセス700は710に進む。
[00128]708において、(たとえば、エンコーダ20において)帯域幅を節約するために、または(たとえば、デコーダ30において)コーディング複雑さを低減するために、現在のビデオユニットまたはブロックの動き補償が単方向予測に変換され得る。1つの特定の非限定的な実施形態では、重み付けモードのために両方ではなく単L0方向または単L1方向のいずれかを使用するインター予測がイントラBL予測と組み合わせて使用される。双方向動きベクトルは、動き補償の前またはその間に、単L0または単L1動きベクトルのいずれかに変換される(たとえば、L0またはL1リストのいずれかから単一の動きベクトルが使用される)。代替的に、双方向動きベクトル候補が、マージリスト構成中に単方向(単L0または単L1のいずれか)動きベクトルに変換され得る。
[00129]いくつかの実施形態では、ルーマ成分についてのみ双予測が抑制されるかまたは単方向予測に変換され得、一方、クロマ成分は双予測であり得る。いくつかの実施形態では(たとえば、AMVPモードに基づく重み付けモードについて)、双方向動きベクトルがエンコーダにおいて抑制され、単方向動きベクトルのみがビットストリーム中でコーディングされる。追加の実施形態では、ビットストリームが、単L0または単L1方向のみを含んでいるように、インター方向シグナリングが制限され得る。したがって、双方向に関連するいかなる冗長ビットもビットストリーム中に含まれ得ない。さらなる実施形態では、整数ペル動きベクトルのみが使用される。したがって、双方向予測の場合であっても補間を行う必要がないので、帯域幅が低減され得る。
[00130]いくつかの実施形態では、シグナリングするシンタックス要素の変化を回避するために規範的なビットストリーム制約を適用することによって重み付けモードでは双予測が制限される。コーディングは、重み付けモードが使用される場合、双予測(たとえば、双予測に関連するすべてのシンタックス)をビットストリーム中でシグナリングすることができないという制限とともに実行され得る。たとえば、重み付けモードが使用可能である場合(たとえば、weighted_mode_flagが1に等しくなるとき)、双方向動きベクトル、双方向インター方向および(リストL0およびリストL0のための)2つの参照インデックスはビットストリーム中に存在することができない。むしろ、単方向動き情報(単方向動きベクトル、単方向インター方向、およびただ1つの参照インデックス)のみがビットストリーム中に存在することができる。この制限は、merge_index、MVPidx、MVDなどの関連するシンタックスも制約に準拠し、双予測につながらないことを暗示する。
[00131]図6〜図7に関して上記で説明したブロックサイズおよび動き予測制限ならびに抑制技法は組み合わされ得る。重み付けモードは、特定のブロックサイズおよびパーティションモードのためにのみ双方向予測を利用し得る。1つの特定の非限定的な例として、たとえば、16×16から始まるCUサイズおよびパーティションモード2N×2Nのために、重み付けモードを用いる双方向予測が使用され得る。16×16のCUおよび2N×2N以外のパーティションモードについては、上記で説明したように、重み付けモードのために単方向予測のみが使用され得る。さらに、同じく上記で説明したように、マージモード動きベクトル候補は単方向候補に変換され得、それらのブロックについてAMVPモードのためのインター方向シグナリングが単方向に制限され得る。いくつかの実施形態では、(たとえば、2N×2Nでないパーティションモードで16×16のサイズを有する)いくつかのCUについて、所与のCU中のいくつかの予測ユニットのためにのみ(たとえば、第1の予測ユニットのためにのみ)双方向予測がブロックまたは抑制され得、他のもののために(たとえば、第2のPUのために)双予測が使用され得る。上記の例について8×8および16×16のCUブロックサイズに関して説明したが、本技法は任意の他のサイズを有するブロックに容易に適用され得る。
[00132]いくつかの実施形態では、重み付けモードは、ブロックサイズまたはインター方向に従って重み付けモード予測の挙動を変更することによってシンタックス変更なしに抑制または制限され得る。たとえば、双方向動きベクトルがデコーダにシグナリングされ得、複雑さを低減するために双予測が重み付けモードについて制限される場合、重み付けモードがシグナリングされる(たとえば、「weighted_mode_flag」が1に等しくなる)場合でも、重み付けモードの代わりに通常のインター予測が実行される。単方向動きベクトルが存在し、重み付けモードがシグナリングされる場合、重み付けモード予測が実行される。
[00133]HEVC単一レイヤコーディングの現在の「ワーストケース」内の「ワーストケース」複雑さを保つために、重み付けモードの条件付きシグナリングが使用され得る。たとえば、重み付けモードは、8×4および4×8のPUについて抑制または制限され得る。しかしながら、重み付けモードは、依然として、すべてのCUサイズについてシグナリングされ得る。重み付けモードがシグナリングされる(たとえば、「weighted_mode_flag」が1に等しくなる)とき、PUサイズの検査が予測段階に実行され得る。PUサイズが4×8または8×4である場合、重み付けモードがシグナリングされたとしても、重み付けモード予測の代わりに、通常のインター予測が実行される(たとえば、単方向予測または双方向予測)。単方向動きベクトルがシグナリングされ、PUブロックサイズが8×4または4×8でない場合のみ、重み付け予測が実行されることになる。動きベクトルシグナリングは、マージモードまたはAMVPモードのいずれかを通して行われ得る。いくつかの実施形態では、重み付けモードは、8×4または4×8以外のブロックサイズについて同様に制限され得る。さらに、重み付けモードの制限は、パーティションモードに基づき得、または動き情報のために重み付けモードとマージモードシグナリングが使用されるのかAMVPモードシグナリングが使用されるのかに基づき得る。
[00134]帯域幅および/またはコーディング複雑さを低減するために、上記の技法のいずれも単独でまたは組み合わせて採用され得る。
[00135]次に図8〜図15を参照すると、一般化残差予測(GRP)モードについてより詳細に説明する。上記で説明したように、重み付けモードは、GRPを含む任意のタイプの予測を使用し得る。以下で説明するGRP技法は、SVCにおけるレイヤ間残差予測および差分領域動き補償(difference domain motion compensation)に関係する問題に対処し得る。GRPでは、以下で説明するように、一般化残差予測の様々な構成要素のために重みが使用される。インター予測ブロックでは、すべてのGRP重みのために重み付けモードが使用され得る。いくつかの実施形態では、重み付けモードは、いくつかのGRP重みにのみ適用され得る。たとえば、重み付けモードは、単に、GRP重みが2に等しいときのみ使用され得る。この場合、重み付けモードフラグまたは他の重み付けモード情報は、モード依存性を活用するためにGRP重みの後にシグナリングされるべきである。この例では、たとえば、GRP重み≠2であるとき、いくつかのGRP重みについて重み付けモードフラグシグナリングがスキップまたは抑制され得、それによって帯域幅および/またはストレージ要件を低減し得る。別の実施形態では、たとえば、GRP重み=1または2であるとき、重み付けモードがいくつかのGRP重みとともに使用され、したがって、たとえば、GRP重み=0であるとき、組合せモードでは使用されるGRP重みについての重み付けモードフラグまたは情報をシグナリングすることは不要になる。GRP重みと重み付けモード抑制の他の組合せが使用され得る。
[00136]H.264のSVC拡張は、デコーダの低複雑さを維持するために動き補償のシングルループ復号を必要とする。概して、次のように現在ブロックの時間的予測と残差とを加算することによって、動き補償が実行される。
Figure 2015531561
上式で、
Figure 2015531561
は現在フレームを示し、rは残差を示し、Pは時間的予測を示す。シングルループ復号では、SVCにおける各サポートされるレイヤは、単一の動き補償ループを用いて復号され得る。これを達成するために、上位レイヤをレイヤ間イントラ予測するために使用されるすべてのレイヤが、制約付きイントラ予測を使用してコーディングされる。制約付きイントラ予測では、イントラモードブロックが、隣接インターコード化ブロックからのサンプルを参照することなしにイントラコーディングされる。一方、HEVCは、複数の動き補償ループを使用してSVCレイヤが復号され得る、SVCのためのマルチループ復号を可能にする。たとえば、最初にベースレイヤが完全に復号され、次いでエンハンスメントレイヤが復号される。
[00137]上記で説明した、式(1)において公式化される残差予測は、H.264 SVC拡張における効率的な技法であり得る。しかしながら、特に、マルチループ復号がHEVC SVC拡張において使用されるとき、それの性能はHEVC SVC拡張においてさらに改善され得る。
[00138]マルチループ復号の場合、残差予測の代わりに差分領域動き補償が使用され得る。SVCでは、エンハンスメントレイヤが、ピクセル領域コーディングまたは差分領域コーディングを使用してコーディングされ得る。ピクセル領域コーディングでは、非SVC HEVCレイヤに関して、エンハンスメントレイヤピクセルのための入力ピクセルがコーディングされ得る。一方、差分領域コーディングでは、エンハンスメントレイヤの差分値がコーディングされ得る。差分値は、エンハンスメントレイヤのための入力ピクセルと、対応するスケーリングされたベースレイヤ再構成ピクセルとの間の差分であり得る。そのような差分値は、差分領域動き補償のための動き補償において使用され得る。
[00139]差分領域を使用したインターコーディングの場合、現在予測ブロックは、エンハンスメントレイヤ参照ピクチャ中の対応する予測ブロックサンプルと、スケーリングされたベースレイヤ参照ピクチャ中の対応する予測ブロックサンプルとの間の差分値に基づいて判断される。差分値は差分予測ブロック(difference predicted block)と呼ばれることがある。エンハンスメントレイヤ再構成サンプルを取得するために、コロケートベースレイヤ再構成サンプルが差分予測ブロックに追加される。
[00140]ただし、ピクセル領域と差分領域の両方のために動き推定および動き補償がしばしば使用されるので、レイヤ間予測において差分領域動き補償を使用することによって動き推定および動き補償の2つのセットがもたらされる。動き推定および動き補償の2つのセットをもたらすとバッファおよび計算コストがより高くなり得、これは、エンコーダまたはデコーダにとって実際的ではないことがある。さらに、動きベクトルの2つのセットが、異なるプロパティを有し、コーディングユニット(CU)レベルでインターリーブするとき、動きフィールドは不規則になり得るので、動きベクトルの2つのセットをコーディングするとコーディング効率が低下し得る。さらに、差分領域における動き推定では、ベースレイヤおよびエンハンスメントレイヤが同じ動きを共有することが必要となる。さらに、2つのレイヤ間の差分ピクチャの導出が各レイヤの完全に再構成されたピクチャに基づくので、差分領域動き補償はシングルループ復号と協働しない。したがって、差分領域動き補償を使用するときに動き推定および動き補償の2つのセットを有するという冗長性を回避することが有利であろう。また、シングルループ復号に差分領域動き補償を拡張することが有利であろう。
[00141]上記で説明したように、レイヤ間残差予測は、現在のビデオユニット、たとえば、ブロックまたはフレームを予測する際に基準レイヤの残差を使用する。一般化残差予測では、現在のビデオユニットのレイヤ間残差予測は、現在のレイヤの残差、現在のレイヤの時間的予測、および基準レイヤの残差に基づき得る。基準レイヤの残差は、重み係数によって調整され得る。重み係数は、様々なタイプの情報に基づき、それを含み得る。そのような情報の例としては、重み候補の数、重みステップ、重みインデックス、および重みテーブルがあり得る。
[00142]本開示の態様によるGRPフレームワークは、重み係数を組み込むことによって様々なタイプの残差予測に適応し得る。重み係数を適宜に調整することによって、残差予測の有効なコーディング利得がもたらされ得る。さらに、GRPフレームワークでは、従来の残差予測では必ずしもベースレイヤであるとは限らない基準レイヤを使用して残差予測が実行され得る。たとえば、現在のエンハンスメントレイヤから基準レイヤが導出され得る。重み係数が1に設定されるとき、GRPはまた、従来の残差予測に適応し得る。GRPフレームワークがシングルループ復号とマルチループ復号の両方とともに使用され得る。さらに、GRPフレームワークでは、差分領域における動き推定は必要ないことがあり、したがって、現在のレイヤおよびエンハンスメントレイヤは、動き推定のために同じ動きを共有する必要はない。GRPフレームワークは、多くの異なるタイプの残差予測に適用され得、式(1)において定義されている従来の残差予測および差分領域動き補償は、GRPフレームワークを使用する2つの具体的なシナリオである。本技法は、HEVCのスケーラブル拡張における動き補償のパフォーマンスを改善し得、HEVCの3Dビデオコーディング拡張にも適用され得る。
[00143]いくつかの態様によれば、現在の(たとえば、エンハンスメント)レイヤの予測と基準(たとえば、ベース)レイヤの予測との間の差分値が差分予測子として採用され得る。いくつかの実施形態では、差分値は、差分ピクセルと呼ばれることがある。エンハンスメントレイヤおよびベースレイヤは異なる品質ターゲットを有し得るので、現在のレイヤおよびベースレイヤの時間的予測の動きは異なり得る。いくつかの状況では、差分値を使用した再構成が、より効率的になり得、かつ/またはより良い結果をもたらし得る。たとえば、シーン変化または切断があり、したがって、連続フレームが互いにまったく異なり得るとき、差分予測子を使用した再構成が選好され得る。重み係数が差分値に適用され得る。そのような技法は、重み付け差分予測(WDP:weighted difference prediction)と呼ばれることがある。いくつかの実施形態では、WDPは、GRPフレームワークの拡張として実装され得る。
[00144]図8Aおよび図8Bは、それぞれ、残差ピクセル(たとえば、
Figure 2015531561
)および差分ピクセル(たとえば、Pc−Pr)を使用した一般化残差予測のための例示的な方法を示すフローチャートである。本開示で説明する技法は、一般化残差予測(GRP)フレームワークを与え得る。上記で説明したように、レイヤ間残差予測は、現在のビデオユニット、たとえば、ブロックまたはフレームを予測する際に基準レイヤの残差を使用する。一般化残差予測では、現在のビデオユニットのレイヤ間残差予測は、現在のレイヤの残差、現在のレイヤの時間的予測、および基準レイヤの残差に基づき得る。基準レイヤの残差は、重み係数によって調整され得る。GRP方式は、次のように定義され得る。
Figure 2015531561
上式で、
Figure 2015531561
は現在フレームの再構成を示し、rcは現在レイヤからの残差予測を示し、Pcは同じレイヤからの時間的予測を示し、rrは基準レイヤからの残差予測を示し、wは重み係数を示す。
[00145]重み係数は、様々なタイプの情報に基づき、それを含み得る。そのような情報の例としては、重み候補の数、重みステップ、重みインデックス、および重みテーブルがあり得る。重み候補の数は、基準レイヤの残差に適用されるのに利用可能な異なる重み係数の数を示し得る。重みステップは、利用可能な重み係数間の増分またはユニットのサイズを示し得る。重みインデックスは、利用可能な重み係数の間の特定の重み係数を示し得る。重みテーブルは、重み係数に関する情報を含むことができ、ルックアップテーブルと同様に重みインデックスによってアクセスされ得る。特定の例では、0.0、0.5、および1.0の3つの重み係数候補が利用可能であり得る。この例では、3つの重み係数候補が利用可能であるので、重み候補の数は3である。3つの重み候補間の重みステップは0.5である。各重み候補は、重みインデックスによって識別され得る。重み係数0はインデックス0によって識別され、重み係数0.5はインデックス1によって識別され、重み係数1.0はインデックス2によって識別される。小数部をシグナリングすることはコストがかかり得るので、重みステップおよびインデックスが重み係数を導出するために使用され得る。
[00146]本開示の態様によるGRPフレームワークは、重み係数を組み込むことによって様々なタイプの残差予測に適応し得る。重み係数を適宜に調整することによって、残差予測の有効なコーディング利得がもたらされ得る。GRPは、残差予測において基準レイヤについての重み情報を組み込むことによってメモリの量と計算コストとを低減しながら、コーディング性能を改善し得る。たとえば、重み付け残差予測がより正確であるので、GRPは、コーディング性能を改善することができる。また、たとえば、差分領域動き補償の場合のように動き補償ループの2つのセットが典型的には使用されないので、メモリの量および計算コストが低減され得る。さらに、GRPフレームワークでは、従来の残差予測では必ずしもベースレイヤであるとは限らない基準レイヤを使用して残差予測が実行され得る。たとえば、現在のレイヤのエンハンスメントレイヤから基準レイヤが導出され得る。重み係数が1に設定されるとき、GRPはまた、従来の残差予測に適応し得る。GRPフレームワークがシングルループ復号とマルチループ復号の両方とともに使用され得る。
[00147]差分領域動き補償に関して、GRPフレームワークはシングルループ復号において適用され得る。上記で説明したように、H.264では、レイヤ間の差分ピクチャが各レイヤの完全に再構成されたピクチャに基づいて計算されなければならないので、差分領域動き補償はシングルループ復号シナリオでは採用され得ない。差分領域動き補償において差分ピクチャを取得するために、各レイヤの完全な再構成がしばしば使用され、レイヤごとに、完全な再構成のために1つの動き補償ループが使用され得る。たとえば、2つのレイヤの完全な再構成を得るために2つの動き補償ループがしばしば使用される。したがって、シングルループ復号において差分領域動き補償は採用され得ない。対照的に、GRPは、シングルループ復号とマルチループ復号の両方をサポートし得る。さらに、GRPフレームワークでは、差分領域における動き推定は必要がないことがある。したがって、現在のレイヤおよびエンハンスメントレイヤは、動き推定のために同じ動きを共有する必要はない。GRPフレームワークは、多くの異なるタイプの残差予測に適用可能であり、式(1)において定義されている従来の残差予測および差分領域動き補償は、GRPフレームワークを使用する2つの具体的なシナリオである。
[00148]次に、本開示の態様による一般化残差予測のための例示的な方法について図8Aを参照しながら説明する。プロセス800Aは、エンコーダ(たとえば、図2に示したエンコーダ)、デコーダ(たとえば、図3に示したデコーダ)、または任意の他の構成要素によって実行され得る。プロセス800Aのステップについて図3のデコーダ30に関して説明するが、プロセス800Aは、上述のように、エンコーダなどの他の構成要素によって実行され得る。
[00149]ブロック801Aにおいて、デコーダ30は、基準レイヤからの残差予測に重み係数を適用する。上記で説明したように、一般化残差予測(GRP)は、基準レイヤからの残差に重み係数を適用し得る。重み係数は、シングルループ復号などの特定のシナリオに最適になるように判断され得る。重み係数は、重み候補の数、重みステップ、重みインデックス、および重みテーブルなどの情報を含み得る。
[00150]ブロック802Aにおいて、デコーダ30は、エンハンスメントレイヤから残差予測を取得する。ブロック803Aにおいて、デコーダ30は、エンハンスメントレイヤから時間的予測を取得する。
[00151]ブロック804Aにおいて、デコーダ30は、重み係数によって調整された基準レイヤからの残差予測、エンハンスメントレイヤからの残差予測、およびエンハンスメントレイヤからの時間的予測に基づいて現在のビデオユニットを判断する。上記で説明したように、GRPでは、現在のビデオユニットは、式(5)に従って予測され得る。
[00152]次に、本開示の態様による一般化残差予測のための例示的な方法について図8Bを参照しながら説明する。プロセス800Bは、エンコーダ(たとえば、図2に示したエンコーダ)、デコーダ(たとえば、図3に示したデコーダ)、または任意の他の構成要素によって実行され得る。プロセス800Bのステップについて図3のデコーダ30に関して説明するが、プロセス800Bは、上述のように、エンコーダなどの他の構成要素によって実行され得る。
[00153]ブロック801Bにおいて、デコーダ30は、差分予測に重み係数を適用する。一般化残差予測(GRP)は、現在のまたはエンハンスメントレイヤの予測(Pe)と基準またはベースレイヤの予測(Pb)との間の差分に重み係数を適用し得る。重み係数は、マルチループ復号などの特定のシナリオに最適になるように判断され得る。重み係数は、重み候補の数、重みステップ、重みインデックス、および重みテーブルなどの情報を含み得る。
[00154]ブロック802Bにおいて、デコーダ30は、エンハンスメントレイヤから残差予測を取得する。ブロック803Bにおいて、デコーダ30は、基準レイヤにおける現在のピクチャの再構成を取得する。
[00155]ブロック804Bにおいて、デコーダ30は、重み係数によって調整された差分予測、エンハンスメントレイヤからの残差予測、および基準レイヤ再構成に基づいて現在のビデオユニットを判断する。現在のビデオユニットは、以下で説明する式(7B)に従って予測され得る。
[00156]図8Aおよび図8Bに関して説明した本開示の態様による一般化残差予測のための例示的な方法は、シーケンス、ピクチャ、フレームのグループ、フレーム、スライスのグループ、スライス、コーディングユニット(CU)のグループ、コーディングユニット(CU)、予測ユニット(PU)のグループ、予測ユニット(PU)、ブロック、またはピクセルの領域など、様々なコーディングレベルで実装され得る。さらに、図8Aおよび図8Bに関して説明したすべての実施形態は、別個に、または互いに組み合わせて実装され得る。
[00157]図9は、本開示の態様による、シングルループ復号を使用した一般化残差予測のための例示的な方法を示すフローチャートである。上記で説明したように、シングルループ復号では、エンハンスメントレイヤの動き補償のために1つのループが使用される。シングルループ復号のシナリオでは、ベースレイヤの完全な再構成は利用不可能である。したがって、ベースレイヤの正規化残差がベース残差予測子として直接採用され得る。エンハンスメントレイヤの場合、再構成
Figure 2015531561
は、次のように判断され得る。
Figure 2015531561
上式で、reおよびPeは、エンハンスメントレイヤの逆量子化された残差および時間的予測を示し、rbは、(空間的にスケーラブルな場合はアップサンプリングされた)正規化ベースレイヤ残差予測子を示し、rb’は、ベースレイヤ残差を示し、QeおよびQbは、それぞれ、エンハンスメントレイヤおよびベースレイヤの量子化ステップを示す。
[00158]次に、本開示の態様によるシングルループ復号を使用した一般化残差予測のための例示的な方法について図9を参照しながら説明する。プロセス900は、エンコーダ(たとえば、図2に示したエンコーダ)、デコーダ(たとえば、図3に示したデコーダ)、または任意の他の構成要素によって実行され得る。プロセス900のステップについて図3のデコーダ30に関して説明するが、プロセス900は、上述のように、エンコーダなどの他の構成要素によって実行され得る。ブロック901において、デコーダ30は、GRPフレームワークのためのシングルループ復号において基準レイヤから残差予測の重み係数を判断する。ブロック902において、デコーダ30は、重み係数によって調整されたRLからの残差予測、ELからの残差予測、およびELからの時間的予測に基づいて現在のビデオユニットを判断する。たとえば、式(6)に関して上記で説明したように、RL残差予測のために正規化ベースレイヤ残差が使用され得る。図9に関して説明した本開示の態様によるシングルループ復号を使用した一般化残差予測のための例示的な方法は、シーケンス、ピクチャ、フレームのグループ、フレーム、スライスのグループ、スライス、コーディングユニット(CU)のグループ、コーディングユニット(CU)、予測ユニット(PU)のグループ、予測ユニット(PU)、ブロック、またはピクセルの領域など、様々なコーディングレベルで実装され得る。さらに、図9に関して説明したすべての実施形態は、別個に、または互いに組み合わせて実装され得る。
[00159]図10Aおよび図10Bは、本開示の態様による、マルチループ復号を使用した一般化残差予測のための例示的な方法を示すフローチャートである。上記で説明したように、マルチループ復号では、エンハンスメントレイヤの動き補償のために複数のループが使用される。マルチループ復号のシナリオでは、エンハンスメントレイヤを符号化/復号するとき、ベースレイヤの完全な再構成が利用可能である。したがって、以前にコーディングされたエンハンスメントレイヤの再構成と(必要な場合、アップサンプリングされた)ベースレイヤとの間の差分値が残差予測子として採用され得る。エンハンスメントレイヤの場合、再構成
Figure 2015531561
は、次のように判断され得る。
Figure 2015531561
上式で、reeは、エンハンスメントレイヤ中の現在のビデオユニットの逆量子化された残差を示し、PeおよびPbは、それぞれ、エンハンスメントレイヤおよびベースレイヤ中の現在のビデオユニットの時間的予測を示し、
Figure 2015531561
は、ベースレイヤ中の現在のビデオユニットの完全な再構成を示す。エンハンスメントレイヤおよびベースレイヤは異なる品質ターゲットを有し得るので、時間的予測PeおよびPbの動きは異なり得る。
[00160]ベースレイヤおよびエンハンスメントレイヤが同じ動きを有する場合、時間的予測PeおよびPbの動きは同じであり、式(7A)が直接採用され得る。エンハンスメントレイヤのインタービデオユニットを復号するときに、それのエンハンスメントレイヤおよびベースレイヤの時間的予測PeおよびPbが両方とも利用可能である。ベースレイヤの再構成
Figure 2015531561
も利用可能である。したがって、再構成
Figure 2015531561
は、逆量子化された残差reおよびwから取得され得、それらは、図11および図12に関してより詳細に説明するようにシグナリングされるか、または導出され得る。
[00161]ベースレイヤおよびエンハンスメントレイヤが異なる動きを有する場合、エンハンスメントレイヤおよびベースレイヤの時間的予測PeおよびPbの動きは異なり、ベースレイヤの残差およびエンハンスメントレイヤの残差は相関し得ない。そのような場合、残差予測が良好な結果をもたらさないことがある。残差予測のパフォーマンスを改善するために、エンハンスメントレイヤおよびベースレイヤの時間的予測が同じ動きを共有すると仮定され得る。ELおよびBLの時間的予測が同じ動きを共有すると仮定することに加えて、またはその代わりに、残差予測子を生成するために、ベースレイヤの動きまたはエンハンスメントレイヤの動きのいずれかが別のレイヤに適用されるように強制され得る。たとえば、Pbを得るために、エンハンスメントレイヤの時間的予測Peの動きがベースレイヤに適用され得る。そのような場合、PeとPbの両方がPeの動きを用いて生成され得るので、エンハンスメントレイヤを復号するためにしばしば2つの動き補償が使用される。
[00162]別の実施形態では、現在の(たとえば、エンハンスメント)レイヤの予測と基準(たとえば、ベース)レイヤの予測との間の差分値が差分予測子として採用され得る。エンハンスメントレイヤの場合、再構成
Figure 2015531561
は、次のように判断され得る。
Figure 2015531561
上式で、reは、エンハンスメントレイヤ中の現在のビデオユニットの逆量子化された残差を示し、PeおよびPbは、それぞれ、エンハンスメントレイヤおよびベースレイヤ中の現在のビデオユニットの時間的予測を示し、
Figure 2015531561
は、ベースレイヤ中の現在のビデオユニットの完全な再構成を示す。エンハンスメントレイヤおよびベースレイヤは異なる品質ターゲットを有し得るので、時間的予測PeおよびPbの動きは異なり得る。多くの状況では、式(7A)による再構成が式(7B)による再構成よりも効率的になる。しかしながら、いくつかの状況では、式(7B)による再構成が、より効率的なものになり、かつ/またはより良い結果をもたらすことになる。たとえば、シーン変化または切断があり、したがって、連続フレームが互いにまったく異なるとき、式(7B)による再構成が選好される。
[00163]一実施形態では、異なる重みインデックスが通常のGRP重み係数とWDP重み係数とに割り当てられる。たとえば、一実施形態では、4つの重みインデックスがCUレベルで許可される。重みインデックス0、1、および2は、式(7A)が予測計算のために使用されることを示し、ここで、それぞれ、w=0、0.5、および1である。重みインデックス3は、式(7B)が予測計算のために使用されることを示し、w=0.5である。別の実施形態では、GRP重み係数(たとえば、式(7A))がすべて無効化され、WDP重み係数(たとえば、式(7B))のみが許可される。限定はしないが、パラメータシグナリング/導出方法、重み係数判断方法、関連ピクチャ/動きアップサンプリング、ダウンサンプリング方法などを含む、GRPに関して本明細書で説明するすべての方法がWDPにも適用され得る。
[00164]次に、本開示の態様によるマルチループ復号を使用した一般化残差予測のための例示的な方法について図10Aおよび図10Bを参照しながら説明する。プロセス1000Aおよびプロセス1000Bは、エンコーダ(たとえば、図2に示したエンコーダ)、デコーダ(たとえば、図3に示したデコーダ)、または任意の他の構成要素によって実行され得る。プロセス1000Aおよびプロセス1000Bのステップについて図3のデコーダ30に関して説明するが、プロセス1000Aおよびプロセス1000Bは、上述のように、エンコーダなどの他の構成要素によって実行され得る。
[00165]図10Aを参照すると、ブロック1001Aにおいて、デコーダ30は、GRPフレームワークのためのマルチループ復号において基準レイヤから残差予測の重み係数を判断する。ブロック1002Aにおいて、デコーダ30は、重み係数によって調整されたRLからの残差予測、ELからの残差予測、およびELからの時間的予測に基づいて現在のビデオユニットを判断する。たとえば、式(7)に関して上記で説明したように、RL残差予測のために
Figure 2015531561
が使用され得る。
[00166]図10Bを参照すると、ブロック1001Bにおいて、デコーダ30は、GRPフレームワークのためのマルチループ復号において差分予測の重み係数を判断する。ブロック1002Bにおいて、デコーダ30は、重み係数によって調整された差分予測、ELからの残差予測、およびRL再構成(たとえば、基準レイヤ中の現在のピクチャの完全な再構成)に基づいて現在のビデオユニットを判断する。たとえば、式(7B)に関して上記で説明したように、差分予測のためにPe−Pb(またはPc−Pr)が使用され得る。
[00167]図10Aおよび図10Bに関して説明した本開示の態様によるマルチループ復号を使用した一般化残差予測のための例示的な方法は、シーケンス、ピクチャ、フレームのグループ、フレーム、スライスのグループ、スライス、コーディングユニット(CU)のグループ、コーディングユニット(CU)、予測ユニット(PU)のグループ、予測ユニット(PU)、ブロック、またはピクセルの領域など、様々なコーディングレベルで実装され得る。さらに、図10Aおよび図10Bに関して説明したすべての実施形態は、別個に、または互いに組み合わせて実装され得る。
[00168]いくつかの状況では、残差ピクセル(たとえば、
Figure 2015531561
)および差分ピクセル(たとえば、Pe−Pb)は、割り当てられたビット深度または所望のビット深度を越えて拡大し得る。たとえば、いくつかの状況では、これらのピクセルは、8ビットまたは16ビットで表すことができないことがある。これにより、ハードウェア実装形態の複雑化がもたらされ得る。したがって、いくつかの実施形態では、限定はしないが、8ビットまたは16ビットの表現など、各々が所望の範囲内に必ず入るようにするために残差ピクセルまたは差分ピクセルを切り捨てるためにクリッピングが実行される。
[00169]図11は、本開示の態様による、一般化残差予測パラメータをシグナリングするための例示的な方法を示すフローチャートである。上記で説明したように、重み情報は、重み候補の数と、重みステップ(または重みテーブル)と、重みインデックスとを含み得る。重み係数wは、そのような重み情報に基づいて判断され得る。重み候補の数は、Nwによって示され得る。重みステップは、Swによって示され、重みテーブルは、WTによって示され得る。重みインデックスは、iwによって示され得る。一実施形態では、重み係数wは、次のように重みステップSwおよび重みインデックスiwに基づいて導出される。
Figure 2015531561
別の実施形態では、wは、インデックスiwに従ってルックアップテーブルWTから取得され得る。
[00170]限定はしないが、Nwと、Swと、WTと、iwとを含み得る重み係数情報は、様々な方法でシグナリングされ得る。いくつかの実施形態では、重みステップSwまたは重みテーブルWTはハードコーディングされるか、またはシグナリングされ得る。SwまたはWTは、シーケンスレベルまたはピクチャレベルでシグナリングされ得る。重みインデックスiwは、CUおよびPUなどのより低いレベルでシグナリングされ得る。
[00171]一実施形態では、重みステップSwは、3ビット量子化で表され(Swは、1/8、2/8、...、8/8であり得る)、シーケンスパラメータセット(SPS)において符号なし整数指数ゴロムコーディングされる。Nw≧1であることを考慮すると、(Nw−1)はまた、SPSにおいて符号なし整数指数ゴロムコーディングされる。重みインデックスiwは、最初に、(Nwを最大数として)短縮単項コードで2値化され、次いで、CABACコーディングされる。CABACコーディングでは、第1のビンが1つのコンテキストでコーディングされ、ビンの残りが別のコンテキストでコーディングされる。重みインデックスiwをコーディングするために、コンテキストは、以前にコーディングされたパラメータに依存し得る。たとえば、左上のCUなど、空間的に隣接するCUのiwは、現在のCUの重みインデックスiwのコンテキストとして使用され得る。また、現在のCUがスキップコーディングされるのかまたはマージコーディングされるのかなどの現在のCUのタイプ、または現在のCUのサイズがコンテキストとして使用され得る。
[00172]他の実施形態では、異なるCUモードは、重み係数シグナリング方法が異なり得る。たとえば、スキップモードおよびマージモードについて、3つの重み係数(w=0、w=0.5、およびw=1など)が選択され、シグナリングされ得る。スキップモードおよびマージモード以外のインターモードについては、2つの重み係数のみ(w=0およびw=1など)が選択され、シグナリングされ得る。代替的に、インターモード、他のスキップモードおよびマージモードについて、ただ1つの固定重み係数が適用され得る。そのような場合、重み係数のための追加のシグナリングは使用され得ない。
[00173]次に、本開示の態様による一般化残差予測パラメータをシグナリングするための例示的な方法について図11を参照しながら説明する。プロセス1100は、エンコーダ(たとえば、図2に示したエンコーダ)、デコーダ(たとえば、図3に示したデコーダ)、または任意の他の構成要素によって実行され得る。プロセス1100のステップについて図2のエンコーダ20に関して説明するが、プロセス1100は、上述のように、デコーダなどの他の構成要素によって実行され得る。ブロック1101において、エンコーダ20は、重みステップまたは重みテーブルをシグナリングする。ブロック1102において、エンコーダ20は、重み候補の数をシグナリングする。ブロック1103において、エンコーダ20は、重みインデックスをシグナリングする。プロセス1100のステップは、異なる順序で実行され得る。たとえば、重み候補の数は、重みステップ(または重みテーブル)の前にシグナリングされ得る。図11に関して説明した本開示の態様による一般化残差予測パラメータをシグナリングするための例示的な方法は、シーケンス、ピクチャ、フレームのグループ、フレーム、スライスのグループ、スライス、コーディングユニット(CU)のグループ、コーディングユニット(CU)、予測ユニット(PU)のグループ、予測ユニット(PU)、ブロック、またはピクセルの領域など、様々なコーディングレベルで実装され得る。さらに、図11に関して説明したすべての実施形態は、別個に、または互いに組み合わせて実装され得る。
[00174]図12は、本開示の態様による、一般化残差予測パラメータを導出するための例示的な方法を示すフローチャートである。GRPパラメータは、図11に関して説明したようにシグナリングされ得る。GRPパラメータはまた、ビットストリーム中に含まれる情報から導出され得る。GRPパラメータは、ビットストリーム中の情報から完全にまたは部分的に導出され得る。一実施形態では、重みステップSwは、関係するCUサイズに従ってCUレベルで導出される。重みステップSwとCUサイズとの間の例示的なマッピングを以下の表に記載する。
Figure 2015531561
[00175]別の実施形態では、重み候補の最大数は、CUモード、CUサイズ、および量子化など、以前にコーディングされた情報に基づいてCUレベルで調整される。たとえば、16×16よりも小さいCUの場合、たとえば、シグナリングコストを節約するために2つの重み候補のみが許可され得る。
[00176]次に、本開示の態様による一般化残差予測パラメータを導出するための例示的な方法について図12を参照しながら説明する。プロセス1200は、エンコーダ(たとえば、図2に示したエンコーダ)、デコーダ(たとえば、図3に示したデコーダ)、または任意の他の構成要素によって実行され得る。プロセス1200のステップについて図3のデコーダ30に関して説明するが、プロセス1200は、上述のように、エンコーダなどの他の構成要素によって実行され得る。
[00177]ブロック1201において、デコーダ30は、重み情報を判断するために、ビットストリームから情報を取得するか、または以前にコーディングされた情報を取得する。たとえば、上記で説明したように、GRPパラメータは、CUサイズに基づき得る。または、GRPパラメータは、CUモード、CUサイズ、および量子化など、以前にコーディングされた情報に基づき得る。ブロック1202において、デコーダ30は、ブロック1201において取得された情報に基づいて一般化残差予測のための1つまたは複数のパラメータを判断する。たとえば、デコーダ30は、CUサイズに基づいて重みステップSwを判断し得る。デコーダ30はまた、CUサイズに基づいて重み候補の数Nwを判断し得る。デコーダ30はまた、CUモード、CUサイズ、および量子化など、以前にコーディングされた情報に基づいて重み情報を調整し得る。図8に関して説明した本開示の態様による一般化残差予測パラメータを導出するための例示的な方法は、シーケンス、ピクチャ、フレームのグループ、フレーム、スライスのグループ、スライス、コーディングユニット(CU)のグループ、コーディングユニット(CU)、予測ユニット(PU)のグループ、予測ユニット(PU)、ブロック、またはピクセルの領域など、様々なコーディングレベルで実装され得る。さらに、図12に関して説明したすべての実施形態は、別個に、または互いに組み合わせて実装され得る。
[00178]図13は、本開示の態様による、一般化残差予測においてレイヤをアップサンプリングまたはダウンサンプリングするための例示的な方法を示すフローチャートである。レイヤ間予測プロセスでは、エンハンスメントレイヤの空間アスペクト比に一致するようにアップサンプリングまたはダウンサンプリングフィルタ処理プロセスがベースレイヤピクチャに適用される。ベースレイヤおよびエンハンスメントレイヤのピクチャサイズが同一であるときでも、平滑化フィルタなどのフィルタ処理プロセスがやはり適用され得る。概して、1つの固定アップサンプリング、ダウンサンプリング、および平滑化フィルタセットが使用されハードコーディングされる。フィルタは、(位相と呼ばれることがある)フラクショナルピクセルシフトに従ってセットから選択され得、フラクショナルピクセルシフトは、ベースレイヤピクチャとエンハンスメントレイヤピクチャとの間の空間アスペクト比に基づいて計算される。
[00179]GRPフレームワークでは、レイヤ間予測パフォーマンスを改善するために可変のフィルタ処理セットが適用され得る。フィルタ処理セットは、シーケンスまたはピクチャレベルでハードコーディングされるか、またはシグナリングされ得る。フィルタセットインデックスは、CUおよびPUなどのより低いレベルでシグナリングされるか、または導出され得る。フィルタセットインデックスは、重み係数wの値に基づいて導出され得るか、または重みインデックスiwに基づいて導出され得る。フィルタ処理セットインデックスと重み係数wとの間のまたはフィルタ処理セットと重みインデックスiwとの間の導出マッピングテーブルは、シーケンスまたはピクチャレベルでハードコーディングされるか、またはシグナリングされ得る。
[00180]次に、本開示の態様による一般化残差予測においてレイヤをアップサンプリングまたはダウンサンプリングするための例示的な方法について図13を参照しながら説明する。プロセス1300は、エンコーダ(たとえば、図2に示したエンコーダ)、デコーダ(たとえば、図3に示したデコーダ)、または任意の他の構成要素によって実行され得る。プロセス1300のステップについて図3のデコーダ30に関して説明するが、プロセス1300は、上述のように、エンコーダなどの他の構成要素によって実行され得る。
[00181]ブロック1301において、デコーダ30は、基準レイヤをアップサンプリングすべきか、またはエンハンスメントレイヤをダウンサンプリングすべきかを判断する。空間スケーラビリティでは、そのようなアップサンプリングおよびダウンサンプリングは、レイヤ間予測が同じ解像度で実行され得るように実行される。ブロック1302において基準レイヤがアップサンプリングされることになると判断される場合、デコーダ30は、ブロック1303において、エンハンスメントレイヤの解像度に基準レイヤをアップサンプリングする。一方、ブロック1302においてエンハンスメントレイヤがダウンサンプリングされることになると判断される場合、デコーダ30は、ブロック1304において、基準レイヤの解像度にエンハンスメントレイヤをダウンサンプリングする。ブロック1305において、デコーダ30は、アップサンプリングまたはダウンサンプリングされたピクチャに平滑化フィルタを適用する。平滑化フィルタは、エンハンスメントレイヤピクチャおよび基準レイヤピクチャが同じである場合でも適用され得る。平滑化フィルタは適宜に選択され得る。ブロック1306において、デコーダ30は、アップサンプリングまたはダウンサンプリングされたピクチャに基づいてGRPを使用して現在のビデオユニットを判断する。
[00182]図13に関して説明した本開示の態様による一般化残差予測においてレイヤをアップサンプリングまたはダウンサンプリングするための例示的な方法は、シーケンス、ピクチャ、フレームのグループ、フレーム、スライスのグループ、スライス、コーディングユニット(CU)のグループ、コーディングユニット(CU)、予測ユニット(PU)のグループ、予測ユニット(PU)、ブロック、またはピクセルの領域など、様々なコーディングレベルで実装され得る。さらに、図13に関して説明したすべての実施形態は、別個に、または互いに組み合わせて実装され得る。
[00183]図14は、本開示の態様による、一般化残差予測において動き情報を再マッピング、アップサンプリング、またはダウンサンプリングするための例示的な方法を示すフローチャートである。場合によっては、残差予測子を生成するために1つのレイヤの動き情報を別のレイヤに適用するとき、1つのレイヤにおいて利用可能な基準が別のレイヤにおいてで利用可能でないことがある。そのような場合、動き再マッピングが必要となる。一実施形態では、基準は、1つのレイヤにおいてのみ利用可能である場合、提案されたGRPフレームワークにおける残差予測子を生成するためにこの基準が使用されることがないように利用不可能なものとしてマーキングされる。別の実施形態では、利用不可能な基準が、関係する基準リストの最初の基準と置き換えられ、動きがゼロ動きに設定される。
[00184]3Dビデオコーディングでは、SVCビデオデータはまた、異なるビューのビデオデータを含む。ビューは異なる角度に関係し得るので、異なるビューの間に視差が存在し得る。3Dビデオコーディングのコンテキストで動きが再マッピングされる場合、動きを再マッピングする際に視差ベクトルが考慮され得る。
[00185]空間的にスケーラブルな場合、エンハンスメントレイヤとベースレイヤとの間の異なる解像度により、動きベクトルがアップサンプリングまたはダウンサンプリングされ得る。一実施形態では、動きベクトルスケーリングは、解像度比に直接基づく。別の実施形態では、直接スケーリングの後に追加の位相シフト(+1または−1)が適用され得る。追加の位相シフトは、ビットストリーム中でシグナリングされるか、または、PUサイズ、動きベクトル、CU深度などの以前にコーディングされた情報に基づいて導出され得る。
[00186]次に、本開示の態様による動き情報を再マッピング、アップサンプリング、またはダウンサンプリングするための例示的な方法について図14を参照しながら説明する。プロセス1400は、エンコーダ(たとえば、図2に示したエンコーダ)、デコーダ(たとえば、図3に示したデコーダ)、または任意の他の構成要素によって実行され得る。プロセス1400のステップについて図3のデコーダ30に関して説明するが、プロセス1400は、上述のように、エンコーダなどの他の構成要素によって実行され得る。ブロック1401において、動き情報の基準がレイヤのうちの1つにおいて利用可能でない場合、デコーダ30は、ブロック1402において、動き情報を再マッピングする。たとえば、別のレイヤにおける対応する基準が利用不可能である場合、デコーダ30は、基準を利用不可能なものとしてマークすることができる。または、デコーダ30は、関係する基準リスト中の基準にその基準を再マッピングし得る。ブロック1401においてインター予測のために使用されるレイヤにおいて動き情報のための基準が利用可能である場合、デコーダ30は、ブロック1403に示すように、さらなる処理を実行し得ない。ブロック1404において、空間SVCが使用される場合、デコーダ30は、ブロック1405において、基準レイヤ動き情報をアップサンプリングすべきか、またはエンハンスメントレイヤ動き情報をダウンサンプリングすべきかを判断する。空間スケーラビリティが使用されない場合、デコーダ30は、ブロック1406に示すようにさらなる処理を実行し得ない。ブロック1407において、基準レイヤ動き情報がアップサンプリングされることになると判断される場合、デコーダ30は、ブロック1008において、エンハンスメントレイヤの解像度に基準レイヤ動き情報をアップサンプリングする。一方、ブロック1407においてエンハンスメントレイヤ動き情報がダウンサンプリングされることになると判断される場合、デコーダ30は、ブロック1409において、基準レイヤの解像度にエンハンスメントレイヤ動き情報をダウンサンプリングする。ブロック1410において、デコーダ30は、アップサンプルまたはダウンサンプリングされたピクチャを使用してGRPを使用して現在のビデオユニットを判断する。
[00187]図10に関して説明した本開示の態様による動き情報を再マッピング、アップサンプリング、またはダウンサンプリングするための例示的な方法は、シーケンス、ピクチャ、フレームのグループ、フレーム、スライスのグループ、スライス、コーディングユニット(CU)のグループ、コーディングユニット(CU)、予測ユニット(PU)のグループ、予測ユニット(PU)、ブロック、またはピクセルの領域など、様々なコーディングレベルで実装され得る。さらに、図14に関して説明したすべての実施形態は、別個に、または互いに組み合わせて実装され得る。
[00188]図15は、本開示の態様による、一般化残差予測において符号化の重み係数を判断するための例示的な方法を示すフローチャートである。例示的な方法は、エンコーダ側の最適化に適用され得る。一実施形態では、各重み係数候補でのCUレートひずみコストを確認することによってCUごとに最良の重み係数wが判断される。コストが最も小さい重み係数がCUの重み係数wとして選択される。別の実施形態では、ベースレイヤ時間的予測Pbにエンハンスメントレイヤ時間的予測Peの動きを適用することによって残差予測子が導出される。重み係数wは次のように判断され得る。
Figure 2015531561
上式で、Iは、エンハンスメントレイヤのソースピクチャを示し、
Figure 2015531561
は、差分ブロック(I−Pe)および
Figure 2015531561
のドット積の和を示す。
[00189]次に、本開示の態様による一般化残差予測において符号化の重み係数を判断するための例示的な方法について図15を参照しながら説明する。プロセス1500は、エンコーダ(たとえば、図2に示したエンコーダ)、デコーダ(たとえば、図3に示したデコーダ)、または任意の他の構成要素によって実行され得る。プロセス1500のステップについて図2のエンコーダ20に関して説明するが、プロセス1500は、上述のように、デコーダなどの他の構成要素によって実行され得る。ブロック1501において、エンコーダ20は、BL時間的予測にEL時間的予測の動きを適用することによってELの残差予測を導出する。ブロック1502において、デコーダ30は、導出された残差予測に基づいて重み係数を導出する。図15に関して説明した本開示の態様による一般化残差予測において符号化の重み係数を判断するための例示的な方法は、シーケンス、ピクチャ、フレームのグループ、フレーム、スライスのグループ、スライス、コーディングユニット(CU)のグループ、コーディングユニット(CU)、予測ユニット(PU)のグループ、予測ユニット(PU)、ブロック、またはピクセルの領域など、様々なコーディングレベルで実装され得る。さらに、図15に関して説明したすべての実施形態は、別個に、または互いに組み合わせて実装され得る。
[0190]例によっては、本明細書で説明された技法のうちいずれかの、いくつかの行為またはイベントは、異なるシーケンスで実行され得、追加、マージ、または完全に除外され得る(たとえば、すべての説明した作用またはイベントが、本技法の実施のために必要であるとは限らない)ことを認識されたい。さらに、いくつかの例では、行為またはイベントは、連続的にではなく、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通して、同時に実行され得る。
[0191]1つまたは複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、またはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含むデータ記憶媒体または通信媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、または(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つもしくは複数のコンピュータまたは1つもしくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
[0192]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMもしくは他の光ディスクストレージ、磁気ディスクストレージ、もしくは他の磁気ストレージデバイス、フラッシュメモリ、または命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含まれるべきである。
[0193]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価な集積回路もしくはディスクリート論理回路などの1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明した技法の実装に好適な他の構造のいずれかを指し得る。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用ハードウェアおよび/もしくはソフトウェアモジュール内に与えられ得、または複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素において十分に実装され得る。
[0194]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示する技法を実行するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットを、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作ハードウェアユニットの集合によって与えられ得る。
[0195]様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
[0195]様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを記憶するように構成されたメモリと、
前記メモリと通信しているプロセッサとを備え、前記プロセッサが、現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および前記現在のブロックの前記少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の前記現在のブロックの予測子を判断するように構成された、
デジタルビデオをコーディングするための装置。
[C2]
前記プロセッサが、正規化ファクタを使用するようにさらに構成され、前記正規化ファクタが、前記重み付けレイヤ間予測子に関連する重み係数と前記重み付けレイヤ内予測子に関連する重み係数との和を備える、C1に記載の装置。
[C3]
前記重み付けレイヤ内予測子が、重み係数と、空間的予測子または時間的予測子のうちの少なくとも1つとの積を備える、C2に記載の装置。
[C4]
前記重み付けレイヤ間予測子が、重み係数と、時間的予測子、空間的予測子、または残差予測子のうちの少なくとも1つとの積を備える、C1に記載の装置。
[C5]
前記プロセッサが、前記現在のブロックの1つまたは複数の追加の重み付け予測子に少なくとも部分的に基づいて前記現在のブロックの前記予測子を判断するようにさらに構成され、前記重み付けレイヤ間予測子、前記重み付けレイヤ内予測子、および前記1つまたは複数の追加の重み付け予測子の各々が、異なるビデオコーディングモードに関連付けられる、C1に記載の装置。
[C6]
前記プロセッサが、前記現在のブロックの第2の色成分の第2の重み付けレイヤ間予測子および前記現在のブロックの前記第2の色成分の第2の重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するようにさらに構成された、C1に記載の装置。
[C7]
前記レイヤ間予測子の第1の重み係数が、前記第2のレイヤ間予測子の第2の重み係数とは異なる、C6に記載の装置。
[C8]
前記プロセッサが、前記現在のブロックの空間的に隣接するブロック、第2のエンハンスメントレイヤブロックと前記現在のブロックとの間の距離、または前記現在のブロックのブロック境界からの前記現在のブロック中のピクセルの距離のうちの少なくとも1つに基づいて少なくとも1つの重み係数を判断するようにさらに構成された、C1に記載の装置。
[C9]
前記プロセッサが、重み係数のあらかじめ定義されたリストに少なくとも基づいて重み係数を判断するようにさらに構成された、C1に記載の装置。
[C10]
前記プロセッサが、重み係数の前記あらかじめ定義されたリスト中の重み付けインデックスを識別するようにさらに構成され、前記重み付けインデックスが前記重み付け係数に関連付けられる、C9に記載の装置。
[C11]
前記プロセッサは、前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであると判断したことに応答して、前記現在のブロックの少なくとも1つの色成分に関連するインター方向のシグナリングを妨げるように構成された、C1に記載の装置。
[C12]
前記プロセッサは、残差予測モードに関連する重み係数が制限値であると判断したことに応答して、エンハンスメントレイヤブロックの予測子が、重み付けレイヤ間予測子および重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグのシグナリングを防げるように構成された、C1に記載の装置。
[C13]
前記プロセッサは、前記重み付けレイヤ内予測子に関連する予測モードが制限予測モードでないと判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するように構成された、C1に記載の装置。
[C14]
前記プロセッサは、前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを判断するようにさらに構成され、前記フラグをコーディングするために使用されるコンテキストモデルが、前記現在のブロックに関連する予測モード、前記現在のブロックに関連するインター方向、前記現在のブロックに関連するイントラ方向、マージフラグ、スキップフラグ、CU深度、またはスライスタイプからなる群のうちの少なくとも1つに基づいて判断される、C1に記載の装置。
[C15]
前記プロセッサは、前記現在のブロックが所定の値よりも大きいサイズを有するビデオ情報のブロックを備えると判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するようにさらに構成された、C1に記載の装置。
[C16]
前記プロセッサが、前記現在のブロックの前記予測子を判断するために動き補償情報の使用を単方向動き補償情報に制限するようにさらに構成された、C1に記載の装置。
[C17]
前記プロセッサが、双方向動きベクトルを単方向動きベクトルに変換するようにさらに構成された、C16に記載の装置。
[C18]
前記変換された双方向動きベクトルが前記現在のブロックのルーマ成分に関連付けられ、前記現在のブロックのクロマ成分に関連する双方向動きベクトルが単方向動きベクトルに変換されない、C17に記載の装置。
[C19]
前記プロセッサが、補間を実行することなしに前記現在のブロックの前記予測子を判断するようにさらに構成された、C1に記載の装置。
[C20]
前記プロセッサが、前記現在のブロックの少なくとも1つの色成分を判断するために使用される補間フィルタ長さを制限するようにさらに構成された、C1に記載の装置。
[C21]
前記プロセッサは、前記現在のブロックがブロックサイズ基準とパーティションモード基準とを満たすときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するようにさらに構成された、C1に記載の装置。
[C22]
前記プロセッサは、前記現在のブロックが、ブロックサイズしきい値以上のブロックサイズとパーティションモードしきい値に等しいパーティションモードとを有するときは双方向予測を使用し、前記現在のブロックが、前記ブロックサイズしきい値よりも小さいブロックサイズまたは前記パーティションモードしきい値に等しくないパーティションモードを有するときは単方向予測を使用して、前記現在のブロックの前記予測子を判断するようにさらに構成された、C1に記載の装置。
[C23]
前記プロセッサは、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックをコーディングするとき、双方向シンタックス要素のシグナリングを妨げるようにさらに構成された、C1に記載の装置。
[C24]
前記プロセッサは、
前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを識別することと、
前記現在のブロックが制限ブロックサイズに等しくないブロックサイズを有するときのみ、および前記重み付けレイヤ内予測子を判断するために単方向予測が使用されるべきであるときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することと
を行うようにさらに構成された、C1に記載の装置。
[C25]
ビットストリームから抽出された高レベルシンタックスに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するように構成されたデコーダを備える、C1に記載の装置。
[C26]
前記現在のブロックの前記予測子が前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグをシグナリングするように構成されたエンコーダを備え、前記フラグは、前記現在のブロックが、ブロックサイズしきい値以上のブロックサイズとパーティションモードしきい値に等しいパーティションモードとを有すると判断したことに応答してのみシグナリングされる、C1に記載の装置。
[C27]
デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、セットトップボックス、電話ハンドセット、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、およびビデオストリーミングデバイスからなる前記群から選択されるデバイスの一部である、C1に記載の装置。
[C28]
ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを定義するビデオビットストリームを取得することと、
現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および前記現在のブロックの前記少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の前記現在のブロックの予測子を判断することと
を備える、ビデオを復号する方法。
[C29]
正規化ファクタを使用することをさらに備え、前記正規化ファクタが、前記重み付けレイヤ間予測子に関連する重み係数と前記重み付けレイヤ内予測子に関連する重み係数との和を備える、C28に記載の方法。
[C30]
前記重み付けレイヤ間予測子が、重み係数と、時間的予測子、空間的予測子、または残差予測子のうちの少なくとも1つとの積を備える、C28に記載の方法。
[C31]
前記現在のブロックの1つまたは複数の追加の重み付け予測子に少なくとも部分的に基づいて前記現在のブロックの前記予測子を判断することをさらに備え、前記重み付けレイヤ間予測子、前記重み付けレイヤ内予測子、および前記1つまたは複数の追加の重み付け予測子の各々が、異なるビデオコーディングモードに関連付けられる、C28に記載の方法。
[C32]
前記現在のブロックの第2の色成分の第2の重み付けレイヤ間予測子および前記現在のブロックの前記第2の色成分の第2の重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、C28に記載の方法。
[C33]
前記レイヤ間予測子の第1の重み係数が、前記第2のレイヤ間予測子の第2の重み係数とは異なる、C32に記載の方法。
[C34]
前記現在のブロックの空間的に隣接するブロック、第2のエンハンスメントレイヤブロックと前記現在のブロックとの間の距離、または前記現在のブロックのブロック境界からの前記現在のブロック中のピクセルの距離のうちの少なくとも1つに基づいて少なくとも1つの重み係数を判断することをさらに備える、C28に記載の方法。
[C35]
重み係数のあらかじめ定義されたリストに少なくとも基づいて重み係数を判断することをさらに備える、C28に記載の方法。
[C36]
重み係数の前記あらかじめ定義されたリスト中の重み付けインデックスを識別することをさらに備え、前記重み付けインデックスが前記重み付け係数に関連付けられる、C35に記載の方法。
[C37]
前記重み付けレイヤ内予測子に関連する予測モードが制限予測モードでないと判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、C28に記載の方法。
[C38]
前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを判断することをさらに備え、前記フラグをコーディングするために使用されるコンテキストモデルが、前記現在のブロックに関連する予測モード、前記現在のブロックに関連するインター方向、前記現在のブロックに関連するイントラ方向、マージフラグ、スキップフラグ、CU深度、またはスライスタイプからなる群のうちの少なくとも1つに基づいて判断される、C28に記載の方法。
[C39]
前記現在のブロックが所定の値よりも大きいサイズを有するビデオ情報のブロックを備えると判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、C28に記載の方法。
[C40]
前記現在のブロックの前記予測子を判断するために動き補償情報の使用を単方向動き補償情報に制限することをさらに備える、C28に記載の方法。
[C41]
双方向動きベクトルを単方向動きベクトルに変換することをさらに備える、C40に記載の方法。
[C42]
前記変換された双方向動きベクトルが前記現在のブロックのルーマ成分に関連付けられ、前記現在のブロックのクロマ成分に関連する双方向動きベクトルが単方向動きベクトルに変換されない、C41に記載の方法。
[C43]
補間を実行することなしに前記現在のブロックの前記予測子を判断することをさらに備える、C28に記載の方法。
[C44]
前記現在のブロックの少なくとも1つの色成分を判断するために使用される補間フィルタ長さを制限することをさらに備える、C28に記載の方法。
[C45]
前記現在のブロックがブロックサイズ基準とパーティションモード基準とを満たすときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、C28に記載の方法。
[C46]
前記現在のブロックが、ブロックサイズしきい値以上のブロックサイズとパーティションモードしきい値に等しいパーティションモードとを有するときは双方向予測を使用し、前記現在のブロックが、前記ブロックサイズしきい値よりも小さいブロックサイズまたは前記パーティションモードしきい値に等しくないパーティションモードを有するときは単方向予測を使用して、前記現在のブロックの前記予測子を判断することをさらに備える、C28に記載の方法。
[C47]
前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを識別することと、
前記現在のブロックが制限ブロックサイズに等しくないブロックサイズを有するときのみ、および前記重み付けレイヤ内予測子を判断するために単方向予測が使用されるべきであるときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することと
をさらに備える、C28に記載の方法。
[C48]
ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを定義するビデオビットストリームを生成することと、
現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および前記現在のブロックの前記少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の前記現在のブロックの予測子を判断することと
を備える、ビデオを符号化する方法。
[C49]
正規化ファクタを使用することをさらに備え、前記正規化ファクタが、前記重み付けレイヤ間予測子に関連する重み係数と前記重み付けレイヤ内予測子に関連する重み係数との和を備える、C48に記載の方法。
[C50]
前記重み付けレイヤ間予測子が、重み係数と、時間的予測子、空間的予測子、または残差予測子のうちの少なくとも1つとの積を備える、C48に記載の方法。
[C51]
前記現在のブロックの1つまたは複数の追加の重み付け予測子に少なくとも部分的に基づいて前記現在のブロックの前記予測子を判断することをさらに備え、前記重み付けレイヤ間予測子、前記重み付けレイヤ内予測子、および前記1つまたは複数の追加の重み付け予測子の各々が、異なるビデオコーディングモードに関連付けられる、C48に記載の方法。
[C52]
前記現在のブロックの第2の色成分の第2の重み付けレイヤ間予測子および前記現在のブロックの前記第2の色成分の第2の重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、C48に記載の方法。
[C53]
前記レイヤ間予測子の第1の重み係数が、前記第2のレイヤ間予測子の第2の重み係数とは異なる、C52に記載の方法。
[C54]
前記現在のブロックの空間的に隣接するブロック、第2のエンハンスメントレイヤブロックと前記現在のブロックとの間の距離、または前記現在のブロックのブロック境界からの前記現在のブロック中のピクセルの距離のうちの少なくとも1つに基づいて少なくとも1つの重み係数を判断することをさらに備える、C48に記載の方法。
[C55]
重み係数のあらかじめ定義されたリストに少なくとも基づいて重み係数を判断することをさらに備える、C48に記載の方法。
[C56]
重み係数の前記あらかじめ定義されたリスト中の重み付けインデックスを識別することをさらに備え、前記重み付けインデックスが前記重み付け係数に関連付けられる、C55に記載の方法。
[C57]
前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであると判断したことに応答して、前記現在のブロックの少なくとも1つの色成分に関連するインター方向のシグナリングを妨げることをさらに備える、C48に記載の方法。
[C58]
残差予測モードに関連する重み係数が制限値であると判断したことに応答して、エンハンスメントレイヤブロックの予測子が、重み付けレイヤ間予測子および重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグのシグナリングを防げることをさらに備える、C48に記載の方法。
[C59]
前記重み付けレイヤ内予測子に関連する予測モードが制限予測モードでないと判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、C48に記載の方法。
[C60]
前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを判断することをさらに備え、前記フラグをコーディングするために使用されるコンテキストモデルが、前記現在のブロックに関連する予測モード、前記現在のブロックに関連するインター方向、前記現在のブロックに関連するイントラ方向、マージフラグ、スキップフラグ、CU深度、またはスライスタイプからなる群のうちの少なくとも1つに基づいて判断される、C48に記載の方法。
[C61]
前記現在のブロックが所定の値よりも大きいサイズを有するビデオ情報のブロックを備えると判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、C48に記載の方法。
[C62]
前記現在のブロックの前記予測子を判断するために動き補償情報の使用を単方向動き補償情報に制限することをさらに備える、C48に記載の方法。
[C63]
双方向動きベクトルを単方向動きベクトルに変換することをさらに備える、C62に記載の方法。
[C64]
前記変換された双方向動きベクトルが前記現在のブロックのルーマ成分に関連付けられ、前記現在のブロックのクロマ成分に関連する双方向動きベクトルが単方向動きベクトルに変換されない、C63に記載の方法。
[C65]
補間を実行することなしに前記現在のブロックの前記予測子を判断することをさらに備える、C48に記載の方法。
[C66]
前記現在のブロックの少なくとも1つの色成分を判断するために使用される補間フィルタ長さを制限することをさらに備える、C48に記載の方法。
[C67]
前記現在のブロックがブロックサイズ基準とパーティションモード基準とを満たすときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、C48に記載の方法。
[C68]
前記現在のブロックが、ブロックサイズしきい値以上のブロックサイズとパーティションモードしきい値に等しいパーティションモードとを有するときは双方向予測を使用し、前記現在のブロックが、前記ブロックサイズしきい値よりも小さいブロックサイズまたは前記パーティションモードしきい値に等しくないパーティションモードを有するときは単方向予測を使用して、前記現在のブロックの前記予測子を判断することをさらに備える、C48に記載の方法。
[C69]
前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックをコーディングするとき、双方向シンタックス要素のシグナリングを妨げることをさらに備える、C48に記載の方法。
[C70]
前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを識別することと、
前記現在のブロックが制限ブロックサイズに等しくないブロックサイズを有するときのみ、および前記重み付けレイヤ内予測子を判断するために単方向予測が使用されるべきであるときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することと
をさらに備える、C48に記載の方法。
[C71]
装置のプロセッサによって実行可能な命令を備えるコンピュータ可読記憶媒体であって、前記命令が、前記装置に、
ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを取得し記憶することと、
現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および前記現在のブロックの前記少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の前記現在のブロックの予測子を判断することと
を行わせる、コンピュータ可読記憶媒体。
[C72]
前記命令が、前記装置に、前記現在のブロックの前記予測子を判断するために動き補償情報の使用を単方向動き補償情報に制限することをさらに行わせる、C71に記載のコンピュータ可読記憶媒体。
[C73]
ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを取得するための手段と、
現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および前記現在のブロックの前記少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の前記現在のブロックの予測子を判断するための手段と
を備える、デジタルビデオをコーディングするための装置。
[C74]
前記現在のブロックが所定の値よりも大きいサイズを有するビデオ情報のブロックを備えると判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するための手段をさらに備える、C73に記載の装置。

Claims (74)

  1. ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを記憶するように構成されたメモリと、
    前記メモリと通信しているプロセッサとを備え、前記プロセッサが、現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および前記現在のブロックの前記少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の前記現在のブロックの予測子を判断するように構成された、
    デジタルビデオをコーディングするための装置。
  2. 前記プロセッサが、正規化ファクタを使用するようにさらに構成され、前記正規化ファクタが、前記重み付けレイヤ間予測子に関連する重み係数と前記重み付けレイヤ内予測子に関連する重み係数との和を備える、請求項1に記載の装置。
  3. 前記重み付けレイヤ内予測子が、重み係数と、空間的予測子または時間的予測子のうちの少なくとも1つとの積を備える、請求項2に記載の装置。
  4. 前記重み付けレイヤ間予測子が、重み係数と、時間的予測子、空間的予測子、または残差予測子のうちの少なくとも1つとの積を備える、請求項1に記載の装置。
  5. 前記プロセッサが、前記現在のブロックの1つまたは複数の追加の重み付け予測子に少なくとも部分的に基づいて前記現在のブロックの前記予測子を判断するようにさらに構成され、前記重み付けレイヤ間予測子、前記重み付けレイヤ内予測子、および前記1つまたは複数の追加の重み付け予測子の各々が、異なるビデオコーディングモードに関連付けられる、請求項1に記載の装置。
  6. 前記プロセッサが、前記現在のブロックの第2の色成分の第2の重み付けレイヤ間予測子および前記現在のブロックの前記第2の色成分の第2の重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するようにさらに構成された、請求項1に記載の装置。
  7. 前記レイヤ間予測子の第1の重み係数が、前記第2のレイヤ間予測子の第2の重み係数とは異なる、請求項6に記載の装置。
  8. 前記プロセッサが、前記現在のブロックの空間的に隣接するブロック、第2のエンハンスメントレイヤブロックと前記現在のブロックとの間の距離、または前記現在のブロックのブロック境界からの前記現在のブロック中のピクセルの距離のうちの少なくとも1つに基づいて少なくとも1つの重み係数を判断するようにさらに構成された、請求項1に記載の装置。
  9. 前記プロセッサが、重み係数のあらかじめ定義されたリストに少なくとも基づいて重み係数を判断するようにさらに構成された、請求項1に記載の装置。
  10. 前記プロセッサが、重み係数の前記あらかじめ定義されたリスト中の重み付けインデックスを識別するようにさらに構成され、前記重み付けインデックスが前記重み付け係数に関連付けられる、請求項9に記載の装置。
  11. 前記プロセッサは、前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであると判断したことに応答して、前記現在のブロックの少なくとも1つの色成分に関連するインター方向のシグナリングを妨げるように構成された、請求項1に記載の装置。
  12. 前記プロセッサは、残差予測モードに関連する重み係数が制限値であると判断したことに応答して、エンハンスメントレイヤブロックの予測子が、重み付けレイヤ間予測子および重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグのシグナリングを防げるように構成された、請求項1に記載の装置。
  13. 前記プロセッサは、前記重み付けレイヤ内予測子に関連する予測モードが制限予測モードでないと判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するように構成された、請求項1に記載の装置。
  14. 前記プロセッサは、前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを判断するようにさらに構成され、前記フラグをコーディングするために使用されるコンテキストモデルが、前記現在のブロックに関連する予測モード、前記現在のブロックに関連するインター方向、前記現在のブロックに関連するイントラ方向、マージフラグ、スキップフラグ、CU深度、またはスライスタイプからなる群のうちの1つに少なくとも基づいて判断される、請求項1に記載の装置。
  15. 前記プロセッサは、前記現在のブロックが所定の値よりも大きいサイズを有するビデオ情報のブロックを備えると判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するようにさらに構成された、請求項1に記載の装置。
  16. 前記プロセッサが、前記現在のブロックの前記予測子を判断するために動き補償情報の使用を単方向動き補償情報に制限するようにさらに構成された、請求項1に記載の装置。
  17. 前記プロセッサが、双方向動きベクトルを単方向動きベクトルに変換するようにさらに構成された、請求項16に記載の装置。
  18. 前記変換された双方向動きベクトルが前記現在のブロックのルーマ成分に関連付けられ、前記現在のブロックのクロマ成分に関連する双方向動きベクトルが単方向動きベクトルに変換されない、請求項17に記載の装置。
  19. 前記プロセッサが、補間を実行することなしに前記現在のブロックの前記予測子を判断するようにさらに構成された、請求項1に記載の装置。
  20. 前記プロセッサが、前記現在のブロックの少なくとも1つの色成分を判断するために使用される補間フィルタ長さを制限するようにさらに構成された、請求項1に記載の装置。
  21. 前記プロセッサは、前記現在のブロックがブロックサイズ基準とパーティションモード基準とを満たすときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するようにさらに構成された、請求項1に記載の装置。
  22. 前記プロセッサは、前記現在のブロックが、ブロックサイズしきい値以上のブロックサイズとパーティションモードしきい値に等しいパーティションモードとを有するときは双方向予測を使用し、前記現在のブロックが、前記ブロックサイズしきい値よりも小さいブロックサイズまたは前記パーティションモードしきい値に等しくないパーティションモードを有するときは単方向予測を使用して、前記現在のブロックの前記予測子を判断するようにさらに構成された、請求項1に記載の装置。
  23. 前記プロセッサは、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックをコーディングするとき、双方向シンタックス要素のシグナリングを妨げるようにさらに構成された、請求項1に記載の装置。
  24. 前記プロセッサは、
    前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを識別することと、
    前記現在のブロックが制限ブロックサイズに等しくないブロックサイズを有するときのみ、および前記重み付けレイヤ内予測子を判断するために単方向予測が使用されるべきであるときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することと
    を行うようにさらに構成された、請求項1に記載の装置。
  25. ビットストリームから抽出された高レベルシンタックスに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するように構成されたデコーダを備える、請求項1に記載の装置。
  26. 前記現在のブロックの前記予測子が前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグをシグナリングするように構成されたエンコーダを備え、前記フラグは、前記現在のブロックが、ブロックサイズしきい値以上のブロックサイズとパーティションモードしきい値に等しいパーティションモードとを有すると判断したことに応答してのみシグナリングされる、請求項1に記載の装置。
  27. デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、セットトップボックス、電話ハンドセット、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、およびビデオストリーミングデバイスからなる前記群から選択されるデバイスの一部である、請求項1に記載の装置。
  28. ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを定義するビデオビットストリームを取得することと、
    現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および前記現在のブロックの前記少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の前記現在のブロックの予測子を判断することと
    を備える、ビデオを復号する方法。
  29. 正規化ファクタを使用することをさらに備え、前記正規化ファクタが、前記重み付けレイヤ間予測子に関連する重み係数と前記重み付けレイヤ内予測子に関連する重み係数との和を備える、請求項28に記載の方法。
  30. 前記重み付けレイヤ間予測子が、重み係数と、時間的予測子、空間的予測子、または残差予測子のうちの少なくとも1つとの積を備える、請求項28に記載の方法。
  31. 前記現在のブロックの1つまたは複数の追加の重み付け予測子に少なくとも部分的に基づいて前記現在のブロックの前記予測子を判断することをさらに備え、前記重み付けレイヤ間予測子、前記重み付けレイヤ内予測子、および前記1つまたは複数の追加の重み付け予測子の各々が、異なるビデオコーディングモードに関連付けられる、請求項28に記載の方法。
  32. 前記現在のブロックの第2の色成分の第2の重み付けレイヤ間予測子および前記現在のブロックの前記第2の色成分の第2の重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、請求項28に記載の方法。
  33. 前記レイヤ間予測子の第1の重み係数が、前記第2のレイヤ間予測子の第2の重み係数とは異なる、請求項32に記載の方法。
  34. 前記現在のブロックの空間的に隣接するブロック、第2のエンハンスメントレイヤブロックと前記現在のブロックとの間の距離、または前記現在のブロックのブロック境界からの前記現在のブロック中のピクセルの距離のうちの1つに少なくとも基づいて少なくとも1つの重み係数を判断することをさらに備える、請求項28に記載の方法。
  35. 重み係数のあらかじめ定義されたリストに少なくとも基づいて重み係数を判断することをさらに備える、請求項28に記載の方法。
  36. 重み係数の前記あらかじめ定義されたリスト中の重み付けインデックスを識別することをさらに備え、前記重み付けインデックスが前記重み付け係数に関連付けられる、請求項35に記載の方法。
  37. 前記重み付けレイヤ内予測子に関連する予測モードが制限予測モードでないと判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、請求項28に記載の方法。
  38. 前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを判断することをさらに備え、前記フラグをコーディングするために使用されるコンテキストモデルが、前記現在のブロックに関連する予測モード、前記現在のブロックに関連するインター方向、前記現在のブロックに関連するイントラ方向、マージフラグ、スキップフラグ、CU深度、またはスライスタイプからなる群のうちの1つに少なくとも基づいて判断される、請求項28に記載の方法。
  39. 前記現在のブロックが所定の値よりも大きいサイズを有するビデオ情報のブロックを備えると判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、請求項28に記載の方法。
  40. 前記現在のブロックの前記予測子を判断するために動き補償情報の使用を単方向動き補償情報に制限することをさらに備える、請求項28に記載の方法。
  41. 双方向動きベクトルを単方向動きベクトルに変換することをさらに備える、請求項40に記載の方法。
  42. 前記変換された双方向動きベクトルが前記現在のブロックのルーマ成分に関連付けられ、前記現在のブロックのクロマ成分に関連する双方向動きベクトルが単方向動きベクトルに変換されない、請求項41に記載の方法。
  43. 補間を実行することなしに前記現在のブロックの前記予測子を判断することをさらに備える、請求項28に記載の方法。
  44. 前記現在のブロックの少なくとも1つの色成分を判断するために使用される補間フィルタ長さを制限することをさらに備える、請求項28に記載の方法。
  45. 前記現在のブロックがブロックサイズ基準とパーティションモード基準とを満たすときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、請求項28に記載の方法。
  46. 前記現在のブロックが、ブロックサイズしきい値以上のブロックサイズとパーティションモードしきい値に等しいパーティションモードとを有するときは双方向予測を使用し、前記現在のブロックが、前記ブロックサイズしきい値よりも小さいブロックサイズまたは前記パーティションモードしきい値に等しくないパーティションモードを有するときは単方向予測を使用して、前記現在のブロックの前記予測子を判断することをさらに備える、請求項28に記載の方法。
  47. 前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを識別することと、
    前記現在のブロックが制限ブロックサイズに等しくないブロックサイズを有するときのみ、および前記重み付けレイヤ内予測子を判断するために単方向予測が使用されるべきであるときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することと
    をさらに備える、請求項28に記載の方法。
  48. ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを定義するビデオビットストリームを生成することと、
    現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および前記現在のブロックの前記少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の前記現在のブロックの予測子を判断することと
    を備える、ビデオを符号化する方法。
  49. 正規化ファクタを使用することをさらに備え、前記正規化ファクタが、前記重み付けレイヤ間予測子に関連する重み係数と前記重み付けレイヤ内予測子に関連する重み係数との和を備える、請求項48に記載の方法。
  50. 前記重み付けレイヤ間予測子が、重み係数と、時間的予測子、空間的予測子、または残差予測子のうちの少なくとも1つとの積を備える、請求項48に記載の方法。
  51. 前記現在のブロックの1つまたは複数の追加の重み付け予測子に少なくとも部分的に基づいて前記現在のブロックの前記予測子を判断することをさらに備え、前記重み付けレイヤ間予測子、前記重み付けレイヤ内予測子、および前記1つまたは複数の追加の重み付け予測子の各々が、異なるビデオコーディングモードに関連付けられる、請求項48に記載の方法。
  52. 前記現在のブロックの第2の色成分の第2の重み付けレイヤ間予測子および前記現在のブロックの前記第2の色成分の第2の重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、請求項48に記載の方法。
  53. 前記レイヤ間予測子の第1の重み係数が、前記第2のレイヤ間予測子の第2の重み係数とは異なる、請求項52に記載の方法。
  54. 前記現在のブロックの空間的に隣接するブロック、第2のエンハンスメントレイヤブロックと前記現在のブロックとの間の距離、または前記現在のブロックのブロック境界からの前記現在のブロック中のピクセルの距離のうちの1つに少なくとも基づいて少なくとも1つの重み係数を判断することをさらに備える、請求項48に記載の方法。
  55. 重み係数のあらかじめ定義されたリストに少なくとも基づいて重み係数を判断することをさらに備える、請求項48に記載の方法。
  56. 重み係数の前記あらかじめ定義されたリスト中の重み付けインデックスを識別することをさらに備え、前記重み付けインデックスが前記重み付け係数に関連付けられる、請求項55に記載の方法。
  57. 前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであると判断したことに応答して、前記現在のブロックの少なくとも1つの色成分に関連するインター方向のシグナリングを妨げることをさらに備える、請求項48に記載の方法。
  58. 残差予測モードに関連する重み係数が制限値であると判断したことに応答して、エンハンスメントレイヤブロックの予測子が、重み付けレイヤ間予測子および重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグのシグナリングを防げることをさらに備える、請求項48に記載の方法。
  59. 前記重み付けレイヤ内予測子に関連する予測モードが制限予測モードでないと判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、請求項48に記載の方法。
  60. 前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを判断することをさらに備え、前記フラグをコーディングするために使用されるコンテキストモデルが、前記現在のブロックに関連する予測モード、前記現在のブロックに関連するインター方向、前記現在のブロックに関連するイントラ方向、マージフラグ、スキップフラグ、CU深度、またはスライスタイプからなる群のうちの1つに少なくとも基づいて判断される、請求項48に記載の方法。
  61. 前記現在のブロックが所定の値よりも大きいサイズを有するビデオ情報のブロックを備えると判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、請求項48に記載の方法。
  62. 前記現在のブロックの前記予測子を判断するために動き補償情報の使用を単方向動き補償情報に制限することをさらに備える、請求項48に記載の方法。
  63. 双方向動きベクトルを単方向動きベクトルに変換することをさらに備える、請求項62に記載の方法。
  64. 前記変換された双方向動きベクトルが前記現在のブロックのルーマ成分に関連付けられ、前記現在のブロックのクロマ成分に関連する双方向動きベクトルが単方向動きベクトルに変換されない、請求項63に記載の方法。
  65. 補間を実行することなしに前記現在のブロックの前記予測子を判断することをさらに備える、請求項48に記載の方法。
  66. 前記現在のブロックの少なくとも1つの色成分を判断するために使用される補間フィルタ長さを制限することをさらに備える、請求項48に記載の方法。
  67. 前記現在のブロックがブロックサイズ基準とパーティションモード基準とを満たすときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することをさらに備える、請求項48に記載の方法。
  68. 前記現在のブロックが、ブロックサイズしきい値以上のブロックサイズとパーティションモードしきい値に等しいパーティションモードとを有するときは双方向予測を使用し、前記現在のブロックが、前記ブロックサイズしきい値よりも小さいブロックサイズまたは前記パーティションモードしきい値に等しくないパーティションモードを有するときは単方向予測を使用して、前記現在のブロックの前記予測子を判断することをさらに備える、請求項48に記載の方法。
  69. 前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックをコーディングするとき、双方向シンタックス要素のシグナリングを妨げることをさらに備える、請求項48に記載の方法。
  70. 前記現在のブロックの前記予測子が、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて判断されるべきであることを示すフラグを識別することと、
    前記現在のブロックが制限ブロックサイズに等しくないブロックサイズを有するときのみ、および前記重み付けレイヤ内予測子を判断するために単方向予測が使用されるべきであるときのみ、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断することと
    をさらに備える、請求項48に記載の方法。
  71. 装置のプロセッサによって実行可能な命令を備えるコンピュータ可読記憶媒体であって、前記命令が、前記装置に、
    ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを取得し記憶することと、
    現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および前記現在のブロックの前記少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の前記現在のブロックの予測子を判断することと
    を行わせる、コンピュータ可読記憶媒体。
  72. 前記命令が、前記装置に、前記現在のブロックの前記予測子を判断するために動き補償情報の使用を単方向動き補償情報に制限することをさらに行わせる、請求項71に記載のコンピュータ可読記憶媒体。
  73. ベースレイヤビデオ情報とエンハンスメントレイヤビデオ情報とを取得するための手段と、
    現在のブロックの少なくとも1つの色成分の重み付けレイヤ間予測子および前記現在のブロックの前記少なくとも1つの色成分の重み付けレイヤ内予測子に少なくとも基づいてエンハンスメントレイヤビデオ情報の前記現在のブロックの予測子を判断するための手段と
    を備える、デジタルビデオをコーディングするための装置。
  74. 前記現在のブロックが所定の値よりも大きいサイズを有するビデオ情報のブロックを備えると判断したことに応答して、前記重み付けレイヤ間予測子および前記重み付けレイヤ内予測子に少なくとも基づいて前記現在のブロックの前記予測子を判断するための手段をさらに備える、請求項73に記載の装置。
JP2015531230A 2012-09-07 2013-09-06 スケーラブルビデオコーディングのための重み付け予測モード Pending JP2015531561A (ja)

Applications Claiming Priority (17)

Application Number Priority Date Filing Date Title
US201261698526P 2012-09-07 2012-09-07
US61/698,526 2012-09-07
US201261707843P 2012-09-28 2012-09-28
US61/707,843 2012-09-28
US201361754490P 2013-01-18 2013-01-18
US61/754,490 2013-01-18
US201361807271P 2013-04-01 2013-04-01
US61/807,271 2013-04-01
US201361809800P 2013-04-08 2013-04-08
US61/809,800 2013-04-08
US201361814288P 2013-04-21 2013-04-21
US61/814,288 2013-04-21
US201361814640P 2013-04-22 2013-04-22
US61/814,640 2013-04-22
US14/019,468 US9906786B2 (en) 2012-09-07 2013-09-05 Weighted prediction mode for scalable video coding
US14/019,468 2013-09-05
PCT/US2013/058482 WO2014039802A2 (en) 2012-09-07 2013-09-06 Weighted prediction mode for scalable video coding

Publications (2)

Publication Number Publication Date
JP2015531561A true JP2015531561A (ja) 2015-11-02
JP2015531561A5 JP2015531561A5 (ja) 2018-04-19

Family

ID=50233265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015531230A Pending JP2015531561A (ja) 2012-09-07 2013-09-06 スケーラブルビデオコーディングのための重み付け予測モード

Country Status (7)

Country Link
US (1) US9906786B2 (ja)
EP (2) EP2893704B1 (ja)
JP (1) JP2015531561A (ja)
KR (1) KR20150052259A (ja)
CN (1) CN104737537B (ja)
ES (1) ES2892479T3 (ja)
WO (1) WO2014039802A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018186532A (ja) * 2012-10-01 2018-11-22 ジーイー ビデオ コンプレッション エルエルシー エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108337522B (zh) * 2011-06-15 2022-04-19 韩国电子通信研究院 可伸缩解码方法/设备、可伸缩编码方法/设备和介质
US9420302B2 (en) * 2012-01-24 2016-08-16 Dolby Laboratories Licensing Corporation Weighted multi-band cross color channel predictor
KR102341826B1 (ko) 2012-07-02 2021-12-21 엘지전자 주식회사 영상 정보 코딩 방법 및 이를 이용하는 장치
CN104584553A (zh) * 2012-09-28 2015-04-29 英特尔公司 层间残差预测
US9491460B2 (en) * 2013-03-29 2016-11-08 Qualcomm Incorporated Bandwidth reduction for video coding prediction
WO2015062002A1 (en) * 2013-10-31 2015-05-07 Mediatek Singapore Pte. Ltd. Methods for sub-pu level prediction
WO2015093565A1 (ja) * 2013-12-19 2015-06-25 シャープ株式会社 画像復号装置、画像符号化装置および残差予測装置
WO2015175549A1 (en) * 2014-05-12 2015-11-19 Apple Inc. Techniques for hdr/wcr video coding
US10327002B2 (en) * 2014-06-19 2019-06-18 Qualcomm Incorporated Systems and methods for intra-block copy
KR20170084055A (ko) * 2014-11-06 2017-07-19 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US10250904B2 (en) * 2015-05-05 2019-04-02 Avago Technologies International Sales Pte. Limited Apparatus and method for overlapped motion compensation for video coding
KR20180008445A (ko) * 2015-06-10 2018-01-24 삼성전자주식회사 적응적 가중치 예측을 위한 신택스 시그널링을 이용하여 영상을 부호화 또는 복호화하는 방법 및 장치
GB2557809B (en) 2015-08-28 2021-12-01 Kt Corp Method and device for processing video signal
KR20180041211A (ko) * 2015-09-10 2018-04-23 엘지전자 주식회사 인터-인트라 병합 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10469838B2 (en) * 2015-09-10 2019-11-05 Lg Electronics Inc. Method and apparatus for processing video signal using graph-based transformation based on prediction angle
CN107015900B (zh) * 2016-01-27 2019-08-06 中国科学院声学研究所 一种视频网站的服务性能预测方法
WO2017135692A1 (ko) * 2016-02-02 2017-08-10 엘지전자(주) 픽셀 순환 코딩과 변환 코딩의 결합에 기초하여 비디오 신호를 처리하는 방법 및 장치
US11032550B2 (en) * 2016-02-25 2021-06-08 Mediatek Inc. Method and apparatus of video coding
CN109121465B (zh) * 2016-05-06 2023-06-06 交互数字麦迪逊专利控股公司 用于运动补偿残差预测的系统和方法
CN115118971A (zh) 2016-05-13 2022-09-27 Vid拓展公司 用于视频编码的通用式多假设预测的系统及方法
US10944963B2 (en) 2016-05-25 2021-03-09 Arris Enterprises Llc Coding weighted angular prediction for intra coding
ES2737843B2 (es) * 2016-07-05 2021-07-15 Kt Corp Metodo y aparato para procesar una senal de video
ES2737874B2 (es) 2016-07-05 2020-10-16 Kt Corp Metodo y aparato para procesar senal de video
CN116708784A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
US10440391B2 (en) * 2016-08-05 2019-10-08 Mediatek Inc. Method and apparatus of video coding
CN116567217A (zh) * 2016-08-11 2023-08-08 Lx 半导体科技有限公司 图像编码/解码方法以及图像数据的发送方法
US10368107B2 (en) 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US20190215521A1 (en) * 2016-09-22 2019-07-11 Mediatek Inc. Method and apparatus for video coding using decoder side intra prediction derivation
AU2016231584A1 (en) * 2016-09-22 2018-04-05 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data
WO2018062892A1 (ko) * 2016-09-28 2018-04-05 엘지전자(주) 가중치 인덱스에 기초하여 최적의 예측을 수행하는 방법 및 장치
US10880570B2 (en) 2016-10-05 2020-12-29 Qualcomm Incorporated Systems and methods of adaptively determining template size for illumination compensation
WO2018070632A1 (ko) * 2016-10-11 2018-04-19 엘지전자 주식회사 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
JP6769231B2 (ja) * 2016-10-17 2020-10-14 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
US11140387B2 (en) * 2016-12-07 2021-10-05 Kt Corporation Method and apparatus for processing video signal
US11496747B2 (en) * 2017-03-22 2022-11-08 Qualcomm Incorporated Intra-prediction mode propagation
KR102351029B1 (ko) * 2017-05-16 2022-01-13 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
TWI678917B (zh) * 2017-06-07 2019-12-01 聯發科技股份有限公司 用於視訊編解碼的畫面內-畫面間預測的方法及裝置
WO2018236133A1 (ko) * 2017-06-19 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10757420B2 (en) * 2017-06-23 2020-08-25 Qualcomm Incorporated Combination of inter-prediction and intra-prediction in video coding
CN108876841B (zh) * 2017-07-25 2023-04-28 成都通甲优博科技有限责任公司 一种视差图视差求精中插值的方法及系统
US11172203B2 (en) * 2017-08-08 2021-11-09 Mediatek Inc. Intra merge prediction
US10609384B2 (en) * 2017-09-21 2020-03-31 Futurewei Technologies, Inc. Restriction on sub-block size derivation for affine inter prediction
EP3744102A1 (en) 2018-01-24 2020-12-02 Vid Scale, Inc. Generalized bi-prediction for video coding with reduced coding complexity
CN110113600B (zh) * 2018-02-01 2022-08-26 腾讯科技(深圳)有限公司 视频编码方法、装置、计算机可读存储介质和计算机设备
KR20230058546A (ko) 2018-04-05 2023-05-03 텔레호낙티에볼라게트 엘엠 에릭슨(피유비엘) 컴포트 노이즈 생성 지원
WO2019203517A1 (ko) * 2018-04-15 2019-10-24 엘지전자 주식회사 영상 코딩 시스템에서 움직임 정보 도출 방법 및 장치
CN108961318B (zh) * 2018-05-04 2020-05-15 上海芯仑光电科技有限公司 一种数据处理方法及计算设备
CN110636296B (zh) * 2018-06-22 2022-05-27 腾讯美国有限责任公司 视频解码方法、装置、计算机设备以及存储介质
US11632546B2 (en) * 2018-07-18 2023-04-18 Electronics And Telecommunications Research Institute Method and device for effective video encoding/decoding via local lighting compensation
US11818383B2 (en) 2018-10-10 2023-11-14 Hfi Innovation Inc. Methods and apparatuses of combining multiple predictors for block prediction in video coding systems
CN111083491A (zh) 2018-10-22 2020-04-28 北京字节跳动网络技术有限公司 细化运动矢量的利用
CN112997489B (zh) 2018-11-06 2024-02-06 北京字节跳动网络技术有限公司 具有几何分割的帧间预测的边信息信令
WO2020098643A1 (en) * 2018-11-12 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Simplification of combined inter-intra prediction
US11310515B2 (en) * 2018-11-14 2022-04-19 Tencent America LLC Methods and apparatus for improvement for intra-inter prediction mode
WO2020101559A1 (en) * 2018-11-15 2020-05-22 Telefonaktiebolaget Lm Ericsson (Publ) Deblocking in a video encoder and/or video decoder
US20200162737A1 (en) 2018-11-16 2020-05-21 Qualcomm Incorporated Position-dependent intra-inter prediction combination in video coding
US11652984B2 (en) * 2018-11-16 2023-05-16 Qualcomm Incorporated Position-dependent intra-inter prediction combination in video coding
EP3861742A4 (en) 2018-11-20 2022-04-13 Beijing Bytedance Network Technology Co., Ltd. DIFFERENCE CALCULATION BASED ON SPATIAL POSITION
WO2020113065A1 (en) * 2018-11-27 2020-06-04 Op Solutions, Llc Adaptive block update of unavailable reference frames using explicit and implicit signaling
US11876957B2 (en) 2018-12-18 2024-01-16 Lg Electronics Inc. Method and apparatus for processing video data
US10855992B2 (en) 2018-12-20 2020-12-01 Alibaba Group Holding Limited On block level bi-prediction with weighted averaging
CN113170166B (zh) 2018-12-30 2023-06-09 北京字节跳动网络技术有限公司 具有几何分割的帧间预测在视频处理中有条件的应用
MX2021008963A (es) 2019-02-02 2021-08-24 Beijing Bytedance Network Tech Co Ltd Manejo de bufer para copia intra-bloque en codificacion de video.
CN113366846A (zh) 2019-02-02 2021-09-07 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的缓冲区更新
US11290726B2 (en) 2019-02-07 2022-03-29 Qualcomm Incorporated Inter-intra prediction mode for video data
EP3915265A4 (en) 2019-03-01 2022-06-22 Beijing Bytedance Network Technology Co., Ltd. DIRECTION-BASED PREDICTION FOR INTRA BLOCK COPY IN VIDEO CODING
EP3915252A4 (en) 2019-03-04 2022-03-23 Beijing Bytedance Network Technology Co., Ltd. IMPLEMENTATION OF ASPECTS IN AN INTRA BLOCK COPY IN VIDEO ENCODING
WO2020177756A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Size dependent inter coding
US11202070B2 (en) * 2019-05-30 2021-12-14 Hulu, LLC Parallel bi-directional intra-coding of sub-partitions
US11197009B2 (en) 2019-05-30 2021-12-07 Hulu, LLC Processing sub-partitions in parallel using reference pixels
JP7249441B2 (ja) * 2019-06-14 2023-03-30 エルジー エレクトロニクス インコーポレイティド 予測サンプルを生成するための加重値インデックス情報を導出する映像デコーディング方法、及びその装置
JP2022539468A (ja) 2019-07-06 2022-09-09 北京字節跳動網絡技術有限公司 映像符号化におけるイントラブロックコピーのための仮想予測バッファ
CN114175633B (zh) 2019-07-10 2023-12-29 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的样点标识
KR20220030957A (ko) 2019-07-11 2022-03-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 코딩에서 인트라 블록 카피를 위한 비트스트림 적합 제약
WO2023122968A1 (zh) * 2021-12-28 2023-07-06 Oppo广东移动通信有限公司 帧内预测方法、设备、系统、及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006513634A (ja) * 2003-01-10 2006-04-20 トムソン ライセンシング 符号化ストリーム中で伝送されたイントラ予測モードに基づく空間的誤り隠蔽
WO2008084817A1 (ja) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba 画像符号化と復号化の方法及び装置
WO2009005071A1 (ja) * 2007-07-02 2009-01-08 Nippon Telegraph And Telephone Corporation 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
JP2009512347A (ja) * 2005-10-12 2009-03-19 トムソン ライセンシング スケーラブルビデオ符号化及び復号における重み付け予測方法及び装置
US20090257492A1 (en) * 2006-07-07 2009-10-15 Kenneth Andersson Video data management

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148858A (ja) * 1999-11-18 2001-05-29 Sony Corp 画像情報変換装置及び画像情報変換方法
US8406301B2 (en) 2002-07-15 2013-03-26 Thomson Licensing Adaptive weighting of reference pictures in video encoding
CN101141651B (zh) 2002-11-25 2010-11-10 松下电器产业株式会社 动态补偿方法、图像编码方法及图像解码方法
WO2005081524A1 (en) * 2004-02-23 2005-09-01 Koninklijke Philips Electronics N.V. Reducing artefacts in scan-rate conversion of image signals by combining interpolation and extrapolation of images
KR100888962B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR20060063608A (ko) * 2004-12-06 2006-06-12 엘지전자 주식회사 영상신호의 엔코딩/디코딩시에 영상블록에 대한 레지듀얼예측을 수행하는 방법 및 장치
KR100703748B1 (ko) 2005-01-25 2007-04-05 삼성전자주식회사 다 계층 기반의 비디오 프레임을 효율적으로 예측하는 방법및 그 방법을 이용한 비디오 코딩 방법 및 장치
KR100763179B1 (ko) * 2005-04-01 2007-10-04 삼성전자주식회사 비동기 픽쳐의 모션 벡터를 압축/복원하는 방법 및 그방법을 이용한 장치
KR100746007B1 (ko) * 2005-04-19 2007-08-06 삼성전자주식회사 엔트로피 코딩의 컨텍스트 모델을 적응적으로 선택하는방법 및 비디오 디코더
KR100763181B1 (ko) 2005-04-19 2007-10-05 삼성전자주식회사 기초계층과 향상계층의 데이터를 바탕으로 예측 정보를코딩하여 코딩율을 향상시키는 방법 및 장치
US8619860B2 (en) 2005-05-03 2013-12-31 Qualcomm Incorporated System and method for scalable encoding and decoding of multimedia data using multiple layers
US8457203B2 (en) 2005-05-26 2013-06-04 Ntt Docomo, Inc. Method and apparatus for coding motion and prediction weighting parameters
WO2006129184A1 (en) * 2005-06-03 2006-12-07 Nokia Corporation Residual prediction mode in scalable video coding
US8867618B2 (en) * 2005-07-22 2014-10-21 Thomson Licensing Method and apparatus for weighted prediction for scalable video coding
KR100891662B1 (ko) * 2005-10-05 2009-04-02 엘지전자 주식회사 비디오 신호 디코딩 및 인코딩 방법
KR100772868B1 (ko) * 2005-11-29 2007-11-02 삼성전자주식회사 복수 계층을 기반으로 하는 스케일러블 비디오 코딩 방법및 장치
KR100736096B1 (ko) * 2005-12-12 2007-07-06 삼성전자주식회사 비디오 신호를 그룹별로 인코딩 및 디코딩하는 방법 및장치
US20070160137A1 (en) * 2006-01-09 2007-07-12 Nokia Corporation Error resilient mode decision in scalable video coding
KR100791295B1 (ko) * 2006-01-12 2008-01-04 삼성전자주식회사 플래그 부호화 방법, 플래그 복호화 방법, 및 상기 방법을이용한 장치
KR100781524B1 (ko) 2006-04-04 2007-12-03 삼성전자주식회사 확장 매크로블록 스킵 모드를 이용한 인코딩/디코딩 방법및 장치
CN101491107B (zh) 2006-07-07 2012-07-18 艾利森电话股份有限公司 一种对图像元素组进行解码的方法及其相关的编码器、解码器
US20080089411A1 (en) * 2006-10-16 2008-04-17 Nokia Corporation Multiple-hypothesis cross-layer prediction
KR101349836B1 (ko) * 2006-11-17 2014-01-10 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
US7983496B2 (en) * 2007-06-26 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Inverse tone mapping for bit-depth scalable image coding adapted to variable block sizes
CN101877785A (zh) 2009-04-29 2010-11-03 祝志怡 一种基于混合预测的视频编码方法
KR20120118782A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 적응적 필터링을 이용한 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US20130051467A1 (en) * 2011-08-31 2013-02-28 Apple Inc. Hybrid inter/intra prediction in video coding systems
US9467692B2 (en) 2012-08-31 2016-10-11 Qualcomm Incorporated Intra prediction improvements for scalable video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006513634A (ja) * 2003-01-10 2006-04-20 トムソン ライセンシング 符号化ストリーム中で伝送されたイントラ予測モードに基づく空間的誤り隠蔽
JP2009512347A (ja) * 2005-10-12 2009-03-19 トムソン ライセンシング スケーラブルビデオ符号化及び復号における重み付け予測方法及び装置
US20090257492A1 (en) * 2006-07-07 2009-10-15 Kenneth Andersson Video data management
WO2008084817A1 (ja) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba 画像符号化と復号化の方法及び装置
WO2009005071A1 (ja) * 2007-07-02 2009-01-08 Nippon Telegraph And Telephone Corporation 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PENG YIN ET AL.: "Weighted Prediction in SVC", JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 AND ITU-T SG16 Q.6) 16TH, vol. JVT-P064, JPN6017021118, 29 July 2005 (2005-07-29), ISSN: 0003575328 *
SEUNG HWAN KIM, ET AL.: "Adaptive Multiple Reference Frame Based Scalable Video Coding Algorithm", 2002 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING, JPN6017021116, 22 September 2002 (2002-09-22), US, pages 33 - 36, XP010607901, ISSN: 0003575327 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018186532A (ja) * 2012-10-01 2018-11-22 ジーイー ビデオ コンプレッション エルエルシー エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化
US10477210B2 (en) 2012-10-01 2019-11-12 Ge Video Compression, Llc Scalable video coding using inter-layer prediction contribution to enhancement layer prediction
US10681348B2 (en) 2012-10-01 2020-06-09 Ge Video Compression, Llc Scalable video coding using inter-layer prediction of spatial intra prediction parameters
US10687059B2 (en) 2012-10-01 2020-06-16 Ge Video Compression, Llc Scalable video coding using subblock-based coding of transform coefficient blocks in the enhancement layer
US10694183B2 (en) 2012-10-01 2020-06-23 Ge Video Compression, Llc Scalable video coding using derivation of subblock subdivision for prediction from base layer
US11134255B2 (en) 2012-10-01 2021-09-28 Ge Video Compression, Llc Scalable video coding using inter-layer prediction contribution to enhancement layer prediction
JP7030025B2 (ja) 2012-10-01 2022-03-04 ジーイー ビデオ コンプレッション エルエルシー エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化
US11477467B2 (en) 2012-10-01 2022-10-18 Ge Video Compression, Llc Scalable video coding using derivation of subblock subdivision for prediction from base layer
US11575921B2 (en) 2012-10-01 2023-02-07 Ge Video Compression, Llc Scalable video coding using inter-layer prediction of spatial intra prediction parameters
US11589062B2 (en) 2012-10-01 2023-02-21 Ge Video Compression, Llc Scalable video coding using subblock-based coding of transform coefficient blocks in the enhancement layer

Also Published As

Publication number Publication date
CN104737537B (zh) 2018-09-21
EP2893704B1 (en) 2019-12-11
WO2014039802A2 (en) 2014-03-13
EP3687169A1 (en) 2020-07-29
WO2014039802A3 (en) 2014-06-05
ES2892479T3 (es) 2022-02-04
US9906786B2 (en) 2018-02-27
KR20150052259A (ko) 2015-05-13
EP2893704A2 (en) 2015-07-15
EP3687169B1 (en) 2021-09-01
CN104737537A (zh) 2015-06-24
US20140072041A1 (en) 2014-03-13

Similar Documents

Publication Publication Date Title
JP2015531561A (ja) スケーラブルビデオコーディングのための重み付け予測モード
JP6903644B2 (ja) ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測
JP2015531561A5 (ja)
JP6552923B2 (ja) ビデオコード化における動きベクトル予測
JP6672145B2 (ja) インター色成分残差予測
JP6250678B2 (ja) スケーラブル映像コーディングに関するイントラ予測改良
JP5869122B2 (ja) ビデオコーディングにおける予測データのバッファリング
JP6193370B2 (ja) 適応差分領域空間および時間参照再構成およびスムージング
JP6293756B2 (ja) スケーラブルビデオ符号化における変換基準の調整
US9584805B2 (en) Prediction mode information downsampling in enhanced layer coding
JP6239612B2 (ja) スケーラブル映像コーディング及び3d映像コーディングに関する一般化された残差予測
JP6352314B2 (ja) 異なるアスペクト比を伴う空間スケーラビリティのためのレイヤ間の参照ピクチャの構築
JP2016184936A (ja) 適応型重複ブロック動き補償
JP2017520991A (ja) ブロック適応性のある色空間コンバージョンコーディング
US20140064359A1 (en) Intra prediction most probable mode order improvement for scalable video coding
JP2016535490A (ja) 適応インター色成分残差予測
JP2015529065A (ja) スケーラブルビデオコーディングおよび3dビデオコーディングのための多重仮説動き補償
JP2015534775A (ja) ビデオコーディングにおける関心領域および漸次復号リフレッシュのシグナリング
JP6352391B2 (ja) Shvcのための複数のベースレイヤ参照ピクチャ
JP2016501483A (ja) ビデオコーディングにおけるhevc拡張用の多重レイヤの低複雑度サポート
US9641836B2 (en) Weighted difference prediction under the framework of generalized residual prediction
JP2016538749A (ja) ビデオコーディングのための高精度明示的重み付け予測
JP2015514362A (ja) ビデオ・コーディングのためのインタ・レイヤ・テクスチャ予測
US20140010310A1 (en) Motion vector difference coding extension for enhancement layer
JP2016509436A (ja) レイヤ間シンタックス予測制御

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20180305

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180529