JP2017525224A - マルチレイヤコーデックにおける表現フォーマット更新 - Google Patents

マルチレイヤコーデックにおける表現フォーマット更新 Download PDF

Info

Publication number
JP2017525224A
JP2017525224A JP2016573822A JP2016573822A JP2017525224A JP 2017525224 A JP2017525224 A JP 2017525224A JP 2016573822 A JP2016573822 A JP 2016573822A JP 2016573822 A JP2016573822 A JP 2016573822A JP 2017525224 A JP2017525224 A JP 2017525224A
Authority
JP
Japan
Prior art keywords
value
flag
layer
syntax structure
representation format
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016573822A
Other languages
English (en)
Other versions
JP2017525224A5 (ja
Inventor
ヘンドリー、フヌ
ラマスブラモニアン、アダルシュ・クリシュナン
ワン、イェ−クイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2017525224A publication Critical patent/JP2017525224A/ja
Publication of JP2017525224A5 publication Critical patent/JP2017525224A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

いくつかの態様による、ビデオ情報を符号化するための装置は、メモリと、1つまたは複数の表現フォーマットシンタックス構造を含むビデオパラメータセット(VPS)を受信することと、VPSが、複数のレイヤのうちの第1のレイヤに関連付けられた第1の表現フォーマットシンタックス構造を示す、(1)VPS中の第2の表現フォーマットシンタックス構造への参照、または(2)VPS中に含まれない第3の表現フォーマットシンタックス構造を含むシーケンスパラメータセット(SPS)を受信することと、各表現フォーマットシンタックス構造が、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含む、第1の表現フォーマットシンタックス構造中の第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新することとを行うように構成されたプロセッサとを含む。

Description

[0001]本開示は、シングルレイヤビデオコーディングとマルチレイヤビデオコーディングの両方を含む、ビデオコーディングおよび圧縮の分野に関する。マルチレイヤビデオコーディングとしては、スケーラブルビデオコーディング、マルチビュービデオコーディング、3次元(3D)ビデオコーディングなどがあり得る。
[0002]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラーまたは衛星無線電話、ビデオ遠隔会議デバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part 10,アドバンストビデオコーディング(AVC:Advanced Video Coding)、高効率ビデオコーディング(HEVC:High Efficiency Video Coding)規格によって定義された規格、およびそのような規格の拡張に記載されているビデオ圧縮技法などのビデオ圧縮技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
[0003]ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために空間(ピクチャ内)予測および/または時間(ピクチャ間)予測を実施する。ブロックベースのビデオコーディングの場合、ビデオスライス(たとえば、ビデオフレーム、ビデオフレームの一部分など)が、ツリーブロック、コーディングユニット(CU:coding unit)および/またはコーディングノードと呼ばれることもあるビデオブロックに区分され得る。ピクチャのイントラコード化(I)スライス中のビデオブロックは、同じピクチャの中の隣接ブロック内の参照サンプルに対する空間予測を使用して符号化される。ピクチャのインターコード化(PまたはB)スライス中のビデオブロックは、同じピクチャの中の隣接ブロック中の参照サンプルに対する空間予測、または他の参照ピクチャ中の参照サンプルに対する時間予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0004]空間予測または時間予測は、コーディングされるべきブロックのための予測ブロックを生じる。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、およびコーディングされたブロックと予測ブロックとの間の差分を示す残差データに従って符号化される。イントラコード化ブロックは、イントラコーディングモードおよび残差データに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換され、残差変換係数が生じ得、その残差変換係数は、次いで量子化され得る。最初に2次元アレイで構成される量子化変換係数は、変換係数の1次元ベクトルを生成するために走査され得、なお一層の圧縮を達成するために、エントロピー符号化が適用され得る。
[0005]本開示のシステム、方法およびデバイスは、それぞれいくつかの発明的態様を有し、それらのうちの単一の態様が、本明細書で開示する望ましい属性を単独で担当するとは限らない。1つまたは複数の例の詳細を添付の図面および以下の説明に記載する。添付の図面および以下の説明は、本明細書で説明する発明的概念の全範囲を限定するものではない。他の特徴、目的、および利点は、説明および図面、ならびに特許請求の範囲から明らかになろう。
[0006]スケーラブルビデオコーディング(SVC:scalable video coding)は、参照レイヤ(RL:reference layer)と呼ばれることがあるベースレイヤ(BL:base layer)と、1つまたは複数のスケーラブルエンハンスメントレイヤ(EL:enhancement layer)とが使用されるビデオコーディングを指す。SVCでは、ベースレイヤは、ベースレベルの品質でビデオデータを搬送することができる。1つまたは複数のエンハンスメントレイヤは、たとえば、より高い空間レベル、時間レベル、および/または信号対雑音比(SNR:signal-to-noise ratio)レベルをサポートするために追加のビデオデータを搬送することができる。エンハンスメントレイヤは、前に符号化されたレイヤに対して定義され得る。たとえば、最下位レイヤはBLとして働き得、最上位レイヤはELとして働き得る。中間レイヤは、ELまたはRLのいずれか、あるいはその両方として働き得る。たとえば、中間レイヤ(たとえば、最下位レイヤでも最上位レイヤでもないレイヤ)が、ベースレイヤまたは介在エンハンスメントレイヤ(intervening enhancement layer)など、中間レイヤの下のレイヤのためのELであり、同時に、中間レイヤの上の1つまたは複数のエンハンスメントレイヤのためのRLとして働き得る。同様に、HEVC規格のマルチビューまたは3D拡張では、複数のビューがあり得、あるビューの情報が、別のビューの情報(たとえば動き推定、動きベクトル予測および/または他の冗長性)をコーディング(たとえば、符号化または復号)するために利用され得る。
[0007]いくつかの態様による、ビデオ情報をコーディングするための装置は、メモリとプロセッサとを含む。メモリは、複数のレイヤに関連付けられたビデオ情報を記憶するように構成される。プロセッサは、コーディングされるべき現在アクセスユニット(AU)に関連付けられた情報を取得するように構成され、現在AUは複数のレイヤからのピクチャを含んでおり、複数のレイヤは、コーディングされるべき現在レイヤを含み、現在レイヤは、コーディングされるべき現在ピクチャを含む。プロセッサは、復号順序において現在レイヤ中の現在ピクチャに先行する先行ピクチャが、復号順序において現在レイヤ中の現在ピクチャに後続する後続ピクチャの時間動きベクトル予測(TMVP:temporal motion vector prediction)のために使用されるかどうかを示す第1のフラグの値を決定するようにさらに構成され、第1のフラグは現在ピクチャに関連付けられる。プロセッサは、第1のフラグの値が、現在レイヤ中の先行ピクチャが現在レイヤ中の後続ピクチャのTMVPのために使用されるべきでないことを示すと決定したことに応答して、現在ピクチャのTMVPのための参照ピクチャとして現在レイヤ中の先行ピクチャを使用することを控えるようにさらに構成される。
[0008]いくつかの態様による、ビデオ情報をコーディングするための装置は、メモリとプロセッサとを含む。一実施形態では、本装置は、ビデオ情報を符号化するためのものである。メモリは、複数のレイヤに関連付けられたビデオ情報を記憶するように構成される。プロセッサは、1つまたは複数の表現フォーマットシンタックス構造を含むビデオパラメータセット(VPS:video parameter set)を受信するように構成され、VPSは、複数のレイヤのうちの第1のレイヤに関連付けられた1つまたは複数の表現フォーマットシンタックス構造のうちの第1の表現フォーマットシンタックス構造を示す。プロセッサは、(1)VPS中の1つまたは複数の表現フォーマットシンタックス構造のうちの第2の表現フォーマットシンタックス構造への参照、または(2)VPS中の1つまたは複数の表現フォーマットシンタックス構造中に含まれない第3の表現フォーマットシンタックス構造を含むシーケンスパラメータセット(SPS:sequence parameter set)を受信するようにさらに構成され、各表現フォーマットシンタックス構造は、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含む。プロセッサは、第1の表現フォーマットシンタックス構造中の第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新するようにさらに構成され、第1の変数は第1のレイヤに関連付けられる。
[0009]本開示で説明する態様による技法を利用し得る例示的なビデオ符号化および復号システムを示すブロック図。 [0010]本開示で説明する態様による技法を実施し得る別の例示的なビデオ符号化および復号システムを示すブロック図。 [0011]本開示で説明する態様による技法を実装し得るビデオエンコーダの一例を示すブロック図。 [0012]本開示で説明する態様による技法を実装し得るビデオエンコーダの一例を示すブロック図。 [0013]本開示で説明する態様による技法を実装し得るビデオデコーダの一例を示すブロック図。 [0014]本開示で説明する態様による技法を実装し得るビデオデコーダの一例を示すブロック図。 [0015]異なるレイヤ中のピクチャの例示的な構成を示すブロック図。 [0016]異なるレイヤ中のピクチャの例示的な構成を示すブロック図。 [0017]本開示の1つまたは複数の態様による、ビデオ情報をコーディングする方法を示すフローチャート。 [0018]本開示の1つまたは複数の態様による、ビデオ情報をコーディングする方法を示すフローチャート。
[0019]概して、本開示は、シングルレイヤコーディング、ならびにHEVC(高効率ビデオコーディング)など、アドバンストビデオコーデックのコンテキストにおけるスケーラブルビデオコーディングのためのレイヤ間予測に関する。より詳細には、本開示は、マルチレイヤコーデックにおける時間動きベクトル予測(TMVP)指示および表現フォーマット更新のためのシステムおよび方法に関する。
[0020]以下の説明では、いくつかの実施形態に関係するH.264/アドバンストビデオコーディング(AVC)技法について説明し、HEVC規格および関係する技法についても説明する。いくつかの実施形態について、HEVCおよび/またはH.264規格のコンテキストにおいて本明細書で説明するが、本明細書で開示するシステムおよび方法が任意の好適なビデオコーディング規格に適用可能であり得ることを、当業者は諒解されよう。たとえば、本明細書で開示する実施形態は、以下の規格、すなわち、国際電気通信連合(ITU)電気通信規格化セクタ(ITU−T)H.261、国際標準化機構(ISO)および国際電気標準会議(IEC)(ISO/IEC)ムービングピクチャエキスパートグループ(MPEG)1(MPEG−1) Visual、ITU−T H.262またはISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 Visual、およびそれのスケーラブルビデオコーディング(SVC)拡張とマルチビュービデオコーディング(MVC)拡張とを含む、(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264のうちの1つまたは複数に適用可能であり得る。
[0021]HEVCは、概して、多くの点で、前のビデオコーディング規格のフレームワークに従う。HEVCにおける予測のユニットは、いくつかの前のビデオコーディング規格における予測のユニット(たとえば、マクロブロック)とは異なる。事実上、いくつかの前のビデオコーディング規格において理解されているようなマクロブロックの概念は、HEVCでは存在しない。マクロブロックは、考えられる利益の中でも、高いフレキシビリティを与え得る、4分木方式に基づく階層構造と置き換えられる。たとえば、HEVC方式内で、コーディングユニット(CU)、予測ユニット(PU:Prediction Unit)、および変換ユニット(TU:Transform Unit)という3つのタイプのブロックが定義される。CUは領域分割の基本ユニットを指すことがある。CUはマクロブロックの概念に類似すると見なされ得るが、HEVCは、CUの最大サイズを制限せず、コンテンツ適応性を改善するために4つの等しいサイズのCUへの再帰的分割を可能にし得る。PUはインター/イントラ予測の基本ユニットと見なされ得、単一のPUは、不規則な画像パターンを効果的にコーディングするために、複数の任意の形状区分を含んでいることがある。TUは変換の基本ユニットと見なされ得る。TUは、PUとは無関係に定義され得るが、TUのサイズは、TUが属するCUのサイズに制限され得る。3つの異なる概念へのブロック構造のこの分離は、各ユニットがユニットのそれぞれの役割に従って最適化されることを可能にし得、それによりコーディング効率が改善され得る。
[0022]単に説明の目的で、本明細書で開示するいくつかの実施形態について、ビデオデータのただ2つのレイヤ(たとえば、ベースレイヤなどの下位レイヤ、およびエンハンスメントレイヤなどの上位レイヤ)を含む例を用いて説明する。ビデオデータの「レイヤ」は、概して、ビュー、フレームレート、解像度などの少なくとも1つの共通の特性を有するピクチャのシーケンスを指すことがある。たとえば、レイヤは、マルチビュービデオデータの特定のビュー(たとえば、パースペクティブ)に関連付けられたビデオデータを含み得る。別の例として、レイヤは、スケーラブルビデオデータの特定のレイヤに関連付けられたビデオデータを含み得る。したがって、本開示は、ビデオデータのレイヤおよびビューを互換的に指すことがある。すなわち、ビデオデータのビューはビデオデータのレイヤと呼ばれることがあり、ビデオデータのレイヤはビデオデータのビューと呼ばれることがある。さらに、(マルチレイヤビデオコーダまたはマルチレイヤエンコーダデコーダとも呼ばれる)マルチレイヤコーデックは、マルチビューコーデックまたはスケーラブルコーデック(たとえば、MV−HEVC、3D−HEVC、SHVC、または別のマルチレイヤコーディング技法を使用するビデオデータを符号化および/または復号するように構成されたコーデック)を共同で指すことがある。ビデオ符号化およびビデオ復号は両方とも、一般にビデオコーディングと呼ばれることがある。そのような例は、複数のベースレイヤおよび/またはエンハンスメントレイヤを含む構成に適用可能であり得ることを理解されたい。さらに、説明を簡単にするために、以下の開示は、いくつかの実施形態に関して「フレーム」または「ブロック」という用語を含む。ただし、これらの用語は限定的なものではない。たとえば、以下で説明する技法は、ブロック(たとえば、CU、PU、TU、マクロブロックなど)、スライス、フレームなど、任意の好適なビデオユニットとともに使用され得る。
ビデオコーディング規格
[0023]ビデオ画像、TV画像、静止画像、あるいはビデオレコーダまたはコンピュータによって生成された画像など、デジタル画像は、水平ラインおよび垂直ラインで構成されたピクセルまたはサンプルからなり得る。単一の画像中のピクセルの数は一般に数万個である。各ピクセルは、一般に、ルミナンス情報とクロミナンス情報とを含んでいる。圧縮がなければ、画像エンコーダから画像デコーダに搬送されるべき情報の甚だしい量は、リアルタイム画像送信を不可能にするであろう。送信されるべき情報の量を低減するために、JPEG、MPEGおよびH.263規格など、いくつかの異なる圧縮方法が開発された。
[0024]ビデオコーディング規格は、ITU−T H.261と、ISO/IEC MPEG−1 Visualと、ITU−T H.262またはISO/IEC MPEG−2 Visualと、ITU−T H.263と、ISO/IEC MPEG−4 Visualと、それのSVCおよびMVC拡張を含む(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264とを含む。
[0025]さらに、新しいビデオコーディング規格、すなわち、高効率ビデオコーディング(HEVC)が、ITU−Tビデオコーディングエキスパートグループ(VCEG)とISO/IECムービングピクチャエキスパートグループ(MPEG)とのジョイントコラボレーションチームオンビデオコーディング(JCT−VC:Joint Collaboration Team on Video Coding)によって開発されている。HEVCドラフト10についての完全引用は、文書JCTVC−L1003、Brossら、「High Efficiency Video Coding (HEVC) Text Specification Draft 10」、ITU−T SG16 WP3およびISO/IEC JTC1/SC29/WG11のジョイントコラボレーティブチームオンビデオコーディング(JCT−VC:Joint Collaborative Team on Video Coding)、第12回会合:ジュネーブ、スイス、2013年1月14日〜2013年1月23日である。HEVCのマルチビュー拡張、すなわち、MV−HEVC、およびSHVCと称されるHEVCのスケーラブル拡張も、それぞれJCT−3V(ITU−T/ISO/IECジョイントコラボレーティブチームオン3Dビデオコーディング拡張開発)およびJCT−VCによって開発されている。
概観
[0026]SHVCおよびMV−HEVCの早期バージョン(たとえば、SHVCワーキングドラフト6、MV−HEVCワーキングドラフト8など)は、現在ピクチャのslice_temporal_mvp_enabled_flagと時間IDの両方の値が0に等しいとき、およびピクチャがベースレイヤ(たとえば、レイヤID=0を有するレイヤ)に属するとき、復号順序において現在ピクチャに先行するピクチャからの時間動きベクトルが、復号順序において現在ピクチャに後続するいかなるピクチャのTMVPにおいても使用されるべきでないという制限を実装する。slice_temporal_mvp_enabled_flagは、スライス中の現在ピクチャが、たとえば、参照ピクチャ(たとえば、コロケートピクチャ)として現在ピクチャの先行ピクチャに基づいて、TMVPを使用することができるかどうかを示すことができる。ピクチャがベースレイヤに属するという制限および条件は、たとえば、エンハンスメントレイヤがTMVPを使用することを可能にするために導入された。しかしながら、エンハンスメントレイヤは、制限をベースレイヤに限定することなしにTMVPを使用し得る。
[0027]SHVCおよびMV−HEVCの早期バージョンはまた、現在ピクチャに先行する現在レイヤのピクチャが、同じレイヤのいかなる後続ピクチャのためのTMVPにおいてもコロケートピクチャとして使用されるべきでないかどうかの指示を与える、TMVP制約SEIメッセージと呼ばれる新しいSEIメッセージを追加する。たとえば、TMVP制約SEIメッセージは、復号順序における現在レイヤ中の現在ピクチャの先行ピクチャが、復号順序における現在レイヤ中の現在ピクチャの後続ピクチャのTMVPのために使用され得るかどうかを示すprev_pics_not_used_flagと呼ばれるフラグを含むことができる。しかしながら、SHVCおよびMV−HEVCの早期バージョンにおけるprev_pics_not_used_flagのセマンティクスは、slice_temporal_mvp_enabled_flagとの競合につながることがある。たとえば、現在ピクチャを含んでいるスライスのスライスヘッダ中のslice_temporal_mvp_enabled_flagは、1に等しく、現在ピクチャが、コロケートピクチャとして現在ピクチャの先行ピクチャを参照してTMVPを使用することができることを示すが、現在ピクチャのためのTMVP制約SEIメッセージ中のprev_pics_not_used_flagは、1に等しく、復号における現在ピクチャの後続ピクチャが、TMVPのために復号順序における現在ピクチャの先行ピクチャを使用すべきでないことを示す。そのような場合、後続ピクチャは、TMVPのためにコロケートピクチャとして現在ピクチャを使用することができるので、先行ピクチャを使用する現在ピクチャのTMVPに導入されたエラーが後続ピクチャに伝搬され得る。後続ピクチャは、TMVPのために現在ピクチャのいかなる先行ピクチャも使用していないが、後続ピクチャは、TMVPのために現在ピクチャ自体を使用し得る。
[0028]これらおよび他の課題に対処するために、いくつかの態様による技法は、現在ピクチャのいかなる先行ピクチャからの時間動きベクトルも、復号順序における現在ピクチャのいかなる後続ピクチャのTMVPにおいても使用されるべきでないという制限をすべてのレイヤに適用することができる。たとえば、制限は、ピクチャがベースレイヤに属するのか他のレイヤに属するのかにかかわらず、slice_temporal_mvp_enabled_flag=0および時間ID=0であるとき、ピクチャに適用され得る。一例では、エンハンスメントレイヤが、制限をベースレイヤに限定することなしにTMVPを使用することを可能にするために、slice_temporal_mvp_enabled_flagとともにTMVP制約SEIメッセージが使用され得る。
[0029]その上、本技法は、たとえば、現在ピクチャのためのslice_temporal_mvp_enabled_flagと現在ピクチャのためのprev_pics_not_used_flagとの間の競合を解決するために、prev_pics_not_used_flagのセマンティクスを変更することができる。たとえば、prev_pics_not_used_flagは、slice_temporal_mvp_enabled_flagよりも高い優先順位を取ることができる。一例では、prev_pics_not_used_flagは、現在ピクチャの先行ピクチャが現在ピクチャならびに復号順序における現在ピクチャの後続ピクチャのTMVPのために使用されるべきでないことを示すように変更される。
[0030]slice_temporal_mvp_enabled_flagによって課される制限およびprev_pics_not_used_flagによって課される制限は、エラー耐性目的で実装され得る。しかしながら、slice_temporal_mvp_enabled_flagとprev_pics_not_used_flagの両方が1に等しいとき、現在ピクチャのTMVPにおけるエラーは、依然として、復号順序における現在ピクチャの後続ピクチャのTMVPに導入され得る。現在ピクチャと後続ピクチャの両方がTMVPにおいて現在ピクチャの先行ピクチャを使用することを可能にしないことによって、エラー耐性は著しく改善および増加され得る。
[0031]さらに、SHVCおよびMV−HEVCの早期バージョンでは、VPS中のシンタックス要素またはフラグの値が、SPS中の対応するシンタックス要素またはフラグの値を制約するために使用される。VPSおよびSPSは、両方とも表現フォーマット情報を含むことができる。表現フォーマット情報は、ピクチャ幅および高さ(たとえば、ピクチャサイズ)、クロマ成分のビット深度、ルーマ成分のビット深度、色平面情報、コンフォーマンスウィンドウサイズを含むことができる。VPSはすべてのレイヤに適用され得、概して、1つのVPSがビットストリームのために定義され得る。SPSは特定のレイヤに固有であり得、ビットストリームが複数のシーケンスを含む場合、複数のSPSが存在することができる。概して、VPS中の値はワーストケースシナリオ値または最大値を表し、SPSは、VPS中の値よりも小さいかまたはそれに等しい異なる値を適宜に指定することができる。したがって、VPS中のシンタックス要素またはフラグの値は、SPSのための表現フォーマット情報が更新されたとき、SPS中の対応するシンタックス要素またはフラグの値を制約することができる。しかしながら、いくつかのシンタックス要素またはフラグでは、ワーストケースシナリオ値または最大値が適用可能であるかどうかは不明瞭である。一例は、0または1のいずれかの値を有するフラグであり得る。
[0032]これらおよび他の課題に対処するために、いくつかの態様による技法は、表現フォーマット中のseparate_colour_plane_flagのための制約を削除することができる。separate_colour_plane_flagは、クロマフォーマットの3つの色成分(たとえば、Y、Cb、またはCr)が別々にコーディングされるか否かを示すことができる。separate_colour_plane_flagの値がSPS中で更新されるべきであるとき、本技法は、separate_colour_plane_flagの所望の値がVPS中のseparate_colour_plane_flagの値よりも小さいかまたはそれに等しいかどうかを検査する必要がない。このようにして、separate_colour_plane_flagの値は、よりフレキシブルな様式でSPS中で更新され得、表現フォーマット中のseparate_colour_plane_flagの更新がより効率的になり得る。
ビデオコーディングシステム
[0033]添付の図面を参照しながら、新規のシステム、装置、および方法の様々な態様について以下でより十分に説明する。ただし、本開示は、多くの異なる形態で実施され得、本開示全体にわたって提示する任意の特定の構造または機能に限定されるものと解釈されるべきではない。むしろ、これらの態様は、本開示が周到で完全になり、本開示の範囲を当業者に十分に伝えるように与えられる。本明細書の教示に基づいて、本開示の範囲は、本開示の他の態様とは無関係に実装されるにせよ、本開示の他の態様と組み合わせられるにせよ、本明細書で開示する新規のシステム、装置、および方法のいかなる態様をもカバーするものであることを、当業者は諒解されたい。たとえば、本明細書に記載する態様をいくつ使用しても、装置は実装され得、または方法は実施され得る。さらに、本開示の範囲は、本明細書に記載する本開示の様々な態様に加えてまたはそれらの態様以外に、他の構造、機能、または構造および機能を使用して実施されるそのような装置または方法をカバーするものとする。本明細書で開示するどの態様も請求項の1つまたは複数の要素によって実施され得ることを理解されたい。
[0034]本明細書では特定の態様について説明するが、これらの態様の多くの変形および置換は本開示の範囲内に入る。好適な態様のいくつかの利益および利点について説明するが、本開示の範囲は特定の利益、使用、または目的に限定されるものではない。むしろ、本開示の態様は、様々なワイヤレス技術、システム構成、ネットワーク、および伝送プロトコルに広く適用可能であるものとし、それらのいくつかを例として、図において、および好適な態様についての以下の説明において示す。発明を実施するための形態および図面は、本開示を限定するものではなく説明するものにすぎず、本開示の範囲は添付の特許請求の範囲およびそれの均等物によって定義される。
[0035]添付の図面は例を示している。添付の図面中の参照番号によって示される要素は、以下の説明における同様の参照番号によって示される要素に対応する。本開示では、序数語(たとえば、「第1の」、「第2の」、「第3の」など)で始まる名前を有する要素は、必ずしもそれらの要素が特定の順序を有することを暗示するとは限らない。むしろ、そのような序数語は、同じまたは同様のタイプの異なる要素を指すために使用されるにすぎない。
[0036]図1Aは、本開示で説明する態様による技法を利用し得る例示的なビデオコーディングシステム10を示すブロック図である。本明細書で使用し説明する「ビデオコーダ」という用語は、総称的にビデオエンコーダとビデオデコーダの両方を指す。本開示では、「ビデオコーディング」または「コーディング」という用語は、ビデオ符号化とビデオ復号とを総称的に指すことがある。ビデオエンコーダおよびビデオデコーダに加えて、本出願で説明する態様は、トランスコーダ(たとえば、ビットストリームを復号し、別のビットストリームを再符号化することができるデバイス)およびミドルボックス(たとえば、ビットストリームを変更、変換、および/または他の方法で操作することができるデバイス)など、他の関係するデバイスに拡張され得る。
[0037]図1Aに示されているように、ビデオコーディングシステム10は、宛先デバイス14によって後で復号されるべき符号化ビデオデータを生成するソースデバイス12を含む。図1Aの例では、ソースデバイス12および宛先デバイス14は、別個のデバイスを構成する。ただし、ソースデバイス12および宛先デバイス14は、図1Bの例に示されているように、同じデバイス上にあるかまたはそれの一部であり得ることに留意されたい。
[0038]もう一度図1Aを参照すると、ソースデバイス12および宛先デバイス14は、それぞれ、デスクトップコンピュータ、ノートブック(たとえば、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーミングコンソール、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備え得る。場合によっては、ソースデバイス12および宛先デバイス14は、ワイヤレス通信のために装備され得る。
[0039]宛先デバイス14は、復号されるべき符号化ビデオデータをリンク16を介して受信し得る。リンク16は、ソースデバイス12から宛先デバイス14に符号化ビデオデータを移動することが可能な任意のタイプの媒体またはデバイスを備え得る。図1Aの例では、リンク16は、ソースデバイス12が符号化ビデオデータをリアルタイムで宛先デバイス14に送信することを可能にするための通信媒体を備え得る。符号化ビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス12から宛先デバイス14への通信を可能にするために有用であり得る任意の他の機器を含み得る。
[0040]代替的に、符号化データは出力インターフェース22から随意のストレージデバイス31に出力され得る。同様に、符号化データは、たとえば、宛先デバイス14の入力インターフェース28によってストレージデバイス31からアクセスされ得る。ストレージデバイス31は、ハードドライブ、フラッシュメモリ、揮発性または不揮発性メモリ、あるいは符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体など、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。さらなる一例では、ストレージデバイス31は、ソースデバイス12によって生成された符号化ビデオを保持し得るファイルサーバまたは別の中間ストレージデバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介してストレージデバイス31から記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶し、その符号化ビデオデータを宛先デバイス14に送信することが可能な任意のタイプのサーバであり得る。例示的なファイルサーバとしては、(たとえば、ウェブサイトのための)ウェブサーバ、ファイル転送プロトコル(FTP)サーバ、ネットワーク接続ストレージ(NAS)デバイス、またはローカルディスクドライブがある。宛先デバイス14は、インターネット接続を含む、任意の標準のデータ接続を通して符号化ビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、ワイヤレスローカルエリアネットワーク(WLAN)接続)、ワイヤード接続(たとえば、デジタル加入者線(DSL)、ケーブルモデムなど)、またはその両方の組合せを含み得る。ストレージデバイス31からの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはその両方の組合せであり得る。
[0041]本開示の技法はワイヤレス適用例または設定に限定されない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、たとえばインターネットを介したストリーミングビデオ送信(たとえば、ハイパーテキスト転送プロトコル(HTTP)上での動的適応ストリーミングなど)、データ記憶媒体に記憶するためのデジタルビデオの符号化、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、ビデオコーディングシステム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0042]図1Aの例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。場合によっては、出力インターフェース22は変調器/復調器(モデム)および/または送信機を含み得る。ソースデバイス12において、ビデオソース18は、ビデオキャプチャデバイス、たとえばビデオカメラ、以前にキャプチャされたビデオを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェース、および/またはソースビデオとしてコンピュータグラフィックスデータを生成するためのコンピュータグラフィックスシステムなどのソース、あるいはそのようなソースの組合せを含み得る。一例として、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、図1Bの例に示されているように、いわゆる「カメラフォン」または「ビデオフォン」を形成し得る。ただし、本開示で説明する技法は、概してビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤード適用例に適用され得る。
[0043]キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成されたビデオは、ビデオエンコーダ20によって符号化され得る。符号化ビデオデータは、ソースデバイス12の出力インターフェース22を介して宛先デバイス14に送信され得る。符号化ビデオデータは、さらに(または代替として)、復号および/または再生のための宛先デバイス14または他のデバイスによる後のアクセスのためにストレージデバイス31上に記憶され得る。図1Aおよび図1Bに示されているビデオエンコーダ20は、図2A示されているビデオエンコーダ20、図2Bに示されているビデオエンコーダ23、または本明細書で説明する他のビデオエンコーダを備え得る。
[0044]図1Aの例では、宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。場合によっては、入力インターフェース28は受信機および/またはモデムを含み得る。宛先デバイス14の入力インターフェース28は、リンク16を介しておよび/またはストレージデバイス31から符号化ビデオデータを受信し得る。リンク16を介して通信された、またはストレージデバイス31上に与えられた符号化ビデオデータは、ビデオデータを復号する際に、ビデオデコーダ30などのビデオデコーダが使用するための、ビデオエンコーダ20によって生成された様々なシンタックス要素を含み得る。そのようなシンタックス要素は、通信媒体上で送信された、記憶媒体上に記憶された、またはファイルサーバ記憶された符号化ビデオデータに含まれ得る。図1Aおよび図1Bに示されているビデオデコーダ30は、図3A示されているビデオデコーダ30、図3Bに示されているビデオデコーダ33、または本明細書で説明する他のビデオデコーダを備え得る。
[0045]ディスプレイデバイス32は、宛先デバイス14と一体化されるかまたはその外部にあり得る。いくつかの例では、宛先デバイス14は、一体型ディスプレイデバイスを含み、また、外部ディスプレイデバイスとインターフェースするように構成され得る。他の例では、宛先デバイス14はディスプレイデバイスであり得る。概して、ディスプレイデバイス32は、復号ビデオデータをユーザに対して表示し、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
[0046]関係する態様では、図1Bは例示的なビデオ符号化および復号システム10’を示し、ここにおいて、ソースデバイス12および宛先デバイス14はデバイス11上にあるかまたはそれの一部である。デバイス11は、「スマート」フォンなどの電話ハンドセットであり得る。デバイス11は、ソースデバイス12および宛先デバイス14と動作可能に通信している随意のコントローラ/プロセッサデバイス13を含み得る。図1Bのシステム10’およびそれの構成要素は、場合によっては図1Aのシステム10およびそれの構成要素と同様である。
[0047]ビデオエンコーダ20およびビデオデコーダ30は、HEVCなどのビデオ圧縮規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20およびビデオデコーダ30は、代替的にMPEG−4,Part10,AVCと呼ばれるITU−T H.264規格など、他のプロプライエタリ規格または業界規格、あるいはそのような規格の拡張に従って動作し得る。ただし、本開示の技法は、いかなる特定のコーディング規格にも限定されない。ビデオ圧縮規格の他の例としてはMPEG−2およびITU−T H.263がある。
[0048]図1Aおよび図1Bの例には示されていないが、ビデオエンコーダ20およびビデオデコーダ30は、それぞれオーディオエンコーダおよびデコーダと統合され得、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理するために、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、いくつかの例では、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0049]ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダ回路のいずれか、またはそれらの任意の組合せとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、ソフトウェアのための命令を好適な非一時的コンピュータ可読媒体に記憶し、本開示の技法を実施するために1つまたは複数のプロセッサを使用してハードウェアでその命令を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。
ビデオコーディングプロセス
[0050]上記で手短に述べたように、ビデオエンコーダ20はビデオデータを符号化する。ビデオデータは1つまたは複数のピクチャを備え得る。ピクチャの各々は、ビデオの一部を形成する静止画像である。いくつかの事例では、ピクチャはビデオ「フレーム」と呼ばれることがある。ビデオエンコーダ20がビデオデータを符号化するとき、ビデオエンコーダ20はビットストリームを生成し得る。ビットストリームは、ビデオデータのコード化表現を形成するビットのシーケンスを含み得る。ビットストリームは、コード化ピクチャと関連データとを含み得る。コード化ピクチャはピクチャのコード化表現である。
[0051]ビットストリームを生成するために、ビデオエンコーダ20は、ビデオデータ中の各ピクチャに対して符号化演算を実施し得る。ビデオエンコーダ20がピクチャに対して符号化演算を実施するとき、ビデオエンコーダ20は、一連のコード化ピクチャと関連データとを生成し得る。関連データは、ビデオパラメータセット(VPS)と、シーケンスパラメータセット(SPS)と、ピクチャパラメータセット(PPS:picture parameter set)と、適応パラメータセット(APS:adaptation parameter set)と、他のシンタックス構造とを含み得る。SPSは、ピクチャの0個以上のシーケンスに適用可能なパラメータを含んでいることがある。PPSは、0個以上のピクチャに適用可能なパラメータを含んでいることがある。APSは、0個以上のピクチャに適用可能なパラメータを含んでいることがある。APS中のパラメータは、PPS中のパラメータよりも変化する可能性が高いパラメータであり得る。
[0052]コード化ピクチャを生成するために、ビデオエンコーダ20は、ピクチャを等しいサイズのビデオブロックに区分し得る。ビデオブロックはサンプルの2次元アレイであり得る。ビデオブロックの各々はツリーブロックに関連付けられる。いくつかの事例では、ツリーブロックは、最大コーディングユニット(LCU:largest coding unit)と呼ばれることがある。HEVCのツリーブロックは、H.264/AVCなど、以前の規格のマクロブロックに広い意味で類似し得る。しかしながら、ツリーブロックは、必ずしも特定のサイズに限定されるとは限らず、1つまたは複数のコーディングユニット(CU)を含み得る。ビデオエンコーダ20は、4分木区分(quadtree partitioning)を使用して、ツリーブロックのビデオブロックを、CUに関連付けられたビデオブロックに区分し得、したがって「ツリーブロック」という名前がある。
[0053]いくつかの例では、ビデオエンコーダ20はピクチャを複数のスライスに区分し得る。スライスの各々は整数個のCUを含み得る。いくつかの事例では、スライスは整数個のツリーブロックを備える。他の事例では、スライスの境界はツリーブロック内にあり得る。
[0054]ピクチャに対して符号化演算を実施することの一部として、ビデオエンコーダ20は、ピクチャの各スライスに対して符号化演算を実施し得る。ビデオエンコーダ20がスライスに対して符号化演算を実施するとき、ビデオエンコーダ20は、スライスに関連付けられた符号化データを生成し得る。スライスに関連付けられた符号化データは「コード化スライス」と呼ばれることがある。
[0055]コード化スライスを生成するために、ビデオエンコーダ20は、スライス中の各ツリーブロックに対して符号化演算を実施し得る。ビデオエンコーダ20がツリーブロックに対して符号化演算を実施するとき、ビデオエンコーダ20はコード化ツリーブロックを生成し得る。コード化ツリーブロックは、ツリーブロックの符号化バージョンを表すデータを備え得る。
[0056]ビデオエンコーダ20がコード化スライスを生成するとき、ビデオエンコーダ20は、ラスタ走査順序に従って、スライス中のツリーブロックに対して符号化演算を実施し得る(たとえば、そのツリーブロックを符号化し得る)。たとえば、ビデオエンコーダ20は、スライス中のツリーブロックの一番上の行にわたって左から右に進み、次いでツリーブロックの次の下の行にわたって左から右に進み、以下同様に進む順序で、ビデオエンコーダ20がスライス中のツリーブロックの各々を符号化するまで、スライスのツリーブロックを符号化し得る。
[0057]ラスタ走査順序に従ってツリーブロックを符号化した結果として、所与のツリーブロックの上および左のツリーブロックは符号化されていることがあるが、所与のツリーブロックの下および右のツリーブロックはまだ符号化されていない。したがって、ビデオエンコーダ20は、所与のツリーブロックを符号化するとき、所与のツリーブロックの上および左のツリーブロックを符号化することによって生成される情報にアクセスすることが可能であり得る。しかしながら、ビデオエンコーダ20は、所与のツリーブロックを符号化するとき、所与のツリーブロックの下および右のツリーブロックを符号化することによって生成される情報にアクセスすることができないことがある。
[0058]コード化ツリーブロックを生成するために、ビデオエンコーダ20は、ビデオブロックを徐々により小さいビデオブロックに分割するために、ツリーブロックのビデオブロックに対して4分木区分を再帰的に実施し得る。より小さいビデオブロックの各々は、異なるCUに関連付けられ得る。たとえば、ビデオエンコーダ20は、ツリーブロックのビデオブロックを4つの等しいサイズのサブブロックに区分し、サブブロックのうちの1つまたは複数を、4つの等しいサイズのサブサブブロックに区分し得、以下同様である。区分されたCUは、それのビデオブロックが、他のCUに関連付けられたビデオブロックに区分された、CUであり得る。区分されていないCUは、それのビデオブロックが、他のCUに関連付けられたビデオブロックに区分されていない、CUであり得る。
[0059]ビットストリーム中の1つまたは複数のシンタックス要素は、ビデオエンコーダ20がツリーブロックのビデオブロックを区分し得る最大の回数を示し得る。CUのビデオブロックは形状が正方形であり得る。CUのビデオブロックのサイズ(たとえば、CUのサイズ)は、8×8ピクセルから、最大64×64以上のピクセルをもつツリーブロックのビデオブロックのサイズ(たとえば、ツリーブロックのサイズ)までに及び得る。
[0060]ビデオエンコーダ20は、z走査順序に従って、ツリーブロックの各CUに対して符号化演算を実施し得る(たとえば、各CUを符号化し得る)。言い換えれば、ビデオエンコーダ20は、左上のCUと、右上のCUと、左下のCUと、次いで右下のCUとを、その順序で符号化し得る。ビデオエンコーダ20が、区分されたCUに対して符号化演算を実施するとき、ビデオエンコーダ20は、z走査順序に従って、区分されたCUのビデオブロックのサブブロックに関連付けられたCUを符号化し得る。言い換えれば、ビデオエンコーダ20は、左上のサブブロックに関連付けられたCUと、右上のサブブロックに関連付けられたCUと、左下のサブブロックに関連付けられたCUと、次いで右下のサブブロックに関連付けられたCUとを、その順序で符号化し得る。
[0061]z走査順序に従ってツリーブロックのCUを符号化した結果として、所与のCUの上、左上、右上、左、および左下のCUは符号化されていることがある。所与のCUの下および右のCUはまだ符号化されていない。したがって、ビデオエンコーダ20は、所与のCUを符号化するとき、所与のCUに隣接するいくつかのCUを符号化することによって生成される情報にアクセスすることが可能であり得る。しかしながら、ビデオエンコーダ20は、所与のCUを符号化するとき、所与のCUに隣接する他のCUを符号化することによって生成される情報にアクセスすることができないことがある。
[0062]ビデオエンコーダ20が、区分されていないCUを符号化するとき、ビデオエンコーダ20は、CUのために1つまたは複数の予測ユニット(PU)を生成し得る。CUのPUの各々は、CUのビデオブロック内の異なるビデオブロックに関連付けられ得る。ビデオエンコーダ20は、CUの各PUについて予測ビデオブロックを生成し得る。PUの予測ビデオブロックはサンプルのブロックであり得る。ビデオエンコーダ20は、PUのための予測ビデオブロックを生成するために、イントラ予測またはインター予測を使用し得る。
[0063]ビデオエンコーダ20がPUの予測ビデオブロックを生成するためにイントラ予測を使用するとき、ビデオエンコーダ20は、PUに関連付けられたピクチャの復号サンプルに基づいて、PUの予測ビデオブロックを生成し得る。ビデオエンコーダ20がCUのPUの予測ビデオブロックを生成するためにイントラ予測を使用する場合、CUはイントラ予測されたCUである。ビデオエンコーダ20がPUの予測ビデオブロックを生成するためにインター予測を使用するとき、ビデオエンコーダ20は、PUに関連付けられたピクチャ以外の1つまたは複数のピクチャの復号サンプルに基づいて、PUの予測ビデオブロックを生成し得る。ビデオエンコーダ20がCUのPUの予測ビデオブロックを生成するためにインター予測を使用する場合、CUはインター予測されたCUである。
[0064]さらに、ビデオエンコーダ20がPUのための予測ビデオブロックを生成するためにインター予測を使用するとき、ビデオエンコーダ20はPUの動き情報を生成し得る。PUの動き情報は、PUの1つまたは複数の参照ブロックを示し得る。PUの各参照ブロックは参照ピクチャ内のビデオブロックであり得る。参照ピクチャは、PUに関連付けられたピクチャ以外のピクチャであり得る。いくつかの事例では、PUの参照ブロックはPUの「参照サンプル」と呼ばれることもある。ビデオエンコーダ20は、PUの参照ブロックに基づいて、PUのための予測ビデオブロックを生成し得る。
[0065]ビデオエンコーダ20がCUの1つまたは複数のPUのための予測ビデオブロックを生成した後、ビデオエンコーダ20は、CUのPUのための予測ビデオブロックに基づいて、CUの残差データを生成し得る。CUの残差データは、CUのPUのための予測ビデオブロック中のサンプルと、CUの元のビデオブロック中のサンプルとの間の差分を示し得る。
[0066]さらに、区分されていないCUに対して符号化演算を実施することの一部として、ビデオエンコーダ20は、CUの残差データを、CUの変換ユニット(TU)に関連付けられた残差データの1つまたは複数のブロック(たとえば、残差ビデオブロック)に区分するために、CUの残差データに対して再帰的な4分木区分を実施し得る。CUの各TUは異なる残差ビデオブロックに関連付けられ得る。
[0067]ビデオエンコーダ20は、TUに関連付けられた変換係数ブロック(たとえば、変換係数のブロック)を生成するために、TUに関連付けられた残差ビデオブロックに1つまたは複数の変換を適用し得る。概念的に、変換係数ブロックは変換係数の2次元(2D)行列であり得る。
[0068]変換係数ブロックを生成した後、ビデオエンコーダ20は、変換係数ブロックに対して量子化プロセスを実施し得る。量子化は、一般に、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を行うプロセスを指す。量子化プロセスは、変換係数の一部または全部に関連付けられたビット深度を低減し得る。たとえば、量子化中にnビット変換係数はmビット変換係数に切り捨てられ得、ただし、nはmよりも大きい。
[0069]ビデオエンコーダ20は、各CUを量子化パラメータ(QP:quantization parameter)値に関連付け得る。CUに関連付けられたQP値は、ビデオエンコーダ20が、CUに関連付けられた変換係数ブロックをどのように量子化するかを決定し得る。ビデオエンコーダ20は、CUに関連付けられたQP値を調整することによって、CUに関連付けられた変換係数ブロックに適用される量子化の程度を調整し得る。
[0070]ビデオエンコーダ20が変換係数ブロックを量子化した後、ビデオエンコーダ20は、量子化された変換係数ブロック中で変換係数を表すシンタックス要素のセットを生成し得る。ビデオエンコーダ20は、これらのシンタックス要素のうちのいくつかに、コンテキスト適応型バイナリ算術コーディング(CABAC:Context Adaptive Binary Arithmetic Coding)演算などのエントロピー符号化演算を適用し得る。コンテキスト適応型可変長コーディング(CAVLC:context adaptive variable length coding)、確率間隔区分エントロピー(PIPE:probability interval partitioning entropy)コーディング、または他のバイナリ算術コーディングなど、他のエントロピーコーディング技法も使用され得る。
[0071]ビデオエンコーダ20によって生成されるビットストリームは、一連のネットワークアブストラクションレイヤ(NAL:Network Abstraction Layer)ユニットを含み得る。NALユニットの各々は、NALユニット中のデータのタイプの指示と、データを含んでいるバイトとを含んでいるシンタックス構造であり得る。たとえば、NALユニットは、ビデオパラメータセット、シーケンスパラメータセット、ピクチャパラメータセット、コード化スライス、補足エンハンスメント情報(SEI:supplemental enhancement information)、アクセスユニットデリミタ、フィラーデータ、または別のタイプのデータを表すデータを含んでいることがある。NALユニット中のデータは様々なシンタックス構造を含み得る。
[0072]ビデオデコーダ30は、ビデオエンコーダ20によって生成されたビットストリームを受信し得る。ビットストリームは、ビデオエンコーダ20によって符号化されたビデオデータのコード化表現を含み得る。ビデオデコーダ30がビットストリームを受信するとき、ビデオデコーダ30は、ビットストリームに対してパース演算を実施し得る。ビデオデコーダ30がパース演算を実施するとき、ビデオデコーダ30は、ビットストリームからシンタックス要素を抽出し得る。ビデオデコーダ30は、ビットストリームから抽出されたシンタックス要素に基づいて、ビデオデータのピクチャを再構成し得る。シンタックス要素に基づいてビデオデータを再構成するためのプロセスは、概して、シンタックス要素を生成するためにビデオエンコーダ20によって実施されるプロセスとは逆であり得る。
[0073]ビデオデコーダ30が、CUに関連付けられたシンタックス要素を抽出した後、ビデオデコーダ30は、シンタックス要素に基づいて、CUのPUのための予測ビデオブロックを生成し得る。さらに、ビデオデコーダ30は、CUのTUに関連付けられた変換係数ブロックを逆量子化し得る。ビデオデコーダ30は、CUのTUに関連付けられた残差ビデオブロックを再構成するために、変換係数ブロックに対して逆変換を実施し得る。予測ビデオブロックを生成し、残差ビデオブロックを再構成した後、ビデオデコーダ30は、予測ビデオブロックと残差ビデオブロックとに基づいて、CUのビデオブロックを再構成し得る。このようにして、ビデオデコーダ30は、ビットストリーム中のシンタックス要素に基づいて、CUのビデオブロックを再構成し得る。
ビデオエンコーダ
[0074]図2Aは、本開示で説明する態様による技法を実装し得るビデオエンコーダ20の一例を示すブロック図である。ビデオエンコーダ20は、HEVCの場合など、ビデオフレームの単一のレイヤを処理するように構成され得る。さらに、ビデオエンコーダ20は、限定はしないが、図4および図5に関して上記および下記でより詳細に説明するNoOutputOfPriorPicsFlagを推論する方法および関係するプロセスを含む、本開示の技法のいずれかまたはすべてを実施するように構成され得る。一例として、予測処理ユニット100は、本開示で説明する技法のいずれかまたはすべてを実施するように構成され得る。別の実施形態では、ビデオエンコーダ20は、本開示で説明する技法のいずれかまたはすべてを実施するように構成された随意のレイヤ間予測ユニット128を含む。他の実施形態では、レイヤ間予測は予測処理ユニット100(たとえば、インター予測ユニット121および/またはイントラ予測ユニット126)によって実施され得、その場合、レイヤ間予測ユニット128は省略され得る。ただし、本開示の態様はそのように限定されない。いくつかの例では、本開示で説明する技法は、ビデオエンコーダ20の様々な構成要素間で共有され得る。いくつかの例では、追加または代替として、プロセッサ(図示せず)が、本開示で説明する技法のいずれかまたはすべてを実施するように構成され得る。
[0075]説明の目的で、本開示では、HEVCコーディングのコンテキストにおいてビデオエンコーダ20について説明する。しかしながら、本開示の技法は他のコーディング規格または方法に適用可能であり得る。図2Aに示された例はシングルレイヤコーデックのためのものである。しかしながら、図2Bに関してさらに説明するように、ビデオエンコーダ20の一部または全部はマルチレイヤコーデックの処理のために複製され得る。
[0076]ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングおよびインターコーディングを実施し得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオの空間冗長性を低減または除去するために空間予測に依拠する。インターコーディングは、ビデオシーケンスの隣接フレームまたはピクチャ内のビデオの時間冗長性を低減または除去するために時間予測に依拠する。イントラモード(Iモード)は、いくつかの空間ベースのコーディングモードのいずれかを指すことがある。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベースのコーディングモードのいずれかを指すことがある。
[0077]図2Aの例では、ビデオエンコーダ20は複数の機能構成要素を含む。ビデオエンコーダ20の機能構成要素は、予測処理ユニット100と、残差生成ユニット102と、変換処理ユニット104と、量子化ユニット106と、逆量子化ユニット108と、逆変換ユニット110と、再構成ユニット112と、フィルタユニット113と、復号ピクチャバッファ114と、エントロピー符号化ユニット116とを含む。予測処理ユニット100は、インター予測ユニット121と、動き推定ユニット122と、動き補償ユニット124と、イントラ予測ユニット126と、レイヤ間予測ユニット128とを含む。他の例では、ビデオエンコーダ20は、より多数の、より少数の、または異なる機能構成要素を含み得る。さらに、動き推定ユニット122と動き補償ユニット124とは、高度に統合され得るが、図2Aの例では、説明の目的で別々に表されている。
[0078]ビデオエンコーダ20はビデオデータを受信し得る。ビデオエンコーダ20は、様々なソースからビデオデータを受信し得る。たとえば、ビデオエンコーダ20は、(たとえば、図1Aまたは図1Bに示された)ビデオソース18、または別のソースからビデオデータを受信し得る。ビデオデータは一連のピクチャを表し得る。ビデオデータを符号化するために、ビデオエンコーダ20は、ピクチャの各々に対して符号化演算を実施し得る。ピクチャに対して符号化演算を実施することの一部として、ビデオエンコーダ20は、ピクチャの各スライスに対して符号化演算を実施し得る。スライスに対して符号化演算を実施することの一部として、ビデオエンコーダ20は、スライス中のツリーブロックに対して符号化演算を実施し得る。
[0079]ツリーブロックに対して符号化演算を実施することの一部として、予測処理ユニット100は、ビデオブロックを徐々により小さいビデオブロックに分割するために、ツリーブロックのビデオブロックに対して4分木区分を実施し得る。より小さいビデオブロックの各々は、異なるCUに関連付けられ得る。たとえば、予測処理ユニット100は、ツリーブロックのビデオブロックを4つの等しいサイズのサブブロックに区分し、サブブロックの1つまたは複数を、4つの等しいサイズのサブサブブロックに区分し得、以下同様である。
[0080]CUに関連付けられたビデオブロックのサイズは、8×8サンプルから、最大64×64以上のサンプルをもつツリーブロックのサイズまでに及び得る。本開示では、「N×N(NxN)」および「N×N(N by N)」は、垂直寸法および水平寸法に関するビデオブロックのサンプル寸法、たとえば、16×16(16x16)サンプルまたは16×16(16 by 16)サンプルを指すために互換的に使用され得る。概して、16×16ビデオブロックは、垂直方向に16個のサンプルを有し(y=16)、水平方向に16個のサンプルを有する(x=16)。同様に、N×Nブロックは、概して、垂直方向にN個のサンプルを有し、水平方向にN個のサンプルを有し、ここで、Nは非負整数値を表す。
[0081]さらに、ツリーブロックに対して符号化演算を実施することの一部として、予測処理ユニット100は、ツリーブロック用の階層的な4分木データ構造を生成し得る。たとえば、ツリーブロックは、4分木データ構造のルートノードに対応し得る。予測処理ユニット100が、ツリーブロックのビデオブロックを4つのサブブロックに区分する場合、ルートノードは、4分木データ構造中に4つの子ノードを有する。子ノードの各々は、サブブロックのうちの1つに関連付けられたCUに対応する。予測処理ユニット100が、サブブロックのうちの1つを4つのサブサブブロックに区分する場合、サブブロックに関連付けられたCUに対応するノードは、サブサブブロックのうちの1つに関連付けられたCUに各々が対応する、4つの子ノードを有し得る。
[0082]4分木データ構造の各ノードは、対応するツリーブロックまたはCUのシンタックスデータ(たとえば、シンタックス要素)を含んでいることがある。たとえば、4分木の中のノードは、そのノードに対応するCUのビデオブロックが4つのサブブロックに区分される(たとえば、分割される)かどうかを示す分割フラグを含み得る。CUのためのシンタックス要素は、再帰的に定義され得、CUのビデオブロックがサブブロックに分割されるかどうかに依存し得る。それのビデオブロックが区分されていないCUは、4分木データ構造におけるリーフノードに対応し得る。コード化ツリーブロックは、対応するツリーブロック用の4分木データ構造に基づくデータを含み得る。
[0083]ビデオエンコーダ20は、ツリーブロックの区分されていない各CUに対して符号化演算を実施し得る。ビデオエンコーダ20が、区分されていないCUに対して符号化演算を実施するとき、ビデオエンコーダ20は、区分されていないCUの符号化表現を表すデータを生成する。
[0084]CUに対して符号化演算を実施することの一部として、予測処理ユニット100は、CUの1つまたは複数のPUの中で、CUのビデオブロックを区分し得る。ビデオエンコーダ20およびビデオデコーダ30は、様々なPUサイズをサポートし得る。特定のCUのサイズが2N×2Nであると仮定すると、ビデオエンコーダ20およびビデオデコーダ30は、2N×2NまたはN×NのPUサイズと、2N×2N、2N×N、N×2N、N×N、2N×nU、nL×2N、nR×2N、または同様の対称PUサイズでのインター予測とをサポートし得る。ビデオエンコーダ20およびビデオデコーダ30は、2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズに対する非対称区分をもサポートし得る。いくつかの例では、予測処理ユニット100は、CUのビデオブロックの辺に直角に接触しない境界に沿って、CUのPUの間でCUのビデオブロックを区分するように、幾何学的な区分を実施し得る。
[0085]インター予測ユニット121は、CUの各PUに対してインター予測を実施し得る。インター予測は時間圧縮を実現し得る。PUに対してインター予測を実施するために、動き推定ユニット122はPUの動き情報を生成し得る。動き補償ユニット124は、動き情報と、CUに関連付けられたピクチャ以外のピクチャ(たとえば、参照ピクチャ)の復号サンプルと基づくPUのための予測ビデオブロックを生成し得る。本開示では、動き補償ユニット124によって生成された予測ビデオブロックは、インター予測ビデオブロックと呼ばれることがある。
[0086]スライスは、Iスライス、Pスライス、またはBスライスであり得る。動き推定ユニット122および動き補償ユニット124は、PUがIスライス中にあるのか、Pスライス中にあるのか、Bスライス中にあるのかに応じて、CUのPUに対して異なる演算を実施し得る。Iスライス中では、すべてのPUがイントラ予測される。したがって、PUがIスライス中にある場合、動き推定ユニット122および動き補償ユニット124は、PUに対してインター予測を実施しない。
[0087]PUがPスライス中にある場合、PUを含んでいるピクチャは、「リスト0」と呼ばれる参照ピクチャのリストに関連付けられる。リスト0中の参照ピクチャの各々は、他のピクチャのインター予測に使用され得るサンプルを含んでいる。動き推定ユニット122が、Pスライス中のPUに関して動き推定演算を実施するとき、動き推定ユニット122は、PUのための参照ブロックについて、リスト0中の参照ピクチャを探索し得る。PUの参照ブロックは、PUのビデオブロック中のサンプルに最も密接に対応するサンプルのセット、たとえば、サンプルのブロックであり得る。動き推定ユニット122は、参照ピクチャ中のサンプルのセットがどの程度密接にPUのビデオブロック中のサンプルに対応するかを決定するために、様々なメトリクスを使用し得る。たとえば、動き推定ユニット122は、絶対差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、または他の差分メトリックによって、参照ピクチャ中のサンプルのセットがどの程度密接にPUのビデオブロック中のサンプルに対応するかを決定し得る。
[0088]Pスライス中のPUの参照ブロックを識別した後、動き推定ユニット122は、参照ブロックを含んでいる、リスト0中の参照ピクチャを示す参照インデックスと、PUと参照ブロックとの間の空間変位を示す動きベクトルとを生成し得る。様々な例において、動き推定ユニット122は動きベクトルを異なる精度に生成し得る。たとえば、動き推定ユニット122は、1/4サンプル精度、1/8サンプル精度、または他の分数のサンプル精度で動きベクトルを生成し得る。分数のサンプル精度の場合、参照ブロック値は、参照ピクチャ中の整数位置のサンプル値から補間され得る。動き推定ユニット122は、PUの動き情報として参照インデックスと動きベクトルとを出力し得る。動き補償ユニット124は、PUの動き情報によって識別された参照ブロックに基づいて、PUの予測ビデオブロックを生成し得る。
[0089]PUがBスライス中にある場合、PUを含んでいるピクチャは、「リスト0」および「リスト1」と呼ばれる参照ピクチャの2つのリストに関連付けられ得る。いくつかの例では、Bスライスを含んでいるピクチャは、リスト0とリスト1の組合せである、リストの組合せに関連付けられ得る。
[0090]さらに、PUがBスライス中にある場合、動き推定ユニット122は、PUについての単方向予測または双方向予測を実施し得る。動き推定ユニット122が、PUについての単方向予測を実施するとき、動き推定ユニット122は、PUのための参照ブロックについて、リスト0またはリスト1の参照ピクチャを探索し得る。動き推定ユニット122は、次いで、参照ブロックを含んでいる、リスト0またはリスト1中の参照ピクチャを示す参照インデックスと、PUと参照ブロックとの間の空間変位を示す動きベクトルとを生成し得る。動き推定ユニット122は、PUの動き情報として、参照インデックスと、予測方向インジケータと、動きベクトルとを出力し得る。予測方向インジケータは、参照インデックスが、リスト0中の参照ピクチャを示すのか、リスト1中の参照ピクチャを示すのかを示し得る。動き補償ユニット124は、PUの動き情報によって示された参照ブロックに基づいて、PUの予測ビデオブロックを生成し得る。
[0091]動き推定ユニット122が、PUについての双方向予測を実施するとき、動き推定ユニット122は、PUのための参照ブロックについて、リスト0中の参照ピクチャを探索し得、また、PUのための別の参照ブロックについて、リスト1中の参照ピクチャを探索し得る。動き推定ユニット122は、次いで、参照ブロックを含んでいる、リスト0およびリスト1中の参照ピクチャを示す参照インデックスと、参照ブロックとPUとの間の空間変位を示す動きベクトルとを生成し得る。動き推定ユニット122は、PUの動き情報としてPUの参照インデックスと動きベクトルとを出力し得る。動き補償ユニット124は、PUの動き情報によって示された参照ブロックに基づいて、PUの予測ビデオブロックを生成し得る。
[0092]いくつかの例では、動き推定ユニット122は、PUの動き情報のフルセットをエントロピー符号化ユニット116に出力しない。そうではなく、動き推定ユニット122は、別のPUの動き情報を参照して、PUの動き情報をシグナリングし得る。たとえば、動き推定ユニット122は、PUの動き情報が、隣接PUの動き情報と十分に類似していると決定し得る。この例では、動き推定ユニット122は、PUに関連付けられたシンタックス構造において、PUが隣接PUと同じ動き情報を有することをビデオデコーダ30に示す値を示し得る。別の例では、動き推定ユニット122は、PUに関連付けられたシンタックス構造において、隣接PUと動きベクトル差分(MVD:motion vector difference)とを識別し得る。動きベクトル差分は、PUの動きベクトルと、示された隣接PUの動きベクトルとの間の差分を示す。ビデオデコーダ30は、PUの動きベクトルを決定するために、示された隣接PUの動きベクトルと、動きベクトル差分とを使用し得る。第2のPUの動き情報をシグナリングするときに第1のPUの動き情報を参照することによって、ビデオエンコーダ20は、より少数のビットを使用して、第2のPUの動き情報をシグナリングすることが可能であり得る。
[0093]図6〜図7に関して以下でさらに説明するように、予測処理ユニット100は、図6〜図7に示されている方法を実施することによってPU(または他の参照レイヤブロックおよび/またはエンハンスメントレイヤブロックまたはビデオユニット)をコーディング(たとえば、符号化または復号)するように構成され得る。たとえば、(たとえば、動き推定ユニット122および/または動き補償ユニット124を介した)インター予測ユニット121、イントラ予測ユニット126、またはレイヤ間予測ユニット128は、一緒にまたは別々に、図6〜図7に示されている方法を実施するように構成され得る。
[0094]CUに対して符号化演算を実施することの一部として、イントラ予測ユニット126は、CUのPUに対してイントラ予測を実施し得る。イントラ予測は空間圧縮を実現し得る。イントラ予測ユニット126がPUに対してイントラ予測を実施するとき、イントラ予測ユニット126は、同じピクチャ中の他のPUの復号サンプルに基づいて、PUの予測データを生成し得る。PUの予測データは、予測ビデオブロックと様々なシンタックス要素とを含み得る。イントラ予測ユニット126は、Iスライス、Pスライス、およびBスライス中のPUに対してイントラ予測を実施し得る。
[0095]PUに対してイントラ予測を実施するために、イントラ予測ユニット126は、PUの予測データの複数のセットを生成するために、複数のイントラ予測モードを使用し得る。イントラ予測ユニット126が、イントラ予測モードを使用してPUの予測データのセットを生成するとき、イントラ予測ユニット126は、イントラ予測モードに関連付けられた方向および/または勾配で、隣接PUのビデオブロックからPUのビデオブロックにわたって、サンプルを延ばし得る。隣接PUは、PU、CU、およびツリーブロックについて左から右、上から下の符号化順序を仮定すると、PUの上、右上、左上、または左にあり得る。イントラ予測ユニット126は、PUのサイズに応じて、様々な数のイントラ予測モード、たとえば、33個の方向性イントラ予測モードを使用し得る。
[0096]予測処理ユニット100は、PUについての、動き補償ユニット124によって生成された予測データ、またはPUについての、イントラ予測ユニット126によって生成された予測データの中から、PUの予測データを選択し得る。いくつかの例では、予測処理ユニット100は、予測データのセットのレート/ひずみメトリックに基づいて、PUのための予測データを選択する。
[0097]予測処理ユニット100が、イントラ予測ユニット126によって生成された予測データを選択する場合、予測処理ユニット100は、PUの予測データを生成するために使用されたイントラ予測モード、たとえば、選択されたイントラ予測モードをシグナリングし得る。予測処理ユニット100は、選択されたイントラ予測モードを様々な方法でシグナリングし得る。たとえば、選択されたイントラ予測モードは、隣接PUのイントラ予測モードと同じであることがあり得る。言い換えれば、隣接PUのイントラ予測モードは現在PUに対して最確モードであり得る。したがって、予測処理ユニット100は、選択されたイントラ予測モードが隣接PUのイントラ予測モードと同じであることを示すための、シンタックス要素を生成し得る。
[0098]上記で説明したように、ビデオエンコーダ20はレイヤ間予測ユニット128を含み得る。レイヤ間予測ユニット128は、SVCにおいて利用可能である1つまたは複数の異なるレイヤ(たとえば、ベースレイヤまたは参照レイヤ)を使用して現在ブロック(たとえば、EL中の現在ブロック)を予測するように構成される。そのような予測はレイヤ間予測と呼ばれることがある。レイヤ間予測ユニット128は、レイヤ間冗長性を低減するために予測方法を利用し、それによって、コーディング効率を改善し、計算リソース要件を低減する。レイヤ間予測のいくつかの例としては、レイヤ間イントラ予測、レイヤ間動き予測、およびレイヤ間残差予測がある。レイヤ間イントラ予測は、エンハンスメントレイヤ中の現在ブロックを予測するために、ベースレイヤ中のコロケートブロックの再構成を使用する。レイヤ間動き予測は、エンハンスメントレイヤ中の動作を予測するために、ベースレイヤの動き情報を使用する。レイヤ間残差予測は、エンハンスメントレイヤの残差を予測するために、ベースレイヤの残差を使用する。レイヤ間予測方式の各々について、以下でより詳細に説明する。
[0099]予測処理ユニット100がCUのPUの予測データを選択した後、残差生成ユニット102は、CUのビデオブロックからCUのPUの予測ビデオブロックを差し引くこと(たとえば、マイナス符号によって示される)によって、CUの残差データを生成し得る。CUの残差データは、CUのビデオブロック中のサンプルの異なるサンプル成分に対応する、2D残差ビデオブロックを含み得る。たとえば、残差データは、CUのPUの予測ビデオブロック中のサンプルのルミナンス成分と、CUの元のビデオブロック中のサンプルのルミナンス成分との間の差分に対応する、残差ビデオブロックを含み得る。さらに、CUの残差データは、CUのPUの予測ビデオブロック中のサンプルのクロミナンス成分と、CUの元のビデオブロック中のサンプルのクロミナンス成分との間の差分に対応する、残差ビデオブロックを含み得る。
[00100]予測処理ユニット100は、CUの残差ビデオブロックをサブブロックに区分するために、4分木区分を実施し得る。各分割されていない残差ビデオブロックは、CUの異なるTUに関連付けられ得る。CUのTUに関連付けられた残差ビデオブロックのサイズおよび位置は、CUのPUに関連付けられたビデオブロックのサイズおよび位置に基づくことも基づかないこともある。「残差4分木」(RQT:residual quad tree)として知られる4分木構造は、残差ビデオブロックの各々に関連付けられたノードを含み得る。CUのTUはRQTのリーフノードに対応し得る。
[00101]変換処理ユニット104は、TUに関連付けられた残差ビデオブロックに1つまたは複数の変換を適用することによって、CUの各TUのための1つまたは複数の変換係数ブロックを生成し得る。変換係数ブロックの各々は変換係数の2D行列であり得る。変換処理ユニット104は、TUに関連付けられた残差ビデオブロックに様々な変換を適用し得る。たとえば、変換処理ユニット104は、離散コサイン変換(DCT)、方向性変換、または概念的に同様の変換を、TUに関連付けられた残差ビデオブロックに適用し得る。
[00102]変換処理ユニット104が、TUに関連付けられた変換係数ブロックを生成した後、量子化ユニット106は、変換係数ブロック中の変換係数を量子化し得る。量子化ユニット106は、CUに関連付けられたQP値に基づいて、CUのTUに関連付けられた変換係数ブロックを量子化し得る。
[00103]ビデオエンコーダ20は、様々な方法でQP値をCUに関連付け得る。たとえば、ビデオエンコーダ20は、CUに関連付けられたツリーブロックに対してレートひずみ分析を実施し得る。レートひずみ分析では、ビデオエンコーダ20は、ツリーブロックに対して符号化演算を複数回実施することによって、ツリーブロックの複数のコード化表現を生成し得る。ビデオエンコーダ20がツリーブロックの異なる符号化表現を生成するとき、ビデオエンコーダ20は、異なるQP値をCUに関連付け得る。ビデオエンコーダ20は、最小のビットレートおよびひずみメトリックを有するツリーブロックのコード化表現で所与のQP値がCUに関連付けられるとき、所与のQP値がCUに関連付けられることをシグナリングし得る。
[00104]逆量子化ユニット108および逆変換ユニット110は、それぞれ、変換係数ブロックから残差ビデオブロックを再構成するために、変換係数ブロックに逆量子化および逆変換を適用し得る。再構成ユニット112は、TUに関連付けられた再構成されたビデオブロックを生成するために、再構成された残差ビデオブロックを、予測処理ユニット100によって生成された1つまたは複数の予測ビデオブロックからの対応するサンプルに追加し得る。このようにCUの各TUのためのビデオブロックを再構成することによって、ビデオエンコーダ20は、CUのビデオブロックを再構成し得る。
[00105]再構成ユニット112がCUのビデオブロックを再構成した後、フィルタユニット113は、CUに関連付けられたビデオブロックにおけるブロッキングアーティファクトを低減するためにデブロッキング演算を実施し得る。1つまたは複数のデブロッキング演算を実施した後、フィルタユニット113は、CUの再構成されたビデオブロックを復号ピクチャバッファ114に記憶し得る。動き推定ユニット122および動き補償ユニット124は、後続ピクチャのPUに対してインター予測を実施するために、再構成されたビデオブロックを含んでいる参照ピクチャを使用し得る。さらに、イントラ予測ユニット126は、CUと同じピクチャの中の他のPUに対してイントラ予測を実施するために、復号ピクチャバッファ114中の再構成されたビデオブロックを使用し得る。
[00106]エントロピー符号化ユニット116は、ビデオエンコーダ20の他の機能構成要素からデータを受信し得る。たとえば、エントロピー符号化ユニット116は、量子化ユニット106から変換係数ブロックを受信し得、予測処理ユニット100からシンタックス要素を受信し得る。エントロピー符号化ユニット116がデータを受信するとき、エントロピー符号化ユニット116は、エントロピー符号化データを生成するために、1つまたは複数のエントロピー符号化演算を実施し得る。たとえば、ビデオエンコーダ20は、コンテキスト適応型可変長コーディング(CAVLC)演算、CABAC演算、変数間(V2V:variable-to-variable)レングスコーディング演算、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)演算、確率間隔区分エントロピー(PIPE)コーディング演算、または別のタイプのエントロピー符号化演算をデータに対して実施し得る。エントロピー符号化ユニット116は、エントロピー符号化データを含むビットストリームを出力し得る。
[00107]データに対してエントロピー符号化演算を実施することの一部として、エントロピー符号化ユニット116は、コンテキストモデルを選択し得る。エントロピー符号化ユニット116がCABAC演算を実施している場合、コンテキストモデルは、特定の値を有する特定のビンの確率の推定値を示し得る。CABACのコンテキストでは、「ビン」という用語は、シンタックス要素の2値化されたバージョンのビットを指すために使用される。
マルチレイヤビデオエンコーダ
[00108]図2Bは、本開示で説明する態様による技法を実装し得る(単にビデオエンコーダ23とも呼ばれる)マルチレイヤビデオエンコーダ23の一例を示すブロック図である。ビデオエンコーダ23は、SHVCおよびマルチビューコーディングの場合など、マルチレイヤビデオフレームを処理するように構成され得る。さらに、ビデオエンコーダ23は、本開示の技法のいずれかまたはすべてを実施するように構成され得る。
[00109]ビデオエンコーダ23はビデオエンコーダ20Aとビデオエンコーダ20Bとを含み、それらの各々はビデオエンコーダ20として構成され得、ビデオエンコーダ20に関して上記で説明した機能を実施し得る。さらに、参照番号の再利用によって示されるように、ビデオエンコーダ20Aおよび20Bは、ビデオエンコーダ20としてシステムとサブシステムとのうちの少なくともいくつかを含み得る。ビデオエンコーダ23は、2つのビデオエンコーダ20Aおよび20Bを含むものとして示されているが、ビデオエンコーダ23は、そのようなものとして限定されず、任意の数のビデオエンコーダ20レイヤを含み得る。いくつかの実施形態では、ビデオエンコーダ23はアクセスユニット中の各ピクチャまたはフレームについてビデオエンコーダ20を含み得る。たとえば、5つのピクチャを含むアクセスユニットは、5つのエンコーダレイヤを含むビデオエンコーダによって処理または符号化され得る。いくつかの実施形態では、ビデオエンコーダ23は、アクセスユニット中のフレームよりも多くのエンコーダレイヤを含み得る。いくつかのそのような場合では、ビデオエンコーダレイヤのいくつかは、いくつかのアクセスユニットを処理するときに非アクティブであり得る。
[00110]ビデオエンコーダ20Aおよび20Bに加えて、ビデオエンコーダ23はリサンプリングユニット90を含み得る。リサンプリングユニット90は、場合によっては、たとえば、エンハンスメントレイヤを作成するために、受信されたビデオフレームのベースレイヤをアップサンプリングし得る。リサンプリングユニット90は、フレームの受信されたベースレイヤに関連付けられた特定の情報をアップサンプリングするが、他の情報をアップサンプリングしないことがある。たとえば、リサンプリングユニット90は、ベースレイヤの空間サイズまたはピクセルの数をアップサンプリングし得るが、スライスの数またはPOCは一定のままであり得る。場合によっては、リサンプリングユニット90は、受信されたビデオを処理しないことがあるか、および/または随意であり得る。たとえば、場合によっては、予測処理ユニット100がアップサンプリングを実施し得る。いくつかの実施形態では、リサンプリングユニット90は、レイヤをアップサンプリングすることと、スライス境界ルールおよび/またはラスタ走査ルールのセットに準拠するために1つまたは複数のスライスを再編成、再定義、変更、または調整することとを行うように構成される。アクセスユニット中のベースレイヤまたは下位レイヤをアップサンプリングするものとして主に説明したが、場合によっては、リサンプリングユニット90はレイヤをダウンサンプリングし得る。たとえば、ビデオのストリーミング中に帯域幅が減少した場合、フレームは、アップサンプリングされるのではなく、ダウンサンプリングされ得る。
[00111]リサンプリングユニット90は、下位レイヤエンコーダ(たとえば、ビデオエンコーダ20A)の復号ピクチャバッファ114からピクチャまたはフレーム(またはピクチャに関連付けられたピクチャ情報)を受信し、ピクチャ(または受信されたピクチャ情報)をアップサンプリングするように構成され得る。このアップサンプリングされたピクチャは、次いで、下位レイヤエンコーダと同じアクセスユニット中のピクチャを符号化するように構成された上位レイヤエンコーダ(たとえば、ビデオエンコーダ20B)の予測処理ユニット100に与えられ得る。ある場合には、上位レイヤエンコーダは、下位レイヤエンコーダから削除された1つのレイヤである。他の場合には、図2Bのレイヤ0ビデオエンコーダとレイヤ1エンコーダとの間に1つまたは複数の上位レイヤエンコーダがあり得る。
[00112]場合によっては、リサンプリングユニット90は省略またはバイパスされ得る。そのような場合、ビデオエンコーダ20Aの復号ピクチャバッファ114からのピクチャは、直接、または少なくともリサンプリングユニット90に与えられることなしに、ビデオエンコーダ20Bの予測処理ユニット100に与えられ得る。たとえば、ビデオエンコーダ20Bに与えられたビデオデータと、ビデオエンコーダ20Aの復号ピクチャバッファ114からの参照ピクチャとが同じサイズまたは解像度である場合、参照ピクチャは、リサンプリングなしにビデオエンコーダ20Bに与えられ得る。
[00113]いくつかの実施形態では、ビデオエンコーダ23は、ビデオエンコーダ20Aにビデオデータを与える前に、ダウンサンプリングユニット94を使用して下位レイヤエンコーダに与えられるべきビデオデータをダウンサンプリングする。代替的に、ダウンサンプリングユニット94は、ビデオデータをアップサンプリングまたはダウンサンプリングすることが可能なリサンプリングユニット90であり得る。また他の実施形態では、ダウンサンプリングユニット94は省略され得る。
[00114]図2Bに示されているように、ビデオエンコーダ23は、マルチプレクサ98、またはmuxをさらに含み得る。mux98は、ビデオエンコーダ23から合成ビットストリームを出力することができる。合成ビットストリームは、ビデオエンコーダ20Aおよび20Bの各々からビットストリームを取ることと、所与の時間において出力されるビットストリームを交替することとによって、作成され得る。場合によっては、2つの(または、3つ以上のビデオエンコーダレイヤの場合には、より多くの)ビットストリームからのビットが一度に1ビットずつ交替され得るが、多くの場合、ビットストリームは別様に合成され得る。たとえば、出力ビットストリームは、選択されたビットストリームを一度に1ブロックずつ交替することによって作成され得る。別の例では、出力ビットストリームは、ビデオエンコーダ20Aおよび20Bの各々から非1:1比のブロックを出力することによって作成され得る。たとえば、ビデオエンコーダ20Aから出力された各ブロックについて、2つのブロックがビデオエンコーダ20Bから出力され得る。いくつかの実施形態では、mux98からの出力ストリームはプリプログラムされ得る。他の実施形態では、mux98は、ソースデバイス12を含むソースデバイス上のプロセッサからなど、ビデオエンコーダ23の外部のシステムから受信された制御信号に基づいて、ビデオエンコーダ20A、20Bからのビットストリームを合成し得る。制御信号は、ビデオソース18からのビデオの解像度またはビットレートに基づいて、リンク16の帯域幅に基づいて、ユーザに関連付けられたサブスクリプション(たとえば、有料サブスクリプション対無料サブスクリプション)に基づいて、またはビデオエンコーダ23から望まれる解像度出力を決定するための他のファクタに基づいて生成され得る。
ビデオデコーダ
[00115]図3Aは、本開示で説明する態様による技法を実装し得るビデオデコーダ30の一例を示すブロック図である。ビデオデコーダ30は、HEVCの場合など、ビデオフレームの単一のレイヤを処理するように構成され得る。さらに、ビデオデコーダ30は、限定はしないが、図4および図5に関して上記および下記でより詳細に説明するNoOutputOfPriorPicsFlagを推論する方法および関係するプロセスを含む、本開示の技法のいずれかまたはすべてを実施するように構成され得る。一例として、動き補償ユニット162および/またはイントラ予測ユニット164は、本開示で説明する技法のいずれかまたはすべてを実施するように構成され得る。一実施形態では、ビデオデコーダ30は、場合によっては、本開示で説明する技法のいずれかまたはすべてを実施するように構成されたレイヤ間予測ユニット166を含み得る。他の実施形態では、レイヤ間予測は予測処理ユニット152(たとえば、動き補償ユニット162および/またはイントラ予測ユニット164)によって実施され得、その場合、レイヤ間予測ユニット166は省略され得る。ただし、本開示の態様はそのように限定されない。いくつかの例では、本開示で説明する技法は、ビデオデコーダ30の様々な構成要素間で共有され得る。いくつかの例では、追加または代替として、プロセッサ(図示せず)が、本開示で説明する技法のいずれかまたはすべてを実施するように構成され得る。
[00116]説明の目的で、本開示では、HEVCコーディングのコンテキストにおいてビデオデコーダ30について説明する。しかしながら、本開示の技法は他のコーディング規格または方法に適用可能であり得る。図3Aに示された例はシングルレイヤコーデックのためのものである。しかしながら、図3Bに関してさらに説明するように、ビデオデコーダ30の一部または全部はマルチレイヤコーデックの処理のために複製され得る。
[00117]図3Aの例では、ビデオデコーダ30は複数の機能構成要素を含む。ビデオデコーダ30の機能構成要素は、エントロピー復号ユニット150と、予測処理ユニット152と、逆量子化ユニット154と、逆変換ユニット156と、再構成ユニット158と、フィルタユニット159と、復号ピクチャバッファ160とを含む。予測処理ユニット152は、動き補償ユニット162と、イントラ予測ユニット164と、レイヤ間予測ユニット166とを含む。いくつかの例では、ビデオデコーダ30は、図2Aのビデオエンコーダ20に関して説明された符号化経路とは全般に逆の復号経路を実施し得る。他の例では、ビデオデコーダ30は、より多数の、より少数の、または異なる機能構成要素を含み得る。
[00118]ビデオデコーダ30は、符号化ビデオデータを備えるビットストリームを受信し得る。ビットストリームは複数のシンタックス要素を含み得る。ビデオデコーダ30がビットストリームを受信したとき、エントロピー復号ユニット150は、ビットストリームに対してパース演算を実施し得る。ビットストリームに対してパース演算を実施した結果として、エントロピー復号ユニット150は、ビットストリームからシンタックス要素を抽出し得る。パース演算を実施することの一部として、エントロピー復号ユニット150は、ビットストリーム中のエントロピー符号化シンタックス要素をエントロピー復号し得る。予測処理ユニット152、逆量子化ユニット154、逆変換ユニット156、再構成ユニット158、およびフィルタユニット159は、ビットストリームから抽出されたシンタックス要素に基づいて、復号ビデオデータを生成する再構成演算を実施し得る。
[00119]上記で説明したように、ビットストリームは一連のNALユニットを備え得る。ビットストリームのNALユニットは、ビデオパラメータセットNALユニット、シーケンスパラメータセットNALユニット、ピクチャパラメータセットNALユニット、SEI NALユニットなどを含み得る。ビットストリームに対してパース演算を実施することの一部として、エントロピー復号ユニット150は、シーケンスパラメータセットNALユニットからのシーケンスパラメータセット、ピクチャパラメータセットNALユニットからのピクチャパラメータセット、SEI NALユニットからのSEIデータなどを抽出し、エントロピー復号する、パース演算を実施し得る。
[00120]さらに、ビットストリームのNALユニットはコード化スライスNALユニットを含み得る。ビットストリームに対してパース演算を実施することの一部として、エントロピー復号ユニット150は、コード化スライスNALユニットからコード化スライスを抽出し、エントロピー復号する、パース演算を実施し得る。コード化スライスの各々は、スライスヘッダとスライスデータとを含み得る。スライスヘッダは、スライスに関するシンタックス要素を含んでいることがある。スライスヘッダ中のシンタックス要素は、スライスを含んでいるピクチャに関連付けられたピクチャパラメータセットを識別するシンタックス要素を含み得る。エントロピー復号ユニット150は、スライスヘッダを復元するために、コード化スライスヘッダ中のシンタックス要素に対して、CABAC復号演算などのエントロピー復号演算を実施し得る。
[00121]コード化スライスのNALユニットからスライスデータを抽出することの一部として、エントロピー復号ユニット150は、スライスデータ中のコード化CUからシンタックス要素を抽出するパース演算を実施し得る。抽出されたシンタックス要素は、変換係数ブロックに関連付けられたシンタックス要素を含み得る。エントロピー復号ユニット150は、次いで、シンタックス要素のうちのいくつかに対してCABAC復号演算を実施し得る。
[00122]エントロピー復号ユニット150が区分されていないCUに対してパース演算を実施した後、ビデオデコーダ30は、区分されていないCUに対して再構成演算を実施し得る。区分されていないCUに対して再構成演算を実施するために、ビデオデコーダ30はCUの各TUに対して再構成演算を実施し得る。CUの各TUについて再構成演算を実施することによって、ビデオデコーダ30は、CUに関連付けられた残差ビデオブロックを再構成し得る。
[00123]TUに対して再構成演算を実施することの一部として、逆量子化ユニット154は、TUに関連付けられた変換係数ブロックを逆量子化(inverse quantize)、たとえば、逆量子化(de-quantize)し得る。逆量子化ユニット154は、HEVCのために提案された、またはH.264復号規格によって定義された逆量子化プロセスと同様の様式で、変換係数ブロックを逆量子化し得る。逆量子化ユニット154は、量子化の程度を決定し、同様に、逆量子化ユニット154が適用すべき逆量子化の程度を決定するために、変換係数ブロックのCUのためにビデオエンコーダ20によって計算された量子化パラメータQPを使用し得る。
[00124]逆量子化ユニット154が変換係数ブロックを逆量子化した後、逆変換ユニット156は、変換係数ブロックに関連付けられたTUのための残差ビデオブロックを生成し得る。逆変換ユニット156は、TUのための残差ビデオブロックを生成するために、変換係数ブロックに逆変換を適用し得る。たとえば、逆変換ユニット156は、変換係数ブロックに、逆DCT、逆整数変換、逆カルーネンレーベ変換(KLT:Karhunen-Loeve transform)、逆回転変換、逆方向変換、または別の逆変換を適用し得る。いくつかの例では、逆変換ユニット156は、ビデオエンコーダ20からのシグナリングに基づいて、変換係数ブロックに適用すべき逆変換を決定し得る。そのような例では、逆変換ユニット156は、変換係数ブロックに関連付けられたツリーブロックの4分木のルートノードにおいてシグナリングされた変換に基づいて、逆変換を決定し得る。他の例では、逆変換ユニット156は、ブロックサイズ、コーディングモードなど、1つまたは複数のコーディング特性から逆変換を推論し得る。いくつかの例では、逆変換ユニット156はカスケード逆変換を適用し得る。
[00125]いくつかの例では、動き補償ユニット162は、補間フィルタに基づく補間を実施することによって、PUの予測ビデオブロックを改良し得る。サブサンプル精度をもつ動き補償のために使用されるべき補間フィルタのための識別子が、シンタックス要素中に含まれ得る。動き補償ユニット162は、参照ブロックのサブ整数サンプルについての補間値を計算するために、PUの予測ビデオブロックの生成中にビデオエンコーダ20によって使用された同じ補間フィルタを使用し得る。動き補償ユニット162は、受信されたシンタックス情報に従って、ビデオエンコーダ20によって使用された補間フィルタを決定し、予測ビデオブロックを生成するためにその補間フィルタを使用し得る。
[00126]図6〜図7に関して以下でさらに説明するように、予測処理ユニット152は、図6〜図7に示されている方法を実施することによってPU(または他の参照レイヤブロックおよび/またはエンハンスメントレイヤブロックまたはビデオユニット)をコーディング(たとえば、符号化または復号)し得る。たとえば、動き補償ユニット162、イントラ予測ユニット164、またはレイヤ間予測ユニット166は、一緒にまたは別々に、図6〜図7に示されている方法を実施するように構成され得る。
[00127]PUが、イントラ予測を使用して符号化される場合、イントラ予測ユニット164は、PUのための予測ビデオブロックを生成するためにイントラ予測を実施し得る。たとえば、イントラ予測ユニット164は、ビットストリーム中のシンタックス要素に基づいて、PUのためのイントラ予測モードを決定し得る。ビットストリームは、PUのイントラ予測モードを決定するためにイントラ予測ユニット164が使用し得るシンタックス要素を含み得る。
[00128]いくつかの事例では、シンタックス要素は、イントラ予測ユニット164が別のPUのイントラ予測モードを使用して現在PUのイントラ予測モードを決定すべきであることを示し得る。たとえば、現在PUのイントラ予測モードは隣接PUのイントラ予測モードと同じであることがあり得る。言い換えれば、隣接PUのイントラ予測モードは現在PUに対して最確モードであり得る。したがって、この例では、ビットストリームは、PUのイントラ予測モードが隣接PUのイントラ予測モードと同じであることを示す、小さいシンタックス要素を含み得る。イントラ予測ユニット164は、次いで、空間的に隣接するPUのビデオブロックに基づいてPUの予測データ(たとえば、予測サンプル)を生成するために、イントラ予測モードを使用し得る。
[00129]上記で説明したように、ビデオデコーダ30もレイヤ間予測ユニット166を含み得る。レイヤ間予測ユニット166は、SVCにおいて利用可能である1つまたは複数の異なるレイヤ(たとえば、ベースレイヤまたは参照レイヤ)を使用して現在ブロック(たとえば、EL中の現在ブロック)を予測するように構成される。そのような予測はレイヤ間予測と呼ばれることがある。レイヤ間予測ユニット166は、レイヤ間冗長性を低減するために予測方法を利用し、それによって、コーディング効率を改善し、計算リソース要件を低減する。レイヤ間予測のいくつかの例としては、レイヤ間イントラ予測、レイヤ間動き予測、およびレイヤ間残差予測がある。レイヤ間イントラ予測は、エンハンスメントレイヤ中の現在ブロックを予測するために、ベースレイヤ中のコロケートブロックの再構成を使用する。レイヤ間動き予測は、エンハンスメントレイヤ中の動作を予測するために、ベースレイヤの動き情報を使用する。レイヤ間残差予測は、エンハンスメントレイヤの残差を予測するために、ベースレイヤの残差を使用する。レイヤ間予測方式の各々について、以下でより詳細に説明する。
[00130]再構成ユニット158は、CUのビデオブロックを再構成するために、CUのTUに関連付けられた残差ビデオブロックと、CUのPUの予測ビデオブロック、たとえば、適用可能なとき、イントラ予測データまたはインター予測データのいずれかとを使用し得る。したがって、ビデオデコーダ30は、ビットストリーム中のシンタックス要素に基づいて、予測ビデオブロックと残差ビデオブロックとを生成し得、予測ビデオブロックと残差ビデオブロックとに基づいて、ビデオブロックを生成し得る。
[00131]再構成ユニット158がCUのビデオブロックを再構成した後、フィルタユニット159は、CUに関連付けられたブロッキングアーティファクトを低減するためにデブロッキング演算を実施し得る。フィルタユニット159が、CUに関連付けられたブロッキングアーティファクトを低減するためにデブロッキング演算を実施した後、ビデオデコーダ30はCUのビデオブロックを復号ピクチャバッファ160に記憶し得る。復号ピクチャバッファ160は、後続の動き補償、イントラ予測、および図1Aまたは図1Bのディスプレイデバイス32などのディスプレイデバイス上での提示のために、参照ピクチャを与え得る。たとえば、ビデオデコーダ30は、復号ピクチャバッファ160中のビデオブロックに基づいて、他のCUのPUに対してイントラ予測演算またはインター予測演算を実施し得る。
マルチレイヤデコーダ
[00132]図3Bは、本開示で説明する態様による技法を実装し得る(単にビデオデコーダ33とも呼ばれる)マルチレイヤビデオデコーダ33の一例を示すブロック図である。ビデオデコーダ33は、SHVCおよびマルチビューコーディングの場合など、マルチレイヤビデオフレームを処理するように構成され得る。さらに、ビデオデコーダ33は、本開示の技法のいずれかまたはすべてを実施するように構成され得る。
[00133]ビデオデコーダ33はビデオデコーダ30Aとビデオデコーダ30Bとを含み、それらの各々はビデオデコーダ30として構成され得、ビデオデコーダ30に関して上記で説明した機能を実施し得る。さらに、参照番号の再利用によって示されるように、ビデオデコーダ30Aおよび30Bは、ビデオデコーダ30としてシステムとサブシステムとのうちの少なくともいくつかを含み得る。ビデオデコーダ33は、2つのビデオデコーダ30Aおよび30Bを含むものとして示されているが、ビデオデコーダ33は、そのようなものとして限定されず、任意の数のビデオデコーダ30レイヤを含み得る。いくつかの実施形態では、ビデオデコーダ33はアクセスユニット中の各ピクチャまたはフレームについてビデオデコーダ30を含み得る。たとえば、5つのピクチャを含むアクセスユニットは、5つのデコーダレイヤを含むビデオデコーダによって処理または復号され得る。いくつかの実施形態では、ビデオデコーダ33は、アクセスユニット中のフレームよりも多くのデコーダレイヤを含み得る。いくつかのそのような場合では、ビデオデコーダレイヤのいくつかは、いくつかのアクセスユニットを処理するときに非アクティブであり得る。
[00134]ビデオデコーダ30Aおよび30Bに加えて、ビデオデコーダ33はアップサンプリングユニット92を含み得る。いくつかの実施形態では、アップサンプリングユニット92は、フレームまたはアクセスユニットのための参照ピクチャリストに追加されるべきエンハンストレイヤを作成するために、受信されたビデオフレームのベースレイヤをアップサンプリングし得る。このエンハンストレイヤは復号ピクチャバッファ160に記憶され得る。いくつかの実施形態では、アップサンプリングユニット92は、図2Aのリサンプリングユニット90に関して説明した実施形態の一部または全部を含むことができる。いくつかの実施形態では、アップサンプリングユニット92は、レイヤをアップサンプリングすることと、スライス境界ルールおよび/またはラスタ走査ルールのセットに準拠するために1つまたは複数のスライスを再編成、再定義、変更、または調整することとを行うように構成される。場合によっては、アップサンプリングユニット92は、受信されたビデオフレームのレイヤをアップサンプリングおよび/またはダウンサンプリングするように構成されたリサンプリングユニットであり得る。
[00135]アップサンプリングユニット92は、下位レイヤデコーダ(たとえば、ビデオデコーダ30A)の復号ピクチャバッファ160からピクチャまたはフレーム(またはピクチャに関連付けられたピクチャ情報)を受信し、ピクチャ(または受信されたピクチャ情報)をアップサンプリングするように構成され得る。このアップサンプリングされたピクチャは、次いで、下位レイヤデコーダと同じアクセスユニット中のピクチャを復号するように構成された上位レイヤデコーダ(たとえば、ビデオデコーダ30B)の予測処理ユニット152に与えられ得る。ある場合には、上位レイヤデコーダは、下位レイヤデコーダから削除された1つのレイヤである。他の場合には、図3Bのレイヤ0デコーダとレイヤ1デコーダとの間に1つまたは複数の上位レイヤデコーダがあり得る。
[00136]場合によっては、アップサンプリングユニット92は省略またはバイパスされ得る。そのような場合、ビデオデコーダ30Aの復号ピクチャバッファ160からのピクチャは、直接、または少なくともアップサンプリングユニット92に与えられることなしに、ビデオデコーダ30Bの予測処理ユニット152に与えられ得る。たとえば、ビデオデコーダ30Bに与えられたビデオデータと、ビデオデコーダ30Aの復号ピクチャバッファ160からの参照ピクチャとが同じサイズまたは解像度である場合、参照ピクチャは、アップサンプリングなしにビデオデコーダ30Bに与えられ得る。さらに、いくつかの実施形態では、アップサンプリングユニット92は、ビデオデコーダ30Aの復号ピクチャバッファ160から受信された参照ピクチャをアップサンプリングまたはダウンサンプリングするように構成されたリサンプリングユニット90であり得る。
[00137]図3Bに示されているように、ビデオデコーダ33は、デマルチプレクサ99、またはdemuxをさらに含み得る。demux99は符号化ビデオビットストリームを複数のビットストリームに分割することができ、demux99によって出力された各ビットストリームは異なるビデオデコーダ30Aおよび30Bに与えられる。複数のビットストリームは、ビットストリームを受信することによって作成され得、ビデオデコーダ30Aおよび30Bの各々は、所与の時間においてビットストリームの一部分を受信する。場合によっては、demux99において受信されるビットストリームからのビットは、ビデオデコーダの各々(たとえば、図3Bの例ではビデオデコーダ30Aおよび30B)の間で一度に1ビットずつ交替され得るが、多くの場合、ビットストリームは別様に分割される。たとえば、ビットストリームは、一度に1ブロックずつビットストリームを受信するビデオデコーダを交替することによって分割され得る。別の例では、ビットストリームは、非1:1比のブロックによって、ビデオデコーダ30Aおよび30Bの各々に分割され得る。たとえば、ビデオデコーダ30Aに与えられる各ブロックについて、2つのブロックがビデオデコーダ30Bに与えられ得る。いくつかの実施形態では、demux99によるビットストリームの分割はプリプログラムされ得る。他の実施形態では、demux99は、宛先デバイス14を含む宛先デバイス上のプロセッサからなど、ビデオデコーダ33の外部のシステムから受信された制御信号に基づいてビットストリームを分割し得る。制御信号は、入力インターフェース28からのビデオの解像度またはビットレートに基づいて、リンク16の帯域幅に基づいて、ユーザに関連付けられたサブスクリプション(たとえば、有料サブスクリプション対無料サブスクリプション)に基づいて、またはビデオデコーダ33によって取得可能な解像度を決定するための他のファクタに基づいて生成され得る。
イントラランダムアクセスポイント(IRAP)ピクチャ
[00138]いくつかのビデオコーディング方式は、様々なランダムアクセスポイントを、ビットストリームが、ビットストリーム中でそれらのランダムアクセスポイントに先行するいかなるピクチャも復号する必要なしに、それらのランダムアクセスポイントのいずれかから始めて復号され得るように、ビットストリーム全体にわたって与え得る。そのようなビデオコーディング方式では、(たとえば、ランダムアクセスポイントを与えるピクチャと同じアクセスユニット中にあるピクチャを含む)出力順序においてランダムアクセスポイントに後続するピクチャは、ランダムアクセスポイントに先行するいかなるピクチャも使用することなしに正しく復号され得る。たとえば、ビットストリームの一部分が送信の間または復号の間に失われても、デコーダは、次のランダムアクセスポイントから始めてビットストリームの復号を再開することができる。ランダムアクセスのサポートは、たとえば、動的なストリーミングサービス、シーク動作、チャネル切替えなどを可能にし得る。場合によっては、出力順序においてランダムアクセスポイントに後続するピクチャは、復号のためにリーディングピクチャを使用し得る。リーディングピクチャは、ビットストリーム中でランダムアクセスポイントに後続し、ランダムアクセスポイントの前に出力および表示されるピクチャを指すことがある。
[00139]いくつかのコーディング方式では、そのようなランダムアクセスポイントは、IRAPピクチャと呼ばれるピクチャによって与えられ得る。たとえば、アクセスユニット(「auA」)中に含まれているエンハンスメントレイヤ(「layerA」)中の(たとえば、エンハンスメントレイヤIRAPピクチャによって与えられる)ランダムアクセスポイントは、各参照レイヤ(「layerB」)中にあり、復号順序においてauAに先行するアクセスユニット(「auB」)中に含まれているランダムアクセスポイント(または、auA中に含まれているランダムアクセスポイント)を有するlayerAのlayerB(たとえば、layerAを予測するために使用されるレイヤである参照レイヤ)に関して出力順序においてauBに後続する(auB中に位置するピクチャを含む)layerA中のピクチャが、auBに先行するlayerA中のいかなるピクチャも復号する必要なしに正しく復号可能であり得るように、レイヤ特有のランダムアクセスを与え得る。たとえば、復号がauBから開始し、layerB中およびauB中のピクチャが復号可能であるとき、auA中にあるレイヤA中のピクチャ、およびauAに後続するlayerA中のピクチャは復号可能である。
[00140]IRAPピクチャは、イントラ予測を使用してコーディングされ(たとえば、同じレイヤ中の他のピクチャを参照することなしにコーディングされ)得、たとえば、瞬時復号リフレッシュ(IDR:instantaneous decoding refresh)ピクチャと、クリーンランダムアクセス(CRA:clean random access)ピクチャと、切断リンクアクセス(BLA:broken link access)ピクチャとを含み得る。ビットストリーム中にIDRピクチャがあるとき、復号順序においてIDRピクチャに先行するピクチャは、復号順序においてIDRピクチャに後続するピクチャによる予測のために使用されない。ビットストリーム中にCRAピクチャがあるとき、CRAピクチャに後続するピクチャは、復号順序においてCRAピクチャに先行するピクチャを予測のために使用することも、使用しないこともある。復号順序においてCRAピクチャに後続するが、復号順序においてCRAピクチャに先行するピクチャを使用するピクチャは、ランダムアクセススキップリーディング(RASL:random access skipped leading)ピクチャと呼ばれることがある。復号順序においてIRAPピクチャに後続し、出力順序においてIRAPピクチャに先行する別のタイプのピクチャは、復号順序においてIRAPピクチャに先行するいかなるピクチャへの参照も含んでいないことがあるランダムアクセス復号可能リーディング(RADL:random access decodable leading)ピクチャである。CRAピクチャに先行するピクチャが利用可能でない場合、RASLピクチャはデコーダによって廃棄され得る。RASLピクチャは、BLAピクチャの後に存在することも、存在しないこともある。RASLピクチャがBLAピクチャの後に存在するとき、RASLピクチャは、それらの参照ピクチャが利用可能でないことがあるので、無視され、および/または復号されないべきである。IRAPピクチャであるベースレイヤピクチャ(たとえば、0のレイヤID値を有するピクチャ)を含んでいるアクセスユニット(たとえば、複数のレイヤにわたって同じ出力時間に関連付けられたコード化ピクチャを含むピクチャのグループ)は、IRAPアクセスユニットと呼ばれることがある。
IRAPピクチャのクロスレイヤ整合
[00141]SHVCおよびMV−HEVCなどのSHVC拡張では、IRAPピクチャは、異なるレイヤにわたって整合される(たとえば、同じアクセスユニットに含まれている)ことを必要とされないことがある。たとえば、IRAPピクチャが整合されることを必要とされる場合、少なくとも1つのIRAPピクチャを含んでいるいかなるアクセスユニットもIRAPピクチャのみを含んでいることになる。一方、IRAPピクチャが、単一のアクセスユニット中で、整合されることを必要とされない場合、(たとえば、第1のレイヤ中の)あるピクチャがIRAPピクチャであり得、(たとえば、第2のレイヤ中の)別のピクチャが非IRAPピクチャであり得る。ビットストリーム中にそのような非整合IRAPピクチャを有することは、いくつかの利点を与え得る。たとえば、2レイヤビットストリーム中で、エンハンスメントレイヤ中よりも多くのIRAPピクチャがベースレイヤ中にある場合、ブロードキャストおよびマルチキャストの適用例において、低い同調遅延およびより高いコーディング効率が達成され得る。
[00142]いくつかのビデオコーディング方式では、POCが、復号ピクチャが表示される相対的な順序を追跡するために使用され得る。そのようなコーディング方式のうちのいくつかにより、POC値は、いくつかのタイプのピクチャがビットストリーム中に出現するときはいつでもリセットされる(たとえば、0に設定されるか、またはビットストリーム中でシグナリングされた何らかの値に設定される)ことになり得る。たとえば、あるIRAPピクチャのPOC値がリセットされ得、復号順序においてそれらのIRAPピクチャに先行する他のピクチャのPOC値もリセットされることになる。IRAPピクチャが異なるレイヤにわたって整合されることを必要とされないとき、このことが問題となり得る。たとえば、あるピクチャ(「picA」)がIRAPピクチャであり、同じアクセスユニット中の別のピクチャ(「picB」)がIRAPピクチャでないとき、picAがIRAPピクチャであることに起因してリセットされる、picAを含んでいるレイヤ中のピクチャ(「picC」)のPOC値は、リセットされない、picBを含んでいるレイヤ中のピクチャ(「picD」)のPOC値と異なることがあり得、ここで、picCおよびpicDは同じアクセスユニット中にある。このことは、それらが同じアクセスユニット(たとえば、同じ出力時間)に属していても、picCおよびpicDが異なるPOC値を有することを引き起こす。したがって、この例では、picCおよびpicDのPOC値を導出するための導出プロセスは、POC値およびアクセスユニットの定義と一致するPOC値を生成するように修正され得る。
マルチレイヤコーデックのための時間動きベクトル予測指示および表現フォーマット更新
[00143]SHVCおよびMV−HEVCの早期バージョン(たとえば、SHVCワーキングドラフト6、MV−HEVCワーキングドラフト8など)は、現在ピクチャのslice_temporal_mvp_enabled_flagと時間IDの両方の値が0に等しいとき、およびピクチャがベースレイヤ(たとえば、レイヤID=0を有するレイヤ)に属するとき、復号順序において現在ピクチャに先行するピクチャからの時間動きベクトルが、復号順序において現在ピクチャに後続するいかなるピクチャのTMVPにおいても使用されるべきでないという制限を実装する。いくつかの態様によれば、本開示では、現在ピクチャの先行ピクチャは、復号順序における先行ピクチャを指すことがあり、現在ピクチャの後続ピクチャは、復号順序における後続ピクチャを指すことがある。slice_temporal_mvp_enabled_flagは、スライス中の現在ピクチャが、たとえば、参照ピクチャ(たとえば、コロケートピクチャ)として現在ピクチャの先行ピクチャに基づいて、TMVPを使用することができるかどうかを示すことができる。ビットストリームは、時間スケーラビリティをサポートし、実施形態に応じて異なるフレームレートを与え得る。一実施形態では、時間ID=0をもつ時間レイヤはデフォルトフレームレートを与えることができる。時間ID=0をもつ時間レイヤはベース時間サブレイヤと呼ばれることがある。1つまたは複数の時間サブレイヤがあり得、下位時間サブレイヤ中のピクチャが参照として上位時間サブレイヤ中のピクチャを使用すべきでないという制約がインター予測のために適用され得る。ピクチャがベースレイヤに属するという制限および条件は、たとえば、エンハンスメントレイヤがTMVPを使用することを可能にするために導入された。しかしながら、エンハンスメントレイヤは、制限をベースレイヤに限定することなしにTMVPを使用し得る。制限に関するいくつかの詳細、および制限に関連する問題について、たとえば、slice_temporal_mvp_enabled_flagのセマンティクスとprev_pics_not_used_flagのセマンティクスとを説明するセクションにおいて、以下でさらに詳細に説明する。
[00144]SHVCおよびMV−HEVCの早期バージョンはまた、現在ピクチャに先行する現在レイヤのピクチャが、同じレイヤのいかなる後続ピクチャのためのTMVPにおいてもコロケートピクチャとして使用されるべきでないかどうかの指示を与える、TMVP制約SEIメッセージと呼ばれる新しいSEIメッセージを追加する。たとえば、TMVP制約SEIメッセージは、復号順序における現在レイヤ中の現在ピクチャの先行ピクチャが、復号順序における現在レイヤ中の現在ピクチャの後続ピクチャのTMVPのために使用され得るかどうかを示すprev_pics_not_used_flagと呼ばれるフラグを含むことができる。しかしながら、SHVCおよびMV−HEVCの早期バージョンにおけるprev_pics_not_used_flagのセマンティクスは、slice_temporal_mvp_enabled_flagとの競合につながることがある。たとえば、現在ピクチャを含んでいるスライスのスライスヘッダ中のslice_temporal_mvp_enabled_flagは、1に等しく、現在ピクチャが、コロケートピクチャとして現在ピクチャの先行ピクチャを参照してTMVPを使用することができることを示すが、現在ピクチャのためのTMVP制約SEIメッセージ中のprev_pics_not_used_flagは、1に等しく、復号における現在ピクチャの後続ピクチャが、TMVPのために復号順序における現在ピクチャの先行ピクチャを使用すべきでないことを示す。そのような場合、後続ピクチャは、TMVPのためにコロケートピクチャとして現在ピクチャを使用することができるので、先行ピクチャを使用する現在ピクチャのTMVPに導入されたエラーが後続ピクチャに伝搬され得る。後続ピクチャは、TMVPのために現在ピクチャのいかなる先行ピクチャも使用していないが、後続ピクチャは、TMVPのために現在ピクチャ自体を使用し得る。フラグおよびTMVP制約SEIメッセージに関するいくつかの詳細および関係する問題について、たとえば、slice_temporal_mvp_enabled_flagのセマンティクスとprev_pics_not_used_flagのセマンティクスとを説明するセクションにおいて、以下でさらに詳細に説明する。
[00145]これらおよび他の課題に対処するために、いくつかの態様による技法は、現在ピクチャのいかなる先行ピクチャからの時間動きベクトルも、復号順序における現在ピクチャのいかなる後続ピクチャのTMVPにおいても使用されるべきでないという制限をすべてのレイヤに適用することができる。たとえば、制限は、ピクチャがベースレイヤに属するのか他のレイヤに属するのかにかかわらず、slice_temporal_mvp_enabled_flag=0および時間ID=0であるとき、ピクチャに適用され得る。一例では、エンハンスメントレイヤが、制限をベースレイヤに限定することなしにTMVPを使用することを可能にするために、slice_temporal_mvp_enabled_flagとともにTMVP制約SEIメッセージが使用され得る。
[00146]その上、本技法は、たとえば、現在ピクチャのためのslice_temporal_mvp_enabled_flagと現在ピクチャのためのprev_pics_not_used_flagとの間の競合を解決するために、prev_pics_not_used_flagのセマンティクスを変更することができる。たとえば、prev_pics_not_used_flagは、slice_temporal_mvp_enabled_flagよりも高い優先順位を取ることができる。一例では、prev_pics_not_used_flagは、現在ピクチャの先行ピクチャが現在ピクチャならびに復号順序における現在ピクチャの後続ピクチャのTMVPのために使用されるべきでないことを示すように変更される。prev_pics_not_used_flagの値が1に等しい場合、先行ピクチャは現在ピクチャまたはそれの後続ピクチャのTMVPのために使用されない。先行ピクチャがTMVPのために使用されないとき、先行ピクチャの動きベクトルは、たとえば、動きベクトルストレージから削除され得る。
[00147]slice_temporal_mvp_enabled_flagによって課される制限およびprev_pics_not_used_flagによって課される制限は、エラー耐性目的で実装され得る。エラー耐性は、たとえば、復号プロセスにおいて、エラーが発生したことが検出されたとき、他のピクチャへのエラーの伝搬を防止または低減することを指すことがある。予測のために、エラーをもつピクチャを参照しないことは、エラーが他のピクチャの品質に影響を及ぼすのを阻止することができる。しかしながら、slice_temporal_mvp_enabled_flagとprev_pics_not_used_flagの両方が1に等しいとき、現在ピクチャのTMVPにおけるエラーは、依然として、復号順序における現在ピクチャの後続ピクチャのTMVPに導入され得る。現在ピクチャと後続ピクチャの両方がTMVPにおいて現在ピクチャの先行ピクチャを使用することを可能にしないことによって、エラー耐性は著しく改善および増加され得る。
[00148]いくつかの態様によれば、slice_temporal_mvp_enabled_flagによって課される制限がベースレイヤに限定されるべきであるという条件は、依然として、エンハンスメントレイヤがTMVPを使用することを可能にしながら、エラー耐性特徴の使用を可能にするために実装された。しかしながら、エンハンスメントレイヤは、ベースレイヤに限定するという条件なしに、依然として、エラー耐性特徴とともにTMVPを使用することができる。たとえば、slice_temporal_mvp_enabled_flagおよびprev_pics_not_used_flagは両方とも1に等しくなり得る。上記で説明したように、現在ピクチャの予測におけるエラーが、復号順序における現在ピクチャの後続ピクチャの予測に影響を及ぼすことを防止され得るので、prev_pics_not_used_flagの変更セマンティクスはエラー耐性態様をさらに向上させる。
[00149]さらに、SHVCおよびMV−HEVCの早期バージョンでは、VPS中のシンタックス要素またはフラグの値が、SPS中の対応するシンタックス要素またはフラグの値を制約するために使用される。VPSおよびSPSは、両方とも表現フォーマット情報を含むことができる。表現フォーマット情報は、ピクチャ幅および高さ(たとえば、ピクチャサイズ)、クロマ成分のビット深度、ルーマ成分のビット深度、色平面情報、コンフォーマンスウィンドウサイズを含むことができる。VPSはすべてのレイヤに適用され得、概して、1つのVPSがビットストリームのために定義され得る。SPSは特定のレイヤに固有であり得、ビットストリームが複数のシーケンスを含む場合、複数のSPSが存在することができる。概して、VPS中の値はワーストケースシナリオ値または最大値を表し、SPSは、VPS中の値よりも小さいかまたはそれに等しい異なる値を適宜に指定することができる。したがって、VPS中のシンタックス要素またはフラグの値は、SPSのための表現フォーマット情報が更新されたとき、SPS中の対応するシンタックス要素またはフラグの値を制約することができる。VPS中のワーストケースシナリオ値または最大値は、ビットストリームを復号するためのリソース(たとえば、メモリ)を準備するためにデコーダによって使用され得るので、これらの値を有することは重要であり得、したがって、SPS中で行われた表現フォーマットのいかなる変更も、必要とされるリソースが、準備されたリソースを超えることを引き起こすべきでないことは重要であり得る。しかしながら、いくつかのシンタックス要素またはフラグでは、ワーストケースシナリオ値または最大値が適用可能であるかどうかは不明瞭である。一例は、0または1のいずれかの値を有するフラグであり得る。
[00150]これらおよび他の課題に対処するために、いくつかの態様による技法は、表現フォーマット中のseparate_colour_plane_flagのための制約を削除することができる。separate_colour_plane_flagは、クロマフォーマットの3つの色成分(たとえば、Y、Cb、またはCr)が別々にコーディングされるか否かを示すことができる。separate_colour_plane_flagの値がSPS中で更新されるべきであるとき、本技法は、separate_colour_plane_flagの所望の値がVPS中のseparate_colour_plane_flagの値よりも小さいかまたはそれに等しいかどうかを検査する必要がない。たとえば、ビットストリームを復号するための必要とされるリソースは、separate_color_plan_flagの値が0または1に等しいかどうかにかかわらず同じである。
[00151]このようにして、separate_colour_plane_flagの値は、よりフレキシブルな様式でSPS中で更新され得、表現フォーマット中のseparate_colour_plane_flagの更新がより効率的になり得る。
slice_temporal_mvp_enabled_flagのセマンティクス
[00152]SHVCおよびMV−HEVCの早期バージョンでは、slice_temporal_mvp_enabled_flagのセマンティクスは以下のように定義される。変更は、(たとえば、JCTVC−0189に基づく)早期バージョンの前のバージョンに対するものである。SHVCおよびMV−HEVCの前のバージョンへの追加はイタリック体で示されている。
Figure 2017525224
表1−SHVCおよびMV−HEVCの早期バージョンにおけるslice_temporal_mvp_enabled_flagのセマンティクス
[00153]TMVP制約SEIメッセージと呼ばれる補足エンハンスメント情報(SEI)メッセージの追加は、復号順序において現在ピクチャに先行する現在レイヤのピクチャが、同じレイヤの、復号順序におけるいかなる後続ピクチャのためのTMVPにおいてもコロケートピクチャとして使用されないかどうかの指示を与える。
[00154]上記の2つの採用された変更がある場合、TMVPの使用の指示のための既存の技法に関する問題が残る。そのような問題について以下で説明する。
[00155]HEVCでは、0に等しいTemporalIdをもつピクチャに対する、0に等しいslice_temporal_mvp_enabled_flagによって課される制限はエラー耐性目的のためであった。制限が適用されたとき、デコーダは、現在ピクチャが、0に等しいslice_temporal_mvp_enabled_flagとTemporalIdの両方を有するとき、以前のピクチャの動きベクトルを空にすることができる。
[00156]第1の変更からの「NumDirectRefLayers[currLayerId]が0に等しい」という条件の追加により、制限が独立レイヤのみに適用されることになった。この変更に対するモチベーションは、(同じアクセスユニット中の参照レイヤのピクチャからの動きベクトルを使用して)エンハンスメントレイヤピクチャを復号するためのTMVPを可能にし、同時に、エラー耐性制約が適用されることを示すことを可能にすることであった。しかしながら、エンハンスメントレイヤピクチャは、1に等しいslice_temporal_mvp_enabled_flagを有し、同時に、1に等しいprev_pics_not_used_flagをもつTMVP制約SEIメッセージを有することができるので、モチベーションは、条件の追加なしに満たされ得る。条件が削除されたとき、slice_temporal_mvp_enabled_flagのセマンティクスは、HEVCバージョン1(すなわち、上記で引用したHEVC WD)と整合した形ですべてのレイヤについて無矛盾であろう。
prev_pics_not_used_flagのセマンティクス
[00157]SHVCおよびMV−HEVCの早期バージョンでは、TMVP制約SEIメッセージ中のprev_pics_not_used_flagのセマンティクスは以下のように定義される。
Figure 2017525224
表2−SHVCおよびMV−HEVCの早期バージョンにおけるprev_pics_not_used_flagのセマンティクス
[00158]図4に、prev_pics_not_used_flagの既存のセマンティクスに関する問題を示す。この例では、影が付けられたレイヤ1ピクチャは、1に等しいprev_pics_not_used_flagをもつTMVP制約SEIメッセージに関連付けられる。現在ピクチャに関連付けられたTMVP制約SEIメッセージ中でシンタックス要素の値が1に等しいとき、現在ピクチャは、コロケートピクチャと同じレイヤからの、復号順序における以前のピクチャをTMVPのために使用することが可能である。また、同じレイヤからの、復号順序において現在ピクチャに続くピクチャは、TMVPのためにコロケートピクチャとして現在ピクチャを使用することが可能である。したがって、prev_pics_not_used_flagを1に等しく設定することによって達成されると考えられるエラー耐性特徴は、間接的コロケート参照が可能であり、したがって、同じレイヤ中の、復号順序において現在ピクチャよりも前のピクチャに対してエラーが発生した場合、そのエラーが、同じレイヤ中の、復号順序において後のピクチャに伝搬することが可能であるので、達成されないことがある。
マルチレイヤコンテキストにおける動きベクトル予測エラー耐性
[00159]TMVP制約SEIメッセージは、エラー(たとえば、ピクチャ損失)があった場合、不正確な動きベクトル予測の伝搬を阻止することができるので、TMVP制約SEIメッセージはエラー耐性(ER:error resilience)特徴を与える。しかしながら、SEIメッセージによって与えられるER特徴は、すべてのレイヤのためのものではなく、SEIメッセージを含んでいるレイヤのみのためのものである。たとえば、ビットストリームが3つのレイヤを有し、TMVP制約SEIメッセージがレイヤ0およびレイヤ1のみのためにのみ存在する場合、正確な動きベクトル予測は、復号順序において、SEIメッセージを含んでいるアクセスユニットに続く、レイヤ0またはレイヤ1に関するピクチャに対してのみ保証され、SEIメッセージを含んでいるアクセスユニットに続くレイヤ2中のピクチャに対しては保証されないことがある。図5に、そのような例を示す。アクセスユニット(AU)E内のレイヤ0およびレイヤ1中にのみ含まれているTMPV制約SEIメッセージは、SEIメッセージのprev_pics_not_used_flagの値が1に等しいとき、AU F、AU G、およびAU Hなど中のすべてのピクチャが、AU D、AU C、AU B、および以前のAUのレイヤ0およびレイヤ1からのピクチャを使用することができないことを意味する。これは、AU Eの前のAUのレイヤ0またはレイヤ1中のピクチャのうちの1つにエラーがあった場合、AU F、AU G、AU Hなどのレイヤ0およびレイヤ1中のピクチャのための動きベクトル予測が正確であることのみを保証することになる。AU Fのレイヤ2ピクチャは、たとえば、TMVP参照のためにAU Dのレイヤ2ピクチャを使用することができ、AU Dのレイヤ2ピクチャは、TMVP参照のためにAU Dのレイヤ1ピクチャを使用することができる。これは、この例ではレイヤ2に対してERが保証されないような、TMVPのための間接的参照を生じる。
separate_color_plane_flagの更新
[00160]SHVCおよびMV−HEVCの早期バージョンでは、VPS中の表現フォーマットシンタックス構造は、ピクチャ幅、ピクチャ高さ、ルーマおよびクロマ成分のビット深度、ならびにクロマフォーマット、および色平面がどのようにコーディングされるかを含む、コード化ピクチャのいくつかの本質的プロパティを記述するために必要とされるパラメータをレイヤごとに指定する。0よりも大きいnuh_layer_idを有するSPSでは、表現フォーマットパラメータは、update_rep_format_flag指示を使用して更新されることを可能にされる。0よりも大きいnuh_layer_idを有し、0よりも大きいnuh_layer_idをもつSPSを参照するレイヤの場合、SPSが、1に等しいupdate_rep_format_flagを有するとき、更新された表現フォーマットパラメータは、そのレイヤに対応するVPS中の表現フォーマットパラメータ中でシグナリングされたものよりも小さくなるように制限される。これらのパラメータに関する推論規則および制約を以下に与え、ここで、イタリック体の段落は議論の主題に関係する。
Figure 2017525224
Figure 2017525224
表3−SHVCおよびMV−HEVCの早期バージョンにおいて表現フォーマットを更新すること
[00161]上記のイタリック体の制約中に含まれるシンタックス要素(chroma_format_idc、separate_colour_plane_flag、pic_width_in_luma_samples、pic_height_in_luma_samples、bit_depth_luma_minus8、およびbit_depth_chroma_minus8)のうち、separate_colour_plane_flagを除くすべてのシンタックス要素は、シンタックス要素の値との直線関係を有するパラメータ/変数を指定する。しかしながら、separate_colour_plane_flagはそのような関係を有しない。それは、SPSを参照するピクチャの異なる色平面が一緒にコーディングされるのか、別々にコーディングされるのかを記述する。separate_colour_plane_flagのセマンティクスを以下に与える。
Figure 2017525224
表4−SHVCおよびMV−HEVCの早期バージョンにおけるseparate_colour_plane_flagのセマンティクス
[00162]SPSの表現フォーマットパラメータが更新され、更新された表現フォーマットパラメータのseparate_colour_plane_flagの値が、(上記の制約により)VPS中の対応する値小さいかまたはそれに等しくなるように制限されるとき、以下の使用事例が可能にされる。特定のレイヤのピクチャの色平面が別々にコーディングされるようにVPS中で指定されているが、表現フォーマットパラメータを更新する特定のSPSを参照する同じレイヤのピクチャについて、一緒にコーディングされた色平面を有することになることが指定される。色平面が、同じビットストリーム内でレイヤについて別様に(一緒におよび/または独立した)コーディングされる使用事例は一般的ではないことがある。色平面が、同じビットストリーム内のレイヤについて別様に(一緒におよび/または独立した)コーディングされる、そのような使用事例が存在する場合、以下の事例がなぜ可能にされないかは不明瞭である。レイヤのピクチャの色平面が一緒にコーディングされるようにVPS中で指定されているが、更新されたSPSは、更新されたSPSを参照するピクチャが、別々にコーディングされた色平面を有することになることを指定する。
[00163]表現フォーマットパラメータの更新に対してイタリック体の制限を課することのモチベーションは、VPSによって必要とされると示されたリソース/能力が、更新されたSPSによって超えられないことを保証することであった。しかしながら、separate_colour_plane_flagのいずれの値(0または1)も、シグナリングまたは処理されるべきいかなる追加のデータも示さず、したがって、separate_colour_plane_flagは、この制限のために考慮される必要がない。
マルチレイヤコーデックにおけるTMVP指示および表現フォーマット更新
[00164]マルチレイヤコーデックにおけるTMVPの使用の指示のための既存の手法に関する上記で説明した問題を克服するために、本開示では、改善について以下で説明する。本開示では、以下で説明する技法および手法は、単独でまたは任意の組合せで使用され得る。
・ 現在ピクチャのslice_temporal_mvp_enabled_flagとTemporalIdの両方の値が0に等しいとき、復号順序において現在ピクチャに先行するいかなるピクチャからの時間動きベクトルも、復号順序において現在ピクチャに後続するいかなるコード化ピクチャの復号の際にも使用されないように、復号順序において現在ピクチャに後続し、現在ピクチャと同じレイヤ中にあるすべてのコード化ピクチャのためのシンタックス要素が制約され得るように、slice_temporal_mvp_enabled_flagのセマンティクスにおける制約を拡張すること。
− この制約は、いかなるレイヤに属するピクチャにも適用され得る。
− この制約は、デコーダが、slice_temporal_mvp_enabled_flagとTemporalIdの両方の値が0に等しいピクチャを受信したとき、デコーダが動きベクトルストレージを空にすることを可能にし得る。
・ TMVP制約SEIメッセージが存在し、現在ピクチャに関連付けられ、prev_pics_not_used_flagの値が1に等しいとき、現在ピクチャも、TMVPのためのコロケートピクチャとして、復号順序においてそれに先行する同じレイヤ中のピクチャを使用することを可能にされないような、TMVP制約SEIメッセージ中のprev_pics_not_used_flagのセマンティクスの変更。
− 1つの例示的な手法では、TMVP制約SEIメッセージが存在し、現在ピクチャに関連付けられ、prev_pics_not_used_flagの値が1に等しく、現在ピクチャのslice_temporal_mvp_enabled_flagの値が1に等しいとき、0に等しいslice_temporal_mvp_enabled_flagを有する現在レイヤの参照レイヤからのピクチャのみがTMVPのためのコロケートピクチャとして使用され得る。
− 別の例示的な手法では、TMVP制約SEIメッセージが存在し、現在ピクチャに関連付けられ、prev_pics_not_used_flagの値が1に等しく、現在ピクチャのslice_temporal_mvp_enabled_flagの値が1に等しいとき、現在レイヤの参照レイヤからのすべてのピクチャが、0に等しく設定されたslice_temporal_mvp_enabled_flagを有し得る。
・ 1に等しいprev_pics_not_used_flagの値をもつTMVP制約SEIメッセージが特定のlayerAについて存在するとき、layerAを直接または間接的に参照するすべてのレイヤも、1に等しいprev_pics_not_used_flagの値をもつTMVP制約SEIメッセージを含んでいることがあるような、TMVP制約SEIメッセージへの制約の追加。
− 1つの例示的な手法では、TMVP制約SEIメッセージが、すべてのレイヤに適用されるように定義される。
− 別の例示的な手法では、1に等しいprev_pics_not_used_flagとき、prev_pics_not_used_flagは、associatedLayerIdList中のいずれかの値に等しいnuh_layer_idを有し、復号順序において現在ピクチャを含んでいるアクセスユニットに先行するいかなるピクチャからの時間動きベクトルも、復号順序において現在ピクチャを含んでいるアクセスユニット内にあるかまたはそれに後続するいかなるコード化ピクチャの復号の際にも直接または間接的に使用されないように、復号順序において現在ピクチャを含んでいるアクセスユニット内にあるかまたはそれに後続するすべてのコード化ピクチャのためのシンタックス要素が制約されることを示し得る。0に等しいprev_pics_not_used_flagは、ビットストリームが、1に等しいprev_pics_not_used_flagによって示される制約を満たしても満たさなくてもよいことを示す。
・ 表現フォーマットを更新するとき、separate_colour_plane_flagの値の検査が必要とされないような、表現フォーマットパラメータの更新に対する制限からのseparate_colour_plane_flagの削除。これにより、ビットストリームは、separate_colour_plane_flagに値を0から1に、およびその逆に、フレキシブルに変更させることが可能になる。
− 1つの例示的な手法では、separate_colour_plane_flagの値がVPS中のすべてのrep_format()シンタックス構造中で同じになるように、制約が追加される。
− 別の例示的な手法では、シンタックス要素separate_colour_plane_flagは、VPS中で多くとも1回、たとえば、第1のrep_format()構造中でのみシグナリングされ、VPS中の残りのシグナリングされたrep_format()は、シンタックス要素を有さず、第1の構造から値を推論するものとする。
例示的な実施形態
[00165]上述の技法は、以下の例に示されているように実装され得る。例は、SHVCおよびMV−HEVC(たとえば、SHVC WD6およびMV−HEVC WD8)の以前のバージョンのコンテキストにおいて与えられる。SHVCおよびMV−HEVCの以前のバージョンへの追加はイタリック体で示され、SHVCおよびMV−HEVCの以前のバージョンからの削除は取消し線で示されている。
例示的な実施形態1
[00166]この実施形態は、slice_temporal_mvp_enabled_flagに対する制限を変更する。たとえば、slice_temporal_mvp_enabled_flag=0と、0に等しい時間IDとを有するピクチャに制限が適用されるという条件は、ベースレイヤのみではなく、すべてのレイヤに適用可能である。
Figure 2017525224
表5−例示的な実施形態1
例示的な実施形態2
[00167]この実施形態は、prev_pics_not_used_flagのセマンティクスを変更する。たとえば、変更は、prev_pics_not_used_flagが、フラグの値が1に等しく設定されたとき、現在ピクチャのTMVPのために、復号順序において現在ピクチャに先行するピクチャを使用することを可能にしないように、制約を追加する。
Figure 2017525224
表6−例示的な実施形態2
例示的な実施形態3
[00168]この実施形態は、表現フォーマットを更新することについての制限を変更する。たとえば、SPS中のフラグまたはシンタックス要素の値が、VPS中の対応するフラグまたはシンタックス要素の値よりも小さくなるかまたはそれに等しくなるべきであるという制限は、以下のようにseparate_colour_plane_flagに適用されない。
Figure 2017525224
表7−例示的な実施形態3
時間動きベクトル予測のための先行ピクチャを制限する方法
[00169]図6は、本開示の1つまたは複数の態様による、ビデオ情報をコーディングする方法を示すフローチャートである。本方法は、TMVPのための先行ピクチャの使用を制限することに関する。プロセス600は、実施形態によっては、エンコーダ(たとえば、図2A、図2Bなどに示されているエンコーダ)、デコーダ(たとえば、図3A、図3Bなどに示されているデコーダ)、または任意の他の構成要素によって実施され得る。プロセス600のブロックについて図3B中のデコーダ33に関して説明するが、プロセス600は、上述のように、エンコーダなど、他の構成要素によって実施され得る。デコーダ33のレイヤ1ビデオデコーダ30Bおよび/またはデコーダ33のレイヤ0デコーダ30Aが、実施形態によっては、プロセス600を実施し得る。図6に関して説明するすべての実施形態は、別々に、または互いと組み合わせて実装され得る。プロセス600に関係するいくつかの詳細が、たとえば、図4〜図5に関して上記で説明されている。
[00170]プロセス600はブロック601において開始する。デコーダ33は、複数のレイヤに関連付けられたビデオ情報を記憶するためのメモリ(たとえば、復号ピクチャバッファ160)を含むことができる。デコーダ33は、コーディングされるべき現在AUに関連付けられた情報を取得し得る。現在AUは、複数のレイヤからのピクチャを含んでいることができる。複数のレイヤは、コーディングされるべき現在レイヤを含むことができ、現在レイヤは、コーディングされるべき現在ピクチャを含むことができる。
[00171]ブロック602において、デコーダ33は、復号順序において現在レイヤ中の現在ピクチャに先行する先行ピクチャが、復号順序において現在レイヤ中の現在ピクチャに後続する後続ピクチャのTMVPのために使用されるかどうかを示す第1のフラグの値を決定する。第1のフラグは現在ピクチャに関連付けられ得る。一実施形態では、第1のフラグはSEIメッセージ中に含まれる。第1のフラグは、第1のフラグの値が1に等しいとき、現在レイヤ中の先行ピクチャが現在レイヤ中の後続ピクチャのTMVPのために使用されるべきでないことを示し得る。第1のフラグは、第1のフラグの値が0に等しいとき、現在レイヤ中の先行ピクチャが現在レイヤ中の現在ピクチャおよび/または後続ピクチャのTMVPのために使用され得ることを示し得る。一実施形態では、第1のフラグはprev_pics_not_used_flagを備える。先行ピクチャは、復号順序において現在ピクチャに先行することができ、後続ピクチャは、復号順序において現在ピクチャに後続することができる。いくつかの実施形態では、現在ピクチャはIDRピクチャを備える。
[00172]ブロック603において、デコーダ33は、第1のフラグの値が、現在レイヤ中の先行ピクチャが現在レイヤ中の後続ピクチャのTMVPのために使用されるべきでないことを示すと決定したことに応答して、現在ピクチャのTMVPのための参照ピクチャとして現在レイヤ中の先行ピクチャを使用することを控える。
[00173]いくつかの実施形態では、デコーダ33は、TVMPが有効にされるかどうかを示す第2のフラグにアクセスすることを控える。第2のフラグは、現在ピクチャを含むスライスのスライスヘッダ中に含まれ得、第2のフラグは現在ピクチャに関連付けられ得る。たとえば、デコーダ33は、第1のフラグの値が1に等しいとき、TVMPが有効にされるかどうかを示す第2のフラグにアクセスすることを控える。一実施形態では、デコーダ33は、第1のフラグの値が、現在レイヤ中の先行ピクチャが現在レイヤ中の後続ピクチャのTMVPのために使用されるべきでないことを示すと決定したことに応答して、第2のフラグにアクセスすることを控える。別の実施形態では、第2のフラグはslice_temporal_mvp_enabled_flagを備える。いくつかの実施形態では、現在AU中の複数のレイヤのすべてについて、第2のフラグが、TMVPが有効にされないことを示すとき、および現在ピクチャがベース時間サブレイヤ中にある(たとえば、現在ピクチャが、0に等しい時間IDを有する)とき、先行ピクチャは現在ピクチャのTMVPのために使用されるべきでない。他の実施形態では、現在AU中の複数のレイヤのすべてについて、第2のフラグが、TMVPが現在ピクチャのために有効にされないことを示すとき、および現在ピクチャがベース時間サブレイヤ中にあるとき、先行ピクチャは現在ピクチャおよび後続ピクチャのTMVPのために使用されるべきでない。第1のフラグは、第2のフラグよりも高い優先順位を有し得る。一実施形態では、デコーダ33はビデオ情報を符号化する。別の実施形態では、デコーダ33はビデオ情報を復号する。
[00174]いくつかの実施形態では、デコーダ33は、少なくとも1つの無線アクセス技術(RAT)に従って、複数のレイヤに関連付けられたビデオ情報を備えるビデオデータを受信するように構成された受信機と、少なくとも1つのRATに従って動作するように構成された送信機とをさらに備える、ワイヤレス通信デバイスである。ワイヤレス通信デバイスはセルラー電話であり得、受信されたビデオデータは、受信機によって受信され得、セルラー通信規格に従って変調され得る。
[00175]いくつかの実施形態では、プロセス600は、少なくとも1つの無線アクセス技術(RAT)に従って、複数のレイヤに関連付けられたビデオ情報を備えるビデオデータを受信するように構成された受信機と、少なくとも1つのRATに従って動作するように構成された送信機と、ビデオデータを記憶するように構成されたメモリと、メモリに記憶されたビデオデータを処理するための命令を実行するように構成されたプロセッサとを備えるワイヤレス通信デバイス上で実行可能であり得る。ワイヤレス通信デバイスはセルラー電話であり得、受信されたビデオデータは、受信機によって受信され得、セルラー通信規格に従って変調され得る。
[00176]プロセス600はブロック604において終了する。ブロックは、実施形態によっては、プロセス600において追加および/または省略され得、プロセス600のブロックは、実施形態によっては、異なる順序で実施され得る。
[00177]本開示におけるTMVPのための先行ピクチャの使用を制限することに関して説明したいかなる特徴および/または実施形態も、別々に、またはそれらの任意の組合せで実装され得る。たとえば、図1〜図6に関して説明したいかなる特徴および/または実施形態、ならびに本開示の他の部分も、図6に関して説明した任意の特徴および/または実施形態との任意の組合せで実装され得、その逆も同様である。
表現フォーマットを更新する方法
[00178]図7は、本開示の1つまたは複数の態様による、ビデオ情報をコーディングする方法を示すフローチャートである。本方法は、表現フォーマットを更新することに関する。プロセス700は、実施形態によっては、エンコーダ(たとえば、図2A、図2Bなどに示されているエンコーダ)、デコーダ(たとえば、図3A、図3Bなどに示されているデコーダ)、または任意の他の構成要素によって実施され得る。プロセス700のブロックについて図2B中のエンコーダ23に関して説明するが、プロセス700は、上述のように、デコーダなど、他の構成要素によって実施され得る。エンコーダ23のレイヤ1ビデオエンコーダ20Bおよび/またはエンコーダ23のレイヤ0エンコーダ20Aが、実施形態によっては、プロセス700を実施し得る。図7に関して説明するすべての実施形態は、別々に、または互いと組み合わせて実装され得る。プロセス700に関係するいくつかの詳細が、たとえば、図4〜図6に関して上記で説明されている。
[00179]プロセス700はブロック701において開始する。エンコーダ23は、複数のレイヤに関連付けられたビデオ情報を記憶するためのメモリ(たとえば、復号ピクチャバッファ160)を含むことができる。
[00180]ブロック702において、エンコーダ23は、1つまたは複数の表現フォーマットシンタックス構造を含むVPSを受信する。VPSは、複数のレイヤのうちの第1のレイヤに関連付けられた1つまたは複数の表現フォーマットシンタックス構造のうちの第1の表現フォーマットシンタックス構造を示し得る。
[00181]ブロック703において、エンコーダ23は、(1)VPS中の1つまたは複数の表現フォーマットシンタックス構造のうちの第2の表現フォーマットシンタックス構造への参照、または(2)第3の表現フォーマットシンタックス構造を含むSPSを受信する。第3の表現フォーマットシンタックス構造は、VPS中の1つまたは複数の表現フォーマットシンタックス構造中に含まれないことがある。各表現フォーマットシンタックス構造は、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含み得る。
[00182]ブロック704において、エンコーダ23は、第1の表現フォーマットシンタックス構造中の第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新し、第1の変数は第1のレイヤに関連付けられる。エンコーダ23は、第1の変数の値に基づいて、VPSに関連付けられたビデオデータをコーディングし得る。
[00183]いくつかの実施形態では、SPSは第2の表現フォーマットシンタックス構造への参照を含み、エンコーダ23は、第1の変数の値を、第2の表現フォーマットシンタックス構造中の第1のフラグの値に等しくなるように更新する。各表現フォーマットシンタックス構造は、第1のフラグに加えて1つまたは複数の第2のフラグを含むことができ、エンコーダ23は、第2の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値が、第1の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値よりも小さいかまたはそれに等しいとき、1つまたは複数の第2のフラグに対応する1つまたは複数の第2の変数の値を、第2の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値に更新することができる。1つまたは複数の第2の変数は第1のレイヤに関連付けられ得る。
[00184]いくつかの実施形態では、SPSは第3の表現フォーマットシンタックス構造を含み、エンコーダ23は、第1の変数の値を、第3の表現フォーマットシンタックス構造中の第1のフラグの値に等しくなるように更新する。各表現フォーマットシンタックス構造は、第1のフラグに加えて1つまたは複数の第2のフラグを含むことができ、エンコーダ23は、第3の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値が、第1の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値よりも小さいかまたはそれに等しいとき、1つまたは複数の第2のフラグに対応する1つまたは複数の第2の変数の値を、第3の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値に更新する。1つまたは複数の第2の変数は第1のレイヤに関連付けられ得る。
[00185]VPSは、1つまたは複数の表現フォーマットシンタックス構造のうちのいずれが複数のレイヤのそれぞれのレイヤに関連付けられるかのマッピングを含み得る。第1のフラグは、第1のフラグの値が1に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきであることを示し得、第1の変数は、第1の変数の値が1に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきであることを示し得る。第1のフラグは、第1のフラグの値が0に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきでないことを示し得、第1の変数は、第1の変数の値が0に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきでないことを示し得る。一実施形態では、第1のフラグはseparate_colour_plane_vps_flagを備え、第1の変数はseparate_colour_plane_flagを備える。別の実施形態では、第2の表現フォーマットシンタックス構造への参照はsps_rep_format_idxを備える。VPSは複数のレイヤのすべてに適用され得、SPSは複数のレイヤの中の特定のレイヤに適用され得る。一実施形態では、エンコーダ23はビデオ情報を符号化する。
[00186]いくつかの実施形態では、エンコーダ23は、少なくとも1つの無線アクセス技術(RAT)に従ってビデオデータを送信するように構成された送信機と、少なくとも1つのRATに従って動作するように構成された受信機とをさらに備える、ワイヤレス通信デバイスである。ワイヤレス通信デバイスはセルラー電話であり得、送信されたビデオデータは、送信機によって送信され得、セルラー通信規格に従って変調され得る。
[00187]いくつかの実施形態では、プロセス700は、少なくとも1つの無線アクセス技術(RAT)に従ってビデオデータを送信するように構成された送信機と、少なくとも1つのRATに従って動作するように構成された受信機と、ビデオデータを記憶するように構成されたメモリと、メモリに記憶されたビデオデータを処理するための命令を実行するように構成されたプロセッサとを備えるワイヤレス通信デバイス上で実行可能であり得る。ワイヤレス通信デバイスはセルラー電話であり得、送信されたビデオデータは、送信機によって送信され得、セルラー通信規格に従って変調され得る。
[00188]プロセス700はブロック704において終了する。ブロックは、実施形態によっては、プロセス700において追加および/または省略され得、プロセス700のブロックは、実施形態によっては、異なる順序で実施され得る。
[00189]本開示における表現フォーマットを更新することに関して説明したいかなる特徴および/または実施形態も、別々に、またはそれらの任意の組合せで実装され得る。たとえば、図1〜図7に関して説明したいかなる特徴および/または実施形態、ならびに本開示の他の部分も、図7に関して説明した任意の特徴および/または実施形態との任意の組合せで実装され得、その逆も同様である。
[00190]本明細書で開示する情報および信号は、多種多様な技術および技法のいずれかを使用して表され得る。たとえば、上記の説明全体にわたって言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、およびチップは、電圧、電流、電磁波、磁界または磁性粒子、光場または光学粒子、あるいはそれらの任意の組合せによって表され得る。
[00191]本明細書で開示する実施形態に関して説明した様々な例示的な論理ブロック、回路、およびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、またはその両方の組合せとして実装され得る。ハードウェアとソフトウェアのこの互換性を明確に示すために、様々な例示的な構成要素、ブロック、モジュール、回路、およびステップについて、上記では概してそれらの機能に関して説明した。そのような機能がハードウェアとして実装されるか、ソフトウェアとして実装されるかは、特定の適用例および全体的なシステムに課される設計制約に依存する。当業者は、説明した機能を特定の適用例ごとに様々な方法で実装し得るが、そのような実装の決定は、本発明の範囲からの逸脱を生じるものと解釈されるべきではない。
[00192]本明細書で説明した技法は、ハードウェア(たとえば、コンピュータハードウェア)、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。そのような技法は、汎用コンピュータ、ワイヤレス通信デバイスハンドセット、またはワイヤレス通信デバイスハンドセットおよび他のデバイスにおける適用例を含む複数の用途を有する集積回路デバイスなど、様々なデバイスのいずれかにおいて実装され得る。モジュールまたは構成要素として説明した特徴は、集積論理デバイスに一緒に、または個別であるが相互運用可能な論理デバイスとして別々に実装され得る。ソフトウェアで実装された場合、本技法は、実行されたとき、上記で説明した方法のうちの1つまたは複数を実施する命令を含むプログラムコードを備えるコンピュータ可読媒体(たとえば、コンピュータ可読データ記憶媒体)によって、少なくとも部分的に実現され得る。コンピュータ可読媒体は非一時的コンピュータ可読媒体であり得る。コンピュータ可読媒体は、パッケージング材料を含むことがあるコンピュータプログラム製品の一部を形成し得る。コンピュータ可読媒体は、シンクロナスダイナミックランダムアクセスメモリ(SDRAM)などのランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM(登録商標))、フラッシュメモリ、磁気または光学データ記憶媒体など、メモリまたはデータ記憶媒体を備え得る。本技法は、追加または代替として、伝搬信号または電波など、命令またはデータ構造の形態でプログラムコードを搬送または伝達し、コンピュータによってアクセスされ、読み取られ、および/または実行され得るコンピュータ可読通信媒体によって、少なくとも部分的に実現され得る。
[00193]プログラムコードは、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、または他の等価の集積回路またはディスクリート論理回路など、1つまたは複数のプロセッサを含み得るプロセッサによって実行され得る。そのようなプロセッサは、本開示で説明する技法のいずれかを実施するように構成され得る。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、または状態機械であり得る。プロセッサはまた、コンピューティングデバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、あるいは任意の他のそのような構成として実装され得る。したがって、本明細書で使用する「プロセッサ」という用語は、上記の構造、上記の構造の任意の組合せ、または本明細書で説明した技法の実装に好適な他の構造または装置のいずれかを指すことがある。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用のソフトウェアモジュールまたはハードウェアモジュール内に提供され得、あるいは複合ビデオエンコーダ/デコーダ(コーデック)に組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素で十分に実装され得る。
[00194]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置で実装され得る。本開示では、開示した技法を実施するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットは、必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作可能なハードウェアユニットの集合によって与えられ得る。
[00195]本開示の様々な実施形態について説明した。これらおよび他の実施形態は以下の特許請求の範囲内に入る。
[00195]本開示の様々な実施形態について説明した。これらおよび他の実施形態は以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオ情報を符号化するための装置であって、
複数のレイヤに関連付けられたビデオ情報を記憶するためのメモリと、
前記メモリに動作可能に結合され、
1つまたは複数の表現フォーマットシンタックス構造を含むビデオパラメータセット(VPS)を受信することと、前記VPSが、前記複数のレイヤのうちの第1のレイヤに関連付けられた前記1つまたは複数の表現フォーマットシンタックス構造のうちの第1の表現フォーマットシンタックス構造を示す、
(1)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造のうちの第2の表現フォーマットシンタックス構造への参照、または(2)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造中に含まれない第3の表現フォーマットシンタックス構造を含むシーケンスパラメータセット(SPS)を受信することと、各表現フォーマットシンタックス構造が、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含む、
前記第1の表現フォーマットシンタックス構造中の前記第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新することと、前記第1の変数が前記第1のレイヤに関連付けられる、
を行うように構成されたプロセッサと
を備える、装置。
[C2]
前記SPSが前記第2の表現フォーマットシンタックス構造への前記参照を含み、前記プロセッサが、前記第1の変数の前記値を、前記第2の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新するように構成された、C1に記載の装置。
[C3]
各表現フォーマットシンタックス構造が、前記第1のフラグに加えて1つまたは複数の第2のフラグを含み、前記プロセッサは、前記第2の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値が、前記第1の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの値よりも小さいかまたはそれに等しいとき、前記1つまたは複数の第2のフラグに対応する1つまたは複数の第2の変数の値を、前記第2の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの前記値に更新するようにさらに構成され、前記1つまたは複数の第2の変数が前記第1のレイヤに関連付けられる、C2に記載の装置。
[C4]
前記SPSが前記第3の表現フォーマットシンタックス構造を含み、前記プロセッサが、前記第1の変数の前記値を、前記第3の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新するように構成された、C1に記載の装置。
[C5]
各表現フォーマットシンタックス構造が、前記第1のフラグに加えて1つまたは複数の第2のフラグを含み、前記プロセッサは、前記第3の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値が、前記第1の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの値よりも小さいかまたはそれに等しいとき、前記1つまたは複数の第2のフラグに対応する1つまたは複数の第2の変数の値を、前記第3の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの前記値に更新するようにさらに構成され、前記1つまたは複数の第2の変数が前記第1のレイヤに関連付けられる、C4に記載の装置。
[C6]
前記VPSは、前記1つまたは複数の表現フォーマットシンタックス構造のうちのいずれが前記複数のレイヤのそれぞれのレイヤに関連付けられるかのマッピングを含む、C1に記載の装置。
[C7]
前記第1のフラグは、前記第1のフラグの前記値が1に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきであることを示し、前記第1の変数は、前記第1の変数の前記値が1に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきであることを示す、C1に記載の装置。
[C8]
前記第1のフラグは、前記第1のフラグの前記値が0に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきでないことを示し、前記第1の変数は、前記第1の変数の前記値が0に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきでないことを示す、C1に記載の装置。
[C9]
前記第1のフラグがseparate_colour_plane_vps_flagを備え、前記第1の変数がseparate_colour_plane_flagを備える、C1に記載の装置。
[C10]
前記第2の表現フォーマットシンタックス構造への前記参照がsps_rep_format_idxを備える、C1に記載の装置。
[C11]
前記VPSが前記複数のレイヤのすべてに適用され、前記SPSが前記複数のレイヤの中の特定のレイヤに適用される、C1に記載の装置。
[C12]
前記プロセッサが、前記第1の変数の前記値に基づいて、前記VPSに関連付けられたビデオデータをコーディングするようにさらに構成された、C1に記載の装置。
[C13]
前記装置が、デスクトップコンピュータ、ノートブックコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、電話ハンドセット、スマートフォン、ワイヤレス通信デバイス、スマートパッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーミングコンソール、またはビデオストリーミングデバイスのうちの1つまたは複数を備える、C1に記載の装置。
[C14]
ビデオ情報を符号化する方法であって、
複数のレイヤに関連付けられたビデオ情報を記憶することと、
1つまたは複数の表現フォーマットシンタックス構造を含むビデオパラメータセット(VPS)を受信することと、前記VPSが、前記複数のレイヤのうちの第1のレイヤに関連付けられた前記1つまたは複数の表現フォーマットシンタックス構造のうちの第1の表現フォーマットシンタックス構造を示す、
(1)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造のうちの第2の表現フォーマットシンタックス構造への参照、または(2)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造中に含まれない第3の表現フォーマットシンタックス構造を含むシーケンスパラメータセット(SPS)を受信することと、各表現フォーマットシンタックス構造が、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含む、
前記第1の表現フォーマットシンタックス構造中の前記第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新することと、前記第1の変数が前記第1のレイヤに関連付けられる、を備える、方法。
[C15]
前記SPSが前記第2の表現フォーマットシンタックス構造への前記参照を含み、前記第1の変数の前記値が、前記第2の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新される、C14に記載の方法。
[C16]
各表現フォーマットシンタックス構造が、前記第1のフラグに加えて1つまたは複数の第2のフラグを含み、前記方法は、前記第2の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値が、前記第1の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの値よりも小さいかまたはそれに等しいとき、前記1つまたは複数の第2のフラグに対応する1つまたは複数の第2の変数の値を、前記第2の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの前記値に更新することをさらに備え、前記1つまたは複数の第2の変数が前記第1のレイヤに関連付けられる、C15に記載の方法。
[C17]
前記SPSが前記第3の表現フォーマットシンタックス構造を含み、前記第1の変数の前記値が、前記第3の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新される、C14に記載の方法。
[C18]
各表現フォーマットシンタックス構造が、前記第1のフラグに加えて1つまたは複数の第2のフラグを含み、前記方法は、前記第3の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値が、前記第1の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの値よりも小さいかまたはそれに等しいとき、前記1つまたは複数の第2のフラグに対応する1つまたは複数の第2の変数の値を、前記第3の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの前記値に更新することをさらに備え、前記1つまたは複数の第2の変数が前記第1のレイヤに関連付けられる、C17に記載の方法。
[C19]
前記VPSは、前記1つまたは複数の表現フォーマットシンタックス構造のうちのいずれが前記複数のレイヤのそれぞれのレイヤに関連付けられるかのマッピングを含む、C14に記載の方法。
[C20]
前記第1のフラグは、前記第1のフラグの前記値が1に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきであることを示し、前記第1の変数は、前記第1の変数の前記値が1に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきであることを示す、C14に記載の方法。
[C21]
前記第1のフラグは、前記第1のフラグの前記値が0に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきでないことを示し、前記第1の変数は、前記第1の変数の前記値が0に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきでないことを示す、C14に記載の方法。
[C22]
前記第1のフラグがseparate_colour_plane_vps_flagを備え、前記第1の変数がseparate_colour_plane_flagを備える、C14に記載の方法。
[C23]
前記第2の表現フォーマットシンタックス構造への前記参照がsps_rep_format_idxを備える、C14に記載の方法。
[C24]
前記第1の変数の前記値に基づいて、前記VPSに関連付けられたビデオデータをコーディングすることをさらに備える、C14に記載の方法。
[C25]
コンピュータハードウェアを備えるプロセッサ上で実行されたとき、
複数のレイヤに関連付けられたビデオ情報を記憶することと、
1つまたは複数の表現フォーマットシンタックス構造を含むビデオパラメータセット(VPS)を受信することと、前記VPSが、前記複数のレイヤのうちの第1のレイヤに関連付けられた前記1つまたは複数の表現フォーマットシンタックス構造のうちの第1の表現フォーマットシンタックス構造を示す、
(1)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造のうちの第2の表現フォーマットシンタックス構造への参照、または(2)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造中に含まれない第3の表現フォーマットシンタックス構造を含むシーケンスパラメータセット(SPS)を受信することと、各表現フォーマットシンタックス構造が、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含む、
前記第1の表現フォーマットシンタックス構造中の前記第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新することと、前記第1の変数が前記第1のレイヤに関連付けられる、を前記プロセッサに行わせる命令を備える非一時的コンピュータ可読媒体。
[C26]
前記SPSが前記第2の表現フォーマットシンタックス構造への前記参照を含み、前記命令が、前記第1の変数の前記値を、前記第2の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新することを前記プロセッサに行わせる、C25に記載のコンピュータ可読媒体。
[C27]
前記SPSが前記第3の表現フォーマットシンタックス構造を含み、前記命令が、前記第1の変数の前記値を、前記第3の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新することを前記プロセッサに行わせる、C25に記載のコンピュータ可読媒体。
[C28]
ビデオ情報を符号化するための装置であって、
複数のレイヤに関連付けられたビデオ情報を記憶するための手段と、
1つまたは複数の表現フォーマットシンタックス構造を含むビデオパラメータセット(VPS)を受信するための手段と、前記VPSが、前記複数のレイヤのうちの第1のレイヤに関連付けられた前記1つまたは複数の表現フォーマットシンタックス構造のうちの第1の表現フォーマットシンタックス構造を示す、
(1)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造のうちの第2の表現フォーマットシンタックス構造への参照、または(2)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造中に含まれない第3の表現フォーマットシンタックス構造を含むシーケンスパラメータセット(SPS)を受信するための手段と、各表現フォーマットシンタックス構造が、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含む、
前記第1の表現フォーマットシンタックス構造中の前記第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新するための手段と、前記第1の変数が前記第1のレイヤに関連付けられる、を備える、装置。
[C29]
前記SPSが前記第2の表現フォーマットシンタックス構造への前記参照を含み、更新するための前記手段が、前記第1の変数の前記値を、前記第2の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新するように構成された、C28に記載の装置。
[C30]
前記SPSが前記第3の表現フォーマットシンタックス構造を含み、更新するための前記手段が、前記第1の変数の前記値を、前記第3の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新するように構成された、C28に記載の装置。

Claims (30)

  1. ビデオ情報を符号化するための装置であって、
    複数のレイヤに関連付けられたビデオ情報を記憶するためのメモリと、
    前記メモリに動作可能に結合され、
    1つまたは複数の表現フォーマットシンタックス構造を含むビデオパラメータセット(VPS)を受信することと、前記VPSが、前記複数のレイヤのうちの第1のレイヤに関連付けられた前記1つまたは複数の表現フォーマットシンタックス構造のうちの第1の表現フォーマットシンタックス構造を示す、
    (1)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造のうちの第2の表現フォーマットシンタックス構造への参照、または(2)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造中に含まれない第3の表現フォーマットシンタックス構造を含むシーケンスパラメータセット(SPS)を受信することと、各表現フォーマットシンタックス構造が、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含む、
    前記第1の表現フォーマットシンタックス構造中の前記第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新することと、前記第1の変数が前記第1のレイヤに関連付けられる、
    を行うように構成されたプロセッサと
    を備える、装置。
  2. 前記SPSが前記第2の表現フォーマットシンタックス構造への前記参照を含み、前記プロセッサが、前記第1の変数の前記値を、前記第2の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新するように構成された、請求項1に記載の装置。
  3. 各表現フォーマットシンタックス構造が、前記第1のフラグに加えて1つまたは複数の第2のフラグを含み、前記プロセッサは、前記第2の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値が、前記第1の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの値よりも小さいかまたはそれに等しいとき、前記1つまたは複数の第2のフラグに対応する1つまたは複数の第2の変数の値を、前記第2の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの前記値に更新するようにさらに構成され、前記1つまたは複数の第2の変数が前記第1のレイヤに関連付けられる、請求項2に記載の装置。
  4. 前記SPSが前記第3の表現フォーマットシンタックス構造を含み、前記プロセッサが、前記第1の変数の前記値を、前記第3の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新するように構成された、請求項1に記載の装置。
  5. 各表現フォーマットシンタックス構造が、前記第1のフラグに加えて1つまたは複数の第2のフラグを含み、前記プロセッサは、前記第3の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値が、前記第1の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの値よりも小さいかまたはそれに等しいとき、前記1つまたは複数の第2のフラグに対応する1つまたは複数の第2の変数の値を、前記第3の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの前記値に更新するようにさらに構成され、前記1つまたは複数の第2の変数が前記第1のレイヤに関連付けられる、請求項4に記載の装置。
  6. 前記VPSは、前記1つまたは複数の表現フォーマットシンタックス構造のうちのいずれが前記複数のレイヤのそれぞれのレイヤに関連付けられるかのマッピングを含む、請求項1に記載の装置。
  7. 前記第1のフラグは、前記第1のフラグの前記値が1に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきであることを示し、前記第1の変数は、前記第1の変数の前記値が1に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきであることを示す、請求項1に記載の装置。
  8. 前記第1のフラグは、前記第1のフラグの前記値が0に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきでないことを示し、前記第1の変数は、前記第1の変数の前記値が0に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきでないことを示す、請求項1に記載の装置。
  9. 前記第1のフラグがseparate_colour_plane_vps_flagを備え、前記第1の変数がseparate_colour_plane_flagを備える、請求項1に記載の装置。
  10. 前記第2の表現フォーマットシンタックス構造への前記参照がsps_rep_format_idxを備える、請求項1に記載の装置。
  11. 前記VPSが前記複数のレイヤのすべてに適用され、前記SPSが前記複数のレイヤの中の特定のレイヤに適用される、請求項1に記載の装置。
  12. 前記プロセッサが、前記第1の変数の前記値に基づいて、前記VPSに関連付けられたビデオデータをコーディングするようにさらに構成された、請求項1に記載の装置。
  13. 前記装置が、デスクトップコンピュータ、ノートブックコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、電話ハンドセット、スマートフォン、ワイヤレス通信デバイス、スマートパッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーミングコンソール、またはビデオストリーミングデバイスのうちの1つまたは複数を備える、請求項1に記載の装置。
  14. ビデオ情報を符号化する方法であって、
    複数のレイヤに関連付けられたビデオ情報を記憶することと、
    1つまたは複数の表現フォーマットシンタックス構造を含むビデオパラメータセット(VPS)を受信することと、前記VPSが、前記複数のレイヤのうちの第1のレイヤに関連付けられた前記1つまたは複数の表現フォーマットシンタックス構造のうちの第1の表現フォーマットシンタックス構造を示す、
    (1)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造のうちの第2の表現フォーマットシンタックス構造への参照、または(2)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造中に含まれない第3の表現フォーマットシンタックス構造を含むシーケンスパラメータセット(SPS)を受信することと、各表現フォーマットシンタックス構造が、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含む、
    前記第1の表現フォーマットシンタックス構造中の前記第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新することと、前記第1の変数が前記第1のレイヤに関連付けられる、
    を備える、方法。
  15. 前記SPSが前記第2の表現フォーマットシンタックス構造への前記参照を含み、前記第1の変数の前記値が、前記第2の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新される、請求項14に記載の方法。
  16. 各表現フォーマットシンタックス構造が、前記第1のフラグに加えて1つまたは複数の第2のフラグを含み、前記方法は、前記第2の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値が、前記第1の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの値よりも小さいかまたはそれに等しいとき、前記1つまたは複数の第2のフラグに対応する1つまたは複数の第2の変数の値を、前記第2の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの前記値に更新することをさらに備え、前記1つまたは複数の第2の変数が前記第1のレイヤに関連付けられる、請求項15に記載の方法。
  17. 前記SPSが前記第3の表現フォーマットシンタックス構造を含み、前記第1の変数の前記値が、前記第3の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新される、請求項14に記載の方法。
  18. 各表現フォーマットシンタックス構造が、前記第1のフラグに加えて1つまたは複数の第2のフラグを含み、前記方法は、前記第3の表現フォーマットシンタックス構造中の1つまたは複数の第2のフラグの値が、前記第1の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの値よりも小さいかまたはそれに等しいとき、前記1つまたは複数の第2のフラグに対応する1つまたは複数の第2の変数の値を、前記第3の表現フォーマットシンタックス構造中の前記1つまたは複数の第2のフラグの前記値に更新することをさらに備え、前記1つまたは複数の第2の変数が前記第1のレイヤに関連付けられる、請求項17に記載の方法。
  19. 前記VPSは、前記1つまたは複数の表現フォーマットシンタックス構造のうちのいずれが前記複数のレイヤのそれぞれのレイヤに関連付けられるかのマッピングを含む、請求項14に記載の方法。
  20. 前記第1のフラグは、前記第1のフラグの前記値が1に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきであることを示し、前記第1の変数は、前記第1の変数の前記値が1に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきであることを示す、請求項14に記載の方法。
  21. 前記第1のフラグは、前記第1のフラグの前記値が0に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきでないことを示し、前記第1の変数は、前記第1の変数の前記値が0に等しいとき、レイヤのクロマフォーマットの色成分が別々にコーディングされるべきでないことを示す、請求項14に記載の方法。
  22. 前記第1のフラグがseparate_colour_plane_vps_flagを備え、前記第1の変数がseparate_colour_plane_flagを備える、請求項14に記載の方法。
  23. 前記第2の表現フォーマットシンタックス構造への前記参照がsps_rep_format_idxを備える、請求項14に記載の方法。
  24. 前記第1の変数の前記値に基づいて、前記VPSに関連付けられたビデオデータをコーディングすることをさらに備える、請求項14に記載の方法。
  25. コンピュータハードウェアを備えるプロセッサ上で実行されたとき、
    複数のレイヤに関連付けられたビデオ情報を記憶することと、
    1つまたは複数の表現フォーマットシンタックス構造を含むビデオパラメータセット(VPS)を受信することと、前記VPSが、前記複数のレイヤのうちの第1のレイヤに関連付けられた前記1つまたは複数の表現フォーマットシンタックス構造のうちの第1の表現フォーマットシンタックス構造を示す、
    (1)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造のうちの第2の表現フォーマットシンタックス構造への参照、または(2)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造中に含まれない第3の表現フォーマットシンタックス構造を含むシーケンスパラメータセット(SPS)を受信することと、各表現フォーマットシンタックス構造が、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含む、
    前記第1の表現フォーマットシンタックス構造中の前記第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新することと、前記第1の変数が前記第1のレイヤに関連付けられる、
    を前記プロセッサに行わせる命令を備える非一時的コンピュータ可読媒体。
  26. 前記SPSが前記第2の表現フォーマットシンタックス構造への前記参照を含み、前記命令が、前記第1の変数の前記値を、前記第2の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新することを前記プロセッサに行わせる、請求項25に記載のコンピュータ可読媒体。
  27. 前記SPSが前記第3の表現フォーマットシンタックス構造を含み、前記命令が、前記第1の変数の前記値を、前記第3の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新することを前記プロセッサに行わせる、請求項25に記載のコンピュータ可読媒体。
  28. ビデオ情報を符号化するための装置であって、
    複数のレイヤに関連付けられたビデオ情報を記憶するための手段と、
    1つまたは複数の表現フォーマットシンタックス構造を含むビデオパラメータセット(VPS)を受信するための手段と、前記VPSが、前記複数のレイヤのうちの第1のレイヤに関連付けられた前記1つまたは複数の表現フォーマットシンタックス構造のうちの第1の表現フォーマットシンタックス構造を示す、
    (1)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造のうちの第2の表現フォーマットシンタックス構造への参照、または(2)前記VPS中の前記1つまたは複数の表現フォーマットシンタックス構造中に含まれない第3の表現フォーマットシンタックス構造を含むシーケンスパラメータセット(SPS)を受信するための手段と、各表現フォーマットシンタックス構造が、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1のフラグを含む、
    前記第1の表現フォーマットシンタックス構造中の前記第1のフラグの値を参照することなしに、レイヤのクロマフォーマットの色成分を別々にコーディングすべきかどうかを示す第1の変数の値を更新するための手段と、前記第1の変数が前記第1のレイヤに関連付けられる、
    を備える、装置。
  29. 前記SPSが前記第2の表現フォーマットシンタックス構造への前記参照を含み、更新するための前記手段が、前記第1の変数の前記値を、前記第2の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新するように構成された、請求項28に記載の装置。
  30. 前記SPSが前記第3の表現フォーマットシンタックス構造を含み、更新するための前記手段が、前記第1の変数の前記値を、前記第3の表現フォーマットシンタックス構造中の前記第1のフラグの前記値に等しくなるように更新するように構成された、請求項28に記載の装置。
JP2016573822A 2014-06-20 2015-06-18 マルチレイヤコーデックにおける表現フォーマット更新 Pending JP2017525224A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462015378P 2014-06-20 2014-06-20
US62/015,378 2014-06-20
US14/742,258 2015-06-17
US14/742,258 US20150373343A1 (en) 2014-06-20 2015-06-17 Representation format update in multi-layer codecs
PCT/US2015/036467 WO2015195938A1 (en) 2014-06-20 2015-06-18 Representation format update in multi-layer codecs

Publications (2)

Publication Number Publication Date
JP2017525224A true JP2017525224A (ja) 2017-08-31
JP2017525224A5 JP2017525224A5 (ja) 2018-07-05

Family

ID=54870865

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016573822A Pending JP2017525224A (ja) 2014-06-20 2015-06-18 マルチレイヤコーデックにおける表現フォーマット更新
JP2016573836A Active JP6672184B2 (ja) 2014-06-20 2015-06-18 マルチレイヤコーデックにおける時間動きベクトル予測(tmvp)指示

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016573836A Active JP6672184B2 (ja) 2014-06-20 2015-06-18 マルチレイヤコーデックにおける時間動きベクトル予測(tmvp)指示

Country Status (8)

Country Link
US (3) US20150373350A1 (ja)
EP (2) EP3158766A1 (ja)
JP (2) JP2017525224A (ja)
KR (2) KR20170020798A (ja)
CN (2) CN106464902B (ja)
BR (2) BR112016029724A2 (ja)
CA (2) CA2952454A1 (ja)
WO (2) WO2015195938A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140192881A1 (en) * 2013-01-07 2014-07-10 Sony Corporation Video processing system with temporal prediction mechanism and method of operation thereof
US9648333B2 (en) * 2013-10-11 2017-05-09 Vid Scale, Inc. High level syntax for HEVC extensions
US20150373350A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Temporal motion vector prediction (tmvp) indication in multi-layer codecs
CN107333133B (zh) * 2016-04-28 2019-07-16 浙江大华技术股份有限公司 一种码流接收设备的码流编码的方法及装置
WO2018131813A1 (en) * 2017-01-10 2018-07-19 Samsung Electronics Co., Ltd. Method and apparatus for generating metadata for 3d images
WO2019229683A1 (en) 2018-05-31 2019-12-05 Beijing Bytedance Network Technology Co., Ltd. Concept of interweaved prediction
GB2588023B (en) 2018-06-05 2023-04-12 Beijing Bytedance Network Tech Co Ltd Interaction between IBC and BIO
TWI739120B (zh) 2018-06-21 2021-09-11 大陸商北京字節跳動網絡技術有限公司 合併仿射模式與非合併仿射模式的統一拘束
CN110636300B (zh) 2018-06-21 2022-07-29 北京字节跳动网络技术有限公司 颜色分量之间的子块运动矢量继承
US10645380B2 (en) * 2018-07-09 2020-05-05 Tencent America LLC Method and apparatus for video coding
EP3831062A4 (en) * 2018-08-17 2022-07-06 HFI Innovation Inc. SIMPLIFIED SUBMODE METHOD AND APPARATUS FOR VIDEO CODING
CN110944170B (zh) 2018-09-24 2023-05-02 北京字节跳动网络技术有限公司 扩展Merge预测
GB2593327B (en) * 2018-10-09 2023-02-08 V Nova Int Ltd Colour conversion within a hierarchical coding scheme
CN111093073B (zh) 2018-10-24 2024-04-19 北京字节跳动网络技术有限公司 用于子块运动矢量预测的基于搜索的运动候选推导
CN112970262B (zh) 2018-11-10 2024-02-20 北京字节跳动网络技术有限公司 三角预测模式中的取整
JP7319365B2 (ja) 2018-11-22 2023-08-01 北京字節跳動網絡技術有限公司 サブブロックに基づくインター予測のための調整方法
CN117915081A (zh) 2019-01-02 2024-04-19 北京字节跳动网络技术有限公司 视频处理的方法
US20220086475A1 (en) * 2019-01-09 2022-03-17 Lg Electronics Inc. Method and device for signaling whether tmvp candidate is available
KR102639936B1 (ko) 2019-03-08 2024-02-22 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 처리에서 모델-기반 변형에 대한 제약들
CN117528068A (zh) 2019-04-18 2024-02-06 北京字节跳动网络技术有限公司 视频编解码中的跨分量模式中的选择性使用
WO2020216177A1 (en) * 2019-04-20 2020-10-29 Beijing Bytedance Network Technology Co., Ltd. Signaling of chroma and luma syntax elements in video coding
JP7317991B2 (ja) 2019-04-23 2023-07-31 北京字節跳動網絡技術有限公司 クロスコンポーネント依存性を低減するための方法
KR20210147063A (ko) * 2019-04-26 2021-12-06 후아웨이 테크놀러지 컴퍼니 리미티드 크로마 양자화 파라미터의 매핑 함수의 시그널링을 위한 방법 및 장치
BR112021021661A2 (pt) 2019-05-08 2021-12-21 Beijing Bytedance Network Tech Co Ltd Método e aparelho para processar dados de vídeo, e, meios de armazenamento e de gravação legíveis por computador não transitórios
WO2020239119A1 (en) 2019-05-30 2020-12-03 Beijing Bytedance Network Technology Co., Ltd. Adaptive loop filtering for chroma components
EP3973707A4 (en) 2019-06-22 2022-08-31 Beijing Bytedance Network Technology Co., Ltd. CHROMA REST SCALE SYNTAX ELEMENT
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
CN114208184A (zh) 2019-08-13 2022-03-18 北京字节跳动网络技术有限公司 基于子块的帧间预测中的运动精度
CN114424553A (zh) 2019-09-22 2022-04-29 北京字节跳动网络技术有限公司 基于子块的帧间预测的缩放方法
JP7404522B2 (ja) 2019-10-07 2023-12-25 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Dpbサイズベースの参照ピクチャエントリ制約条件
US11368723B2 (en) 2019-10-22 2022-06-21 Tencent America LLC Signaling of coding tools for encoding a video component as monochrome video
US11425405B2 (en) * 2019-11-15 2022-08-23 Qualcomm Incorporated Cross-component adaptive loop filter in video coding
US20230353749A1 (en) * 2019-12-06 2023-11-02 Lg Electronics Inc. Method and apparatus for encoding/decoding image on basis of picture header including information relating to co-located picture, and method for transmitting bitstream
US20220417498A1 (en) * 2019-12-10 2022-12-29 Lg Electronics Inc. Method for coding image on basis of tmvp and apparatus therefor
BR112022011719A2 (pt) 2019-12-26 2022-09-06 Bytedance Inc Método de processamento de vídeo, aparelho de processamento de dados de vídeo, e, mídias de armazenamento e de gravação legíveis por computador
WO2021202468A1 (en) 2020-03-30 2021-10-07 Bytedance Inc. Slice header constraint on collocated pictures
JP7270012B2 (ja) 2020-09-17 2023-05-09 レモン インコーポレイテッド 映像動作点レコード構文及びセマンティクス
US11937070B2 (en) 2021-07-01 2024-03-19 Tencent America LLC Layered description of space of interest

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107197300B (zh) * 2011-02-09 2020-03-06 Lg 电子株式会社 编码和解码图像的方法及使用该方法的设备
KR101532665B1 (ko) * 2011-03-14 2015-07-09 미디어텍 인크. 시간적 움직임 백터 예측을 도출하기 위한 방법 및 장치
US8995523B2 (en) * 2011-06-03 2015-03-31 Qualcomm Incorporated Memory efficient context modeling
US9521418B2 (en) * 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
CN103024397B (zh) * 2013-01-07 2015-07-08 华为技术有限公司 确定时域运动矢量预测值的方法和装置
US20150373350A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Temporal motion vector prediction (tmvp) indication in multi-layer codecs

Also Published As

Publication number Publication date
US20180160132A1 (en) 2018-06-07
US10404990B2 (en) 2019-09-03
US20150373343A1 (en) 2015-12-24
EP3158766A1 (en) 2017-04-26
WO2015195948A1 (en) 2015-12-23
CN106416255A (zh) 2017-02-15
WO2015195938A1 (en) 2015-12-23
BR112016029717A8 (pt) 2021-07-13
EP3158748B1 (en) 2021-04-14
CN106464902A (zh) 2017-02-22
CA2952450A1 (en) 2015-12-23
CN106416255B (zh) 2019-10-25
CA2952454A1 (en) 2015-12-23
KR20170020798A (ko) 2017-02-24
JP2017523684A (ja) 2017-08-17
BR112016029724A2 (pt) 2017-08-22
KR20170020799A (ko) 2017-02-24
US20150373350A1 (en) 2015-12-24
BR112016029717A2 (pt) 2017-08-22
CN106464902B (zh) 2019-11-01
JP6672184B2 (ja) 2020-03-25
EP3158748A1 (en) 2017-04-26

Similar Documents

Publication Publication Date Title
US10404990B2 (en) Temporal motion vector prediction (TMVP) indication in multi-layer codecs
JP6580576B2 (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP6622211B2 (ja) マルチレイヤビットストリームのためのシーケンス終了nalユニット情報の導出
JP6513685B2 (ja) ビデオコーディングにおけるNoOutputOfPriorPicsFlagの改善された推論
JP6193494B2 (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP6513684B2 (ja) マルチレイヤビデオコーディングにおける異なるコーデックのベースレイヤのサポート
JP2018524906A (ja) イントラブロックコピーモードでの参照ピクチャリスト構成
JP6633005B2 (ja) マルチレイヤコーデックのためのフルピクチャ順序カウントリセット
JP2017517185A (ja) マルチレイヤコーディングにおける適合ウィンドウ情報
JP6573879B2 (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP2017502610A (ja) Hevcマルチレイヤ拡張における非hevcベースレイヤのサポート
JP2016539545A (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP6430394B2 (ja) 高効率ビデオコード化に基づくビデオ情報のスケーラブルコード化のための機器及び方法
JP6434044B2 (ja) ビデオ情報のスケーラブルコード化のための機器及び方法
JP6312838B2 (ja) マルチレイヤコード化においてレイヤ間参照ピクチャセット(RPS)をコード化し、ビットストリーム終端(EoB)ネットワークアクセスレイヤ(NAL)単位をコード化するための方法
JP2016508011A (ja) ビデオ情報のスケーラブルコード化のための機器及び方法
JP2018514985A (ja) ビデオデータを処理するためのデバイスおよび方法
JP2016528802A (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP6661540B2 (ja) マルチレイヤコード化において参照ピクチャセット(rps)をコード化するための方法
JP2018511238A (ja) 高速レートひずみ最適量子化

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200303