JP6700323B2 - スケーラブルビデオコーディングのための予測モード情報アップサンプリング - Google Patents

スケーラブルビデオコーディングのための予測モード情報アップサンプリング Download PDF

Info

Publication number
JP6700323B2
JP6700323B2 JP2018014676A JP2018014676A JP6700323B2 JP 6700323 B2 JP6700323 B2 JP 6700323B2 JP 2018014676 A JP2018014676 A JP 2018014676A JP 2018014676 A JP2018014676 A JP 2018014676A JP 6700323 B2 JP6700323 B2 JP 6700323B2
Authority
JP
Japan
Prior art keywords
layer
block
prediction mode
upsampled
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018014676A
Other languages
English (en)
Other versions
JP2018110410A (ja
Inventor
バディム・セレジン
ジャンレ・チェン
シャン・リ
クリシュナカンス・ラパカ
マルタ・カークゼウィックズ
イン・チェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018110410A publication Critical patent/JP2018110410A/ja
Application granted granted Critical
Publication of JP6700323B2 publication Critical patent/JP6700323B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

[0001] 本開示は、一般に、ビデオコーディングおよび圧縮に関する。
[0002] デジタルビデオ機能(Digital video capabilities)は、デジタルテレビジョン、デジタルダイクトブロードキャストシステム(digital direct broadcast systems)、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレイヤ、ビデオゲーミングデバイス、ビデオゲームコンソール(video game consoles)、セルラまたは衛星無線電話、ビデオテレビ会議デバイスなどを含む広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、Part 10、アドバンスドビデオコーディング(AVC:Advanced Video Coding)、高効率ビデオコーディング(HEVC:High Efficiency Video Coding)規格、およびそのような規格の延長によって定義される規格に説明されるもののような、ビデオ圧縮技法を実施する。ビデオデバイスは、実施されたこのようなビデオコーディング技法によって、より効率的にデジタルビデオ情報を送信、受信、符号化、復号、および/または記憶し得る。
[0003] ビデオ画像、テレビ画像、ビデオレコーダによって生成された画像または静止画像、あるいはコンピュータのようなデジタル画像は、水平および垂直の線で配置されるピクセルから構成され得る。単一の画像におけるピクセル数は、通常、数万の規模である。各ピクセルは通常、輝度(luminance)および色差(chrominance)情報を含む。圧縮せずに画像エンコーダから画像デコーダへ搬送されるべき情報の量は非常に多く、これがリアルタイム画像送信を困難にし得る。送信されるべき情報の量を低減するため、多数の異なる圧縮方法が開発されている。
[0004] ビデオ圧縮技法は、ビデオシーケンスに内在する冗長性(redundancy)を低減または取り除くために、空間(spatial)(イントラピクチャ)予測、および/または時間(temporal)(インターピクチャ)予測を行う。ブロックベースのビデオコーディングのために、ビデオスライス(例えば、ビデオフレーム、ビデオフレームの一部分など)は、複数のビデオブロックに分割され、それはまた、ツリーブロック(treeblocks)、コーディングユニット(CU)、および/またはコーディングノードと呼ばれ得る。イントラコード化されたピクチャの(I)スライスにおけるビデオブロックは、同じピクチャにおける隣接するブロック内の参照サンプルに関する空間予測を使用して符号化される。ピクチャのインターコード化された(PまたはB)スライスにおけるビデオブロックは、同じピクチャにおける隣接するブロック内の参照サンプルに関する空間予測、または他の参照ピクチャにおける参照サンプルに関する時間予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005] 空間または時間予測は、コード化されるべきブロックに関する予測ブロックをもたらす。残差データ(residual data)は、コード化されるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコード化されたブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、およびコード化されたブロックと予測ブロックとの間の差分を示す残差データに従って符号化される。イントラコード化されたブロックは、イントラコード化モードおよび残余データに従って符号化される。
[0006] ブロックベースのビデオコーディングおよび圧縮はさらに、スケーラブルな(scalable)技法の使用を行い得る。スケーラブルビデオコーディング(SVC:Scalable video coding)は、ベースレイヤおよび1つまたは複数のスケーラブルな拡張レイヤ(enhancement layers)が使用されるビデオコーディングを指す。SVCに関して、ベースレイヤは通常、基準レベルの品質でビデオデータを搬送する。1つまたは複数の拡張レイヤは、より高い空間、時間、および/またはSNRレベルをサポートするために、追加のビデオデータを搬送する。
[0007] 本開示を要約する目的で、特定の態様、利点および新規の特徴が、本明細書で説明されている。全てのこのような利点が、本明細書で説明されるいずれかの特定の実施形態に従って、必ずしも達成されるわけではないことが理解されるべきである。そのため、本開示で説明される特徴は、本明細書で教示または提示され得る他の利点を必ずしも達成することなく、本明細書で教示されるような1つの利点または利点のグループを、達成または最大限に利用する方法で具現化または行われ得る。
[0008] いくつかの実施形態に従って、ビデオデータをコーディングするように構成される装置は、メモリユニットおよびプロセッサを含む。メモリユニットは、第1の空間解像度を有する第1のレイヤと、第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶するように構成される。第1のレイヤに関連付けられたビデオデータは、少なくとも第1のレイヤブロックと、第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、第1のレイヤブロックは、各サブブロックが第1のレイヤ予測モード情報の該当の(respective)予測モードデータに関連付けられた複数のサブブロックを含む。プロセッサは、メモリユニットと通信し、またプロセッサは、選択規則に少なくとも基づいて、複数のサブブロックのうちの1つに関連付けられた断定モードデータを導出し、導出された予測モードデータおよび第1のレイヤブロックをアップサンプルし、アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、アップサンプルされた予測モードデータを関連付けるように構成される。
[0009] 前述の段落の装置は、下記の特徴のうちの1つまたは複数を含み得る。選択規則に従って、プロセッサは、第1のレイヤブロックの1つまたは複数の他のサブブロックに対する第1のサブブロックのロケーションに少なくとも基づいて、複数のサブブロックの第1のサブブロックに関連付けられた予測モードデータを選択するように構成される。第1のサブブロックは、第1のレイヤブロックの複数のサブブロックのうちの1つが各々の側に隣接した中心のサブブロックである。プロセッサは、信号フラグに従って、選択規則を決定するように構成される。プロセッサは、アップサンプルされた第1のレイヤブロックと、アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられたアップサンプルされた予測モードデータとに少なくとも基づいて、第2のレイヤ内の第2のレイヤブロックの予測された値を決定するように構成される。第1のレイヤブロックは、第2のレイヤ内の第2のレイヤブロックの位置に対応する第1のレイヤ内の位置に配置されるか、第1のレイヤブロックは、第2のレイヤ内の第2のレイヤブロックの近傍に位置付けられた、隣接している第2のレイヤブロックの位置に対応する第1のレイヤ内の位置に配置される。第1のレイヤブロックの各サブブロックに関連付けられた、該当の予測モードデータは、動きベクトルを含む。アップサンプルされた予測モードデータと導出された予測モードデータとの間の空間解像度比は、第2の空間解像度と第1の空間解像度との間の空間解像度比と一致する。プロセッサは、第1のコーダ−デコーダ(コーデック)が第1のレイヤブロックを圧縮するために使用される場合、アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、アップサンプルされた予測モードデータを関連付け、第1のコーデックとは異なる第2のコーデックが第1のレイヤ内のビデオユニットを圧縮するために使用される場合、割当規則に少なくとも基づいて、アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、割り当てられた予測モードデータを関連付けるように構成される。割当規則に従って、プロセッサは、ゼロ動きベクトル、ゼロに等しい参照インデックス、マイナス1に等しい参照インデックス、および利用できないものとしてマーキングされた動きフィールドのうちの少なくとも1つとなるように、予測モードデータを割り当てるように構成される。プロセッサは、参照リストにアップサンプルされた第1のレイヤブロックを挿入するように構成される。プロセッサは、デコーダを備える。プロセッサは、エンコーダを備える。装置は、デバイスの一部分であり、デバイスは、コンピュータおよびワイヤレス通信デバイスハンドセットからなるグループから選択される。
[0010] いくつかの実施形態に従って、ビデオデータをコーディングする方法は、第1の空間解像度を有する第1のレイヤと、第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶することと、ここで、第1のレイヤに関連付けられたビデオデータは、少なくとも第1のレイヤブロックと、第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、第1のレイヤブロックは、各サブブロックが第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含み、選択規則に少なくとも基づいて、複数のサブブロックのうちの1つに関連付けられた断定モードデータを導出することと、導出された予測モードデータおよび第1のレイヤブロックをアップサンプルすることと、アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、アップサンプルされた予測モードデータを関連付けることとを含む。
[0011] 前述の段落の方法は、下記の特徴のうちの1つまたは複数を含み得る。選択規則に従って、導出することは、第1のレイヤブロックの1つまたは複数の他のサブブロックに対する第1のサブブロックのロケーションに少なくとも基づいて、複数のサブブロックの第1のサブブロックに関連付けられた予測モードデータを導出することを含む。第1のサブブロックは、第1のレイヤブロックの複数のサブブロックのうちの1つが各々の側に隣接した中心のサブブロックである。方法はさらに、信号フラグに従って、選択規則を決定することを含む。方法はさらに、アップサンプルされた第1のレイヤブロックと、アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられたアップサンプルされた予測モードデータとに少なくとも基づいて、第2のレイヤ内の第2のレイヤブロックの予測された値を決定することを含み、第1のレイヤブロックは、第2のレイヤ内の第2のレイヤブロックの位置に対応する第1のレイヤ内の位置に配置されるか、第1のレイヤブロックは、第2のレイヤ内の第2のレイヤブロックの近傍に位置付けられた、隣接している第2のレイヤブロックの位置に対応する第1のレイヤ内の位置に配置される。第1のレイヤブロックの各サブブロックに関連付けられた、該当の予測モードデータは、動きベクトルを含む。アップサンプルされた予測モードデータと導出された予測モードデータとの間の空間解像度比は、第2の空間解像度と第1の空間解像度との間の空間解像度比と一致する。方法はさらに、第1のコーダ−デコーダ(コーデック)が第1のレイヤブロックを圧縮するために使用される場合、アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、アップサンプルされた予測モードデータを関連付けることと、第1のコーデックとは異なる第2のコーデックが第1のレイヤ内のビデオユニットを圧縮するために使用される場合、割当規則に少なくとも基づいて、アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、割り当てられた予測モードデータを関連付けることとを含む。方法は、割当規則に従って、ゼロ動きベクトル、ゼロに等しい参照インデックス、マイナス1に等しい参照インデックス、および利用できないものとしてマーキングされた動きフィールドのうちの少なくとも1つとなるように、予測モードデータを割り当てることをさらに含む。方法はさらに、参照リストに、アップサンプルされた第1のレイヤブロックを挿入することを含む。方法はさらに、符号化されたビデオビットストリームから抽出されたシンタックスエレメントを受信することを含み、シンタックスエレメントは、第1のレイヤビデオブロックに関連付けられた予測モード情報を示す。方法はさらに、符号化されたビデオビットストリームのためのシンタックスエレメントを生成することを含み、シンタックスエレメントは、第1のレイヤビデオブロックに関連付けられた予測モード情報を示す。
[0012] いくつかの実施形態に従って、ビデオデータをコーディングするように構成される装置は、第1の空間解像度を有する第1のレイヤと、第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶するための手段と、ここで、第1のレイヤに関連付けられたビデオデータは、少なくとも第1のレイヤブロックと、第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、第1のレイヤブロックは、各サブブロックが第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含み、選択規則に少なくとも基づいて、複数のサブブロックのうちの1つに関連付けられた断定モードデータを導出するための手段と、導出された予測モードデータおよび第1のレイヤブロックをアップサンプルするための手段と、アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、アップサンプルされた予測モードデータを関連付けるための手段とを含む。
[0013] いくつかの実施形態に従って、実行可能なプログラム命令を記憶する非一時的コンピュータ記憶装置であって、ビデオデータをコーディングするための装置に、第1の空間解像度を有する第1のレイヤと、第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶することと、ここで、第1のレイヤに関連付けられたビデオデータは、少なくとも第1のレイヤブロックと、第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、第1のレイヤブロックは、各サブブロックが第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含み、選択規則に少なくとも基づいて、複数のサブブロックのうちの1つに関連付けられた断定モードデータを導出することと、導出された予測モードデータおよび第1のレイヤブロックをアップサンプルすることと、アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、アップサンプルされた予測モードデータを関連付けることとを含む処理を行うことを指示する。
[0014] 本明細書で説明される様々な実施形態の特徴は、下記の図面を参照して説明される。図面を通して、参照番号は、参照されたエレメント間の一致を示すために、繰り返し使用される。図面は、本明細書で説明される実施形態を図示するために提供されるが、それらの範囲を限定するものではない。
図1は、本開示において説明される技法を利用し得るビデオコーディングシステムの例を図示するブロック図である。 図2は、本開示の実施形態を実施し得るビデオエンコーダの例を図示するブロック図である。 図3は、本開示の実施形態を実施し得るビデオデコーダの例を図示するブロック図である。 図4は、拡張レイヤの予測のために使用可能なビデオデータの例を図示する概念図である。 図5は、ベースレイヤビデオデータおよびアップサンプルされたベースレイヤビデオデータの例を図示する概念図である。 図6は、ベースレイヤビデオデータおよびアップサンプルされたベースレイヤビデオデータの例を図示する概念図である。 図7は、ビデオデータをコーディングするための方法の例を図示する。
詳細な説明
[概要]
[0021] 本開示で説明される技法は、一般に、スケーラブルビデオコーディング(SVC)、スケーラブルビデオ高効率ビデオコーディング(SHVC:scalable video high efficiency video coding)、マルチビューコーディング、および3Dビデオコーディングに関する。例えば、これら技法は、高効率ビデオコーディング(HEVC:High Efficiency Video Coding)SVC拡張に関連し、HEVC SVC拡張で使用されたり、HEVC SVC拡張内で使用されたりし得る。SVC拡張では、ビデオ情報の複数のレイヤがあり得る。最下位のレイヤはベースレイヤ(BL)の役割を果たし、最上位のレイヤは拡張されたレイヤ(EL)の役割を果たし得る。MVCでは、「ビュー(view)」という用語が、「レイヤ(layer)」という用語の代わりに使用され得る。従って、本開示において「レイヤ」または「複数のレイヤ」に対する参照は、「ビュー」または「複数のビュー」にそれぞれ置き換えられ得る。「拡張されたレイヤ(enhanced layer)」は、しばしば、「拡張レイヤ(enhancement layer)」と呼ばれ、これら用語は区別なく使用され得る。中間のレイヤは、拡張レイヤまたはベースレイヤのいずれかまたは両方の役割を果たし得る。例えば、中間のレイヤは、ベースレイヤや何らかの介在する(intervening)拡張レイヤのようなその下方のレイヤのための拡張レイヤであり、同時に、その上方の拡張レイヤのためのベースレイヤの役割を果たす。
[0022] SVCは、品質(信号対雑音(SNR:signal-to-noise)とも呼ばれる)スケーラビリティ(scalability)、空間スケーラビリティ、および/または時間スケーラビリティを提供するために使用され得る。拡張レイヤは、ベースレイヤと同じまたは異なる空間解像度を有し得る。例えば、拡張レイヤとベースレイヤとの空間アスペクト比(spatial aspect ratio)は、1.0、1.5、2.0、または他の異なる比であり得る。言い換えると、拡張レイヤの空間アスペクトは、ベースレイヤの空間アスペクトの1.0、1.5、2.0倍と等しいことがある。いくつかの例では、拡張レイヤのスケーリング係数(scaling factor)がベースレイヤよりも大きいことがある。例えば、拡張レイヤ内のピクチャのサイズがベースレイヤ内のピクチャのサイズよりも大きいことがある。このように、限定でないが、拡張レイヤの空間解像度がベースレイヤの空間解像度よりも大きいことがあり得る。
[0023] アップサンプルフィルタリング(Upsample filtering)は、しばしば再サンプリングフィルタリング(resample filtering)と呼ばれ、ベースレイヤの空間解像度を高めるためにベースレイヤに適用され得る。いくつかの実施では、ベースレイヤの空間解像度が拡張レイヤの空間解像度と一致するように高められ得る。この処理は、空間スケーラビリティと呼ばれ得る。アップサンプリングフィルタセット(upsampling filter set)がベースレイヤに適用でき、1つのフィルタが位相(phase)に基づくセット(しばしば少数ピクセルシフト(fractional pixel shift)と呼ばれる)から選択され得る。位相はベースレイヤと拡張レイヤピクチャとの間の空間アスペクト比に基づいて計算され得る。
[0024] SVCは、さらにベースレイヤの動きが拡張レイヤにおける動きを予測するために使用されるインターレイヤ動き予測(inter-layer motion prediction)を容易にする。動きベクトルのような動き情報、参照インデックス、あるいはベースレイヤの1つまたは複数のビデオブロックに関連付けられた相互方向(inter direction)は、拡張レイヤの1つまたは複数のビデオブロックに関連付けられた動き情報を決定するために使用され得る。例えば、ベースレイヤピクチャ内の同一位置に配置された(co-located)ブロックの動きベクトルは、ベースレイヤピクチャが参照ピクチャリスト内の同一位置に配置されたピクチャとしてリスト化される場合、拡張レイヤ内の予測されたビデオユニットの動きベクトルを予測するための候補として使用され得る。
[0025] しかしながら、いくつかの場合において、拡張レイヤの空間解像度がベースレイヤの拡張レイヤとは異なるときに、ベースレイヤのビデオブロックに関連付けられた動き情報が、スライスレベルの下のベースレイヤシステム設計に対する変更を実施したり、異なるハードウェアまたはソフトウェアシステム設計を使用したりせずに、インターレイヤ動き予測にアクセス可能なものでないことから、インターレイヤ動き予測がイネーブルされないことがある。結果として、ビデオデータを圧縮するためのビデオコーダの能力は、拡張レイヤの空間解像度がベースレイヤの空間解像度よりとは異なる場合に、低減され得る。
[0026] 有利なことに、本開示の実施形態は、しばしば非ピクセル情報として知られるベースレイヤのアップサンプリングモード情報(例えば、イントラ予測モード、インター予測モード、あるいは、動きベクトル、参照インデックス、またはビデオデータを圧縮するために使用可能である相互方向のような、動き情報)の一部分に向けられるので、アップサンプルされた予測モード情報が拡張レイヤのためのインターレイヤ動き予測において使用され得る。本開示のアプローチは、拡張レイヤがベースレイヤよりも大きい、または異なる空間解像度を有するときに、コーディングユニットまたは低レベルシステム変更を実施することなく、インターレイヤ動き予測を容易にできる。1つの例では、ベースレイヤブロックに関連付けられた予測モード情報がアップサンプルされ、アップサンプルされた予測モード情報のいくつかまたは全てが順に拡張レイヤブロックのための予測された予測モード情報を決定するために使用され得る。さらに、特定の実施形態では、デフォルト予測モード情報(default prediction mode information)が、拡張レイヤブロックのための予測された予測モード情報を決定するための候補として有益に使用され得る。
[0027] 図示する目的のみのために、本開示で説明される技法は、2つのレイヤのみを含む例で説明される(例えば、ベースレイヤのような下位レベルレイヤ、および拡張レイヤのような上位レベルレイヤ)。しかしながら、本開示で説明される例が拡張レイヤと同様に複数のベースレイヤを用いた例に対して拡張され得ることが、理解されるべきである。
[ビデオコーディングシステム]
[0028] 図1は、本開示で説明される態様に従った技法を利用し得るビデオコーディングシステム10の例を図示するブロック図である。本明細書で説明されるような「ビデオコーダ」という用語は、一般に、ビデオエンコーダおよびビデオデコーダの両方を指す。「ビデオコーディング」または「コーディング」という用語は、一般に、ビデオ符号化またはビデオ復号を指し得る。
[0029] 図1に示されるように、ビデオコーディングシステム10は、ソースデバイス12および宛先デバイス14を含む。ソースデバイス12は、符号化されたビデオデータを生成する。宛先デバイス14は、ソースデバイス12によって生成された符号化されたビデオデータを復号し得る。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(例えば、ラップトップなど)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンや、いわゆる「スマート」パッドのような電話ハンドセット、テレビ、カメラ、ディスプレイデバイス、デジタルメディアプレイヤ、ビデオゲーム機、車載コンピュータなどを含む、幅広い範囲のデバイスを備え得る。いくつかの例では、ソースデバイス12および宛先デバイス14がワイヤレス通信のために装備され得る。
[0030] 宛先デバイス14は、チャネル16を介してソースデバイス12から符号化されたビデオデータを受信し得る。チャネル16は、ソースデバイス12から宛先デバイス14へ、符号化されたビデオデータを移動させることが可能な任意のタイプの媒体またはデバイスを備え得る。1つの例で、チャネル16は、ソースデバイス12がリアルタイムに宛先デバイス14に直接符号化されたビデオデータを送信することを可能にする通信メディアを備え得る。この例では、ソースデバイス12が、ワイヤレス通信プロトコルのような通信規格に従って、符号化されたビデオデータを変調し、宛先デバイス14に変調されたビデオデータを送信し得る。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物理送信ラインのような、ワイヤレスまたはワイヤード(wired)通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、広域ネットワーク、またはインターネットのようなグローバルネットワークなどの、パケットベースのネットワークの一部分を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス12から宛先デバイス14への通信を容易にする他の機器を含み得る。
[0031] 別の例では、チャネル16が、ソースデバイス12によって生成された符号化されたビデオデータを記憶する記憶媒体に対応し得る。この例では、宛先デバイス14が、ディスクアクセスまたはカードアクセスを介して記憶媒体にアクセスし得る。記憶媒体は、ブルーレイディスク、DVD、CD−ROM、フラッシュメモリ、または符号化されたビデオデータを記憶するための他の適切なデジタル記憶媒体のような、様々な局所的にアクセスされるデータ記憶媒体を含み得る。さらなる例では、チャネル16が、ソースデバイス12によって生成された符号化されたビデオを記憶するファイルサーバまたは別の中間記憶媒体を含み得る。この例では、宛先デバイス14が、ストリーミングまたはダウンロードを介して、ファイルサーバまたは他の中間記憶デバイスで記憶される符号化されたビデオデータにアクセスし得る。ファイルサーバは、符号化されたビデオデータを記憶すること、および宛先デバイス14にその符号化されたビデオデータを送信することが可能なタイプのサーバであり得る。ファイルサーバの例は、ウェブサーバ(例えば、ウェブサイトなどのための)、FTPサーバ、ネットワーク接続ストレージ(NAS)デバイス、およびローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含むいずれかの標準データ接続を通して、符号化されたビデオデータにアクセスし得る。データ接続のタイプの例は、ファイルサーバ上に記憶される符号化されたビデオデータにアクセスするのに適切な、ワイヤレスチャネル(例えば、Wi−Fi(登録商標)接続など)、ワイヤード接続(例えば、DSL、ケーブルモデムなど)、またはその両方の組み合わせを含み得る。ファイルサーバからの符号化されたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはその両方の組み合わせであり得る。
[0032] 図1の例では、ソースデバイス12が、ビデオソース18、ビデオエンコーダ20、および出力インターフェース22を含む。いくつかの例では、出力インターフェース22が、変調器/復調器(モデム)および/または送信機を含み得る。ソースデバイス12では、ビデオソース18が、例えばビデオカメラのようなビデオキャプチャデバイス、以前にキャプチャされたビデオデータを含むビデオアーカイブ、ビデオコンテンツプロバイダからビデオデータを受信するためのビデオフィードインターフェース、および/またはビデオデータを生成するためのコンピュータグラフィックシステム、またはそのようなソースの組み合わせ、などのソースを含み得る。
[0033] ビデオエンコーダ20は、キャプチャされた、プリキャプチャされた(pre-captured)、またはコンピュータによって生成されたビデオデータを符号化するように構成され得る。符号化されたビデオデータは、ソースデバイス12の出力インターフェースを介して宛先デバイス14に直接送信され得る。符号化されたビデオデータはまた、復号および/または再生のために宛先デバイス14によって後にアクセスされるように、記憶媒体またはファイルサーバに記憶され得る。
[0034] 図1の例では、宛先デバイス14が、入力インターフェース28、ビデオデコーダ30、およびディスプレイデバイス32を含む。いくつかの例では、入力インターフェース28が受信機および/またはモデムを含み得る。宛先デバイス14の入力インターフェース28は、チャネル16を介して符号化されたビデオデータを受信する。符号化されたビデオデータは、ビデオデータを表すビデオエンコーダ20によって生成される様々なシンタックスエレメントを含み得る。シンタックスエレメントは、例えば、ブロックの特性および/または処理、並びにGOPのような他のコード化されたユニットを説明し得る。このようなシンタックスエレメントは、通信媒体に送信され、記憶媒体に記憶され、またはファイルサーバに記憶された、符号化されたビデオデータに含まれ得る。
[0035] ディスプレイデバイス32は、宛先デバイス14に統合され得るか、宛先デバイス14の外部にあり得る。いくつかの例では、宛先デバイス14が、統合されたディスプレイデバイスを含み、同様に、外部ディスプレイデバイスとインターフェース接続する(interface)ように構成され得る。他の例で、宛先デバイス14は、ディスプレイデバイスであり得る。一般に、ディスプレイデバイス32は、復号されたビデオデータをユーザに表示する。ディスプレイデバイス32は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスのような、様々なディスプレイデバイスのいずれかを備え得る。
[0036] ビデオエンコーダ20およびビデオデコーダ30は、HEVC規格のようなビデオ圧縮規格に従って動作し、HEVCテストモデル(HM)に適合し得る。代替的に、ビデオエンコーダ20およびビデオデコーダ30は、MPEG4、パート10、アドバンスドビデオコーディング(AVC:Advanced Video Coding)、またはそのような規格の延長と代替的に呼ばれる、ITU−T H.264規格のような、他の所有権または工業規格に従って動作し得る。しかしながら、本開示の技法は、いずれの特定のコード化規格にも限定されない。ビデオ圧縮規格の他の例は、MPEG−2およびITU−T H.263を含む。2つ以上の規格(例えば、HEVCおよびH.264/AVC)はさらに、いくつかの場合では、一緒または組み合わせで使用され得る。例えば、H.264/AVCまたは別の組み合わせのエンコーダ/デコーダ(コーデック)がベースレイヤ圧縮のために使用され、拡張レイヤ圧縮がHEVCを使用し得る。
[0037] 図1の例には示されないが、ビデオエンコーダ20およびビデオデコーダ30はオーディオエンコーダおよびデコーダと各々統合され、適切なMUX−DEMUXユニットまたは他のハードウェアおよびソフトウェアを含み、共通のデータストリームまたは別個のデータストリームにおいてオーディオおよびビデオの両方の符号化に対処し得る。適用可能ならば、いくつかの例で、MUX−DEMUXユニットは、ITU.H.223マルチプレクサプロトコルや、ユーザデータグラムプロトコル(UDP)のような他のプロトコルに従い得る。
[0038] また、図1は単なる例であり、本開示の技法は、符号化デバイスと復号デバイスとの間のいずれかのデータ通信を必ずしも含まないビデオコーディング設定(例えば、ビデオ符号化またはビデオ復号)に適用され得る。他の例では、データがローカルメモリから検索され、ネットワークを介してストリーミングされるなどが行われ得る。符号化デバイスは、メモリにデータを符号化し、記憶することができ、および/または復号デバイスは、メモリからデータを検索し、復号できる。いくつかの例では、符号化および復号が、互いに通信せず単にデータをメモリに符号化し、および/またはデータをメモリから検索し、復号するデバイスによって行われる。
[0039] ビデオエンコーダ20およびビデオデコーダ30は各々、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ハードウェア、またはこれらの任意の組み合わせのような、様々な適切な回路のいずれかとして実施され得る。技法がソフトウェアで部分的に実施される場合、デバイスは、適切に、非一時的なコンピュータ読取可能な記憶媒体にソフトウェアのための複数の命令を記憶することができ、本開示の技法を行うために、1つまたは複数のプロセッサを使用してハードウェアでこれら命令を実行できる。各ビデオエンコーダ20およびビデオデコーダ30は、1つまたは複数のエンコーダまたはデコーダに含まれることができ、そのいずれかは、該当のデバイスにおいてコーデックの一部として統合され得る。ビデオエンコーダ20および/またはビデオデコーダ30を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラフォンのようなワイヤレス通信デバイスを備え得る。
[ビデオエンコーダ]
[0040] 図2は、本開示で説明される態様に従っていずれかまたは全ての技法を実施し得る、ビデオエンコーダ20の例を図示するブロック図である。1つの例として、インター予測モジュール121およびアップサンプリングモジュール130は、本開示で説明される技法の全てまたはいずれかを行い得る。しかしながら、本開示の態様は、そのように限定されない。いくつかの例では、これら技法が、ビデオエンコーダ20の様々なコンポーネント間で共有され得る。いくつかの例では、プロセッサ(図示されない)に加えて、またはプロセッサの代わりに、本開示で説明される技法の全てまたはいずれかを行うように構成され得る。
[0041] ビデオエンコーダ20は、複数の機能的コンポーネントを含む。ビデオエンコーダ20の機能的コンポーネントは、予測モジュール100、残余生成モジュール(residual generation module)102、変換モジュール104、量子化モジュール106、逆量子化モジュール108、逆変換モジュール110、再構成モジュール112、フィルタモジュール113、復号ピクチャバッファ114、エントロピー符号化モジュール116、およびアップサンプリングモジュール130を含む。予測モジュール100は、インター予測モジュール121、動き推定モジュール122、動き補償モジュール124、およびイントラ予測モジュール126を含む。他の例では、ビデオエンコーダ20が、より多い、より少ない、または異なる機能的コンポーネントを含み得る。さらに、動き推定モジュール122および動き補償モジュール124は、高度集積化され(highly integrated)得るが、説明の目的のために図2の例とは別に表される。
[0042] ビデオエンコーダ20は、ビデオデータを受信し得る。ビデオエンコーダ20は、様々なソースからビデオデータを受信し得る。例えば、ビデオエンコーダ20は、ビデオソース18(図1)または別のソースからビデオデータを受信し得る。ビデオデータは、ピクチャのグループ(GOP)のような、一連のビデオフレームまたはピクチャを表し得る。GOPは、GOPのヘッダ、1つまたは複数のピクチャのヘッダ、またはその他の場所に、GOPに含まれるピクチャの数を記述するシンタックスデータを含み得る。ピクチャの各スライスは、該当のスライスについての符号化モードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は通常、ビデオデータを符号化するために、個々のビデオスライス内のビデオブロック上で動作する。ビデオブロックは、CU内のコーディングノードに対応し得る。ビデオブロックは、固定されたサイズまたは可変のサイズを有し、指定されたコーディング規格に従ってサイズが異なり得る。
[0043] ビデオフレームまたはピクチャはさらに、ルマ(luma)およびクロマ(chroma)サンプル(しばしば、ピクセルと呼ばれ得る)の両方を含む、最も大きいコーディングユニット(LCU)またはツリーブロックのシーケンスに分けられ得る。ビットストリーム内のシンタックスデータは、LCUについてのサイズを定義し、それは、サンプルの数の観点で最も大きいコーディングユニットである。スライスは、コーディングの順番で、多数の連続したツリーブロックを含む。ビデオフレームまたはピクチャは、1つまたは複数のスライスに分割され得る。各ツリーブロックは、4分木(quadtree)に従って、コーディングユニット(CU)に分けられ得る。一般に、4分木データ構造は、ツリーブロックに対応する根ノード(root node)を有する、CUごとに1つのノードを含む。CUが4つのサブCUに分けられる場合、このCUに対応するノードは、その各々がサブCUのうちの1つに対応する4つの葉ノード(leaf nodes)を含む。
[0044] CUに関連付けられたビデオブロックのサイズは、8×8個のサンプルから、最大64×64個のサンプルまたはそれ以上のツリーブロック(treeblock)のサイズまで広がり得る。本開示において、「N×N」および「NかけるN」は、例えば16×16個のサンプルや、16かける16個のサンプルのように、垂直および水平の寸法に関するビデオブロックのサンプル寸法を表すために区別なく使用され得る。一般に、16×16個のビデオブロックは、垂直方向(x=16)における16サンプルと、水平方向(y=16)における16ピクセルを有し得る。同様に、N×N個のブロックは一般に、垂直方向におけるNサンプル、水平報告におけるNサンプルを有し、ここで、Nは、負でない整数値を表す。
[0045] 4分木データ構造の各ノードは、対応するツリーブロックまたはCUのためにシンタックスデータ(例えば、シンタックスエレメント)を含み得る。例えば、4分木内のノードは、ノードに対応するCUのビデオブロックが4つのサブブロックに分割される(すなわち、分けられる)かどうかを示す分割フラグを含み得る。CUのためのシンタックスエレメント(syntax elements)は、帰納的に定義でき、CUのビデオブロックが複数のサブブロックに分けられるかどうかに依存し得る。ビデオブロックが分割されないCUは、四分木データ構造内のリーフノードに対応し得る。コーディングされたツリーブロックは、対応するツリーブロックのための四分木データ構造に基づくデータを含み得る。
[0046] ビデオエンコーダ20は、ツリーブロックの各非分割(non-partitioned)CUで符号化動作を行い得る。ビデオエンコーダ20が非分割CUで符号化動作を行う場合、ビデオエンコーダ20は、非分割CUの符号化された表示を表すデータを生成する。
[0047] CUの符号化動作を行う部分として、予測モジュール100は、CUの1つまたは複数の予測ユニット(PU)間でCUのビデオブロックを分割し得る。ビデオエンコーダ20およびビデオデコーダ30は、様々なPUサイズをサポートし得る。特定のCUのサイズが2N×2N個であると仮定すると、ビデオエンコーダ20およびビデオデコーダ30は、2N×2NまたはN×N個のPUサイズをサポートし、2N×2N、2N×N、N×2N、N×N、2N×nU、nL×2N、nR×2N個の、または同様の対称なPUサイズにおけるインター予測をサポートし得る。ビデオエンコーダ20およびビデオデコーダ30はまた、2N×nU、2N×nD、nL×2N、およびnR×2N個のPUサイズのための非対称分割(asymmetric partitioning)をサポートし得る。いくつかの例では、予測モジュール100が、CUのビデオブロックの側面と直角に接触しない境界に沿って、CUのPU間でCUのビデオブロックを分割する幾何学分割(geometric partitioning)を行い得る。
[0048] インター予測モジュール121は、CUの各PU上でインター予測を行い得る。インター予測は、時間的圧縮を提供し得る。PU上でインター予測を行うために、動き推定モジュール122は、PUのための動き情報を生成し得る。動き補償モジュール124は、動き情報に基づいたPUについての予測されたビデオブロック、およびCUに関連づけられたピクチャ以外のピクチャの復号されたサンプル(すなわち、参照ピクチャ)を生成し得る。本開示では、動き補償モジュール124によって生成された予測されたビデオブロックがインター予測ビデオブロックと呼ばれ得る。
[0049] スライスは、Iスライス、Pスライス、またはBスライスであり得る。動き推定モジュール122および動き補償モジュール124は、PUがIスライス、Pスライス、またはBスライスにあるかどうかに依存して、CUのPUのために異なる動作を行い得る。Iスライスでは、全てのPUがイントラ予測される。よって、PUがIスライスにある場合、動き推定モジュール122および動き補償モジュール124はPUにインター予測を行わない。
[0050] PUがPスライス内にある場合、PUを含んでいるピクチャは、「リスト0」と呼ばれる参照ピクチャのリストに関連付けられる。リスト0内の参照ピクチャの各々は、他のピクチャのインター予測のために使用され得るサンプルを含む。動き推定モジュール122がPスライス内のPUに関する動き推定動作を行う場合、動き推定モジュール122は、PUに関する参照ブロックのために、リスト0内の参照ピクチャを探索し得る。PUの参照ブロックは、例えばサンプルのブロックなどの、PUのビデオブロック内のサンプルに最も近く対応するサンプルのセットであり得る。動き推定モジュール122は、参照ピクチャにおけるサンプルのセットがPUのビデオブロック内のサンプルにどれほど緊密に対応するかを決定するために様々なメトリックを使用できる。例えば、動き推定モジュール122は、絶対値差分和(SAD:sum of absolute difference)、二乗差分和(SSD:sum of square difference)、または他の差分メトリックによって、参照ピクチャにおけるサンプルのセットがPUのビデオブロック内のサンプルにどれほど緊密に対応するかを決定し得る。
[0051] PスライスにおけるPUの参照ブロックを識別した後、動き推定モジュール122は、参照ブロックに含まれるリスト0内の参照ピクチャ、およびPUと参照ブロックとの間の空間置換(spatial displacement)を示す動きベクトルを示す、参照インデックスを生成し得る。様々な例では、動き推定モジュール122が、精度(precision)の度合いを変化させるために、動きベクトルを生成し得る。例えば、動き推定モジュール122は、四分の一のサンプル精度、八分の一のサンプル精度、または他の分数サンプル精度(fractional sample precision)で動きベクトルを生成し得る。分数サンプル精度の場合は、参照ブロック値は、参照ピクチャ内の整数位置のサンプル値から挿入され得る。動き推定モジュール122は、PUの動き情報として動きベクトルおよび参照インデックスを出力し得る。動き補償モジュール124は、PUの動き情報によって識別される参照ブロックに基づいて、PUの予測されたビデオブロックを生成し得る。
[0052] PUがBスライス内にある場合、PUを含んでいるピクチャは、「リスト0」および「リスト1」と呼ばれる、参照ピクチャの2つのリストに関連付けられ得る。いくつかの例では、Bスライスを含むピクチャが、リスト0およびリスト1の組み合わせであるリストの組み合わせに関連付けられ得る。
[0053] さらに、PUがBスライスにある場合、動き推定モジュール122は、PUのために一方向予測または双方向予測を行い得る。動き推定モジュール122がPUのために一方向予測を行う場合、動き推定モジュール122は、PUのために参照ブロックに関するリスト0またはリスト1の参照ピクチャを探索し得る。動き推定モジュール122はその後、参照ブロックを含むリスト0またはリスト1において参照ピクチャを示す参照インデックス、およびPUと参照ブロックとの間の空間置換を示す動きベクトルを生成し得る。動き推定モジュール122は、参照インデックス、予測方向インジケータ、およびPUの動き情報としての動きベクトルを出力し得る。予測方向インジケータは、参照インデックスがリスト0またはリスト1において参照ピクチャを示すかどうかを示し得る。動き補償モジュール124は、PUの動き情報によって示される参照ブロックに基づいて、PUの予測されたビデオブロックを生成し得る。


[0054] 動き推定モジュール122がPUのために双方向予測を行う場合、動き推定モジュール122は、PUのために参照ブロックに関するリスト0において参照ピクチャを探索し、またPUのために別の参照ブロックに関するリスト1において参照ピクチャを探索し得る。動き推定モジュール122は次に、参照ブロックを含むリスト0およびリスト1における参照ピクチャを示す参照インデックス、および参照ブロックとPUとの間の空間置換を示す動きベクトルを生成し得る。動き推定モジュール122は、参照インデックス、およびPUの動き情報としてPUの動きベクトルを出力し得る。動き補償モジュール124は、PUの動き情報によって示される参照ブロックに基づいて、PUの予測されたビデオブロックを生成し得る。
[0055] いくつかの事例では、動き推定モジュール122が、エントロピー符号化モジュール116へPUのための動き情報のフルセットを出力しない。むしろ、動き推定モジュール122は、別のPUの動き情報関連して、PUの動き情報をシグナリングし得る。例えば、動き推定モジュール122は、PUの動き情報が隣接しているPUの動き情報に十分類似することを決定し得る。この例で、動き推定モジュール122は、PUが隣接しているPUと同じ動き情報を有することをビデオデコーダ30に指示する値を、PUに関連付けられたシンタックス構造において、指示し得る。別の例では、動き推定モジュール122が、隣接しているPUおよび動きベクトル差分(MVD)を、PUと関連付けられたシンタックス構造において識別し得る。動きベクトル差分は、PUの動きベクトルと、示された隣接しているPUの動きベクトルとの間の差分を示し得る。ビデオデコーダ30は、PUの動きベクトルを決定するために、動きベクトル差分と、示された隣接しているPUの動きベクトルとを使用し得る。第2のPUの動き情報をシグナリングする場合、第1のPUの動き情報を参照すると、ビデオエンコーダ20は、より小さいビットを使用して、第2のPUの動き情報をシグナリングすることができ得る。
[0056] CUの符号化動作を行う部分として、イントラ予測モジュール126は、CUのPUにおいてイントラ予測を行い得る。イントラ予測は、空間圧縮を提供し得る。イントラ予測モジュール126は、PUのイントラ予測を行い、イントラ予測モジュール126は、同じピクチャ内の他のPUの復号されたサンプルに基づいて、PUのための予測データを生成し得る。PUのための予測データは、予測されたビデオブロックおよび様々なシンタックスエレメントを含み得る。イントラ予測モジュール126は、Iスライス、Pスライス、およびBスライスにおいてPUのイントラ予測を行い得る。
[0057] PUのイントラ予測を行うために、イントラ予測モジュール126は、PUのための予測データの複数のセットを生成するために、イントラ予測方向を使用するか、または複数のイントラ予測モード方向(multiple intra prediction mode directions)を使用し得る。イントラ予測モジュール126がPUのための予測データのセットを生成するために、イントラ予測方向を使用する場合、イントラ予測モジュール126は、イントラ予測方向に関連付けられた変化度(gradient)および/または方向において、PUのビデオブロックを介して、隣接しているPUのビデオブロックからサンプルを拡張し得る。隣接しているPUは、PU、CU、およびツリーブロックについて、左から右への、上から下への符号化順序であると仮定すると、PUの上部、右上部、左上部、または左にあり得る。イントラ予測モジュール126は、PUサイズに依存して、様々な数のイントラ予測方向(例えば、33のイントラ予測方向)を使用し得る。
[0058] 予測モジュール100は、PUのために動き補償モジュール124によって生成される予測データ、またはPUのためにイントラ予測モジュール126によって生成される予測データのうちからPUのための予測データを選択し得る。いくつかの例では、予測モジュール100が、予測データのセットのレート/歪みメトリック(distortion metrics)に基づいて、PUのために予測データを選択する。
[0059] 予測モジュール100がイントラ予測モジュール126によって生成される予測データを選択する場合、予測モジュール100は、PUのための予測データ(例えば、選択されたイントラ予測方向)を生成するために使用されるイントラ予測モードの方向をシグナリングし得る。予測モジュール100は、様々な方法で、選択されたイントラ予測方向をシグナリングし得る。例えば、選択されたイントラ予測方向は、隣接しているPUのイントラ予測方向と同じであり得る。言い換えると、隣接しているPUのイントラ予測方向は、現在のPUのために最も起こりそうなモードであり得る。そのため、予測モジュール100は、選択されたイントラ予測方向が、隣接しているPUのイントラ予測方向と同じであることを示すために、シンタックスエレメントを生成し得る。
[0060] 予測モジュール100がCUのPUのための予測データを選択した後、残余生成モジュール102は、CUのビデオブロックから、CUのPUの予測されたビデオブロックを差し引くことによって、CUのための残余データを生成し得る。CUの残余データは、CUのビデオブロックにおけるサンプルの、異なるサンプルコンポーネントに対応する2D残余ビデオブロックを含み得る。例えば、残余データは、CUのPUの予測されたビデオブロックにおけるサンプルの輝度コンポーネントと、CUの元のビデオブロックにおけるサンプルの輝度コンポーネントとの間の差に対応する残余ビデオブロックを含み得る。加えて、CUの残余データは、CUのPUの予測されたビデオブロックにおけるサンプルの色差コンポーネント(chrominance components)と、CUの元のビデオブロックにおけるサンプルの色差コンポーネントとの間の差に対応する、残余ビデオブロックを含み得る。
[0061] 予測モジュール100は、CUの残余ビデオブロックを、サブブロックに分割するための四分木分割を行い得る。分割されない残余ビデオブロック(undivided residual video block)の各々は、CUの異なるTUと関連付けられ得る。CUのTUに関連付けられた残余ビデオブロックのサイズおよび位置は、CUのPUに関連付けられたビデオブロックのサイズおよび位置に基づき得る、または基づかない可能性がある。「残余四分木」(RQT:residual quad tree)として知られる四分木構造は、残余ビデオブロックの各々に関連付けられたノードを含み得る。CUのTUは、RQTの葉ノードに対応し得る。
[0062] 変換モジュール104は、TUに関連付けられた残余ビデオブロックに1つまたは複数の変換を適用することによって、CUの各TUのための1つまたは複数の変換係数ブロックを生成し得る。変換係数ブロックの各々は、変換係数の2Dマトリックス(matrix)であり得る。変換モジュール104は、TUに関連付けられた残余ビデオブロックに、様々な変換を適用し得る。例えば、変換モジュール104は、離散コサイン変換(DCT:discrete cosine transform)、方向変換、または概念的に類似する変換を、TUに関連づけられた残余ブロックに適用し得る。
[0063] 変換モジュール104がTUに関連付けられた変換係数ブロックを生成した後、量子化モジュール106は、変換係数ブロック内の変換係数を量子化し得る。量子化モジュール106は、CUに関連付けられたQP値に基づいて、CUのTUに関連付けられた変換係数ブロックを量子化し得る。
[0064] ビデオエンコーダ20は、様々な方法でCUにQP値を関連づけ得る。例えば、ビデオエンコーダ20は、CUに関連付けられたツリーブロックのレート歪み分析(rate-distortion analysis)を行い得る。レート歪み分析では、ビデオエンコーダ20が、ツリーブロックで符号化動作を複数回行うことによって、ツリーブロックの複数のコード化された表示を生成し得る。ビデオエンコーダ20は、ビデオエンコーダ20がツリーブロックの異なる符号化された表示を生成する場合、CUに異なるQP値を関連付け得る。ビデオエンコーダ20は、所与のQP値が、最も低いビットレートおよび歪みメトリックを有するツリーブロックのコード化された表示においてCUに関連付けられる場合に、所与のQP値がCUに関連付けられることをシグナリングし得る。
[0065] 逆量子化モジュール108および逆変換モジュール110は、変換係数ブロックからの残余ビデオブロックを再構成するために、変換係数ブロックに逆量子化および逆変換をそれぞれ適用され得る。再構成モジュール112は、TUに関連付けられた再構成されたビデオブロックを作り出すために、予測モジュール100によって生成された1つまたは複数の予測されたビデオブロックから対応するサンプルへ、再構成された残余ビデオブロックを加え得る。この方法でCUの各TUのためのビデオブロックを再構成することによって、ビデオエンコーダ20は、CUのビデオブロックを再構成し得る。
[0066] 再構成モジュール112がCUのビデオブロック再構成した後、フィルタモジュール113は、CUに関連付けられたビデオブロックにおいてブロッキングアーティファクト(blocking artifacts)を低減させるために、デブロッキング動作(deblocking operation)を行い得る。1つまたは複数のデブロッキング動作を行った後、フィルタモジュール113は、復号ピクチャバッファ114において、CUの再構成されたビデオブロックを記憶し得る。動き推定モジュール122および動き補償モジュール124は、後続のピクチャのPUにインター予測を行うために、再構成されたビデオブロックを含む参照ピクチャを使用し得る。加えて、イントラ予測モジュール126は、CUと同じピクチャにおいて、他のPUでイントラ予測を行うために、復号ピクチャバッファ114において再構成されたビデオブロックを使用し得る。
[0067] エントロピー符号化モジュール116は、ビデオエンコーダ20の他の機能的コンポーネントからデータを受信し得る。例えば、エントロピー符号化モジュール116は、量子化ユニット106から変換係数ブロックを受信し、予測モジュール100からシンタックスエレメントを受信し得る。エントロピー符号化モジュール116がデータを受信する場合、エントロピー符号化モジュール116は、エントロピー符号化データを生成するために、1つまたは複数のエントロピー符号化動作行い得る。例えば、ビデオエンコーダ20は、データに、コンテキスト適応可変長コーディング(CAVLC)動作、CABAC動作、可変対可変(variable-to-variable)(V2V)長コーディング動作、シンタックスに基づくコンテキスト適応型2演算コーディング(SBAC)動作、プロバビリティインターバル分割エントロピー(Probability Interval Partitioning Entropy)(PIPE)コーディング動作、またはエントロピー符号化動作の別のタイプを行い得る。エントロピー符号化モジュール116は、エントロピー符号化データを含む出力ビットストリームを含み得る。
[0068] アップサンプリングモジュール130は、空間解像度を高めるために、予測モード情報のようなピクセルおよび非ピクセル情報を含むビデオデータを、スケーリング(scale)または再サンプリング(resample)し得る。いくつかの実施形態では、ベースレイヤのビデオデータが、拡張レイヤの空間解像度に一致させるために、アップサンプルされ得る。アップサンプリングモジュール130はまた、ベースレイヤピクチャが参照リストに挿入される前に、ベースレイヤピクチャのベースレイヤビデオデータをアップサンプルするために、ビデオエンコーダ20の1つまたは複数の他の機能的コンポーネントに調整し得る。
[0069] ビデオエンコーダ220はさらに、例えば、フレームヘッダ、ブロックヘッダ、スライスヘッダ、またはGMOヘッダなどにおいて、ビデオデコーダ30へ、ブロックベースのシンタックスデータ、フレームベースのシンタックスデータ、およびGOPベースのシンタックスデータなどのシンタックスデータを送り得る。GOPシンタックスデータは、該当のGOP内のフレームの数を記述し、フレームシンタックスデータは、対応するフレームを符号化するために使用される符号化/予測モードを示し得る。
[ビデオデコーダ]
[0070] 図3は、本開示で説明される態様に従った技法を実施し得るビデオデコーダの例を図示するブロック図である。ビデオデコーダ30は、本開示の技法の全てまたはいずれかを行い得る。1つの例として、動き補償ユニット162およびアップサンプリングモジュール170は、本開示で説明される技法の全てまたはいずれかを行うように構成され得る。しかしながら、本開示の態様は、そのように限定されない。いくつかの例では、本開示で説明される技法がビデオデコーダ30の様々なコンポーネント間で共有され得る。いくつかの例では、加えてまたは代わりにプロセッサ(図示されない)が、本開示で説明される技法の全てまたはいずれかを行うように構成され得る。
[0071] ビデオデコーダ30は、エントロピー復号ユニット150、動き補償ユニット162、イントラ予測ユニット164、逆量子化ユニット154、逆変換ユニット156、参照ピクチャメモリ160、およびサマー158を含む。ビデオデコーダ30は、いくつかの例で、ビデオエンコーダ20(図2)に関して、一般に、説明された符号化パスと逆の復号パスを行い得る。動き補償ユニット162がエントロピー復号ユニット150から受信された動きベクトルに基づいて予測データを生成し得る一方で、イントラ予測ユニット164がエントロピー復号ユニット150から受信されたイントラ予測モードインジケータに基づいて予測データを生成し得る。
[0072] 復号処理の間、ビデオデコーダ30は、ビデオエンコーダ20から、関連付けられたシンタックスエレメントおよび符号化されたビデオスライスのビデオブロックを表す符号化されたビデオストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット150は、量子化された係数、動きベクトルまたはイントラ予測モードインジケータ、および他のシンタックスエレメントを生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット150は、動きベクトルをおよび他のシンタックスエレメントを動き補償ユニット162に転送(forwards)する。ビデオデコーダ30はビデオスライスレベルおよび/またはビデオブロックレベルにおいてシンタックスエレメントを受信し得る。
[0073] ビデオスライスがイントラコード化された(intra-coded)(I)スライスとしてコード化される場合、イントラ予測ユニット164が、現在のフレームまたはピクチャの以前に復号されたブロックからのデータ、およびシグナリングされたイントラ予測モードに基づいて、現在のビデオスライスのビデオブロックのための予測データを生成し得る。ビデオフレームがインターコード化された(inter-coded)(例えば、B、P、またはGPB)スライスとしてコード化される場合、動き補償ユニット162は、エントロピー復号ユニット150から受信された他のシンタックスエレメントおよび動きベクトルに基づいて、現在のビデオスライスのビデオブロックのために予測ブロックを作り出す。予測ブロックは、参照ピクチャリストの中うちの1つの、参照ピクチャのうちの1つから作り出され得る。ビデオデコーダ30は、参照ピクチャメモリ160に記憶された参照ピクチャに基づいて、デフォルトの構成技法を使用して、参照フレームリスト、リスト0およびリスト1を構成し得る。動き補償ユニット162は、動きベクトルおよび他のシンタックスエレメントを構文解析すること(parsing)によって、現在のビデオスライスのビデオブロックのための予測情報を決定し、復号されている現在のビデオブロックに関する予測ブロックを作り出すための予測情報を使用する。例えば、動き補償ユニット162は、ビデオスライスのビデオブロックをコード化するために使用される予測モード(例えば、イントラまたはインター予測)、インター予測スライスタイプ(例えば、Bスライス、Pスライス、またはGPBスライス)、スライスのための参照ピクチャリストのうちの1つまたは複数についての構成情報、スライスの各インター符号化されたビデオブロック(inter-encoded video block)についての動きベクトル、スライスの各インターコード化されたビデオブロックについてのインター予測状況、および現在のビデオスライスにおけるビデオブロックを復号するための他の情報を決定するために、受信されたシンタックスエレメントのいくつかを使用する。
[0074] アップサンプリングモジュール170は、空間解像度を高めるために、予測モード情報のようなピクセルおよび非ピクセル情報を含むビデオデータを、スケーリングまたは再サンプリングし得る。いくつかの実施形態では、ベースレイヤのビデオレイヤが、拡張レイヤの空間解像度に一致させるためにアップサンプルされ得る。アップサンプリングモジュール130は、ベースレイヤピクチャが参照リストに挿入される前にビデオエンコーダの1つまたは複数の他の機能的コンポーネントと調整してベースレイヤピクチャのベースレイヤビデオをアップサンプルし得る。
[0075] 動き補償ユニット162はまた、補間フィルタ(interpolation filters)に基づいて補間を行い得る。動き補償ユニット162は、参照ブロックのサブ整数ピクセル(sub-integer pixels)についての挿入された値を計算するためにビデオブロックの符号化中に、ビデオエンコーダ20によって使用されるように挿入フィルタを使用できる。この場合、動き補償ユニット162は、受信されたシンタックスエレメントからビデオエンコーダ20によって使用される補間フィルタを決定し、予測ブロックを作り出すためにこの補間フィルタを使用し得る。
[0076] 逆量子化ユニット154は、ビットストリームで提供され、かつ、エントロピー復号ユニット150によって復号された量子化変換係数を、例えば、非量子化する(de quantize)といったように、逆量子化する。逆量子化処理は、量子化の度合い、および適用されるべき逆量子化の度合いなどを決定するために、ビデオスライス内の各ビデオブロックのための、ビデオデコーダ30によって計算された量子化パラメータQPYの使用を含み得る。
[0077] 逆変換ユニット156は、例えば、逆DCT、逆整数変換、または概念的に同様の逆変換処理のような逆変換を変換係数に適用して、ピクセル領域内の残余ブロックを作り出す。
[0078] 動き補償ユニット162が動きベクトルおよび他のシンタックスエレメントに基づいて現在のビデオブロックのための予測ブロックを生成した後、ビデオデコーダ30が、逆変換ユニット156からの残余ブロックを動き補償ユニット162で生成された対応する予測ブロックに加算することによって、復号されたビデオブロックを形成する。サマー158は、この加算動作(summation operation)を行う1つまたは複数のコンポーネントを表す。所望される場合、デブロッキングフィルタ(deblocking filter)はまた、復号されたブロックをフィルタに適用してブロックアーティファクト(blockiness artifacts)を取り除き得る。他のループフィルタ(コーディングループ中、またはコーディングループ後のいずれか)はまた、ピクセル変換をスムーズにするために使用されたり、そうでなければ、ビデオ品質を改善したりし得る。所与のフレームまたはピクチャ内の復号されたビデオブロックは次に、後続の動き圧縮のために使用される参照ピクチャを記憶する参照ピクチャメモリ160内に記憶される。参照ピクチャメモリ160はまた、図1のディスプレイデバイス32のようなディスプレイデバイス上での後のプレゼンテーションのために復号されたビデオを記憶する。
[0079] 別の実施形態では、図示されないが、サマー158がCUのビデオブロックを再構成した後、フィルタモジュールが、CUに関連付けられたブロッキングアーティファクトを低減するためにデブロッキング動作を行い得る。フィルタモジュールがCUに関連付けられたブロッキングアーティファクトを低減するためのデブロッキング動作を行った後、ビデオデコーダ30が復号ピクチャバッファにおいてCUのビデオブロックを記憶し得る。復号ピクチャバッファは、後続の動き補償、イントラ予測、および図1のディスプレイデバイス32のようなディスプレイデバイス上でのプレゼンテーションのために参照ピクチャを提供し得る。例えば、ビデオデコーダ30は復号ピクチャバッファにおけるビデオブロックに基づいて他のCUのPUでイントラ予測またはインター予測動作を行い得る。
[0080] 通常のビデオエンコーダでは、元のビデオシーケンスのフレームがイントラモード(I−モード)またはインターモード(P−モード)で符号化される複数の長方形の領域またはブロックに分割される。これらブロックは、DCTコーディングのような変換コーディングのいくつかの種類を使用してコード化される。しかしながら、純粋な変換ベースのコーディング(transform-based coding)は、ピクセルのインターブロックの相互関係を考慮せずに特定のブロックにおけるインターピクセルの相互関係のみを低減させ、さらに変換のための高ビットレートを作り出し得る。現在のデジタル画像コーディング規格(digital image coding standards)はまた、ブロック間のピクセル値の相互関係を低減する特定の方法を有効利用(exploit)し得る。
[0081] 通常、P−モードで符号化されたブロックは、以前にコード化されたおよび送信されたフレームのうちの1つから予測される。ブロックの予測情報は、2次元(2D)動きベクトルによって表され得る。I−モードで符号化されたブロックについては、予測されたブロックが、同じフレーム内ですでに符号化された隣接しているブロックからの空間予測を使用して形成される。予測誤差(prediction error)(例えば、符号化されているブロックと予測されたブロックとの間の差)は、いくつかの離散変換の重み付けされた基礎関数のセットとして表され得る。予測誤差はまた、残余データとも呼ばれ得る。変換は通常、8×8または4×4個のブロック単位で行われ得る。重み付け(例えば、変換係数)は、続いて量子化される。量子化は情報の損失を取り込み、それゆえ量子化された係数は元のものよりも低い精度を有する。
[0082] 量子化された変換係数は動きベクトルおよびいくつかの制御情報とともに完全なコード化されたシーケンス表示を形成でき、シンタックスエレメントと呼ばれる。エンコーダからデコーダへの送信の前に、全てのシンタックスエレメントは、それらの表示のために必要とされるビットの数をさらに低減するためにエントロピー符号化され得る。
[0083] デコーダでは、現在のフレームにおけるブロックが、第1にエンコーダにおけるものと同じ方法でブロックの予測を構成することによって、またその予測に圧縮された予測誤差を加えることによって得られ得る。圧縮された予測誤差は、量子化された係数を使用する変換基準関数に重み付けすることによって見出され得る。再構築されたフレームと元のフレームとの間の差分は、再構築誤差と呼ばれ得る。
[ビデオコーディングおよび圧縮の実施形態]
[0084] MVCにおけるインター予測は、各ビューの中のインターピクチャ予測およびインタービュー予測(inter-view prediction)(例えば、ビュー間の予測)の両方を含み得る。インタービュー予測は、H.264/AVC動き補償のシンタックスを適用し得るが、異なるビューにおけるピクチャが参照ピクチャとして使用されることを可能にする視差動き補償(disparity motion compensation) を使用してMVCでサポートされる。2つのビューのコーディングはまた、MVCによってサポートされ得る。結果として、MVCの利点の1つは、MVCを使用するエンコーダが3Dビデオ入力として2つ以上のビューを取得することができ、MVCを使用するデコーダがこのようなマルチビュー表示を復号できるというものであり得る。このように、MVCを使用するデコーダおよびレンダラ(renderer)は、2つ以上のビューを有する3Dビデオコンテンツを期待できる。
[0085] インタービュー予測は、1つの出力時間インスタンスに関する全てのビューのコード化されたピクチャを含む同じアクセスユニット内のピクチャ間で許可される。そのため、非ベースビュー(non-base view)におけるピクチャをコーディングする場合には、ピクチャが異なるビューの中にあり、同時に別のピクチャとしてのインスタンスである場合、ピクチャは、1つまたは複数の異なる位置において参照リスト内に追加され得る。
[0086] Bピクチャについての参照リストを構成する例では、例えば、構成処理が2つのステップを伴い得る。最初に、参照リストが初期化され得る。参照リストの初期化は、例えば、POC(ピクチャオーダカウント(Picture Order Count))値の順序に従ったリストにおいて、図2の復号ピクチャバッファ114または図3の参照ピクチャメモリ160のような、参照ピクチャメモリ内に参照ピクチャを置くためのメカニズムであり得る。POCは、ピクチャのディスプレイ順で並べられ得る。第二に、参照リストがリオーダリング(reordered)され得る。参照リストのリオーダリングは、初期化された参照リストにピクチャが属さない可能性があるが、特定の位置で参照ピクチャメモリ内に参照ピクチャを置くこと、または参照リスト内のピクチャの位置を修正することを伴い得る。参照リストのリオーダリング後、いくつかのピクチャは、最終的な参照リストの位置に置かれることが考慮され得る。しかしながら、いくつかの場合には、ピクチャの位置がリストの動的な参照ピクチャの数を超えるときに、ピクチャが最終的な参照リストのエントリと見なされない可能性がある。動的な参照ピクチャの数は各リストについてのスライスヘッダにおいてシグナリングされ得る。一度参照リストが構成されると、参照インデックスが参照リスト内のピクチャを識別するために使用され得る。
[0087] 時間動きベクトル予測子(TMVP:Temporal Motion Vector Predictor)は、HEVCにおいて、参照リストなどの復号ピクチャバッファ内のピクチャの動きベクトルにアクセスすることによって決定され得る。1つの例示的な実施では、TMVPがコード化されたビデオシーケンス全体に対してイネーブルさされる場合に、シーケンスパラメータセット(sequence parameter set)における「sps_temporal_mvp_enable_flag」が、1に設定され得る。「slice_temporal_mvp_enable_flag」は次に、TMVPが特定のスライスに対してイネーブルされるかどうかを、スライスヘッダにおいてさらにシグナリングし得る。TMVPが特定のスライスに対してイネーブルされる場合、「collocated_from_l0_flag」は、同一位置に配置されたピクチャが、リスト0またはリスト1などの参照リストからのものであるかどうかを、スライスヘッダにおいてシグナリングするために使用され得る。参照リストが識別された後、「collocated_ref_idx」は、リスト内のピクチャにおけるピクチャを識別するために、スライスヘッダにおいてシグナリングされ得る。同一位置に配置されたPUは、同一位置に配置されたピクチャをチェックすることによって識別され、このPUを含んでいるCUの右下のPUの動きか、またはこのPUを含んでいるCUの中心にあるPU内の、右下のPUの動きのいずれかが使用され得る。
[0088] 図4を見ると、図4は、拡張レイヤの予測のために使用可能なビデオデータ400の例を図示する概念図である。ビデオデータ400は、ベースレイヤブロック410に関連付けられた予測モード情報(図示されない)および強調表示されたベースレイヤブロック412のような、ベースレイヤブロック410を含む。予測モード情報は、ベースレイヤブロック410のサンプルに関連付けられた非ピクセル情報を含み、ビデオ圧縮の目的のために使用可能であり得る。このような非ピクセル情報は、イントラ予測モードのような予測モード情報、インター予測モード、シンタックス、動きベクトル、参照インデックス、およびインター方向(例えば、単一L0方向(uni-L0-direction)、単一L1方向(uni-L1-direction)、または双方向(bi-direction))を含むが、これらに限定されない。
[0089] ベースレイヤブロック410は、図4の例における各16×16個のサンプルブロックであり得る。強調表示されたベースレイヤブロック412の各サンプルが図4に示される。強調表示されたベースレイヤブロック412に関連付けられた予測モード情報は、順に、強調表示されたベースレイヤブロック412の4×4個のサンプルに対応する解像度で記憶され得る。例えば、予測モード情報の他のセットが、強調表示されたベースレイヤブロック412の他の4×4個のサンプルサブブロックに関連付けられた予測モード情報を個別に記憶し得る一方、予測モード情報の1つのセットは、強調表示されたベースレイヤブロック412の強調表示された4×4個のサンプルサブブロック414に関連付けられた予測モード情報を記憶し得る。図4のこれらブロックサイズおよび対応する予測モード情報解像度が、説明のための例として提供される。いくつかの実施形態では、ベースレイヤブロック410が、より多くのサンプル(例えば、32×32個のサンプルまたは64×64個のサンプル)またはより少ないサンプル(例えば、4×4個のサンプルまたは8×8個のサンプル)を含み、強調表示されたベースレイヤブロック412についての予測モード情報は、強調表示されたベースレイヤブロック412の、より多くのサンプル(例えば、8×8個のサンプル)またはより少ないサンプル(例えば、2×2または1×1個のサンプル)に対応する解像度を有し得る。
[0090] 図5を参照すると、図5は、ベースレイヤビデオデータおよびアップサンプルされたベースレイヤビデオデータの例を図示する概念図500である。概念図500は、アップサンプルされたベースレイヤブロック520およびベースレイヤブロック410を含む。
[0091] アップサンプルされたベースレイヤブロック520は、ビデオデータの拡張レイヤとベースレイヤとの間の空間アスペクト比のような空間アスペクト比に従って、ベースレイヤブロック410をアップサンプルすることによって決定され得る。アップサンプルされた場合、ベースレイヤブロック410の個々のブロックは、そのため、個々のブロックのスケーリングされた(scaled)または再サンプリングされた(resampled)バージョンを含む、対応するアップサンプルされたブロックを有する。例えば、強調表示されたアップサンプルされたベースレイヤブロック522は、強調表示されたベースレイヤブロック412に対応し、強調表示されたベースレイヤブロック412をアップサンプルすることによって決定され得る。
[0092] ベースレイヤブロック410に関連付けられた予測モード情報はまた、アップサンプルされ、アップサンプルされたベースレイヤブロック520に関連付けられる。ベースレイヤブロック410をアップサンプルするために使用されるのと同じ空間アスペクト比に従って、予測モード情報がアップサンプルされるため、予測モード情報のアップサンプリングは、ベースレイヤブロック520のアップサンプリングと一致し得る。いくつかの実施では、アップサンプルされた予測モード情報の空間解像度がさらに、動き情報のような特定の予測モード情報のダウンサンプリングのために使用されるブロックに依存し得る。
[0093] いくつかの実施形態では、1つまたは複数のベースレイヤブロックに関連付けられた予測モード情報(例えば、1つのベースレイヤブロックのみ)が、アップサンプルされたベースレイヤブロック全体に関連付けられたアップサンプルされた予測モード情報を決定するために使用され得る。例えば、強調表示された4×4個のサンプルサブブロック414に関連付けられた予測モード情報は、アップサンプルされ、強調表示されたアップサンプルされたベースレイヤブロック522に関連付けられた予測モード情報として割り当てられ得る。このようなアプローチは、有利であることに、(1)強調表示されたアップサンプルされたベースレイヤブロック522に関連付けられインター予測コーディングに使用するために記憶された予測モード情報の量を制限または低減することができ、(2)ブロックレベル変更を実施することなく、単一レイヤコーディングのためのコーデックの既存の実施を利用できる。1つの実施では、アップサンプルされたピクセル情報に加えて、予測モード情報が、生成されたインターレイヤピクチャに記憶され得る。インターレイヤピクチャは、拡張レイヤピクチャの空間解像度と一致する空間解像度を有する新規に生成されたピクチャおよびベースレイヤピクチャのアップサンプルされたバージョンであり得る。導出(derivation)の後、インターレイヤピクチャは、時間参照ピクチャと同じ情報を含み、また参照ピクチャリストに追加され、拡張レイヤのインター予測のために使用され得る。拡張レイヤブロックのサイズはさらに、コーディングにおいて使用される拡張レイヤコーデックによって定義される予測モード情報記憶装置に従って選択され得る。例えば、HEVC規格における動き情報サブサンプリング(motion information subsampling)では、予測モード情報の1つのセットが、16×16個のサンプルベースで記憶され得る。ブロックレベルにおける、およびスライスレベルを超える変更を取り入れることなくHEVC規格に準拠するために、予測モード情報がインターレイヤピクチャにおいて記憶される粒度(granularity)は、少なくとも16×16個のサンプルであり得る。
[0094] このアプローチに加えて、1つまたは複数の異なる選択規則は、アップサンプルされ、アップサンプルされたベースレイヤブロックに関連付けられるべき予測モード情報を選択するために使用され得る。異なる選択規則は、予測モード情報を選択するための代替的なまたは複合的な規則を提供し得る。1つの選択規則の例は、特定の予測モード情報に関連付けられたベースレイヤサブブロック(例えば、強調表示された4×4個のサンプルサブブロック414)のロケーションが、予測モード情報を選択するまたは導出するために使用され得ることを提供し得る。この選択規則のためのサブブロックのロケーションは、例えば、ベースレイヤブロックの左下または右上のコーナーサブブロックのような特定のコーナーサブブロック、あるいは、ベースレイヤブロックの左上中央や右下中央のサブブロックのような中央のサブブロックを示し得る。図5の例では、強調表示された4×4個のサンプルサブブロック414に関連付けられた予測モード情報が、右下中央のサブブロックのロケーション選択規則に基づいて選択され得る。選択規則の別の例は、予測モード情報の値が予測モード情報を選択するために使用されることを提供し得る。例えば、予測モードユニットの動きベクトルの値が比較され、最も高いまたは最も低い、合計または平均値を有する動きベクトルに関連付けられた予測モード情報が選択され得る。1つまたは複数の選択規則は、シンタックスエレメントまたはヘッダ(例えば、ビデオパラメータセット、シーケンスパラメータセット、ピクチャパラメータセット、またはスライスヘッダ)、あるいは他の場所に記憶されるフラグとしてシグナリングされるか、実施に依存する規則のデフォルト設定に従って決定され得る。
[0095] 追加として、1つまたは複数の選択規則が適用される場合、ベースレイヤブロックに関連付けられるいくつかの予測モード情報は、いくつかの場合ではアップサンプルされない可能性があるため、例えば動きベクトルと同様に、情報のこの部分が空間比(spatial ratio)に依存しない可能性がある。従って、特定の予測モード情報は、選択規則に基づいて導出され、次に、アップサンプルされたベースレイヤブロックに関連付けられる前にアップサンプルされ得る。別の実施形態では、ベースレイヤブロックに関連付けられた予測モード情報が第1にアップサンプルされ、次に選択規則に従って、特定のアップサンプルされた予測モード情報が導出され、アップサンブルされたベースレイヤブロックに関連付けられる。さらに、予測モード情報は、いくつかの実施において、アップサンプリング処理の前または後にダウンサンプリングされ(downsampled)得る。
[0096] 強調表示されたアップサンプルされたベースレイヤブロック522のように、アップサンプルされたレイヤブロックを含むアップサンプルされたベースピクチャは、ベースレイヤ再構成ピクチャ(base layer reconstructed picture)の一部分として、または新規に生成されたピクチャ(例えば、インターレイヤピクチャ)として、1つまたは複数の拡張レイヤ参照ピクチャリストに置かれ、拡張レイヤの予測のために使用され得る。ベースレイヤ再構成ピクチャまたはインターレイヤ参照ピクチャは、1つまたは複数の参照リスト内の別のピクチャを置き換えるか、または追加され得る。アップサンプルされたベースレイヤブロックに関連付けられたアップサンプルされた予測モード情報は、拡張レイヤのインターレイヤ動き予測のために使用され得る。異なるブロックのアップサンプリングおよび/または予測モードのアップサンプリングを有する1つ以上のベースレイヤピクチャは、1つまたは複数の参照リストを追加され得る。異なるブロックのアップサンプリングおよび/または予測モードのアップサンプリングは、シンタックスエレメントまたはフラグを使用してマーキングされる(marked)か、または示され得る。特定の実施形態では、シンタックスエレメントまたはフラグが、ブロックまたは予測モードアップサンプリングの少なくとも1つが、デフォルトのアップサンプリングとは異なることを示し得る。
[0097] 特定の実施形態では、参照として挿入されたベースレイヤピクチャに、予測モード情報を割り当てることに関連する問題を避けるために、ベースレイヤピクチャが、同一位置に配置された参照ピクチャとして使用されない可能性がある(例えば、「collocated_ref_idx」パラメータは、拡張レイヤ参照リストにおけるベースレイヤピクチャの参照インデックスと等しくはない可能性がある)。このような実施における参照リストは、リスト0、リスト1、またはリスト0およびリスト1の両方に設定され得る。参照リストはさらに、時間動きベクトル予測のために使用される同一位置に配置されたピクチャが、リスト0またはリスト1から導出されるかどうかを示す「collocated_from_l0_flag」パラメータによって、定義され得る。さらに、同一位置に配置された参照インデックスがベースレイヤ参照ピクチャを指す場合、TMVPは、利用できないものとしてマーキングされ得る(例えば、1つまたは複数のTMVPフラグは、「sps_temporal_mvp_enable_flag」または「slice_temporal_mvp_enable_flag」パラメータがオフになったことを指示され得るといったように、TMVPが停止したことを指示し得る)。
[0098] いくつかの実施形態では、ベースレイヤピクチャがPスライスのような拡張レイヤ参照ピクチャリストに挿入される場合に、インター予測のための予測モード情報がリスト0について指定され得るが、リスト1について指定されない。一方、ベースレイヤピクチャがBスライスとして挿入される場合には、インター予測のための予測モード情報がリスト0およびリスト1について指定され得る。しかしながら、ベースレイヤブロックに関連付けられた予測モード情報が一方向性(uni-directional)である場合でも、予測モード情報が、予測モード情報のためのアップサンプリング処理の一部分として、双方向性(bi-directional)となり得る。1つのアプローチの例として、一方向性動きベクトル(uni-directional motion vector)は、次に、特定の参照インデックス(例えば、0または1)でリスト1に使用されるように、リスト0からスケーリングされる。別の例では、一方向の予測モード情報が0の動きまたは他のデフォルトの動き情報を用いて補間される。さらに、Bスライスについても、一方向性動きフィールドがリスト0またはリスト1のために使用され得る。
[0099] 図6は、ベースレイヤビデオデータおよびアップサンプルされたベースレイヤビデオデータの例を図示する概念図600である。強調表示されたベースレイヤブロック412は、アップサンプルされたベースレイヤ内の強調表示されたアップサンプルされたベースレイヤブロック624の隣接するブロックである、強調表示されアップサンプルされたベースレイヤブロック522の位置に対応するベースレイヤ内の位置に配置される。しかしながら、図6は図5と同様に、強調表示された4×4個のサンプルサブブロック414に関連付けられた予測モード情報がアップサンプルされ、追加的にまたは代替的に、強調表示されたアップサンプルされたベースレイヤブロック622に関連付けられた予測モード情報として割り当てられ得る。すなわち、強調表示された4×4個のサンプルサブブロック414は、図5に示されたものとは異なりアップサンプルされたベースレイヤブロックに関連して配置され、アップサンプルされたベースレイヤブロックに対して同一位置に配置されない可能性がある。いくつかの実施形態では、予測モードユニット422からの予測モード情報が追加的にまたは代替的に、同一位置に配置された強調されたアップサンプルされたベースレイヤブロック522、または強調表示されたアップサンプルされたベースレイヤブロック624の、他の隣接しているまたは近傍のブロックのような、1つまたは複数の他のアップサンプルされたベースレイヤブロックに割り当てられ得る。
[00100] 図7は、ビデオデータをコーディングするための方法700の例を図示する。方法700は、インター予測モジュール121、アップサンプリングモジュール130、動き補償ユニット162、またはアップサンプリングモジュール170を含む、ビデオエンコーダ20またはビデオデコーダ30の、1つまたは複数のコンポーネントによって行われ得る。いくつかの実施形態では、他のコンポーネントが、本明細書で説明されたステップの1つまたは複数を実施するために使用され得る。方法700は、例えば、図4−6に関して説明される動作の1つまたは複数を行うために使用され得る。
[00101] ノード705では、ベースレイヤ内のビデオブロックの複数のサブブロックの1つに関連付けられた予測モード情報が、少なくとも選択規則を使用して導出される。予測モード情報は、ビデオブロックに関連付けられた、イントラ予測モード、インター予測モード、動き情報などを含み、ビデオブロックのビデオ圧縮のために使用され得る。ビデオブロックに関連付けられた予測モード情報は、ビデオブロックの4×4個のサンプルに対応する解像度を用いて記憶され得る。いくつかの実施形態では、ビデオブロックの特定のサブブロック(例えば、右下中央のサブブロック)に関連付けられた予測モード情報が、選択規則に従って選択され導出される。特定の予測モードユニットは、シンタックスエレメントまたはフラグ、あるいは、規則のデフォルト設定に基づいて、追加的にまたは代替的に示され決定され得る。
[00102] ノード710では、導出された予測モード情報およびビデオブロックがアップサンプルされる。予測モード情報は、例えば、いくつかの実施におけるビデオコンテンツのベースレイヤと拡張レイヤとの間の空間アスペクト比に従って、アップサンプルされ得る。
[00103] ノード715では、アップサンプルされた予測モード情報が、アップサンプルされたビデオブロックの各アップサンプルされたサブブロックに関連付けられる。アップサンプルされた予測モード情報およびアップサンプルされたビデオブロックは、順に、拡張レイヤにおいてビデオブロック(例えば、サンプル値)を予測するために共同で使用され得る。特定の実施形態で、拡張レイヤ内のビデオブロックは、ベースレイヤ内のビデオブロックが拡張レイヤ内のビデオブロックの位置に対応するベースレイヤ内の位置に配置されるようにベースレイヤ内のビデオブロックと同一位置に配置され得る。代替的に、ベースレイヤ内のビデオブロックは、拡張レイヤ内のビデオブロックに対して隣接するビデオブロックの位置に対応するベースレイヤ内の位置に配置され得る。1つの例では、隣接するビデオブロックが拡張レイヤ内のビデオブロックの近傍に配置され得る。
[00104] 方法700に対して、追加的にまたは代替的に、デフォルト予測モード情報は、いくつかの実施形態におけるアップサンプルされた予測モード情報よりもむしろ、アップサンプルされたベースレイヤブロックおよび/またはピクチャに関連付けられ得る。例えばゼロの動きは、アップサンプルされたベースレイヤブロックに関連付けられた参照インデックスおよび動きベクトルがゼロに設定されるように、アップサンプルされたベースレイヤブロックに関連付けられ得る。別の例では、アップサンプルされたベースレイヤブロックに関連付けられた予測モード情報が、関連付けられた参照インデックスをマイナス1に設定することによって、利用できないものとしてマーキングされ得る。このようなケースでは、デフォルト予測モード情報がリスト0、リスト1、またはリスト0およびリスト1の両方に設定され得る。
[00105] さらに、デフォルト予測モード情報は、アップサンプルされたレイヤブロックおよび/または割当規則に従うなどの、特定の条件下のピクチャのみに関連付けられ得る。例えば、デフォルト予測モード情報は、同一位置に配置されたピクチャをTMVPターゲット参照ピクチャが参照する場合に使用でき(例えば、TMVP参照インデックスが同一位置に配置されたインデックスと等しくなる)、またTMVPターゲット参照ピクチャが、同一位置に配置されたピクチャを参照しない場合に使用されない可能性がある。別の例では、デフォルト予測モード情報が、ベースレイヤを圧縮するために使用されるコーディングに依存し得る。例えば、デフォルト予測モード情報は、ベースレイヤがH.264/AVCまたはMPEG−2などのHEVC以外のコーデックを使用してコード化される場合に使用でき、またベースレイヤが、HEVCコーデックを使用してコード化される場合に使用されない可能性がある。このようなアプローチは、有利であることに、ベースレイヤシンタックスを抽出することが、ベースレイヤを圧縮するために使用される所与のコーデックが困難であり得る場合、ベースレイヤシンタックスを抽出することを回避できる。
[00106] 1つまたは複数の例では、説明される機能が、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせで実施され得る。ソフトウェアで実施される場合、これら機能は、コンピュータ読取可能媒体上で1つまたは複数の命令またはコードとして記憶または送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ読取可能媒体は、例えば、通信プロトコルに従って、コンピュータプログラムの1つの場所から別の場所への移送を容易にする任意の媒体を含む通信媒体、またはデータ記憶媒体のような有形の媒体に対応するコンピュータ読取可能な記憶媒体を含み得る。このように、コンピュータ読取可能媒体は一般に、(1)非一時的である、有形のコンピュータ読取可能な記憶媒体、または(2)信号または搬送波のような通信媒体に対応し得る。データ記憶媒体は、本開示で説明された技法の実施のための命令、コード、および/またはデータ構造を検索するために、1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされ得るいずれかの利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ読取可能媒体を含み得る。
[00107] 限定ではなく例として、このようなコンピュータ読取可能記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたはその他の光ディスク記憶装置、磁気ディスク記憶装置、またはその他の磁気記憶デバイス、フラッシュメモリ、あるいは、データ構造または命令の形式で所望のプログラムコードを記憶するために使用することができ、かつコンピュータによってアクセスされ得る、任意の他の媒体を備え得る。また、任意の接続は、厳密にはコンピュータ読取可能媒体と称される。例えば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、電波、およびマイクロ波のようなワイヤレス技術を使用して、ウェブサイト、サーバ、またはその他の遠隔ソースから送信される場合には、この同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、電波、およびマイクロ波のようなワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ読取可能記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的な媒体を含まないが、代わりとして非一時的な有形の記憶媒体を対象にすることが理解されるべきである。本明細書で使用される場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多目的ディスク(DVD)、フロッピー(登録商標)ディスクおよびBlu−ray(登録商標)ディスクを含み、ここで、ディスク(disks)が通常、磁気的にデータを再生する一方、ディスク(discs)は、レーザーを用いて光学的にデータを再生する。上記の組み合わせもまた、コンピュータ読取可能媒体の範囲内に含まれるべきである。
[00108] 命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の同等な統合されたまたは離散型の論理回路などの、1つまたは複数のプロセッサによって実行され得る。従って、本明細書で使用される場合、「プロセッサ」という用語は、前述の構造、または本明細書で説明された技法の実施に適した任意の他の構造のいずれかを指し得る。加えて、いくつかの態様では、本明細書で説明された機能が、符号化および復号のために構成された専用のハードウェアモジュールおよび/またはソフトウェアモジュール内に提供でき、または、組み合わされたコーデックに組み込まれ得る。また、これら技法は、1つまたは複数の回路または論理要素において全て実施され得る。
[00109] 本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(例えば、チップセット)を含む、幅広い様々なデバイスまたは装置で実施され得る。様々な構成要素、モジュール、またはユニットは、本開示において、開示された技法を実行するように構成されたデバイスの機能的な態様を強調するために説明されるものの、これらは異なるハードウェアユニットによる実現を必ずしも必要としない。むしろ、上述されたように、様々なユニットは、コーデックハードウェアユニットにおいて組み合わされ得るか、または適切なソフトウェアおよび/またはファームウェアと併せて、上述されたような1つまたは複数のプロセッサを含む、相互運用ハードウェアユニットの集合によって提供され得る。
[00110] さらに他の例では、本開示は、圧縮されたビデオコンテンツを記憶するコンピュータ読取可能媒体に向けられ、ここにおいて、ビデオコンテンツは、本明細書で説明された技法の1つまたは複数に従って圧縮される。
[00111] 様々な例が説明された。これら例および他の例は、以下の請求項の範囲内にある。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータをコーディングするように構成された装置であって、
第1の空間解像度を有する第1のレイヤと前記第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶するように構成されたメモリユニットであって、前記第1のレイヤに関連付けられた前記ビデオデータは少なくとも第1のレイヤブロックと前記第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、前記第1のレイヤブロックは各サブブロックが前記第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含む、メモリユニットと、
前記メモリユニットと通信するプロセッサと、
を備え、前記プロセッサは、
選択規則に少なくとも基づいて、前記複数のサブブロックのうちの1つに関連付けられた断定モードデータを導出し、
前記導出された予測モードデータおよび前記第1のレイヤブロックをアップサンプルし、
前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、前記アップサンプルされた予測モードデータを関連付ける
ように構成される、装置。
[C2]
前記選択規則に従って、前記プロセッサは、前記第1のレイヤブロックの1つまたは複数の他のサブブロックに対する第1のサブブロックのロケーションに少なくとも基づいて、前記複数のサブブロックの前記第1のサブブロックに関連付けられた前記予測モードデータを選択するように構成される、C1に記載の装置。
[C3]
前記第1のサブブロックは、前記第1のレイヤブロックの前記複数のサブブロックのうちの1つが各々の側に隣接した中心のサブブロックである、C2に記載の装置。
[C4]
前記プロセッサは信号フラグに従って前記選択規則を決定するように構成される、C1に記載の装置。
[C5]
前記プロセッサは、前記アップサンプルされた第1のレイヤブロックと前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記アップサンプルされた予測モードデータとに少なくとも基づいて、前記第2のレイヤ内の第2のレイヤブロックの予測された値を決定するように構成され、
前記第1のレイヤブロックが前記第2のレイヤ内の前記第2のレイヤブロックの位置に対応する前記第1のレイヤ内の前記位置に配置されるか、前記第1のレイヤブロックが前記第2のレイヤ内の前記第2のレイヤブロックの近傍に位置付けられた隣接している第2のレイヤブロックの前記位置に対応する前記第1のレイヤ内の前記位置に配置される、
C1に記載の装置。
[C6]
前記第1のレイヤブロックの各サブブロックに関連付けられた前記該当の予測モードデータは動きベクトルを備える、C1に記載の装置。
[C7]
前記アップサンプルされた予測モードデータと前記導出された予測モードデータとの間の空間解像度比は、前記第2の空間解像度と前記第1の空間解像度との間の前記空間解像度比と一致する、C1に記載の装置。
[C8]
前記プロセッサは、
第1のコーダ−デコーダ(コーデック)が前記第1のレイヤブロックを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、前記アップサンプルされた予測モードデータを関連付け、
前記第1のコーデックとは異なる第2のコーデックが前記第1のレイヤ内のビデオユニットを圧縮するために使用される場合に、割当規則に少なくとも基づいて、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、割り当てられた予測モードデータを関連付ける、
ように構成される、C1に記載の装置。
[C9]
前記割当規則に従って、前記プロセッサは、ゼロ動きベクトル、ゼロに等しい参照インデックス、マイナス1に等しい参照インデックス、および利用できないものとしてマーキングされた動きフィールドのうちの少なくとも1つとなる前記予測モードデータを割り当てるように構成される、C8に記載の装置。
[C10]
前記プロセッサは、参照リストに前記アップサンプルされた第1のレイヤブロックを挿入するように構成される、C1に記載の装置。
[C11]
前記プロセッサはデコーダを備える、C1に記載の装置。
[C12]
前記プロセッサはエンコーダを備える、C1に記載の装置。
[C13]
前記装置はデバイスの一部分であり、前記デバイスはコンピュータおよびワイヤレス通信デバイスハンドセットからなるグループから選択される、C1に記載の装置。
[C14]
ビデオデータをコーディングする方法であって、
第1の空間解像度を有する第1のレイヤと前記第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶することであって、前記第1のレイヤに関連付けられた前記ビデオデータは少なくとも第1のレイヤブロックと前記第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、前記第1のレイヤブロックは各サブブロックが前記第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含む、記憶することと、
選択規則に少なくとも基づいて、前記複数のサブブロックのうちの1つに関連付けられた断定モードデータを導出することと、
前記導出された予測モードデータおよび前記第1のレイヤブロックをアップサンプルすることと、
前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、前記アップサンプルされた予測モードデータを関連付けることと
を備える、方法。
[C15]
前記選択規則に従って、前記導出することは、前記第1のレイヤブロックの1つまたは複数の他のサブブロックに対する第1のサブブロックのロケーションに少なくとも基づいて、前記複数のサブブロックの前記第1のサブブロックに関連付けられた前記予測モードデータを導出することを備える、C14に記載の方法。
[C16]
前記第1のサブブロックは、前記第1のレイヤブロックの前記複数のサブブロックのうちの1つが各々の側に隣接した中心のサブブロックである、C15に記載の方法。
[C17]
信号フラグに従って前記選択規則を決定することをさらに備える、C14に記載の方法。
[C18]
前記アップサンプルされた第1のレイヤブロックと前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記アップサンプルされた予測モードデータとに少なくとも基づいて、前記第2のレイヤ内の第2のレイヤブロックの予測された値を決定することをさらに備え、
前記第1のレイヤブロックが前記第2のレイヤ内の前記第2のレイヤブロックの位置に対応する前記第1のレイヤ内の前記位置に配置されるか、前記第1のレイヤブロックが前記第2のレイヤ内の前記第2のレイヤブロックの近傍に位置付けられた隣接している第2のレイヤブロックの前記位置に対応する前記第1のレイヤ内の前記位置に配置される、
C14に記載の方法。
[C19]
前記第1のレイヤブロックの各サブブロックに関連付けられた前記該当の予測モードデータは動きベクトルを備える、C14に記載の方法。
[C20]
前記アップサンプルされた予測モードデータと前記導出された予測モードデータとの間の空間解像度比は、前記第2の空間解像度と前記第1の空間解像度との間の前記空間解像度比と一致する、C14に記載の方法。
[C21]
第1のコーダ−デコーダ(コーデック)が前記第1のレイヤブロックを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、前記アップサンプルされた予測モードデータを関連付けることと、
前記第1のコーデックとは異なる第2のコーデックが前記第1のレイヤ内のビデオユニットを圧縮するために使用される場合に、割当規則に少なくとも基づいて、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、割り当てられた予測モードデータを関連付けることと
をさらに備える、C14に記載の方法。
[C22]
前記割当規則に従って、ゼロ動きベクトル、ゼロに等しい参照インデックス、マイナス1に等しい参照インデックス、および利用できないものとしてマーキングされた動きフィールドのうちの少なくとも1つとなる前記予測モードデータを割り当てることをさらに備える、C21に記載の方法。
[C23]
参照リストに、前記アップサンプルされた第1のレイヤブロックを挿入することをさらに備える、C14に記載の方法。
[C24]
符号化されたビデオビットストリームから抽出されたシンタックスエレメントを受信することをさらに備え、前記シンタックスエレメントは第1のレイヤビデオブロックに関連付けられた前記予測モード情報を示す、C14に記載の方法。
[C25]
符号化されたビデオビットストリームのためのシンタックスエレメントを生成することをさらに備え、前記シンタックスエレメントは第1のレイヤビデオブロックに関連付けられた前記予測モード情報を示す、C14に記載の方法。
[C26]
ビデオデータをコーディングするように構成された装置であって、
第1の空間解像度を有する第1のレイヤと前記第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶するための手段であって、前記第1のレイヤに関連付けられた前記ビデオデータは少なくとも第1のレイヤブロックと前記第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、前記第1のレイヤブロックは各サブブロックが前記第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含む、記憶するための手段と、
選択規則に少なくとも基づいて、前記複数のサブブロックのうちの1つに関連付けられた断定モードデータを導出するための手段と、
前記導出された予測モードデータおよび前記第1のレイヤブロックをアップサンプルするための手段と、
前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、前記アップサンプルされた予測モードデータを関連付けるための手段と
を備える、装置。
[C27]
前記選択規則に従って、前記導出するための手段は、前記第1のレイヤブロックの1つまたは複数の他のサブブロックに対する第1のサブブロックのロケーションに少なくとも基づいて、前記複数のサブブロックの前記第1のサブブロックに関連付けられた前記予測モードデータを導出するように構成される、C26に記載の装置。
[C28]
前記アップサンプルされた第1のレイヤブロックと前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記アップサンプルされた予測モードデータとに少なくとも基づいて、前記第2のレイヤ内の第2のレイヤブロックの予測された値を決定するための手段をさらに備え、
前記第1のレイヤブロックが前記第2のレイヤ内の前記第2のレイヤブロックの位置に対応する前記第1のレイヤ内の前記位置に配置されるか、前記第1のレイヤブロックが前記第2のレイヤ内の前記第2のレイヤブロックの近傍に位置付けられた隣接している第2のレイヤブロックの前記位置に対応する前記第1のレイヤ内の前記位置に配置される、
C26に記載の装置。
[C29]
前記関連付けるための手段は、
第1のコーダ−デコーダ(コーデック)が前記第1のレイヤブロックを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、前記アップサンプルされた予測モードデータを関連付け、
前記第1のコーデックとは異なる第2のコーデックが前記第1のレイヤ内のビデオユニットを圧縮するために使用される場合に、割当規則に少なくとも基づいて、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、割り当てられた予測モードデータを関連付ける
ように構成される、C26に記載の装置。
[C30]
実行可能なプログラム命令を記憶する非一時的コンピュータ記憶装置であって、ビデオデータをコーディングするための装置に、
第1の空間解像度を有する第1のレイヤと前記第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶することであって、前記第1のレイヤに関連付けられた前記ビデオデータは少なくとも第1のレイヤブロックと、前記第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、前記第1のレイヤブロックは各サブブロックが前記第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含む、記憶することと、
選択規則に少なくとも基づいて、前記複数のサブブロックのうちの1つに関連付けられた断定モードデータを導出することと、
前記導出された予測モードデータおよび前記第1のレイヤブロックをアップサンプルすることと、
前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、前記アップサンプルされた予測モードデータを関連付けることと
を備える処理を行うことを指示する、非一時的コンピュータ記憶装置。
[C31]
前記選択規則に従って、前記処理は、前記第1のレイヤブロックの1つまたは複数の他のサブブロックに対する第1のサブブロックのロケーションに少なくとも基づいて、前記複数のサブブロックの前記第1のサブブロックに関連付けられた前記予測モードデータを導出することを備える、C30に記載の非一時的コンピュータ記憶装置。
[C32]
前記処理は、前記アップサンプルされた第1のレイヤブロックと前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記アップサンプルされた予測モードデータとに少なくとも基づいて、前記第2のレイヤ内の第2のレイヤブロックの予測された値を決定することをさらに備え、
前記第1のレイヤブロックが前記第2のレイヤ内の前記第2のレイヤブロックの位置に対応する前記第1のレイヤ内の前記位置に配置されるか、前記第1のレイヤブロックが前記第2のレイヤ内の前記第2のレイヤブロックの近傍に位置付けられた隣接している第2のレイヤブロックの前記位置に対応する前記第1のレイヤ内の前記位置に配置される、
C30に記載の非一時的コンピュータ記憶装置。
[C33]
前記処理は、
第1のコーダ−デコーダ(コーデック)が前記第1のレイヤブロックを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、前記アップサンプルされた予測モードデータを関連付けることと、
前記第1のコーデックとは異なる第2のコーデックが前記第1のレイヤ内のビデオユニットを圧縮するために使用される場合に、割当規則に少なくとも基づいて、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに、割り当てられた予測モードデータを関連付けることと
を備える、C30に記載の非一時的コンピュータ記憶装置。

Claims (16)

  1. ビデオデータを復号するように構成された装置であって、
    第1の空間解像度を有する第1のレイヤと前記第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶するための手段であって、前記第1のレイヤに関連付けられた前記ビデオデータは、少なくとも第1のレイヤブロックと前記第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、前記第1のレイヤブロックは、各サブブロックが前記第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含む、記憶するための手段と、
    選択規則に少なくとも基づいて、前記複数のサブブロックのうちの1つに関連付けられた前記予測モードデータを導出するための手段と、
    前記導出された予測モードデータおよび前記第1のレイヤブロックをアップサンプルするための手段であって、前記アップサンプルされた第1のレイヤブロックは、複数のアップサンプルされたサブブロックを含む、アップサンプルするための手段と、
    前記複数のアップサンプルされたサブブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、前記アップサンプルされた予測モードデータを割り当てるための手段と、
    インターレイヤピクチャに、前記複数のアップサンプルされたサブブロックと前記複数のアップサンプルされたサブブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして割り当てられた前記アップサンプルされた予測モードデータとを記憶するための手段と、
    前記第2のレイヤのインター予測のために使用可能な参照ピクチャリストに、前記インターレイヤピクチャを追加するための手段と、
    第1のコーダ−デコーダ(コーデック)が前記第1のレイヤブロックを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、前記アップサンプルされた予測モードデータを割り当てるための手段と、
    割当規則に少なくとも基づいて、前記第1のコーデックとは異なる第2のコーデックが前記第1のレイヤ内のビデオユニットを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、デフォルト予測モードデータを割り当てるための手段と
    を備える、装置。
  2. ビデオデータを符号化するように構成された装置であって、
    第1の空間解像度を有する第1のレイヤと前記第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶するための手段であって、前記第1のレイヤに関連付けられた前記ビデオデータは、少なくとも第1のレイヤブロックと前記第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、前記第1のレイヤブロックは、各サブブロックが前記第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含む、記憶するための手段と、
    選択規則に少なくとも基づいて、前記複数のサブブロックのうちの1つに関連付けられた前記予測モードデータを導出するための手段と、
    前記導出された予測モードデータおよび前記第1のレイヤブロックをアップサンプルするための手段であって、前記アップサンプルされた第1のレイヤブロックは、複数のアップサンプルされたサブブロックを含む、アップサンプルするための手段と、
    前記複数のアップサンプルされたサブブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、前記アップサンプルされた予測モードデータを割り当てるための手段と、
    インターレイヤピクチャに、前記複数のアップサンプルされたサブブロックと前記複数のアップサンプルされたサブブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして割り当てられた前記アップサンプルされた予測モードデータとを記憶するための手段と、
    前記第2のレイヤのインター予測のために使用可能な参照ピクチャリストに、前記インターレイヤピクチャを追加するための手段と、
    第1のコーダ−デコーダ(コーデック)が前記第1のレイヤブロックを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、前記アップサンプルされた予測モードデータを割り当てるための手段と、
    割当規則に少なくとも基づいて、前記第1のコーデックとは異なる第2のコーデックが前記第1のレイヤ内のビデオユニットを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、デフォルト予測モードデータを割り当てるための手段と
    を備える、装置。
  3. ビデオデータを復号する方法であって、
    第1の空間解像度を有する第1のレイヤと前記第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶することであって、前記第1のレイヤに関連付けられた前記ビデオデータは、少なくとも第1のレイヤブロックと前記第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、前記第1のレイヤブロックは、各サブブロックが前記第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含む、記憶することと、
    選択規則に少なくとも基づいて、前記複数のサブブロックのうちの1つに関連付けられた前記予測モードデータを導出することと、
    前記導出された予測モードデータおよび前記第1のレイヤブロックをアップサンプルすることであって、前記アップサンプルされた第1のレイヤブロックは、複数のアップサンプルされたサブブロックを含む、アップサンプルすることと、
    前記複数のアップサンプルされたサブブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、前記アップサンプルされた予測モードデータを割り当てることと、
    インターレイヤピクチャに、前記複数のアップサンプルされたサブブロックと前記複数のアップサンプルされたサブブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして割り当てられた前記アップサンプルされた予測モードデータとを記憶することと、
    前記第2のレイヤのインター予測のために使用可能な参照ピクチャリストに、前記インターレイヤピクチャを追加することと、
    第1のコーダ−デコーダ(コーデック)が前記第1のレイヤブロックを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、前記アップサンプルされた予測モードデータを割り当てることと、
    割当規則に少なくとも基づいて、前記第1のコーデックとは異なる第2のコーデックが前記第1のレイヤ内のビデオユニットを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、デフォルト予測モードデータを割り当てることと
    を備える、方法。
  4. ビデオデータを符号化する方法であって、
    第1の空間解像度を有する第1のレイヤと前記第1の空間解像度に対して異なる第2の空間解像度を有する第2のレイヤとに関連付けられたビデオデータを記憶することであって、前記第1のレイヤに関連付けられた前記ビデオデータは、少なくとも第1のレイヤブロックと前記第1のレイヤブロックに関連付けられた第1のレイヤ予測モード情報とを含み、前記第1のレイヤブロックは、各サブブロックが前記第1のレイヤ予測モード情報の該当の予測モードデータに関連付けられた複数のサブブロックを含む、記憶することと、
    選択規則に少なくとも基づいて、前記複数のサブブロックのうちの1つに関連付けられた前記予測モードデータを導出することと、
    前記導出された予測モードデータおよび前記第1のレイヤブロックをアップサンプルすることであって、前記アップサンプルされた第1のレイヤブロックは、複数のアップサンプルされたサブブロックを含む、アップサンプルすることと、
    前記複数のアップサンプルされたサブブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、前記アップサンプルされた予測モードデータを割り当てることと、
    インターレイヤピクチャに、前記複数のアップサンプルされたサブブロックと前記複数のアップサンプルされたサブブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして割り当てられた前記アップサンプルされた予測モードデータとを記憶することと、
    前記第2のレイヤのインター予測のために使用可能な参照ピクチャリストに、前記インターレイヤピクチャを追加することと、
    第1のコーダ−デコーダ(コーデック)が前記第1のレイヤブロックを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、前記アップサンプルされた予測モードデータを割り当てることと、
    割当規則に少なくとも基づいて、前記第1のコーデックとは異なる第2のコーデックが前記第1のレイヤ内のビデオユニットを圧縮するために使用される場合に、前記アップサンプルされた第1のレイヤブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして、デフォルト予測モードデータを割り当てることと
    を備える、方法。
  5. 前記選択規則に従って、前記導出することは、前記第1のレイヤブロックの1つまたは複数の他のサブブロックに対する第1のサブブロックのロケーションに少なくとも基づいて、前記複数のサブブロックの前記第1のサブブロックに関連付けられた前記予測モードデータを導出することを備える、請求項3または4に記載の方法。
  6. 前記第1のサブブロックは、前記第1のレイヤブロックの前記複数のサブブロックのうちの1つが各々の側に隣接した中心のサブブロックである、請求項に記載の方法。
  7. 信号フラグに従って前記選択規則を決定することをさらに備える、請求項3または4に記載の方法。
  8. 前記参照ピクチャリストに追加された前記インターレイヤピクチャに記憶された、前記複数のアップサンプルされたサブブロックと前記複数のアップサンプルされたサブブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして割り当てられた前記アップサンプルされた予測モードデータとを使用して、前記第2のレイヤ内の第2のレイヤブロックの各サブブロックのために予測された値を決定することをさらに備え、前記第1のレイヤブロックが前記第2のレイヤ内の前記第2のレイヤブロックの位置に対応する前記第1のレイヤ内の位置に配置される、請求項3または4に記載の方法。
  9. 前記第1のレイヤブロックの各サブブロックに関連付けられた前記該当の予測モードデータは、動きベクトルを備える、請求項3または4に記載の方法。
  10. 前記アップサンプルされた予測モードデータと前記導出された予測モードデータとの間の空間解像度比は、前記第2の空間解像度と前記第1の空間解像度との間の空間解像度比と一致する、請求項3または4に記載の方法。
  11. 前記割当規則に従って、ゼロ動きベクトル、ゼロに等しい参照インデックス、マイナス1に等しい参照インデックス、および利用できないものとしてマーキングされた動きフィールドのうちの少なくとも1つとなる前記デフォルト予測モードデータを割り当てることをさらに備える、請求項3または4に記載の方法。
  12. 前記参照ピクチャリストに追加された前記インターレイヤピクチャに記憶された、前記複数のアップサンプルされたサブブロックと前記複数のアップサンプルされたサブブロックの各アップサンプルされたサブブロックに関連付けられた前記予測モードデータとして割り当てられた前記アップサンプルされた予測モードデータとを使用して、前記第2のレイヤ内の第2のレイヤブロックの各サブブロックのために予測された値を決定することをさらに備え、前記第1のレイヤブロックは、前記第2のレイヤ内の前記第2のレイヤブロックの近傍に位置付けられた、隣接している第2のレイヤブロックの位置に対応する前記第1のレイヤ内の位置に配置される、請求項3または4に記載の方法。
  13. 符号化されたビデオビットストリームから抽出されたシンタックスエレメントを受信することをさらに備え、前記シンタックスエレメントは、前記第1のレイヤブロックに関連付けられた前記第1のレイヤ予測モード情報を示す、請求項に記載の方法。
  14. 符号化されたビデオビットストリームのためのシンタックスエレメントを生成することをさらに備え、前記シンタックスエレメントは、前記第1のレイヤブロックに関連付けられた前記第1のレイヤ予測モード情報を示す、請求項に記載の方法。
  15. ビデオデータを符号化または復号するための装置に、請求項3乃至14のうちのいずれかに記載の方法を行うことを指示する、実行可能なプログラム命令を記憶する非一時的コンピュータ記憶装置。
  16. 前記割当規則に従って、ゼロ動きベクトル、ゼロに等しい参照インデックス、マイナス1に等しい参照インデックス、および利用できないものとしてマーキングされた動きフィールドのうちの少なくとも1つとなる前記デフォルト予測モードデータを割り当てるための手段をさらに備える、請求項1または2に記載の装置。
JP2018014676A 2012-10-05 2018-01-31 スケーラブルビデオコーディングのための予測モード情報アップサンプリング Active JP6700323B2 (ja)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201261710640P 2012-10-05 2012-10-05
US61/710,640 2012-10-05
US201261711704P 2012-10-09 2012-10-09
US61/711,704 2012-10-09
US201261728193P 2012-11-19 2012-11-19
US61/728,193 2012-11-19
US14/035,129 US20140098880A1 (en) 2012-10-05 2013-09-24 Prediction mode information upsampling for scalable video coding
US14/035,129 2013-09-24

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015535703A Division JP2015532552A (ja) 2012-10-05 2013-09-26 スケーラブルビデオコーディングのための予測モード情報アップサンプリング

Publications (2)

Publication Number Publication Date
JP2018110410A JP2018110410A (ja) 2018-07-12
JP6700323B2 true JP6700323B2 (ja) 2020-05-27

Family

ID=50432655

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015535703A Pending JP2015532552A (ja) 2012-10-05 2013-09-26 スケーラブルビデオコーディングのための予測モード情報アップサンプリング
JP2018014676A Active JP6700323B2 (ja) 2012-10-05 2018-01-31 スケーラブルビデオコーディングのための予測モード情報アップサンプリング

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015535703A Pending JP2015532552A (ja) 2012-10-05 2013-09-26 スケーラブルビデオコーディングのための予測モード情報アップサンプリング

Country Status (7)

Country Link
US (2) US20140098880A1 (ja)
EP (1) EP2904802B1 (ja)
JP (2) JP2015532552A (ja)
KR (1) KR102188488B1 (ja)
CN (1) CN104718757B (ja)
BR (1) BR112015007116B1 (ja)
WO (1) WO2014055327A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2763414T3 (da) 2011-09-29 2020-11-30 Sharp Kk Billedafkodningsindretning og fremgangsmåde til billedafkodning til udførelse af konvertering af bi-forudsigelse til uni-forudsigelse
US20140098880A1 (en) 2012-10-05 2014-04-10 Qualcomm Incorporated Prediction mode information upsampling for scalable video coding
US10085017B2 (en) * 2012-11-29 2018-09-25 Advanced Micro Devices, Inc. Bandwidth saving architecture for scalable video coding spatial mode
KR20140121315A (ko) * 2013-04-04 2014-10-15 한국전자통신연구원 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치
US20160073115A1 (en) * 2013-04-05 2016-03-10 Samsung Electronics Co., Ltd. Method for determining inter-prediction candidate for interlayer decoding and encoding method and apparatus
US9510001B2 (en) 2013-07-09 2016-11-29 Electronics And Telecommunications Research Institute Video decoding method and apparatus using the same
KR20150026927A (ko) * 2013-09-03 2015-03-11 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
WO2016068630A1 (ko) * 2014-10-29 2016-05-06 엘지전자(주) 비디오 신호의 인코딩, 디코딩 방법 및 그 장치
US20170105006A1 (en) * 2015-10-13 2017-04-13 Mediatek Inc. Method and Apparatus for Video Coding Using Master-Slave Prediction Structure
CN106170089B (zh) * 2016-08-25 2020-05-22 上海交通大学 基于h.265的多路编码方法
WO2018061550A1 (ja) * 2016-09-28 2018-04-05 シャープ株式会社 画像復号装置及び画像符号化装置
FR3072850B1 (fr) 2017-10-19 2021-06-04 Tdf Procedes de codage et de decodage d'un flux de donnees representatif d'une video omnidirectionnelle
KR20230058541A (ko) 2018-07-26 2023-05-03 구글 엘엘씨 공간 계층 레이트 할당
KR102637604B1 (ko) 2018-10-08 2024-02-16 엘지전자 주식회사 신택스 디자인 방법 및 신택스를 이용하여 코딩을 수행하는 장치
CN111147850B (zh) * 2018-11-02 2022-10-11 北京字节跳动网络技术有限公司 用于基于历史的运动矢量预测的表维护
US10855983B2 (en) * 2019-06-13 2020-12-01 Intel Corporation Encoding video using two-stage intra search

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6957350B1 (en) * 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US5790839A (en) * 1996-12-20 1998-08-04 International Business Machines Corporation System integration of DRAM macros and logic cores in a single chip architecture
US5901304A (en) * 1997-03-13 1999-05-04 International Business Machines Corporation Emulating quasi-synchronous DRAM with asynchronous DRAM
KR100244769B1 (ko) * 1997-06-26 2000-02-15 전주범 스케일러빌리티를 갖는 간 윤곽선 부호화 방법 및 장치
KR100240770B1 (ko) * 1997-07-11 2000-01-15 이형도 에너지보상/역보상기능을개선한스케러블부호화기및그방법
US6765962B1 (en) * 1999-12-02 2004-07-20 Sarnoff Corporation Adaptive selection of quantization scales for video encoding
US6826232B2 (en) * 1999-12-20 2004-11-30 Koninklijke Philips Electronics N.V. Fine granular scalable video with embedded DCT coding of the enhancement layer
AU4338800A (en) * 1999-12-22 2001-07-03 General Instrument Corporation Video compression for multicast environments using spatial scalability and simulcast coding
US7477688B1 (en) * 2000-01-26 2009-01-13 Cisco Technology, Inc. Methods for efficient bandwidth scaling of compressed video data
US7095782B1 (en) * 2000-03-01 2006-08-22 Koninklijke Philips Electronics N.V. Method and apparatus for streaming scalable video
US6771703B1 (en) * 2000-06-30 2004-08-03 Emc Corporation Efficient scaling of nonscalable MPEG-2 Video
US7016412B1 (en) * 2000-08-29 2006-03-21 Koninklijke Philips Electronics N.V. System and method for dynamic adaptive decoding of scalable video to balance CPU load
US7245662B2 (en) * 2000-10-24 2007-07-17 Piche Christopher DCT-based scalable video compression
US7263124B2 (en) * 2001-09-26 2007-08-28 Intel Corporation Scalable coding scheme for low latency applications
US7729421B2 (en) * 2002-02-20 2010-06-01 International Business Machines Corporation Low latency video decoder with high-quality, variable scaling and minimal frame buffer memory
US7391807B2 (en) * 2002-04-24 2008-06-24 Mitsubishi Electric Research Laboratories, Inc. Video transcoding of scalable multi-layer videos to single layer video
KR20060105407A (ko) * 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
US7369610B2 (en) * 2003-12-01 2008-05-06 Microsoft Corporation Enhancement layer switching for scalable video coding
US7697608B2 (en) * 2004-02-03 2010-04-13 Sony Corporation Scalable MPEG video/macro block rate control
WO2006087319A2 (en) 2005-02-18 2006-08-24 Thomson Licensing Method for deriving coding information for high resolution pictures from low resoluton pictures and coding and decoding devices implementing said method
US20080267291A1 (en) 2005-02-18 2008-10-30 Joseph J. Laks Thomson Licensing Llc Method for Deriving Coding Information for High Resolution Images from Low Resolution Images and Coding and Decoding Devices Implementing Said Method
KR100732961B1 (ko) * 2005-04-01 2007-06-27 경희대학교 산학협력단 다시점 영상의 스케일러블 부호화, 복호화 방법 및 장치
KR20070012201A (ko) 2005-07-21 2007-01-25 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
WO2007073362A1 (en) * 2005-08-30 2007-06-28 Thomson Licensing Cross-layer optimization for scalable video multicast over ieee 802.11 wireless local area networks
JP2007081720A (ja) * 2005-09-13 2007-03-29 Sanyo Electric Co Ltd 符号化方法
WO2007081139A1 (en) 2006-01-09 2007-07-19 Lg Electronics Inc. Inter-layer prediction method for video signal
EP2092748A4 (en) 2006-12-14 2011-01-05 Thomson Licensing METHOD AND DEVICE FOR CODING AND / OR DECODING VIDEO DATA USING EXPANSION LAYER RESTRICTION FOR SOFTENCE SCALINGABILITY
US8199812B2 (en) 2007-01-09 2012-06-12 Qualcomm Incorporated Adaptive upsampling for scalable video coding
TWI416961B (zh) * 2010-04-02 2013-11-21 Univ Nat Chiao Tung 用於可調式視訊編碼系統之選擇性移動向量預測方法、移動估測方法及其裝置
US20110268175A1 (en) * 2010-04-30 2011-11-03 Wai-Tian Tan Differential protection of a live scalable media
US20130028324A1 (en) * 2011-07-29 2013-01-31 National Chiao Tung University Method and device for decoding a scalable video signal utilizing an inter-layer prediction
US20130188717A1 (en) 2012-01-20 2013-07-25 Qualcomm Incorporated Motion prediction in svc using partition mode without split flag
US9124899B2 (en) * 2012-09-28 2015-09-01 Sharp Laboratories Of America, Inc. Motion derivation and coding for scaling video
US20140098880A1 (en) 2012-10-05 2014-04-10 Qualcomm Incorporated Prediction mode information upsampling for scalable video coding

Also Published As

Publication number Publication date
CN104718757A (zh) 2015-06-17
KR102188488B1 (ko) 2020-12-08
BR112015007116A2 (pt) 2017-07-04
EP2904802B1 (en) 2020-12-23
EP2904802A1 (en) 2015-08-12
KR20150065797A (ko) 2015-06-15
WO2014055327A1 (en) 2014-04-10
US20140098880A1 (en) 2014-04-10
JP2015532552A (ja) 2015-11-09
US20170237990A1 (en) 2017-08-17
CN104718757B (zh) 2019-08-06
BR112015007116B1 (pt) 2023-03-14
US10721478B2 (en) 2020-07-21
JP2018110410A (ja) 2018-07-12

Similar Documents

Publication Publication Date Title
JP6700323B2 (ja) スケーラブルビデオコーディングのための予測モード情報アップサンプリング
JP6285020B2 (ja) コンポーネント間フィルタ処理
JP6297670B2 (ja) ハイレベルシンタックスのみのスケーラブルビデオコーディングのための、レイヤ間参照ピクチャ制限
US9344718B2 (en) Adaptive up-sampling filter for scalable video coding
US9584823B2 (en) Determining motion vectors for motion vector prediction based on motion vector type in video coding
US9491458B2 (en) Scalable video coding prediction with non-causal information
JP6092222B2 (ja) ビデオコード化のための動きベクトル決定
KR101937522B1 (ko) Shvc 에서 리샘플링 프로세스의 조건적 호출
JP6352314B2 (ja) 異なるアスペクト比を伴う空間スケーラビリティのためのレイヤ間の参照ピクチャの構築
US20130258052A1 (en) Inter-view residual prediction in 3d video coding
AU2016332326A1 (en) Intra block copy merge mode and padding of unavailable IBC reference region
JP2016524877A (ja) マルチレイヤビデオコーディングにおけるレイヤ間予測タイプに関するビットストリーム制約を処理すること
EP2859722A2 (en) Adaptive upsampling filters for video compression
US9648319B2 (en) Device and method for scalable coding of video information based on high efficiency video coding
US9420285B2 (en) Inter-layer mode derivation for prediction in scalable video coding
JP2016531488A (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP2016501483A (ja) ビデオコーディングにおけるhevc拡張用の多重レイヤの低複雑度サポート
WO2014036162A1 (en) Intra prediction most probable mode order improvement for scalable video coding
KR20160034926A (ko) 비디오 정보의 스케일러블 코딩을 위한 디바이스 및 방법
JP2015532553A (ja) 高効率ビデオコーディングに基づくスケーラブルコーディングのための動きフィールドアップサンプリング
KR20150140753A (ko) 비디오 정보의 스케일러블 코딩을 위한 디바이스 및 방법
US9270991B2 (en) Inter-layer reference picture generation for HLS-only scalable video coding
US10194146B2 (en) Device and method for scalable coding of video information

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200121

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200430

R150 Certificate of patent or registration of utility model

Ref document number: 6700323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250