JP2015537446A - ビデオコーディングにおけるターゲット出力レイヤ - Google Patents

ビデオコーディングにおけるターゲット出力レイヤ Download PDF

Info

Publication number
JP2015537446A
JP2015537446A JP2015539945A JP2015539945A JP2015537446A JP 2015537446 A JP2015537446 A JP 2015537446A JP 2015539945 A JP2015539945 A JP 2015539945A JP 2015539945 A JP2015539945 A JP 2015539945A JP 2015537446 A JP2015537446 A JP 2015537446A
Authority
JP
Japan
Prior art keywords
output
layers
layer
syntax elements
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015539945A
Other languages
English (en)
Other versions
JP6377623B2 (ja
JP2015537446A5 (ja
Inventor
チェン、イン
ワン、イェ−クイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015537446A publication Critical patent/JP2015537446A/ja
Publication of JP2015537446A5 publication Critical patent/JP2015537446A5/ja
Application granted granted Critical
Publication of JP6377623B2 publication Critical patent/JP6377623B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

一例では、デバイスは、複数のレイヤセットに関連付けられたビデオデータの複数のレイヤを備えるマルチレイヤビットストリームをコーディングし、ここにおいて、各レイヤセットは複数のレイヤのビデオデータの1つまたは複数のレイヤを含み、各々が複数のレイヤセットのうちの1つのレイヤセットと複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示すビットストリームの1つまたは複数のシンタックス要素をコーディングするように構成されたビデオコーダを含む。

Description

[0001]本出願は、その内容全体が参照により本明細書に組み込まれる、2012年10月30日に出願された米国仮特許出願第61/720,364号の利益を主張する。
[0002]本開示は、ビデオコーディングに関する。
[0003]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラーまたは衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、Part 10、アドバンストビデオコーディング(AVC)、現在開発中の高効率ビデオコーディング(HEVC:High Efficiency Video Coding)規格によって定義された規格、ならびにスケーラブルビデオコーディング(SVC)およびマルチビュービデオコーディング(MVC)などの、そのような規格の拡張に記載されているビデオコーディング技法などの、ビデオコーディング技法を実装する。HEVCのワー
キングドラフト(WD)のバージョン6、Brossら、「High efficiency video coding(HEVC) text specification draft 6」、ITU−T SG16 WP3とISO/IEC JTC1/SC29/WG11とのJoint Collaborative Team on Video Coding(JCT−VC)、第8回会合:サンノゼ、カリフォルニア州、米国、2012年2月1日〜10日は、http://phenix.it−sudparis.eu/jct/doc_end_user/current_document.php?id=5096から入手できる。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
[0004]ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するための空間的(イントラピクチャ)予測および/または時間的(インターピクチャ)予測を含む。ブロックベースのビデオコーディングの場合、ビデオスライス(たとえば、ビデオピクチャまたはビデオピクチャの一部分)が、ツリーブロック、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもあるビデオブロックに区分され得る。ピクチャのイントラコーディングされた(I)スライス中のビデオブロックは、同じピクチャ中の近隣ブロック中の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコーディングされた(PまたはB)スライス中のビデオブロックは、同じピクチャ中の近隣ブロック中の参照サンプルに対する空間的予測、または他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005]空間的予測または時間的予測は、コーディングされるべきブロックの予測ブロックを生じる。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコーディングブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、およびコーディングブロックと予測ブロックとの間の差分を示す残差データに従って符号化される。イントラコーディングブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて残差変換係数をもたらすことができ、その残差変換係数は、次いで量子化することができる。量子化変換係数は、最初に2次元アレイで構成され、変換係数の1次元ベクトルを生成するために走査することができ、なお一層の圧縮を達成するためにエントロピーコーディングを適用することができる。
[0006]本開示の技法は、マルチビュービデオコーディングおよび/またはスケーラブルビデオコーディングにおいて1つまたは複数のターゲット出力レイヤを特定することを含む。たとえば、現行のHEVC基本仕様(上述のWD6)に定義された動作点は、動作点がビデオデータビットストリームの1つまたは複数のレイヤを有するレイヤセットを参照するように、ビデオデータのいくつかのレイヤを含み得る。いくつかの事例では、そのようなレイヤのサブセットのみが、出力、たとえば表示のために復号され得る。本開示の態様によれば、出力用のビデオデータのターゲットレイヤを特に識別する出力動作点が定義され得る。
[0007]一例では、ビデオデータを復号する方法は、マルチレイヤビットストリームから、各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む、複数のレイヤセットを含むビデオデータの複数のレイヤを取得することと、ビットストリームの1つまたは複数のシンタックス要素に基づいて、各々が複数のレイヤセットのうちの1つのレイヤセットと、複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を特定することとを含む。
[0008]別の例では、ビデオデータを符号化する方法は、各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む、複数のレイヤセットを含むビデオデータの複数のレイヤを符号化することと、各々が複数のレイヤセットのうちの1つのレイヤセットと、複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示す1つまたは複数のシンタックス要素を符号化することとを含む。
[0009]別の例では、装置は、複数のレイヤセットに関連付けられたビデオデータの複数のレイヤを備えるマルチレイヤビットストリームをコーディングし、ここにおいて、各レイヤセットは複数のレイヤのビデオデータの1つまたは複数のレイヤを含み、各々が複数のレイヤセットのうちの1つのレイヤセットと複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示すビットストリームの1つまたは複数のシンタックス要素をコーディングするように構成された1つまたは複数のプロセッサを含む。
[0010]別の例では、ビデオデータをコーディングするためのデバイスは、複数のレイヤセットに関連付けられたビデオデータの複数のレイヤを備えるマルチレイヤビットストリームをコーディングするための手段と、ここにおいて、各レイヤセットは複数のレイヤのビデオデータの1つまたは複数のレイヤを含み、各々が複数のレイヤセットのうちの1つのレイヤセットと複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示すビットストリームの1つまたは複数のシンタックス要素をコーディングするための手段とを含む。
[0011]別の例では、非一時的コンピュータ可読記憶媒体は、実行される際、ビデオデータをコーディングするためのデバイスのプロセッサに、複数のレイヤセットに関連付けられたビデオデータの複数のレイヤを備えるマルチレイヤビットストリームをコーディングさせ、ここにおいて、各レイヤセットは複数のレイヤのビデオデータの1つまたは複数のレイヤを含み、各々が複数のレイヤセットのうちの1つのレイヤセットと複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示すビットストリームの1つまたは複数のシンタックス要素をコーディングさせる命令をその上に記憶した。
[0012]1つまたは複数の例の詳細は、添付の図面および以下の説明に記載されている。他の特徴、目的、および利点は、その説明および図面、ならびに特許請求の範囲から明らかになろう。
[0013]本開示の態様による、1つまたは複数のターゲット出力レイヤを特定するための技法を利用し得る例示的なビデオ符号化および復号システムを示すブロック図。 [0014]本開示の態様による、1つまたは複数のターゲット出力レイヤを特定するための技法を実装し得るビデオエンコーダの一例を示すブロック図。 [0015]本開示の態様による、1つまたは複数のターゲット出力レイヤを特定するための技法を実装し得るビデオデコーダ30の一例を示すブロック図。 [0016]例示的なMVCの予測パターンを示す概念図。 [0017]例示的なスケーラブルビデオコーディングシーケンスを示す概念図。 [0018]本開示の態様による、出力動作点を符号化するための例示的なプロセスを示すフローチャート。 [0019]本開示の態様による、出力動作点を復号するための例示的なプロセスを示すフローチャート。
[0020]本開示の技法は、マルチビュービデオコーディングおよび/またはスケーラブルビデオコーディングにおいて1つまたは複数のターゲット出力レイヤを特定することを含む。現在、モーションピクチャーズエクスパーツグループ(MPEG)は、次回の高効率ビデオコーディング(HEVC)規格に基づいて3次元ビデオ(3DV)規格を開発している。規格化の取組みの一部は、HEVCに基づいてHEVCに基づいてマルチビュービデオコーデックおよびスケーラブルビデオコーデックの規格化も含む。たとえば、1つの規格化の取組みは、MV−HEVCと呼ばれる、HEVCのマルチビュー拡張の開発を含み、別の規格化の取組みは、3D−HEVCと呼ばれる、奥行きが強調されたHEVCベースのフル3DVコーデックである。スケーラブルビデオコーディングに関して、ビュースケーラビリティおよび/または空間スケーラビリティは、3次元ビデオサービスにも寄与する可能性があり、したがって、スケーラビリティは、より多くのビューに関する後方互換性がある拡張、および/またはレガシーデバイスによる復号を可能にする方法でのビューの解像度の向上を可能にする。
[0021]3次元ビデオデータでは、一般に、各ビューは、共通のシーンの対応するビデオデータがキャプチャされた異なる視点または角度に対応する。コーディングされたビューは、ビデオデータの3次元(3D)ディスプレイに使用され得る。たとえば、2つのビュー(たとえば、観察者の左眼のビューおよび右眼のビュー)は、光の異なる偏光を使用して同時に、またはほぼ同時に表示することができ、観察者の眼の各々がビューのそれぞれ1つを受け取るように、観察者はパッシブ偏光眼鏡を着用することができる。代替的に、観察者は、各眼を単独に遮断するアクティブ眼鏡を着用することができ、ディスプレイは、眼鏡と同期して各眼の画像間を高速に交互することができる。
[0022]ITU−T H.264規格(あるいは、MPEG−4、Part 10、アドバンストビデオコーディング(AVC)規格と呼ばれる)の付属書類Hに記載されているマルチビュービデオコーディング(MVC)などのマルチビューコーディングがある場合、特定のビューの特定のピクチャは、ビュー成分と呼ばれる。すなわち、ビューのビュー成分は、ビューの特定の時間インスタンスに対応する。マルチビューデータをキャプチャするために使用されるすべてのカメラが、様々な視点から同じシーンをキャプチャするので、マルチビュービデオは、比較的大量のビュー間の統計的な依存性を含んでいる場合がある。そのような依存性は、合成された時間的予測および/またはビュー間予測のために活用することができ、画像は時間的に近接する画像からだけでなく、他のビューからの対応する画像からも予測される。すなわち、ビュー間予測は、同じアクセスユニット内(すなわち、同じ時間インスタンスの内部)の画像間で実行され得る。
[0023]上述のように、スケーラブルビデオコーディングは、ビュースケーラビリティおよび/または空間スケーラビリティを提供するために複数のビューをコーディングするのに使用することもできる。たとえば、スケーラブルビデオコーディング(SVC)は、H.264/AVC規格の付属書類Gに記載され、ビデオデータの複数のレイヤをコーディングするために使用され得る。いくつかの事例では、各レイヤは、特定のビューに対応する可能性がある。
[0024]本明細書で説明するように、ビデオ「レイヤ」は、一般に、ビュー、フレームレート、解像度などの、少なくとも1つの共通の特性を有するピクチャのシーケンスを指す可能性がある。たとえば、レイヤは、マルチビュービデオデータの特定のビューに関連するビデオデータを含む可能性がある。別の例として、レイヤは、スケーラブルビデオデータの特定のレイヤに関連するビデオデータを含む可能性がある。したがって、本開示は、ビデオデータのレイヤおよびビューを互換的に指す可能性がある。
[0025]いずれの場合でも、ビデオコーダ(以下でより詳細に説明する、ビデオエンコーダまたはビデオデコーダなど)は、コーディングビデオデータの様々な特性を記述または特定するために1つまたは複数のパラメータセットを使用することができる。パラメータセットがある場合、まれに変化する情報は、ピクチャごとまたはピクチャのシーケンスごとに繰り返される必要がなく、したがってコーディング効率を向上させる。いくつかの事例では、パラメータセットは、ビデオビットストリームの一部を形成し得る。他の事例では、パラメータセットは、他の方法(たとえば、帯域外送信、ハードコーディングなど)でビデオデコーダによって受信され得る。コーディングビデオシーケンスは、その関連するパラメータセットとともに、ビデオビットストリームの独立して復号可能な部分を表し得る。
[0026]HEVCは、H.264/AVCのパラメータセットの概念を継承するが、いくつかの変更および追加を含む。一般に、シーケンスパラメータセット(SPS)は、コーディングビデオシーケンスのすべてのスライスに適用する情報を含む。HEVCでは、コーディングビデオシーケンスは、(シーケンスに含まれる)第1の瞬時復号リフレッシュ(IDR)ピクチャと、(シーケンスに含まれない)次のIDRピクチャまたはビットストリームの終端部(第1のIDRピクチャがビットストリーム中の最後のピクチャである場合)との間のすべてのピクチャを含む。ピクチャパラメータセット(PPS)は、ピクチャごとに変化し得る情報を含む。
[0027]HEVCは、ビデオパラメータセット(VPS)構造も含む。一般に、VPSは、時間サブレイヤ間の依存性を含む、コーディングビデオシーケンスの特性全体を記述する。VPSは、システムレイヤにおけるHEVC規格の互換性がある拡張を可能にし得る。たとえば、VPSは、そのようなレイヤを復号することが可能なデコーダに適している可能性があるが、レガシーデコーダがベースレイヤを復号しそのようなレイヤを無視することを可能にする、スケーラブルビットストリーム構造またはマルチビュービットストリーム構造に関する追加情報を提供することができる。
[0028]ビデオデータの複数のレイヤがビットストリームに含まれるとき、ビットストリームからいくつかのレイヤを構文解析するか、または抽出するために、動作点が使用され得る。たとえば、マルチレイヤビットストリームは、受信された符号化データのサブセットを復号し、表示することを容易にするために複数の動作点を含み得る。本明細書で説明するように、「動作点」は、一般に、ビデオデータの1つまたは複数のレイヤを含み得るレイヤセットを指す可能性がある。上述のように、レイヤは、一般に、ビュー、フレームレート、解像度など(たとえば、ビデオデータのビュー、スケーラブルビデオデータのレイヤなど)の、少なくとも1つの共通の特性を有するピクチャのシーケンスを指す可能性がある。したがって、動作点は、ビデオデータの1つまたは複数のビュー、ビデオデータの1つまたは複数のレイヤなどを有するレイヤセットを指す可能性がある。したがって、「動作点」および「レイヤセット」は、本明細書では互換的に使用され得る。
[0029]異なる動作点を使用することは、様々なクライアントデバイスが適合を実行することを可能にし得る。すなわち、異なるレンダリングおよび復号能力を有するクライアントデバイスが、2次元または3次元ビデオデータを表示するために様々なビューを抽出し得る。クライアントデバイスはまた、様々な帯域幅能力のトランスポーテーション媒体に適合するように、変動するビットレートのデータを取り出すために、サーバデバイスと交渉し得る。
[0030]したがって、各動作点は、マルチビュービデオデータのビューの様々な組合せ、ならびに/または、変動する時間フレームレートおよび空間解像度で符号化されたスケーラブルビデオデータのレイヤの様々な組合せ、たとえば様々なレイヤセットを表し得る。言い換えると、動作点は、ビュー次元(ビューの数を反映する)と、時間次元(フレームレートを反映する)と、空間次元(空間解像度を反映する)とを含む、3次元でのマルチビュービデオデータの符号化を指し得る。いくつかの事例では、同じビットストリームサブセットに2つ以上の動作点が関連付けられ得る。すなわち、2つ以上のレイヤセットは、ビットストリームがレイヤの1つまたは複数の組を含むように、同じビットストリームに関連付けられ得る。
[0031]ビデオエンコーダは、ベースビュー/レイヤと強調ビュー/レイヤとの様々な組合せに関するいくつかのレイヤセットを定義し得る。特定のレイヤは、表示用の1つまたは複数のターゲット出力レイヤを含む、ビデオデータのいくつかのレイヤを含み得る。たとえば、ターゲット出力ビューは、たとえば表示される際に閲覧可能に出力されることを意図されるマルチビュービデオデータのビューを含み得る。同様に、ターゲット出力レイヤは、出力されることを意図されるスケーラブルビデオデータのレイヤを含み得る。本明細書で説明するように、ターゲット出力ビューおよびターゲット出力レイヤは、互換的に使用され得る。
[0032]たとえば、MVCに関して、動作点は、SPSにおいてシグナリングされ得る。MVCデータのターゲット出力ビューは、MVCデータのターゲット最高時間レベルとともにシグナリングされ得る。SVCに関して、ターゲット出力レイヤは、動作点の最上位レイヤに応じて、たとえば最上位のdependency_idおよびquality_idによって自動的に選択され得る。HEVCに関して、動作点は、サブビットストリームの最高時間レベルに基づいて抽出され得るサブビットストリームを指定し得る。HEVCは、layer_idsに改名され得る、nuh_reserved_zero_6bits値のリストを使用することもできる。
[0033]HEVCのマルチビューコーディング拡張(MV−HEVC)のように、ビデオデータの複数のレイヤとともに使用するためにHEVCを適合させるとき、動作点は、VPSにおいて単独でシグナリングされ得る。たとえば、(復号されるべき)ビットストリームに存在するビューは、各動作点に関するVPSにおいてシグナリングされ得る。HEVC(HSVC、または代わりにSHVC)のスケーラブル拡張の規格化に関して、最上位のlayer_idを有するレイヤが、特定の動作点に関するターゲット出力レイヤであることが予想される。
[0034]VPS構造を使用することを含む、HEVCにおける動作点に対する現在の手法は、複数のレイヤとともにコーディングする際に欠点を有する可能性がある。たとえば、HEVCに定義される動作点は、ビットストリーム抽出のためには十分である可能性があるが、VPSは、動作点のターゲット出力ビュー/レイヤを指定しない。すなわち、VPSは、表示されることが意図される、ビデオデータの特定のレイヤを識別しない。
[0035]どのレイヤがターゲット出力レイヤであるかがわからない場合、出力に使用されないいくつかのレイヤの復号ピクチャは、必要とされるよりも長い間、復号ピクチャバッファ(DPB)に保持される可能性があり、それによって、マルチビューシーケンスの格納要求を増大させる。加えて、複数のビューがサブビットストリームに含まれるとき、コンテンツプロバイダは、閲覧エクスペリエンスを制御するために、どのサブビットストリームが復号されディスプレイに出力として提供されるかを制御したい場合がある。たとえば、コンテンツプロバイダは、ユーザが、あるサブビットストリームまたはサブビットストリームの組合せからのピクチャを見ることを可能にしたくない場合がある。そのような制御は、HEVCの現行のVPS方式とともには利用できない可能性がある。
[0036]本開示の技法は、いくつかのレイヤセット(各々がビデオデータの1つまたは複数のレイヤを含む)を含むビデオデータの複数のレイヤから、いくつかのレイヤセットのうちの1つのレイヤセットと1つまたは複数のターゲット出力レイヤとに関連する1つまたは複数の出力動作点を特定することを含む。たとえば、本開示の技法は、マルチビュービデオデータ用の1つまたは複数のターゲット出力ビュー、および/またはスケーラブルビデオデータ用のターゲット出力レイヤを識別する出力動作点を特定することを含む。
[0037]本開示の技法はまた、ビデオエンコーダによって、出力動作点および/またはターゲット出力レイヤを示す1つまたは複数のシンタックス要素をシグナリングすることと、符号化ビットストリームからビデオデコーダによって、出力動作点および/またはターゲット出力レイヤを示す1つまたは複数のシンタックス要素を構文解析することとを含む。ターゲット出力レイヤとともに出力動作点の表示を提供し利用することは、復号ピクチャバッファ管理に関する効率を増大させる可能性があり、出力される(たとえば、表示される)べき特定のビューおよび/またはレイヤを示すことに関するフレキシビリティを増大させる可能性がある。
[0038]本開示の態様によれば、現行のHEVC基本仕様(たとえば、上述のWD6)に定義される1つの動作点は、各々が様々なターゲット出力ビューおよび/またはレイヤを有する、1つまたは複数の出力動作点に対応する可能性がある。たとえば、いくつかの事例では、ビデオコーダ(ビデオエンコーダまたはビデオデコーダなど)は、ビデオデータを適切にコーディングするためにレイヤセットのビデオデータのいくつかのレイヤを使用し得る。しかしながら、復号レイヤのサブセットのみが、出力、たとえば表示にとって望ましい可能性がある。本開示の態様によれば、ビデオコーダは、出力用のビデオデータのターゲットレイヤを特に識別する出力動作点を特定することができる。いくつかの事例では、ビデオコーダは、たとえば、出力用のビデオデータのレイヤの様々な組合せに適応するために、レイヤセットに関する2つ以上の出力動作点を特定することができる。
[0039]例示のための例では、レイヤセットが、立体適用のためのベースビュー(ビュー0)と、第1のビュー(ビュー1)と、第2のビュー(ビュー2)と、第3のビュー(ビュー3)とを含むことを仮定されたい。ビュー2およびビュー3が、最適の立体出力を提供することをさらに仮定されたい。この例では、ビデオデコーダは、ビュー2およびビュー3を復号するために参照としてベースビューを使用し得る。加えて、ビデオデコーダがいくつかの従来のコーディング規格(上述のH.264/AVCに対するMVCまたはSVC拡張など)に準拠する場合、ビデオデコーダは、出力用の動作点の最上位のレベル、すなわちビュー2およびビュー3が出力には最適のビューであるにもかかわらず、ベースレイヤを選択する可能性がある。
[0040]本開示の態様によれば、レイヤセットは、復号される1つまたは複数のサブビットストリームを指定し、出力動作点は、出力されるべき、レイヤセット内のレイヤのサブセットを示す。したがって、上記の例では、ビデオデコーダは、ベースビューと、第1のビューと、第2のビューと、第3のビューとを有するレイヤセットを復号し得る。加えて、ビデオデコーダは、レイヤセットに関する出力動作点を特定することができ、出力動作点は、ビュー2およびビュー3を含む。したがって、ビデオコーダは、表示のためにビュー2およびビュー3を復号し出力することができる。
[0041]上記で説明したように、出力動作点は、HEVCではあらかじめ明記されなかった。加えて、H.264/AVCに対するMVC拡張は、動作点のどのサブビットストリームが表示の対象であるかを特定する問題に遭遇しなかったが、それは、MVCが動作点の概念を使用せず、MVCビットストリームのすべてのターゲットビューがビットストリーム中のすべてのビューによって指定されるからである。したがって、本開示の技法は様々な規格とともに実装され得るが、本開示の態様は、HEVC規格を使用して指定されるべき動作点の特定のターゲット出力ビューに関する機構を提供する。
[0042]図1は、本開示の態様による、1つまたは複数のターゲット出力レイヤを特定するための技法を利用し得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、宛先デバイス14によって後で復号されるべき符号化ビデオデータを与えるソースデバイス12を含む。特に、ソースデバイス12は、コンピュータ可読媒体16を介してビデオデータを宛先デバイス14に与える。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備え得る。場合によっては、ソースデバイス12および宛先デバイス14は、ワイヤレス通信のために装備され得る。
[0043]宛先デバイス14は、コンピュータ可読媒体16を介して復号されるべき符号化ビデオデータを受信し得る。コンピュータ可読媒体16は、符号化ビデオデータをソースデバイス12から宛先デバイス14に移動することが可能な任意のタイプの媒体またはデバイスを備え得る。一例では、コンピュータ可読媒体16は、ソースデバイス12が、符号化ビデオデータを宛先デバイス14にリアルタイムで直接送信することを可能にするための通信媒体を備え得る。符号化ビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、無線周波数(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、ソースデバイス12から宛先デバイス14への通信を可能にするために有用であり得るルータ、スイッチ、基地局、または任意の他の機器を含み得る。
[0044]いくつかの例では、符号化データは、出力インターフェース22からストレージデバイスに出力され得る。同様に、符号化データは、入力インターフェースによってストレージデバイスからアクセスされ得る。ストレージデバイスは、ハードドライブ、ブルーレイ(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、揮発性または不揮発性メモリ、あるいは符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体など、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。さらなる一例では、ストレージデバイスは、ソースデバイス12によって生成された符号化ビデオを記憶し得るファイルサーバまたは別の中間ストレージデバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介してストレージデバイスから、記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶し、その符号化ビデオデータを宛先デバイス14に送信することが可能な任意のタイプのサーバであり得る。例示的なファイルサーバは、(たとえば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)デバイス、またはローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含む、任意の標準のデータ接続を介して符号化ビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、または両方の組合せを含み得る。ストレージデバイスからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組合せであり得る。
[0045]本開示の技法は、必ずしもワイヤレス適用例または設定に限定されるとは限らない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH:dynamic adaptive streaming over HTTP)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例などの、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0046]図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。本開示によれば、ソースデバイス12のビデオエンコーダ20は、1つまたは複数のターゲット出力レイヤを特定するための技法を適用するように構成され得る。他の例では、ソースデバイスおよび宛先デバイスは他の構成要素または構成を含み得る。たとえば、ソースデバイス12は、外部カメラなどの外部ビデオソース18からビデオデータを受信し得る。同様に、宛先デバイス14は、内蔵ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。
[0047]図1の図示のシステム10は一例にすぎない。1つまたは複数のターゲット出力レイヤを特定するための技法は、任意のデジタルビデオ符号化および/または復号デバイスによって実行され得る。概して、本開示の技法はビデオ符号化デバイスによって実行されるが、本技法は、一般に「コーデック」と呼ばれるビデオエンコーダ/デコーダによっても実行され得る。その上、本開示の技法はまた、ビデオプリプロセッサによって実行され得る。ソースデバイス12および宛先デバイス14は、ソースデバイス12が宛先デバイス14に送信するためのコーディングされたビデオデータを生成する、コーディングデバイスの例にすぎない。いくつかの例では、デバイス12、14は、デバイス12、14の各々がビデオ符号化構成要素とビデオ復号構成要素とを含むように、実質的に対称的に動作し得る。したがって、システム10は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャストまたはビデオ電話のための、ビデオデバイス12とビデオデバイス14との間の一方向または双方向のビデオ送信をサポートすることができる。
[0048]ソースデバイス12のビデオソース18は、ビデオカメラなどのビデオキャプチャデバイス、以前にキャプチャされたビデオを含むビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースを含み得る。さらなる代替として、ビデオソース18は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブビデオとコンピュータ生成ビデオとの組合せを生成し得る。場合によっては、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラ付き携帯電話またはビデオ電話を形成することができる。ただし、上述のように、本開示で説明する技法は、概してビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤード適用例に適用され得る。各々の場合において、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータで生成されたビデオは、ビデオエンコーダ20によって符号化され得る。符号化されたビデオ情報は、次いで、出力インターフェース22によってコンピュータ可読媒体16上に出力され得る。
[0049]コンピュータ可読媒体16は、ワイヤレスブロードキャストまたは有線ネットワーク送信などの時間媒体、あるいはハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、ブルーレイディスク、または他のコンピュータ可読媒体などの記憶媒体(すなわち、非時間的記憶媒体)を含み得る。いくつかの例では、ネットワークサーバ(図示せず)は、たとえば、ネットワーク送信を介して、ソースデバイス12から符号化されたビデオデータを受信し、宛先デバイス14に符号化されたビデオデータを与え得る。同様に、ディスクスタンピング設備など、媒体製造設備のコンピューティングデバイスは、ソースデバイス12から符号化されたビデオデータを受信し、その符号化されたビデオデータを含むディスクを生成し得る。したがって、コンピュータ可読媒体16は、様々な例において、様々な形態の1つまたは複数のコンピュータ可読媒体を含むことが理解されよう。
[0050]宛先デバイス14の入力インターフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義され、またビデオデコーダ30によって使用される、ブロックおよび他のコーディングユニット、たとえば、GOPの特性および/または処理を記述するシンタックス要素を含む、シンタックス情報を含み得る。ディスプレイデバイス32は、復号されたビデオデータをユーザに対して表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
[0051]ビデオエンコーダ20およびビデオデコーダ30は、現在開発中の高効率ビデオコーディング(HEVC)規格などのビデオコーディング規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20およびビデオデコーダ30は、代替的にMPEG−4、Part 10、アドバンストビデオコーディング(AVC)と呼ばれるITU−T H.264規格などの、他のプロプライエタリ規格または業界規格、あるいはそのような規格の拡張に従って動作し得る。ただし、本開示の技法は、いかなる特定のコーディング規格にも限定されない。ビデオコーディング規格の他の例には、MPEG−2およびITU−T H.263がある。図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、それぞれオーディオエンコーダおよびオーディオデコーダと統合され得、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含んで、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理することができる。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠することができる。
[0052]ビデオエンコーダ20およびビデオデコーダ30は各々、適用可能なとき、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、離散論理回路、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せなどの、様々な好適なエンコーダまたはデコーダ回路のいずれかとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、好適な非時間的コンピュータ可読媒体にソフトウェアの命令を記憶し、1つまたは複数のプロセッサを使用してその命令をハードウェアで実行して、本開示の技法を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも複合ビデオエンコーダ/デコーダ(コーデック)の一部として統合され得る。ビデオエンコーダ20および/またはビデオデコーダ30を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話などのワイヤレス通信デバイスを備え得る。
[0053]図1に示された例では、システム10はまた、ルータ36を有するサーバ/コンテンツ配信ネットワーク34を含む。いくつかの例では、ソースデバイス12は、上記で説明したように、様々なワイヤレス送信および/もしくは有線送信または記憶媒体を介して、サーバ/コンテンツ配信ネットワーク34と通信することができる。さらに、図1の例では別々に示されたが、いくつかの例では、ソースデバイス12とサーバ/コンテンツ配信ネットワーク34は同じデバイスを備える。サーバ/コンテンツ配信ネットワーク34は、(ソースデバイス12のビデオエンコーダ20からの)コーディングビデオデータの1つまたは複数のバージョンを記憶することができ、そのようなコーディングビデオデータを宛先デバイス14およびビデオデコーダ30によるアクセスのために利用可能にすることができる。いくつかの例では、ルータ36は、要求されたフォーマットで、コーディングビデオデータを宛先デバイス14に提供することを担い得る。
[0054]本開示は、概して、ビデオエンコーダ20および/またはサーバ/コンテンツ配信ネットワーク34が、ある情報をビデオデコーダ30などの別のデバイスに「シグナリング」することに言及することがある。しかしながら、ビデオエンコーダ20および/またはサーバ/コンテンツ配信ネットワーク34は、いくつかのシンタックス要素をビデオデータの様々な符号化部分に関連付けることによって情報をシグナリングすることができることを理解されたい。すなわち、ビデオエンコーダ20および/またはサーバ/コンテンツ配信ネットワーク34は、ビデオデータの様々な符号化部分のヘッダにいくつかのシンタックス要素を格納することによって、データを「シグナリング」することができる。いくつかの場合には、そのようなシンタックス要素は、ビデオデコーダ30によって受信および復号される前に、符号化および記憶され(たとえば、記憶デバイス24に記憶され)得る。したがって、「シグナリング」という用語は、通信がリアルタイムもしくはほぼリアルタイムで行われるか、または、符号化時にシンタックス要素を媒体に記憶し、次いで、この媒体に記憶された後の任意の時間にそのシンタックス要素が復号デバイスによって取り出され得るときなどに行われ得る、ある時間期間にわたって行われるかどうかにかかわらず、概して、圧縮ビデオデータを復号するためのシンタックスまたは他のデータの通信を指し得る。
[0055]ビデオエンコーダ20およびビデオデコーダ30は、代替的にMPEG−4、Part 10、アドバンストビデオコーディング(AVC)と呼ばれるITU−T H.264規格などの、ビデオ圧縮規格、またはそのような規格の拡張に従って動作し得る。ITU−T H.264/MPEG−4(AVC)規格は、Joint Video Team(JVT)として知られる共同パートナーシップの成果として、ISO/IEC Moving Picture Experts Group(MPEG)とともにITU−T Video Coding Experts Group(VCEG)によって策定された。いくつかの態様では、本開示で説明する技法は、一般にH.264規格に準拠するデバイスに適用することができる。H.264規格は、ITU−T研究グループによる2005年3月付けのITU−T勧告H.264「Advanced Video Coding for generic audiovisual services」に記載されており、本明細書ではH.264規格またはH.264仕様、あるいはH.264/AVC規格または仕様と呼ぶ。ビデオ圧縮規格の他の例としては、MPEG−2およびITU−T H.263がある。
[0056]本開示の技法は、任意の特定のコーディング規格に限定されないが、本技法は、HEVC規格に関係し得る。より詳細には、ビデオエンコーダ20およびビデオデコーダ30は、HEVC規格の拡張、たとえば、スケーラブルビデオコーディング(SVC)拡張を含む、マルチビュー拡張または3次元ビデオ(3DV)拡張に従ってビデオデータをコーディングするように構成され得る。
[0057]一般に、HEVCは、ビデオピクチャが、ルーマとクロマの両方のサンプルを含む一連のツリーブロックまたは最大コーディングユニット(LCU)に分割されることを可能にする。ビットストリーム内のシンタックスデータが、ピクセルの数に関して最大コーディングユニットであるLCUのサイズを定義し得る。スライスは、いくつかの連続するコーディングツリーユニット(CTU)を含む。CTUの各々は、ルーマサンプルのコーディングツリーブロックと、クロマサンプルの2つの対応するコーディングツリーブロックと、それらのコーディングツリーブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。3つの別個のカラープレーン(color plane)を有するモノクロームピクチャまたはピクチャでは、CTUは、単一のコーディングツリーブロックと、そのコーディングツリーブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。
[0058]ビデオピクチャは、1つまたは複数のスライスに区分され得る。各ツリーブロックは、4分木に従ってコーディングユニット(CU)に分割され得る。一般に、4分木データ構造はCUごとに1つのノードを含み、ルートノードはツリーブロックに対応する。CUが4つのサブCUに分割された場合、CUに対応するノードは4つのリーフノードを含み、リーフノードの各々はサブCUのうちの1つに対応する。CUは、ルーマサンプルアレイとCbサンプルアレイとCrサンプルアレイとを有するピクチャのルーマサンプルのコーディングブロックと、そのピクチャのクロマサンプルの2つの対応するコーディングブロックと、それらのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。3つの別個のカラープレーンを有するモノクロームピクチャまたはピクチャでは、CUは、単一のコーディングブロックと、そのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。コーディングブロックは、サンプルのN×Nブロックである。
[0059]4分木データ構造の各ノードは、対応するCUのシンタックスデータを与え得る。たとえば、4分木のノードは、そのノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUのシンタックス要素は、再帰的に定義され得、CUがサブCUに分割されるかどうかに依存し得る。CUがさらに分割されない場合、そのCUはリーフCUと呼ばれる。本開示では、元のリーフCUの明示的分割が存在しない場合でも、リーフCUの4つのサブCUをリーフCUとも呼ぶ。たとえば、16×16サイズのCUがさらに分割されない場合、この16×16CUが決して分割されなくても、4つの8×8サブCUをリーフCUとも呼ぶ。
[0060]CUは、CUがサイズ差異を有さないことを除いて、H.264規格のマクロブロックと同様の目的を有する。たとえば、ツリーブロックは、4つの子ノード(サブCUとも呼ばれる)に分割され得、各子ノードは、今度は親ノードとなり、別の4つの子ノードに分割され得る。4分木のリーフノードと呼ばれる、最後の分割されていない子ノードは、リーフCUとも呼ばれるコーディングノードを備える。コーディングビットストリームに関連するシンタックスデータは、最大CU深さと呼ばれる、ツリーブロックが分割され得る最大回数を定義し得、コーディングノードの最小サイズも定義し得る。それに応じて、ビットストリームは最小コーディングユニット(SCU:smallest coding unit)をも定義し得る。本開示では、HEVCのコンテキストにおけるCU、PU、またはTU、あるいは他の規格のコンテキストにおける同様のデータ構造(たとえば、H.264/AVCにおけるマクロブロックおよびそれのサブブロック)のいずれかを指すために「ブロック」という用語を使用する。
[0061]CUは、コーディングノードと、コーディングノードに関連する予測ユニット(PU:prediction unit)および変換ユニット(TU:transform unit)とを含む。CUのサイズは、コーディングノードのサイズに対応し、形状が方形でなければならない。CUのサイズは、8×8ピクセルから最大64×64以上のピクセルを有するツリーブロックのサイズまでに及び得る。各CUは、1つまたは複数のPUと、1つまたは複数のTUとを含み得る。
[0062]一般に、PUは、対応するCUの全部または一部に対応する空間的エリアを表し、そのPU用の参照サンプルを取り出すためのデータを含むことができる。その上、PUは、予測に関係するデータを含む。たとえば、PUがイントラモード符号化されるとき、PUのデータは、PUに対応するTUのイントラ予測モードを記述するデータを含み得る、残差4分木(RQT)中に含まれ得る。別の例として、PUがインターモード符号化されるとき、PUは、PUのための1つまたは複数の動きベクトルを定義するデータを含み得る。予測ブロックは、同じ予測が適用されるサンプルの矩形(すなわち、正方形または非正方形)ブロックであり得る。CUのPUは、ピクチャのルーマサンプルの1つの予測ブロックと、クロマサンプルの2つの対応する予測ブロックと、予測ブロックサンプルを予測するために使用されるシンタックス構造とを備え得る。3つの別個のカラープレーンを有するモノクロームピクチャまたはピクチャでは、PUは、単一の予測ブロックと、その予測ブロックサンプルを予測するために使用されるシンタックス構造とを備え得る。
[0063]TUは、変換、たとえば、残差ビデオデータへの離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に同様の変換の適用後に、変換領域において係数を含み得る。残差データは、符号化されていないピクチャのピクセルと、PUに対応する予測値との間のピクセル差分に対応し得る。ビデオエンコーダ20は、CUの残差データを含むTUを形成し、次いで、TUを変換して、CUの変換係数を生成し得る。変換ブロックは、同じ変換が適用されるサンプルの矩形ブロックであってもよい。CUの変換ユニット(TU)は、ルーマサンプルの変換ブロックと、クロマサンプルの2つの対応する変換ブロックと、それらの変換ブロックサンプルを変換するために使用されるシンタックス構造とを備え得る。3つの別個のカラープレーンを有するモノクロームピクチャまたはピクチャでは、TUは、単一の変換ブロックと、その変換ブロックサンプルを変換するために使用されるシンタックス構造とを備え得る。
[0064]CUのPUを使用したイントラ予測コーディングまたはインター予測コーディングの後、ビデオエンコーダ20は、CUのTUのための残差データを計算し得る。PUは、(ピクセル領域とも呼ばれる)空間領域において予測ピクセルデータを生成する方法またはモードを記述するシンタックスデータを備え得、TUは、変換、たとえば、残差ビデオデータへの離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に同様の変換の適用後に、変換領域において係数を備え得る。残差データは、符号化されていないピクチャのピクセルと、PUに対応する予測値との間のピクセル差分に対応し得る。ビデオエンコーダ20は、CUのための残差データを含むTUを形成し、次いで、TUを変換して、CUの変換係数を生成し得る。
[0065]変換係数を生成するための任意の変換の後に、ビデオエンコーダ20は、変換係数の量子化を実行し得る。量子化は、概して、さらなる圧縮を提供する、係数を表すために使用されるデータの量をできるだけ低減するために変換係数を量子化するプロセスを指す。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。たとえば、量子化中にnビット値がmビット値に切り捨てられ得、ただし、nはmよりも大きい。
[0066]量子化の後に、ビデオエンコーダは、変換係数を走査して、量子化変換係数を含む2次元行列から1次元ベクトルを生成し得る。走査は、より高いエネルギー(したがってより低い周波数)の係数をアレイの前方に配置し、より低いエネルギー(したがってより高い周波数)の係数をアレイの後方に配置するように設計され得る。いくつかの例では、ビデオエンコーダ20は、エントロピー符号化され得るシリアル化ベクトルを生成するために、量子化変換係数を走査するためにあらかじめ定義された走査順序を利用し得る。他の例では、ビデオエンコーダ20は適応走査を実行し得る。量子化変換係数を走査して1次元ベクトルを形成した後に、ビデオエンコーダ20は、たとえば、コンテキスト適応型可変長コーディング(CAVLC:context-adaptive variable length coding)、コンテキスト適応型バイナリ算術コーディング(CABAC:context-adaptive binary arithmetic coding)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)、確率間隔区分エントロピー(PIPE:Probability Interval Partitioning Entropy)コーディング、または別のエントロピー符号化方法に従って1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ20はまた、ビデオデータを復号する際にビデオデコーダ30が使用するための符号化ビデオデータに関連するシンタックス要素をエントロピー符号化し得る。
[0067]CABACを実行するために、ビデオエンコーダ20は、送信されるべきシンボルに、コンテキストモデル内のコンテキストを割り当て得る。コンテキストは、たとえば、シンボルの隣接値が非0であるか否かに関係し得る。CAVLCを実行するために、ビデオエンコーダ20は、送信されるべきシンボルのための可変長コードを選択し得る。VLCにおけるコードワードは、比較的短いコードが優勢シンボルに対応し、より長いコードが劣勢シンボルに対応するように構成され得る。このようにして、VLCの使用は、たとえば、送信されるべき各シンボルのために等長コードワードを使用するよりも、ビット節約を達成し得る。確率判断は、シンボルに割り当てられるコンテキストに基づき得る。
[0068]ビデオエンコーダ20は、さらに、ピクチャベースのシンタックスデータ、およびピクチャグループ(GOP)ベースのシンタックスデータなどのシンタックスデータを、たとえば、ピクチャヘッダ、ブロックヘッダ、スライスヘッダ、またはGOPヘッダ中でビデオデコーダ30に送り得る。GOPシンタックスデータは、それぞれのGOP中のいくつかのピクチャを記述し得、ピクチャシンタックスデータは、対応するピクチャを符号化するために使用される符号化/予測モードを示し得る。
[0069]いくつかの例では、ビデオデータを復号するときに使用され得るいくつかのパラメータセットを、ビデオエンコーダ20は生成することができ、ビデオデコーダ30は受信することができる。たとえば、パラメータセットは、まれに変化する情報を別個にシグナリングすることによって効率を改善する、SPS、PPS、またはVPSを含み得る。さらに、パラメータセットの使用は、重要なヘッダ情報の帯域外送信を可能にし、誤り耐性のための冗長送信の必要性を回避することができる。帯域外送信の例では、パラメータセットネットワークアブストラクションレイヤ(NALユニット)は、補足エンハンスメント情報(SEI:Supplemental Enhancement Information)NALユニットなどの他のNALユニットとは異なるチャネル上で送信され得る。
[0070]SEI NALユニット(SEIメッセージと呼ばれる)は、VCL NALユニットからのコーディングピクチャサンプルを復号するためには必要でないが、復号と、表示と、誤り耐性と、他の目的とに関係するプロセスを支援することができる情報を含む場合がある。SEIメッセージは、非VCL NALユニットに含まれることがある。SEIメッセージは、いくつかの規格の仕様の規範部分に含まれることがあり、したがって、規格に準拠するデコーダ実装のために常に必須であるとは限らない。SEIメッセージは、シーケンスレベルのSEIメッセージまたはピクチャレベルのSEIメッセージであり得る。SVCの例におけるスケーラビリティ情報SEIメッセージ、MVCにおけるビュースケーラビリティ情報SEIメッセージなどのSEIメッセージ内に、何らかのシーケンスレベル情報が含まれる場合がある。
[0071]HEVCでは、ビデオエンコーダ20は、サブビットストリームの最高時間レベルと、nuh_reserved_zero_6bitsのリストとに基づいて符号化ビットストリームから抽出され得るサブビットストリームを示すために動作点を定義し得る。たとえば、ビデオエンコーダ20は、以下に示す表1に従って動作点をシグナリングし得る。
[0072]上記の表1では、1に等しいop_layer_id_included_flag[opIdx][i]は、iに等しいlayer_idを有するレイヤが、layer_id値のopIdx番目の組に関して存在することを指定し得る。加えて、1に等しいop_layer_id_included_flag[opIdx][i]は、iに等しいlayer_idを有するレイヤが、layer_id値のopIdx番目の組に関して存在しないことを指定し得る。
[0073]ビデオエンコーダ20は、VPSにおいてシンタックス要素vps_max_nuh_reserved_zero_layer_idをシグナリングすることもでき、vps_max_nuh_reserved_zero_layer_idは、ビデオパラメータセットにおけるopIdx番目のhrd_parameters()シンタックス構造が適用する動作点のOpLayerIdSetにおけるコーディングビデオシーケンスにおけるすべてのNALユニットに関するnuh_reserved_zero_6bitsの最大の値を指定する。
[0074]いくつかの事例では、ビデオエンコーダ20は、HEVC(MV−HEVC)または3D−HEVCに対するマルチビュー拡張とともに使用するための動作点をシグナリングし得る。MV−HEVCおよび3D−HEVCのマルチビュー拡張の最新のワーキングドラフトは、それぞれ、http://phenix.it−sudparis.eu/jct2/doc_end_user/documents/1_Stockholm/wg11/JCT3V−A1004−v1.zipにおいて入手可能な、「MV−HEVC Working Draft 1」、ITU−T SG16 WP3およびISO/IEC JTC1/SC29/WG11の3Dビデオコーディング拡張開発の共同研究部会、第1回会合、ストックホルム、スウェーデン、2012年7月16日〜20日、JCT3V−A1004と、http://phenix.int−evry.fr/jct2/doc_end_user/documents/1_Stockholm/wg11/JCT3V−A1005−v1.zipにおいて入手可能な、「3D−HEVC Test Model 1」、ITU−T SG16 WP3およびISO/IEC JTC1/SC29/WG11の3Dビデオコーディング拡張開発の共同研究部会、第1回会合、ストックホルム、スウェーデン、2012年7月16日〜20日、JCT3V−A1005とに明記される。
[0075]MV−HEVCおよび/または3D0-HEVCの動作点は、ビデオパラメータセットにおいて単独でシグナリングされ得る。たとえば、ビデオエンコーダ20は、各動作点に関して存在し復号されるべきビューをシグナリングし得る。
[0076]上述のように、HEVCに定義される動作点は、ビットストリーム抽出のためには十分である可能性があるが、VPSは、動作点のターゲット出力ビュー/レイヤを指定しない。すなわち、VPSは、表示されることが意図される、ビデオデータの特定のレイヤを識別しない。
[0077]どのレイヤがターゲット出力レイヤであるかがわからない場合、出力に使用されないいくつかのレイヤの復号ピクチャは、必要とされるよりも長い間、ビデオエンコーダ20および/またはビデオデコーダ30の復号ピクチャバッファ(DPB)に保持される可能性があり、それによって、マルチビューシーケンスの格納要求を増大させる。加えて、複数のビューがサブビットストリームに含まれるとき、サーバ/コンテンツ配信ネットワーク34に関連するコンテンツプロバイダは、閲覧エクスペリエンスを制御するために、ビデオデコーダ30によってどのサブビットストリームが復号され表示デバイス32に出力として提供されるかを制御したい場合がある。そのような制御は、現行のVPS方式とともには利用できない可能性がある。
[0078]ビデオエンコーダ20およびビデオデコーダ30は、本開示の様々な技法のうちの1つまたは複数を単独でまたは任意の組合せで実行するように構成され得る。たとえば、本開示の態様によれば、ビデオエンコーダ20は、符号化ビットストリーム中の1つまたは複数のシンタックス要素とともに、動作点を示すデータ、たとえばビデオデータの複数のレイヤを有するレイヤセットを示すことができる。加えて、ビデオエンコーダ20は、動作点に関する出力動作点を示す1つまたは複数のシンタックス要素を符号化することができ、出力動作点は、ビデオデータの複数のレイヤのうちの1つまたは複数のターゲット出力レイヤに関連付けられる。
[0079]同様に、ビデオデコーダ30は、符号化ビットストリームから、動作点を示すデータ、たとえばビデオデータの複数のレイヤを有するレイヤセットを取得することができる。加えて、ビデオデコーダ30は、符号化ビットストリームの1つまたは複数のシンタックス要素に基づいて、動作点に関する出力動作点を特定することができ、出力動作点は、ビデオデータの複数のレイヤのうちの1つまたは複数のターゲット出力レイヤに関連付けられる。
[0080]たとえば、本開示の態様によれば、HEVC(MV−HEVC)に対するマルチビュー拡張またはHEVCに対する3次元ビデオ拡張(奥行きデータの1つまたは複数のレイヤを含み得る3DV)に関して、ビデオエンコーダ20は、VPSまたはVPS拡張における各出力動作点に関するターゲット出力レイヤをシグナリングすることができる。ビデオデコーダ30は、そのようなシグナリングを受信し、各出力動作点に関するターゲット出力レイヤを特定することができる。
[0081]一例として、MV−HEVCに関して、出力動作点は、動作点に含まれるビューに属する識別されたターゲット出力ビューのリストを有するレイヤセットを指す可能性がある。ビデオエンコーダ20は、以下の表2の例に示すように、VPS拡張における出力動作点をシグナリングすることができる。
[0082]上記の表2の例では、num_layer_operation_pointsは、ビデオパラメータセットが適用するコーディングビデオシーケンス中に存在する出力動作点の最大数を指定し得る。加えて、op_point_indexは、現在のどのi番目の出力動作点が形成されるかに基づいて動作点を識別し得る。加えて、1に等しいoutput_layer_flag[op_point_index][j]は、jに等しいlayer_idを有するレイヤが現在のi番目の出力動作点に関する出力のターゲットであることを示し得る。加えて、0に等しいoutput_layer_flag[j]は、jに等しいlayer_idを有するレイヤが現在のi番目の出力動作点に関する出力のターゲットでないことを示し得る。
[0083]別の例として、ビデオエンコーダ20は、以下の表3の例に示すように、VPSにおける出力動作点をシグナリングし得る。
[0084]上記の表3の例では、num_target_viewsは、現在のi番目の出力動作点に関するターゲット出力ビューの数を指定し得る。加えて、target_layer_id[i][j]は、現在のi番目の出力動作点のj番目のターゲット出力ビューのlayer_idを指定し得る。
[0085]さらに別の例では、ビデオエンコーダ20は、他のシンタックス構造を使用してターゲット出力ビューをシグナリングし得る。たとえば、ビデオエンコーダ20は、SEIメッセージにおいて、または他の帯域外シグナリング技法を使用してターゲット出力ビューを示す符号化データをできる。
[0086]3D−HEVCに関して、出力動作点は、動作点、たとえば、動作点に含まれるビューに属する識別されたターゲット出力テクスチャビューまたは奥行きビューのリストを有するレイヤセットを指す可能性がある。ビデオエンコーダ20は、MV−HEVCに関して上記で説明したものと同様のシンタックスおよびセマンティクスを使用して3D−HEVCに関する出力動作点をシグナリングし得る。しかしながら、3D−HEVCに関して、ターゲット出力ビューとなるようにシグナリングされたビデオエンコーダ20各layer_idは、奥行きビューまたはテクスチャビューのいずれかに対応する可能性がある。
[0087]HSVCに関して、動作点のターゲット出力レイヤは、数値的に最高のlayer_idを有するレイヤとなるように誘導され得る。たとえば、出力動作点は、動作点、たとえば出力用と見なされる動作点における最大のlayer_idを有するレイヤのみを有するレイヤセットであり得る。したがって、ビデオデコーダ30は、特定の動作点に関する出力動作点を特定するためにlayer_idシンタックス要素を復号し得る。
[0088]したがって、本開示の態様によれば、現行のHEVC基本仕様に定義される1つの動作点は、各々が様々なターゲット出力ビューおよび/またはレイヤを有する、1つまたは複数の出力動作点に対応する可能性がある。たとえば、ビデオエンコーダ20は、符号化ビットストリームにおいてシグナリングすることができ(およびビデオデコーダ30は、符号化ビットストリームを構文解析することによって取得することができ)、復号レイヤのサブセットの表示は、出力、たとえば表示にとって望ましい可能性がある。上記にビデオエンコーダ20に関して説明したが、いくつかの例では、サーバ/コンテンツ配信ネットワーク34は、そのようなシグナリングを担う可能性がある。
[0089]たとえば、サーバ/コンテンツ配信ネットワーク34は、ビットストリームのどのレイヤが出力に最適かを判定することができる。この例では、サーバ/コンテンツ配信ネットワーク34は、VPS、VPS拡張、SEIメッセージ、または出力動作点に関するターゲット出力レイヤを示すための他の構造を生成すること、および/または変更することを担う可能性がある。
[0090]復号ピクチャバッファ(たとえば、図2および図3に関して説明するように、参照ピクチャメモリとも呼ばれる)管理に関して、本開示の態様によれば、出力動作点が復号されているとき、ビデオエンコーダ20および/またはビデオデコーダ30は、時間予測(たとえば、レイヤまたはビュー内のインター予測)またはレイヤ間/ビュー間予測にピクチャがもはや必要とされない限り、復号ピクチャバッファからの出力のターゲットとされないレイヤの復号ピクチャを除去し得る。たとえば、除去を容易にするために、ビデオエンコーダ20は、ターゲット出力ビューまたは0に等しいレイヤに属さないレイヤの各ビュー成分のPicOutputFlagを設定し得る。したがって、ビデオエンコーダ20および/またはビデオデコーダ30は、どのピクチャが参照用には使用されず出力されないかを判定し、その判定に基づいて復号ピクチャバッファからそのようなピクチャを除去することができる。
[0091]図2は、本開示の態様による、1つまたは複数のターゲット出力レイヤを特定するための技法を実装し得るビデオエンコーダ20の一例を示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングおよびインターコーディングを実行し得る。イントラコーディングは、所与のビデオピクチャ内のビデオの空間的冗長性を低減または除去するために空間的予測に依拠する。インターコーディングは、ビデオシーケンスの隣接ピクチャ内のビデオの時間的冗長性を低減または除去するために時間的予測に依拠する。イントラモード(Iモード(登録商標))は、いくつかの空間ベースのコーディングモードのいずれかを指し得る。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベースのコーディングモードのいずれかを指し得る。
[0092]上述のように、ビデオエンコーダ20は、マルチビューおよび/またはスケーラブルビデオコーディングを実行するように構成され得る。いくつかの事例では、ビデオエンコーダ20は、時間インスタンスにおける各ビューがビデオデコーダ30などのデコーダによって処理され得るように、MV−HEVCビデオコーディング規格に準拠するように構成され得る。他の事例では、ビデオエンコーダ20は、3D−HEVCビデオコーディング規格に準拠するように構成することができ、各ビューに関するテクスチャマップ(すなわち、ルーマ値およびクロマ値)を符号化することに加えて、各ビューに関する奥行きマップを符号化するように構成され得る。さらに他の事例では、ビデオエンコーダ20は、HSVCビデオコーディング規格に従ってビデオデータの複数のスケーラブルレイヤを符号化するように構成され得る。特定のコーディング規格が参照されるが、本技法は、任意の1つのコーディング規格に固有のものではなく、将来のおよび/またはまだ開発されていない規格とともに実装され得ることを理解されたい。
[0093]いずれの場合も、図2に示すように、ビデオエンコーダ20は、符号化されるべきビデオピクチャ内の現在のビデオブロックを受信する。図2の例では、ビデオエンコーダ20は、モード選択ユニット40と、参照ピクチャメモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56とを含む。モード選択ユニット40は、今度は、動き補償ユニット44と、動き推定ユニット42と、イントラ予測ユニット46と、区分ユニット48とを含む。ビデオブロックの復元のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。復元されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタリングする、デブロッキングフィルタ(図2に図示せず)も含まれ得る。所望される場合、デブロッキングフィルタは一般に、加算器62の出力をフィルタリングすることになる。また、デブロッキングフィルタに加えて追加のフィルタ(ループ内またはループ後)が使用され得る。そのようなフィルタは、簡潔のために示されていないが、所望される場合、(ループ内フィルタとして)加算器50の出力をフィルタ処理し得る。
[0094]符号化プロセス中に、ビデオエンコーダ20はコーディングされるべきビデオピクチャまたはスライスを受信する。ピクチャまたはスライスは複数のビデオブロックに分割され得る。動き推定ユニット42および動き補償ユニット44は、時間的な予測を行うために、1つまたは複数の参照ピクチャ中の1つまたは複数のブロックに対する受信されたビデオブロックのインター予測コーディングを実行する。イントラ予測ユニット46は代替的に、空間的な予測を行うために、コーディングされるべきブロックと同じピクチャまたはスライス中の1つまたは複数の隣接ブロックに対して受信されたビデオブロックのイントラ予測コーディングを実行し得る。ビデオエンコーダ20は、たとえば、ビデオデータのブロックごとに適切なコーディングモードを選択するために、複数のコーディングパスを実行し得る。
[0095]その上、区分ユニット48は、以前のコーディングパスにおける以前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。たとえば、区分ユニット48は、初めにピクチャまたはスライスをLCUに区分し、レートひずみ分析(たとえば、レートひずみ最適化)に基づいてLCUの各々をサブCUに区分し得る。モード選択ユニット40は、さらに、LCUをサブCUに区分することを示す4分木データ構造を生成し得る。4分木のリーフノードCUは、1つまたは複数のPUと、1つまたは複数のTUとを含み得る。
[0096]モード選択ユニット40は、たとえば、誤差結果に基づいて、コーディングモード、すなわち、イントラまたはインターのうちの1つを選択することができ、残差ブロックデータを生成するために、得られたイントラコーディングされたブロックまたはインターコーディングされたブロックを加算器50に与え、参照ピクチャとして使用するための符号化されたブロックを復元するために、得られたイントラコーディングされたブロックまたはインターコーディングされたブロックを加算器62に与える。モード選択ユニット40はまた、動きベクトル、イントラモードインジケータ、パーティション情報、および他のそのようなシンタックス情報などのシンタックス要素をエントロピー符号化ユニット56に与える。
[0097]動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示してある。動き推定ユニット42によって実行される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、現在のピクチャ(または他のコード化ユニット)内でコーディングされている現在のブロックに対する参照ピクチャ(または他のコード化ユニット)内の予測ブロックに対する現在のビデオピクチャ内のビデオブロックのPUの変位を示し得る。予測ブロックは、絶対値差分和(SAD)、2乗差分和(SSD)、または他の差分尺度によって決定され得るピクセル差分に関して、コーディングされるブロックに精密に一致することがわかるブロックである。いくつかの例では、ビデオエンコーダ20は、参照ピクチャメモリ64に記憶された参照ピクチャのサブ整数ピクセル位置の値を計算し得る。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置と分数ピクセル位置とに対する動き探索を実行し、分数ピクセル精度で動きベクトルを出力し得る。
[0098]動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコード化スライス中のビデオブロックのPUについての動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得、それらの参照ピクチャリストの各々は、参照ピクチャメモリ64に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。
[0099]動き補償ユニット44によって実行される動き補償は、動き推定ユニット42によって判断された動きベクトルに基づいて予測ブロックをフェッチまたは生成することに関与し得る。この場合も、いくつかの例では、動き推定ユニット42と動き補償ユニット44とは機能的に統合され得る。現在のビデオブロックのPUのための動きベクトルを受信すると、動き補償ユニット44は、参照ピクチャリストのうちの1つにおいて動きベクトルが指す予測ブロックの位置を特定し得る。加算器50は、以下で説明するように、コーディングされている現在のビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって、残差ビデオブロックを形成する。概して、動き推定ユニット42はルーマ成分に対して動き推定を実行し、動き補償ユニット44は、クロマ成分とルーマ成分の両方のためにルーマ成分に基づいて計算された動きベクトルを使用する。モード選択ユニット40はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30が使用するためのビデオブロックとビデオスライスとに関連するシンタックス要素を生成し得る。
[0100]イントラ予測ユニット46は、上記で説明したように、動き推定ユニット42と動き補償ユニット44とによって実行されるインター予測の代替として、現在ブロックをイントラ予測し得る。特に、イントラ予測ユニット46は、現在ブロックを符号化するために使用すべきイントラ予測モードを判断し得る。いくつかの例では、イントラ予測ユニット46は、たとえば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在ブロックを符号化し得、イントラ予測ユニット46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。
[0101]たとえば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードのためのレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの中で最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は、概して、符号化ブロックと、符号化ブロックを生成するために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化ブロックを生成するために使用されるビットレート(すなわち、ビット数)を判断する。イントラ予測ユニット46は、どのイントラ予測モードがブロックについて最良のレートひずみ値を呈するかを判断するために、様々な符号化ブロックのひずみおよびレートから比率を計算し得る。
[0102]ブロック用のイントラ予測モードを選択した後、イントラ予測ユニット46は、ブロック用に選択されたイントラ予測モードを示す情報を、エントロピー符号化ユニット56に提供することができる。エントロピー符号化ユニット56は、選択されたイントラ予測モードを示す情報を符号化することができる。ビデオエンコーダ20は、(コードワードマッピングテーブルとも呼ばれる)複数のイントラ予測モードインデックステーブルおよび複数の修正されたイントラ予測モードインデックステーブルと、様々なブロック用の符号化コンテキストの定義と、最確イントラ予測モードの指示とを含む送信されたビットストリーム構成データの中に、コンテキストの各々について使用する、イントラ予測モードインデックステーブルと修正されたイントラ予測モードインデックステーブルとを含めることができる。
[0103]ビデオエンコーダ20は、コーディングされている元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって、残差ビデオブロックを形成する。加算器50は、この減算演算を実行する1つまたは複数の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換処理ユニット52は、DCTと概念的に同様である他の変換を実行し得る。ウェーブレット変換、整数変換、サブバンド変換または他のタイプの変換も使用され得る。
[0104]いずれの場合も、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報をピクセル値領域から周波数領域などの変換領域に変換し得る。変換処理ユニット52は、得られた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット54は、次いで、量子化変換係数を含む行列の走査を実行し得る。代替的に、エントロピー符号化ユニット56が走査を実行し得る。
[0105]量子化の後、エントロピー符号化ユニット56は、量子化変換係数をエントロピーコーディングする。たとえば、エントロピー符号化ユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディングまたは別のエントロピーコーディング技法を実行し得る。コンテキストベースエントロピーコーディングの場合、コンテキストは隣接ブロックに基づき得る。エントロピー符号化ユニット56によるエントロピーコーディングの後、符号化ビットストリームは、別のデバイス(たとえば、ビデオデコーダ30)に送信されるか、または後で送信するかもしくは取り出すためにアーカイブすることができる。
[0106]逆量子化ユニット58および逆変換ユニット60は、それぞれ逆量子化および逆変換を適用して、たとえば参照ブロックとして後で使用するために、ピクセル領域中で残差ブロックを再構成する。動き補償ユニット44は、残差ブロックを参照ピクチャメモリ64のピクチャのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、再構成された残差ブロックに1つまたは複数の補間フィルタを適用して、動き推定において使用するサブ整数ピクセル値を計算し得る。加算器62は、再構成された残差ブロックを、動き補償ユニット44によって生成された動き補償予測ブロックに加算して、参照ピクチャメモリ64に記憶するための再構成されたビデオブロックを生成する。再構成されたビデオブロックは、後続のビデオピクチャ中のブロックをインターコーディングするために動き推定ユニット42および動き補償ユニット44によって参照ブロックとして使用され得る。
[0107]ビデオエンコーダ20は、上記で説明したように、いくつかのシンタックス要素を生成することができ、これらのシンタックス要素はエントロピー符号化ユニット56またはビデオエンコーダ20の別の符号化ユニットによって符号化され得る。いくつかの例では、ビデオエンコーダ20は、上記で説明したように、マルチビュービットストリームおよび/またはマルチレイヤビットストリーム用のシンタックス要素を生成し符号化することができる。
[0108]たとえば、本開示の態様によれば、エントロピー符号化ユニット56は、動作点を示す符号化ビットストリーム中の1つまたは複数のシンタックス要素、たとえばビデオデータの複数のレイヤを有するレイヤセットを符号化することができる。加えて、エントロピー符号化ユニット56は、レイヤセットに関する出力動作点を示す1つまたは複数のシンタックス要素を符号化することができ、出力動作点は、ビデオデータの複数のレイヤのうちの1つまたは複数のターゲット出力レイヤに関連付けられる。
[0109]いくつかの例では、本開示の態様によれば、ビデオエンコーダ20は、MV−HEVC、3D−HEVC、またはHSVCなどのビデオコーディング規格に従って出力動作点に関するターゲット出力レイヤを示すことができる。たとえば、マルチビュービデオコーディング(たとえば、MV−HEVCまたは3D−HEVC)に関して、各々が関連するターゲット出力レイヤを有する1つまたは複数の出力動作点を示すために、ビデオエンコーダ20は、VPS拡張(たとえば、上記の表2の例に関して示され説明されたVPS拡張など)、VPS(たとえば、上記の表3の例に関して示され説明されたVPSなど)、SEIメッセージ、または他のメッセージを符号化し得る。上述のように、奥行きビューを符号化するとき、出力動作点は、動作点に含まれるビューに属する識別されたターゲット出力テクスチャビューまたは奥行きビューのリストを有する動作点を指す可能性がある。
[0110]HEVCに関して、ビデオエンコーダ20は、(たとえば、以下の図5に関してより詳細に説明するように)ビデオデータの各レイヤを識別するためにビデオデータの各レイヤに対するlayer_idを符号化し得る。本開示の態様によれば、出力動作点は、出力用と見なされる動作点における最大のlayer_idを有するレイヤのみを有する動作点であり得る。
[0111]したがって、本開示の態様によれば、現行のHEVC基本仕様に定義される1つの動作点は、各々が様々なターゲット出力ビューおよび/またはレイヤを有する、1つまたは複数の出力動作点に対応する可能性がある。たとえば、ビデオエンコーダ20は、符号化ビットストリームにおいてシグナリングすることができ、復号レイヤのサブセットの表示は、出力、たとえば表示にとって望ましい可能性がある。
[0112]本開示のいくつかの態様によれば、ビデオエンコーダ20は、特定された出力動作点およびターゲット出力レイヤに基づいて参照ピクチャメモリ64から1つまたは複数のピクチャを除去し得る。たとえば、ビデオエンコーダ20は、出力のターゲットにされず、かつ時間予測(たとえば、レイヤまたはビュー内のインター予測)またはレイヤ間/ビュー間予測に必要とされない、参照ピクチャメモリ64からのピクチャを除去し得る。
[0113]このように、ビデオエンコーダ20は、各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットを含む、ビデオデータの複数のレイヤを符号化するように構成されたビデオエンコーダの一例を表す。ビデオエンコーダ20はまた、1つまたは複数の出力動作点を示すビットストリームの1つまたは複数のシンタックス要素を符号化するように構成され、各出力動作点は、複数のレイヤセットのうちの1つのレイヤセットと、複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる。
[0114]図3は、本開示の態様による、1つまたは複数のターゲット出力レイヤを特定するための技法を実装し得るビデオデコーダ30の一例を示すブロック図である。図3の例では、ビデオデコーダ30は、エントロピー復号ユニット70と、動き補償ユニット72と、イントラ予測ユニット74と、逆量子化ユニット76と、逆変換ユニット78と、参照ピクチャメモリ82と、加算器80とを含む。
[0115]上述のように、ビデオデコーダ30は、マルチビューおよび/またはスケーラブルビデオコーディングを実行するように構成され得る。いくつかの例では、ビデオデコーダ30は、MV−HEVCビデオコーディング規格に準拠するように構成され得る。他の事例では、ビデオデコーダ30は、3D−HEVCビデオコーディング規格に準拠するように構成することができ、各ビューに関するテクスチャマップ(すなわち、ルーマ値およびクロマ値)を符号化することに加えて、各ビューに関する奥行きマップを復号するように構成され得る。さらに他の事例では、ビデオデコーダ30は、HSVCビデオコーディング規格に従ってビデオデータの複数のスケーラブルレイヤを復号するように構成され得る。特定のコーディング規格が参照されるが、本技法は、任意の1つのコーディング規格に固有のものではなく、将来のおよび/またはまだ開発されていない規格とともに実装され得ることを理解されたい。
[0116]ビデオデコーダ30は、いくつかの例では、ビデオエンコーダ20(図2)に関して説明した符号化パスとは概して逆の復号パスを実行し得る。動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルに基づいて予測データを生成し得、イントラ予測ユニット74は、エントロピー復号ユニット70から受信されたイントラ予測モードインジケータに基づいて予測データを生成し得る。
[0117]復号プロセス中に、ビデオデコーダ30は、ビデオエンコーダ20から、符号化ビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化ビデオビットストリームを受信する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。
[0118]エントロピー復号ユニット70は、量子化係数、動きベクトルまたはイントラ予測モードインジケータ、および他のシンタックス要素を生成するためにビットストリームを復号する。いくつかの例では、エントロピー復号ユニット70またはビデオデコーダの別のユニットは、上記で説明したように、マルチビュービットストリームおよび/またはマルチレイヤビットストリームからのシンタックス要素を構文解析し復号することができる。
[0119]本開示の態様によれば、エントロピー復号ユニット70は、符号化ビットストリームから、動作点を示すデータ、たとえばビデオデータの複数のレイヤを有するレイヤセットを取得することができる。加えて、エントロピー復号ユニット70は、動作点に関する出力動作点を示す1つまたは複数のシンタックス要素を復号することができ、出力動作点は、ビデオデータの複数のレイヤのうちの1つまたは複数のターゲット出力レイヤに関連付けられる。ビデオデコーダ30は、1つまたは複数のシンタックス要素に基づいて、出力動作点とターゲット出力レイヤとを特定することができる。
[0120]いくつかの例では、本開示の態様によれば、ビデオデコーダ30は、MV−HEVC、3D−HEVC、またはHSVCなどのビデオコーディング規格に準拠し得る。たとえば、マルチビュービデオコーディング(たとえば、MV−HEVCまたは3D−HEVC)に関して、ビデオデコーダ30は、VPS拡張(たとえば、上記の表2の例に関して示され説明されたVPS拡張)、VPS(たとえば、上記の表3の例に関して示され説明されたVPS)、SEIメッセージ、または他のメッセージに示された出力動作点とターゲット出力レイヤとに基づいて、受信された符号化ビットストリームからのサブビットストリームを構文解析することができる。奥行きビューを符号化するとき、出力動作点は、動作点に含まれるビューに属する識別されたターゲット出力テクスチャビューまたは奥行きビューのリストを有する動作点を指す可能性がある。
[0121]HSVCに関して、エントロピー復号ユニット70は、ビデオデータの各レイヤに関するlayer_idを復号し得る。本開示の態様によれば、ビデオデコーダ30は、動作点における最大のlayer_idを有するレイヤに基づいて出力動作点を推理し得る。
[0122]したがって、本開示の態様によれば、現行のHEVC基本仕様に定義される1つの動作点は、各々が様々なターゲット出力ビューおよび/またはレイヤを有する、1つまたは複数の出力動作点に対応する可能性がある。エントロピー復号ユニット70は、受信された符号化ビットストリームからの構文解析および復号された1つまたは複数のシンタックス要素に基づいてターゲット出力レイヤを含むサブビットストリームを復号し得る。
[0123]エントロピー復号ユニット70は、動きベクトルtoと他の予測シンタックス要素とを動き補償ユニット72に転送する。特定の出力レイヤの場合、ビデオスライスがイントラコード化(I)スライスとしてコーディングされるとき、イントラ予測ユニット74は、シグナリングされたイントラ予測モードと、現在ピクチャの、前に復号されたブロックからのデータとに基づいて、現在ビデオスライスのビデオブロックのための予測データを生成し得る。ビデオピクチャがインターコーディングされた(すなわち、B、PまたはGPB)スライスとしてコーディングされるとき、動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルと他のシンタックス要素とに基づいて、現在のビデオスライスのビデオブロックのための予測ブロックを生成する。予測ブロックは、参照ピクチャリストの1つの中の参照ピクチャの1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ82に記憶された参照ピクチャに基づいて、デフォルトの構成技法を使用して、参照ピクチャリスト、すなわち、リスト0およびリスト1を構成し得る。
[0124]動き補償ユニット72は、動きベクトルと他のシンタックス要素とを解析することによって現在ビデオスライスのビデオブロックについての予測情報を判断し、予測情報を使用して、復号されている現在ビデオブロックのための予測ブロックを生成する。たとえば、動き補償ユニット72は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(たとえば、イントラまたはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)と、スライスの参照ピクチャリストのうちの1つまたは複数についての構成情報と、スライスの各インター符号化ビデオブロックについての動きベクトルと、スライスの各インターコーディングビデオブロックについてのインター予測ステータスと、現在ビデオスライス中のビデオブロックを復号するための他の情報とを判断するために、受信されたシンタックス要素のいくつかを使用する。
[0125]動き補償ユニット72は、前に復号されたピクチャから、たとえば、参照ピクチャメモリ82からデータを取り出すために復号された動きベクトルを使用し得る。動き補償ユニット72はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット72は、ビデオブロックの符号化中にビデオエンコーダ20によって使用された補間フィルタを使用して、参照ブロックのサブ整数ピクセルの補間値を計算し得る。この場合、動き補償ユニット72は、受信されたシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを判断し、その補間フィルタを使用して予測ブロックを生成し得る。
[0126]逆量子化ユニット76は、ビットストリーム中で与えられ、エントロピー復号ユニット70によって復号された量子化変換係数を逆量子化(inverse quantize)、すなわち、逆量子化(de-quantize)する。逆量子化プロセスは、ビデオスライス中の各ビデオブロックについてビデオデコーダ30によって計算される量子化パラメータQPを使用して量子化の程度を判断し、同様に、適用すべき逆量子化の程度を判断することを含み得る。逆変換ユニット78は、逆変換、たとえば、逆DCT、逆整数変換、または概念的に同様の逆変換処理を変換係数に適用して、ピクセル領域において残差ブロックを生成する。
[0127]動き補償ユニット72が、動きベクトルと他のシンタックス要素とに基づいて現在ビデオブロックのための予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット78からの残差ブロックを動き補償ユニット72によって生成された対応する予測ブロックと加算することによって、復号されたビデオブロックを形成する。加算器80は、この加算演算を実行する1つまたは複数の構成要素を表す。所望される場合、ブロッキネスアーティファクトを除去するために、復号ブロックをフィルタ処理するためにデブロッキングフィルタも適用され得る。ピクセル遷移を平滑化するか、またはさもなければビデオ品質を改善するために、(コーディングループ内またはコーディングループ後の)他のループフィルタも使用され得る。所与のピクチャの復号されたビデオブロックは、次いで、その後の動き補償のために使用される参照ピクチャを記憶する参照ピクチャメモリ82に記憶される。参照ピクチャメモリ82はまた、図1のディスプレイデバイス32などのディスプレイデバイス上での後の表示のために、復号されたビデオを記憶する。
[0128]本開示のいくつかの態様によれば、ビデオデコーダ30は、特定された出力動作点およびターゲット出力レイヤに基づいて参照ピクチャメモリ82から1つまたは複数のピクチャを除去し得る。たとえば、ビデオデコーダ30は、出力のターゲットにされず、かつ時間予測(たとえば、レイヤまたはビュー内のインター予測)またはレイヤ間/ビュー間予測に必要とされない、参照ピクチャメモリ82からのピクチャを除去し得る。ビデオデコーダ30は、復号ビットストリームの1つまたは複数のシンタックス要素に基づいて、参照ピクチャメモリ82のどのピクチャが予測のために使用されるか、またはターゲット出力レイヤに含まれるかを特定することができる。たとえば、エントロピー復号ユニット70は、ピクチャがターゲット出力ビューに属するかどうかを示すレイヤの各ビュー成分に関するPicOutputFlagを復号し得る。ビデオデコーダ30は、ターゲット出力ビューに属さず、かつ復号中に「参照用に使用されない」ことをマーキングされた、参照ピクチャメモリ82からのピクチャを除去し得る。
[0129]したがって、一例では、ビデオデコーダ30は、レイヤセットに関連する1つまたは複数の出力部分点のうちの1つの出力動作点を復号し、1つまたは複数のターゲット出力レイヤのうちの1つではないがレイヤセットに属する1つまたは複数のレイヤを含む、復号されるが出力されないレイヤの組を復号することができる。加えて、ビデオデコーダ30は、出力に使用されるべきピクチャとして、復号ピクチャバッファ内の1つまたは複数のターゲット出力レイヤに含まれる第1の復号ピクチャをマーキングすることができ、出力に使用されないピクチャが、出力に使用されるべきピクチャよりも早く復号ピクチャバッファから除去されるように、復号される組に含まれるが、出力に使用されないピクチャとして復号ピクチャバッファ内の出力レイヤとならない第2の復号ピクチャをマーキングすることができる。加えて、ビデオデコーダ30は、出力に使用されないものとしてマーキングされたピクチャがインター予測およびレイヤ間予測のうちの一方のために使用されるかどうかを判定し、出力に使用されないピクチャがインター予測およびレイヤ間予測のうちの一方のためには使用されないとき、復号ピクチャバッファからの出力に使用されないものとしてマーキングされたピクチャを除去することができる。
[0130]このように、ビデオデコーダ30は、各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットを含む、ビデオデータの複数のレイヤをマルチレイヤビットストリームから取得し得るビデオデコーダ30の一例を表す。ビデオデコーダ30はまた、ビットストリームの1つまたは複数のシンタックス要素に基づいて、1つまたは複数の出力動作点を特定することができ、各出力動作点は、複数のレイヤセットのうちの1つのレイヤセットと、複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる。
[0131]図4は、例示的なMVC予測パターンを示す概念図である。図4は、H.264/AVCとMVCとに関して説明されるが、同様の予測パターンは、MV−HEVCと3D−HEVCと(マルチビュープラス奥行き)を含む、他のマルチビュービデオコーディング方式とともに使用され得ることを理解されたい。したがって、以下のMVCへの参照は、概してマルチビュービデオコーディングに適用し、H.264/MVCに限定されない。
[0132]図4の例では、(ビューID「S0」〜「S7」を有する)8つのビューが示され、各ビューについて12個の時間ロケーション(「T0」〜「T11」)が示されている。すなわち、図4中の各行はビューに対応し、各列は時間ロケーションを示す。
[0133]MVCがH.264/AVCデコーダによって復号可能である、いわゆるベースビューを有し、また、ステレオビューペアがMVCによってサポートされ得るが、MVCの利点は、MVCが、3Dビデオ入力として3つ以上のビューを使用し、複数のビューによって表されるこの3Dビデオを復号する例をサポートすることができることである。MVCデコーダを有するクライアントのレンダラは、複数のビューを用いて3Dビデオコンテンツを予想し得る。
[0134]図4中のピクチャは、対応するピクチャがイントラコーディングされる(すなわち、Iフレームである)のか、一方向に(すなわち、Pフレームとして)インターコーディングされるのか、複数の方向に(すなわち、Bフレームとして)インターコーディングされるのかを指定する、文字を含む影付きブロックを使用して、図4中の各行と各列との交差部において示されている。概して、予測は矢印によって示され、ここで矢印の終点のピクチャは、予測参照のために矢印の始点のオブジェクトを使用する。たとえば、時間位置T0にあるビューS2のPフレームは、時間位置T0にあるビューS0のIフレームから予測される。
[0135]シングルビュービデオ符号化の場合と同様に、マルチビュービデオコーディングビデオシーケンスのピクチャは、異なる時間ロケーションにおけるピクチャに関して予測符号化され得る。たとえば、時間ロケーションT1におけるビューS0のbフレームは、時間ロケーションT0におけるビューS0のIフレームからそのbフレームに向けられた矢印を有し、その矢印は、bフレームがIフレームから予測されることを示す。しかしながら、さらに、マルチビュービデオ符号化のコンテキストにおいて、ピクチャは、ビュー間予測され得る。すなわち、ビュー成分は、参照のために他のビュー中のビュー成分を使用することができる。MVCでは、たとえば、別のビュー中のビュー成分がインター予測参照であるかのように、ビュー間予測が実現される。潜在的なビュー間参照は、シーケンスパラメータセット(SPS)MVC拡張においてシグナリングされ、インター予測またはビュー間予測参照のフレキシブルな順序付けを可能にする参照ピクチャリスト構成プロセスによって変更され得る。
[0136]MVCでは、ビュー間予測は、同じアクセスユニット(すなわち、同じ時間インスタンスを有する)内の画像間で可能になる。アクセスユニットは、概して共通の時間インスタンスのすべてのビュー成分(たとえば、すべてのNALユニット)を含むデータユニットである。したがって、MVCにおいて、ビュー間予測は、同じアクセスユニットにおけるピクチャ間で許可される。ベースのないビューの1つの中のピクチャをコーディングするとき、ピクチャが異なるビュー中にあるが同じ時間インスタンス(たとえば、同じPOC値、したがって同じアクセスユニットにおいて)を伴う場合、そのピクチャは参照ピクチャリストに追加され得る。ビュー間予測の参照ピクチャは、任意のインター予測の参照ピクチャと同様に、参照ピクチャリストの任意の位置に置かれ得る。
[0137]図4は、ビュー間予測の様々な例を提供する。図4の例では、ビューS1のピクチャは、ビューS1の異なる時間ロケーションにおけるピクチャから予測されるものとして、ならびに同じ時間ロケーションにおけるビューS0およびS2のピクチャからビュー間予測されるものとして示されている。たとえば、時間位置T1にあるビューS1のbフレームは、時間位置T0およびT2にあるビューS1のBフレームの各々、ならびに時間位置T1にあるビューS0およびビューS2のbフレームから予測される。
[0138]図4の例では、大文字の「B」および小文字の「b」は、異なる符号化方法ではなく、ピクチャ間の異なる階層関係を示すものとする。一般に、大文字の「B」ピクチャは、小文字の「b」ピクチャよりも予測階層が比較的高い。図4はまた、異なるレベルの陰影を使用して予測階層の変形形態を示し、より大きい量の陰影の(すなわち、比較的暗い)ピクチャは、より少ない陰影を有する(すなわち、比較的明るい)それらのピクチャよりも予測階層が高い。たとえば、図4内のすべてのIフレームは完全陰影を用いて示されるが、Pフレームはいくぶん明るい陰影を有し、Bフレーム(および小文字のbフレーム)は、互いに対して様々なレベルの陰影を有するが、PフレームおよびIフレームの陰影よりも常に明るい。
[0139]概して、階層が比較的高いそれらのピクチャが、階層が比較的低いピクチャの復号中に参照ピクチャとして使用され得るように、予測階層が比較的高いピクチャは、階層が比較的低いピクチャを復号する前に復号されるべきであるという点で、予測階層はビュー順序インデックスに関係する。ビュー順序インデックスは、アクセスユニット中のビュー成分の復号順序を示すインデックスである。H.264/AVC(MVC追補)の付属書類Hにおいて規定されているように、ビュー順序インデックスはSPS MVC拡張において暗示されている。SPSでは、各インデックスiについて、対応するview_idがシグナリングされる。いくつかの例では、ビュー成分の復号は、ビュー順序インデックスの昇順に従う。すべてのビューが提示された場合、ビュー順序インデックスは、0からnum_views_minus_1までの連続する順序になっている。
[0140]このように、参照ピクチャとして使用されるピクチャは、その参照ピクチャを参照して符号化されたピクチャを復号する前に復号され得る。ビュー順序インデックスは、アクセスユニット中のビュー成分の復号順序を示すインデックスである。各ビュー順序インデックスiについて、対応するview_idがシグナリングされる。ビュー成分の復号は、ビュー順序インデックスの昇順に従う。すべてのビューが提示された場合、ビュー順序インデックスのセットは、0からビューの全数よりも1少ない数までの連続的な順序付きセットを備え得る。
[0141]階層の等しいレベルにおけるいくつかのピクチャの場合、復号順序は、互いに重要でないことがある。たとえば、時間ロケーションT0におけるビューS0のIフレームは、時間ロケーションT0におけるビューS2のPフレームのための参照ピクチャとして使用され、そのPフレームは今度は、時間ロケーションT0におけるビューS4のPフレームのための参照ピクチャとして使用される。したがって、時間ロケーションT0におけるビューS0のIフレームは、時間ロケーションT0におけるビューS2のPフレームの前に復号されるべきであり、そのPフレームは、時間ロケーションT0におけるビューS4のPフレームの前に復号されるべきである。しかしながら、ビューS1およびS3は、予測のために互いに依拠しないが、代わりに、予測階層がより高いビューからのみ予測されるので、ビューS1とS3との間で復号順序は重要でない。その上、ビューS1がビューS0およびS2の後に復号される限り、ビューS1はビューS4の前に復号され得る。
[0142]このように、ビューS0〜S7を記述するために階層順序が使用され得る。表記法SA>SBは、ビューSAがビューSBの前に復号されるべきであることを意味する。この表記法を使用すると、図4の例では、S0>S2>S4>S6>S7である。また、図4の例に関して、S0>S1、S2>S1、S2>S3、S4>S3、S4>S5、およびS6>S5である。これらの要件に違反しないビューのための任意の復号順序が可能である。したがって、いくつかの制限のみをもつ、多くの異なる復号順序が可能である。
[0143]本開示の態様によれば、ビデオコーダ(ビデオエンコーダ20またはビデオデコーダ30など)は、1つまたは複数のターゲット出力レイヤを有する出力動作点を特定することができる。たとえば、ビデオエンコーダ20は、図4に示すマルチビュー構造からの1つまたは複数のターゲット出力レイヤを特定し、符号化ビットストリーム中のターゲット出力レイヤを示すデータを符号化することができる。同様に、ビデオデコーダ30は、符号化ビットストリームからの構文解析および復号されたデータに基づいて1つまたは複数のターゲット出力レイヤを含む出力動作点を特定することができる。
[0144]たとえば、各々が関連するターゲット出力レイヤを有する1つまたは複数の出力動作点を示すために、ビデオエンコーダ20は、VPS拡張(たとえば、上記の表2の例に関して示され説明されたVPS拡張など)、VPS(たとえば、上記の表3の例に関して示され説明されたVPSなど)、SEIメッセージ、または他のメッセージを符号化し得る。上述のように、奥行きビューを符号化するとき、出力動作点は、動作点に含まれるビューに属する識別されたターゲット出力テクスチャビューまたは奥行きビューのリストを有する動作点を指す可能性がある。
[0145]ビデオデコーダ30は、データを受信し、表示用のターゲット出力ビューを特定することができる。一例として、ビデオデコーダ30は、ビューS0と、S2と、S4と、S6とを含む動作点を受信し得る。ビデオデコーダ30は、ビットストリームに含まれるシンタックス要素に基づいて、立体出力動作点に関するターゲット出力ビューが、ビューS0とS4とを含むことを判定することができる。ビデオデコーダ30は、S0と、S2と、S4と、S6の各々を復号することができるが、ビューS0とS4のみを出力することができる。
[0146]図5は、スケーラブルビデオコーディングを示す概念図である。図5は、H.264/AVCとSVCとに関して説明されるが、同様のレイヤは、HSVCを含む、他のマルチレイヤビデオコーディング方式を請いながらコーディングされ得ることを理解されたい。したがって、以下のSVCへの参照は、概してスケーラブルビデオコーディングに適用することができ、H.264/SVCに限定されない。
[0147]SVCでは、スケーラビリティは、たとえば、空間と、時間と、品質(ビットレートまたは信号対ノイズ比(SNR)として表される)とを含む3次元において可能になり得る。概して、通常、任意の次元における表現を追加することによって、より良い表現が達成され得る。たとえば、図5の例では、レイヤ0は、7.5Hzのフレームレートと64キロバイト毎秒(KBPS)のビットレートとを有するクウォーターコモンインターミディエートフォーマット(QCIF:Quarter Common Intermediate Format)においてコーディングされる。加えて、レイヤ1は、15Hzのフレームレートと64KBPSのビットレートとを有するQCIFにおいてコーディングされ、レイヤ2は、15Hzのフレームレートと256KBPSのビットレートとを有するCIFにおいてコーディングされ、レイヤ3は、7.5Hzのフレームレートと512KBPSのビットレートとを有するQCIFにおいてコーディングされ、レイヤ4は、30Hzのフレームレートとメガバイト毎秒(MBPS)のビットレートとを有する4CIFにおいてコーディングされる。図5に示すレイヤの特定の数と、コンテンツと、構成とは、単に例として提供されることを理解されたい。
[0148]いずれの場合も、ビデオエンコーダ(ビデオエンコーダ20など)がそのようなスケーラブルな方法でコンテンツを符号化すると、ビデオデコーダ(ビデオデコーダ30など)は、たとえばクライアントまたは送信チャネルに依存し得る適用要件に応じて実際の配信されたコンテンツを適合させるために抽出器ツールを使用することができる。
[0149]SVCでは、最低空間と品質レイヤとを有するピクチャは、通常、H.264/AVCに適合する。図5の例では、最低空間と品質レイヤとを有するピクチャ(QCIF解像度を有する、レイヤ0およびレイヤ1中のピクチャ)は、H.264/AVCに適合し得る。このうち、最低時間レベルのこれらのピクチャは、時間ベースレイヤ(レイヤ0)を形成する。この時間ベースレイヤ(レイヤ0)は、より高い時間レベル(レイヤ1)のピクチャを用いて強調され得る。
[0150]H.264/AVC互換レイヤに加えて、空間スケーラビリティおよび/または品質スケーラビリティを実現するために、いくつかの空間エンハンスメントレイヤおよび/または品質エンハンスメントレイヤが追加され得る。各空間または品質エンハンスメントレイヤ自体は、H.264/AVC適合レイヤと同じ時間スケーラビリティ構造で、時間的にスケーラブルになり得る。
[0151]本開示の態様によれば、ビデオコーダ(ビデオエンコーダ20またはビデオデコーダ30など)は、1つまたは複数のターゲット出力レイヤを有する出力動作点を特定し得る。たとえば、ビデオエンコーダ20は、1つまたは複数のターゲット出力レイヤを特定し、符号化ビットストリーム中のターゲット出力レイヤを示すデータを符号化し得る。同様に、ビデオデコーダ30は、符号化ビットストリームからの構文解析および復号されたデータに基づいて1つまたは複数のターゲット出力レイヤを含む出力動作点を特定し得る。
[0152]いくつかの例では、ターゲット出力レイヤは、動作点のlayer_idに基づいて誘導され得る。たとえば、ビデオデコーダ30は、レイヤ0と、レイヤ1と、レイヤ2とを含む動作点を復号し得る。この例では、ビデオデコーダ30は、最上位のlayer_id、たとえばレイヤ2に基づいて出力動作点を特定し得る。したがって、ビデオデコーダ30は、ターゲット出力ピクチャとしてレイヤ2のピクチャを出力し得る。
[0153]図6は、本開示の態様による、出力動作点を符号化するための例示的なプロセスを示すフローチャートである。ビデオエンコーダ20(図1および図2)に関して説明されるが、他のデバイスが図6の方法と同様の方法を実行するように構成され得ることを理解されたい。
[0154]この例では、ビデオエンコーダ20は、レイヤセットに関するビデオデータの複数のレイヤを符号化し得る(100)。たとえば、ビデオエンコーダ20は、マルチビュービットストリーム(たとえば、MV−HEVC規格または3D−HEVC規格に準拠するビットストリームを含む)に関するビデオデータの複数のビューを符号化し得る。この例では、レイヤセットは、ビットストリームを復号するのに必要なビデオデータの複数のビューと、出力、たとえばビットストリームを復号するクライアントデバイスによる表示の対象であるビデオデータのビューとを含み得る。別の例では、ビデオエンコーダ20は、スケーラブルビットストリーム(たとえば、HSVC規格に準拠するビットストリームを含む)に関するビデオデータの複数のスケーラブルレイヤを符号化し得る。この例では、レイヤセットは、ビットストリームを復号するのにのみ必要なビデオデータの複数のレイヤ(たとえば、「出力レイヤではない」)と、出力の対象であるビデオデータのレイヤとを含み得る。
[0155]ビデオエンコーダ20は、複数のレイヤのうちのどれがターゲット出力レイヤであるかを特定し得る(102)。ターゲット出力レイヤは、表示される際にビデオデータの閲覧可能な表示を提供する、出力の対象であるレイヤを含み得る。ターゲット出力レイヤは、表示の所望の品質、ビデオコーディングデバイスの機能、帯域幅要件、または他の因子に基づいて選択され得る。
[0156]ビデオエンコーダ20は、特定されたターゲット出力レイヤを含む出力動作点を示すデータを符号化し得る(104)。たとえば、ビデオエンコーダ20は、ターゲット出力レイヤを示す1つまたは複数のシンタックス要素を符号化し、パラメータセットにそのようなシンタックス要素を含むことができる。表2および表3に関して上記で説明したように、ビデオエンコーダ20は、VPS拡張またはVPSにおける出力動作点を示すデータを符号化し得る。他の例では、ビデオエンコーダ20は、SPSまたは他のメッセージにおける出力動作点を示すデータを符号化し得る。ビデオエンコーダ20は、次いで、(たとえば、記憶または別のデバイスへの送信のために)エントロピー符号化データを出力し得る(106)。
[0157]図7は、本開示の態様による、出力動作点を復号するための例示的なプロセスを示すフローチャートである。ビデオデコーダ30(図1および図3)に関して説明されるが、他のデバイスが図7の方法と同様の方法を実行するように構成され得ることを理解されたい。
[0158]最初に、ビデオデコーダ30は、レイヤセットに関するビデオデータの複数のレイヤを復号する(120)。たとえば、ビデオデコーダ30は、マルチビュービットストリーム(たとえば、MV−HEVC規格または3D−HEVC規格に準拠するビットストリームを含む)のビデオデータの複数のビューを復号し得る。この例では、レイヤセットは、ビットストリームを復号するのに必要なビデオデータの複数のビューと、出力の対象であるビデオデータのビューとを含み得る。別の例では、ビデオデコーダ30は、スケーラブルビットストリーム(たとえば、HSVC規格に準拠するビットストリームを含む)のビデオデータの複数のスケーラブルレイヤを復号し得る。この例では、レイヤセットは、ビットストリームを復号するのに必要なビデオデータの複数のレイヤと、出力の対象であるビデオデータのレイヤとを含み得る。
[0159]ビデオデコーダ30は、1つまたは複数のターゲット出力レイヤを含む出力動作点を示すデータを復号することもできる(122)。上述のように、ターゲット出力レイヤは、表示される際にビデオデータの閲覧可能な表示を提供する、出力の対象であるレイヤを含み得る。いくつかの例では、ターゲット出力レイヤは、復号されてきた複数のレイヤのサブセットであり得る。
[0160]ターゲット出力レイヤを示すデータは、ターゲット出力レイヤを示す1つまたは複数のシンタックス要素を含み得る。これらのシンタックス要素は、上記で説明したように、VPS拡張、VPS、SPS、または別のタイプのメッセージに含まれ得る。
[0161]ビデオデコーダ30は、データに基づいてビットストリームからターゲット出力レイヤを抽出し得る(124)。たとえば、ビデオデコーダ30は、ビットストリームからターゲット出力レイヤを含む1つまたは複数のサブビットストリームを抽出し得る。ビデオデコーダ30は、1つまたは複数のサブビットストリームを復号することもできる。ビデオデコーダ30は、次いで、表示のために(たとえば、表示デバイス32(図1)による表示のために)ターゲット出力レイヤを出力し得る(126)。
[0162]したがって、ビデオデコーダ30は、各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む、複数のレイヤセットを含むビデオデータの複数のレイヤを取得し、ビットストリームの1つまたは複数のシンタックス要素に基づいて、各々が複数のレイヤセットのうちの1つのレイヤセットと、複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を特定する。
[0163]例によっては、本明細書で説明された技法のうちいずれかの、いくつかの行為またはイベントは、異なる順番で実行される可能性があり、追加され、統合され、または完全に除外され得る(たとえば、すべての説明された行為またはイベントが、本技法の実施のために必要であるとは限らない)ことを認識されたい。さらに、いくつかの例では、行為またはイベントは、連続的にではなく、同時に、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通じて実行され得る。
[0164]本開示のいくつかの態様について、説明のために開発中のHEVC規格に関して説明した。ただし、本開示で説明する技法は、他の規格またはまだ開発されていないプロプライエタリなビデオコーディングプロセスを含む、他のビデオコーディングプロセスに有用であり得る。
[0165]本開示に記載されたビデオコーダは、ビデオエンコーダまたはビデオデコーダを指す場合がある。同様に、ビデオコーディングユニットは、ビデオエンコーダまたはビデオデコーダを指す場合がある。同様に、ビデオコーディングは、適用可能な場合、ビデオ符号化またはビデオ復号を指す場合がある。
[0166]1つまたは複数の例では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含むデータ記憶媒体または通信媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
[0167]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
[0168]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路によって実行され得る。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明する技法の実装に好適な他の構造のいずれかを指す。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用のハードウェアおよび/またはソフトウェアモジュール内に与えられ得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素中に十分に実装され得る。
[0169]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示する技法を実行するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットを、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作ハードウェアユニットの集合によって与えられ得る。
[0170]様々な例について説明してきた。これらおよび他の例は以下の特許請求の範囲内に入る。
[0170]様々な例について説明してきた。これらおよび他の例は以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1] ビデオデータを復号する方法であって、
マルチレイヤビットストリームから、各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットを含む、ビデオデータの前記複数のレイヤを取得することと、
前記ビットストリームの1つまたは複数のシンタックス要素に基づいて、各々が前記複数のレイヤセットのうちの1つのレイヤセットと、前記複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を特定することと
を備える、方法。
[C2] 前記シンタックス要素は第1のシンタックス要素であり、前記方法は、
前記ビットストリームの1つまたは複数の第2のシンタックス要素に基づいて、前記出力動作点に関する前記1つまたは複数のターゲット出力レイヤを特定すること、ここにおいて、前記第2のシンタックス要素は複数の第1のシンタックス要素のうちの前記1つとは異なる、
をさらに備える、C1に記載の方法。
[C3] 前記1つまたは複数の第2のシンタックス要素は、前記1つまたは複数のターゲット出力レイヤの各々を示す1つまたは複数のシンタックス要素を備える、C2に記載の方法。
[C4] 前記マルチレイヤビットストリームは、各レイヤがビデオデータのビューを備え、前記1つまたは複数のターゲット出力レイヤが1つまたは複数のターゲット出力ビューを備えるように、マルチビュービットストリームを備える、C1に記載の方法。
[C5] 前記マルチレイヤビットストリームは、前記1つまたは複数の出力動作点を特定することが、奥行きデータを備える1つまたは複数のターゲット出力奥行きレイヤを特定することをさらに備えるように、1つまたは複数の奥行きレイヤを備える、C1に記載の方法。
[C6] 前記マルチレイヤビットストリームは、前記1つまたは複数の出力動作点を特定することが、1つまたは複数のスケーラブルターゲット出力レイヤを特定することを備えるように、ビデオデータの複数のスケーラブルレイヤを有するビットストリームを備える、C1に記載の方法。
[C7] 前記出力動作点を特定することは、数値的に最高のlayer_idを有する前記スケーラブルターゲット出力レイヤを特定することを備える、C6に記載の方法。
[C8] 前記レイヤセットに関連付けられた前記1つまたは複数の出力動作点のうちの1つの出力動作点を復号することと、
前記1つまたは複数のターゲット出力レイヤのうちの1つではないが、前記レイヤセットに属する1つまたは複数のレイヤを含む、復号されるが出力されないレイヤの組を復号することと、
出力に使用されるべきピクチャとして、復号ピクチャバッファ内の前記1つまたは複数のターゲット出力レイヤに含まれる第1の復号ピクチャをマーキングすることと、
出力に使用されないピクチャが、出力に使用されるべきピクチャよりも早く前記復号ピクチャバッファから除去されるように、出力に使用されない前記ピクチャとして、前記復号ピクチャバッファ内の復号されるが出力されないレイヤの前記組に含まれる第2の復号ピクチャをマーキングすることと
をさらに備える、C1に記載の方法。
[C9] 出力に使用されないものとしてマーキングされた前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されるかどうかを判定することと、
出力に使用されない前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されないとき、前記復号ピクチャバッファからの出力に使用されないものとしてマーキングされた前記ピクチャを除去することと
をさらに備える、C8に記載の方法。
[C10] 前記1つまたは複数のシンタックス要素は、前記符号化ビットストリームのビデオパラメータセット(VPS)およびVPS拡張のうちの一方に含まれる、C1に記載の方法。
[C11] 前記1つまたは複数のシンタックス要素は、前記符号化ビットストリームの補足エンハンスメント情報(SEI)メッセージに含まれる、C1に記載の方法。
[C12] ビデオデータを符号化するための方法であって、
各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットを含む、ビデオデータの前記複数のレイヤを符号化することと、
各々が前記複数のレイヤセットのうちの1つのレイヤセットと、前記複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示す1つまたは複数のシンタックス要素を符号化することと
を備える、方法。
[C13] 前記1つまたは複数のシンタックス要素は、1つまたは複数の第1のシンタックス要素を備え、
前記出力動作点に関する前記1つまたは複数のターゲット出力レイヤを示す1つまたは複数の第2のシンタックス要素を符号化すること、ここにおいて、前記1つまたは複数の第2のシンタックス要素は、複数の第1のシンタックス要素のうちの前記1つとは異なる、
をさらに備える、C12に記載の方法。
[C14] 前記1つまたは複数の第2のシンタックス要素は、前記1つまたは複数のターゲット出力レイヤの各々を示す1つまたは複数のシンタックス要素を備える、C13に記載の方法。
[C15] 前記マルチレイヤビットストリームは、各レイヤがビデオデータのビューを備え、前記1つまたは複数のターゲット出力レイヤが1つまたは複数のターゲット出力ビューを備えるように、マルチビュービットストリームを備える、C12に記載の方法。
[C16] 前記マルチレイヤビットストリームは、前記1つまたは複数の出力動作点が、奥行きデータを備える1つまたは複数のターゲット出力奥行きレイヤを備えるように、1つまたは複数の奥行きレイヤを備える、C12に記載の方法。
[C17] 前記マルチレイヤビットストリームは、前記1つまたは複数の出力動作点が、1つまたは複数のスケーラブルターゲット出力レイヤを備えるように、ビデオデータの複数のスケーラブルレイヤを有するビットストリームを備える、C12に記載の方法。
[C18] 前記出力動作点は、数値的に最高のlayer_idを有する前記スケーラブルターゲット出力レイヤを備える、C17に記載の方法。
[C19] 前記1つまたは複数のシンタックス要素を符号化することは、前記符号化ビットストリームのビデオパラメータセット(VPS)およびVPS拡張のうちの一方の中に前記1つまたは複数のシンタックス要素を含むことを備える、C12に記載の方法。
[C20] 前記1つまたは複数のシンタックス要素を符号化することは、前記符号化ビットストリームの補足エンハンスメント情報(SEI)メッセージの中に前記1つまたは複数のシンタックス要素を含むことを備える、C12に記載の方法。
[C21] ビデオデータをコーディングするための装置であって、デバイスは、
各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットに関連付けられた、ビデオデータの前記複数のレイヤを備えるマルチレイヤビットストリームをコーディングし、
各々が前記複数のレイヤセットのうちの1つのレイヤセットと、前記複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示す前記ビットストリームの1つまたは複数のシンタックス要素をコーディングする
ように構成された1つまたは複数のプロセッサを備える、装置。
[C22] 前記1つまたは複数のシンタックス要素は、1つまたは複数の第1のシンタックス要素を備え、前記1つまたは複数のプロセッサは、前記出力動作点に関する前記1つまたは複数のターゲット出力レイヤを示す1つまたは複数の第2のシンタックス要素をコーディングするようにさらに構成され、前記1つまたは複数の第2のシンタックス要素は、複数の第1のシンタックス要素のうちの前記1つとは異なる、C21に記載の装置。
[C23] 前記1つまたは複数の第2のシンタックス要素は、前記1つまたは複数のターゲット出力レイヤの各々を示す1つまたは複数のシンタックス要素を備える、C22に記載の装置。
[C24] コーディングは復号を備え、前記1つまたは複数のプロセッサは、
前記レイヤセットに関連付けられた前記1つまたは複数の出力動作点のうちの1つの出力動作点を復号し、
前記1つまたは複数のターゲット出力レイヤのうちの1つではないが、前記レイヤセットに属する1つまたは複数のレイヤを含む、復号されるが出力されないレイヤの組を復号し、
出力に使用されるべきピクチャとして、復号ピクチャバッファ内の前記1つまたは複数のターゲット出力レイヤに含まれる第1の復号ピクチャをマーキングし、
出力に使用されないピクチャが、出力に使用されるべきピクチャよりも早く前記復号ピクチャバッファから除去されるように、出力に使用されない前記ピクチャとして、前記復号ピクチャバッファ内の復号されるが出力されないレイヤの前記組に含まれる第2の復号ピクチャをマーキングする
ようにさらに構成される、C21に記載の装置。
[C25] 前記1つまたは複数のプロセッサは、
出力に使用されないものとしてマーキングされた前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されるかどうかを判定し、
出力に使用されない前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されないとき、前記復号ピクチャバッファからの出力に使用されないものとしてマーキングされた前記ピクチャを除去する
ようにさらに構成される、C24に記載の装置。
[C26] ビデオデータをコーディングするためのデバイスであって、
各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットに関連付けられた、ビデオデータの前記複数のレイヤを備えるマルチレイヤビットストリームをコーディングするための手段と、
各々が前記複数のレイヤセットのうちの1つのレイヤセットと、前記複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示す前記ビットストリームの1つまたは複数のシンタックス要素をコーディングするための手段と
を備える、デバイス。
[C27] 前記1つまたは複数のシンタックス要素は、1つまたは複数の第1のシンタックス要素を備え、前記出力動作点に関する前記1つまたは複数のターゲット出力レイヤを示す1つまたは複数の第2のシンタックス要素をコーディングするための手段をさらに備えるデバイスであって、前記1つまたは複数の第2のシンタックス要素は、複数の第1のシンタックス要素のうちの前記1つとは異なる、C26に記載のデバイス。
[C28] 前記1つまたは複数の第2のシンタックス要素は、前記1つまたは複数のターゲット出力レイヤの各々を示す1つまたは複数のシンタックス要素を備える、C27に記載のデバイス。
[C29] 前記レイヤセットに関連付けられた前記1つまたは複数の出力動作点のうちの1つの出力動作点を復号するための手段と、
前記1つまたは複数のターゲット出力レイヤのうちの1つではないが、前記レイヤセットに属する1つまたは複数のレイヤを含む、復号されるが出力されないレイヤの組を復号するための手段と、
出力に使用されるべきピクチャとして、復号ピクチャバッファ内の前記1つまたは複数のターゲット出力レイヤに含まれる第1の復号ピクチャをマーキングするための手段と、
出力に使用されないピクチャが、出力に使用されるべきピクチャよりも早く前記復号ピクチャバッファから除去されるように、出力に使用されない前記ピクチャとして、前記復号ピクチャバッファ内の復号されるが出力されないレイヤの前記組に含まれる第2の復号ピクチャをマーキングするための手段と
をさらに備える、C26に記載のデバイス。
[C30] 出力に使用されないものとしてマーキングされた前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されるかどうかを判定するための手段と、
出力に使用されない前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されないとき、前記復号ピクチャバッファからの出力に使用されないものとしてマーキングされた前記ピクチャを除去するための手段と
をさらに備える、C29に記載のデバイス。
[C31] 実行される際、ビデオデータをコーディングするためのデバイスのプロセッサに、
各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットに関連付けられた、ビデオデータの前記複数のレイヤを備えるマルチレイヤビットストリームをコーディングさせ、
各々が前記複数のレイヤセットのうちの1つのレイヤセットと、前記複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示す前記ビットストリームの1つまたは複数のシンタックス要素をコーディングさせる
命令を記憶した非一時的コンピュータ可読記憶媒体。
[C32] 前記1つまたは複数のシンタックス要素は、1つまたは複数の第1のシンタックス要素を備え、命令は、前記1つまたは複数のプロセッサに、前記出力動作点に関する前記1つまたは複数のターゲット出力レイヤを示す1つまたは複数の第2のシンタックス要素をさらにコーディングさせ、前記1つまたは複数の第2のシンタックス要素は、複数の第1のシンタックス要素のうちの前記1つとは異なる、C31に記載の非一時的コンピュータ可読記憶媒体。
[C33] 前記1つまたは複数の第2のシンタックス要素は、前記1つまたは複数のターゲット出力レイヤの各々を示す1つまたは複数のシンタックス要素を備える、C32に記載の非一時的コンピュータ可読記憶媒体。
[C34] 前記命令は、前記1つまたは複数のプロセッサに、さらに、
前記レイヤセットに関連付けられた前記1つまたは複数の出力動作点のうちの1つの出力動作点を復号させ、
前記1つまたは複数のターゲット出力レイヤのうちの1つではないが、前記レイヤセットに属する1つまたは複数のレイヤを含む、復号されるが出力されないレイヤの組を復号させ、
出力に使用されるべきピクチャとして、復号ピクチャバッファ内の前記1つまたは複数のターゲット出力レイヤに含まれる第1の復号ピクチャをマーキングさせ、
出力に使用されないピクチャが、出力に使用されるべきピクチャよりも早く前記復号ピクチャバッファから除去されるように、出力に使用されない前記ピクチャとして、前記復号ピクチャバッファ内の復号されるが出力されないレイヤの前記組に含まれる第2の復号ピクチャをマーキングさせる、
C31に記載の非一時的コンピュータ可読記憶媒体。
[C35] 前記命令は、前記1つまたは複数のプロセッサに、さらに、
出力に使用されないものとしてマーキングされた前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されるかどうかを判定させ、
出力に使用されない前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されないとき、前記復号ピクチャバッファからの出力に使用されないものとしてマーキングされた前記ピクチャを除去させる、
C34に記載の非一時的コンピュータ可読記憶媒体。

Claims (35)

  1. ビデオデータを復号する方法であって、
    マルチレイヤビットストリームから、各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットを含む、ビデオデータの前記複数のレイヤを取得することと、
    前記ビットストリームの1つまたは複数のシンタックス要素に基づいて、各々が前記複数のレイヤセットのうちの1つのレイヤセットと、前記複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を特定することと
    を備える、方法。
  2. 前記シンタックス要素は第1のシンタックス要素であり、前記方法は、
    前記ビットストリームの1つまたは複数の第2のシンタックス要素に基づいて、前記出力動作点に関する前記1つまたは複数のターゲット出力レイヤを特定すること、ここにおいて、前記第2のシンタックス要素は複数の第1のシンタックス要素のうちの前記1つとは異なる、
    をさらに備える、請求項1に記載の方法。
  3. 前記1つまたは複数の第2のシンタックス要素は、前記1つまたは複数のターゲット出力レイヤの各々を示す1つまたは複数のシンタックス要素を備える、請求項2に記載の方法。
  4. 前記マルチレイヤビットストリームは、各レイヤがビデオデータのビューを備え、前記1つまたは複数のターゲット出力レイヤが1つまたは複数のターゲット出力ビューを備えるように、マルチビュービットストリームを備える、請求項1に記載の方法。
  5. 前記マルチレイヤビットストリームは、前記1つまたは複数の出力動作点を特定することが、奥行きデータを備える1つまたは複数のターゲット出力奥行きレイヤを特定することをさらに備えるように、1つまたは複数の奥行きレイヤを備える、請求項1に記載の方法。
  6. 前記マルチレイヤビットストリームは、前記1つまたは複数の出力動作点を特定することが、1つまたは複数のスケーラブルターゲット出力レイヤを特定することを備えるように、ビデオデータの複数のスケーラブルレイヤを有するビットストリームを備える、請求項1に記載の方法。
  7. 前記出力動作点を特定することは、数値的に最高のlayer_idを有する前記スケーラブルターゲット出力レイヤを特定することを備える、請求項6に記載の方法。
  8. 前記レイヤセットに関連付けられた前記1つまたは複数の出力動作点のうちの1つの出力動作点を復号することと、
    前記1つまたは複数のターゲット出力レイヤのうちの1つではないが、前記レイヤセットに属する1つまたは複数のレイヤを含む、復号されるが出力されないレイヤの組を復号することと、
    出力に使用されるべきピクチャとして、復号ピクチャバッファ内の前記1つまたは複数のターゲット出力レイヤに含まれる第1の復号ピクチャをマーキングすることと、
    出力に使用されないピクチャが、出力に使用されるべきピクチャよりも早く前記復号ピクチャバッファから除去されるように、出力に使用されない前記ピクチャとして、前記復号ピクチャバッファ内の復号されるが出力されないレイヤの前記組に含まれる第2の復号ピクチャをマーキングすることと
    をさらに備える、請求項1に記載の方法。
  9. 出力に使用されないものとしてマーキングされた前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されるかどうかを判定することと、
    出力に使用されない前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されないとき、前記復号ピクチャバッファからの出力に使用されないものとしてマーキングされた前記ピクチャを除去することと
    をさらに備える、請求項8に記載の方法。
  10. 前記1つまたは複数のシンタックス要素は、前記符号化ビットストリームのビデオパラメータセット(VPS)およびVPS拡張のうちの一方に含まれる、請求項1に記載の方法。
  11. 前記1つまたは複数のシンタックス要素は、前記符号化ビットストリームの補足エンハンスメント情報(SEI)メッセージに含まれる、請求項1に記載の方法。
  12. ビデオデータを符号化するための方法であって、
    各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットを含む、ビデオデータの前記複数のレイヤを符号化することと、
    各々が前記複数のレイヤセットのうちの1つのレイヤセットと、前記複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示す1つまたは複数のシンタックス要素を符号化することと
    を備える、方法。
  13. 前記1つまたは複数のシンタックス要素は、1つまたは複数の第1のシンタックス要素を備え、
    前記出力動作点に関する前記1つまたは複数のターゲット出力レイヤを示す1つまたは複数の第2のシンタックス要素を符号化すること、ここにおいて、前記1つまたは複数の第2のシンタックス要素は、複数の第1のシンタックス要素のうちの前記1つとは異なる、
    をさらに備える、請求項12に記載の方法。
  14. 前記1つまたは複数の第2のシンタックス要素は、前記1つまたは複数のターゲット出力レイヤの各々を示す1つまたは複数のシンタックス要素を備える、請求項13に記載の方法。
  15. 前記マルチレイヤビットストリームは、各レイヤがビデオデータのビューを備え、前記1つまたは複数のターゲット出力レイヤが1つまたは複数のターゲット出力ビューを備えるように、マルチビュービットストリームを備える、請求項12に記載の方法。
  16. 前記マルチレイヤビットストリームは、前記1つまたは複数の出力動作点が、奥行きデータを備える1つまたは複数のターゲット出力奥行きレイヤを備えるように、1つまたは複数の奥行きレイヤを備える、請求項12に記載の方法。
  17. 前記マルチレイヤビットストリームは、前記1つまたは複数の出力動作点が、1つまたは複数のスケーラブルターゲット出力レイヤを備えるように、ビデオデータの複数のスケーラブルレイヤを有するビットストリームを備える、請求項12に記載の方法。
  18. 前記出力動作点は、数値的に最高のlayer_idを有する前記スケーラブルターゲット出力レイヤを備える、請求項17に記載の方法。
  19. 前記1つまたは複数のシンタックス要素を符号化することは、前記符号化ビットストリームのビデオパラメータセット(VPS)およびVPS拡張のうちの一方の中に前記1つまたは複数のシンタックス要素を含むことを備える、請求項12に記載の方法。
  20. 前記1つまたは複数のシンタックス要素を符号化することは、前記符号化ビットストリームの補足エンハンスメント情報(SEI)メッセージの中に前記1つまたは複数のシンタックス要素を含むことを備える、請求項12に記載の方法。
  21. ビデオデータをコーディングするための装置であって、デバイスは、
    各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットに関連付けられた、ビデオデータの前記複数のレイヤを備えるマルチレイヤビットストリームをコーディングし、
    各々が前記複数のレイヤセットのうちの1つのレイヤセットと、前記複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示す前記ビットストリームの1つまたは複数のシンタックス要素をコーディングする
    ように構成された1つまたは複数のプロセッサを備える、装置。
  22. 前記1つまたは複数のシンタックス要素は、1つまたは複数の第1のシンタックス要素を備え、前記1つまたは複数のプロセッサは、前記出力動作点に関する前記1つまたは複数のターゲット出力レイヤを示す1つまたは複数の第2のシンタックス要素をコーディングするようにさらに構成され、前記1つまたは複数の第2のシンタックス要素は、複数の第1のシンタックス要素のうちの前記1つとは異なる、請求項21に記載の装置。
  23. 前記1つまたは複数の第2のシンタックス要素は、前記1つまたは複数のターゲット出力レイヤの各々を示す1つまたは複数のシンタックス要素を備える、請求項22に記載の装置。
  24. コーディングは復号を備え、前記1つまたは複数のプロセッサは、
    前記レイヤセットに関連付けられた前記1つまたは複数の出力動作点のうちの1つの出力動作点を復号し、
    前記1つまたは複数のターゲット出力レイヤのうちの1つではないが、前記レイヤセットに属する1つまたは複数のレイヤを含む、復号されるが出力されないレイヤの組を復号し、
    出力に使用されるべきピクチャとして、復号ピクチャバッファ内の前記1つまたは複数のターゲット出力レイヤに含まれる第1の復号ピクチャをマーキングし、
    出力に使用されないピクチャが、出力に使用されるべきピクチャよりも早く前記復号ピクチャバッファから除去されるように、出力に使用されない前記ピクチャとして、前記復号ピクチャバッファ内の復号されるが出力されないレイヤの前記組に含まれる第2の復号ピクチャをマーキングする
    ようにさらに構成される、請求項21に記載の装置。
  25. 前記1つまたは複数のプロセッサは、
    出力に使用されないものとしてマーキングされた前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されるかどうかを判定し、
    出力に使用されない前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されないとき、前記復号ピクチャバッファからの出力に使用されないものとしてマーキングされた前記ピクチャを除去する
    ようにさらに構成される、請求項24に記載の装置。
  26. ビデオデータをコーディングするためのデバイスであって、
    各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットに関連付けられた、ビデオデータの前記複数のレイヤを備えるマルチレイヤビットストリームをコーディングするための手段と、
    各々が前記複数のレイヤセットのうちの1つのレイヤセットと、前記複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示す前記ビットストリームの1つまたは複数のシンタックス要素をコーディングするための手段と
    を備える、デバイス。
  27. 前記1つまたは複数のシンタックス要素は、1つまたは複数の第1のシンタックス要素を備え、前記出力動作点に関する前記1つまたは複数のターゲット出力レイヤを示す1つまたは複数の第2のシンタックス要素をコーディングするための手段をさらに備えるデバイスであって、前記1つまたは複数の第2のシンタックス要素は、複数の第1のシンタックス要素のうちの前記1つとは異なる、請求項26に記載のデバイス。
  28. 前記1つまたは複数の第2のシンタックス要素は、前記1つまたは複数のターゲット出力レイヤの各々を示す1つまたは複数のシンタックス要素を備える、請求項27に記載のデバイス。
  29. 前記レイヤセットに関連付けられた前記1つまたは複数の出力動作点のうちの1つの出力動作点を復号するための手段と、
    前記1つまたは複数のターゲット出力レイヤのうちの1つではないが、前記レイヤセットに属する1つまたは複数のレイヤを含む、復号されるが出力されないレイヤの組を復号するための手段と、
    出力に使用されるべきピクチャとして、復号ピクチャバッファ内の前記1つまたは複数のターゲット出力レイヤに含まれる第1の復号ピクチャをマーキングするための手段と、
    出力に使用されないピクチャが、出力に使用されるべきピクチャよりも早く前記復号ピクチャバッファから除去されるように、出力に使用されない前記ピクチャとして、前記復号ピクチャバッファ内の復号されるが出力されないレイヤの前記組に含まれる第2の復号ピクチャをマーキングするための手段と
    をさらに備える、請求項26に記載のデバイス。
  30. 出力に使用されないものとしてマーキングされた前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されるかどうかを判定するための手段と、
    出力に使用されない前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されないとき、前記復号ピクチャバッファからの出力に使用されないものとしてマーキングされた前記ピクチャを除去するための手段と
    をさらに備える、請求項29に記載のデバイス。
  31. 実行される際、ビデオデータをコーディングするためのデバイスのプロセッサに、
    各々が複数のレイヤのビデオデータの1つまたは複数のレイヤを含む複数のレイヤセットに関連付けられた、ビデオデータの前記複数のレイヤを備えるマルチレイヤビットストリームをコーディングさせ、
    各々が前記複数のレイヤセットのうちの1つのレイヤセットと、前記複数のレイヤのうちの1つまたは複数のターゲット出力レイヤとに関連付けられる、1つまたは複数の出力動作点を示す前記ビットストリームの1つまたは複数のシンタックス要素をコーディングさせる
    命令を記憶した非一時的コンピュータ可読記憶媒体。
  32. 前記1つまたは複数のシンタックス要素は、1つまたは複数の第1のシンタックス要素を備え、命令は、前記1つまたは複数のプロセッサに、前記出力動作点に関する前記1つまたは複数のターゲット出力レイヤを示す1つまたは複数の第2のシンタックス要素をさらにコーディングさせ、前記1つまたは複数の第2のシンタックス要素は、複数の第1のシンタックス要素のうちの前記1つとは異なる、請求項31に記載の非一時的コンピュータ可読記憶媒体。
  33. 前記1つまたは複数の第2のシンタックス要素は、前記1つまたは複数のターゲット出力レイヤの各々を示す1つまたは複数のシンタックス要素を備える、請求項32に記載の非一時的コンピュータ可読記憶媒体。
  34. 前記命令は、前記1つまたは複数のプロセッサに、さらに、
    前記レイヤセットに関連付けられた前記1つまたは複数の出力動作点のうちの1つの出力動作点を復号させ、
    前記1つまたは複数のターゲット出力レイヤのうちの1つではないが、前記レイヤセットに属する1つまたは複数のレイヤを含む、復号されるが出力されないレイヤの組を復号させ、
    出力に使用されるべきピクチャとして、復号ピクチャバッファ内の前記1つまたは複数のターゲット出力レイヤに含まれる第1の復号ピクチャをマーキングさせ、
    出力に使用されないピクチャが、出力に使用されるべきピクチャよりも早く前記復号ピクチャバッファから除去されるように、出力に使用されない前記ピクチャとして、前記復号ピクチャバッファ内の復号されるが出力されないレイヤの前記組に含まれる第2の復号ピクチャをマーキングさせる、
    請求項31に記載の非一時的コンピュータ可読記憶媒体。
  35. 前記命令は、前記1つまたは複数のプロセッサに、さらに、
    出力に使用されないものとしてマーキングされた前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されるかどうかを判定させ、
    出力に使用されない前記ピクチャが、インター予測およびレイヤ間予測のうちの一方のために使用されないとき、前記復号ピクチャバッファからの出力に使用されないものとしてマーキングされた前記ピクチャを除去させる、
    請求項34に記載の非一時的コンピュータ可読記憶媒体。
JP2015539945A 2012-10-30 2013-10-30 ビデオコーディングにおけるターゲット出力レイヤ Active JP6377623B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261720364P 2012-10-30 2012-10-30
US61/720,364 2012-10-30
US14/066,209 2013-10-29
US14/066,209 US9936196B2 (en) 2012-10-30 2013-10-29 Target output layers in video coding
PCT/US2013/067537 WO2014070911A1 (en) 2012-10-30 2013-10-30 Target output layers in video coding

Publications (3)

Publication Number Publication Date
JP2015537446A true JP2015537446A (ja) 2015-12-24
JP2015537446A5 JP2015537446A5 (ja) 2016-11-24
JP6377623B2 JP6377623B2 (ja) 2018-08-22

Family

ID=50547169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015539945A Active JP6377623B2 (ja) 2012-10-30 2013-10-30 ビデオコーディングにおけるターゲット出力レイヤ

Country Status (14)

Country Link
US (1) US9936196B2 (ja)
EP (1) EP2915334B1 (ja)
JP (1) JP6377623B2 (ja)
KR (1) KR101909331B1 (ja)
CN (1) CN104782131B (ja)
AP (1) AP2015008435A0 (ja)
BR (1) BR112015008574B1 (ja)
EC (1) ECSP15021478A (ja)
ES (1) ES2730876T3 (ja)
HU (1) HUE044973T2 (ja)
MA (1) MA38045B1 (ja)
SA (1) SA515360352B1 (ja)
TW (1) TWI532365B (ja)
WO (1) WO2014070911A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9661331B2 (en) 2013-03-18 2017-05-23 Vantrix Corporation Method and apparatus for signal encoding realizing optimal fidelity
US9338450B2 (en) * 2013-03-18 2016-05-10 Ecole De Technologie Superieure Method and apparatus for signal encoding producing encoded signals of high fidelity at minimal sizes
US10609405B2 (en) 2013-03-18 2020-03-31 Ecole De Technologie Superieure Optimal signal encoding based on experimental data
WO2015053597A1 (ko) * 2013-10-12 2015-04-16 삼성전자 주식회사 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치
US9525860B2 (en) * 2013-12-16 2016-12-20 Xerox Corporation Enhancing a spatio-temporal resolution of a depth data stream
KR102073030B1 (ko) * 2014-03-14 2020-02-04 후아웨이 테크놀러지 컴퍼니 리미티드 이미지 디코딩 장치
US10455242B2 (en) * 2015-03-04 2019-10-22 Qualcomm Incorporated Signaling output indications in codec-hybrid multi-layer video coding
KR102476207B1 (ko) * 2015-11-12 2022-12-08 삼성전자주식회사 반도체 장치의 동작 방법 및 반도체 시스템
US10499066B2 (en) * 2017-04-14 2019-12-03 Nokia Technologies Oy Method and apparatus for improving efficiency of content delivery based on consumption data relative to spatial data
US11109069B2 (en) * 2019-09-20 2021-08-31 Tencent America LLC Signaling of scalability parameters in video bitstream
US11265567B2 (en) * 2019-10-08 2022-03-01 Tencent America LLC Method for output layer set signaling in scalable video stream
WO2021137598A1 (ko) * 2019-12-30 2021-07-08 엘지전자 주식회사 Dpb 관리 프로세스를 포함하는 영상 디코딩 방법 및 그 장치
US11228776B1 (en) 2020-03-27 2022-01-18 Tencent America LLC Method for output layer set mode in multilayered video stream
WO2022065875A1 (ko) * 2020-09-22 2022-03-31 엘지전자 주식회사 동작점 정보와 출력 계층 세트 정보를 시그널링하는 미디어 파일 생성/수신 방법, 장치 및 미디어 파일을 저장한 컴퓨터 판독 가능한 기록 매체

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009296078A (ja) * 2008-06-03 2009-12-17 Victor Co Of Japan Ltd 符号化データ再生装置、符号化データ再生方法、および符号化データ再生プログラム
WO2010126613A2 (en) * 2009-05-01 2010-11-04 Thomson Licensing Inter-layer dependency information for 3dv
WO2011017661A1 (en) * 2009-08-07 2011-02-10 Qualcomm Incorporated Signaling characteristics of an mvc operation point
US20120016917A1 (en) * 2009-04-09 2012-01-19 Clinton Priddle Media container file management
WO2013106705A2 (en) * 2012-01-14 2013-07-18 Qualcomm Incorporated Coding parameter sets and nal unit headers for video coding
WO2014008286A1 (en) * 2012-07-02 2014-01-09 Qualcomm Incorporated Video parameter set for hevc and extensions
WO2014052013A1 (en) * 2012-09-28 2014-04-03 Qualcomm Incorporated Signaling layer identifiers for operation points in video coding

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030215011A1 (en) * 2002-05-17 2003-11-20 General Instrument Corporation Method and apparatus for transcoding compressed video bitstreams
RU2377736C2 (ru) 2005-04-13 2009-12-27 Нокиа Корпорейшн Кодирование, хранение и передача информации о масштабируемости
US20070086521A1 (en) 2005-10-11 2007-04-19 Nokia Corporation Efficient decoded picture buffer management for scalable video coding
CN101578873B (zh) 2007-01-04 2012-07-25 汤姆森特许公司 一种解码多视图视频内容的装置和方法
EP2521363B1 (en) 2009-02-19 2014-05-14 Panasonic Corporation Playback device
US20100250763A1 (en) 2009-03-31 2010-09-30 Nokia Corporation Method and Apparatus for Transmitting Information on Operation Points
US9131033B2 (en) 2010-07-20 2015-09-08 Qualcomm Incoporated Providing sequence data sets for streaming video data
RU2517299C2 (ru) 2010-08-09 2014-05-27 Панасоник Корпорэйшн Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений и устройство декодирования изображений
WO2013009441A2 (en) 2011-07-12 2013-01-17 Vidyo, Inc. Scalable video coding using multiple coding technologies
US9819949B2 (en) * 2011-12-16 2017-11-14 Microsoft Technology Licensing, Llc Hardware-accelerated decoding of scalable video bitstreams

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009296078A (ja) * 2008-06-03 2009-12-17 Victor Co Of Japan Ltd 符号化データ再生装置、符号化データ再生方法、および符号化データ再生プログラム
US20120016917A1 (en) * 2009-04-09 2012-01-19 Clinton Priddle Media container file management
WO2010126613A2 (en) * 2009-05-01 2010-11-04 Thomson Licensing Inter-layer dependency information for 3dv
WO2011017661A1 (en) * 2009-08-07 2011-02-10 Qualcomm Incorporated Signaling characteristics of an mvc operation point
US20110032999A1 (en) * 2009-08-07 2011-02-10 Ying Chen Signaling characteristics of an mvc operation point
WO2013106705A2 (en) * 2012-01-14 2013-07-18 Qualcomm Incorporated Coding parameter sets and nal unit headers for video coding
WO2014008286A1 (en) * 2012-07-02 2014-01-09 Qualcomm Incorporated Video parameter set for hevc and extensions
WO2014052013A1 (en) * 2012-09-28 2014-04-03 Qualcomm Incorporated Signaling layer identifiers for operation points in video coding

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
ANTHONY VETRO, ET AL.: "Joint Draft 8.0 on Multiview Video Coding", JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 AND ITU-T SG16 Q.6) 28TH, vol. JVT-AB204, JPN6017032492, 27 November 2008 (2008-11-27), pages 28 - 30, XP055105993, ISSN: 0003717703 *
JILL BOYCE ET AL.: "Information for scalable extension high layer syntax", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-H0386r2, JPN6018023350, January 2012 (2012-01-01), pages 1 - 8, ISSN: 0003821247 *
YE-KUI WANG AND YING CHEN: "AHG9: On video parameter set", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-K0125, JPN6018023352, 1 October 2012 (2012-10-01), pages 1 - 7, ISSN: 0003821250 *
YE-KUI WANG, ET AL.: "AHG12: Video parameter set and its use in 3D-HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-I0571, JPN6017032494, 28 April 2012 (2012-04-28), pages 1 - 9, ISSN: 0003717704 *
YE-KUI WANG, ET AL.: "On MVC HRD and bitstream restriction", JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC 1/SC 29/WG 11 AND ITU-T SG 16 Q.6), vol. JVT-AA020, JPN6017032498, 28 April 2008 (2008-04-28), pages 1 - 19, ISSN: 0003628650 *
YING CHEN AND YE-KUI WANG: "AHG10: Video parameter set for HEVC extensions", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-J0124r1, JPN6018023351, July 2012 (2012-07-01), pages 1 - 15, ISSN: 0003821249 *
YING CHEN AND YE-KUI WANG: "AHG7: Target output views for MV-HEVC", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, vol. JCT3V-C0059, JPN6018023353, January 2013 (2013-01-01), pages 1 - 2, ISSN: 0003821251 *

Also Published As

Publication number Publication date
WO2014070911A1 (en) 2014-05-08
MA38045B1 (fr) 2016-12-30
KR101909331B1 (ko) 2018-10-17
HUE044973T2 (hu) 2019-12-30
JP6377623B2 (ja) 2018-08-22
US9936196B2 (en) 2018-04-03
BR112015008574B1 (pt) 2022-03-15
BR112015008574A2 (pt) 2017-07-04
ECSP15021478A (es) 2015-12-31
AP2015008435A0 (en) 2015-05-31
SA515360352B1 (ar) 2018-04-22
TWI532365B (zh) 2016-05-01
ES2730876T3 (es) 2019-11-13
TW201433146A (zh) 2014-08-16
KR20150079732A (ko) 2015-07-08
US20140119437A1 (en) 2014-05-01
CN104782131A (zh) 2015-07-15
MA38045A1 (fr) 2016-06-30
CN104782131B (zh) 2019-02-22
EP2915334A1 (en) 2015-09-09
EP2915334B1 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
JP6377623B2 (ja) ビデオコーディングにおけるターゲット出力レイヤ
JP6400660B2 (ja) Hevcおよび拡張のためのビデオパラメータセット
JP6141386B2 (ja) 深度範囲パラメータのシグナリング
JP6549145B2 (ja) マルチレイヤコーデックのためのhevc seiメッセージの汎用的な使用
JP5902314B2 (ja) マルチビュービデオコード化(mvc)適合3次元ビデオコード化(3dvc)のためのパラメータセットのアクティブ化
JP6117243B2 (ja) ビデオコーディング用のコーディングパラメータセットおよびnalユニットヘッダ
JP6509842B2 (ja) 高効率ビデオコーディング拡張におけるターゲット出力レイヤの選択
JP6370898B2 (ja) レイヤを横切るピクチャパーティションに対するビットストリームの制限
JP6096217B2 (ja) 3dビデオコーディングにおけるビュー合成予測サポートのシグナリング
JP6158422B2 (ja) アラインされていないirapピクチャを含み得るマルチレイヤビットストリームのクロスレイヤpocアラインメント
JP6728074B2 (ja) マルチレイヤビデオコーディング
JP6227678B2 (ja) 3dビデオコーディングにおける導出視差ベクトル
JP2017523683A (ja) ビデオコーディングにおける第0の出力レイヤセットのためのプロファイル、ティア、レベル
JP2017525231A (ja) ビットストリームパーティションのためのhrdパラメータを信号伝達すること
JP6363190B2 (ja) Vps内のビットレート情報およびピクチャレート情報のシグナリング
JP6242904B2 (ja) マルチビュー、3次元(3d)およびスケーラブルメディアビットストリームのためのサブビットストリーム抽出
JP2016537843A (ja) Mv−hevcにおけるビュー間依存タイプ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180516

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180725

R150 Certificate of patent or registration of utility model

Ref document number: 6377623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250