JP2016530774A - ビデオコーディングのためのクロスレイヤ並列処理およびオフセット遅延パラメータ - Google Patents

ビデオコーディングのためのクロスレイヤ並列処理およびオフセット遅延パラメータ Download PDF

Info

Publication number
JP2016530774A
JP2016530774A JP2016527021A JP2016527021A JP2016530774A JP 2016530774 A JP2016530774 A JP 2016530774A JP 2016527021 A JP2016527021 A JP 2016527021A JP 2016527021 A JP2016527021 A JP 2016527021A JP 2016530774 A JP2016530774 A JP 2016530774A
Authority
JP
Japan
Prior art keywords
location
layer
video
reference picture
bitstream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016527021A
Other languages
English (en)
Other versions
JP2016530774A5 (ja
JP6301467B2 (ja
Inventor
ラパカ、クリシュナカンス
ワン、イェ−クイ
ラマスブラモニアン、アダルシュ・クリシュナン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016530774A publication Critical patent/JP2016530774A/ja
Publication of JP2016530774A5 publication Critical patent/JP2016530774A5/ja
Application granted granted Critical
Publication of JP6301467B2 publication Critical patent/JP6301467B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一例では、ビデオデータをコーディングする方法は、1つまたは複数のスケーリングされたオフセット値に基づいて、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定することを含み、参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、1つまたは複数のスケーリングされたオフセット値は、第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す。方法はまた、参照サンプルのロケーションに基づいて第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを、決定することと、配列された参照ブロックに関連して、第2のレイヤの中のビデオデータの現在のブロックを、コーディングすることとを含む。

Description

[0001] 本出願は、その内容全体が参照により本明細書に組み込まれる、2013年7月15日に出願された米国仮出願第61/846,570号の利益を主張する。
[0002] 本開示は、ビデオコーディングに関する。
[0003] デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、携帯電話または衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、Part 10、アドバンストビデオコーディング(AVC:Advanced Video Coding)、現在開発中の高効率ビデオコーディング(HEVC)規格によって定義された規格、およびそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
[0004] ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するための空間的(イントラピクチャ)予測および/または時間的(インターピクチャ)予測を含む。ブロックベースのビデオコーディングの場合、ビデオスライス(たとえば、ビデオフレームまたはビデオフレームの一部分)が、ツリーブロック、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもあるビデオブロックに区分され得る。ピクチャのイントラコーディングされた(I)スライス内のビデオブロックは、同じピクチャにおける隣接ブロック内の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコード化(PまたはB)スライス内のビデオブロックは、同じピクチャの中の隣接ブロック内の参照サンプルに対する空間的予測、または他の参照ピクチャ(reference picture)の中の参照サンプルに対する時間的予測を使用することができる。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005] 空間的予測または時間的予測は、コーディングされるべきブロックの予測ブロックを生じる。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコーディングされたブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、およびコーディングされたブロックと予測ブロックとの間の差分(difference)を示す残差データ(residual data)に従って符号化される。イントラコード化ブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて残差変換係数をもたらすことができ、その残差変換係数が、次いで量子化され得る。最初に2次元アレイで構成される量子化変換係数は、変換係数の1次元ベクトルを生成するために走査されてよく、なお一層の圧縮を達成するためにエントロピーコーディングが適用されてよい。
[0006] 概して、本開示は、ビデオコーディングの並列処理ための技法を説明する。たとえば、本開示は、高効率ビデオコーディング(HEVC)規格のマルチレイヤ拡張を含む、マルチレイヤビデオコーディング処理における並列処理のための技法を説明する。本開示の技法はまた、マルチビューHEVC(MV−HEVC)などの他のマルチレイヤビデオコーディング規格およびそのような規格の拡張に適用され得る。いくつかの例では、技法は、オフセット遅延情報(offset delay information)などの、複数のレイヤを並列に処理するための情報をビデオパラメータセット(VPS:video parameter set)の中でシグナリングすることを含む。技法はまた、タイル整列情報(tile alignment information)などの、複数のレイヤを並列に処理するための情報をシグナリングすることを、または含み得る。態様はまた、マルチレイヤビデオコーディングにおいて、配列されたブロックのロケーションを決定するための技法に関し得る。
[0007] 一例では、ビデオデータを復号する方法は、マルチレイヤビットストリーム(multi-layer bitstream)のビデオパラメータセット(VPS)から、マルチレイヤビットストリームの任意のレイヤがレイヤ間予測制約(inter-layer prediction restriction)を有するかどうかを示すデータ、またはタイル境界(tile boundary)がマルチレイヤビットストリームのレイヤのうちの少なくとも2つの間で整列されている(aligned)かどうかを示すデータのうちの、少なくとも1つを復号することと、VPSから復号されたデータに従って、マルチレイヤビットストリームを復号することとを含む。
[0008] 別の例では、ビデオデータを符号化する方法は、マルチレイヤビットストリームのビデオパラメータセット(VPS)の中で、マルチレイヤビットストリームの任意のレイヤがレイヤ間予測制約を有するかどうかを示すデータ、またはタイル境界がマルチレイヤビットストリームのレイヤのうちの少なくとも2つの間で整列されているかどうかを示すデータのうちの、少なくとも1つを符号化することと、VPSの中で符号化されるデータに従って、マルチレイヤビットストリームを符号化することとを含む。
[0009] 別の例では、ビデオコーディングを実行する装置は、ビデオデータを記憶するメモリと、マルチレイヤビットストリームの任意のレイヤがレイヤ間予測制約を有するかどうかを示すデータ、またはタイル境界がマルチレイヤビットストリームのレイヤのうちの少なくとも2つの間で整列されているかどうかを示すデータのうちの、少なくとも1つをコーディングすることを含む、マルチレイヤビットストリームのビデオパラメータセット(VPS)のデータをコーディングすることと、VPSのデータに従って、マルチレイヤビットストリームをコーディングすることとを行うように構成されたビデオコーダとを含む。
[0010] 別の例では、ビデオコーディングを実行する装置は、マルチレイヤビットストリームの任意のレイヤがレイヤ間予測制約を有するかどうかを示すデータ、またはタイル境界がマルチレイヤビットストリームのレイヤのうちの少なくとも2つの間で整列されているかどうかを示すデータのうちの少なくとも1つを含む、マルチレイヤビットストリームのビデオパラメータセット(VPS)のデータをコーディングするための手段と、VPSのデータに従って、マルチレイヤビットストリームをコーディングするための手段とを含む。
[0011] 別の例では、非一時的コンピュータ可読媒体は、実行されたとき、ビデオコーダに、マルチレイヤビットストリームの任意のレイヤがレイヤ間予測制約を有するかどうかを示すデータ、またはタイル境界がマルチレイヤビットストリームのレイヤのうちの少なくとも2つの間で整列されているかどうかを示すデータのうちの、少なくとも1つをコーディングすることを含む、マルチレイヤビットストリームのビデオパラメータセット(VPS)のデータをコーディングすることと、VPSのデータに従って、マルチレイヤビットストリームをコーディングすることとを行わせる命令を記憶する。
[0012] 別の例では、ビデオデータを復号する方法は、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを、1つまたは複数のスケーリングされたオフセット値に基づいて決定することと、ここにおいて、参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、1つまたは複数のスケーリングされたオフセット値は、第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを、参照サンプルのロケーションに基づいて決定することと、前記配列された参照ブロックに関連して第2のレイヤの中のビデオデータの現在のブロックを復号することとを含む。
[0013] 別の例では、ビデオデータを符号化する方法は、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを、1つまたは複数のスケーリングされたオフセット値に基づいて決定することと、ここにおいて、参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、1つまたは複数のスケーリングされたオフセット値は、第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを、参照サンプルのロケーションに基づいて決定することと、前記配列された参照ブロックに関連して第2のレイヤの中のビデオデータの現在のブロックを符号化することとを含む。
[0014] 別の例では、ビデオコーディングを実行する装置は、ビデオデータを記憶するメモリと、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを、1つまたは複数のスケーリングされたオフセット値に基づいて決定することと、ここにおいて、参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、1つまたは複数のスケーリングされたオフセット値は、第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、参照サンプルのロケーションに基づいて第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを決定することと、配列された参照ブロックに関連して第2のレイヤの中のビデオデータの現在のブロックをコーディングすることとを行うように構成されたビデオコーダとを含む。
[0015] 別の例では、ビデオコーディングを実行する装置は、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを、1つまたは複数のスケーリングされたオフセット値に基づいて決定するための手段と、ここにおいて、参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、1つまたは複数のスケーリングされたオフセット値は、第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを、参照サンプルのロケーションに基づいて決定するための手段と、前記配列された参照ブロックに対して第2のレイヤの中のビデオデータの現在のブロックをコーディングするための手段とを含む。
[0016] 別の例では、非一時的コンピュータ可読媒体は、実行されたとき、ビデオコーダに、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを、1つまたは複数のスケーリングされたオフセット値に基づいて決定することと、ここにおいて、参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、1つまたは複数のスケーリングされたオフセット値は、第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを、参照サンプルのロケーションに基づいて決定することと、前記配列された参照ブロックに対して第2のレイヤの中のビデオデータの現在のブロックをコーディングすることとを行わせる命令を記憶する。
[0017] 本開示の1つまたは複数の例の詳細が、添付の図面および以下の説明に記載されている。本開示の他の特徴、目的、および利点は、その説明および図面から、ならびに特許請求の範囲から明らかになろう。
[0018] ビデオデータを並列に処理するための技法を利用し得る例示的なビデオ符号化および復号システムを示すブロック図。 [0019] ビデオデータを並列に処理するための技法を実装し得るビデオエンコーダの一例を示すブロック図。 [0020] ビデオデータを並列に処理するための技法を実装し得るビデオデコーダの一例を示すブロック図。 [0021] スケーラブルビデオコーディング(SVC)のための様々なスケーラブルな次元を示す概念図。 [0022] SVCコーディング構造の一例を示す概念図。 [0023] 例示的なアクセスユニット(AU)を示す概念図。 [0024] 高効率ビデオコーディング(HEVC)規格による例示的なタイルを示す概念図。 [0025] 波面並列処理(WPP:wavefront parallel processing)に対する波面を示す概念図。 [0026] 配列された参照レイヤ領域を有しないエンハンスメントレイヤ領域を示す概念図。 [0027] 配列された参照レイヤ領域を有しないエンハンスメントレイヤ領域を示す別の概念図。 [0028] マルチレイヤビデオコーディングにおいてオフセット遅延情報を決定するための例示的なプロセスを示す流れ図。 マルチレイヤビデオコーディングにおいてオフセット遅延情報を決定するための例示的なプロセスを示す流れ図。 [0029] マルチレイヤビデオコーディングにおいてビデオデータの配列されたブロックを決定するための例示的なプロセスを示す流れ図。 [0030] マルチレイヤビデオコーディングにおいてタイル整列情報を決定するための例示的なプロセスを示す流れ図。
[0031] 本開示の態様は、ビデオコーディングにおけるクロスレイヤ並列処理およびオフセット遅延パラメータと関連した様々な技法に関し得る。いくつかの事例では、技法は、HEVCに対するマルチビュービデオコーディング拡張(MV−HEVC)またはHEVCに対するスケーラブルビデオコーディング(SVC)拡張(SHVC)などの、高効率ビデオコーディング(HEVC)規格に対するマルチレイヤ拡張とともに実行され得る。技法はまた、HEVCに対する他の拡張、他のスケーラブルコーディング規格、他のマルチビューコーディング規格(深度コンポーネントを伴う、または伴わない)および/または他のマルチレイヤビデオコーデックとともに使用され得る。本開示の技法がいかなる特定のビデオコーディング規格にも限定されないことを理解されたい。加えて、本開示の技法のいずれかが、独立にまたは組み合わせて適用され得ることを理解されたい。
[0032] 以下でより詳細に説明するように、本開示の態様は、クロスレイヤ並列処理のオフセット遅延パラメータのシグナリングに関する改善を含み得る。「オフセット遅延(offset delay)」は、一般に、複数のレイヤを並列に処理(たとえば、符号化または復号)することと関連した遅延を指す場合がある。たとえば、ビデオデコーダは、マルチレイヤビットストリームの2つ以上のレイヤを並列に復号し得る(すなわち、ビデオデコーダは、マルチレイヤビットストリームの複数のレイヤを同時にまたは同期的に復号し得る)。しかしながら、現在のレイヤを復号するためにレイヤ間予測技法を使用するとき、ビデオデコーダは、現在のレイヤと異なる参照レイヤ(reference layer)の参照データにアクセスすることがある。現在のレイヤを復号するためのレイヤ間の参照として使用されるために、参照データが利用可能で(たとえば、復号され)なければならない。したがって、一般に、ビデオデコーダは、参照レイヤのうちの1つまたは複数を参照するレイヤを復号する前に、マルチレイヤ復号方式におけるすべての参照レイヤの復号を確定する。
[0033] いくつかの事例では、並列性は、オフセット遅延情報と呼ばれる情報を実装することによって増大させることができる。すなわち、参照レイヤ全体が確定(たとえば、復号)されるのを待つのではなく、ビデオデコーダは、参照レイヤのうちの少なくともいくつかが復号されるまで、現在のレイヤの復号の開始を遅延させればよい。オフセット遅延は、一般に、ビデオデコーダが現在のレイヤの復号を開始する前に復号されるべき参照レイヤの最低限の量を示し得る。オフセット遅延を実装することは、参照レイヤおよび現在のレイヤの少なくとも部分が並列に復号されることを依然として可能にしながら、レイヤ間参照データが参照として使用されるために、確実に利用可能にさせる助けとなり得る。たとえば、並列デコーダは、規定された参照レイヤのオフセット遅延が達成されるとすぐに、エンハンスメントレイヤの復号を開始し得る。上記の例はビデオ復号(並列デコーダによって実行されるような)に関して説明されるが、類似の技法が並列な符号化の間にビデオエンコーダによって適用され得ることを理解されたい。
[0034] 一般的な意味では、テクスチャビューコンポーネント、深度ビューコンポーネント、ならびに様々な時間レイヤ、空間レイヤ、および品質レイヤは、本開示に関していくらか互換性があるものとして考えられ得る。たとえば、いくつかの事例では、コーディングされているマルチレイヤビットストリームが、テクスチャビューコンポーネント、深度ビューコンポーネント、または典型的にはスケーラブルビデオコーディングと関連したスケーラブルコンポーネント(たとえば、時間レイヤ、空間レイヤおよび/または品質レイヤ)を含むかどうかにかかわらず、ビデオコーダは、類似または同一のレイヤ間ビデオコーディング技法を実行し得る。したがって、本開示の技法は、一般的な意味で「レイヤ」に適用可能であると考えられ得、その場合、レイヤは、テクスチャビューコンポーネント、深度ビューコンポーネント、時間スケーラブルレイヤ、空間スケーラブルレイヤ、または品質スケーラブルレイヤのいずれかであり得る。すなわち、本明細書で説明される技法は、上述された用語として一般的な「レイヤ」に広く適用可能であることを理解されたい。
[0035] オフセット遅延のシグナリングのための1つの方式が、Skupinらへの文書「Inter−Layer Delay Indication in VUI」,JCTVC−M0463,Incheon,KR,2013年4月18〜26日(以後、JCTVC−M0463)の中で提案された。方式は、各レイヤについて最低限必要とされる復号遅延を伝達するシーケンスパラメータセット(SPS: sequence parameter set)のビデオユーザビリティ情報(VUI: video usability information)の中でオフセット遅延シンタックス要素(offset delay syntax element)をシグナリングすることによって、レイヤにわたって並列に復号する際の助けとなるように設計された。この方式のもとで、オフセット遅延によって規定された参照レイヤの中の領域が復号されるとすぐに、特定のレイヤの復号は開始することができる。
[0036] しかしながら、JCTVC−M0463に開示された方式は、いくつかの欠点を有することがある。たとえば、SPSは、異なる識別値(たとえば、nuh_layer_idシンタックス要素によって示されるような)を有する複数のレイヤに関連付けられ得る。シンタックス要素num_ilp_restricted_ref_layersの提案されたセマンティック(JCTVC−M0463で導入された)は、SPSを参照する各レイヤについて、そのシンタックス要素の値がNumDirectRefLayersパラメータに等しくなるように制限する(ここで、NumDirectRefLayersパラメータは特定の直接参照レイヤを示す)。直接参照レイヤは、予測のために別のレイヤによって直接参照される。たとえば、参照としてレイヤBを使用する現在のレイヤAを仮定すると、参照レイヤBは直接参照レイヤと呼ばれてよい。参照としてレイヤCを使用するレイヤAを仮定し、レイヤCがレイヤBを参照する場合、レイヤBは間接参照レイヤと呼ばれてよい。
[0037] いずれの場合も、異なる値のNumDirectRefLayersパラメータを有する(所与のSPSを参照する)レイヤ(すなわち、シンタックス要素num_ilp_restricted_ref_layersのそれぞれの値が互いの間で異なるレイヤ)、またはわずかに異なるオフセット値を有し得る(所与のSPSを参照する)レイヤについて、シンタックス要素の提案されたシンタックス構造num_ilp_restricted_ref_layersは、SPS内の情報をこれらのレイヤ間で共有することを厳しく制限する。言い換えれば、別個のSPSは、異なる値のNumDirectRefLayersパラメータを所有するような各レイヤ、または所与のSPSを参照する他のレイヤに対してわずかに異なるオフセット値を有し得るような各レイヤのいずれかについて、シグナリングされる必要がある場合がある。したがって、オフセット遅延情報をSPSの中でシグナリングすることは、理想的でない場合がある。
[0038] 加えて、SPSの中のビデオパラメータセット(VPS)のパーシング依存性を回避するために、num_ilp_restricted_ref_layers(レイヤ間予測制約を有する特定の参照レイヤを示す)は、num_ilp_restricted_ref_layersの値がNumDirectRefLayers[nuh_layer_id]に等しくなければならないという制約を伴ってSPSの中でシグナリングされ、ここで、nuh_layer_idは、SPSを参照する任意のピクチャのnuh_layer_idである。言い換えれば、いくつかの参照レイヤは、異なるレイヤが場合によってはオフセット遅延に影響を及ぼし得る異なる特性を有するにもかかわらず、SPSの中に含まれる同じオフセット遅延情報を共有することを強制されることがある。
[0039] 本開示の態様によれば、オフセット遅延情報は、2つ以上のレイヤによって参照され得るビデオパラメータセット(VPS)の中に含まれ得る。VPSは、サブレイヤ間の依存性を含む、コーディングされたビデオシーケンスの全特性を記述するデータを含み得る。VPSの1つの目的は、システムレイヤにおけるシグナリングに関して、特定の規格の互換性のある拡張性を可能にすることであり得る。VPSは、通常、復号されるべきビットストリームのためのマルチレイヤビットストリームの中に含まれなければならない。
[0040] オフセット遅延情報をVPSの中に含めることによって、オフセット遅延情報は、各参照レイヤについて別個に規定され得る。そのようなシグナリングは、異なる特性を有する参照レイヤが同じオフセット遅延情報を共有することを強制されないので、効率を増大させ得る。加えて、オフセット遅延情報をVPSの中に含めることによって、シンタックス要素num_ilp_restricted_ref_layersの値は、復号の間に(以下でより詳細に説明するように)推測され得る(すなわち、明示的なシグナリングなしにデコーダによって決定され得る)。したがって、制約を有する参照レイヤの数のシグナリング(たとえば、上述したnum_ilp_restricted_ref_layersシンタックス要素)が、回避され得る。
[0041] 本開示の技法はまた、拡張された空間スケーラビリティマルチレイヤビデオコーディングを使用するときにビデオデータの配列されたブロックのロケーションを決定すること、および配列されたブロックと関連したオフセット遅延を決定することに、適用可能であり得る。以下でより詳細に説明するように、得られたサブストリームが、ターゲットにするデコーダによって復号可能な別の有効なビットストリームを形成する方法で、ストリームの部分が除去され得る場合、ビデオビットストリームは「スケーラブル(scalable)」であると呼ばれることがある。空間スケーラビリティに関して、ビットストリームのサブセットは、異なるピクチャサイズ(空間解像度)を有するソースコンテンツを表す。各空間レイヤでは、ビデオコーダは、動き補償された予測とイントラ予測とを、シングルレイヤコーディングのためのものと同じ方式で実施し得る。ただし、異なる空間解像度を同時放送することと比較してコーディング効率を改善するために、ビデオコーダは、レイヤ間予測のメカニズムを組み込み得る。空間スケーラブルビデオコーディングの最もフレキシブルなタイプは、連続したレイヤ間の2つの部分から成る関係(たとえば、2:1の解像度比)に厳密に忠実であるとは限らず、拡張された空間スケーラビリティ(ESS:Extended Spatial Scalability)と呼ばれることがある。H.264/AVCのSVC拡張とHEVCのSVC拡張の両方に対して、SVCに関するいくつかの詳細が、図4〜図9に関して以下で説明される。
[0042] 拡張された空間スケーラビリティは、いくつかの事例では、オフセット遅延を決定するときに課題を与えることがある。たとえば、ビデオコーダが、拡張された空間スケーラビリティを使用するとき、現在復号されているレイヤの空間セグメントA(たとえば、スライス(slice)、タイル(tile)、コーディングツリーユニット(CTU:coding tree unit)またはCTU行)が、参照レイヤの中に存在する配列された空間セグメントB(たとえば、参照として使用するために利用可能な)を有し得ないことが起こり得る。オフセット遅延は配列された空間セグメントに基づいて決定され得るので、配列された空間セグメントが存在しない空間セグメントについてのオフセット遅延をどのようにして導出するかは明らかでない。
[0043] 本開示の技法は、ビデオデータの配列されたブロック(たとえば、CTU)のロケーションを決定するために実施され得る。たとえば、本開示の態様は、ビデオデータの参照ピクチャと関連した参照サンプルのロケーションを、1つまたは複数のスケーリングされたオフセット値に基づいて決定することを含む。スケーリングされたオフセット値は、ベースレイヤとスケーリングされたエンハンスメントレイヤとの間のスケールの差分(たとえば、スケーリングすることに起因するロケーションの差分)を表し得る。参照サンプルのロケーションを決定した後、ビデオコーダ(たとえば、ビデオエンコーダまたはビデオデコーダ)は、配列された参照ブロック(collocated reference block)(たとえば、コロケートCTU)のロケーションを、参照サンプルのロケーションに基づいて決定し得る。
[0044] 一例として、ベースレイヤは、アップスケールされたエンハンスメントレイヤ(たとえば、ベースレイヤよりも空間解像度が相対的に高いレイヤ)のための参照として使用され得る。エンハンスメントレイヤピクチャとベースレイヤピクチャとの間のサイズの差分のために、エンハンスメントレイヤピクチャの中で現在コーディングされているブロックは、ベースレイヤ参照ピクチャの境界の外側にある配列された参照ブロックに位置することがある。そのような配列されたブロックは、エンハンスメントレイヤピクチャによる参照にとって利用可能でない。いくつかの例では、本開示の態様によれば、ベースレイヤの中に配列される参照ブロックのロケーションを決定する前に、ビデオコーダは、ベースレイヤの中の参照ピクチャ(すなわち、ベースレイヤ参照ピクチャ)の境界内に配置されるべき参照サンプルのロケーションを調整し得る。
[0045] したがって、本開示の態様によれば、参照レイヤの中に配列されたブロック(たとえば、配列されたCTU(collocated CTU))が、現在コーディングされているレイヤの中の特定のブロックにとって存在しない場合、調整されたアドレスが参照レイヤの中に存在するブロックに対応するように、配列されたブロックのアドレスは、対応する参照レイヤ境界内に入るように調整され得る。上述されたオフェスト遅延(offest delay)などの、現在のレイヤの中のCTUのためのレイヤ間予測制約は、次いで、境界CTUとともに参照として適用される。
[0046] 本開示の態様はまた、レイヤ間でのタイルの整列を示すための技法を含み得る。たとえば、タイルは、ピクチャのパーティションを含み得、並列コーディングのために使用され得る。HEVC規格に記載されるように、タイルは、ピクチャの中の特定のタイル列内および特定のタイル行内の、矩形領域のコーディングツリーブロック(以下に記載されるような、CTB)として定義され得る。タイル列は、ピクチャの高さに等しい高さと、ピクチャパラメータセット(PPS:picture parameter set)の中のシンタックス要素によって規定される幅とを有する矩形領域のCTBとして定義され得る。加えて、タイル行は、PPSピクチャパラメータセットの中のシンタックス要素によって規定される高さと、ピクチャの幅に等しい幅を有する矩形領域のCTBとして定義され得る。タイル境界は、スライス境界と同様に、タイルが単独で処理され得るようにパースおよび予測の依存性を分断するが、ループ内フィルタ(デブロッキングおよびサンプル適応オフセット(SAO:sample adaptive offset))は依然としてタイル境界を横切ることができる(すなわち、複数のタイルに適用され得る)。タイルベースの構造を実装することは、並列処理を可能にし得、スライスの使用と比較してCTUの復号順序を変えさせることによってコーディング効率を改善し得る。
[0047] タイルの数およびタイルの境界のロケーションは、全体のシーケンスに対して定義されてもよく、またはピクチャごとに変更されてもよい。タイル境界がレイヤ間で整列されているかどうか(レイヤ間予測に影響を及ぼし得る)を示すための1つの方式が、Suhringらへの文書「Tile Boundary Alignment and Inter−Layer Prediction Constraints for SHVC and MV−HEVC」,JCTVC−M0464,Incheon,KR,2013年4月18〜26日(以後、JCTVC−M0464)の中で提案された。その方式は、タイル境界が整列されているかどうかの指示を、(たとえば、tile_boundaries_aligned_flagシンタックス要素を用いて)VUIの中で各レイヤについてシグナリングすることを含んでいた。しかしながら、タイル境界の整列がレイヤ固有でないので、タイル境界が整列されているかどうかを、各レイヤについてVUIの中でシグナリングすることは非効率であり得る。したがって、そのような情報をVUIの中でシグナリングすることは、不必要な複雑さを加えることがある。
[0048] 本開示の態様によれば、タイル境界が整列されているかどうかの指示は、VPSの中で提供され得る。たとえば、タイルがマルチレイヤビットストリームのレイヤ間で整列されているかどうかを示す1つまたは複数のシンタックス要素が、VPSの中に含まれ得る。このようにして、VPSの中でシグナリングされるような、タイル境界の整列された情報は、マルチレイヤビットストリームのレイヤのためのクロスレイヤの範囲を有する。
[0049] 図1は、ビデオデータを並列に処理するための技法を利用し得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、宛先デバイス14によって後で復号されるべき符号化ビデオデータを与えるソースデバイス12を含む。特に、ソースデバイス12は、コンピュータ可読媒体16を介してビデオデータを宛先デバイス14に与える。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備え得る。場合によっては、ソースデバイス12および宛先デバイス14は、ワイヤレス通信のために装備され得る。
[0050] 宛先デバイス14は、コンピュータ可読媒体16を介して復号されるべき符号化ビデオデータを受信し得る。コンピュータ可読媒体16は、符号化されたビデオデータをソースデバイス12から宛先デバイス14に移動することが可能な任意のタイプの媒体またはデバイスを備え得る。一例では、コンピュータ可読媒体16は、ソースデバイス12が、符号化されたビデオデータをリアルタイムで宛先デバイス14に直接送信することを可能にするための通信媒体を備え得る。符号化されたビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、高周波(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたは有線通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、ソースデバイス12から宛先デバイス14への通信を可能にするために有用であり得るルータ、スイッチ、基地局、または任意の他の機器を含み得る。
[0051] いくつかの例では、符号化されたデータは、出力インターフェース22からストレージデバイスに出力され得る。同様に、符号化されたデータは、入力インターフェースによってストレージデバイスからアクセスされ得る。ストレージデバイスは、ハードドライブ、Blu−ray(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、揮発性または不揮発性のメモリ、あるいは符号化されたビデオデータを記憶するための任意の他の好適なデジタル記憶媒体のような、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。さらなる一例では、ストレージデバイスは、ソースデバイス12によって生成された符号化されたビデオを記憶し得る、ファイルサーバまたは別の中間ストレージデバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介して、ストレージデバイスから記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化されたビデオデータを記憶し、その符号化されたビデオデータを宛先デバイス14に送信することができる任意のタイプのサーバであり得る。例示的なファイルサーバとしては、(たとえば、ウェブサイト用の)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)デバイス、またはローカルディスクドライブがある。宛先デバイス14は、インターネット接続を含むいずれかの標準データ接続を通して符号化ビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化されたビデオデータにアクセスするのに適しているワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、または両方の組合せを含むことができる。ストレージデバイスからの符号化されたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組合せであり得る。
[0052] 本開示の技法は、必ずしもワイヤレス適用例または設定に限定されるとは限らない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、dynamic adaptive streaming over HTTP(DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、または他の用途のような、種々のマルチメディア用途のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの用途をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0053] 図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。本開示によれば、ソースデバイス12のビデオエンコーダ20は、ビデオデータを並列に処理するための技法を適用するように構成され得る。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または構成を含み得る。たとえば、ソースデバイス12は、外部カメラなどの外部ビデオソース18からビデオデータを受信し得る。同様に、宛先デバイス14は、一体型ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースをとり得る。
[0054] 図1の図示のシステム10は一例にすぎない。ビデオデータを並列に処理するための技法は、任意のデジタルビデオ符号化および/または復号デバイスによって実行され得る。概して、本開示の技法はビデオ符号化デバイスによって実行されるが、本技法は、一般に「コーデック」と呼ばれるビデオエンコーダ/デコーダによっても実行され得る。その上、本開示の技法は、ビデオプリプロセッサによっても実行され得る。ソースデバイス12および宛先デバイス14は、ソースデバイス12が、宛先デバイス14に送信するためのコーディングされたビデオデータを生成するような、コーディングデバイスの例にすぎない。いくつかの例では、デバイス12、14の各々がビデオ符号化コンポーネントとビデオ復号コンポーネントとを含むように、デバイス12、14は、実質的に対称的な方式で動作することができる。したがって、システム10は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、またはビデオテレフォニーのためのビデオデバイス12とビデオデバイス14の間の一方向または双方向のビデオ送信をサポートし得る。
[0055] ソースデバイス12のビデオソース18は、ビデオカメラなどのビデオキャプチャデバイス、以前にキャプチャされたビデオを含んでいるビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースを含み得る。さらなる代替として、ビデオソース18は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブされたビデオとコンピュータにより生成されたビデオとの組合せを生成し得る。場合によっては、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラフォンまたはビデオフォンを形成し得る。しかしながら、上で言及されたように、本開示で説明される技法は、一般にビデオコーディングに適用可能であり、ワイヤレスおよび/または有線の用途に適用され得る。各々の場合において、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータにより生成されたビデオは、ビデオエンコーダ20によって符号化され得る。次いで、符号化されたビデオ情報は、出力インターフェース22によってコンピュータ可読媒体16に出力され得る。
[0056] コンピュータ可読媒体16は、ワイヤレスブロードキャストもしくはワイヤードネットワーク送信などの一時媒体、または、ハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、Blu−rayディスク、もしくは他のコンピュータ可読媒体などの記憶媒体(すなわち、非一時的記憶媒体)を含み得る。いくつかの例では、ネットワークサーバ(図示せず)は、たとえば、ネットワーク送信を介して、ソースデバイス12から符号化されたビデオデータを受信し、宛先デバイス14に符号化されたビデオデータを与え得る。同様に、ディスクスタンピング設備など、媒体製造設備のコンピューティングデバイスは、ソースデバイス12から符号化されたビデオデータを受信し、その符号化されたビデオデータを含んでいるディスクを生成し得る。したがって、コンピュータ可読媒体16は、様々な例において、様々な形態の1つまたは複数のコンピュータ可読媒体を含むことが理解されよう。
[0057] 宛先デバイス14の入力インターフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義され、またビデオデコーダ30によって使用される、ブロックおよび他のコーディングされたユニット、たとえば、GOPの特性および/または処理を記述するシンタックス要素を含む、シンタックス情報を含み得る。ディスプレイデバイス32は、復号されたビデオデータをユーザに対して表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスのような、様々なディスプレイデバイスのいずれかを備え得る。
[0058] ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せなどの様々な適切なエンコーダ回路のいずれかとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェアの命令を記憶し、本開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェアでその命令を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれてよく、そのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合されてよい。ビデオエンコーダ20および/またはビデオデコーダ30を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話などのワイヤレス通信デバイスを備え得る。
[0059] 本開示では、概して、ビデオエンコーダ20が、ある種の情報をビデオデコーダ30などの別のデバイスに「シグナリング」することに言及することがある。しかしながら、ビデオエンコーダ20は、いくつかのシンタックス要素をビデオデータの符号化される様々な部分に関連付けることによって、情報をシグナリングできることを理解されたい。すなわち、ビデオエンコーダ20は、ビデオデータの符号化される様々な部分のヘッダにいくつかのシンタックス要素を格納することによって、データを「シグナリング」することができる。場合によっては、そのようなシンタックス要素は、ビデオデコーダ30によって受信および復号される前に、符号化および格納され得る。したがって、「シグナリング」という用語は全般に、そのような通信がリアルタイムで発生するか、ほぼリアルタイムで発生するか、それともある期間にわたって発生するかにかかわらず、圧縮されたビデオデータを復号するためのシンタックスまたは他のデータの通信を指すことがあり、ある期間にわたる通信は、シンタックス要素を符号化の時点で媒体に記憶し、次いで、シンタックス要素がこの媒体に記憶された後の任意の時点で復号デバイスによって取り出され得るときに発生し得る。
[0060] いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、それのスケーラブルビデオコーディング(SVC)拡張、マルチビュービデオコーディング(MVC)拡張、およびMVCベースの3次元ビデオ(3DV)拡張を含む、ISO/IEC MPEG−4 Visualおよび(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264などのビデオ圧縮規格に従って動作する。SVCとMVCとのジョイントドラフトは、「Advanced video coding for generic audiovisual services」、ITU−T勧告H.264、2010年3月に記載されている。
[0061] 加えて、高効率ビデオコーディング(HEVC)規格は、ITU−T Video Coding Experts Group(VCEG)およびISO/IEC Motion Picture Experts Group(MPEG)のJoint Collaboration Team on Video Coding(JCT−VC)によって開発された。簡単のため本明細書でHEVC WD10として参照される最近のHEVCテキスト仕様ドラフトは、http://phenix.int−evry.fr/jct/doc_end_user/documents/13_Incheon/wg11/JCTVC−M0432−v3.zipから入手可能である。MV−HEVCと呼ばれるHEVCに対するマルチビュー拡張が、JCT−3Vによって開発されている。以下でのMV−HEVC WD4の最近のワーキングドラフト(WD)は、http://phenix.int−evry.fr/jct2/doc_end_user/documents/4_Incheon/wg11/JCT3V−D1004−v2.zipから入手可能である。一方、HEVCに基づく、より進歩した3Dビデオコーディング(3D−HEVC)およびスケーラブルビデオコーディングのための2つの規格トラックも開発中である。3D−HEVCの最近のテストモデルの説明は、http://phenix.it−sudparis.eu/jct2/doc_end_user/documents/3_Geneva/wg11/JCT3V−D1005−v2.zipから入手可能である。SHVCの最近のテストモデルの説明は、http://phenix.int−evry.fr/jct/doc_end_user/documents/12_Geneva/wg11/JCTVC−M1007−v3.zipから入手可能である。
[0062] HEVCおよび他のビデオコーディング規格では、ビデオシーケンスは一般に一連のピクチャを含む。ピクチャは「フレーム(frame)」と呼ばれることもある。ピクチャは、SL、SCb、およびSCrと表示される3つのサンプルアレイを含み得る。SLは、ルーマサンプル(luma sample)の2次元アレイ(すなわち、ブロック)である。SCbは、Cbクロミナンスサンプルの2次元アレイである。SCrは、Crクロミナンスサンプルの2次元アレイである。クロミナンスサンプルは、本明細書では「クロマ(chroma)」サンプルと呼ばれることもある。他の事例では、ピクチャは、モノクロームであってよく、ルーマサンプルのアレイのみを含み得る。
[0063] ビデオエンコーダ20は、別個のルーマ成分およびクロマ成分のコーディングツリーブロック(CTB)を有し得るコーディングツリーユニット(CTU)のセットを生成し得る。たとえば、CTUの各々は、ルーマサンプルのCTBと、クロマサンプルの2つの対応するCTBと、それらのCTBのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。3つの別個のカラープレーンを有するモノクロームピクチャまたはピクチャでは、CTUは、単一のCTBと、そのCTBのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。CTBは、N×Nブロックのサンプルであり得る。CTUは、「ツリーブロック」または「最大コーディングユニット」(LCU:largest coding unit)と呼ばれることもある。HEVCのCTUは、H.264/AVCなどの他のビデオコーディング規格のマクロブロックに広い意味で類似し得る。しかしながら、CTUは、必ずしも特定のサイズに限定されるとは限らず、1つまたは複数のコーディングユニット(CU:coding unit)を含み得る。スライスは、ラスタ走査において連続的に順序付けられた整数個のCTUを含み得る。
[0064] 本開示は、サンプルおよびサンプルの1つまたは複数のブロックのサンプルをコーディングするために使用されるシンタックス構造の1つまたは複数のブロックを指すために、「ビデオユニット」または「ビデオブロック」という用語を使用することがある。例示的なタイプのビデオユニットは、CTUと、CTBと、CUと、PUと、変換ユニット(TU)と、マクロブロックと、マクロブロックパーティションと、ピクチャの他の類似のパーティションとを含み得る。
[0065] コーディングされたCTUを生成するために、ビデオエンコーダ20は、CTBをコーディングブロックに分割するように、CTUのCTBに対して4分木区分を再帰的に実行することができ、したがって「コーディングツリーユニット」という名称がある。コーディングブロックは、N×Nブロックのサンプルである。CUは、ルーマサンプルアレイとCbサンプルアレイとCrサンプルアレイとを有するピクチャの、ルーマサンプルのコーディングブロックと、クロマサンプルの2つの対応するコーディングブロックと、それらのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。3つの別個のカラープレーンを有するモノクロームピクチャまたはピクチャでは、CUは、単一のコーディングブロックと、そのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。
[0066] ビデオエンコーダ20は、CUのコーディングブロックを1つまたは複数の予測ブロックに区分し得る。予測ブロックは、同じ予測が適用されるサンプルの矩形(すなわち、正方形または非正方形)ブロックであり得る。CUの予測ユニット(PU)は、ルーマサンプルの予測ブロックと、ピクチャのクロマサンプルの2つの対応する予測ブロックと、予測ブロックサンプルを予測するために使用されるシンタックス構造とを備え得る。3つの別個のカラープレーンを有するモノクロームピクチャまたはピクチャでは、PUは、単一の予測ブロックと、その予測ブロックサンプルを予測するために使用されるシンタックス構造とを備え得る。ビデオエンコーダ20は、CUの各PUのルーマ予測ブロック、Cb予測ブロック、およびCr予測ブロックのための、予測ルーマブロックと、予測Cbブロックと、予測Crブロックとを生成し得る。
[0067] ビデオエンコーダ20は、PUのための予測ブロックを生成するために、イントラ予測またはインター予測を使用することができる。ビデオエンコーダ20がPUの予測ブロックを生成するためにイントラ予測を使用する場合、ビデオエンコーダ20は、PUに関連付けられたピクチャの復号されたサンプルに基づいて、PUの予測ブロックを生成することができる。
[0068] ビデオエンコーダ20がPUの予測ブロックを生成するためにインター予測を使用する場合、ビデオエンコーダ20は、PUに関連付けられたピクチャ以外の1つまたは複数のピクチャの復号されたサンプルに基づいて、PUの予測ブロックを生成することができる。インター予測は、単方向インター予測(すなわち、単予測)または双方向インター予測(すなわち、双予測)であり得る。単予測または双予測を実行するために、ビデオエンコーダ20は、現在のスライスに対して、第1の参照ピクチャリスト(RefPicList0)と第2の参照ピクチャリスト(RefPicList1)とを生成し得る。参照ピクチャリストの各々は、1つまたは複数の参照ピクチャを含み得る。単予測を使用するとき、ビデオエンコーダ20は、参照ピクチャ内の参照ロケーションを決定するために、RefPicList0とRefPicList1のいずれかまたは両方の中の参照ピクチャを探索し得る。さらに、単予測を使用するとき、ビデオエンコーダ20は、参照ロケーションに対応するサンプルに少なくとも部分的に基づいて、PUのための予測サンプルブロックを生成し得る。さらに、単予測を使用するとき、ビデオエンコーダ20は、PUの予測ブロックと参照ロケーションとの間の空間変位を示す単一の動きベクトルを生成し得る。PUの予測ブロックと参照ロケーションとの間の空間変位を示すために、動きベクトルは、PUの予測ブロックと参照ロケーションとの間の水平変位を規定する水平成分を含み得、PUの予測ブロックと参照ロケーションとの間の垂直変位を規定する垂直成分を含み得る。
[0069] PUを符号化するために双予測を使用するとき、ビデオエンコーダ20は、RefPicList0中の参照ピクチャ中の第1の参照ロケーションと、RefPicList1中の参照ピクチャ中の第2の参照ロケーションとを決定し得る。ビデオエンコーダ20は、次いで、第1および第2の参照ロケーションに対応するサンプルに少なくとも部分的に基づいて、PUのための予測ブロックを生成し得る。さらに、PUを符号化するために双予測を使用するとき、ビデオエンコーダ20は、PUのサンプルブロックと第1の参照ロケーションとの間の空間変位を示す第1の動きと、PUの予測ブロックと第2の参照ロケーションとの間の空間変位を示す第2の動きとを生成し得る。
[0070] ビデオエンコーダ20がCUの1つまたは複数のPUのための、予測ルーマブロックと、予測Cbブロックと、予測Crブロックとを生成した後、ビデオエンコーダ20は、CUのためのルーマ残差ブロックを生成し得る。CUのルーマ残差ブロック中の各サンプルは、CUの予測ルーマブロックのうちの1つの中のルーマサンプルと、CUの元のルーマコーディングブロック中の対応するサンプルとの間の差分を示す。さらに、ビデオエンコーダ20は、CUのためのCb残差ブロックを生成し得る。CUのCb残差ブロック中の各サンプルは、CUの予測Cbブロックのうちの1つの中のCbサンプルと、CUの元のCbコーディングブロック中の対応するサンプルとの間の差分を示し得る。ビデオエンコーダ20はまた、CUのためのCr残差ブロックを生成し得る。CUのCr残差ブロック中の各サンプルは、CUの予測Crブロックのうちの1つの中のCrサンプルと、CUの元のCrコーディングブロック中の対応するサンプルとの間の差分を示し得る。
[0071] さらに、ビデオエンコーダ20は、CUのルーマ残差ブロックと、Cb残差ブロックと、Cr残差ブロックとを、1つまたは複数のルーマ変換ブロック、Cb変換ブロック、およびCr変換ブロックに分解するために、4分木区分を使用し得る。変換ブロックは、同じ変換が適用されるサンプルの矩形ブロックであってもよい。CUの変換ユニット(TU)は、ルーマサンプルの変換ブロックと、クロマサンプルの2つの対応する変換ブロックと、それらの変換ブロックサンプルを変換するために使用されるシンタックス構造とを備え得る。3つの別個のカラープレーンを有するモノクロームピクチャまたはピクチャでは、TUは、単一の変換ブロックと、その変換ブロックサンプルを変換するために使用されるシンタックス構造とを備え得る。したがって、CUの各TUは、ルーマ変換ブロック、Cb変換ブロック、およびCr変換ブロックに関連付けられ得る。TUに関連付けられたルーマ変換ブロックは、CUのルーマ残差ブロックのサブブロックであってもよい。Cb変換ブロックは、CUのCb残差ブロックのサブブロックであってもよい。Cr変換ブロックは、CUのCr残差ブロックのサブブロックであってもよい。
[0072] ビデオエンコーダ20は、TUのためのルーマ係数ブロックを生成するために、TUのルーマ変換ブロックに1回または複数回の変換を適用し得る。係数ブロックは、変換係数の2次元アレイであり得る。変換係数は、スカラー量であってよい。ビデオエンコーダ20は、TUのためのCb係数ブロックを生成するために、TUのCb変換ブロックに1回または複数回の変換を適用し得る。ビデオエンコーダ20は、TUのためのCr係数ブロックを生成するために、TUのCr変換ブロックに1回または複数回の変換を適用し得る。
[0073] 係数ブロック(たとえば、ルーマ係数ブロック、Cb係数ブロックまたはCr係数ブロック)を生成した後、ビデオエンコーダ20は、係数ブロックを量子化し得る。量子化は、一般に、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を実現するプロセスを指す。さらに、ビデオエンコーダ20は、ピクチャのCUのTUの変換ブロックを再構成(reconstruct)するために、変換係数を逆量子化し変換係数に逆変換(inverse transform)を適用し得る。ビデオエンコーダ20は、CUのコーディングブロックを再構成するために、CUのTUの再構成された変換ブロックと、CUのPUの予測ブロックとを使用することができる。ピクチャの各CUのコーディングブロックを再構成することによって、ビデオエンコーダ20は、ピクチャを再構成することができる。ビデオエンコーダ20は、復号ピクチャバッファ(DPB)に再構成されたピクチャを記憶し得る。ビデオエンコーダ20は、DPB中の再構成されたピクチャを、インター予測およびイントラ予測のために使用し得る。
[0074] ビデオエンコーダ20が係数ブロックを量子化した後、ビデオエンコーダ20は、量子化変換係数を示すシンタックス要素をエントロピー符号化し得る。たとえば、ビデオエンコーダ20は、量子化変換係数を示すシンタックス要素に対して、コンテキスト適応型バイナリ算術コーディング(CABAC:Context-Adaptive Binary Arithmetic Coding)を実施し得る。ビデオエンコーダ20は、エントロピー符号化シンタックス要素をビットストリーム中に出力し得る。
[0075] ビデオエンコーダ20は、コード化ピクチャおよび関連するデータの表現を形成する一連のビットを含むビットストリームを出力し得る。ビットストリームは、一連のネットワークアブストラクションレイヤ(NAL:network abstraction layer)ユニットを備え得る。NALユニットの各々は、NALユニットヘッダを含み、ローバイトシーケンスペイロード(RBSP:raw byte sequence payload)をカプセル化する。NALユニットヘッダは、NALユニットタイプコードを示すシンタックス要素を含み得る。NALユニットのNALユニットヘッダによって規定されるNALユニットタイプコードは、NALユニットのタイプを示す。RBSPは、NALユニット内にカプセル化された整数個のバイトを含むシンタックス構造であり得る。いくつかの事例では、RBSPは0ビットを含む。
[0076] 異なるタイプのNALユニットは、異なるタイプのRBSPをカプセル化し得る。たとえば、第1のタイプのNALユニットはピクチャパラメータセット(PPS)のためのRBSPをカプセル化し得、第2のタイプのNALユニットはコード化スライスのためのRBSPをカプセル化し得、第3のタイプのNALユニットは補助強化情報(SEI:supplemental enhancement information)のためのRBSPをカプセル化し得、以下同様である。PPSは、0個以上のコード化ピクチャ全体に適用されるシンタックス要素を含み得るシンタックス構造である。ビデオコーディングデータのためのRBSPをカプセル化するNALユニットは(パラメータセットおよびSEIメッセージのためのRBSPとは対照的に)、ビデオコーディングレイヤ(VCL)NALユニットと呼ばれることがある。コード化スライスをカプセル化するNALユニットは、本明細書ではコード化スライスNALユニットと呼ばれることがある。コード化スライスのためのRBSPは、スライスヘッダとスライスデータとを含み得る。
[0077] MV−HEVC、3D−HEVCおよびSHVCでは、ビデオエンコーダ20は、一連のネットワークアブストラクションレイヤ(NAL)ユニットを備えるビットストリームを生成し得る。ビットストリームの異なるNALユニットが、ビットストリームの異なるレイヤに関連付けられ得る。レイヤは、同じレイヤ識別子を有するビデオコーディングレイヤ(VCL)NALユニットおよび関連する非VCL NALユニットのセットとして定義され得る。レイヤは、マルチビュービデオコーディングにおけるビューと等価であり得る。マルチビュービデオコーディングでは、レイヤは、異なる時間インスタンスを伴う同じレイヤのすべてのビューコンポーネントを含むことができる。各ビューコンポーネントは、特定の時間インスタンスにおける特定のビューに属するビデオシーンのコード化ピクチャであり得る。
[0078] ビデオデコーダ30は、ビットストリームを受信し得る。加えて、ビデオデコーダ30は、ビットストリームからシンタックス要素を復号するために、ビットストリームを解析(parse)し得る。ビデオデコーダ30は、ビットストリームから復号されたシンタックス要素に少なくとも部分的に基づいて、ビデオデータのピクチャを再構成し得る。ビデオデータを再構成するための処理は、全般に、ビデオエンコーダ20によって実行される処理の逆であり得る。たとえば、ビデオデコーダ30は、現在のCUのPUのための予測ブロックを決定するために、PUの動きベクトルを使用し得る。ビデオデコーダ30は、PUのための予測ブロックを生成するために、PUの1つまたは複数の動きベクトルを使用し得る。
[0079] さらに、ビデオデコーダ30は、現在のCUのTUに関連付けられた係数ブロックを逆量子化し得る。ビデオデコーダ30は、現在のCUのTUに関連付けられた変換ブロックを再構成するために、係数ブロックに対して逆変換を実行し得る。ビデオデコーダ30は、現在のCUのPUのための予測サンプルブロックのサンプルを現在のCUのTUの変換ブロックの対応するサンプルに加算することによって、現在のCUのコーディングブロックを再構成し得る。ピクチャの各CUのコーディングブロックを再構成することによって、ビデオデコーダ30は、ピクチャを再構成し得る。ビデオデコーダ30は、出力のためにおよび/または他のピクチャを復号する際に使用するために、復号されたピクチャを復号ピクチャバッファに記憶し得る。
[0080] 3Dビデオコーディングでは、レイヤは、特定のビューのすべてのコーディングされた深度ピクチャ、または特定のビューのコーディングされたテクスチャピクチャのいずれかを含み得る。同様に、スケーラブルビデオコーディングのコンテキストにおいて、レイヤは、通常、他のレイヤの中のコード化ピクチャと異なるビデオ特性を有するコード化ピクチャに対応する。そのようなビデオ特性は、通常、空間解像度と品質レベル(信号対雑音比)とを含む。HEVCおよびそれの拡張では、時間スケーラビリティは、特定の時間レベルを伴うピクチャのグループをサブレイヤと定義することによって、1つのレイヤ内で達成され得る。
[0081] ビットストリームのそれぞれの各レイヤについて、低いレイヤの中のデータは、高いレイヤの中のデータと無関係に復号され得る。スケーラブルビデオコーディングでは、たとえば、ベースレイヤの中のデータは、エンハンスメントレイヤの中のデータと無関係に復号され得る。NALユニットは、単一のレイヤのデータをカプセル化するだけである。したがって、ビットストリームの残りの最高レイヤのデータをカプセル化するNALユニットは、ビットストリームの残りのレイヤの中のデータの復号可能性に影響を及ぼすことなくビットストリームから除去され得る。マルチビューコーディングおよび3D−HEVCでは、より高いレイヤは、さらなるビューコンポーネントを含み得る。SHVCでは、より高いレイヤは、信号対雑音比(SNR)エンハンスメントデータ、空間エンハンスメントデータ、および/または時間エンハンスメントデータを含み得る。MV−HEVC、3D−HEVCおよびSHVCでは、ビデオデコーダが、あるビューの中のピクチャをいかなる他のレイヤのデータとも無関係に復号できる場合、そのビューは「ベースレイヤ」と呼ばれ得る。ベースレイヤは、HEVCベース仕様に準拠し得る。
[0082] ビデオエンコーダ20および/またはビデオデコーダ30は、本開示の技法の任意の組合せを実行するように構成され得る。たとえば、上述のように、本開示の態様は、クロスレイヤ並列処理のオフセット遅延パラメータのシグナリングに関する改善を含む。「オフセット遅延(offset delay)」は、一般に、複数のレイヤを並列に復号することと関連した遅延を指す場合がある。たとえば、参照レイヤ全体が復号されるのを待つのではなく、ビデオデコーダ30は、参照レイヤのうちの少なくともいくつかが復号されるまで、現在のレイヤの復号を遅延させればよい。オフセット遅延は、一般に、ビデオデコーダが現在のレイヤの復号を開始する前に復号される参照レイヤの最低限の量を示し得る。
[0083] 本開示の態様によれば、オフセット遅延を示すデータは、VPSの中に含まれ得る。たとえば、ビデオエンコーダ20は、オフセット遅延情報を示すデータ(たとえば、1つまたは複数のシンタックス要素)をVPSの中で符号化し得る。同様に、ビデオデコーダ30は、符号化されたビットストリームから、オフセット遅延情報を示すデータを復号し得る。オフセット遅延情報は、2つ以上のレイヤによって参照され得る。たとえば、本開示の態様によれば、ビデオエンコーダ20および/またはビデオデコーダ30は、以下の表1に従ってオフセット遅延情報をシグナリング/復号し得る。
Figure 2016530774
[0084] 上の表1において、0に等しいシンタックス要素ilp_restricted_ref_layers_flagは、VPSを参照するいかなるレイヤの直接参照レイヤのいずれについても、レイヤ間予測に対する制約がシグナリングされていないことを示す。しかしながら、1に等しいシンタックス要素ilp_restricted_ref_layers_flagは、レイヤ間予測に対する制約が、VPSを参照する1つまたは複数のレイヤの直接参照レイヤのいずれかにとって適用され得ることを規定する。
[0085] 別の例では、上の表1において、0に等しいシンタックス要素ilp_restricted_ref_layers_flagは、レイヤ間予測に対する制約が適用されてもされなくてもよいことを示し得る。この例では、しかしながら、1に等しいシンタックス要素ilp_restricted_ref_layers_flagは、VPSを参照する任意のレイヤの直接参照レイヤのいずれかについて、レイヤ間予測に対する制約がシグナリングされていることを示し得る。
[0086] 加えて、シンタックス要素min_spatial_segment_offset_plus1、ctu_based_offset_enabled_flag、およびmin_horizontal_ctu_offset_plus1は、JCTVC−M0463に記載されるものと類似であり得るが、SPSからVPSへ移動され得る。たとえば、min_spatial_segment_offset_plus1[i][j]は、それ自体によって、または以下で規定されるmin_horizontal_ctu_offset_plus1[i][j]と一緒に、j番目の直接参照レイヤの各ピクチャの中の、レイヤインデックスiを有しVPSを参照するピクチャの復号のためのレイヤ間予測について使用されない空間エリアを示し得る。min_spatial_segment_offset_plus1[i][j]の値は、両端値を含む0〜refPicWidthInCtbsY[j]*refPicHeightInCtbsY[j]の範囲の中になければならない。存在しないとき、min_spatial_segment_offset_plus1[i][j]の値は0に等しいと推測され得る。いくつかの例では、最低限の空間セグメントは、CTU、スライス、またはタイルなどの様々な単位のビデオデータに関連付けられ得る。
[0087] 加えて、1に等しいシンタックス要素ctu_based_offset_enabled_flag[i][j]は、CTUを単位として、j番目の直接参照レイヤの各ピクチャの中の、レイヤインデックスiを有しVPSを参照するピクチャの復号のためのレイヤ間予測について使用されない空間エリアが、min_spatial_segment_offset_plus1[i][j]およびmin_horizontal_ctu_offset_plus1[i][j]によって一緒に示されることを規定する。しかしながら、0に等しいシンタックス要素ctu_based_offset_enabled_flag[i][j]は、スライスセグメント、タイル、またはCTU行を単位として、j番目の直接参照レイヤの各ピクチャの中の、SPSを参照するピクチャの復号のためのレイヤ間予測について使用されない空間エリアが、min_spatial_segment_offset_plus1[i][j]のみによって示されることを規定する。存在しないとき、ctu_based_offset_enabled_flag[i][j]の値は0に等しいと推測される。
[0088] 加えて、シンタックス要素min_horizontal_ctu_offset_plus1[i][j]は、シンタックス要素ctu_based_offset_enabled_flag[i][j]が1に等しいとき、j番目の直接参照レイヤの各ピクチャの中の、レイヤインデックスiを有しVPSを参照するピクチャの復号のためのレイヤ間予測について使用されない空間エリアを、以下で規定されるようにmin_spatial_segment_offset_plus1[i][j]と一緒に示す。min_horizontal_ctu_offset_plus1[i][j]の値は、両端値を含む0〜refPicWidthInCtbsY[j]の範囲の中になければならない。
[0089] したがって、上記の例では、ビデオエンコーダ20および/またはビデオデコーダ30は、マルチレイヤビットストリームのいずれかのレイヤがレイヤ間予測制約を有するかどうかを示すデータをコーディングすることができ、そのデータは、VPSの中に含まれ得る。たとえば、ビデオエンコーダ20は、現在符号化されているレイヤのための少なくとも1つの参照レイヤが、関連付けられたオフセット遅延を有することを示すための、ilp_restricted_ref_layers_flagシンタックス要素を符号化し得る。同様に、ビデオデコーダ30は、ilp_restricted_ref_layers_flagシンタックス要素をVPSから復号し得る。この例では、ビデオデコーダ30は、現在コーディングされているレイヤのための1つまたは複数の参照レイヤが、関連付けられたオフセット遅延を有するかどうかを決定し得る。そのような遅延が示される場合、ビデオデコーダ30は、オフセット遅延情報と一致する量のデータが1つまたは複数の参照レイヤから復号されるまで、現在のレイヤを復号することを待ってもよい。
[0090] 別の例では、ビデオエンコーダ20および/またはビデオデコーダ30は、補助強化情報(SEI)メッセージの中のオフセット遅延パラメータを示すデータ(たとえば、1つまたは複数のシンタックス要素)をコーディングし得る。たとえば、本開示の態様によれば、ビデオエンコーダ20および/またはビデオデコーダ30は、以下の表2に従ってオフセット遅延情報をシグナリング/復号し得る。
Figure 2016530774
[0091] 表2の例では、シンタックス要素lp_sei_active_vps_idは、コーディングされたビデオシーケンス(CVS:coded video sequence)の中のレイヤについての情報を含むアクティブなVPSを識別する。シンタックス要素lp_sei_active_vps_idの値は、SEIメッセージを含むアクセスユニットのVCL NALユニットのためのアクティブなVPSのシンタックス要素vps_video_parameter_set_idの値に等しくなければならない。シンタックス要素ilp_restricted_ref_layers_flag、min_spatial_segment_offset_plus1、ctu_based_offset_enabled_flag、min_horizontal_ctu_offset_plus1のセマンティックは、表1に関して上述されたものと同じであり得る。さらに別の例では、シンタックス要素lp_sei_active_vps_idのシグナリングは省略されてもよい。
[0092] 上述のように、本開示の技法はまた、拡張された空間スケーラビリティ、たとえば、拡張された空間スケーラビリティを使用するときに、配列されたCTUのロケーションと、関連付けられたオフセット遅延とを決定することに関する。表1および表2に関して上述したように、シンタックス要素min_spatial_segment_offset_plus1およびmin_horizontal_ctu_offset_plus1は、空間セグメントに関して、対応する参照レイヤに対するコーディングの依存性によってもたらされる、現在のレイヤの復号遅延を示し得る。特定のCTUのオフセット遅延の指示を受信した後、ビデオデコーダ30は、オフセット遅延を実現するように、配列されたCTUを配置し得る。すなわち、ビデオデコーダ30は、どのCTUが現在コーディングされているレイヤの中のレイヤ間予測のために利用可能であるかを決定するとともに、そのCTUを参照レイヤの中の配列されたCTUにマッピングし得る。
[0093] 本開示の態様によれば、ビデオエンコーダ20および/またはビデオデコーダ30は、配列されたサンプル(たとえば、配列された参照サンプル)と、配列されたCTUとを導出し得る。配列されたCTUのロケーションは、配列されたサンプルに基づき得る。
[0094] 例示のための一例では、第1のレイヤ(たとえば、エンハンスメントレイヤ)の中で現在コーディングされているサンプルが、第2の異なるレイヤ(たとえば、ベースレイヤ)の中の参照サンプルに関連してコーディングされることを想定する。ビデオエンコーダ20および/またはビデオデコーダ30は、ベースレイヤの中の参照サンプルを、ベースレイヤに関連付けられたスケーリングされたオフセットに基づいて配置し得る。スケーリングされたオフセットは、ベースレイヤとエンハンスメントレイヤとの間の空間的な差分に基づいて定義され得る。本開示の態様によれば、ビデオエンコーダ20および/またはビデオデコーダ30は、ベースレイヤの中の配列されたCTUを、配置された参照サンプルに基づいて配置し得る。たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、配列されたCTUを、以下の式に基づいて配置し得る。
Figure 2016530774
ここで、xColCtbはCTUのx成分(たとえば、ルーマCTB、またはCTUのクロマCTBのうちの1つ)を表し、xRefは配列されたサンプルのx座標を表し、yColCtbは配列されたCTUのy成分を表し、yRefは配列されたサンプルのy座標を表し、colCtbAddr[i]は配列されたCTUのアドレスを表す。加えて、変数refCtbLog2SizeY[i][j]、refPicWidthInCtbsY[i][j]、およびrefPicHeightInCtbsY[i][j]は、i番目のレイヤのj番目の直接参照レイヤの、それぞれ、CtbLog2SizeY、PicWidthInCtbsY、およびPicHeightInCtbsYに等しく設定され得る。
[0095] 加えて、本開示の態様によれば、配列されたCTUが現在のレイヤの中の特定のCTUのための参照レイヤの境界内に存在しないとき、ビデオエンコーダ20および/またはビデオデコーダ30は、調整されたアドレスが参照レイヤの中に存在するCTUに対応するように、CTUアドレスの値を対応する参照レイヤ境界に調整し得る。コロケートCTUが参照ピキュア内にある場合、調整は必要とされなくてよい。
[0096] ビデオエンコーダ20および/またはビデオデコーダ30は、サンプルのロケーションxRefおよびyRef(たとえば、配列されたサンプルのx座標およびy座標)を、配列されたCTUのアドレスを導出する前の対応する参照レイヤ境界に以下の式に基づいてクリップすることによって、ロケーションを調整し得る。
Figure 2016530774
ここで、xRef[i]は配列されたサンプルのxコオディネイトを表し、yRef[i]は配列されたサンプルのyコオディネイトを表し、leftStartは現在のレイヤ(たとえば、エンハンスメントレイヤ)に関連する参照レイヤ(たとえば、ベースレイヤ)の左端を表し、rightEndは現在のレイヤに関連する参照レイヤの右端を表し、topStartは現在のレイヤに関連する参照レイヤの上端を表し、bottomEndは現在のレイヤに関連する参照レイヤの下端を表す。関数Clip3(x,y,z)は、z<xの場合はxを出力し、z>yの場合はyを出力し、他の場合はzを出力し得る。
[0097] 上の式は、参照レイヤ内に配置されるように、配列されたサンプルの値を制限する。たとえば、参照サンプルの水平ロケーションが左の参照ピクチャ境界(reference picture boundary)の左側に配置されるとき、ビデオコーダは、水平ロケーションを左の参照ピクチャ境界のロケーションと取り換え得る。同様に、参照サンプルの水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、ビデオコーダは、水平ロケーションを右の参照ピクチャ境界のロケーションと取り換え得る。参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、ビデオコーダは、垂直ロケーションを上の参照ピクチャ境界のロケーションと取り換え得る。参照サンプルの垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、ビデオコーダは、垂直ロケーションを下の参照ピクチャ境界のロケーションと取り換え得る。ビデオエンコーダ20および/またはビデオデコーダ30、次いで、決定された境界のCTUを参照として、現在のレイヤの中のCTUのためのレイヤ間予測制約(inter-layer prediction constraint)(たとえば、オフェスト遅延)を適用し得る。
[0098] このようにして、ビデオエンコーダ20および/またはビデオデコーダ30は、境界の参照レイヤ内に存在する配列されたCTUのロケーションを決定し得、レイヤ間予測制約(たとえば、オフセット遅延)を適切に適用し得る。
[0099] 本開示のさらに他の技法は、CTUオフセットが可能にされている(enabled)こと(たとえば、表1および表2で上述したctu_based_offset_enabled_flagシンタックス要素)をシグナリングする際の改善に関する。たとえば、ctu_based_offset_enabled_flagシンタックス要素は、シグナリングされているオフセット遅延がCTUを単位としていることを規定するために使用され得る。言い換えれば、ctu_based_offset_enabled_flagシンタックス要素の値が1に等しいとき、CTUを単位として、i番目の直接参照レイヤの各ピクチャの中の、SPSを参照するピクチャの復号のためのレイヤ間予測について使用されない空間エリアは、シンタックス要素min_spatial_segment_offset_plus1[i]およびシンタックス要素min_horizontal_ctu_offset_plus1[i]によって一緒に示される。
[0100] JCTVC−M0463に記載されるものなどの、HEVC拡張のためのctu_based_offset_enabled_flagシグナリングについての現在の設計は、いくつかの欠点を有することがある。たとえば、CTUベースのオフセット遅延を1つのレイヤに対してシグナリングし、スライスベース、タイルベース、またはCTU行ベースのオフセット遅延を別のレイヤ(たとえば、CTUベースのオフセット遅延がない)に対してシグナリングすることは、比較的複雑であり得る。たとえば、たいていの場合、オフセット遅延を示すために使用される空間セグメントは、すべてのレイヤについて同じであり得、別個のシグナリングを不必要に複雑にさせる。この意味において、ctu_based_offset_enabled_flagシンタックス要素を、すべてのレイヤおよびそれらの直接参照レイヤに適用可能なグローバルフラグにさせることが望ましいことがある。
[0101] 加えて、現在のレイヤまたは現在のレイヤの直接参照レイヤ(現在のレイヤが直接参照する先の参照レイヤ)のいずれかの中に2つ以上のタイルが存在するとき、min_horizontal_ctu_offset_plus1シンタックス要素は有用でないことがある。たとえば、タイルが整列されていないとき、min_horizontal_ctu_offset_plus1シンタックス要素の値は、異なるタイルに属する空間セグメントを指すことがある。このことは、コーディングの間に異なるタイルのデータを参照する必要を潜在的にもたらし得、それは並列コーディングのために受け入れられ得ない。
[0102] 本開示の態様によれば、ビデオエンコーダ20および/またはビデオデコーダ30は、下の表3に示すVPSを実装し得る(ここで、テキスト[削除:]はJCTVC−M0463からの削除を示す)。
Figure 2016530774
[0103] 表3の例では、1に等しいシンタックス要素ctu_based_offset_enabled_flagは、CTUを単位として、すべての直接参照レイヤピクチャについての[JCTVC−M0463から削除:i番目の直接参照レイヤの各ピクチャの中の]、[JCTVC−M0463から削除:SPS]VPSを参照するピクチャの復号のためのレイヤ間予測について使用されない空間エリアが、シンタックス要素min_spatial_segment_offset_plus1[i]およびシンタックス要素min_horizontal_ctu_offset_plus1[i]によって一緒に示されることを規定する。0に等しいシンタックス要素ctu_based_offset_enabled_flagは、スライスセグメント、タイル、またはCTU行を単位として、[JCTVC−M0463から削除:i番目の直接参照レイヤの各ピクチャの中の]すべての直接参照レイヤピクチャについての、VPSを参照するピクチャの復号のためのレイヤ間予測について使用されない空間エリアが、min_spatial_segment_offset_plus1[i]のみによって示されることを規定する。存在しないとき、ctu_based_offset_enabled_flag[i]の値は0に等しいと推測される。本開示の態様によれば、すべてのレイヤのアクティブなPPSについてシンタックス要素tiles_enabled_flagが1に等しい場合に、シンタックス要素ctu_based_offset_enabled_flagが0に等しくなければならないことは、ビットストリーム準拠の要件であり得る。
[0104] 別の例では、ビデオエンコーダ20および/またはビデオデコーダ30は、下の表4に示すVPSを実装し得る(ここで、テキスト[削除:]はJCTVC−M0463からの削除を示す)。
Figure 2016530774
[0105] 表4の例では、1に等しいシンタックス要素ctu_based_offset_enabled_flag[i]は、CTUを単位として、すべての直接参照レイヤピクチャについての[JCTVC−M0463から削除:i番目の直接参照レイヤの各ピクチャの中の]、レイヤインデックスiを有しVPS[JCTVC−M0463から削除:SPS]を参照するピクチャの復号のためのレイヤ間予測について使用されない空間エリアが、シンタックス要素min_spatial_segment_offset_plus1[i]およびシンタックス要素min_horizontal_ctu_offset_plus1[i]によって一緒に示されることを規定する。0に等しいシンタックス要素ctu_based_offset_enabled_flag[i]は、スライスセグメント、タイル、またはCTU行を単位として、すべての直接参照レイヤピクチャについての[JCTVC−M0463から削除:i番目の直接参照レイヤの各ピクチャの中の]、レイヤインデックスiを有しVPSを参照するピクチャの復号のためのレイヤ間予測について使用されない空間エリアが、min_spatial_segment_offset_plus1[i]のみによって示されることを規定する。存在しないとき、シンタックス要素ctu_based_offset_enabled_flag[i]の値は0に等しいと推測される。本開示の態様によれば、すべてのレイヤのアクティブなPPSについてシンタックス要素tiles_enabled_flagが1に等しい場合に、シンタックス要素ctu_based_offset_enabled_flagが0に等しくなければならないことは、ビットストリーム準拠の要件であり得る。上記のシンタックス要素は、SPS、PPS、スライスヘッダまたはそれの拡張の中でシグナリングされ得る。上のシンタックスはまた、SEIメッセージとしてまたはVUIメッセージとしてシグナリングされ得る。
[0106] 本開示のさらに他の技法は、レイヤ間でのタイルの整列を示すことに関する。たとえば、上述のように、タイルは、ピクチャのパーティションを含み得、並列コーディングのために使用され得る。タイル境界は、スライス境界と同様に、タイルが単独で処理され得るようにパースおよび予測の依存性を分断するが、ループ内フィルタ(デブロッキングおよびサンプル適応オフセット(SAO:sample adaptive offset))は依然としてタイル境界を横切ることができる。タイルベースの構造を実装することは、並列処理を可能にし得、スライスの使用と比較してCTUの復号順序を変えさせることによってコーディング効率を改善し得る。
[0107] たとえば、一般性を喪失することなく、4つのタイルが参照レイヤおよびエンハンスメントレイヤについて使用されると想定する。この場合、ビデオエンコーダ20および/またはビデオデコーダ30は、4つのプロセッサコアを用いてコーディングを実行し得、プロセッサコアの各々は、タイルのうちのそれぞれの1つに専用される。レイヤ間でのタイルの整列は、タイルが処理される方式と密接な関係があり得る。たとえば、4つのタイルが並列に処理され得ることを確実にするために、ビデオエンコーダ20および/またはビデオデコーダ30は、いくつかの制約を強いることがある。たとえば、レイヤ間フィルタリングのアップサンプリングは、参照レイヤの中のタイル境界を横切ることを許され得ない。エンハンスメントタイルについて、参照レイヤサンプルがこのエンハンスメントタイルに整列されていないタイルに属する(すなわち、その中に含まれる)場合、参照レイヤの配列されたサンプルは、利用不可能であると見なされる。
[0108] 本開示の態様によれば、タイル境界が整列されているかどうかの指示は、VPSの中で提供され得る。たとえば、ビデオエンコーダ20は、マルチレイヤビットストリームのレイヤが整列されるように制約されているかどうかを示す、1つまたは複数のシンタックス要素をVPSの中で符号化し得る(また、ビデオデコーダ30は解析および復号し得る)。VPSの中でシグナリングされるような、タイル境界の整列された情報は、ビットストリームのすべてのレイヤに適用されるクロスレイヤの範囲を有し得る。
[0109] 一例では、ビデオエンコーダ20および/またはビデオデコーダ30は、以下の表5に示すVPSを実装し得る。
Figure 2016530774
[0110] 表5の例では、1に等しいシンタックス要素tile_boundaries_aligned_flagは、アクセスユニットの中の1つのピクチャのいずれか2つのサンプルが1つのタイルに属するとき、もしあれば、同じアクセスユニットの中の別のピクチャの中の配列されたサンプルは1つのタイルに属し、アクセスユニットの中の1つのピクチャのいずれか2つのサンプルが異なるタイルに属するとき、同じアクセスユニットの中の別のピクチャの中の配列されたサンプルは異なるタイルに属さなければならないことを示す。0に等しいシンタックス要素tile_boundaries_aligned_flagは、そのような制約が適用されてもされなくてもよいことを示す。たとえば、0に等しいシンタックス要素tile_boundaries_aligned_flagは、タイルが整列されてもよいが、整列されるように厳密に制約されるとは限らないことを示し得る。
[0111] したがって、技法は、ビデオデコーダ30が、現在復号されているレイヤについて、現在のレイヤのタイル境界が現在のレイヤのいずれかの参照レイヤと整列されているかどうかを、VPSを復号することによって決定できるようにし得る。たとえば、ビデオデコーダ30は、各直接参照レイヤ(たとえば、直接依存性フラグによって示される)が、現在のレイヤのタイルと整列されているタイル境界を有するかどうかを決定し得る。
[0112] 図2は、ビデオデータを並列に処理するための技法を実装し得るビデオエンコーダ20の一例を示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングとインターコーディングとを実施することができる。イントラコーディングは、空間的予測を利用して、所与のビデオフレームまたはピクチャ内のビデオの空間的冗長性を低減または除去する。インターコーディングは、時間的予測を利用して、ビデオシーケンスの隣接フレームまたはピクチャ内のビデオの時間的冗長性を低減または除去する。イントラモード(Iモード)は、いくつかの空間ベースのコーディングモードのいずれかを指す場合がある。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベースのコーディングモードのいずれかを指す場合がある。
[0113] 上述のように、ビデオエンコーダ20は、マルチビューおよび/またはスケーラブルビデオコーディングを実行するように構成され得る。たとえば、ビデオエンコーダ20は、SHVC、MV−HEVC、または3D−HEVCなどの1つまたは複数のビデオコーディング規格の拡張に準拠するビットストリームを符号化するように構成され得る。ただし、特定のコーディング規格が参照されるが、本技法は、任意の1つのコーディング規格に固有のものではなく、将来のおよび/またはまだ開発されていない規格とともに実装され得ることを理解されたい。
[0114] 図2に示されたように、ビデオエンコーダ20は、符号化されるべきビデオフレーム内の現在ビデオブロックを受信する。図2の例では、ビデオエンコーダ20は、ビデオデータメモリ38と、モード選択ユニット40と、参照ピクチャメモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56とを含む。モード選択ユニット40は、今度は、動き補償ユニット44と、動き推定ユニット42と、イントラ予測ユニット46と、区分ユニット48とを含む。ビデオブロック再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。ブロック境界をフィルタ処理して復元されたビデオからブロッキネスアーティファクトを除去するために、デブロッキングフィルタ(図2に示されず)が含まれる場合もある。所望される場合、デブロッキングフィルタは、一般に、加算器62の出力をフィルタリングすることになる。追加のフィルタ(ループ内またはループ後)もデブロッキングフィルタに加えて使用され得る。そのようなフィルタは簡潔のために示されていないが、必要な場合、(ループ内フィルタとして)加算器50の出力をフィルタ処理することができる。
[0115] ビデオデータメモリ38は、ビデオエンコーダ20の構成要素によって符号化されるべきビデオデータを記憶し得る。ビデオデータメモリ38に記憶されるビデオデータは、たとえば、ビデオソース18から取得され得る。参照ピクチャメモリ64は、たとえば、イントラコーディングモードまたはインターコーディングモードで、ビデオエンコーダ20によってビデオデータを符号化する際に使用するための参照ビデオデータを記憶する、復号ピクチャバッファと呼ばれることがある。ビデオデータメモリ38および参照ピクチャメモリ64は、同期DRAM(SDRAM)、磁気抵抗RAM(MRAM)、抵抗RAM(RRAM(登録商標))、または他のタイプのメモリデバイスを含む、ダイナミックランダムアクセスメモリ(DRAM)など、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ38および参照ピクチャメモリ64は、同じメモリデバイスまたは別個のメモリデバイスによって設けられ得る。様々な例では、ビデオデータメモリ38は、ビデオエンコーダ20の他の構成要素とともにオンチップであってよく、またはそれらの構成要素に対してオフチップであってもよい。
[0116] 符号化プロセス中に、ビデオエンコーダ20は、コーディングされるべきビデオフレームまたはスライスを受信する。フレームまたはスライスは、複数のビデオブロックに分割され得る。動き推定ユニット42および動き補償ユニット44は、時間予測を行うために、1つまたは複数の参照フレーム中の1つまたは複数のブロックに対して受信されたビデオブロックのインター予測コーディングを実行する。イントラ予測ユニット46は、代替として、空間予測を実現するために、コーディングされるべきブロックと同じフレームまたはスライス内の1つまたは複数の隣接ブロックに対して受信されたビデオブロックのイントラ予測コーディングを実行することができる。ビデオエンコーダ20は、たとえば、ビデオデータのブロックごとに適切なコーディングモードを選択するために、複数のコーディングパスを実行することができる。
[0117] その上、パーティションユニット48は、以前のコーディングパスにおける以前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分することができる。たとえば、パーティションユニット48は、最初にフレームまたはスライスをLCUに区分し、レートひずみ分析(たとえば、レートひずみ最適化)に基づいてLCUの各々をサブCUに区分することができる。モード選択ユニット40は、LCUをサブCUに区分することを示す4分木データ構造をさらに生成し得る。4分木のリーフノードCUは、1つまたは複数のPUと1つまたは複数のTUとを含む場合がある。
[0118] モード選択ユニット40は、たとえば、誤差結果に基づいてコーディングモード、すなわち、イントラまたはインターのうちの1つを選択し、残差ブロックデータを生成するために、得られたイントラコード化ブロックまたはインターコード化ブロックを加算器50に与え、参照フレームとして使用するための符号化ブロックを再構成するために、得られたイントラコード化ブロックまたはインターコード化ブロックを加算器62に与え得る。モード選択ユニット40はまた、動きベクトル、イントラモードインジケータ、パーティション情報、および他のそのようなシンタックス情報などのシンタックス要素をエントロピー符号化ユニット56に与える。
[0119] 動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示してある。動き推定ユニット42によって実施される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、現在フレーム(または他のコード化ユニット)内でコーディングされている現在ブロックに対する参照フレーム(または他のコード化ユニット)内の予測ブロックに対する現在ビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。予測ブロックは、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、または他の差分メトリックによって決定され得るピクセル差分に関して、コーディングされるべきブロックにぴったり一致することがわかるブロックである。いくつかの例では、ビデオエンコーダ20は、参照ピクチャメモリ64に記憶された参照ピクチャのサブ整数ピクセル位置の値を計算し得る。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置と分数ピクセル位置とに対する動き探索を実施し、分数ピクセル精度で動きベクトルを出力し得る。
[0120] 動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコード化スライスにおけるビデオブロックのPUのための動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択されてよく、それらの参照ピクチャリストの各々は、参照ピクチャメモリ64に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。
[0121] 動き補償ユニット44によって実施される動き補償は、動き推定ユニット42によって決定された動きベクトルに基づいて予測ブロックをフェッチまたは生成することに関与し得る。この場合も、いくつかの例では、動き推定ユニット42と動き補償ユニット44とは機能的に統合され得る。現在ビデオブロックのPUについての動きベクトルを受信すると、動き補償ユニット44は、動きベクトルが参照ピクチャリストのうちの1つにおいて指す予測ブロックの位置を特定し得る。加算器50は、以下で説明されるように、コーディングされている現在ビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって、残差ビデオブロックを形成する。一般に、動き推定ユニット42はルーマ成分に対して動き推定を実行し、動き補償ユニット44は、クロマ成分とルーマ成分の両方のためにルーマ成分に基づいて計算された動きベクトルを使用する。モード選択ユニット40はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30が使用するためのビデオブロックとビデオスライスとに関連するシンタックス要素を生成し得る。
[0122] イントラ予測ユニット46は、前述のように、動き推定ユニット42と動き補償ユニット44とによって実行されるインター予測の代替として、現在のブロックをイントラ予測し得る。特に、イントラ予測ユニット46は、現在のブロックを符号化するために使用するようにイントラ予測モードを決定することができる。いくつかの例では、イントラ予測ユニット46は、たとえば、別個の符号化パスにおいて、様々なイントラ予測モードを使用して現在のブロックを符号化することができ、イントラ予測ユニット46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択することができる。
[0123] たとえば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードのためのレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの中で最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は、概して、符号化されたブロックと、符号化されたブロックを生成するために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化されたブロックを生成するために使用されるビットレート(すなわち、ビット数)を決定する。イントラ予測ユニット46は、どのイントラ予測モードがブロックについて最良のレートひずみ値を呈するかを決定するために、様々な符号化されたブロックのひずみおよびレートから比率を計算し得る。
[0124] ブロックのためのイントラ予測モードを選択した後に、イントラ予測ユニット46は、ブロックのための選択されたイントラ予測モードを示す情報をエントロピー符号化ユニット56に与え得る。エントロピー符号化ユニット56は、選択されたイントラ予測モードを示す情報を符号化し得る。ビデオエンコーダ20は、送信ビットストリーム中に、複数のイントラ予測モードインデックステーブルおよび複数の変更されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも呼ばれる)と、様々なブロックの符号化コンテキストの定義と、コンテキストの各々について使用すべき、最確イントラ予測モード、イントラ予測モードインデックステーブル、および変更されたイントラ予測モードインデックステーブルの指示とを含み得る、構成データを含め得る。
[0125] ビデオエンコーダ20は、コーディングされている元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって、残差ビデオブロックを形成する。加算器50は、この減算演算を実行する1つまたは複数の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を残差ブロックに適用し、残差変換係数値を含むビデオブロックを生成する。変換処理ユニット52は、DCTと概念的に同様である他の変換を実行することができる。ウェーブレット変換、整数変換、サブバンド変換または他のタイプの変換も使用され得る。いずれの場合も、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報をピクセル値領域から周波数領域などの変換領域に変換し得る。変換処理ユニット52は、得られた変換係数を量子化ユニット54に送ることができる。量子化ユニット54は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって修正され得る。いくつかの例では、量子化ユニット54は、次いで、量子化変換係数を含む行列の走査を実行することができる。代替的に、エントロピー符号化ユニット56が走査を実行してよい。
[0126] 量子化の後、エントロピー符号化ユニット56は、量子化された変換係数をエントロピーコーディングする。たとえば、エントロピー符号化ユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディングまたは別のエントロピーコーディング技法を実行し得る。コンテキストベースエントロピーコーディングの場合、コンテキストは隣接ブロックに基づき得る。エントロピー符号化ユニット56によるエントロピーコーディングの後に、符号化されたビットストリームは、別のデバイス(たとえば、ビデオデコーダ30)に送信されるか、または後で送信するかまたは取り出すためにアーカイブされ得る。
[0127] 逆量子化ユニット58および逆変換ユニット60は、それぞれ逆量子化および逆変換を適用して、たとえば、参照ブロックとして後で使用するために、ピクセル領域中で残差ブロックを再構築する。動き補償ユニット44は、残差ブロックを参照ピクチャメモリ64のフレームのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、動き推定において使用するためのサブ整数ピクセル値を計算するために、再構成された残差ブロックに1つまたは複数の補間フィルタを適用し得る。加算器62は、再構築された残差ブロックを、動き補償ユニット44によって生成された動き補償予測ブロックに加算して、参照ピクチャメモリ64に記憶するための再構築されたビデオブロックを生成する。再構築されたビデオブロックは、後続のビデオフレーム中のブロックをインターコーディングするために動き推定ユニット42および動き補償ユニット44によって参照ブロックとして使用され得る。
[0128] ビデオエンコーダ20は、本開示の技法のいずれかを、単独でまたは任意の組合せで実行するように構成され得るビデオエンコーダの一例を表す。たとえば、ビデオエンコーダ20は、マルチレイヤビットストリームの任意のレイヤがレイヤ間予測制約を有するかどうかを示すデータ、およびタイル境界がマルチレイヤビットストリームのレイヤのうちの少なくとも2つの間で整列されているかどうかを示すデータのうちの、少なくとも1つを含むマルチレイヤビットストリームをVPSの中で符号化するとともに、VPSのデータに従って、マルチレイヤビットステラムを符号化するように構成され得る。付加的または代替的には、ビデオエンコーダ20は、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを1つまたは複数のスケーリングされたオフセット値に基づいて決定し得、その場合、参照ピクチャはマルチレイヤビットストリームの第1のレイヤに含まれ、1つまたは複数のスケーリングされたオフセット値は第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す。ビデオエンコーダ20はまた、第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを、参照サンプルのロケーションに基づいて決定し得、配列された参照ブロックに関連して第2のレイヤの中のビデオデータの現在のブロックを符号化し得る。
[0129] 図3は、ビデオデータを並列に処理するための技法を実装し得るビデオデコーダ30の一例を示すブロック図である。上述のように、ビデオデコーダ30は、マルチビューおよび/またはスケーラブルビデオコーディングを実行するように構成され得る。たとえば、ビデオデコーダ30は、SHVC、MV−HEVC、または3D−HEVCなどの1つまたは複数のビデオコーディング規格の拡張に準拠するビットストリームを復号するように構成され得る。ただし、特定のコーディング規格が参照されるが、本技法は、任意の1つのコーディング規格に固有のものではなく、将来のおよび/またはまだ開発されていない規格とともに実装され得ることを理解されたい。
[0130] 図3の例では、ビデオデコーダ30は、ビデオデータメモリ68と、エントロピー復号ユニット70と、動き補償ユニット72と、イントラ予測ユニット74と、逆量子化ユニット76と、逆変換ユニット78と、参照ピクチャメモリ82と、加算器80とを含む。ビデオデコーダ30は、いくつかの例では、ビデオエンコーダ20(図2)に関して説明された符号化パスとは概して逆の復号パスを実行し得る。動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルに基づいて予測データを生成し得、イントラ予測ユニット74は、エントロピー復号ユニット70から受信されたイントラ予測モードインジケータに基づいて予測データを生成し得る。
[0131] ビデオデータメモリ68は、ビデオデコーダ30の構成要素によって復号されるべき、符号化されたビデオビットストリームなどのビデオデータを記憶し得る。ビデオデータメモリ68に記憶されるビデオデータは、たとえば、コンピュータ可読媒体16から、たとえば、カメラなどのローカルビデオソースから、ビデオデータの有線もしくはワイヤレスネットワーク通信を介して、または物理データ記憶媒体にアクセスすることによって取得され得る。ビデオデータメモリ68は、符号化されたビデオビットストリームからの符号化されたビデオデータを記憶する、コード化ピクチャバッファ(CPB)を形成し得る。参照ピクチャメモリ82は、たとえば、イントラコーディングモードまたはインターコーディングモードで、ビデオデコーダ30によってビデオデータを復号する際に使用するための参照ビデオデータを記憶する、復号ピクチャバッファと呼ばれることがある。ビデオデータメモリ68および参照ピクチャメモリ82は、同期DRAM(SDRAM)、磁気抵抗RAM(MRAM)、抵抗RAM(RRAM)、または他のタイプのメモリデバイスを含む、ダイナミックランダムアクセスメモリ(DRAM)など、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ68および参照ピクチャメモリ82は、同じメモリデバイスまたは別個のメモリデバイスによって設けられ得る。様々な例では、ビデオデータメモリ68は、ビデオデコーダ30の他の構成要素とともにオンチップであってよく、またはそれらの構成要素に対してオフチップであってもよい。
[0132] 復号プロセス中に、ビデオデコーダ30は、ビデオエンコーダ20から、符号化されたビデオスライスのビデオブロックと、関連付けられるシンタックス要素とを表す符号化されたビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット70は、量子化係数、動きベクトルまたはイントラ予測モードインジケータ、および他のシンタックス要素を生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット70は、動きベクトルと他のシンタックス要素とを動き補償ユニット72に転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。
[0133] ビデオスライスがイントラコード化(I)スライスとしてコーディングされるとき、イントラ予測ユニット74は、シグナリングされたイントラ予測モードと、現在フレームまたはピクチャの、前に復号されたブロックからのデータとに基づいて、現在ビデオスライスのビデオブロックのための予測データを生成し得る。ビデオフレームがインターコード化(すなわち、B、P、またはGPB)スライスとしてコーディングされるとき、動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルと他のシンタックス要素とに基づいて、現在ビデオスライスのビデオブロック用の予測ブロックを生成する。予測ブロックは、参照ピクチャリストの1つの中の参照ピクチャのうち1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ82に記憶された参照ピクチャに基づいて、デフォルトの構成技法を使用して、参照フレームリスト、すなわち、リスト0とリスト1とを構成し得る。動き補償ユニット72は、動きベクトルと他のシンタックス要素とを解析することによって現在のビデオスライスのビデオブロックについての予測情報を決定し、復号されている現在のビデオブロックのための予測ブロックを生成するために予測情報を使用する。たとえば、動き補償ユニット72は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(たとえば、イントラまたはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)と、スライスの参照ピクチャリストのうちの1つまたは複数のための構成情報と、スライスの各インター符号化ビデオブロックのための動きベクトルと、スライスの各インターコーディングビデオブロックのためのインター予測ステータスと、現在ビデオスライス中のビデオブロックを復号するための他の情報とを決定するために、受信されたシンタックス要素のいくつかを使用する。
[0134] 動き補償ユニット72はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット72は、参照ブロックのサブ整数ピクセルのための補間された値を計算するために、ビデオブロックの符号化中にビデオエンコーダ20によって使用された補間フィルタを使用し得る。この場合、動き補償ユニット72は、受信されたシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを決定し、その補間フィルタを使用して予測ブロックを生成し得る。
[0135] 逆量子化ユニット76は、ビットストリーム中で与えられ、エントロピー復号ユニット70によって復号された量子化変換係数を逆量子化(inverse quantize)、すなわち、逆量子化(de-quantize)する。逆量子化プロセスは、量子化の程度を決定し、同様に、適用されるべき逆量子化の程度を決定するための、ビデオスライス中のビデオブロックごとにビデオデコーダ30によって計算される量子化パラメータQPYの使用を含み得る。
[0136] 逆変換ユニット78は、ピクセル領域において残差ブロックを生成するために、逆変換、たとえば逆DCT、逆整数変換、または概念的に同様の逆変換プロセスを変換係数に適用する。
[0137] 動き補償ユニット72が、動きベクトルと他のシンタックス要素とに基づいて現在ビデオブロックのための予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット78からの残差ブロックを動き補償ユニット72によって生成された対応する予測ブロックと加算することによって、復号されたビデオブロックを形成する。加算器80は、この加算演算を実行する1つまたは複数の構成要素を表す。所望される場合、ブロッキネスアーティファクトを除去するために復号されたブロックをフィルタ処理するデブロッキングフィルタも適用され得る。ピクセル遷移を平滑化するために、または場合によってはビデオ品質を改善するために、(コーディングループ内またはコーディングループ後のいずれかの)他のループフィルタも使用され得る。所与のフレームまたはピクチャ中の復号されたビデオブロックは、次いで、その後の動き補償のために使用される参照ピクチャを記憶する参照ピクチャメモリ82に記憶される。参照ピクチャメモリ82はまた、図1のディスプレイデバイス32などのディスプレイデバイス上での後の提示のために、復号されたビデオを記憶する。
[0138] ビデオデコーダ30は、本開示の技法のいずれかまたはすべてを、単独で、または任意の組合せで実施するように構成され得る。たとえば、ビデオデコーダ30は、マルチレイヤビットストリームの任意のレイヤがレイヤ間予測制約を有するかどうかを示すデータ、およびタイル境界がマルチレイヤビットストリームのレイヤのうちの少なくとも2つの間で整列されているかどうかを示すデータのうちの、少なくとも1つをマルチレイヤビットストリームのビデオパラメータセット(VPS)から復号するとともに、VPSから取得されたデータに従って、マルチレイヤビットステラムを復号するように構成され得る。付加的または代替的には、ビデオデコーダ30は、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを1つまたは複数のスケーリングされたオフセット値に基づいて決定し得、その場合、参照ピクチャはマルチレイヤビットストリームの第1のレイヤに含まれ、1つまたは複数のスケーリングされたオフセット値は第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す。ビデオデコーダ30はまた、第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを、参照サンプルのロケーションに基づいて決定し得、配列された参照ブロックに関連して第2のレイヤの中のビデオデータの現在のブロックを復号し得る。
[0139] 図4は、スケーラブルビデオコーディング(SVC)のための様々なスケーラブルな次元を示す概念図である。図4は、SVCのスケーラビリティ構造の一例を示す。特に、異なる次元におけるスケーラビリティの一例が図4に示される。この例では、スケーラビリティが3つの次元において使用可能である。時間次元では、7.5Hz、15Hzまたは30Hzをもつフレームレートが時間スケーラビリティ(T)によってサポートされ得る。空間スケーラビリティ(S)がサポートされるとき、QCIF、CIFおよび4CIFなどの異なる解像度が使用可能である。特定の空間解像度およびフレームレートごとに、ピクチャ品質を改善するために信号対雑音(SNR)(Q)レイヤが追加され得る。
[0140] ビデオコンテンツがそのようなスケーラブルな方法で符号化されると、たとえば、クライアントまたは送信チャネルに依存し得るアプリケーション要件に従って、実際の配信されたコンテンツを適応させるために、抽出器ツールが使用され得る。図4に示された例では、各体積、すなわち立方体は、同じフレームレート(時間レベル)、空間解像度およびSNRレイヤをもつピクチャを含んでいる。それらの立方体(ピクチャ)を任意の次元で追加することによって、より良い表現が達成され得る。使用可能な2つ、3つまたはさらに多くのスケーラビリティがあるとき、複合スケーラビリティがサポートされ得る。
[0141] SVCの仕様によれば、最も低い空間レイヤおよび品質レイヤを有するピクチャは、H.264/AVCと互換性があり、最低の時間レベルにあるピクチャは、より高い時間レベルにあるピクチャで強調され得る時間ベースレイヤを形成する。H.264/AVC互換レイヤに加えて、空間スケーラビリティおよび/または品質スケーラビリティを実現するために、いくつかの空間エンハンスメントレイヤおよび/またはSNRエンハンスメントレイヤが追加され得る。SNRスケーラビリティは品質スケーラビリティと呼ばれることもある。各空間またはSNRエンハンスメントレイヤ自体は、H.264/AVC適合レイヤと同じ時間スケーラビリティ構造で、時間的にスケーラブルになり得る。1つの空間またはSNRエンハンスメントレイヤについて、それが依存するより低いレイヤは、その特定の空間またはSNRエンハンスメントレイヤのベースレイヤと呼ばれることもある。
[0142] 図5は、SVCコーディング構造の一例を示す概念図である。この例では、最低空間および品質レイヤをもつピクチャ(QCIF解像度をもつ、レイヤ0およびレイヤ1中のピクチャ)は、H.264/AVCに適合する。それらの中で、最低時間レベルのピクチャは、図5のレイヤ0に示されているように、時間ベースレイヤを形成する。この時間ベースレイヤ(レイヤ0)は、より高い時間レベル(レイヤ1)のピクチャを用いて拡張され得る。H.264/AVC互換レイヤに加えて、空間スケーラビリティおよび/または品質スケーラビリティを実現するために、いくつかの空間エンハンスメントレイヤおよび/またはSNRエンハンスメントレイヤが追加され得る。たとえば、エンハンスメントレイヤは、レイヤ2と同じ解像度をもつCIF表現であり得る。この例では、レイヤ3はSNRエンハンスメントレイヤである。この例に示されているように、各空間またはSNRエンハンスメントレイヤ自体は、H.264/AVC適合レイヤと同じ時間スケーラビリティ構造で、時間的にスケーラブルになり得る。また、エンハンスメントレイヤは空間解像度とフレームレートの両方を向上させことができる。たとえば、レイヤ4は、フレームレートを15Hzから30Hzにさらに増加させる4CIFエンハンスメントレイヤを与える。
[0143] 図6は、例示的なアクセスユニット(AU)を示す概念図である。各AUは、ネットワークアブストラクションレイヤ(NAL)ユニット内にカプセル化された、1つまたは複数のスライスを含む。レイヤごとのアクセスユニット当たりにゼロまたはそれ以上のNALユニットが存在し得る。1つのアクセスユニット内の1つのレイヤに対応するNALユニットのセットは、「レイヤ成分」と呼ばれることがある。図6の例は、図5のレイヤ成分に対応するレイヤ成分を描いている。図6の例に示されているように、同じ時間インスタンス中(すなわち、共通のAUの中)のコード化スライスは、ビットストリーム順序で連続しており、SVCのコンテキストにおける1つのアクセスユニットを形成する。それらのSVCアクセスユニットは、次いで、表示順序とは異なり得る、たとえば、時間予測関係によって決定され得る、復号順序に従う。
[0144] H.264/AVC(アドバンストビデオコーディング)のスケーラブルな拡張が、以下で説明される。SVCのいくつかの機能はH.264/AVCから引き継がれている。以前のスケーラブルな規格と比較すると、H.264/AVCに対するSVC拡張の最大の利点のいくつか、すなわちレイヤ間予測およびシングルループ復号が、以下で考察される。
[0145] H.264/AVCのSVC拡張は、シングルループ復号をサポートする。低複雑度デコーダを保持するために、SVCではシングルループ復号が必須である。シングルループ復号で、各々のサポートされるレイヤは、単一の動き補償ループで復号され得る。これを達成するために、レイヤ間イントラ予測の使用は、配列された参照レイヤ信号がそのためにイントラコーディングされるエンハンスメントレイヤマクロブロックのためにのみ可能にされる。より高いレイヤをレイヤ間予測するために使用されるすべてのレイヤが、制約付きイントラ予測を使用してコーディングされることがさらに必要である。
[0146] H.264/AVCのSVC拡張もまた、レイヤ間予測をサポートする。SVCは、テクスチャ、残差および動きに基づいて、空間スケーラビリティおよびSNRスケーラビリティのためのレイヤ間予測を導入する。SVCにおける空間スケーラビリティは、2つのレイヤ間の任意の解像度比に一般化されている。SNRスケーラビリティは、粗粒度スケーラビリティ(CGS)または中粒度スケーラビリティ(MGS)によって実現され得る。SVCでは、2つの空間レイヤまたはCGSレイヤは、(NALユニットヘッダ内でシンタックス要素dependency_idによって示される)異なる依存性レイヤに属するが、2つのMGSレイヤは同じ依存性レイヤ内にあり得る。1つの依存性レイヤは、品質エンハンスメントレイヤに対応する、0からより高い値までのシンタックス要素quality_idの値を有する品質レイヤを含む。SVCでは、レイヤ間の冗長性を低減するために、レイヤ間予測方法が利用される。それらは以下の段落で簡単に紹介される。
[0147] レイヤ間イントラ予測を使用するコーディングモードは、SVCでは「イントラBL」モードと呼ばれる。シングルループ復号を使用可能にするために、制約付きイントラモードとしてコーディングされるベースレイヤ中の配列されたマクロブロック(MB)を有するMBのみが、レイヤ間イントラ予測モードを使用することができる。制約付きイントラモードのMBは、隣接するインターコーディングされたMBからのいかなるサンプルも参照せずにイントラコーディングされる。
[0148] MBが残差予測を使用するように指示された場合、レイヤ間予測用のベースレイヤ内で配列されたMBは、インターMBであるに違いなく、その残差は空間解像度比に従ってアップサンプリングされる場合がある。エンハンスメントレイヤの残差とベースレイヤの残差との間の差分がコーディングされる。すなわち、エンハンスメントレイヤの現在のフレーム
Figure 2016530774
の再構成は、以下に示すように、エンハンスメントレイヤの逆量子化係数re、エンハンスメントレイヤからの時間的予測Pe、およびベースレイヤの量子化正規化残差係数rbの合計に等しい。
Figure 2016530774
[0149] 配列されたベースレイヤの動きベクトルは、MBの動きベクトル用の予測子またはエンハンスメントレイヤ内のMBパーティションを生成するためにスケーリングされる場合がある。加えて、MBごとに1つのフラグを送る、基本モードと命名された1つのMBタイプが存在する。このフラグが真であり、対応するベースレイヤのMBがイントラでない場合、動きベクトル、区分モード、および参照インデックスは、すべてベースレイヤから導出される。
[0150] 上述のように、H.264/AVCと同様に、HEVCもまた、少なくとも時間スケーラビリティと、SNRスケーラビリティと、空間スケーラビリティとを提供する、SHVCと現在呼ばれるスケーラブルビデオコーディング拡張を有する。SHVCにおいて、レイヤ間テクスチャ予測を達成するために、参照レイヤの解像度がエンハンスメントレイヤの解像度より低いときに、参照レイヤの再構成されたサンプルが最初にアップサンプリングされる。SNRスケーラビリティの場合でさえ、参照レイヤサンプルは、より高いコーディング効率を得るために、レイヤ間予測のために使用される前にフィルタリングされることがある。アップサンプリングまたはレイヤ間フィルタリング処理が、レイヤ成分または単にピクチャと呼ばれることもあるレイヤピクチャ全体について実行され得る。SHVCでは、マルチループ復号構造が使用され得、ビデオデコーダ(ビデオデコーダ30などの)は、異なるレイヤを並列に処理し得る。
[0151] 本開示の態様によれば、マルチレイヤビデオコーディングのためのオフセット遅延情報が、ビデオパラメータセット(VPS)の中に含まれ得る。上述のように、オフセット遅延情報は、参照データを確実に利用可能にするための、別のレイヤに関連するあるレイヤをコーディング(符号化または復号)する間の遅延を示し得る。本開示の態様によれば、ビデオエンコーダ20は、オフセット遅延情報を示すデータをVPSの中で符号化し得る。同様に、ビデオデコーダ30は、符号化されたビットストリームから、オフセット遅延情報を示すデータを復号し得る。
[0152] いくつかの例では、ビデオコーダ(ビデオエンコーダ20および/またはビデオデコーダ30などの)は、マルチレイヤビットストリームのいずれかのレイヤがレイヤ間予測制約を有するかどうかを示すVPSのデータをコーディングし得る。たとえば、現在コーディングされているレイヤのための少なくとも1つの参照レイヤが、関連付けられたオフセット遅延を有することを示すためのフラグが、VPSの中に含まれ得る。少なくとも1つのレイヤが、関連付けられたオフセット遅延を有すると決定すると、ビデオコーダは、どの参照レイヤがオフセット遅延を有するのか、およびそのようなレイヤに関連付けられたオフセット遅延を決定し得る。すなわち、オフセット遅延情報は、オフセット遅延を有する参照レイヤについてのみ提供され得る。
[0153] 図7は、高効率ビデオコーディング(HEVC)規格による例示的なタイルを示す概念図である。HEVCは、タイルおよび波面並列処理(WPP)を含む、コーデックをより並列に順応させるためのいくつかの提案を含む。HEVC WD10は、タイルのCTBラスタ走査において連続的に順序付けられた、1つの列および1つの行内で同時に発生する整数個のCTBとしてタイルを定義する。各ピクチャをタイルに分割することは、区分と呼ばれ得る。ピクチャ内のタイルは、図7に示すように、ピクチャのタイルラスタ走査において連続的に順序付けられる。
[0154] たとえば、図7は、複数のタイル92A、92B、92C、92D、92E、92F、92G、92H、92I、および92J(まとめて、「タイル92」)に区分されるピクチャ90のための例示的なCTBのコーディング順序を示し、タイル境界が太線によって示されている。ピクチャ90における各正方形ブロックは、CTBに関連付けられたピクセルブロックを表す。ピクセルブロックにおける数字は、ピクチャ90についてのタイルのコーディング順序で対応するCTB(たとえば、LCU)の位置を示す。図11の例に示すように、タイル92AのCTBが最初にコーディングされ、続いてタイル92BのCTB、続いてタイル92CのCTB、続いてタイル92DのCTB、続いてタイル92EのCTB、続いてタイル92FのCTB、続いてタイル92GのCTB、続いてタイル92HのCTB、続いてタイル92IのCTB、続いてタイル92JのCTBが、コーディングされる。タイル92の各々の中で、ラスタ走査順序に従ってCTBがコーディングされる。
[0155] タイルの数およびそれらの境界のロケーションは、全体のシーケンスに対して定義されてもよく、またはピクチャごとに変更されてもよい。スライス境界と同様に、タイル境界は、タイルが単独で処理され得るように、パースと予測依存性とを分割する。しかしながら、いくつかの事例では、ループ内フィルタ(たとえば、デブロッキングまたはサンプル適応オフセット(SAO)フィルタ)は、依然としてタイル境界を横切ることができる。たとえば、HEVCワーキングドラフト10は、PPSの中に規定されるloop_filter_across_tiles_enabled_flagシンタックス要素を提供する。loop_filter_across_tiles_enabled_flagシンタックス要素の値が1に等しいとき、ループ内フィルタリング動作は、PPSを参照するピクチャの中のタイル境界を横切って実行され得る。0に等しいloop_filter_across_tiles_enabled_flagシンタックス要素は、ループ内フィルタリング動作がPPSを参照するピクチャの中のタイル境界を横切って実行されないことを規定する。
[0156] エントロピー復号および動き補償再構成のためにプロセッサまたはプロセッサコアの間で通信が必要とされない(または、比較的少量ですむ)ので、タイルの使用は並列性を向上させることができる。加えて、タイルがスライスよりも潜在的に高い相関を有するサンプルを含むピクチャパーティション形状を可能にするので、タイルは、スライスと比較したときに比較的良好なコーディング効率を示し得る。タイルはまた、スライスヘッダのオーバーヘッドを低減し得る。
[0157] タイルがシングルレイヤコーディングにおいて使用されるとき、シンタックス要素min_spatial_segmentation_idcは、1つの処理スレッドによって処理されるべきルーマサンプルの最大数を計算するためにビデオデコーダ(ビデオデコーダ30などの)によって使用され得、ビデオデコーダ30は並列復号情報を最大限に利用することが想定される。0に等しくないとき、min_spatial_segmentation_idcシンタックス要素は、コーディングされたビデオシーケンスのピクチャの中で、異なるコーディングされた空間セグメント化領域の最大可能なサイズで境界を確立する助けとなり得る。HEVC WD10では、たとえば、エントロピーコーディング同期、またはタイル境界もしくはスライス境界を横切るデブロッキングフィルタリングに起因して、異なるスレッド間に何らかのピクチャ相互依存性が存在し得る。
[0158] 図8は、波面並列処理(WPP)に対する波面を示す概念図である。HEVCは、WPP技法を定義する。WPPが可能にされるとき、ピクチャのCTU行の各々は、分離されたパーティションである。しかしながら、スライスおよびタイルと比較すると、コーディング依存性は、CTU行の境界において分割されない。加えて、CABAC確率は、以前の行の第2のCTUから伝搬され、コーディングロスをさらに低減する。同じく、WPPは、通常のラスタ走査順序を変更しない。依存性は分割されないので、WPPビットストリームのレートひずみロスは、非並列ビットストリーム(nonparallel bitstream)と比較して小さい。
[0159] WPPが可能にされると、CTU行の数までの数のプロセッサが、CTU行(またはライン)を処理するために並列に働き得る。しかしながら、波面依存性は、ピクチャのはじめにおいて、すべてのCTU行が復号を開始することを許容しない。したがって、CTU行は、同じく、ピクチャの終わりにおいて、同時に復号を終了することができない。これは、多数のプロセッサが使用されるときにより明白になる、並列化の非効率性をもたらす。図8は、WPPが、どのようにしてCTBの行を並列に処理するかを示しており、各行は、上の行の第2のCTBを処理した後、利用可能なCABAC確率から開始する。
[0160] 図9は、参照レイヤピクチャ104から予測される例示的なエンハンスメントレイヤピクチャ100を示す概念図である。この例では、エンハンスメントレイヤピクチャ100がタイル102A〜102Dを含む一方で、参照レイヤピクチャ104は、タイル106A、106Bを含む。図9の点線で示すように、エンハンスメントレイヤピクチャ100のタイル102Bが、参照レイヤピクチャ104のタイル106Aに対応する一方で、エンハンスメントレイヤピクチャ100のタイル102Cは、参照レイヤピクチャ104のタイル106Bに対応する。
[0161] この例では、エンハンスメントレイヤピクチャ100は、参照レイヤピクチャ104と異なるアスペクト比を有する。たとえば、参照レイヤピクチャ104は4:3のアスペクト比を有し得、一方、エンハンスメントレイヤピクチャ100は16:9のアスペクト比を有し得る。したがって、エンハンスメントレイヤピクチャ100のタイル102A、102Dは、参照レイヤピクチャ104内に対応するタイルをもたない。たとえば、エンハンスメントレイヤピクチャ100のタイル102Aは、サンプル108を含む。垂直のハッシングで示すように、サンプル108は、参照レイヤピクチャ104内に利用可能な配列された参照レイヤ(RL)サンプルをもたない。同様に、エンハンスメントレイヤピクチャ100のタイル102Dのサンプル114は、利用可能な配列されたRLサンプルをもたない。しかしながら、サンプル110、112は、参照レイヤピクチャ104内に利用可能な配列された参照レイヤサンプル(クロスハッチングで示す)を有する。特に、サンプル110、112は、参照レイヤピクチャ104のサンプル116、118に対応する。
[0162] 図9は、タイル102B、102Cのタイル境界がタイル106A、106Bのタイル境界と整列されていると言われてよい一例を示す。いくつかの例では、同じエンハンスメントレイヤタイル内にある任意の2つのエンハンスメントレイヤピクチャサンプルに対して、配列された参照レイヤサンプルが、利用可能な場合、対応する参照レイヤタイル内にあるとき、および、コレスポンディングレファレンスレイヤタイル内にある任意の2つの参照レイヤピクチャサンプルに対して、配列されたエンハンスメントレイヤサンプルが、利用可能な場合、対応するエンハンスメントレイヤタイル内にあるときに、タイル境界は、整列されていると言われてよい。タイル102B内の任意の2つのサンプルは106A内の配列されたサンプルに対応し、同様に、タイル106A内の任意の2つのサンプルはタイル102B内の配列されたサンプルに対応するので、タイル102Bの境界は、タイル106Aの境界と整列されていると言われてよい。同様に、タイル102C内の任意の2つのサンプルはタイル106B内の配列されたサンプルに対応し、同様に、タイル106C内の任意の2つのサンプルはタイル102C内の配列されたサンプルに対応するので、タイル102Cの境界は、タイル106Bの境界と整列されていると言われてよい。
[0163] タイル境界の整列は、ビデオコーダ(ビデオエンコーダ20またはビデオデコーダ30などの)がピクチャ(または、タイル)をコーディングする方式に影響を及ぼし得る。たとえば、いくつかの事例では、ビデオコーダは、タイル境界が整列されていない事例におけるレイヤ間予測または何らかのフィルタリング動作を制約することがある。
[0164] 本開示の態様によれば、タイル境界が整列されているかどうかの指示は、VPSの中で提供され得る。たとえば、VPSを参照するレイヤのタイルが互いに整列されているかどうかを示す1つまたは複数のシンタックス要素が、VPSの中に含まれ得る。たとえば、1に等しいシンタックス要素tile_boundaries_aligned_flag[i][j]は、VPSによって規定されるi番目のレイヤの1つのピクチャのいずれか2つのサンプルが1つのタイルに属するとき、2つの配列されたサンプルは、両方がi番目のレイヤのj番目の直接参照レイヤのピクチャの中に存在する場合に1つのタイルに属し、i番目のレイヤの1つのピクチャのいずれか2つのサンプルが異なるタイルに属するとき、2つの配列されたサンプルは、両方がi番目のレイヤのj番目の直接参照レイヤのピクチャの中に存在する場合に異なるタイルに属することを示し得る。0に等しいシンタックス要素tile_boundaries_aligned_flagは、そのような制約が適用されてもされなくてもよいことを示す。存在しないとき、tile_boundaries_aligned_flag[i][j]の値は0に等しいと推測される。
[0165] いくつかの例では、タイル境界の整列情報は、上の表5に示す方式で提供され得る。そのような例では、ビデオデコーダ30は、各直接参照レイヤ(たとえば、直接依存性フラグによって示されるような)が現在のレイヤのタイルと整列されているタイル境界を有するかどうかを決定し得る。
[0166] このようにして、ビデオエンコーダ(ビデオエンコーダ20などの)は、タイル境界がマルチレイヤビットストリームのレイヤのうちの少なくとも2つの間で整列されているかどうかを示すデータを、VPSの中で符号化し得る。同様に、ビデオデコーダ(ビデオデコーダ30などの)は、タイル境界がマルチレイヤビットストリームのレイヤのうちの少なくとも2つの間で整列されているかどうかを示すデータを、VPSから復号し得る。
[0167] 図10は、配列された参照レイヤ領域を有しないエンハンスメントレイヤ領域を示す概念図である。図10の例は、エンハンスメントレイヤ130とベースレイヤ132とを含む。ベースレイヤ132は、エンハンスメントレイヤ130をコーディングするためのレイヤ間参照(参照レイヤ)におけるものとして使用され得る。ベースレイヤ132のスケーリング/アップサンプリングされたバージョンが、エンハンスメントレイヤ130内で破線134によって示される。
[0168] 図10の例に示すように、エンハンスメントレイヤ134はまた、ベースレイヤ134の中に含まれない領域136を含む。領域136は、概して、スケーリングされたオフセット値scaled_ref_layer_left_offset、scaled_ref_layer_top_offset、scaled_ref_layer_right_offset、およびscaled_ref_layer_bottom_offsetによって示されるように、スケーリング/アップサンプリングされたベースレイヤ134とエンハンスメントレイヤ130の境界との間のエリアを含む。すなわち、シンタックス要素scaled_ref_layer_left_offsetの値は、エンハンスメントレイヤ130の左端とスケーリング/アップサンプリングされたベースレイヤ134の左端との間のロケーションの差分を示す。同様に、scaled_ref_layer_top_offsetはエンハンスメントレイヤ130の上端とスケーリング/アップサンプリングされたベースレイヤ134の上端との間のロケーションの差分を示し、scaled_ref_layer_right_offsetはエンハンスメントレイヤ130の右端とスケーリング/アップサンプリングされたベースレイヤ134の右端との間のロケーションの差分を示し、シンタックス要素scaled_ref_layer_bottom_offsetの値はエンハンスメントレイヤ130の下端とスケーリング/アップサンプリングされたベースレイヤ134の下端との間のロケーションの差分を示す。いくつかの事例では、オフセットによって示されるスケーリング/アップサンプリングされたベースレイヤ134とエンハンスメントレイヤ130の境界との間のエリアは、テキストまたは他のスクリーンコンテンツ(たとえば、ビデオデータでない)を含み得る。
[0169] 本開示の態様によれば、ビデオコーダ(ビデオエンコーダ20および/またはビデオデコーダ30などの)は、配列されたサンプル(たとえば、参照サンプル)のロケーションを決定し得る。ビデオコーダはまた、配列されたCTUのロケーションを、決定された配列されたサンプルに基づいて決定し得る。配列されたCTUは、エンハンスメントレイヤ130とベースレイヤ132(たとえば、ここでベースレイヤ132が参照レイヤである)との間でのレイヤ間予測のために使用され得る。
[0170] 例示のための一例では、ビデオコーダは、i番目の直接参照レイヤの配列されたサンプルにとっての変数xRef[i]とyRef[i]とを、以下の式に従って決定し得る。
Figure 2016530774
ここで、xRef[i]は配列されたサンプルのx座標を表し、yRef[i]は配列されたサンプルのy座標を表す。加えて、xPおよびyPはピクチャの左上のサンプルに対するピクチャPの中の中のサンプルのロケーションであり得、シンタックス要素ScaledRefLayerLeftOffsetの値はエンハンスメントレイヤ130の左端とスケーリング/アップサンプリングされたベースレイヤ134の左端との間の距離の指示であり得、シンタックス要素ScaledRefLayerTopOffsetの値はエンハンスメントレイヤ130の右端とスケーリング/アップサンプリングされたベースレイヤ134の右端との間の距離の指示であり得る。加えて、ScaleFactorXおよびScaleFactorY(参照ピクチャおよびスケーリングされた参照ピクチャのサイズに基づくスケーリングファクタ)は、上述のSHVC文書(JCTVC−M1007)のセクションG.8.1.4に従って、エンハンスメントレイヤ130とベースレイヤ132との間でのスケールの差分に基づいて決定され得る。
[0171] 上記の例では、本開示の態様によれば、ビデオコーダは、配列されたサンプルxRef、yRefをオフセット値に基づいて調整する。たとえば、ビデオコーダは、参照サンプルのロケーションを、2つのレイヤ間でのスケールの差分を示すスケーリングされたオフセットに基づいて決定し得る。したがって、エンハンスメントレイヤ130のサンプルをベースレイヤ132の中の対応するロケーションに直接マッピングするのではなく、ビデオコーダは、スケールおよびオフセットの差分に起因するロケーションの相対的な差分を説明し得る。
[0172] 配列されたサンプルのロケーションを決定した後、ビデオコーダは、配列されたCTUのロケーションを決定し得る。いくつかの事例では、ビデオコーダは、所与のCTUのそれぞれの配列されたCTB(ルーマおよびクロマCTB)のロケーションを別個に決定し得る。例示のための一例では、本開示の態様によれば、ビデオコーダは、配列されたCTUのロケーションを以下の式に基づいて決定し得る。
Figure 2016530774
ここで、xColCtbはCTUのx成分(たとえば、ルーマCTB、またはCTUのクロマCTBのうちの1つ)を表し、xRefは配列されたサンプルのx座標を表し、yColCtbは配列されたCTUのy成分を表し、yRefは配列されたサンプルのy座標を表し、colCtbAddr[i]は配列されたCTUのアドレスを表す。加えて、変数refCtbLog2SizeY[i][j]、refPicWidthInCtbsY[i][j]、およびrefPicHeightInCtbsY[i][j]は、i番目のレイヤのj番目の直接参照レイヤの、それぞれ、CtbLog2SizeY、PicWidthInCtbsY、およびPicHeightInCtbsYに等しく設定され得る。したがって、変数colCtbAddr[i]は、ctbAddrに等しいラスタ走査アドレスを有するCTUの、i番目の直接参照レイヤの中のピクチャの中の、配列されたCTUのラスタ走査アドレス(raster scan address)を表示する。
[0173] 本開示の態様によれば、配列されたCTUは、配列されたCTUがオフセット遅延を満足するエリアの中に配置される場合のみ、使用され得る。たとえば、上述のように、シンタックス要素min_spatial_segment_offset_plus1、およびmin_horizontal_ctu_offset_plus1は、現在のレイヤの復号遅延を示すために使用され得る。しかしながら、拡張された空間スケーラビリティが使用されるとき、現在のレイヤの中の空間セグメントA(スライス、タイル、CTU行またはCTU)にとって、配列された空間セグメントBが直接参照レイヤの中に存在し得ないことが起こり得る。たとえば、図10の例に示すように、エンハンスメントレイヤ130の中に含まれる空間セグメントの配列された空間セグメントが、ベースレイヤ132の中に含まれないことがある(たとえば、空間セグメントが、対応するエリアをベースレイヤ132の中に有しないエリア136の中に含まれ得る)。そのような例では、オフセット遅延は、正確に決定されないことがある。
[0174] 本開示の態様によれば、参照レイヤの中の配列されたCTUが現在のレイヤの中の特定のCTUにとって存在しないとき、ビデオコーダ(ビデオエンコーダ20および/またはビデオデコーダ30などの)は、調整されたアドレスが参照レイヤの中に存在するCTUに対応するように、CTUアドレス(x成分およびy成分)の値を、対応する参照レイヤ境界に調整し得る。図10の例では、ビデオコーダは、配列されたCTUがベースレイヤ132の境界内のCTUに対応するように、アドレスをアドジャストし得る。
[0175] 例示のための一例では、ビデオコーダは、コルコーテッド(collcoated)CTUを決定する前に、配列されたサンプルのアドレスを調整するために、クリッピング関数を適用し得る。たとえば、ビデオコーダは、以下の式を適用し得る。
Figure 2016530774
ここで、xRef[i]は配列されたサンプルのxコオディネイト(coodinate)を表し、yRef[i]は配列されたサンプルのyコオディネイト(coodinate)を表す。いくつかの例では、ビデオコーダは、変数leftStartC、rightEndC、topStartC、およびbottomEndC(ここで、下付き文字Cはクロマサンプルを表す)を、図10の例に示すオフセットに対応するスケーリングされたオフセット(たとえば、ScaledRefLayerOffse)を用いて、以下の式に基づいて決定し得る。
leftStartC=ScaledRefLayerLeftOffset/SubWidthC
Figure 2016530774
上記の例はクロマサンプルについて示されるが、ビデオコーダは類似の式をルーマCTBについて適用し得る。
[0176] 上記の例では、ビデオコーダは、参照サンプルが参照ピクチャの外側に配置される場合には、オフセットを参照ピクチャの相対的な境界に調整し、他の場合には、ビデオコーダは、参照サンプルのロケーションを調整しない。たとえば、参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、ビデオコーダは、水平ロケーションを左の参照ピクチャ境界のロケーションと取り換え得る。同様に、参照サンプルの水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、ビデオコーダは、水平ロケーションを右の参照ピクチャ境界のロケーションと取り換え得る。参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、ビデオコーダは、垂直ロケーションを上の参照ピクチャ境界のロケーションと取り換え得る。参照サンプルの垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、ビデオコーダは、垂直ロケーションを下の参照ピクチャ境界のロケーションと取り換え得る。
[0177] 配列されたCTUをベースレイヤ130の中に配置する前に、配列されたサンプルのロケーションを、スケーリングされたオフセット値に基づいて調整することによって、ビデオコーダは、ベースレイヤ130の境界内に配置されるように、配列されたCTUを調整し得る。
[0178] このようにして、オフセット遅延が、参照レイヤ(ベースレイヤ132などの)の中に存在しない空間的なロケーションを示す場合、ビデオコーダは、いつ現在のレイヤ(エンハンスメントレイヤ130などの)のコーディングを開始するべきかを、依然として決定し得る。すなわち、参照レイヤ内に配置されるように、配列されたCTUを調整することによって、ビデオコーダはまた、オフセット遅延を参照レイヤの有効なロケーションの中に配置されるように調整し得る。
[0179] 別の例では、アドレスcolCtbAddrを有するCTUがi番目の直接参照レイヤの中に存在しないとき、ビデオコーダは、その空間セグメントにとってのシンタックス要素min_spatial_segment_offset_plus1[i]の値が0であると推測されることを推測し得る。この例では、ビデオコーダはまた、JCTVC−M0464に関連するいくつかの他の変更を適用し得る。たとえば、ctu_based_offset_enabled[i]シンタックス要素が0に等しいとき、ビデオコーダは、以下の制約を適用し得る。すなわち、CTU行Aを、SPSを参照する任意のピクチャpicAの中の任意のCTU行とし、ctbAddrを、CTU行Aの中の最後のCTUのラスタ走査アドレスとする;CTU行Bを、picAと同じアクセスユニットに属するとともにi番目の直接参照レイヤに属するピクチャpicBの中にある、ラスタ走査アドレスcolCtbAddr[i]を有するCTUを含むCTU行とする;CTU行Cを、同様にpicBの中にあり復号順序でCTU行Bに続くCTU行とし、CTU行BとそのCTU行との間に、min_spatial_segment_offset_plus1[i]−1個のCTU行が復号順序で存在する;CTU行Cが存在するとき、CTU行Aのシンタックス要素は、CTU行CまたはCに続く同じピクチャの行の中のサンプルまたはシンタックス要素の値が、CTU行A内の任意のサンプルの復号プロセスにおけるレイヤ間予測のために使用されないように、制約される。加えて、CTU行Bが存在しないとき、その空間セグメントにとってのシンタックス要素min_spatial_segment_offset_plus1[i]の値は、0であると推測される。
[0180] ビデオコーダは、スライスおよびタイルのような他の空間セグメントについて同じ制約を適用し得る。たとえば、スライスセグメントBが存在しないとき、その空間セグメントにとってのシンタックス要素min_spatial_segment_offset_plus1[i]の値は、0であると推測され得る。別の例として、タイルBが存在しないとき、その空間セグメントにとってのシンタックス要素min_spatial_segment_offset_plus1[i]の値は、0であると推測され得る。
[0181] 図11Aは、ビデオデータのためのオフセット遅延情報を含むマルチレイヤビデオデータを符号化するための例示的なプロセスを示す流れ図である。図11Aのプロセスは、概して、例示のためにビデオエンコーダ20によって実行されるものとして説明されるが、様々な他のプロセッサも図11Aに示すプロセスを実行し得る。
[0182] 図11Aの例では、ビデオエンコーダ20は、現在符号化されているマルチレイヤビットストリームにとって任意のレイヤ間予測制約が存在するかどうかを決定し得る(150)。たとえば、ビデオエンコーダ20は、並列に復号され得る複数のレイヤを符号化するとき、レイヤ間予測制約を適用し得る。特定のオフセット遅延パラメータは、ビデオエンコーダ20の特定のアーキテクチャ(たとえば、処理コアの数など)に依存し得る。
[0183] レイヤ間制約(inter-layer restriction)が存在する場合(150の「はい」分岐)、ビデオエンコーダ20は、オフセット遅延指示と各参照レイヤにとってのオフセット遅延とを符号化し得る(152)。本開示の態様によれば、ビデオエンコーダ20は、そのような情報をVPSの中で符号化し得る。たとえば、ビデオエンコーダ20は、任意のレイヤ間予測制約が存在するかどうかを示すデータをVPSの中で符号化し得る。データは、いくつかの事例では、少なくとも1つの参照レイヤが、関連付けられたオフセット遅延を有するかどうかを示す1つまたは複数のシンタックス要素を含み得る。ビデオエンコーダ20はまた、遅延を有する各参照レイヤにとってのオフセット遅延(たとえば、オフセット遅延の空間エリア)を示すデータを符号化し得る。
[0184] ビデオエンコーダ20は、次いで、VPSのデータに従ってレイヤを符号化し得る(154)。いくつかの事例では、ビデオエンコーダ20は、レイヤを並列に符号化し得る。
[0185] 図11Bは、ビデオデータのためのオフセット遅延情報を含むマルチレイヤビデオデータを復号するための例示的なプロセスを示す流れ図である。図11Bのプロセスは、概して、例示のためにビデオデコーダ30によって実行されるものとして説明されるが、様々な他のプロセッサも図11Bに示すプロセスを実行し得る。
[0186] 図11Bの例では、ビデオデコーダ30は、現在符号化されているマルチレイヤビットストリームにとって任意のレイヤ間予測制約が存在するかどうかを決定し得る(158)。たとえば、ビデオデコーダ30は、現在のレイヤのための任意の直接参照レイヤ(この場合、直接参照レイヤはレイヤ間予測のために現在のレイヤによって参照される)が、関連付けられたオフセット遅延を有するかどうかを決定し得る。本開示の態様によれば、ビデオデコーダ30は、VPSの中に含まれるデータに基づいて、レイヤ間予測制約の決定を行い得る。データは、いくつかの事例では、少なくとも1つの参照レイヤが、関連付けられたオフセット遅延を有するかどうかを示す1つまたは複数のシンタックス要素を含み得る。ビデオデコーダ30はまた、遅延を有する各参照レイヤにとってのオフセット遅延(たとえば、オフセット遅延の空間エリア)を示すデータを復号し得る。
[0187] ビデオデコーダ30は、次いで、VPSのデータに従ってレイヤを復号し得る(162)。たとえば、いくつかの事例では、ビデオデコーダ30は、別のレイヤに関連してあるレイヤを復号し得る。加えて、ビデオデコーダ30は、複数のレイヤを並列に復号するとき、決定されたオフセットパラメータ(上述されたVPSの中で規定されるような)に忠実であり得る。すなわち、ビデオデコーダ30は、参照レイヤからの規定された量のビデオデータが復号されるまで(オフセット遅延によって規定されるように)、現在のレイヤを復号することを待ってもよい。
[0188] 図12は、マルチレイヤビデオコーディングにおいてビデオデータの配列されたブロックを決定するための例示的なプロセスを示す流れ図である。配列されたブロックは、レイヤ間予測のために使用され得、オフセット遅延を実現するときに決定され得る。図12の方法は、概して、ビデオコーダによって実行されるものとして説明される。ビデオコーダは、たとえば、ビデオエンコーダ20またはビデオデコーダ30、あるいは他のそのようなビデオコーディングデバイス(たとえば、ビデオトランスコーディングデバイス)に対応し得る。
[0189] 図12の例では、ビデオコーダは、配列された参照サンプルのロケーションを決定し得る(170)。たとえば、マルチレイヤビデオコーディングにおいて、ビデオコーダは、最初に、現在コーディングされているレイヤの中のサンプルのロケーションを決定し得る。ビデオコーダは、次いで、サンプルのケーションを参照レイヤの中の対応する配列されたロケーションにマッピングし得る。
[0190] ビデオコーダは、参照ピクチャ内に配置されるように、参照サンプルのロケーションを調整し得る(172)。たとえば、いくつかの事例では、現在のピクチャの中のブロック(たとえば、現在のCTU)は、たとえば、図9および図10の例に示すように、参照ピクチャの中の対応するブロック(たとえば、配列されたCTU)を有しないことがある。配列されたブロックが参照ピクチャの中で利用可能でない場合、いくつかの例では、ビデオコーダは、参照レイヤに関連付けられたオフセット遅延を適切に適用することができない。たとえば、ビデオコーダは、現在のレイヤの中の遅延によって示される空間セグメントを配置すること、および空間セグメントを参照レイヤの中の配列された位置にマッピングすることによって、オフセット遅延を実現することができる。配列された空間セグメントが利用可能でない場合、ビデオコーダは、オフセット遅延を適切に実現できない場合がある。
[0191] 本開示の態様によれば、ビデオコーダは、参照ピクチャのエリア内にあるサンプルのロケーションを決定することによって、参照サンプルのロケーションを調整し得る。たとえば、現在のピクチャに関連付けられたスケーリングされたオフセット値(たとえば、図10に示すような)は、参照ピクチャの境界を示し得る。ビデオコーダは、これらの境界内となるように、配列されたサンプルのロケーションを調整し得る。いくつかの例では、本開示の態様によれば、ビデオコーダは、参照サンプルが参照ピクチャ内になるように、たとえば、クリッピング関数を使用して、参照サンプルのロケーションをクリップし得る。参照サンプルが参照ピクチャの境界にすでに含まれている場合、ビデオコーダは上述された調整を実行し得ない。
[0192] ビデオコーダは、次いで、配列されたブロックのロケーションを参照サンプルに基づいて決定し得る(174)。たとえば、ビデオコーダは、配列されたブロックのサイズを決定するとともに、その適切にサイズ決定されたブロックを、参照サンプルのロケーションに配置し得る。いくつかの例では、ビデオコーダは、レイヤ間予測のためのオフセット遅延を適用するとき、配列されたブロックを決定し得る。ビデオコーダは、配列されたブロックに関連して現在のブロックをコーディングし得る(176)。
[0193] 図13は、マルチレイヤビデオコーディングにおいてタイル整列情報を決定するための例示的なプロセスを示す流れ図である。図13の方法は、概して、ビデオコーダによって実行されるものとして説明される。ビデオコーダは、たとえば、ビデオエンコーダ20またはビデオデコーダ30、あるいは他のそのようなビデオコーディングデバイス(たとえば、ビデオトランスコーディングデバイス)に対応し得る。
[0194] この例では、ビデオコーダは、1つまたは複数の参照レイヤタイルをコーディングする(180)。次いでビデオコーダは、エンハンスメントレイヤのタイル境界が整列されているかどうかを決定する(182)。たとえば、ビデオエンコーダ20は、参照レイヤピクチャを整列させるかどうかを決定し、タイル境界が整列されているかどうかを示す、tile_boundaries_aligned_flagシンタックス要素などのシンタックス要素に対する値を符号化し得る一方で、ビデオデコーダ30は、たとえば、tile_boundaries_aligned_flagなどのシンタックス要素の値に基づいて、参照レイヤの境界が整列されているかどうかを決定し得る。同じエンハンスメントレイヤタイル内にある任意の2つのエンハンスメントレイヤピクチャサンプルに対して、配列された参照レイヤサンプルもまた、利用可能な場合、同じ参照レイヤタイル内にあるとき、および、同じ参照レイヤタイル内にある任意の2つの参照レイヤピクチャサンプルに対して、配列されたエンハンスメントレイヤサンプルもまた、利用可能な場合、同じエンハンスメントレイヤタイル内にあるときに、エンハンスメントレイヤピクチャのタイル境界は、参照レイヤピクチャのタイル境界と整列されていると言われてよい。
[0195] 本開示の態様によれば、ビデオエンコーダ20は、タイル境界が整列されているかどうかを示すデータを、VPSの中で符号化し得る。同様に、ビデオデコーダ30は、タイル境界が整列されているかどうかを示すデータを、VPSから復号し得る。タイル境界が整列されているかどうかを示すデータは、レイヤ固有でなくてもよく、タイル境界が整列されるように制約されるかどうかのクロスレイヤ指示を提供し得る。
[0196] エンハンスメントレイヤピクチャのタイル境界が、参照レイヤピクチャのタイル境界と整列されていないとき(182の「いいえ」分岐)、ビデオコーダは、それに応じてビデオデータをコーディングし得る(184)。たとえば、ビデオコーダは、いくつかの事例では、レイヤ間予測、フィルタリングなどに制約を適用し得る。一方で、エンハンスメントレイヤピクチャのタイル境界が、参照レイヤピクチャのタイル境界と整列されているとき(182の「はい」分岐)、ビデオコーダは、それに応じてビデオデータをコーディングし得る(186)。たとえば、ビデオコーダは、レイヤ間予測、フィルタリング、または整列されたタイル境界を用いる他の技法を使用することができる。
[0197] 本開示のいくつかの態様が、説明のためにHEVC規格およびHEVC規格の拡張に関して説明された。ただし、本開示で説明する技法は、他の規格またはまだ開発されていないプロプライエタリなビデオコーディング処理を含む、他のビデオコーディング処理にとって有用であり得る。
[0198] 本開示に記載されたビデオコーダは、ビデオエンコーダまたはビデオデコーダを指す場合がある。同様に、ビデオコーディングユニットは、ビデオエンコーダまたはビデオデコーダを指す場合がある。同様に、ビデオコーディングは、適用可能な場合、ビデオ符号化またはビデオ復号を指す場合がある。
[0199] 例によるが、本明細書で説明した技法のうちいずれかの、いくつかの作用またはイベントは、異なるシーケンスで実行される可能性があり、追加されるか、併合されるか、または完全に除外される場合がある(たとえば、すべての説明した作用またはイベントが、本技法の実施のために必要であるとは限らない)ことは認識されたい。その上、いくつかの例では、動作またはイベントは、連続的にではなく、同時に、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通じて実行され得る。
[0200] 1つまたは複数の例では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実現され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されてよく、あるいは、コンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行されてよい。コンピュータ可読媒体は、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を支援する任意の媒体を含む、データ記憶媒体または通信媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得る。このようにして、コンピュータ可読媒体は、一般に、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明された技法を実装するための命令、コードおよび/またはデータ構造を取り出すために、1つもしくは複数のコンピュータ、または1つもしくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含む場合がある。
[0201] 限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは、命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用されコンピュータによってアクセスされ得る、任意の他の媒体を備え得る。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含まないが、代わりに非一時的な有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびBlu−rayディスク(disc)を含み、この場合、ディスク(disk)は、通常、データを磁気的に再生し、一方、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
[0202] 命令は、1つもしくは複数のデジタルシグナルプロセッサ(DSP)などの1つもしくは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価な集積回路もしくはディスクリート論理回路によって実行され得る。したがって、本明細書で使用される「プロセッサ」という用語は、前述の構造、または本明細書で説明された技法の実施に適した任意の他の構造のいずれかを指し得る。加えて、いくつかの態様では、本明細書で説明された機能は、符号化および復号のために構成された専用のハードウェアおよび/またはソフトウェアモジュール内に設けられる場合があるか、または複合コーデックに組み込まれる場合がある。また、本技法は、1つまたは複数の回路または論理要素に完全に実装され得る。
[0203] 本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置の中に実装される場合がある。本開示では、開示される技法を実行するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットが説明されたが、それらの構成要素、モジュール、またはユニットは、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、前述のように、適切なソフトウェアおよび/またはファームウェアとともに、様々なユニットがコーデックハードウェアユニットにおいて組み合わせられ得るか、または前述のような1つもしくは複数のプロセッサを含む、相互動作可能なハードウェアユニットの集合体によって設けられ得る。
[0204] 種々の例が記載された。これらおよび他の例は、以下の特許請求の範囲内である。
[0204] 種々の例が記載された。これらおよび他の例は、以下の特許請求の範囲内である。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータを復号する方法であって、
1つまたは複数のスケーリングされたオフセット値に基づいて、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定することと、ここにおいて、前記参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、前記1つまたは複数のスケーリングされたオフセット値は、前記第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、
前記参照サンプルの前記ロケーションに基づいて、前記第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを決定することと、
前記配列された参照ブロックに関連して前記第2のレイヤの中のビデオデータの現在のブロックを復号することと
を備える、方法。
[C2]
前記配列された参照ブロックは、配列されたコーディングツリーユニット(CTU)を備え、それにより前記配列された参照ブロックの前記ロケーションを決定することが、前記配列されたCTUのロケーションを決定することを備える、C1に記載の方法。
[C3]
前記配列されたCTUの前記ロケーションを決定することは、前記配列されたCTUのラスタ走査アドレスを決定することを備える、C2に記載の方法。
[C4]
前記マルチレイヤビットストリームから前記1つまたは複数のスケーリングされたオフセット値を復号することをさらに備える、C1に記載の方法。
[C5]
前記配列された参照ブロックの前記ロケーションを決定する前に、前記参照サンプルが前記参照ピクチャ内に配置されるように、前記参照サンプルの前記ロケーションを調整することをさらに備える、C1に記載の方法。
[C6]
前記参照サンプルの前記ロケーションを調整することは、前記1つまたは複数のスケーリングされたオフセット値に基づいて前記参照サンプルのロケーションをクリップすることを備える、C5に記載の方法。
[C7]
前記参照サンプルの前記ロケーションをクリップすることは、
前記参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、前記水平ロケーションを前記左の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの前記水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、前記水平ロケーションを前記右の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、前記垂直ロケーションを前記上の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの前記垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、前記垂直ロケーションを前記下の参照ピクチャ境界のロケーションと取り換えることと
を備える、C6に記載の方法。
[C8]
前記マルチレイヤビットストリームはスケーラブルなビットストリームであり、第1のレイヤは前記スケーラブルなビットストリームのベースレイヤであり、前記第2のレイヤは前記スケーラブルなビットストリームのエンハンスメントレイヤである、C1に記載の方法。
[C9]
ビデオデータを符号化する方法であって、
1つまたは複数のスケーリングされたオフセット値に基づいて、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定することと、ここにおいて、前記参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、前記1つまたは複数のスケーリングされたオフセット値は、前記第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、
前記参照サンプルの前記ロケーションに基づいて、前記第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを決定することと、
前記配列された参照ブロックに関連して前記第2のレイヤの中のビデオデータの現在のブロックを符号化することと
を備える、方法。
[C10]
前記配列された参照ブロックは、配列されたコーディングツリーユニット(CTU)を備え、それにより前記配列された参照ブロックの前記ロケーションを決定することが、前記配列されたCTUのロケーションを決定することを備える、C9に記載の方法。
[C11]
前記配列されたCTUの前記ロケーションを決定することは、前記配列されたCTUのラスタ走査アドレスを決定することを備える、C10に記載の方法。
[C12]
前記マルチレイヤビットストリームの中で前記1つまたは複数のスケーリングされたオフセット値を符号化することをさらに備える、C9に記載の方法。
[C13]
前記配列された参照ブロックの前記ロケーションを決定する前に、前記参照サンプルが前記参照ピクチャ内に配置されるように、前記参照サンプルの前記ロケーションを調整することをさらに備える、C9に記載の方法。
[C14]
前記参照サンプルの前記ロケーションを調整することは、前記1つまたは複数のスケーリングされたオフセット値に基づいて前記参照サンプルのロケーションをクリップすることを備える、C13に記載の方法。
[C15]
前記参照サンプルの前記ロケーションをクリップすることは、
前記参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、前記水平ロケーションを前記左の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの前記水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、前記水平ロケーションを前記右の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、前記垂直ロケーションを前記上の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの前記垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、前記垂直ロケーションを前記下の参照ピクチャ境界のロケーションと取り換えることとを備える、C14に記載の方法。
[C16]
前記マルチレイヤビットストリームはスケーラブルなビットストリームであり、第1のレイヤは前記スケーラブルなビットストリームのベースレイヤであり、前記第2のレイヤは前記スケーラブルなビットストリームのエンハンスメントレイヤである、C9に記載の方法。
[C17]
ビデオコーディングを実行する装置であって、
ビデオデータを記憶するメモリと、
1つまたは複数のスケーリングされたオフセット値に基づいてビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定することと、ここにおいて、前記参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、前記1つまたは複数のスケーリングされたオフセット値は、前記第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、
前記参照サンプルの前記ロケーションに基づいて前記第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを決定することと、
前記配列された参照ブロックに関連して前記第2のレイヤの中のビデオデータの現在のブロックを、コーディングすることと
を行うように構成されたビデオコーダと
を備える、装置。
[C18]
前記配列された参照ブロックは、配列されたコーディングツリーユニット(CTU)を備え、それにより前記配列された参照ブロックの前記ロケーションを決定するために、前記ビデオコーダが、前記配列されたCTUのロケーションを決定するように構成される、C17に記載の装置。
[C19]
前記配列されたCTUの前記ロケーションを決定するために、前記ビデオコーダは、前記配列されたCTUのラスタ走査アドレスを決定するように構成される、C18に記載の装置。
[C20]
前記ビデオコーダは、前記マルチレイヤビットストリームの中で前記1つまたは複数のスケーリングされたオフセット値をコーディングするようにさらに構成される、C17に記載の装置。
[C21]
前記ビデオコーダは、前記配列された参照ブロックの前記ロケーションを決定する前に、前記参照サンプルが前記参照ピクチャ内に配置されるように、前記参照サンプルの前記ロケーションを調整するようにさらに構成される、C17に記載の装置。
[C22]
前記参照サンプルの前記ロケーションを調整するために、前記ビデオコーダは、前記1つまたは複数のスケーリングされたオフセット値に基づいて前記参照サンプルのロケーションをクリップするように構成される、C21に記載の装置。
[C23]
前記参照サンプルの前記ロケーションをクリップするために、前記ビデオコーダは、
前記参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、前記水平ロケーションを前記左の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの前記水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、前記水平ロケーションを前記右の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、前記垂直ロケーションを前記上の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの前記垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、前記垂直ロケーションを前記下の参照ピクチャ境界のロケーションと取り換えることとを行うように構成される、C22に記載の装置。
[C24]
前記マルチレイヤビットストリームはスケーラブルなビットストリームであり、第1のレイヤは前記スケーラブルなビットストリームのベースレイヤであり、前記第2のレイヤは前記スケーラブルなビットストリームのエンハンスメントレイヤである、C17に記載の装置。
[C25]
前記ビデオデータをコーディングするために、前記ビデオコーダは、
前記マルチレイヤビットストリームの少なくとも1つのレイヤについての残差ビデオデータを決定することと、
前記残差データを変換することと、
前記マルチレイヤビットストリームの中で前記変換された残差データを表すデータを符号化することとを備える、前記ビデオデータを符号化することを行うように構成される、C17に記載の装置。
[C26]
前記ビデオデータをコーディングするために、前記ビデオコーダは、
前記マルチレイヤビットストリームから、前記マルチレイヤビットストリームの少なくとも1つのレイヤについての残差ビデオデータを表すデータを解析することと、
前記残差データを逆変換することと、
前記逆変換された残差データに基づいてビデオデータの前記少なくとも1つのレイヤを再構成することとを備える、前記ビデオデータを復号することを行うように構成される、C17に記載の装置。
[C27]
前記ビデオデータを提示するように構成されたディスプレイデバイスをさらに備える、C17に記載の装置。
[C28]
前記ビデオデータを受信するように構成されたワイヤレスモデムをさらに備える、C17に記載の装置。
[C29]
ビデオコーディングを実行する装置であって、
1つまたは複数のスケーリングされたオフセット値に基づいて、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定するための手段と、ここにおいて、前記参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、前記1つまたは複数のスケーリングされたオフセット値は、前記第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、
前記参照サンプルの前記ロケーションに基づいて、前記第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを決定するための手段と、
前記配列された参照ブロックに関連して前記第2のレイヤの中のビデオデータの現在のブロックをコーディングするための手段とを備える、装置。
[C30]
前記配列された参照ブロックは、配列されたコーディングツリーユニット(CTU)を備え、それにより前記配列された参照ブロックの前記ロケーションを決定するための前記手段が、前記配列されたCTUのロケーションを決定するための手段を備える、C29に記載の装置。
[C31]
前記配列されたCTUの前記ロケーションを決定するための前記手段は、前記配列されたCTUのラスタ走査アドレスを決定するための手段を備える、C30に記載の装置。
[C32]
前記マルチレイヤビットストリームの中で前記1つまたは複数のスケーリングされたオフセット値をコーディングするための手段をさらに備える、C29に記載の装置。
[C33]
前記配列された参照ブロックの前記ロケーションを決定する前に、前記参照サンプルが前記参照ピクチャ内に配置されるように、前記参照サンプルの前記ロケーションを調整するための手段をさらに備える、C29に記載の装置。
[C34]
前記参照サンプルの前記ロケーションを調整するための前記手段は、前記1つまたは複数のスケーリングされたオフセット値に基づいて前記参照サンプルのロケーションをクリップするための手段を備える、C33に記載の装置。
[C35]
前記参照サンプルの前記ロケーションをクリップするための前記手段は、
前記参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、前記水平ロケーションを前記左の参照ピクチャ境界のロケーションと取り換えるための手段と、
前記参照サンプルの前記水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、前記水平ロケーションを前記右の参照ピクチャ境界のロケーションと取り換えるための手段と、
前記参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、前記垂直ロケーションを前記上の参照ピクチャ境界のロケーションと取り換えるための手段と、
前記参照サンプルの前記垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、前記垂直ロケーションを前記下の参照ピクチャ境界のロケーションと取り換えるための手段とを備える、C34に記載の装置。
[C36]
前記マルチレイヤビットストリームはスケーラブルなビットストリームであり、第1のレイヤは前記スケーラブルなビットストリームのベースレイヤであり、前記第2のレイヤは前記スケーラブルなビットストリームのエンハンスメントレイヤである、C29に記載の装置。
[C37]
命令を記憶する非一時的コンピュータ可読媒体であって、前記命令が、実行されたとき、ビデオコーダに、
1つまたは複数のスケーリングされたオフセット値に基づいてビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定することと、ここにおいて、前記参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、前記1つまたは複数のスケーリングされたオフセット値は、前記第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、
前記参照サンプルの前記ロケーションに基づいて前記第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを、決定することと、
前記配列された参照ブロックに対して前記第2のレイヤの中のビデオデータの現在のブロックを符号化することとを行わせる、非一時的コンピュータ可読媒体。
[C38]
前記配列された参照ブロックは、配列されたコーディングツリーユニット(CTU)を備え、それにより前記配列された参照ブロックの前記ロケーションを決定するために、前記命令が、前記ビデオコーダに、前記配列されたCTUのロケーションを決定させる、C37に記載の非一時的コンピュータ可読媒体。
[C39]
前記配列されたCTUの前記ロケーションを決定するために、前記命令は、前記ビデオコーダに、前記配列されたCTUのラスタ走査アドレスを決定させる、C38に記載の非一時的コンピュータ可読媒体。
[C40]
前記命令は、前記ビデオコーダに、前記1つまたは複数のスケーリングされたオフセット値を、前記マルチレイヤビットストリームの中でコーディングさせる、C37に記載の非一時的コンピュータ可読媒体。
[C41]
前記命令は、前記ビデオコーダに、前記配列された参照ブロックの前記ロケーションを決定する前に、前記参照サンプルが前記参照ピクチャ内に配置されるように、前記参照サンプルの前記ロケーションを調整させる、C37に記載の非一時的コンピュータ可読媒体。
[C42]
前記参照サンプルの前記ロケーションを調整するために、前記命令は、前記ビデオコーダに、前記1つまたは複数のスケーリングされたオフセット値に基づいて前記参照サンプルのロケーションをクリップさせる、C41に記載の非一時的コンピュータ可読媒体。
[C43]
前記参照サンプルの前記ロケーションをクリップするために、前記命令は、前記ビデオコーダに、
前記参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、前記水平ロケーションを前記左の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの前記水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、前記水平ロケーションを前記右の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、前記垂直ロケーションを前記上の参照ピクチャ境界のロケーションと取り換えることと、
前記参照サンプルの前記垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、前記垂直ロケーションを前記下の参照ピクチャ境界のロケーションと取り換えることとを行わせる、C42に記載の非一時的コンピュータ可読媒体。
[C44]
前記マルチレイヤビットストリームはスケーラブルなビットストリームであり、第1のレイヤは前記スケーラブルなビットストリームのベースレイヤであり、前記第2のレイヤは前記スケーラブルなビットストリームのエンハンスメントレイヤである、C37に記載の非一時的コンピュータ可読媒体。

Claims (44)

  1. ビデオデータを復号する方法であって、
    1つまたは複数のスケーリングされたオフセット値に基づいて、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定することと、ここにおいて、前記参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、前記1つまたは複数のスケーリングされたオフセット値は、前記第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、
    前記参照サンプルの前記ロケーションに基づいて、前記第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを決定することと、
    前記配列された参照ブロックに関連して前記第2のレイヤの中のビデオデータの現在のブロックを復号することと
    を備える、方法。
  2. 前記配列された参照ブロックは、配列されたコーディングツリーユニット(CTU)を備え、それにより前記配列された参照ブロックの前記ロケーションを決定することが、前記配列されたCTUのロケーションを決定することを備える、請求項1に記載の方法。
  3. 前記配列されたCTUの前記ロケーションを決定することは、前記配列されたCTUのラスタ走査アドレスを決定することを備える、請求項2に記載の方法。
  4. 前記マルチレイヤビットストリームから前記1つまたは複数のスケーリングされたオフセット値を復号することをさらに備える、請求項1に記載の方法。
  5. 前記配列された参照ブロックの前記ロケーションを決定する前に、前記参照サンプルが前記参照ピクチャ内に配置されるように、前記参照サンプルの前記ロケーションを調整することをさらに備える、請求項1に記載の方法。
  6. 前記参照サンプルの前記ロケーションを調整することは、前記1つまたは複数のスケーリングされたオフセット値に基づいて前記参照サンプルのロケーションをクリップすることを備える、請求項5に記載の方法。
  7. 前記参照サンプルの前記ロケーションをクリップすることは、
    前記参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、前記水平ロケーションを前記左の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの前記水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、前記水平ロケーションを前記右の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、前記垂直ロケーションを前記上の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの前記垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、前記垂直ロケーションを前記下の参照ピクチャ境界のロケーションと取り換えることと
    を備える、請求項6に記載の方法。
  8. 前記マルチレイヤビットストリームはスケーラブルなビットストリームであり、第1のレイヤは前記スケーラブルなビットストリームのベースレイヤであり、前記第2のレイヤは前記スケーラブルなビットストリームのエンハンスメントレイヤである、請求項1に記載の方法。
  9. ビデオデータを符号化する方法であって、
    1つまたは複数のスケーリングされたオフセット値に基づいて、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定することと、ここにおいて、前記参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、前記1つまたは複数のスケーリングされたオフセット値は、前記第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、
    前記参照サンプルの前記ロケーションに基づいて、前記第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを決定することと、
    前記配列された参照ブロックに関連して前記第2のレイヤの中のビデオデータの現在のブロックを符号化することと
    を備える、方法。
  10. 前記配列された参照ブロックは、配列されたコーディングツリーユニット(CTU)を備え、それにより前記配列された参照ブロックの前記ロケーションを決定することが、前記配列されたCTUのロケーションを決定することを備える、請求項9に記載の方法。
  11. 前記配列されたCTUの前記ロケーションを決定することは、前記配列されたCTUのラスタ走査アドレスを決定することを備える、請求項10に記載の方法。
  12. 前記マルチレイヤビットストリームの中で前記1つまたは複数のスケーリングされたオフセット値を符号化することをさらに備える、請求項9に記載の方法。
  13. 前記配列された参照ブロックの前記ロケーションを決定する前に、前記参照サンプルが前記参照ピクチャ内に配置されるように、前記参照サンプルの前記ロケーションを調整することをさらに備える、請求項9に記載の方法。
  14. 前記参照サンプルの前記ロケーションを調整することは、前記1つまたは複数のスケーリングされたオフセット値に基づいて前記参照サンプルのロケーションをクリップすることを備える、請求項13に記載の方法。
  15. 前記参照サンプルの前記ロケーションをクリップすることは、
    前記参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、前記水平ロケーションを前記左の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの前記水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、前記水平ロケーションを前記右の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、前記垂直ロケーションを前記上の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの前記垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、前記垂直ロケーションを前記下の参照ピクチャ境界のロケーションと取り換えることとを備える、請求項14に記載の方法。
  16. 前記マルチレイヤビットストリームはスケーラブルなビットストリームであり、第1のレイヤは前記スケーラブルなビットストリームのベースレイヤであり、前記第2のレイヤは前記スケーラブルなビットストリームのエンハンスメントレイヤである、請求項9に記載の方法。
  17. ビデオコーディングを実行する装置であって、
    ビデオデータを記憶するメモリと、
    1つまたは複数のスケーリングされたオフセット値に基づいてビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定することと、ここにおいて、前記参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、前記1つまたは複数のスケーリングされたオフセット値は、前記第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、
    前記参照サンプルの前記ロケーションに基づいて前記第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを決定することと、
    前記配列された参照ブロックに関連して前記第2のレイヤの中のビデオデータの現在のブロックを、コーディングすることと
    を行うように構成されたビデオコーダと
    を備える、装置。
  18. 前記配列された参照ブロックは、配列されたコーディングツリーユニット(CTU)を備え、それにより前記配列された参照ブロックの前記ロケーションを決定するために、前記ビデオコーダが、前記配列されたCTUのロケーションを決定するように構成される、請求項17に記載の装置。
  19. 前記配列されたCTUの前記ロケーションを決定するために、前記ビデオコーダは、前記配列されたCTUのラスタ走査アドレスを決定するように構成される、請求項18に記載の装置。
  20. 前記ビデオコーダは、前記マルチレイヤビットストリームの中で前記1つまたは複数のスケーリングされたオフセット値をコーディングするようにさらに構成される、請求項17に記載の装置。
  21. 前記ビデオコーダは、前記配列された参照ブロックの前記ロケーションを決定する前に、前記参照サンプルが前記参照ピクチャ内に配置されるように、前記参照サンプルの前記ロケーションを調整するようにさらに構成される、請求項17に記載の装置。
  22. 前記参照サンプルの前記ロケーションを調整するために、前記ビデオコーダは、前記1つまたは複数のスケーリングされたオフセット値に基づいて前記参照サンプルのロケーションをクリップするように構成される、請求項21に記載の装置。
  23. 前記参照サンプルの前記ロケーションをクリップするために、前記ビデオコーダは、
    前記参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、前記水平ロケーションを前記左の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの前記水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、前記水平ロケーションを前記右の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、前記垂直ロケーションを前記上の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの前記垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、前記垂直ロケーションを前記下の参照ピクチャ境界のロケーションと取り換えることとを行うように構成される、請求項22に記載の装置。
  24. 前記マルチレイヤビットストリームはスケーラブルなビットストリームであり、第1のレイヤは前記スケーラブルなビットストリームのベースレイヤであり、前記第2のレイヤは前記スケーラブルなビットストリームのエンハンスメントレイヤである、請求項17に記載の装置。
  25. 前記ビデオデータをコーディングするために、前記ビデオコーダは、
    前記マルチレイヤビットストリームの少なくとも1つのレイヤについての残差ビデオデータを決定することと、
    前記残差データを変換することと、
    前記マルチレイヤビットストリームの中で前記変換された残差データを表すデータを符号化することとを備える、前記ビデオデータを符号化することを行うように構成される、請求項17に記載の装置。
  26. 前記ビデオデータをコーディングするために、前記ビデオコーダは、
    前記マルチレイヤビットストリームから、前記マルチレイヤビットストリームの少なくとも1つのレイヤについての残差ビデオデータを表すデータを解析することと、
    前記残差データを逆変換することと、
    前記逆変換された残差データに基づいてビデオデータの前記少なくとも1つのレイヤを再構成することとを備える、前記ビデオデータを復号することを行うように構成される、請求項17に記載の装置。
  27. 前記ビデオデータを提示するように構成されたディスプレイデバイスをさらに備える、請求項17に記載の装置。
  28. 前記ビデオデータを受信するように構成されたワイヤレスモデムをさらに備える、請求項17に記載の装置。
  29. ビデオコーディングを実行する装置であって、
    1つまたは複数のスケーリングされたオフセット値に基づいて、ビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定するための手段と、ここにおいて、前記参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、前記1つまたは複数のスケーリングされたオフセット値は、前記第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、
    前記参照サンプルの前記ロケーションに基づいて、前記第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを決定するための手段と、
    前記配列された参照ブロックに関連して前記第2のレイヤの中のビデオデータの現在のブロックをコーディングするための手段とを備える、装置。
  30. 前記配列された参照ブロックは、配列されたコーディングツリーユニット(CTU)を備え、それにより前記配列された参照ブロックの前記ロケーションを決定するための前記手段が、前記配列されたCTUのロケーションを決定するための手段を備える、請求項29に記載の装置。
  31. 前記配列されたCTUの前記ロケーションを決定するための前記手段は、前記配列されたCTUのラスタ走査アドレスを決定するための手段を備える、請求項30に記載の装置。
  32. 前記マルチレイヤビットストリームの中で前記1つまたは複数のスケーリングされたオフセット値をコーディングするための手段をさらに備える、請求項29に記載の装置。
  33. 前記配列された参照ブロックの前記ロケーションを決定する前に、前記参照サンプルが前記参照ピクチャ内に配置されるように、前記参照サンプルの前記ロケーションを調整するための手段をさらに備える、請求項29に記載の装置。
  34. 前記参照サンプルの前記ロケーションを調整するための前記手段は、前記1つまたは複数のスケーリングされたオフセット値に基づいて前記参照サンプルのロケーションをクリップするための手段を備える、請求項33に記載の装置。
  35. 前記参照サンプルの前記ロケーションをクリップするための前記手段は、
    前記参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、前記水平ロケーションを前記左の参照ピクチャ境界のロケーションと取り換えるための手段と、
    前記参照サンプルの前記水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、前記水平ロケーションを前記右の参照ピクチャ境界のロケーションと取り換えるための手段と、
    前記参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、前記垂直ロケーションを前記上の参照ピクチャ境界のロケーションと取り換えるための手段と、
    前記参照サンプルの前記垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、前記垂直ロケーションを前記下の参照ピクチャ境界のロケーションと取り換えるための手段とを備える、請求項34に記載の装置。
  36. 前記マルチレイヤビットストリームはスケーラブルなビットストリームであり、第1のレイヤは前記スケーラブルなビットストリームのベースレイヤであり、前記第2のレイヤは前記スケーラブルなビットストリームのエンハンスメントレイヤである、請求項29に記載の装置。
  37. 命令を記憶する非一時的コンピュータ可読媒体であって、前記命令が、実行されたとき、ビデオコーダに、
    1つまたは複数のスケーリングされたオフセット値に基づいてビデオデータの参照ピクチャに関連付けられた参照サンプルのロケーションを決定することと、ここにおいて、前記参照ピクチャは、マルチレイヤビットストリームの第1のレイヤの中に含まれ、前記1つまたは複数のスケーリングされたオフセット値は、前記第1のレイヤと第2の異なるレイヤとの間のスケールの差分を示す、
    前記参照サンプルの前記ロケーションに基づいて前記第1のレイヤの中のビデオデータの配列された参照ブロックのロケーションを、決定することと、
    前記配列された参照ブロックに対して前記第2のレイヤの中のビデオデータの現在のブロックを符号化することとを行わせる、非一時的コンピュータ可読媒体。
  38. 前記配列された参照ブロックは、配列されたコーディングツリーユニット(CTU)を備え、それにより前記配列された参照ブロックの前記ロケーションを決定するために、前記命令が、前記ビデオコーダに、前記配列されたCTUのロケーションを決定させる、請求項37に記載の非一時的コンピュータ可読媒体。
  39. 前記配列されたCTUの前記ロケーションを決定するために、前記命令は、前記ビデオコーダに、前記配列されたCTUのラスタ走査アドレスを決定させる、請求項38に記載の非一時的コンピュータ可読媒体。
  40. 前記命令は、前記ビデオコーダに、前記1つまたは複数のスケーリングされたオフセット値を、前記マルチレイヤビットストリームの中でコーディングさせる、請求項37に記載の非一時的コンピュータ可読媒体。
  41. 前記命令は、前記ビデオコーダに、前記配列された参照ブロックの前記ロケーションを決定する前に、前記参照サンプルが前記参照ピクチャ内に配置されるように、前記参照サンプルの前記ロケーションを調整させる、請求項37に記載の非一時的コンピュータ可読媒体。
  42. 前記参照サンプルの前記ロケーションを調整するために、前記命令は、前記ビデオコーダに、前記1つまたは複数のスケーリングされたオフセット値に基づいて前記参照サンプルのロケーションをクリップさせる、請求項41に記載の非一時的コンピュータ可読媒体。
  43. 前記参照サンプルの前記ロケーションをクリップするために、前記命令は、前記ビデオコーダに、
    前記参照サンプルの水平ロケーションが左の参照ピクチャ境界の左側に配置されるとき、前記水平ロケーションを前記左の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの前記水平ロケーションが右の参照ピクチャ境界の右側に配置されるとき、前記水平ロケーションを前記右の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの垂直ロケーションが上の参照ピクチャ境界の上方に配置されるとき、前記垂直ロケーションを前記上の参照ピクチャ境界のロケーションと取り換えることと、
    前記参照サンプルの前記垂直ロケーションが下の参照ピクチャ境界の下方に配置されるとき、前記垂直ロケーションを前記下の参照ピクチャ境界のロケーションと取り換えることとを行わせる、請求項42に記載の非一時的コンピュータ可読媒体。
  44. 前記マルチレイヤビットストリームはスケーラブルなビットストリームであり、第1のレイヤは前記スケーラブルなビットストリームのベースレイヤであり、前記第2のレイヤは前記スケーラブルなビットストリームのエンハンスメントレイヤである、請求項37に記載の非一時的コンピュータ可読媒体。
JP2016527021A 2013-07-15 2014-07-15 ビデオコーディングのためのクロスレイヤ並列処理およびオフセット遅延パラメータ Active JP6301467B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361846570P 2013-07-15 2013-07-15
US61/846,570 2013-07-15
US14/331,004 2014-07-14
US14/331,004 US9578328B2 (en) 2013-07-15 2014-07-14 Cross-layer parallel processing and offset delay parameters for video coding
PCT/US2014/046602 WO2015009665A1 (en) 2013-07-15 2014-07-15 Cross-layer parallel processing and offset delay parameters for video coding

Publications (3)

Publication Number Publication Date
JP2016530774A true JP2016530774A (ja) 2016-09-29
JP2016530774A5 JP2016530774A5 (ja) 2017-07-06
JP6301467B2 JP6301467B2 (ja) 2018-03-28

Family

ID=52277082

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016527021A Active JP6301467B2 (ja) 2013-07-15 2014-07-15 ビデオコーディングのためのクロスレイヤ並列処理およびオフセット遅延パラメータ
JP2016527020A Active JP6290399B2 (ja) 2013-07-15 2014-07-15 ビデオコーディングのためのクロスレイヤ並列処理およびオフセット遅延パラメータ

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016527020A Active JP6290399B2 (ja) 2013-07-15 2014-07-15 ビデオコーディングのためのクロスレイヤ並列処理およびオフセット遅延パラメータ

Country Status (9)

Country Link
US (2) US9628792B2 (ja)
EP (2) EP3022924B1 (ja)
JP (2) JP6301467B2 (ja)
KR (2) KR101770928B1 (ja)
CN (2) CN105359526B (ja)
BR (2) BR112016000858B1 (ja)
CA (2) CA2913618C (ja)
TW (2) TWI631851B (ja)
WO (2) WO2015009661A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2744202T3 (pl) * 2011-08-11 2020-12-28 Sun Patent Trust Sposób kodowania obrazów, sposób dekodowania obrazów, urządzenie do kodowania obrazów, urządzenie do dekodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów
CN107257490B (zh) 2012-01-27 2019-12-17 太阳专利托管公司 图像编码方法及图像编码装置
US10085017B2 (en) * 2012-11-29 2018-09-25 Advanced Micro Devices, Inc. Bandwidth saving architecture for scalable video coding spatial mode
US9628792B2 (en) 2013-07-15 2017-04-18 Qualcomm Incorporated Cross-layer parallel processing and offset delay parameters for video coding
CN105519115A (zh) * 2013-09-10 2016-04-20 株式会社Kt 用于对可扩展视频信号进行编码/解码的方法及装置
CN105580370A (zh) * 2013-10-08 2016-05-11 夏普株式会社 图像解码装置、图像编码装置以及编码数据变换装置
CN105723712B (zh) * 2013-10-14 2019-06-28 韩国电子通信研究院 基于多层的图像编码/解码方法和设备
WO2015060614A1 (ko) * 2013-10-22 2015-04-30 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
CN105659598A (zh) * 2013-10-22 2016-06-08 株式会社Kt 用于对多层视频信号进行编码/解码的方法和装置
WO2015064990A1 (ko) * 2013-10-29 2015-05-07 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
KR20150075040A (ko) * 2013-12-24 2015-07-02 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
US10212441B2 (en) * 2014-02-12 2019-02-19 Chips & Media, Inc. Method and apparatus for processing video
CN106105213B (zh) * 2014-03-24 2019-09-10 株式会社Kt 多层视频信号编码/解码方法和装置
US10277913B2 (en) * 2014-10-22 2019-04-30 Samsung Electronics Co., Ltd. Application processor for performing real time in-loop filtering, method thereof and system including the same
HUE053609T2 (hu) * 2014-11-07 2021-07-28 Sony Corp Átviteli készülék, átviteli eljárás, vételi készülék és vételi eljárás
WO2018011042A1 (en) 2016-07-14 2018-01-18 Koninklijke Kpn N.V. Video coding
WO2019225934A1 (ko) * 2018-05-21 2019-11-28 엘지전자 주식회사 영상 코딩 시스템에서 타일 내 ctu 어드레스 관련 영상 디코딩 방법 및 그 장치
TWI792578B (zh) 2018-07-09 2023-02-11 弗勞恩霍夫爾協會 用於經編碼圖像多樣化空間劃分之編碼器、解碼器、編碼方法及解碼方法
WO2020039365A1 (en) 2018-08-21 2020-02-27 Beijing Bytedance Network Technology Co., Ltd. Quantized difference used for weighting parameters derivation in bilateral filters
US11487702B2 (en) 2018-11-02 2022-11-01 International Business Machines Corporation Object mining and recognition system
CN115361549B (zh) * 2018-12-21 2024-04-09 华为技术有限公司 一种使用基于历史的运动矢量预测的编码器、解码器及相应方法
WO2020125754A1 (en) 2018-12-21 2020-06-25 Beijing Bytedance Network Technology Co., Ltd. Motion vector derivation using higher bit-depth precision
CN113491117A (zh) * 2019-03-08 2021-10-08 北京达佳互联信息技术有限公司 用于处理不同图片尺寸的视频编解码
EP3970366A4 (en) 2019-06-14 2023-03-29 Beijing Bytedance Network Technology Co., Ltd. HANDLING VIDEO UNIT LIMITS AND VIRTUAL LIMITS
WO2020249124A1 (en) 2019-06-14 2020-12-17 Beijing Bytedance Network Technology Co., Ltd. Handling video unit boundaries and virtual boundaries based on color format
CN114424529A (zh) 2019-09-18 2022-04-29 北京字节跳动网络技术有限公司 视频编解码中自适应环路滤波器的两部分信令
MX2022002916A (es) 2019-09-19 2022-04-06 Beijing Bytedance Network Tech Co Ltd Derivacion de posiciones de muestra de referencia en codificacion de video.
CN114430902B (zh) 2019-09-22 2023-11-10 北京字节跳动网络技术有限公司 自适应环路滤波中的填充过程
WO2021057946A1 (en) 2019-09-27 2021-04-01 Beijing Bytedance Network Technology Co., Ltd. Adaptive loop filtering between different video units
US20220417552A1 (en) * 2019-09-30 2022-12-29 Hyundai Motor Company Method and apparatus for inter-prediction of pictures with different resolutions
KR20220071203A (ko) 2019-10-10 2022-05-31 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 적응적 루프 필터링에서 이용 불가능한 샘플 위치들에서의 패딩 프로세스
CN115244924A (zh) 2019-10-29 2022-10-25 抖音视界有限公司 跨分量自适应环路滤波器的信令通知
KR102619404B1 (ko) 2019-12-11 2023-12-28 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로스 컴포넌트 적응적 루프 필터링을 위한 샘플 패딩
MX2022007503A (es) 2019-12-27 2022-07-04 Beijing Bytedance Network Tech Co Ltd Se?alizacion de tipos de corte en encabezados de imagenes de video.
US11425388B2 (en) * 2020-04-05 2022-08-23 Mediatek Inc. Methods and apparatuses of coding pictures with CTU based slice partitions in video coding system
GB2595696B (en) 2020-06-04 2022-12-28 Envisics Ltd Forming a hologram of a target image for projection using data streaming
KR20230029670A (ko) 2020-06-30 2023-03-03 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 적응적 루프 필터링을 위한 경계 위치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006108863A2 (en) * 2005-04-13 2006-10-19 Thomson Licensing Process for scalable coding of images
JP2008538057A (ja) * 2005-03-18 2008-10-02 シャープ株式会社 拡張された空間スケーラビティにおける画像レベルの適応化方法およびシステム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100679018B1 (ko) * 2004-09-07 2007-02-05 삼성전자주식회사 다계층 비디오 코딩 및 디코딩 방법, 비디오 인코더 및디코더
CN101888555B (zh) * 2006-11-17 2013-04-03 Lg电子株式会社 用于解码/编码视频信号的方法及装置
US8238439B2 (en) * 2007-01-04 2012-08-07 Thomson Licensing Methods and apparatus for multi-view information conveyed in high level syntax
US8665942B2 (en) * 2007-01-23 2014-03-04 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction signaling
CN101572817B (zh) * 2009-05-26 2011-01-05 北京邮电大学 一种用于空间可分级视频编码的编码模式选择方法
US20120063515A1 (en) * 2010-09-09 2012-03-15 Qualcomm Incorporated Efficient Coding of Video Parameters for Weighted Motion Compensated Prediction in Video Coding
EP2490403A1 (en) * 2011-02-17 2012-08-22 Alcatel Lucent Network communication node comprising a plurality of processors for processing layers of communication and associated node
BR112013003102B1 (pt) * 2011-02-22 2022-04-19 Sun Patent Trust Método de codificação de imagem, método de decodificação de imagem, aparelho de codificação de imagem, e aparelho de decodificação de imagem
BR112014001026B1 (pt) * 2011-07-15 2022-05-03 Ge Video Compression, Llc Codificação de matriz de amostra de baixo atrasdo
US10070152B2 (en) * 2011-08-24 2018-09-04 Texas Instruments Incorporated Sample adaptive offset (SAO) parameter signaling
US20130101033A1 (en) 2011-10-14 2013-04-25 Qualcomm Incorporated Coding non-symmetric distributions of data
US10708622B2 (en) 2011-12-20 2020-07-07 Texas Instruments Incorporated Adaptive loop filtering (ALF) for video coding
TWI775701B (zh) 2012-01-20 2022-08-21 美商Ge影像壓縮有限公司 允許平行處理之編碼器、解碼器、傳送解多工器、系統、儲存媒體、方法及電腦程式
TWI616087B (zh) 2012-01-31 2018-02-21 Vid衡器股份有限公司 可縮放高效率視訊編碼(hevc)參考圖集(rps)傳訊
GB2505643B (en) * 2012-08-30 2016-07-13 Canon Kk Method and device for determining prediction information for encoding or decoding at least part of an image
EP2642755B1 (en) 2012-03-20 2018-01-03 Dolby Laboratories Licensing Corporation Complexity scalable multilayer video coding
US9066108B2 (en) * 2012-04-20 2015-06-23 Technische Universitat Berlin System, components and method for parametric motion vector prediction for hybrid video coding
RU2612577C2 (ru) 2012-07-02 2017-03-09 Нокиа Текнолоджиз Ой Способ и устройство для кодирования видеоинформации
BR112015004140A8 (pt) 2012-09-26 2023-01-24 Velos Media Int Ltd Método de codificação de imagem, método de decodificação de imagem, aparelho de codificação de imagem, aparelho de decodificação de imagem e aparelho de codificação e decodificação de imagem
CN116708767A (zh) 2013-01-04 2023-09-05 Ge视频压缩有限责任公司 高效可伸缩编码概念
US9628792B2 (en) 2013-07-15 2017-04-18 Qualcomm Incorporated Cross-layer parallel processing and offset delay parameters for video coding
US10567754B2 (en) 2014-03-04 2020-02-18 Microsoft Technology Licensing, Llc Hash table construction and availability checking for hash-based block matching

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008538057A (ja) * 2005-03-18 2008-10-02 シャープ株式会社 拡張された空間スケーラビティにおける画像レベルの適応化方法およびシステム
WO2006108863A2 (en) * 2005-04-13 2006-10-19 Thomson Licensing Process for scalable coding of images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JIANLE CHEN,ET AL.: "SHVC Working Draft 2", JOINT COLLABORATIVE TEAM ON VIDEO CODING(JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 13TH M, vol. JCTVC-M1008v3, JPN6017034216, 14 June 2013 (2013-06-14), US, pages 37 - 59, ISSN: 0003637170 *

Also Published As

Publication number Publication date
CA2913618A1 (en) 2015-01-22
TWI631851B (zh) 2018-08-01
US20150016520A1 (en) 2015-01-15
BR112016000858A2 (ja) 2017-07-25
JP2016530773A (ja) 2016-09-29
CN105359527B (zh) 2019-05-28
CA2913813C (en) 2018-08-21
BR112016000850B1 (pt) 2023-04-18
WO2015009661A1 (en) 2015-01-22
CA2913618C (en) 2018-08-21
CA2913813A1 (en) 2015-01-22
TW201511530A (zh) 2015-03-16
US20150016540A1 (en) 2015-01-15
EP3022924B1 (en) 2020-11-25
BR112016000858B1 (pt) 2023-04-25
KR101770928B1 (ko) 2017-08-23
US9578328B2 (en) 2017-02-21
EP3022924A1 (en) 2016-05-25
US9628792B2 (en) 2017-04-18
BR112016000850A2 (ja) 2017-07-25
JP6290399B2 (ja) 2018-03-07
CN105359526B (zh) 2019-08-30
EP3022925B1 (en) 2022-09-21
JP6301467B2 (ja) 2018-03-28
CN105359526A (zh) 2016-02-24
KR20160032180A (ko) 2016-03-23
CN105359527A (zh) 2016-02-24
TWI618398B (zh) 2018-03-11
KR20160032179A (ko) 2016-03-23
WO2015009665A1 (en) 2015-01-22
TW201515443A (zh) 2015-04-16
KR101811968B1 (ko) 2017-12-22
EP3022925A1 (en) 2016-05-25

Similar Documents

Publication Publication Date Title
JP6301467B2 (ja) ビデオコーディングのためのクロスレイヤ並列処理およびオフセット遅延パラメータ
JP6400691B2 (ja) ビデオコーディングにおけるサブ復号ピクチャバッファ(サブdpb)ベースのdpb動作のためのシグナリング
US9578339B2 (en) Parallel processing for video coding
JP2019176483A (ja) マルチレイヤビデオコーディングにおける3次元ルックアップテーブルベースの色域スケーラビリティ
JP6542251B2 (ja) マルチレイヤビットストリームのためのsps時間idネスティング情報の導出
JP6158422B2 (ja) アラインされていないirapピクチャを含み得るマルチレイヤビットストリームのクロスレイヤpocアラインメント
JP6573879B2 (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP2019509669A (ja) スクリーンコンテンツコーディングおよびマルチレイヤコーディングのための重み付け予測
JP6430394B2 (ja) 高効率ビデオコード化に基づくビデオ情報のスケーラブルコード化のための機器及び方法
JP2017525253A (ja) マルチレイヤビデオコーディング
JP2016508011A (ja) ビデオ情報のスケーラブルコード化のための機器及び方法
JP2015532553A (ja) 高効率ビデオコーディングに基づくスケーラブルコーディングのための動きフィールドアップサンプリング
JP2017515383A (ja) 色域スケーラビリティのための3d色予測のためにビット深度値を信号伝達すること

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170525

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170525

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180228

R150 Certificate of patent or registration of utility model

Ref document number: 6301467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250