JP2018110425A - ビデオコード化における低遅延バッファリングモデル - Google Patents

ビデオコード化における低遅延バッファリングモデル Download PDF

Info

Publication number
JP2018110425A
JP2018110425A JP2018023196A JP2018023196A JP2018110425A JP 2018110425 A JP2018110425 A JP 2018110425A JP 2018023196 A JP2018023196 A JP 2018023196A JP 2018023196 A JP2018023196 A JP 2018023196A JP 2018110425 A JP2018110425 A JP 2018110425A
Authority
JP
Japan
Prior art keywords
picture
dpb output
sub
dpb
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018023196A
Other languages
English (en)
Inventor
イェ−クイ・ワン
Ye-Kui Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018110425A publication Critical patent/JP2018110425A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • H04N19/433Hardware specially adapted for motion estimation or compensation characterised by techniques for memory access
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】ビデオコード化プロセスにおける低遅延バッファリングのための技法を提供する。【解決手段】ビデオ復号技法は、復号されたピクチャに関する、第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を受信することと、復号されたピクチャに関して、ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定することと、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定することと、を含む。【選択図】図6

Description

関連出願
[0001]本願は、2012年12月19日付で提出された米国仮出願第61/739,632号、および2012年12月21日付で提出された米国仮出願第61/745,423号の利益を主張し、その両方の内容全体が参照により本明細書に組み込まれている。
[0002]本開示は、ビデオコード化に関し、より具体的には、ビデオコード化プロセスにおける低遅延バッファリングのための技法に関する。
[0003]デジタルビデオ能力は、デジタルテレビ、デジタルディレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、e−bookリーダ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレイヤ、ビデオゲームデバイス、ビデオゲーム機、セルラ式または衛星無線電話、いわゆる「スマートフォン」、ビデオ電話会議デバイス、ビデオストリーミングデバイス等を含む、幅広い範囲のデバイスに組み込まれることができる。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、Part 10、高度ビデオコード化(AVC:Advanced Video Coding)、現在開発中の高効率ビデオコード化(HEVC)規格、およびそのような規格の延長によって定義されている規格に説明されているもののような、ビデオ圧縮技法を実行する。ビデオデバイスは、そのようなビデオ圧縮技法を実行することによって、より効率的にデジタルビデオ情報を送信、受信、符号化、復号、および/または記憶することができる。
[0004]ビデオ圧縮技法は、ビデオシーケンスに内在する冗長を低減または除去するために、空間的(イントラピクチャ)予測、および/または時間的(インターピクチャ)予測を行う。ブロックベースのビデオコード化では、ビデオスライス(すなわち、ビデオフレームまたはビデオフレームの一部)は、ツリーブロック、コード化単位(CU)および/またはコード化ノードとも称されうる、ビデオブロックに区分されうる。ピクチャのイントラコード化された(I)スライスにおけるビデオブロックは、同じピクチャ内の隣接するブロックにおける参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコード化された(PまたはB)スライスにおけるビデオブロックは、同じピクチャ内の隣接するブロックにおける参照サンプルに対する空間的予測、または他の参照ピクチャにおける参照サンプルに対する時間的予測を使用することができる。ピクチャは、フレームと称され、参照ピクチャは参照フレームと称されうる。
[0005]空間的または時間的予測は、予測ブロックを利用する。残差データは、コード化されるべき元のブロックと予測ブロックとの間の画素の差分を表す。インターコード化されたブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、およびコード化されたブロックと予測ブロックとの間の差分を示す残差データにしたがって符号化される。イントラコード化されたブロックは、イントラコード化モードおよび残差データにしたがって符号化される。さらなる圧縮のために、残差データは画素ドメインから変換ドメインに変換され、その結果、その後量子化されうる残差変換係数をもたらしうる。最初は2次元のアレイ内に配置される量子化された変換係数は、変換係数の1次元ベクトルを作り出すために走査され、エントロピーコード化がさらなる圧縮を達成するために適用されうる。
[0006]概して本開示は、ビデオコード化のための技法を説明しており、より具体的には、ビデオコード化プロセスにおける低遅延バッファリングのための技法を説明している。1つまたは複数の例において、本開示は、ビデオバッファ遅延を改善するために、ビデオデコーダがサブピクチャレベルで動作しているときに使用されるべき復号ピクチャバッファ(DPB:decoded picture buffer)出力遅延を信号伝達するための技法を提案している。
[0007]本開示の一例では、ビデオを復号する方法は、復号されたピクチャに関する、第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を受信することと、復号されたピクチャに関して、ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定することと、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定することと、を備える。
[0008]本開示の別の例では、ビデオを符号化する方法は、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定することと、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定することと、第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を信号伝達することと、を備える。
[0009]本開示の別の例では、ビデオデータを復号するように構成された装置は、復号されたピクチャに関する、第1のDPB出力遅延および第2のDPB出力遅延を受信し、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定し、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定するように構成されたビデオデコーダ、を備える。
[0010]本開示の別の例では、ビデオデータを符号化するように構成された装置は、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定し、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定し、第1のDPB出力遅延および第2のDPB出力遅延を信号伝達するように構成されたビデオエンコーダ、を備える。
[0011]本開示の別の例では、ビデオデータを復号するように構成された装置は、復号されたピクチャに関する、第1のDPB出力遅延および第2のDPB出力遅延を受信するための手段と、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定するための手段と、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定するための手段と、を備える。
[0012]本開示の別の例では、ビデオデータを符号化するように構成された装置は、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定するための手段と、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定するための手段と、第1のDPB出力遅延および第2のDPB出力遅延を信号伝達するための手段と、を備える。
[0013]別の例では、本開示は、実行されるとき、ビデオデータを復号するように構成されたデバイスの1つまたは複数のプロセッサに、復号されたピクチャに関する、第1のDPB出力遅延および第2のDPB出力遅延を受信することと、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定することと、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定することと、を行わせる命令を記憶するコンピュータ可読記憶媒体を開示している。
[0014]別の例では、本開示は、実行されるとき、ビデオデータを符号化するように構成されたデバイスの1つまたは複数のプロセッサに、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定することと、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定することと、第1のDPB出力遅延および第2のDPB出力遅延を信号伝達することと、を行わせる命令を記憶するコンピュータ可読記憶媒体を開示している。
[0015]1つまたは複数の例の詳細は、添付図面および以下の説明において述べられている。他の特徴、目的、および利点は、説明、図面、および特許請求の範囲から明らかであろう。
本開示において説明されている技法を利用しうる実例となるビデオ符号化および復号システムを例示しているブロック図である。 仮想参照デコーダ(HRD)のためのバッファモデルを例示しているブロック図である。 本開示において説明されている技法を実行しうる実例となるビデオエンコーダを例示しているブロック図である。 本開示において説明されている技法を実行しうる実例となるビデオデコーダを例示しているブロック図である。 本開示の技法にしたがった実例となる符号化方法を図示しているフローチャートである。 本開示の技法にしたがった実例となる復号方法を図示しているフローチャートである。
[0022]本開示は、サブピクチャベースのコード化ピクチャバッファ(CPB:coded picture buffer)動作とサブピクチャタイミングベースの復号ピクチャバッファ(DPB)動作との両方を含む、一般的なサブピクチャベースの仮想参照デコーダ(HRD)を通じて、相互動作様式で、低減されるコデック(コーダ/デコーダ)遅延を達成する様々な方法および技法を説明している。
[0023]CPBおよび/またはDPB遅延時間を最小化することに対する現在の手法は、以下の欠点を示す。復号されたピクチャの出力時間は、最後の復号単位(すなわち、アクセス単位レベルの動作のためのアクセス単位自体)の復号時間(すなわち、CPB除去時間)に信号伝達されたDPB出力遅延を加えたものに等しい。したがって、遅延を低減するための2つの手法が一般に使用される。1つは、復号時間をより早期にシフトすることである。もう1つは、(CPB除去時間に対して)信号伝達されたDPB出力遅延の値を低減することである。しかしながら、極低(ultra-low)遅延バッファリングモデルに関する既存の解決策は、サブピクチャベースのCPB動作を伴うだけであり、遅延を低減するための第1の手法を利用するだけである。
[0024]これらの欠点の観点から、本開示は、CPB除去時間に対して信号伝達されたDPB出力遅延の低減された値の信号伝達および使用を介して復号遅延をさらに低減するための技法を提案する。
[0025]図1は、本開示において説明されている技法を利用しうる実例となるビデオ符号化および復号システム10を例示しているブロック図である。図1で図示されているように、システム10は、宛先デバイス(宛先機器)14によって後の時間に復号されるべき符号化されたビデオデータを生成するソースデバイス(発信源機器)12を含む。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンのような電話ハンドセット、いわゆる「スマート」パッド、テレビ、カメラ、ディスプレイデバイス(表示装置)、デジタルメディアプレイヤ、ビデオゲーム機、ビデオストリーミングデバイス等を含む、幅広い範囲のデバイスのいずれも備えることができる。いくつかのケースでは、ソースデバイス12および宛先デバイス14は、ワイヤレス通信のために装備されうる。
[0026]宛先デバイス14は、リンク16を介して、復号されるべき符号化されたビデオデータを受信することができる。リンク16は、ソースデバイス12から宛先デバイス14に符号化されたビデオデータを移動する能力を有するあらゆるタイプの媒体またはデバイスを備えることができる。一例において、リンク16は、ソースデバイス12がリアルタイムで、直接宛先デバイス14に符号化されたビデオデータを送信することを可能にする通信媒体を備えることができる。符号化されたビデオデータは、ワイヤレス通信プロトコルのような通信規格にしたがって変調され、宛先デバイス14に送信されうる。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物理送信ラインのような、あらゆるワイヤレスまたは有線通信媒体を備えることができる。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットのようなグローバルネットワークのような、パケットベースのネットワークの一部を形成することができる。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス12から宛先デバイス14への通信を容易にするのに役立ちうるあらゆる他の機器を含むことができる。
[0027]代わりとして、符号化されたデータは、出力インターフェース22から記憶デバイス33に出力されうる。同様に、符号化されたデータは、入力インターフェースによって記憶デバイス(記憶装置)33からアクセスされうる。記憶デバイス33は、ハードドライブ、ブルーレイディスク、DVD、CD−ROM、フラッシュメモリ、揮発性または非揮発性メモリ、あるいは符号化されたビデオデータを記憶するためのあらゆる他の適したデジタル記憶媒体のような、様々な、分散型のまたはローカルでアクセスされるデータ記憶媒体のうちのいずれも含むことができる。さらなる例において、記憶デバイス33は、ソースデバイス12によって生成された符号化されたビデオを保持することができる別の中間記憶デバイスまたはファイルサーバに対応しうる。宛先デバイス14は、ストリーミングまたはダウンロードを介して記憶デバイス33からの記憶されたビデオデータにアクセスすることができる。ファイルサーバは、符号化されたビデオデータを記憶すること、および宛先デバイス14にその符号化されたビデオデータを送信することの能力を有するサーバのいずれのタイプでもありうる。実例となるファイルサーバは、(例えば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(記憶)(NAS)デバイス(装置)、またはローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含む、あらゆる標準データ接続を通じて符号化されたビデオデータにアクセスすることができる。これは、ファイルサーバに記憶された、符号化されたビデオデータにアクセスするのに適している、ワイヤレスチャネル(例えば、Wi−Fi(登録商標)接続)、有線接続(例えば、DSL、ケーブルモデム等)、またはその両方の組み合わせを含むことができる。記憶デバイス33からの符号化されたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはその両方の組み合わせでありうる。
[0028]本開示の技法は、ワイヤレスアプリケーションまたは設定に必ずしも限定されるわけではない。技法は、無線テレビブロードキャスト、ケーブルテレビ送信、衛星テレビ送信、例えばインターネットを介したストリーミングビデオ送信、データ記憶媒体上での記憶のためのデジタルビデオの符号化、データ記憶媒体上に記憶されたデジタルビデオの復号、または他のアプリケーションのような様々なマルチメディアアプリケーションのいずれかをサポートする、ビデオコード化に適用されうる。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、および/またはビデオ電話通信のようなアプリケーションをサポートするために1方向、または2方向のビデオ送信をサポートするように構成されうる。
[0029]図1の例では、ソースデバイス12は、ビデオソース18、ビデオエンコーダ20、出力インターフェース22を含む。いくつかのケースにおいて、出力インターフェース22は、変調器/復調器(モデム)および/または送信機を含むことができる。ソースデバイス12において、ビデオソース18は、例えば、ビデオカメラ、以前にキャプチャされたビデオを含むビデオアーカイブ、ビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェース、および/またはソースビデオとしてコンピュータグラフィックデータを生成するためのコンピュータグラフィックシステム、またはそのような発信源の組み合わせといった、ビデオキャプチャデバイス(撮像装置)のような発信源を含むことができる。一例として、ビデオソース(ビデオ発信源)18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラ付電話、またはビデオ電話を形成することができる。しかしながら、本開示で説明されている技法は、一般にビデオコード化に適用可能であり、ワイヤレスおよび/または有線アプリケーションに適用されうる。
[0030]撮影された、予め撮影された(pre-captured)、またはコンピュータにより生成されたビデオは、ビデオエンコーダ20によって符号化されうる。符号化されたビデオデータは、ソースデバイス12の出力インターフェース22を介して、宛先デバイス14に直接送信されうる。符号化されたビデオデータは、そのうえ(または代わりとして)、復号および/または再生のために、宛先デバイス14または他のデバイスによる後のアクセスのために記憶デバイス33上に記憶されうる。
[0031]宛先デバイス14は、入力インターフェース28、ビデオデコーダ30、およびディスプレイデバイス32を含む。いくつかのケースでは、入力インターフェース28は、受信機および/またはモデムを含むことができる。宛先デバイス14の入力インターフェース28は、リンク16をわたって、符号化されたビデオデータを受信する。リンク16をわたって通信された、または記憶デバイス33上で提供された符号化されたビデオデータは、ビデオデータを復号する際に、ビデオデコーダ30のようなビデオデコーダによって使用される、ビデオエンコーダ20によって生成された様々なシンタックス要素を含むことができる。そのようなシンタックス要素は、通信媒体上で送信された、記憶媒体上に記憶された、またはファイルサーバに記憶された符号化されたビデオデータと共に含まれうる。
[0032]ディスプレイデバイス32は、宛先デバイス14と一体化されうる、あるいは宛先デバイス14の外部にありうる。いくつかの例では、宛先デバイス14は、一体化されたディスプレイデバイスを含むことができ、また外部のディスプレイデバイスとインターフェースで接続するように構成されうる。他の例では、宛先デバイス14は、ディスプレイデバイスでありうる。概して、ディスプレイデバイス32は、ユーザに対して、復号されたビデオデータをディスプレイし、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスのような、様々なディスプレイデバイスのいずれも備えることができる。
[0033]ビデオエンコーダ20およびビデオデコーダ30は、現在開発中の高効率ビデオコード化(HEVC)規格のような、ビデオ圧縮規格にしたがって動作し、HEVCテストモデル(HM)に準拠しうる。HEVCは、ITU−Tビデオコード化専門家グループ(VCEG:Video Coding Experts Group)およびISO/IEC動画専門家グループ(MPEG:Motion Picture Experts Group)から成るビデオコード化共同研究部会(JCT−VC:Joint Collaboration Team on Video Coding)によって展開されている。Bross他による「High Efficiency Video Coding (HEVC) text specification draft 9」という名の、以下でHEVC WD9と称される、1つのHEVCのワーキングドラフトは、2013年7月5日付けで、http://phenix.int-evry.fr/jct/doc_end_user/documents/11_Shanghai/wg11/JCTVC-K1003-v13.zipから利用可能である。HEVC WD9の全体の内容は、本明細書に参照により組み込まれている。
[0034]代わりとして、ビデオエンコーダ20およびビデオデコーダ30は、MPEG―4、Part10、アドバンスドビデオコード化(AVC)、またはそのような規格の延長として代わりに称される、ITU−T H.264規格のような、他の専有または工業規格(proprietary or industry standards)にしたがって動作することができる。しかしながら本開示の技法は、いずれの特定のコード化規格にも限定されない。ビデオ圧縮規格の他の例は、MPEG−2およびITU−T H.263を含む。
[0035]図1では図示されていないけれども、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は各々、音声エンコーダおよびデコーダと一体化され、共通のデータストリームまたは別個のデータストリームにおける音声およびビデオの両方の符号化を管理するために、適切なMUX−DEMUXユニットまたは他のハードウェアおよびソフトウェアを含むことができる。適用可能である場合、いくつかの例では、MUX−DEMUXユニットは、ITU.H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)のような他のプロトコルに準拠しうる。
[0036]ビデオエンコーダ20およびビデオデコーダ30は各々、1つまたは複数のマイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理回路、ソフトウェア、ハードウェア、ファームウェア、またはそれらのあらゆる組み合わせのような、様々な適したエンコーダ回路のいずれかとして実装されうる。技法が部分的にソフトウェアで実行されるとき、デバイスは、適した非トランジトリなコンピュータ可読媒体にソフトウェアのための命令を記憶することができ、本開示の技法を実行するために、1つまたは複数のプロセッサを使用してハードウェアにおいて命令を実行できる。ビデオエンコーダ20およびビデオデコーダ30の各々は、1つまたは複数のエンコーダまたはデコーダに含まれることができ、エンコーダまたはデコーダのどちらも、それぞれのデバイスにおける組み合わされたエンコーダ/デコーダ(CODEC)の一部として一体化されうる。
[0037]JCT−VCは、HEVC規格の発展に従事している。HEVC規格化の試みは、HEVCテストモデル(HM)と称されるビデオコード化デバイスの発展型モデルに基づく。HMは、例えば、ITU−T H.264/AVCにしたがった既存のデバイスと比較するとビデオコード化デバイスのいくつかの追加の能力を想定する。例えば、H.264が、9つのイントラ予測符号化モードを提供するのに対し、HMは、33もの数のイントラ予測符号化モードを提供することができる。
[0038]概して、HMのワーキングモデルは、ビデオフレームまたはピクチャが輝度サンプルおよび彩度サンプルの両方を含む最大コード化単位(LCU)またはツリーブロックのシーケンスに分割されうることを説明する。ツリーブロックは、H.264規格のマクロブロックと類似した目的を有する。スライスは、いくつかの連続するツリーブロックをコード化順序で含む。ビデオフレームまたはピクチャは、1つまたは複数のスライスに区分されうる。各ツリーブロックは四分木にしたがってコード化単位(CU)に分けられうる。例えば、あるツリーブロックは、四分木のルートノードとして、4個の子ノードに分けられ、各子ノードは、次々に親ノードとなり、別の4個の子ノードに分けられうる。最後の分けられない子ノードは、四分木のリーフノードとして、コード化ノード、すなわちコード化されたビデオブロックを備える。コード化されたビットストリームに関連付けられたシンタックスデータは、ツリーブロックが分けられうる回数の最大数を定義し、またコード化ノードの最小サイズを定義することができる。
[0039]CUは、コード化ノードと、コード化ノードに関連付けられた変換単位(TU)および予測単位(PU)とを含む。CUのサイズは一般に、コード化ノードのサイズに対応し、通常形が正方形でなければならない。CUのサイズは、8×8画素から、最大の64×64またはそれより大きい画素を有するツリーブロックのサイズまでの範囲に及ぶ。各CUは、1つまたは複数のPUおよび1つまたは複数のTUを含むことができる。CUに関連付けられたシンタックスデータは、例えば、CUの1つまたは複数のPUへの区分を記述しうる。区分モードは、CUがスキップまたは直接モード符号化されるか、イントラ予測モード符号化されるか、あるいはインター予測モード符号化されるかの間で異なりうる。PUは、形が非正方形になるように区分されうる。CUに関連付けられたシンタックスデータはまた、例えば、四分木にしたがったCUの1つまたは複数のTUへの区分を記述することもできる。TUは、形が正方形または非正方形であることができる。
[0040]HEVC規格は、異なるCUに対して異なりうるTUにしたがった変換を許容する。TUは通常、区分されたLCUのために定義された所与のCU内のPUのサイズに基づいてサイズ変更されるけれども、このことが常に当てはまるわけではない。TUは通常、PUと同じサイズであるか、またはPUよりも小さい。いくつかの例では、CUに対応する残差サンプルは、「残差四分木」(RQT)として知られる四分木構造を使用してより小さい単位にさらに分割されうる。RQTのリーフノードは、変換単位(TU)と称されうる。TUに関連付けられた画素差分値は、量子化されうる変換係数を作り出すために変換されうる。
[0041]概して、PUは、予測プロセスに関するデータを含む。例えば、PUがイントラモード符号化されるとき、PUは、そのPUのためのイントラ予測モードを記述するデータを含むことができる。別の例として、PUがインターモード符号化されるとき、PUは、そのPUのための動きベクトルを定義するデータを含むことができる。PUのための動きベクトルを定義するデータは、例えば、動きベクトルの水平コンポーネント、動きベクトルの垂直コンポーネント、動きベクトルのための解像度(例えば、4分の1画素精度または8分の1画素精度)、動きベクトルが指す参照ピクチャ、および/または動きベクトルに関する参照ピクチャリスト(例えば、リスト0、リスト1、またはリストC)を記述することができる。
[0042]概して、TUは、変換および量子化プロセスに使用される。1つまたは複数のPU有する所与のCUはまた、1つまたは複数の変換単位(TU)を含むことができる。予測に続いて、ビデオエンコーダ20は、PUにしたがってコード化ノードによって識別されたビデオブロックから残差値を計算することができる。その後、コード化ノードは、元のビデオブロックよりはむしろ残差値を参照するように更新される。残差値は、エントロピーコード化のための直列変換係数(serialized transform coefficient)を作り出すために、変換係数へと変換され、量子化され、この変換情報およびTUで指定された他の変換情報を使用して走査されうる画素差分値を備える。コード化ノードは、これらの直列変換係数を参照するように再度更新されうる。本開示は通常、CUのコード化ノードを指すように「ビデオブロック」という用語を使用する。いくつかの指定のケースでは、本開示はまた、コード化ノードと、PUおよびTUとを含むツリーブロック、すなわち、LCUまたはCUを指すようにも「ビデオブロック」という用語を使用することができる。
[0043]ビデオシーケンスは通常、一連のビデオフレームまたはピクチャを含む。グループオブピクチャ(GOP)は一般に、一連の1つまたは複数のビデオピクチャを備える。GOPは、GOPのヘッダ、1つまたは複数のピクチャのヘッダ、またはその他の場所に、GOP内に含まれたピクチャの数を記述するシンタックスデータを含むことができる。ピクチャの各スライスは、それぞれのスライスのための符号化モードを記述するスライスシンタックスデータを含むことができる。ビデオエンコーダ20は通常、ビデオデータを符号化するために、個別のビデオスライス内のビデオブロックに対して動作する。ビデオブロックは、CU内のコード化ノードに対応しうる。ビデオブロックは、一定または可変のサイズを有し、指定されたコード化規格にしたがってサイズが異なりうる。
[0044]例として、HMは、様々なPUサイズにおける予測をサポートする。特定のCUのサイズが2N×2Nであると仮定すると、HMは、2N×2NまたはN×NのPUサイズにおけるイントラ予測、および2N×2N、2N×N、N×2N、またはN×Nの対称PUサイズにおけるインター予測をサポートする。HMはまた、2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズにおけるインター予測のための非対称区分をサポートする。非対称区分において、CUの一方向が区分されないのに対して、もう一方の方向は25%および75%に区分される。25%区分に対応するCUの部分は、「上」、「下」、「左」、または「右」の指示が続く「n」によって示される。したがって、例えば、「2N×nU」は、上部では2N×0.5N PUと、下部では2N×1.5N PUで水平に区分される2N×2N CUを指す。
[0045]本開示では、「N×N」および「NbyN」は、垂直および水平次元の観点からのビデオブロックの画素次元、例えば、16×16画素、または16by16画素を指すために交換可能に使用されうる。概して、16×16ブロックは、垂直方向に16画素(y=16)、および水平方向に16画素(x=16)を有することになる。同様に、N×Nブロックは概して、垂直方向にN画素、および水平方向にN画素を有し、Nは、自然数値を表す。ブロックにおける画素は、行と列で配置されうる。その上、ブロックは、水平方向において、垂直方向と同じ数の画素を必ずしも有する必要はない。例えば、ブロックは、N×M画素を備えることができ、ここにおいて、Mは必ずしもNと等しくはない。
[0046]CUのPUを使用するイントラ予測コード化またはインター予測コード化に続いて、ビデオエンコーダ20は、CUのTUによって指定された変換が適用される残差データを計算することができる。残差データは、CUに対応する予測値と非符号化ピクチャの画素との間の画素差分に対応しうる。ビデオエンコーダ20は、CUのための残差データを形成し、その後、変換係数を作り出すために残差データを変換することができる。
[0047]変換係数を作り出すための任意の変換に続いて、ビデオエンコーダ20は、変換係数の量子化を実行することができる。量子化は一般に、係数を表すために使用されるデータの量をできる限り低減し、さらなる圧縮を提供するように変換係数が量子化されるプロセスを指す。量子化プロセスは、係数のいくつか、またはすべてに関連付けられたビット深度を低減することができる。例えば、nビット値は、量子化中にmビット値に丸められ、ここにおいてnはmよりも大きい。
[0048]いくつかの例では、ビデオエンコーダ20は、エントロピー符号化されることができる直列ベクトル(serialied vector)を作り出すように量子化された変換係数を走査するために、所定の走査順序を利用することができる。他の例では、ビデオエンコーダ20は、適応走査を実行することができる。1次元ベクトルを形成するように量子化された変換係数を走査した後、ビデオエンコーダ20は、例えば、コンテキスト適応可変長コード化(CAVLC:context adaptive variable length coding)、コンテキスト適応二進演算コード化(CABAC:context adaptive binary arithmetic coding)、シンタックスベースのコンテキスト適応二進演算コード化(SBAC:syntax-based context-adaptive binary arithmetic coding)、確率間隔区分エントロピー(PIPE:Probability Interval Partitioning Entropy)コード化または別のエントロピー符号化方法にしたがって、1次元のベクトルをエントロピー符号化することができる。ビデオエンコーダ20はまた、ビデオデータを復号する際にビデオデコーダ30によって使用される符号化されたビデオデータに関連付けられたシンタックス要素をエントロピー符号化することもできる。
[0049]CABACを実行するために、ビデオエンコーダ20は、送信されるべきシンボルに、コンテキストモデル内のコンテキストを割り当てることができる。コンテキストは、例えば、シンボルの隣接する値が非ゼロであるか否かに関しうる。CAVLCを実行するために、ビデオエンコーダ20は、送信されるべきシンボルのための可変長コードを選択することができる。VLCにおけるコードワードは、より長いコードがより可能性の低いシンボルに対応するのに対して比較的短いコードがより可能性の高いシンボルに対応するように構成されうる。このように、VLCの使用は、例えば送信されるべき各シンボルに対して等しい長さのコードワードを使用することを通じてビット節約を獲得することができる。確率の決定は、シンボルに割り当てられたコンテキストに基づきうる。
[0050]ビデオエンコーダ20およびビデオデコーダ30を使用することができるビデオアプリケーションは、局所再生、ストリーミング、ブロードキャスト/マルチキャスト、および対話アプリケーションを含むことができる。対話アプリケーションは、ビデオ電話およびビデオ会議を含む。対話アプリケーションはまた、そのようなリアルタイムアプリケーションが多大な遅延を許容しない点で、低遅延アプリケーションと称される。良好なユーザエクスペリエンスでは、対話アプリケーションは、全体のシステムの比較的低いエンドツーエンド遅延(end-to-end delay)、すなわちビデオフレームがソースデバイスで撮影される時間とビデオフレームが宛先デバイスで表示される時間との間の遅延を要求する。通常、対話アプリケーションに関する許容可能なエンドツーエンド遅延は、400ms未満であるべきである。約150msのエンドツーエンド遅延は、非常に良好であると考えられる。
[0051]対話アプリケーションの各処理ステップは、全体の端末相互間の遅延に寄与しうる。処理ステップからの実例となる遅延は、撮影遅延、前処理遅延、符号化遅延、送信遅延、(ジッタ除去(de-jittering)のための)受信バッファリング遅延、復号遅延、復号ピクチャ出力遅延、後処理遅延、および表示遅延を含む。通常、コデック遅延(符号化遅延、復号遅延、および復号ピクチャ出力遅延)は、対話アプリケーションで最小化されることが目的とされる。特に、コード化構造は、復号ピクチャ出力遅延がゼロに等しい、またはゼロに近くあるようにピクチャの復号順序および出力順序が同一であることを確実にすべきである。
[0052]ビデオコード化規格は通常、ビデオバッファリングモデルの仕様を含む。AVCおよびHEVCにおいて、バッファリングモデルは、コード化ピクチャバッファ(CPB)および復号ピクチャバッファ(DPB)の両方のバッファリングモデルを含む、仮想参照デコーダ(HRD)と称される。CPBは、復号のためのコード化ピクチャを含む先入れ先出しのバッファである。DPBは、参照(例えば、インター予測)、出力再順序付け、出力遅延、および最終的な表示に使用される復号されたピクチャを保持するバッファである。CPBおよびDPBの働き(behavior)は、HRDによって数学的に指定される。HRDは、異なるタイミング、バッファサイズ、およびビットレートに制約を直接課し、ビットストリーム特性および統計に制約を間接的に課す。HRDパラメータの完全なセットは、5つの基本パラメータ:初期CPB除去遅延、CPBサイズ、ビットレート、初期DPB出力遅延、およびDPBサイズを含む。
[0053]AVCおよびHEVCにおいて、ビットストリーム適合性(bitstream conformance)およびデコーダ適合性(decoder conformance)は、HRD仕様の一部として指定される。HRDは、デコーダと称されるけれども、HRDによって指定されるいくつかの技法はまた、通常デコーダ側で必要とされないけれども、ビットストリーム適合性を保証するためにエンコーダ側で通常必要とされる。ビットストリームまたはHRD適合性の2つのタイプ、すなわちタイプIおよびタイプII、が指定される。また、デコーダ適合性の2つのタイプ(すなわち、出力タイミングデコーダ適合性および出力順序デコーダ適合性)が指定される。
[0054]タイプIのビットストリームは、ビットストリームにおけるすべてのアクセス単位に関するFD_NUTに等しいnal_unit_typeを有するネットワーク抽象化レイヤ(NAL)単位(フィルタデータNAL単位)およびビデオコード化レイヤ(VCL)NAL単位のみを含む、NAL単位ストリームである。タイプIIビットストリームは、ビットストリームにおけるすべてのアクセス単位に関するフィルタデータNAL単位およびVCL NAL単位に加えて、以下:フィルタデータNAL単位以外の追加の非VCL NAL単位、NAL単位トリームからバイトストリームを形成するleading_zero_8bits、zero_byte、start_code_prefix_one_3bytes、およびtrailing_zero_8bitsのシンタックス要素のすべて、の少なくとも1つを含む。
[0055]図2は、仮想参照デコーダ(HRD)のためのバッファモデルを例示しているブロック図である。HRDは以下のように動作する。指定された到着スケジュールにしたがってCPB102に流れる復号単位に関連付けられたデータは、仮想ストリームスケジューラ(HSS)100によって運ばれる。HSS100に運ばれるストリームは、上記で定義されたようなタイプIまたはタイプIIビットストリームでありうる。各復号単位に関連付けられたデータは、復号単位のCPB除去時間において、復号プロセス104を用いて(例えば、ビデオデコーダ30によって)除去および復号される。復号プロセス104は、ビデオデコーダ30によって実行される。復号プロセス104を用いて作り出される各復号されたピクチャは、DPB106に置かれる。復号されたピクチャは、復号プロセス104中(例えば、インター予測中)に参照ピクチャとして使用されうる。復号されたピクチャは、それがもはやインター予測参照のために必要とされなくなる、およびもはや出力のために必要とされなくなるとき、DPB106から除去される。いくつかの例では、DPB106における復号されたピクチャは、表示される前に出力クロッピングユニット108によってクロップされうる。出力クロッピングユニット108は、ビデオデコーダ30の一部でありうるか、またはビデオデコーダの出力をさらに処理するように構成された外部プロセッサ(例えば、表示プロセッサ)の一部でありうる。
[0056]AVCおよびHEVC HRDモデルでは、復号またはCPB除去は、アクセス単位(AU)ベースであり、ピクチャ復号が瞬間的なものであることが前提とされる(例えば、図2における復号プロセス104は瞬間的なものであると前提される)。アクセス単位は、ネットワーク抽象化レイヤ(NAL)単位のセットであり、1つのコード化されたピクチャを含む。実際のアプリケーションでは、適合デコーダ(conforming decoder)が厳密に、AUの復号を開始するために、例えば、ビデオエンコーダ20によって生成されたピクチャタイミング補足強化情報(SEI)メッセージで信号伝達される復号時間に従う場合、特定の復号されたピクチャを出力する最も早い可能性のある時間は、その特定のピクチャの復号時間(すなわち、ピクチャが復号され始める時間)にその特定のピクチャを復号するために必要な時間を加えたものに等しい。現実世界でピクチャを復号ために必要な時間は、ゼロに等しくあることはできない。
[0057]HEVC WD9は、時折、極低遅延と称される、低減されたコデック遅延を可能にするサブピクチャベースのCPB動作のサポートを含む。サブピクチャレベルのCPB動作が、(HEVC仕様書で指定されていない外部手段によって指定されうる)デコーダによって好まれるかどうか、およびサブピクチャCPBパラメータが(HEVC仕様書で指定されていない外部手段を通じて、またはビットストリームにおいて)存在するかどうかに依存して、CPBは、AUレベル(すなわち、ピクチャレベル)またはサブピクチャレベル(すなわち、ピクチャ全体よりも小さい)のどちらかで動作することができる。両方の条件が真であるとき、CPBはサブピクチャレベルで動作する(およびこのケースでは、各復号単位はAUのサブセットとして定義される)。復号単位(DU)は、デコーダが動作する単位である。そうでなければ、CPBはAUレベルで動作する(およびこのケースでは、各復号単位はAUとして定義される)。シンタックス要素SubPicCpbFlagが0に等しい場合、DUはAUに等しい。そうでなければ、DUはAUのサブセットである。
[0058]サブピクチャレベルのCPBパラメータのためのHEVCシンタックスは以下を含む:
―以下のシンタックスは、シーケンスパラメータセット(SPS)のビデオユーザビリティ情報(VUI)部にある
oサブピクチャレベルのCPBパラメータが存在するかどうか
oサブチッククロック(sub tick clock)の導出のための、チック除数(tick divisor)
oCPB除去遅延長
o復号単位CPB除去遅延値が、ピクチャタイミングSEIメッセージで信号伝達されるか、復号単位情報SEIメッセージで信号伝達されるか
oサブピクチャレベルでのCPB動作のためのCPBサイズ値の長さ
―以下のシンタックスは、バッファリング期間SEIメッセージにある
oサブピクチャレベルのCPB動作のための初期CPB除去遅延のセットおよび遅延オフセット
―以下のシンタックスは、ピクチャタイミングSEIメッセージにある
oアクセス単位における復号単位の数
o各復号単位におけるNAL単位の数
o復号単位に関する復号単位CPB除去遅延値
―以下のシンタックスは、ピクチャタイミングSEIメッセージにある
oアクセス単位における復号単位のリストの各復号単位のインデックス
o各復号単位に関する復号単位CPB除去遅延値
[0059]CPBおよび/またはDPB遅延時間を最小化することに対する現在の手法は、以下の欠点を見せる。復号されたピクチャの出力時間は、最後のDU(つまり、AUレベルの動作に関してAU自体)の復号時間(すなわち、CPB除去時間)に信号伝達されたDPB出力遅延を加えたものに等しい。したがって、遅延を低減するための2つの手法が一般に使用される。1つは、復号時間をより早期にシフトすることである。もう1つは、(CPB除去時間と比較して)信号伝達されたDPB出力遅延の値を低減することである。しかしながら、極低遅延バッファリングモデルに関する既存の解決策は、サブピクチャベースのCPB動作を伴うだけであり、遅延を低減するためのその最初の手法を利用するだけである。
[0060]これらの欠点の観点から、本開示は、CPB除去時間と比較して信号伝達されたDPB出力支援の低減された値の信号伝達および使用を介して復号遅延をさらに低減するための技法を提案する。
[0061]特に、本開示の一例では、各AUのCPB除去時間と比較したDPB出力遅延の1つの追加の信号伝達された値は、例えばピクチャタイミングSEIメッセージにおいて、エンコーダによって信号伝達される。この追加の信号伝達されたDPB出力遅延は、サブピクチャベースのHRD動作のためのDPB出力時間の導出において使用される。別の例では、追加で信号伝達されたDPB出力遅延に加えて、DPB出力時間は、チッククロックの代わりにサブチッククロックを使用して導出される。
[0062]いくつかの詳細な例が以下で提供されている。特別に言及されていない場合、以下の例の態様は、HEVC WD9で定義されるように動作することができる。
[0063]本開示の一例にしたがうと、ピクチャタイミングSEIメッセージの実例となるシンタックスおよびセマンティクスは、以下の通りである。本開示で変えられるまたは紹介されるシンタックス要素は、太字で図示されている。
Figure 2018110425
[0064]本開示のこの例では、太字にされたシンタックス要素は、以下の通りに動作しうる。シンタックス要素pic_dpb_output_du_delayは、HEDがサブピクチャレベルで動作するとき(すなわち、SubPicCpbFlagが1に等しいとき)ピクチャのDPB出力時間を計算するために使用される。シンタックス要素pic_dpb_output_du_delayは、復号されたピクチャがDPBから出力される前に、CPBからのアクセス単位における最後の復号単位の除去の後、いくつのサブサブクロックチックを待機すべきかを指定する。
[0065]一例では、シンタックス要素pic_dpb_output_du_delayの長さは、dpb_output_delay_length_minus1+1によってビット単位で与えられる。別の例では、シンタックス要素pic_dpb_output_du_delayの長さは、別のシンタックス要素の値に1を加えたものによってビット単位で与えられ、ここにおいて、例えば、そのシンタックス要素は、dpb_output_delay_length_du_minus1と名付けられ、シーケンスパラメータセットのVUI部において信号伝達される。
[0066]出力タイミング適合デコーダから出力される任意のピクチャのpic_dpb_output_du_delayから導出される出力時間は、任意の後続のコード化されたビデオシーケンスにおけるすべてのピクチャのpic_dpb_output_du_delayから導出された出力時間に、復号順序で先行するものとする。一例では、このシンタックス要素の値によって確立されるピクチャ出力順序は、HEVC WD9で指定されるような、シンタックス要素PicOrderCntValの値によって確立されるものと同じ順序であるものとする。シンタックス要素PicOrderCntValは、現在のピクチャのピクチャ順序カウント(POC)を示す。POC値は、同じコード化されたビデオシーケンスにおけるDPBから出力されるべき他のピクチャの出力順序位置に対する、出力順序における関連付けられたピクチャの位置を示すDPBから出力されるべき各ピクチャに関連付けられる変数である。
[0067]「バンピング(bumping)」プロセス(すなわち、ピクチャがDPBから除去されるプロセス)によって出力されないピクチャに関しては、それらが、1に等しい、または1に等しいと推測されるno_output_of_prior_pics_flagを有する、瞬時復号リフレッシュ(IDR)またはブロークンリンクアクセス(BLA)ピクチャに、復号順序で先行するので、pic_dpb_output_du_delayから導出された出力時間は、同じコード化されたビデオシーケンス内のすべてのピクチャに関連するPicOrderCntValの増加する値で増加するものとする。シンタックス要素no_output_of_prior_pics_flagは、IDRまたはBLAピクチャの復号後にDPBにおける以前に復号されたピクチャがどのように扱われるかを指定する。no_output_of_prior_pics_flagが1に等しい、または1に等しいと推測される場合、IDRまたはBLAピクチャを復号した後、それらの以前に復号されたピクチャは、出力されないだろうけれども、復号ピクチャバッファ(DPB)から直接フラッシュ/除去されるだろう。
[0068]「バンピング」プロセスは、以下のケースにおいて引き起こされる。
―現在のピクチャはIDRまたはBLAピクチャであり、no_output_of_prior_pics_flagは1に等しくなく、1に等しいと推測されない。
―現在のピクチャはIDRピクチャでもBLAピクチャでもなく、「出力に必要」とマークされるDPBにおけるピクチャの数は、復号順序でいずれのピクチャにも先行する、許容されるピクチャの最大数(sps_max_num_reorder_pics[HighestTid])よりも大きい。
―現在のピクチャはIDRピクチャでもBLAピクチャでもなく、DPBにおけるピクチャの数は、ピクチャ記憶バッファのユニットにおけるDPBの最大の要求されるサイズ(sps_max_dec_pic_buffering[HighestTid])に等しい。
「バンピング」プロセスは、以下の順序付けられたステップを含む:
1.出力に関して1番目であるピクチャは、「出力に必要」とマークされるDPBにおけるすべてのピクチャのPicOrderCntValの最小の値を有するものとして選択される。
2.ピクチャは、ピクチャに関するアクティブなシーケンスパラメータセットで指定される適合性クロッピングウィンドウを使用してクロップされ、クロップされたピクチャは出力され、そのピクチャは「出力に必要でない」とマークされる。
3.クロップおよび出力されたピクチャを含んだピクチャ記憶バッファが「参照に使用されない」とマークされたピクチャを含む場合、ピクチャ記憶バッファは空にされる。つまり、ピクチャが、表示のために出力されており、もはやインター予測に必要とされない場合、それは「バンピング」されうる、すなわち、DPBから除去されうる。
[0069]コード化されたビデオシーケンスにおけるいずれの2つのピクチャに関しても、サブピクチャレベルのHRD動作の下で導出された2つのピクチャの出力時間の間の差異は、AUレベル(すなわち、ピクチャレベル)のHRD動作の下で導出された同じ差異と同一であるものとする。
[0070]実例となるピクチャ出力プロセスは以下の通りである。以下は、アクセ単位nのCPB除去時間t(n)で瞬間的に起こる。ピクチャnが1に等しいPicOutputFlagを有するか否か(すなわち、サブピクチャHRDが使用されるか)に基づいて、そのDPB出力時間to,dpb(n)は、以下の数式によって導出される:
Figure 2018110425
ここにおいて、pic_dpb_output_delay(n)およびpic_dpb_output_du_delay(n)は、それぞれ、アクセス単位nに関連付けられたピクチャタイミングSEIメッセージにおいて指定された、pic_dpb_output_delayおよびpic_dpb_output_du_delayの値である。変数tは以下通りに導出され、クロックチックと呼ばれる:
Figure 2018110425
変数tc_subは以下通りに導出され、サブピクチャクロックチックと呼ばれる:
Figure 2018110425
[0071]本開示の例にしたがって、現在のピクチャの出力は以下の通りに指定される:
―PicOutputFlagが1およびto,dpb(n)=t(n)である場合、現在のピクチャは出力される。
―そうでなければ、PicOutputFlagが0に等しい場合、上記で概説された「バンピング」プロセスによって指定されているように、現在のピクチャは出力されないけれども、DPBに記憶されることになる。
―そうでなければ(PicOutputFlagが1およびto,dpb(n)>t(n)に等しい)、(「バンピング」プロセスによって指定されているように)現在のピクチャは後に出力され、DPBに記憶されることになり、ならびに、to,dpb(n)に先行する時間に、1に等しいno_output_of_prior_pics_flagの推側または復号によって出力されないと示されない限り、時間to,dpb(n)に出力される。出力されるとき、ピクチャは、アクティブなシーケンスパラメータセットで指定される適合性クロッピングウィンドウを使用してクロッピングされるものとする。
[0072]ピクチャnが出力されるピクチャであり、かつ出力されるビットストリームの最後のピクチャでないとき、
Figure 2018110425
(すなわち、ピクチャ間のDPB出力時間)の値は次のように定義される:
Figure 2018110425
ここにおいて、nは、出力順序でピクチャnに続くピクチャを示し、1に等しいPicOutputFlagを有する。
[0073]図3は、本開示において説明されている技法を実行しうる実例となるビデオエンコーダを例示しているブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラおよびインターコード化を実行することができる。イントラコード化は、所与のビデオフレームまたはピクチャ内のビデオにおける空間的冗長性を低減または除去するために空間的予測に頼る。インターコード化は、ビデオシーケンスの近接フレームまたはピクチャ内のビデオにおける時間的冗長性を低減または除去するために時間的予測に頼る。イントラモード(Iモード)は、いくつかの空間ベースの圧縮モードのうちのいずれも指すことができる。単方向予測(Pモード)または双方向予測(Bモード)のようなインターモードは、いくつかの時間ベースの圧縮モードのうちのいずれも指すことができる。
[0074]図3の例では、ビデオエンコーダ20は、予測処理ユニット41、参照ピクチャメモリ64、加算器50、変換処理ユニット52、量子化ユニット54、およびエントロピー符号化ユニット56を含む。予測処理ユニット41は、動き推定ユニット42、動き補償ユニット44、およびイントラ予測処理ユニット46を含む。ビデオブロック再構成では、ビデオエンコーダ20はまた、逆量子化ユニット58、逆変換処理ユニット60、および加算器62を含む。デブロッキングフィルタ(図3には図示せず)もまた、再構成されたビデオからブロック歪み(blockiness artifact)を除去するようにブロック境界をフィルタリングするために含まれうる。所望される場合、デブロッキングフィルタは通常、加算器62の出力をフィルタするだろう。(ループ中またはループ後の)追加のループフィルタもまた、デブロッキングフィルタに加えて使用されうる。
[0075]図3に図示されているように、ビデオエンコーダ20は、ビデオデータを受信し、予測処理ユニット41は、ビデオブロックにデータを区分することができる。この区分はまた、例えば、LCUおよびCUの四分木構造にしたがって、ビデオブロックの区分に加えて、スライス、タイル、または他のより大きな単位への区分を含むことができる。ビデオエンコーダ20は概して、符号化されるべきビデオスライス内のビデオブロックを符号化するコンポーネントを例示している。スライスは、複数のビデオブロック(および場合により、タイルと称されるビデオブロックのセット)に分割されうる。予測処理ユニット41は、エラー結果(例えば、コード化レートおよび歪みのレベル)に基づいて現在のビデオブロックのために、複数のイントラコード化モードのうちの1つ、または複数のインターコード化モードのうちの1つ、のような複数の可能なコード化モードのうちの1つを選択することができる。予測処理ユニット41は、残差ブロックデータを生成する加算器50に、および参照ピクチャとして使用される符号化されたブロックを再構成する加算器62に、結果として生じるイントラまたはインターコード化されたブロックを提供することができる。
[0076]予測処理ユニット41内のイントラ予測処理ユニット46は、空間的圧縮を提供するためにコード化されるべき現在のブロックと同じフレームまたはスライスにおける1つまたは複数の近隣ブロックに関連して現在のビデオブロックのイントラ予測コード化を実行することができる。予測処理ユニット41内の動き推定ユニット42および動き補償ユニット44は、時間的圧縮を提供するために、1つまたは複数の参照ピクチャにおける1つまたは複数の予測ブロックに関連して現在のビデオブロックのインター予測コード化を実行する。
[0077]動き推定ユニット42は、ビデオシーケンスに関する所定のパターンにしたがって、ビデオスライスのためのインター予測モードを決定するように構成されうる。所定のパターンは、Pスライス、Bスライス、またはGPBスライスとしてシーケンスにおけるビデオスライスを指定することができる。動き推定ユニット42および動き補償ユニット44は、高度に一体化されうるけれども、概念的な目的のために別個に例示されている。動き推定ユニット42によって実行される動き推定は、動きベクトルを生成するプロセスであり、動きベクトルは、ビデオブロックに関する動きを推定する。動きベクトルは、例えば、参照ピクチャ内の予測ブロックに対する、現在のビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示すことができる。
[0078]予測ブロックは、絶対値差分の和(SAD)、二乗差分の和(SSD)、または他の差分メトリックによって決定されうる、画素差分の観点からコード化されるべきビデオブロックのPUに密接に一致すると発見されるブロックである。いくつかの例では、ビデオエンコーダ20は、参照ピクチャメモリ64に記憶された参照ピクチャのサブ整数画素位置に関する値を計算することができる。例えば、ビデオエンコーダ20は、参照ピクチャの4分の1画素位置、8分の1画素位置、または他の分数画素位置の値を補間することができる。したがって、動き推定ユニット42は、分数画素位置および全画素位置に対する動き探索を実行し、分数画素精度で動きベクトルを出力しうる。
[0079]動き推定ユニット42は、PUの位置と参照ピクチャの予測ブロックの位置を比較することによって、インターコード化されたスライスにおけるビデオブロックのPUに関する動きベクトルを計算する。参照ピクチャは、各々が参照ピクチャメモリ64に記憶された1つまたは複数のピクチャを識別する、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択されうる。動き推定ユニット42は、エントロピー符号化ユニット56および動き補償ユニット44に計算された動きベクトルを送る。
[0080]動き補償ユニット44によって実行される動き補償は、動き推定によって決定される動きベクトルに基づいて予測ブロックを取り込むことまたは生成することを、場合によりサブ画素精度に対する補間を実行することを、伴いうる。現在のビデオブロックのPUに関する動きベクトルを受信すると、動き補償ユニット44は、動きベクトルが参照ピクチャリストのうちの1つにおいて指し示す予測ブロックを探索することができる。ビデオエンコーダ20は、コード化されている現在のビデオブロックの画素値から予測ブロックの画素値を減算することによって、画素差分値を形成して、残差ビデオブロックを形成する。画素差分値は、ブロックに関する残差データを形成し、輝度および彩度差分のコンポーネントの両方を含むことができる。加算器50は、この減算演算を実行する1つまたは複数のコンポーネントを表す。動き補償ユニット44はまた、ビデオスライスのビデオブロックを復号する際に、ビデオデコーダ30によって使用されるビデオスライスおよびビデオブロックに関連付けられたシンタックス要素を生成することができる。
[0081]イントラ予測処理ユニット46は、上記に説明されるように、動き推定ユニット42および動き補償ユニット44によって実行されるインター予測の代替として、現在のブロックをイントラ予測することができる。特に、イントラ予測処理ユニット46は、現在のブロックを符号化するために使用すべきイントラ予測モードを決定することができる。いくつかの例では、イントラ予測処理ユニット46は、例えば、別個の符号化パス中に様々なイントラ予測モードを使用して現在のブロックを符号化することができ、イントラ予測処理ユニット46(または、いくつかの例ではモード選択ユニット40)は、テストされたモードから使用すべき適切なイントラ予測モードを選択することができる。
[0082]例えば、イントラ予測処理ユニット46は、様々なテストされたイントラ予測モードのためにレート歪み分析を使用してレート歪み値を計算し、テストされたモードの中の、最良のレート歪み特性を有するイントラ予測モードを選択することができる。レート歪み分析は概して、符号化されたブロックを作り出すために使用されるビットレート(つまり、ビットの数)に加えて、符号化されたブロックと、符号化されたブロックを作り出すために符号化された元の符号化されていないブロックとの間の歪み(または誤り)の量を決定することができる。イントラ予測処理ユニット46は、どのイントラ予測モードがそのブロックに関する最良のレート歪み値を示すかを決定するために、歪みの割合及び様々な符号化されたブロックについての変化量を計算しうる。
[0083]いずれのケースでも、ブロックのためのイントラ予測モードを選択した後で、イントラ予測処理ユニット46は、ブロックのための選択されたイントラ予測モードを示す情報をエントロピー符号化ユニット56に提供することができる。エントロピー符号化ユニット56は、本開示の技法にしたがって、選択されたイントラ予測モードを示す情報を符号化することができる。ビデオエンコーダ20は、送信されたビットストリーム構成データを含むことができ、それは、複数のイントラ予測モードインデックス表および複数の変更されたイントラ予測モードインデックス表(コードワードマッピング表とも称される)、様々なブロックに関する符号化コンテキストの定義、最も可能性の高いイントラ予測モードの指示、イントラ予測モードインデックス表、およびコンテキストの各々に使用すべき変更されたイントラ予測モードインデックス表、を含むことができる。
[0084]予測処理ユニット41がインター予測またはイントラ予測のいずれかを介して現在のビデオブロックに関する予測ブロックを生成した後で、ビデオエンコーダ20は、現在のビデオブロックから予測ブロックを減算することによって残差ビデオブロックを形成する。残差ブロックにおける残差ビデオデータは、1つまたは複数のTUに含まれ、変換処理ユニット52に適用されうる。変換処理ユニット52は、離散コサイン変換(DCT)または概念上類似の変換のような変換を使用して残差ビデオデータを残差変換係数に変換する。変換処理ユニット52は、残差ビデオデータを画素ドメインから周波数ドメインのような変換ドメインに変換することができる。
[0085]変換処理ユニット52は、量子化ユニット54に結果として生じる変換係数を送ることができる。量子化ユニット54は、さらにビットレートを低減するために変換係数を量子化する。量子化プロセスは、係数のいくつか、またはすべてに関連付けられたビット深度を低減することができる。量子化の程度は、量子化パラメータを調整することによって変更されうる。いくつかの例では、量子化ユニット54はその後、量子化された変換係数を含む行列の走査を実行することができる。代わりとして、エントロピー符号化ユニット56が、その走査を実行することができる。
[0086]量子化に続いて、エントロピー符号化ユニット56は、量子化された変換係数をエントロピー符号化する。例えば、エントロピー符号化ユニット56は、コンテキスト適応可変長コード化(CAVLC)、コンテキスト適応二進演算コード化(CABAC)、シンタックスベースのコンテキスト適応二進演算コード化(SBAC)、確率間隔区分エントロピー(PIPE)コード化または別のエントロピー符号化方法または技法を実行することができる。エントロピー符号化ユニット56によるエントロピー符号化に続いて、符号化されたビットストリームは、ビデオデコーダ30に送信されるか、またはビデオデコーダ30による後の送信または検索のためにアーカイブされうる。エントロピー符号化ユニット56はまた、コード化されている現在のビデオスライスのための他のシンタックス要素および動きベクトルをエントロピー符号化することもできる。
[0087]逆量子化ユニット58および逆変換処理ユニット60は、参照ピクチャの参照ブロックとして後に使用する画素ドメインにおける残差ブロックを再構成するために、逆量子化および逆変換を、それぞれ適用する。動き補償ユニット44は、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つの予測ブロックに残差ブロックを追加することによって参照ブロックを計算することができる。動き補償ユニット44はまた、動き推定において使用するサブ整数画素値を計算するために、再構成された残差ブロックに1つまたは複数の補間フィルタを適用することもできる。加算器62は、参照ピクチャメモリ64(復号ピクチャバッファとも呼ばれる)への記憶のための参照ブロックを作り出すために動き補償ユニット44によって作り出された動き補償予測ブロックに再構成されたビデオブロックを追加する。参照ブロックは、後続のビデオフレームまたはピクチャにおいてブロックをインター予測するために、参照ブロックとして動き推定ユニット42および動き補償ユニット44によって使用されうる。
[0088]ビデオエンコーダ20は、本開示の技法を実行するように構成されうる。一例では、ビデオエンコーダ20は、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定し、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定し、符号化されたビデオビットストリームにおいて第1のDPB出力遅延および第2のDPB出力遅延を信号伝達するように構成されうる。本開示の技法にしたがったビデオエンコーダ20の動作のさらなる例は、図5を参照して以下で論じられることになる。
[0089]図4は、本開示において説明されている技法を実行しうる実例となるビデオデコーダ30を例示しているブロック図である。図4の例では、ビデオデコーダ30は、コード化ピクチャバッファ(CPB)78、エントロピー復号ユニット80、予測処理ユニット81、逆量子化ユニット86、逆変換処理ユニット88、加算器90、および復号ピクチャバッファ(DPB)92を含む。予測処理ユニット81は、動き補償ユニット82およびイントラ予測処理ユニット84を含む。ビデオデコーダ30は、いくつかの例では、図3のビデオエンコーダ20に関して説明された符号化パスと概して逆の復号パスを実行することができる。
[0090]CPB78は、符号化されたピクチャビットストリームからのコード化されたピクチャを記憶する。一例では、CPB78は、復号順序で、アクセス単位(AU)を含む先入れ先出しバッファである。AUは、指定された分類規則にしたがって互いに関連付けられ、復号順序で連続的であり、正確に1つのコード化されたピクチャを含む、ネットワーク抽象化レイヤ(NAL)単位のセットである。復号順序は、ピクチャが復号される順序であり、ピクチャが表示される順序(すなわち、表示順序)とは異なりうる。CPBの動作は、本開示の技法にしたがって動作する仮想参照デコーダ(HRD)のような、HRDによって指定されうる。
[0091]復号プロセス中、ビデオデコーダ30は、ビデオエンコーダ20から、符号化されたビデオスライスのビデオブロックおよび関連付けられたシンタックス要素を表す符号化されたビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット80は、量子化された係数、動きベクトル、および他のシンタックス要素を生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット80は、動きベクトルおよび他のシンタックス要素を予測処理ユニット81に転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信することができる。
[0092]ビデオスライスがイントラコード化された(I)スライスとしてコード化されるとき、予測処理ユニット81のイントラ予測処理ユニット84は、現在のフレームまたはピクチャの以前に復号されたブロックからの信号伝達されたイントラ予測モードおよびデータに基づいて現在のビデオスライスのビデオブロックに関する予測データを生成することができる。ビデオフレームがインターコード化された(すなわち、BまたはP)スライスとしてコード化されるとき、予測処理ユニット81の動き補償ユニット82は、エントロピー復号ユニット80から受信された動きベクトルおよび他のシンタックス要素に基づいて現在のビデオスライスのビデオブロックに関する予測ブロックを作り出す。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから作り出されうる。ビデオデコーダ30は、DPB92に記憶された参照ピクチャに基づいて、デフォルト構成技法を使用して参照フレームリスト、リスト0およびリスト1を構成することができる。
[0093]動き補償ユニット82は、動きベクトルおよび他のシンタックス要素を解析することによって現在のビデオスライスのビデオブロックに関する予測情報を決定し、復号されている現在のビデオブロックに関する予測ブロックを作り出すためにその予測情報を使用する。例えば、動き補償ユニット82は、ビデオスライスのビデオブロックをコード化するために使用される予測モード(例えば、イントラまたはインター予測)を決定するために受信されたシンタックス要素、インター予測スライスタイプ(例えば、BスライスまたはPスライス)、スライスのための参照ピクチャリストのうちの1つまたは複数に関する構成情報、スライスの各インター符号化されたビデオブロックのための動きベクトル、スライスの各インターコード化されたビデオブロックのためのインター予測ステータス、および現在のビデオスライスにおけるビデオブロックを復号する他の情報、のうちのいくつかを使用する。
[0094]動き補償ユニット82はまた、補間フィルタに基づいて補間を実行することもできる。動き補償ユニット82は、参照ブロックのサブ整数画素のために補間された値を計算するために、ビデオブロックの符号化中にビデオエンコーダ20によって使用されるような補間フィルタを使用することができる。このケースにおいて、動き補償ユニット82は、受信されたシンタックス要素からビデオエンコーダ20によって使用される補間フィルタを決定し、予測ブロックを作り出すために補間フィルタを使用することができる。
[0095]逆量子化ユニット86は、ビットストリームにおいて提供され、エントロピー復号ユニット80によって復号された量子化された変換係数を逆量子化(inverse quantize)、すなわち非量子化(de quantize)する。逆量子化プロセスは、適用されるべき、量子化の程度および同様に、逆量子化の程度を決定するための、ビデオスライスにおける各ビデオブロックに関してビデオエンコーダ20によって計算される量子化パラメータの使用を含むことができる。逆変換処理ユニット88は、画素ドメインにおいて残差ブロックを作り出すために、変換係数に逆変換、例えば、逆DCT、逆整数変換、または概念上類似の逆変換プロセスを適用する。
[0096]動き補償ユニット82が動きベクトルおよび他のシンタックス要素に基づいて現在のビデオブロックに関する予測ブロックを生成した後で、ビデオデコーダ30は、逆変換処理ユニット88からの残差ブロックを動き補償ユニット82によって生成される対応する予測ブロックと合計することによって復号されたビデオブロックを形成する。加算器90は、この加算演算を実行する1つまたは複数のコンポーネントを表す。所望される場合、デブロッキングフィルタもまた、ブロッキネスアーティファクトを除去するために復号されたブロックをフィルタするように適用されうる。(コード化ループ内またはコード化ループ後のどちらかの)他のループフィルタもまた、画素遷移を円滑にするか、または別の方法でビデオ品質を改善するために使用されうる。所与のフレームまたはピクチャにおける復号されたビデオブロックは、その後、後続の動き補償に使用される参照ピクチャを記憶する、DPB92に記憶される。DPB92はまた、図1のディスプレイデバイス32のようなディスプレイデバイス上での後の表示のために復号されたビデオも記憶する。CPB78と同様に、一例では、DPB92の動作は、本開示の技法によって定義されているように、HRDによって指定されうる。
[0097]ビデオデコーダ30は、本開示の技法を実行するように構成されうる。一例では、ビデオデコーダ30は、復号されたピクチャに関する、第1のDPB出力遅延および第2のDPB出力遅延を受信し、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定し、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定するように構成されうる。本開示の技法にしたがったビデオデコーダ30の動作のさらなる例は、図6を参照して以下で論じられることになる。
[0098]図5は、本開示の技法にしたがった実例となる符号化方法を図示しているフローチャートである。図5の技法は、ビデオエンコーダ20の1つまたは複数の構造によって実行されうる。
[0099]一例では、ビデオエンコーダ20は、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定し(500)、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定する(502)ように構成されうる。ビデオエンコーダ20は、符号化されたビデオビットストリームにおいて、第1のDPB出力遅延および第2のDPB出力遅延を信号伝達する(504)ようにさらに構成されうる。
[0100]ビデオエンコーダ20は、ビデオデコーダのためのHRD設定がピクチャレベルにあるか、サブピクチャレベルにあるかを示すサブピクチャCPBフラグを信号伝達し(506)、サブピクチャCPBフラグに基づいてビデオピクチャを符号化する(508)ようにさらに構成されうる。
[0101]本開示の一例では、第2のDPB出力時間を決定することは、サブピクチャクロックチックによって第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることを備える。本開示の別の例では、第1のDPB出力時間を決定することは、クロックチックによって第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることを備える。
[0102]図6は、本開示の技法にしたがった実例となる復号方法を図示しているフローチャートである。図6の技法は、ビデオデコーダ30の1つまたは複数の構造によって実行されうる。
[0103]一例では、ビデオデコーダ30は、ビデオデコーダのためのHRD設定がピクチャレベルにあるか、サブピクチャレベルにあるかを示すサブピクチャCPBフラグを受信し(600)、サブピクチャCPBフラグに基づいてビデオピクチャを復号する(602)ように構成されうる。
[0104]ビデオデコーダ30は、復号されたピクチャに関する、第1のDPB出力遅延および第2のDPB出力遅延を受信し(604)、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すケースにおいて、第1のDPB出力遅延を使用して第1のDPB出力時間を決定し(606)、復号されたピクチャに関して、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して第2のDPB出力時間を決定する(608)ようにさらに構成されうる。
[0105]ビデオデコーダ30は、HRD設定に基づいて、第1のDPB出力時間または第2のDPB出力時間に基づく復号ピクチャバッファからピクチャを出力する(610)ようにさらに構成されうる。ビデオデコーダのためのHRD設定がピクチャレベルでの動作を示すことをサブピクチャCPBフラグが示す場合に第1の出力時間が使用され、ビデオデコーダのためのHRD設定がサブピクチャレベルでの動作を示すことをサブピクチャCPBフラグが示す場合に第2のDPB出力時間が使用される。
[0106]本開示の別の例では、ビデオデコーダ30は、サブピクチャクロックチックによって第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって、第2のDPB出力時間を決定するように構成される。本開示の別の例では、ビデオデコーダ30は、クロックチックによって第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって、第1のDPB出力時間を決定するように構成される。
[0107]1つまたは複数の例では、説明されている機能は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせで実行されうる。ソフトウェアで実行される場合には、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上で記憶されるか、またはコンピュータ可読媒体をわたって送信され、ハードウェアベースの処理ユニットによって実行されうる。コンピュータ可読媒体はまた、例えば、通信プロトコルにしたがって、コンピュータプログラムの1つの場所から別の場所への伝送を容易にするあらゆる媒体を含む通信媒体、またはデータ記憶媒体のような有体の媒体に対応する、コンピュータ可読記憶媒体を含むことができる。このように、コンピュータ可読媒体は、概して、(1)非トランジトリである有体のコンピュータ可読記憶媒体、または(2)信号または搬送波のような通信媒体に対応しうる。データ記憶媒体は、本開示で説明されている技法の実行のための命令、コード、および/またはデータ構造を検索するために、1つまたは複数のコンピュータ、あるいは1つまたは複数のプロセッサによってアクセスされることができるあらゆる利用可能な媒体でありうる。コンピュータプログラム製品は、コンピュータ可読媒体を含むことができる。
[0108]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光学ディスクストレージ、磁気ディスクストレージまたは他の磁気記憶デバイス、フラッシュメモリ、あるいは命令またはデータ構造の形式で望ましいプログラムコードを記憶するために使用されることができ、かつコンピュータによってアクセスされうる何らかの他の媒体を備えることができる。さらに、あらゆる接続手段(connection)は適切にコンピュータ可読媒体と呼ばれる。例えば、命令が、ウェブサイトから、サーバから、あるいは同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者線(DSL)、または赤外線、無線、およびマイクロ波のようなワイヤレス技術を使用している他の遠隔ソースから送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、あるいは赤外線、無線、およびマイクロ波のようなワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続手段、搬送波、信号、または他の一時的な媒体を含まないが、代わりとして非一時的な有体の記憶媒体を対象にすることは理解されるべきである。本明細書で使用される場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光学ディスク、デジタル多目的ディスク(DVD)、フロッピー(登録商標)ディスクおよびブルーレイディスクを含み、ここにおいてディスク(disk)は、大抵磁気的にデータを再生し、一方ディスク(disc)は、レーザーを用いて光学的にデータを再生する。上記の組み合わせもまた、コンピュータ可読媒体の範囲内に含まれるべきである。
[0109]命令は、1つまたは複数のデジタルシグナルプロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または、他の同等な集積またはディスクリートな論理回路、のような1つまたは複数のプロセッサによって実行されうる。したがって、本明細書で使用される場合の「プロセッサ」という用語は、前述の構造、または本明細書で説明されている技法の実行に適した何らかの他の構造のいずれも指すことができる。追加で、いくつかの態様では、本明細書で説明されている機能は、符号化および復号のために構成された専用ハードウェアモジュールおよび/またはソフトウェアモジュール内で提供されうる、あるいは組み合わせられたコデックに組み込まれうる。また、技法は、1つまたは複数の回路あるいは論理要素において十分に実行されることができる。
[0110]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(例えば、チップセット)を含む、幅広い種類のデバイスまたは装置において実行されうる。様々なコンポーネント、モジュール、またはユニットは、開示されている技法を実行するように構成されたデバイスの機能的な態様を強調するために本開示で説明されているけれども、必ずしも異なるハードウェアユニットによる実現を要求しない。むしろ、上で説明されたように、様々なユニットは、適したソフトウェアおよび/またはファームウェアと関連して、コデックハードウェアユニットで組み合わせられうる、あるいは、上で説明されたような1つまたは複数のプロセッサを含む、対話型(interoperative)ハードウェアユニットの集合によって提供されうる。
[0111]様々な例が説明されてきた。これらの例および他の例は、次の請求項の範囲内にある。
[0111]様々な例が説明されてきた。これらの例および他の例は、次の請求項の範囲内にある。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] ビデオを復号する方法であって、
復号されたピクチャに関する第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を受信することと、
前記復号されたピクチャに関して、ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、前記第1のDPB出力遅延を使用して、第1のDPB出力時間を決定することと、
前記復号されたピクチャに関して、前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、前記第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
を備える、方法。
[2] 前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを受信することと、
前記サブピクチャCPBフラグに基づいてビデオピクチャを復号することと、
前記第1のDPB出力時間または前記第2のDPB出力時間に基づいて、復号ピクチャバッファからピクチャを出力することと、ここにおいて、前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第1のDPB出力時間が使用され、前記ビデオデコーダのための前記HRD設定が前記サブピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第2のDPB出力時間が使用される、
をさらに備える、[1]に記載の方法。
[3] 前記第2のDPB出力時間を決定することは、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることを備える、[1]に記載の方法。
[4] 前記第1のDPB出力時間を決定することは、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることを備える、[1]に記載の方法。
[5] ビデオを符号化する方法であって、
ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、第1の復号ピクチャバッファ(DPB)出力遅延を使用して、第1のDPB出力時間を決定することと、
前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
前記第1のDPB出力遅延および前記第2のDPB出力遅延を信号伝達することと、
を備える、方法。
[6] 前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを信号伝達することと、
前記サブピクチャCPBフラグに基づいてビデオピクチャを符号化することと、
をさらに備える、[5]に記載の方法。
[7] 前記第2のDPB出力時間を決定することは、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることを備える、[5]に記載の方法。
[8] 前記第1のDPB出力時間を決定することは、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることを備える、[5]に記載の方法。
[9] ビデオデータを復号するように構成された装置であって、
復号されたピクチャに関する第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を受信することと、
前記復号されたピクチャに関して、ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、前記第1のDPB出力遅延を使用して、第1のDPB出力時間を決定することと、
前記復号されたピクチャに関して、前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、前記第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
を行うように構成されたビデオデコーダ、
を備える、装置。
[10] 前記ビデオデコーダは、
前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを受信することと、
前記サブピクチャCPBフラグに基づいてビデオピクチャを復号することと、
前記第1のDPB出力時間または前記第2のDPB出力時間に基づいて、復号ピクチャバッファからピクチャを出力することと、ここにおいて、前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第1のDPB出力時間が使用され、前記ビデオデコーダのための前記HRD設定が前記サブピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第2のDPB出力時間が使用される、
を行うようにさらに構成される、[9]に記載の装置。
[11] 前記ビデオデコーダは、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第2のDPB出力時間を決定するように構成される、[9]に記載の装置。
[12] 前記ビデオデコーダは、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第1のDPB出力時間を決定するように構成される、[9]に記載の装置。
[13] ビデオデータを符号化するように構成された装置であって、
ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、第1の復号ピクチャバッファ(DPB)出力遅延を使用して、第1のDPB出力時間を決定することと、
前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
前記第1のDPB出力遅延および前記第2のDPB出力遅延を信号伝達することと、
を行うように構成されたビデオエンコーダ、
を備える、装置。
[14] 前記ビデオエンコーダは、
前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを信号伝達することと、
前記サブピクチャCPBフラグに基づいてビデオピクチャを符号化することと、
を行うようにさらに構成される、[13]に記載の装置。
[15] 前記ビデオエンコーダは、前記第2のDPB出力時間はサブピクチャクロックチックによって前記第2のDPB出力遅延、CPB除去時間に結果の値を加えることによってを備えると決定するように構成される、[13]に記載の装置。
[16] 前記ビデオエンコーダは、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第1のDPB出力時間を決定するように構成される、[13]に記載の装置。
[17] ビデオデータを復号するように構成された装置であって、
復号されたピクチャに関する第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を受信するための手段と、
前記復号されたピクチャに関して、ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、前記第1のDPB出力遅延を使用して、第1のDPB出力時間を決定するための手段と、
前記復号されたピクチャに関して、前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、前記第2のDPB出力遅延を使用して、第2のDPB出力時間を決定するための手段と、
を備える、装置。
[18] 前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを受信するための手段と、
前記サブピクチャCPBフラグに基づいてビデオピクチャを復号するための手段と、
前記第1のDPB出力時間または前記第2のDPB出力時間に基づいて、復号ピクチャバッファからピクチャを出力するための手段と、ここにおいて、前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第1のDPB出力時間が使用され、前記ビデオデコーダのための前記HRD設定が前記サブピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第2のDPB出力時間が使用される、
をさらに備える、[17]に記載の装置。
[19] 前記第2のDPB出力時間を決定するための手段は、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えるための手段を備える、[17]に記載の装置。
[20] 前記第1のDPB出力時間を決定するための手段は、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えるための手段を備える、[17]に記載の装置。
[21] ビデオデータを符号化するように構成された装置であって、
ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、第1の復号ピクチャバッファ(DPB)出力遅延を使用して、第1のDPB出力時間を決定するための手段と、
前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して、第2のDPB出力時間を決定するための手段と、
前記第1のDPB出力遅延および前記第2のDPB出力遅延を信号伝達するための手段と、
を備える、装置。
[22] 前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを信号伝達するための手段と、
前記サブピクチャCPBフラグに基づいてビデオピクチャを符号化するための手段と、
をさらに備える、[21]に記載の装置。
[23] 前記第2のDPB出力時間を決定するための手段は、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えるための手段を備える、[21]に記載の装置。
[24] 前記第1のDPB出力時間を決定するための手段は、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えるための手段を備える、[21]に記載の装置。
[25] 命令を記憶するコンピュータ可読記憶媒体であって、前記命令は実行されるとき、ビデオデータを復号するように構成されたデバイスの1つまたは複数のプロセッサに、
復号されたピクチャに関する第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を受信することと、
前記復号されたピクチャに関して、ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、前記第1のDPB出力遅延を使用して、第1のDPB出力時間を決定することと、
前記復号されたピクチャに関して、前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、前記第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
を行わせる、コンピュータ可読記憶媒体。
[26] 前記命令は前記1つまたは複数のプロセッサに、
前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを受信することと、
前記サブピクチャCPBフラグに基づいてビデオピクチャを復号することと、
前記第1のDPB出力時間または前記第2のDPB出力時間に基づいて、復号ピクチャバッファからピクチャを出力することと、ここにおいて、前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第1のDPB出力時間が使用され、前記ビデオデコーダのための前記HRD設定が前記サブピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第2のDPB出力時間が使用される、
をさらに行わせる、[25]に記載のコンピュータ可読記憶媒体。
[27] 前記命令は前記1つまたは複数のプロセッサに、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第2のDPB出力時間を決定すること、を行わせる、[25]に記載のコンピュータ可読記憶媒体。
[28] 前記命令は前記1つまたは複数のプロセッサに、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第1のDPB出力時間を決定すること、を行わせる、[25]に記載のコンピュータ可読記憶媒体。
[29] 命令を記憶するコンピュータ可読記憶媒体であって、前記命令は実行されるとき、ビデオデータを符号化するように構成されたデバイスの1つまたは複数のプロセッサに、
ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、第1の復号ピクチャバッファ(DPB)出力遅延を使用して、第1のDPB出力時間を決定することと、
前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
前記第1のDPB出力遅延および前記第2のDPB出力遅延を信号伝達することと、
を行わせる、コンピュータ可読記憶媒体。
[30] 前記命令は前記1つまたは複数のプロセッサに、
前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを信号伝達することと、
前記サブピクチャCPBフラグに基づいてビデオピクチャを符号化することと、
をさらに行わせる、[29]に記載のコンピュータ可読記憶媒体。
[31] 前記1つまたは複数のプロセッサに前記第2のDPB出力時間を決定することを行わせるための前記命令は、サブピクチャクロックチックによって前記第2のDPB出力遅延、およびCPB除去時間に結果の値を加えることを備える、[29]に記載のコンピュータ可読記憶媒体。
[32] 前記命令は前記1つまたは複数のプロセッサに、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第1のDPB出力時間を決定すること、を行わせる、[29]に記載のコンピュータ可読記憶媒体。

Claims (32)

  1. ビデオを復号する方法であって、
    復号されたピクチャに関する第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を受信することと、
    前記復号されたピクチャに関して、ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、前記第1のDPB出力遅延を使用して、第1のDPB出力時間を決定することと、
    前記復号されたピクチャに関して、前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、前記第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
    を備える、方法。
  2. 前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを受信することと、
    前記サブピクチャCPBフラグに基づいてビデオピクチャを復号することと、
    前記第1のDPB出力時間または前記第2のDPB出力時間に基づいて、復号ピクチャバッファからピクチャを出力することと、ここにおいて、前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第1のDPB出力時間が使用され、前記ビデオデコーダのための前記HRD設定が前記サブピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第2のDPB出力時間が使用される、
    をさらに備える、請求項1に記載の方法。
  3. 前記第2のDPB出力時間を決定することは、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることを備える、請求項1に記載の方法。
  4. 前記第1のDPB出力時間を決定することは、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることを備える、請求項1に記載の方法。
  5. ビデオを符号化する方法であって、
    ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、第1の復号ピクチャバッファ(DPB)出力遅延を使用して、第1のDPB出力時間を決定することと、
    前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
    前記第1のDPB出力遅延および前記第2のDPB出力遅延を信号伝達することと、
    を備える、方法。
  6. 前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを信号伝達することと、
    前記サブピクチャCPBフラグに基づいてビデオピクチャを符号化することと、
    をさらに備える、請求項5に記載の方法。
  7. 前記第2のDPB出力時間を決定することは、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることを備える、請求項5に記載の方法。
  8. 前記第1のDPB出力時間を決定することは、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることを備える、請求項5に記載の方法。
  9. ビデオデータを復号するように構成された装置であって、
    復号されたピクチャに関する第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を受信することと、
    前記復号されたピクチャに関して、ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、前記第1のDPB出力遅延を使用して、第1のDPB出力時間を決定することと、
    前記復号されたピクチャに関して、前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、前記第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
    を行うように構成されたビデオデコーダ、
    を備える、装置。
  10. 前記ビデオデコーダは、
    前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを受信することと、
    前記サブピクチャCPBフラグに基づいてビデオピクチャを復号することと、
    前記第1のDPB出力時間または前記第2のDPB出力時間に基づいて、復号ピクチャバッファからピクチャを出力することと、ここにおいて、前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第1のDPB出力時間が使用され、前記ビデオデコーダのための前記HRD設定が前記サブピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第2のDPB出力時間が使用される、
    を行うようにさらに構成される、請求項9に記載の装置。
  11. 前記ビデオデコーダは、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第2のDPB出力時間を決定するように構成される、請求項9に記載の装置。
  12. 前記ビデオデコーダは、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第1のDPB出力時間を決定するように構成される、請求項9に記載の装置。
  13. ビデオデータを符号化するように構成された装置であって、
    ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、第1の復号ピクチャバッファ(DPB)出力遅延を使用して、第1のDPB出力時間を決定することと、
    前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
    前記第1のDPB出力遅延および前記第2のDPB出力遅延を信号伝達することと、
    を行うように構成されたビデオエンコーダ、
    を備える、装置。
  14. 前記ビデオエンコーダは、
    前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを信号伝達することと、
    前記サブピクチャCPBフラグに基づいてビデオピクチャを符号化することと、
    を行うようにさらに構成される、請求項13に記載の装置。
  15. 前記ビデオエンコーダは、前記第2のDPB出力時間はサブピクチャクロックチックによって前記第2のDPB出力遅延、CPB除去時間に結果の値を加えることによってを備えると決定するように構成される、請求項13に記載の装置。
  16. 前記ビデオエンコーダは、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第1のDPB出力時間を決定するように構成される、請求項13に記載の装置。
  17. ビデオデータを復号するように構成された装置であって、
    復号されたピクチャに関する第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を受信するための手段と、
    前記復号されたピクチャに関して、ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、前記第1のDPB出力遅延を使用して、第1のDPB出力時間を決定するための手段と、
    前記復号されたピクチャに関して、前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、前記第2のDPB出力遅延を使用して、第2のDPB出力時間を決定するための手段と、
    を備える、装置。
  18. 前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを受信するための手段と、
    前記サブピクチャCPBフラグに基づいてビデオピクチャを復号するための手段と、
    前記第1のDPB出力時間または前記第2のDPB出力時間に基づいて、復号ピクチャバッファからピクチャを出力するための手段と、ここにおいて、前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第1のDPB出力時間が使用され、前記ビデオデコーダのための前記HRD設定が前記サブピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第2のDPB出力時間が使用される、
    をさらに備える、請求項17に記載の装置。
  19. 前記第2のDPB出力時間を決定するための手段は、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えるための手段を備える、請求項17に記載の装置。
  20. 前記第1のDPB出力時間を決定するための手段は、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えるための手段を備える、請求項17に記載の装置。
  21. ビデオデータを符号化するように構成された装置であって、
    ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、第1の復号ピクチャバッファ(DPB)出力遅延を使用して、第1のDPB出力時間を決定するための手段と、
    前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して、第2のDPB出力時間を決定するための手段と、
    前記第1のDPB出力遅延および前記第2のDPB出力遅延を信号伝達するための手段と、
    を備える、装置。
  22. 前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを信号伝達するための手段と、
    前記サブピクチャCPBフラグに基づいてビデオピクチャを符号化するための手段と、
    をさらに備える、請求項21に記載の装置。
  23. 前記第2のDPB出力時間を決定するための手段は、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えるための手段を備える、請求項21に記載の装置。
  24. 前記第1のDPB出力時間を決定するための手段は、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えるための手段を備える、請求項21に記載の装置。
  25. 命令を記憶するコンピュータ可読記憶媒体であって、前記命令は実行されるとき、ビデオデータを復号するように構成されたデバイスの1つまたは複数のプロセッサに、
    復号されたピクチャに関する第1の復号ピクチャバッファ(DPB)出力遅延および第2のDPB出力遅延を受信することと、
    前記復号されたピクチャに関して、ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、前記第1のDPB出力遅延を使用して、第1のDPB出力時間を決定することと、
    前記復号されたピクチャに関して、前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、前記第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
    を行わせる、コンピュータ可読記憶媒体。
  26. 前記命令は前記1つまたは複数のプロセッサに、
    前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを受信することと、
    前記サブピクチャCPBフラグに基づいてビデオピクチャを復号することと、
    前記第1のDPB出力時間または前記第2のDPB出力時間に基づいて、復号ピクチャバッファからピクチャを出力することと、ここにおいて、前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第1のDPB出力時間が使用され、前記ビデオデコーダのための前記HRD設定が前記サブピクチャレベルでの動作を示すことを前記サブピクチャCPBフラグが示す場合に前記第2のDPB出力時間が使用される、
    をさらに行わせる、請求項25に記載のコンピュータ可読記憶媒体。
  27. 前記命令は前記1つまたは複数のプロセッサに、サブピクチャクロックチックによって前記第2のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第2のDPB出力時間を決定すること、を行わせる、請求項25に記載のコンピュータ可読記憶媒体。
  28. 前記命令は前記1つまたは複数のプロセッサに、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第1のDPB出力時間を決定すること、を行わせる、請求項25に記載のコンピュータ可読記憶媒体。
  29. 命令を記憶するコンピュータ可読記憶媒体であって、前記命令は実行されるとき、ビデオデータを符号化するように構成されたデバイスの1つまたは複数のプロセッサに、
    ビデオデコーダのための仮想参照デコーダ(HRD)設定がピクチャレベルでの動作を示すケースにおいて、第1の復号ピクチャバッファ(DPB)出力遅延を使用して、第1のDPB出力時間を決定することと、
    前記ビデオデコーダのための前記HRD設定がサブピクチャレベルでの動作を示すケースにおいて、第2のDPB出力遅延を使用して、第2のDPB出力時間を決定することと、
    前記第1のDPB出力遅延および前記第2のDPB出力遅延を信号伝達することと、
    を行わせる、コンピュータ可読記憶媒体。
  30. 前記命令は前記1つまたは複数のプロセッサに、
    前記ビデオデコーダのための前記HRD設定が前記ピクチャレベルにあるか、または前記サブピクチャレベルにあるかを示すサブピクチャコード化ピクチャバッファ(CPB)フラグを信号伝達することと、
    前記サブピクチャCPBフラグに基づいてビデオピクチャを符号化することと、
    をさらに行わせる、請求項29に記載のコンピュータ可読記憶媒体。
  31. 前記1つまたは複数のプロセッサに前記第2のDPB出力時間を決定することを行わせるための前記命令は、サブピクチャクロックチックによって前記第2のDPB出力遅延、およびCPB除去時間に結果の値を加えることを備える、請求項29に記載のコンピュータ可読記憶媒体。
  32. 前記命令は前記1つまたは複数のプロセッサに、クロックチックによって前記第1のDPB出力遅延を増大させ、CPB除去時間に結果の値を加えることによって前記第1のDPB出力時間を決定すること、を行わせる、請求項29に記載のコンピュータ可読記憶媒体。
JP2018023196A 2012-12-19 2018-02-13 ビデオコード化における低遅延バッファリングモデル Pending JP2018110425A (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201261739632P 2012-12-19 2012-12-19
US61/739,632 2012-12-19
US201261745423P 2012-12-21 2012-12-21
US61/745,423 2012-12-21
US14/036,615 2013-09-25
US14/036,615 US9374585B2 (en) 2012-12-19 2013-09-25 Low-delay buffering model in video coding

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015549461A Division JP6545623B2 (ja) 2012-12-19 2013-12-10 ビデオコード化における低遅延バッファリングモデル

Publications (1)

Publication Number Publication Date
JP2018110425A true JP2018110425A (ja) 2018-07-12

Family

ID=50930858

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015549461A Active JP6545623B2 (ja) 2012-12-19 2013-12-10 ビデオコード化における低遅延バッファリングモデル
JP2018023196A Pending JP2018110425A (ja) 2012-12-19 2018-02-13 ビデオコード化における低遅延バッファリングモデル

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015549461A Active JP6545623B2 (ja) 2012-12-19 2013-12-10 ビデオコード化における低遅延バッファリングモデル

Country Status (11)

Country Link
US (1) US9374585B2 (ja)
EP (1) EP2936818B1 (ja)
JP (2) JP6545623B2 (ja)
KR (1) KR101732294B1 (ja)
CN (1) CN104854870B (ja)
BR (1) BR112015014649B1 (ja)
DK (1) DK2936818T3 (ja)
ES (1) ES2765038T3 (ja)
HU (1) HUE047101T2 (ja)
TW (1) TWI530168B (ja)
WO (1) WO2014099489A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150003536A1 (en) * 2012-02-08 2015-01-01 Thomson Licensing Method and apparatus for using an ultra-low delay mode of a hypothetical reference decoder
WO2014002385A1 (ja) * 2012-06-25 2014-01-03 日本電気株式会社 映像符号化/復号装置、方法、プログラム
US9374585B2 (en) * 2012-12-19 2016-06-21 Qualcomm Incorporated Low-delay buffering model in video coding
US9591321B2 (en) 2013-04-07 2017-03-07 Dolby International Ab Signaling change in output layer sets
SG10201913551WA (en) 2013-04-07 2020-03-30 Dolby Int Ab Signaling change in output layer sets
CN106921862A (zh) * 2014-04-22 2017-07-04 联发科技股份有限公司 多核解码器系统和视频解码方法
US10063867B2 (en) * 2014-06-18 2018-08-28 Qualcomm Incorporated Signaling HRD parameters for bitstream partitions
US20160234522A1 (en) * 2015-02-05 2016-08-11 Microsoft Technology Licensing, Llc Video Decoding
EP3262523B1 (en) * 2015-02-27 2019-12-04 DivX, LLC System and method for frame duplication and frame extension in live video encoding and streaming
CN107770565A (zh) * 2016-08-15 2018-03-06 联发科技股份有限公司 低延迟视频编码的装置与方法
KR20220008254A (ko) * 2019-03-01 2022-01-20 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 가상 레퍼런스 디코더
EP4358036A2 (en) * 2019-03-11 2024-04-24 Huawei Technologies Co., Ltd. Interpolation filter clipping for sub-picture motion vectors
US20220224932A1 (en) * 2019-09-23 2022-07-14 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium storing bitstream
JP7431330B2 (ja) 2019-12-26 2024-02-14 バイトダンス インコーポレイテッド ビデオコーディングにおけるプロファイル、層及びレイヤの指示
JP7425204B2 (ja) 2019-12-26 2024-01-30 バイトダンス インコーポレイテッド ビデオビットストリームにおける仮想参照デコーダパラメータのシグナリングに対する制約
EP4066387A4 (en) 2019-12-27 2023-02-15 ByteDance Inc. SUBPICTURE SIGNALING IN PARAMETER SETS
KR20220125235A (ko) 2020-01-09 2022-09-14 바이트댄스 아이엔씨 상이한 sei 메시지들의 디코딩 순서
WO2021201617A1 (ko) * 2020-03-31 2021-10-07 엘지전자 주식회사 레이어간 정렬된 서브픽처 정보에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체
WO2021201616A1 (ko) * 2020-03-31 2021-10-07 엘지전자 주식회사 픽처 분할 정보 및 서브픽처 정보에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체
EP3972279A1 (en) 2020-09-17 2022-03-23 Lemon Inc. Subpicture track referencing and processing
US11695965B1 (en) * 2022-10-13 2023-07-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video coding using a coded picture buffer

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015526006A (ja) * 2012-06-29 2015-09-07 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ ビデオ・データストリーム・コンセプト

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2840589B2 (ja) * 1996-02-09 1998-12-24 富士通株式会社 データ圧縮装置及びデータ復元装置
US5668599A (en) * 1996-03-19 1997-09-16 International Business Machines Corporation Memory management for an MPEG2 compliant decoder
US6539058B1 (en) * 1998-04-13 2003-03-25 Hitachi America, Ltd. Methods and apparatus for reducing drift due to averaging in reduced resolution video decoders
US6604158B1 (en) * 1999-03-11 2003-08-05 Realtime Data, Llc System and methods for accelerated data storage and retrieval
US8692695B2 (en) * 2000-10-03 2014-04-08 Realtime Data, Llc Methods for encoding and decoding data
US7417568B2 (en) * 2000-10-03 2008-08-26 Realtime Data Llc System and method for data feed acceleration and encryption
US7296931B2 (en) * 2002-11-13 2007-11-20 Ntn Corporation Fluid lubricated bearing device
US7532670B2 (en) * 2002-07-02 2009-05-12 Conexant Systems, Inc. Hypothetical reference decoder with low start-up delays for compressed image and video
WO2004006446A2 (en) * 2002-07-02 2004-01-15 Conexant Systems, Inc. Hypothetical reference decoder for compressed image and video
CN100401778C (zh) * 2002-09-17 2008-07-09 弗拉迪米尔·切佩尔科维奇 具有高压缩率和最小必需资源的快速codec
JP2004173069A (ja) * 2002-11-21 2004-06-17 Canon Inc 画像データ記録装置及び記録方法
US7403660B2 (en) * 2003-04-30 2008-07-22 Nokia Corporation Encoding picture arrangement parameter in picture bitstream
US20050254575A1 (en) * 2004-05-12 2005-11-17 Nokia Corporation Multiple interoperability points for scalable media coding and transmission
US8615038B2 (en) * 2004-12-06 2013-12-24 Nokia Corporation Video coding, decoding and hypothetical reference decoder
US8908577B2 (en) * 2005-12-02 2014-12-09 Qualcomm Incorporated Solving IP buffering delays in mobile multimedia applications with translayer optimization
JP2008167061A (ja) * 2006-12-27 2008-07-17 Toshiba Corp 符号化装置及び符号化方法
RU2518904C2 (ru) * 2007-01-05 2014-06-10 Томсон Лайсенсинг Гипотетический эталонный декодер для масштабируемого видеокодирования
WO2009045683A1 (en) * 2007-09-28 2009-04-09 Athanasios Leontaris Video compression and tranmission techniques
US20110038424A1 (en) * 2007-10-05 2011-02-17 Jiancong Luo Methods and apparatus for incorporating video usability information (vui) within a multi-view video (mvc) coding system
US20090109988A1 (en) 2007-10-26 2009-04-30 Chowdhary Musunuri Video Decoder with an Adjustable Video Clock
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
US8259794B2 (en) * 2008-08-27 2012-09-04 Alexander Bronstein Method and system for encoding order and frame type selection optimization
US20100150230A1 (en) * 2008-12-17 2010-06-17 Apple Inc. Video coding system using sub-channels and constrained prediction references to protect against data transmission errors
JP5072893B2 (ja) 2009-03-25 2012-11-14 株式会社東芝 画像符号化方法および画像復号化方法
WO2010123198A2 (ko) * 2009-04-21 2010-10-28 엘지전자 주식회사 다시점 비디오 신호 처리 방법 및 장치
JP5295429B2 (ja) * 2010-05-07 2013-09-18 日本電信電話株式会社 動画像符号化制御方法,動画像符号化装置および動画像符号化プログラム
JP5286581B2 (ja) * 2010-05-12 2013-09-11 日本電信電話株式会社 動画像符号化制御方法,動画像符号化装置および動画像符号化プログラム
US8873627B2 (en) * 2010-12-07 2014-10-28 Mediatek Inc Method and apparatus of video coding using picture structure with low-delay hierarchical B group
US10070126B2 (en) * 2011-06-28 2018-09-04 Hfi Innovation Inc. Method and apparatus of intra mode coding
ES2958967T3 (es) 2011-06-30 2024-02-16 Microsoft Technology Licensing Llc Reducción de latencia en codificación y descodificación de vídeo
US20130170561A1 (en) * 2011-07-05 2013-07-04 Nokia Corporation Method and apparatus for video coding and decoding
WO2013030458A1 (en) * 2011-08-31 2013-03-07 Nokia Corporation Multiview video coding and decoding
US9892188B2 (en) * 2011-11-08 2018-02-13 Microsoft Technology Licensing, Llc Category-prefixed data batching of coded media data in multiple categories
US9578326B2 (en) * 2012-04-04 2017-02-21 Qualcomm Incorporated Low-delay video buffering in video coding
US20140003534A1 (en) * 2012-07-02 2014-01-02 Sony Corporation Video coding system with temporal scalability and method of operation thereof
US9584804B2 (en) * 2012-07-10 2017-02-28 Qualcomm Incorporated Coding SEI NAL units for video coding
US9380289B2 (en) * 2012-07-20 2016-06-28 Qualcomm Incorporated Parameter sets in video coding
US9451256B2 (en) * 2012-07-20 2016-09-20 Qualcomm Incorporated Reusing parameter sets for video coding
US9374583B2 (en) * 2012-09-20 2016-06-21 Qualcomm Incorporated Video coding with improved random access point picture behaviors
US9426462B2 (en) * 2012-09-21 2016-08-23 Qualcomm Incorporated Indication and activation of parameter sets for video coding
US10021394B2 (en) * 2012-09-24 2018-07-10 Qualcomm Incorporated Hypothetical reference decoder parameters in video coding
US9654802B2 (en) * 2012-09-24 2017-05-16 Qualcomm Incorporated Sequence level flag for sub-picture level coded picture buffer parameters
US9565452B2 (en) * 2012-09-28 2017-02-07 Qualcomm Incorporated Error resilient decoding unit association
US9154785B2 (en) * 2012-10-08 2015-10-06 Qualcomm Incorporated Sub-bitstream applicability to nested SEI messages in video coding
US9374585B2 (en) * 2012-12-19 2016-06-21 Qualcomm Incorporated Low-delay buffering model in video coding
US20140192895A1 (en) * 2013-01-04 2014-07-10 Qualcomm Incorporated Multi-resolution decoded picture buffer management for multi-layer video coding
US9521393B2 (en) * 2013-01-07 2016-12-13 Qualcomm Incorporated Non-nested SEI messages in video coding
US9369711B2 (en) * 2013-01-07 2016-06-14 Qualcomm Incorporated Conditional signaling of picture order count timing information for video timing in video coding
US9402076B2 (en) * 2013-01-07 2016-07-26 Qualcomm Incorporated Video buffering operations for random access in video coding
US10003815B2 (en) * 2013-06-03 2018-06-19 Qualcomm Incorporated Hypothetical reference decoder model and conformance for cross-layer random access skipped pictures
WO2015056158A1 (en) * 2013-10-14 2015-04-23 Nokia Technologies Oy Multi-layer hypothetical reference decoder
US10284858B2 (en) * 2013-10-15 2019-05-07 Qualcomm Incorporated Support of multi-mode extraction for multi-layer video codecs

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015526006A (ja) * 2012-06-29 2015-09-07 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ ビデオ・データストリーム・コンセプト

Also Published As

Publication number Publication date
CN104854870B (zh) 2018-12-04
CN104854870A (zh) 2015-08-19
WO2014099489A1 (en) 2014-06-26
KR101732294B1 (ko) 2017-05-02
DK2936818T3 (da) 2020-01-20
HUE047101T2 (hu) 2020-04-28
TW201440506A (zh) 2014-10-16
BR112015014649B1 (pt) 2023-02-07
JP2016506159A (ja) 2016-02-25
US20140169448A1 (en) 2014-06-19
TWI530168B (zh) 2016-04-11
JP6545623B2 (ja) 2019-07-17
EP2936818B1 (en) 2019-10-09
EP2936818A1 (en) 2015-10-28
ES2765038T3 (es) 2020-06-05
KR20150099792A (ko) 2015-09-01
US9374585B2 (en) 2016-06-21
BR112015014649A2 (pt) 2017-07-11

Similar Documents

Publication Publication Date Title
JP2018110425A (ja) ビデオコード化における低遅延バッファリングモデル
JP6121539B2 (ja) ビデオコーディングにおけるコード化ピクチャバッファ到着および名目除去時間
JP6162236B2 (ja) ビデオコード化のためのseinalのコード化
US9402076B2 (en) Video buffering operations for random access in video coding
US10123030B2 (en) Streaming adaption based on clean random access (CRA) pictures
JP6271558B2 (ja) 改善されたランダムアクセスポイントピクチャ挙動を用いたビデオコーディング
AU2013371451A1 (en) Signaling of clock tick derivation information for video timing in video coding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191008