JP5869108B2 - メモリ効率的コンテキストモデリング - Google Patents

メモリ効率的コンテキストモデリング Download PDF

Info

Publication number
JP5869108B2
JP5869108B2 JP2014513749A JP2014513749A JP5869108B2 JP 5869108 B2 JP5869108 B2 JP 5869108B2 JP 2014513749 A JP2014513749 A JP 2014513749A JP 2014513749 A JP2014513749 A JP 2014513749A JP 5869108 B2 JP5869108 B2 JP 5869108B2
Authority
JP
Japan
Prior art keywords
context information
syntax elements
block
determining
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014513749A
Other languages
English (en)
Other versions
JP2014522603A (ja
Inventor
チエン、ウェイ−ジュン
カークゼウィックズ、マルタ
ワン、シャンリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014522603A publication Critical patent/JP2014522603A/ja
Application granted granted Critical
Publication of JP5869108B2 publication Critical patent/JP5869108B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Information Transfer Systems (AREA)

Description

本出願は、その各々の内容の全体が参照により本明細書に組み込まれる、2011年6月3日に出願された米国仮出願第61/493,361号、及び2011年7月1日に出願された米国仮出願第61/504,153号、及び2011年10月13日に出願された米国仮出願第61/546,732号の優先権を主張する。
本開示は、ビデオコード化に関し、より詳細には、ビデオデータのエントロピーコード化に関する。
デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップ又はデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダ、デジタルカメラ、デジタル記録機器、デジタルメディアプレーヤ、ビデオゲーム機器、ビデオゲームコンソール、セルラー又は衛星無線電話、所謂「スマートフォン」、ビデオ遠隔会議機器、ビデオストリーミング機器などを含む、広範囲にわたる機器に組み込まれ得る。デジタルビデオ機器は、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、Part 10、アドバンストビデオコード化(AVC:Advanced Video Coding)、現在開発中の高効率ビデオコード化(HEVC)規格によって定義された規格、及びそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実施する。ビデオ機器は、そのようなビデオ圧縮技法を実施することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、及び/又は記憶することができる。
ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減又は除去するために空間的(イントラピクチャ)予測及び/又は時間的(インターピクチャ)予測を実行する。ブロックベースのビデオコード化の場合、ビデオスライス(即ち、ビデオフレーム又はビデオフレームの一部分)が、ツリーブロック、コード化単位(CU)及び/又はコード化ノードと呼ばれることもあるビデオブロックに区分され得る。ピクチャのイントラコード化(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコード化(P又はB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測、又は他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
空間的予測又は時間的予測は、コード化されるべきブロックの予測ブロックを生じる。残差データは、コード化されるべき元のブロックと予測ブロックとの間の画素差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、及びコード化ブロックと予測ブロックとの間の差分を示す残差データに従って符号化される。イントラコード化ブロックは、イントラコード化モードと残差データとに従って符号化される。更なる圧縮のために、残差データは、画素領域から変換領域に変換されて、残差変換係数が得られ得、その残差変換係数は、次いで量子化され得る。量子化変換係数は、最初は2次元アレイで構成され、変換係数の1次元ベクトルを生成するために走査され得、なお一層の圧縮を達成するために、エントロピーコード化が適用され得る。
概して、本開示では、ビデオデータをコード化するための技法について説明する。例えば、本開示の技法は、ビデオデータをエントロピーコード化するときにバッファリングされるデータの量を減らすことを含む。エントロピーコード化中に、ビデオコード化機器は、コード化されるデータの値の確率を決定するために、コンテキストモデルを選択することができる。ビデオデータの特定のブロックに関するコンテキストモデルは、ビデオデータの隣接ブロックから引き出されたコンテキスト情報に基づき得る。従って、ビデオコード化機器は、ビデオデータの隣接ブロックの情報をバッファリングすることができ、それにより、そのような情報をコンテキスト情報として使用することが可能になる。本開示の技法は、エントロピーコード化中にバッファリングされる隣接ブロックからのデータの量を制限することに関する。本開示の幾つかの態様によれば、ビデオコード化機器は、現在のブロックをコード化するときに、(例えば、「上に隣接するブロック」と呼ばれる)現在コード化されているビデオデータのブロックの上に位置するビデオデータのブロックからのデータをコンテキスト情報として使用することを回避し得る。
一例では、本開示の態様は、ビデオデータをコード化する方法に関し、本方法は、ビデオデータのコード化済単位(coded unit)内に含まれておりコード化済単位中のブロックの最上行の下にあるビデオデータのブロックについてのコンテキスト情報を決定することに関し、コンテキスト情報は、コード化済単位中の上に隣接するブロックからの情報を含まない。本方法は、決定されたコンテキスト情報を使用して、ブロックのデータをエントロピーコード化することも含む。
別の例では、本開示の態様は、ビデオデータをコード化するための装置に関し、本装置は、1つ以上のプロセッサを含み、1つ以上のプロセッサは、ビデオデータのコード化済単位内に含まれておりコード化済単位中のブロックの最上行の下にあるビデオデータのブロックについてのコンテキスト情報を決定することであって、コンテキスト情報は、コード化単位中の上に隣接するブロックからの情報を含まないことと、決定されたコンテキスト情報を使用して、ブロックのデータをエントロピーコード化することとを行うように構成される。
別の例では、本開示の態様は、ビデオデータをコード化するための装置に関し、本装置は、ビデオデータのコード化済単位内に含まれておりコード化済単位中のブロックの最上行の下にあるビデオデータのブロックについてのコンテキスト情報を決定するための手段であって、コンテキスト情報は、コード化済単位中の上に隣接するブロックからの情報を含まない、手段と、決定されたコンテキスト情報を使用して、ブロックのデータをエントロピーコード化するための手段とを含む。
別の例では、本開示の態様は、命令を記憶したコンピュータ可読記憶媒体に関し、命令は実行されたとき、1つ以上のプロセッサに、ビデオデータのコード化済単位内に含まれておりコード化済単位中のブロックの最上行の下にあるビデオデータのブロックについてのコンテキスト情報を決定することであって、コンテキスト情報は、コード化済単位中の上に隣接するブロックからの情報を含まないことと、決定されたコンテキスト情報を使用して、前記ブロックのデータをエントロピーコード化することとを行わせる。
本開示の1つ以上の態様の詳細を添付の図面及び以下の説明に記載する。本開示で説明する技法の他の特徴、目的、及び利点は、これらの説明及び図面、ならびに特許請求の範囲から明らかになろう。
本開示で説明する技法を利用し得る例示的なビデオ符号化及び復号システムを示すブロック図。 本開示で説明する技法を実施し得る例示的なビデオエンコーダを示すブロック図。 本開示で説明する技法を実施し得る例示的なビデオデコーダを示すブロック図。 例示的な4分木(quadtree)を示す概念図。 対応する最大コード化単位(LCU)を示す概念図。 ブロックをエントロピーコード化するためにコンテキストが決定される場合の元になる例示的な隣接ブロックを示すブロック図。 ブロックをエントロピーコード化するためにコンテキストが決定される場合の元になる例示的な隣接ブロックを示すブロック図。 ビデオデータのブロックをエントロピーコード化する例示的な方法を示すフローチャート。 ビデオデータのブロックをエントロピーコード化する別の例示的な方法を示すフローチャート。 ビデオデータのブロックをエントロピーコード化する別の例示的な方法を示すフローチャート。 ビデオデータのブロックをエントロピーコード化する別の例示的な方法を示すフローチャート。
ビデオコード化機器は、空間的冗長性と時間的冗長性とを利用することによってビデオデータを圧縮しようとすることがある。例えば、ビデオエンコーダは、ブロックを、以前コード化された隣接ブロックに関連してコード化することによって、空間的冗長性を利用することがある。同様に、ビデオエンコーダは、ブロックを、以前コード化されたフレームのデータに関連してコード化することによって、時間的冗長性を利用することがある。具体的には、ビデオエンコーダは現在のブロックを、空間的隣接部分のデータから、又は以前コード化されたフレームのデータから予測し得る。次いでビデオエンコーダは、ブロックの実際の画素値とブロックの予測画素値との間の差分としてブロックの残差を計算し得る。従って、ブロックの残差は、画素領域(又は空間領域)における画素ごとの差分値を含み得る。
次いでビデオエンコーダは、残差の値に変換を適用して、画素値のエネルギーを周波数領域における比較的少数の変換係数に圧縮することができる。次いでビデオエンコーダは、その変換係数を量子化し得る。ビデオエンコーダは、量子化変換係数を走査して、量子化変換係数の2次元行列を、量子化変換係数を含む1次元ベクトルに変換することができる。場合によっては、量子化プロセス及び走査プロセスは同時に生じ得る。係数を走査するプロセスは、係数のシリアル化と呼ばれることがある。
次いでビデオエンコーダは、走査された係数をエントロピーコード化するためにエントロピーコード化プロセスを適用し得る。例示的なエントロピーコード化プロセスには、例えば、コンテキスト適応型可変長コード化(CAVLC)、コンテキスト適応型二値算術コード化(CABAC)、シンタックスベースコンテキスト適応型二値算術コード化(SBAC)、確率間隔区分エントロピー(PIPE)コード化又は他のエントロピーコード化方法があり得る。ビデオエンコーダはまた、ビデオデータを復号する際にビデオデコーダが使用するための符号化ビデオデータに関連するシンタックス要素をエントロピー符号化し得る。
(CABAC)に関して、ビデオコーダは、ビデオデータのブロックに関連するシンボルを符号化するためにコンテキストに作用するコンテキストモデルを選択し得る。コンテキストは、例えば、現在コード化されているシンボルに隣接するシンボルについて値が0であるのか非0であるのかに関係し得る。
幾つかの例によれば、ビデオブロックにおける有効係数(即ち、非0変換係数)の位置は、「変換係数のレベル」と呼ばれることがある変換係数の値の前に符号化され得る。有効係数の位置をコード化するプロセスは、有効性マップコード化と呼ばれることがある。有効性マップ(SM)は、有効係数の位置を示す2進値の2次元アレイを含む。例えば、ビデオデータのブロックについてのSMは、1及び0の2次元アレイを含み得、1は、ブロック内の有効変換係数の位置を示し、0は、ブロック内の無効な(0値の)変換係数の位置を示す。1及び0は「有効係数フラグ」と呼ばれる。
SMがコード化された後、ビデオコーダは各有効変換係数のレベルをエントロピーコード化し得る。例えば、ビデオコーダは、各非0変換係数の絶対値を2進形態に変換し得る。このようにして、各非0変換係数は、例えば1つ以上のビット又は「ビン」を備える単項コードを使用して「2値化され」得る。更に、ビデオデコーダがビデオデータを復号できるように、幾つかの他の2値化シンタックス要素が含まれ得る。
ビデオコーダは、ビデオデータのブロックの各ビンを、ブロックの変換係数に対応するか、シンタックス情報に対応するかを問わず、ビンごとに確率推定値を使用してコード化し得る。確率推定値は、ビンが所与の2進値(例えば、「0」又は「1」)を有する可能性を示し得る。確率推定値は、「コンテキストモデル」とも呼ばれる確率モデル内に含まれ得る。ビデオコーダは、ビンのコンテキストを決定することによって、コンテキストモデルを選択し得る。シンタックス要素のビンのコンテキストは、以前コード化された隣接シンタックス要素の関連ビンの値を含み得る。幾つかの例では、現在のシンタックス要素をコード化するためのコンテキストは、現在のシンタックス要素の上及び左に位置する隣接シンタックス要素を含み得る。いずれの場合も、コンテキストごとに異なる確率モデルが定められる。ビンをコード化した後、コンテキストモデルは更に、最新の確率推定値を反映するためにビンの値に基づいて更新される。
幾つかの例では、4×4画素という小さいビデオデータのブロックを使用して、ピクチャをコード化することがある。例えば、1920×1080画素フレーム(例えば、1080pビデオの場合)は、495ブロックもの4×4画素を含むことができる。従って、ブロックごとに1ビットのコンテキスト情報が記憶される場合、ビデオコーダは495ビットの情報をバッファリングすることができる。更に、幾つかの例では、2つ以上のビットの情報を、特定のシンタックス要素をコード化するためのコンテキストとして使用することがあり、これにより、エントロピーコード化するためにバッファリングされるデータの量が大幅に増えることがある。
本開示の技法は一般に、エントロピーコード化中にバッファリングされる隣接ブロックからのデータの量を制限することに関する。例えば、現在のブロックをコード化するときに、上に隣接するブロックのデータをコンテキスト情報として使用するのではなく、幾つかの例では、ビデオコード化機器は、コード化されているシンタックス要素又はブロックの特性に基づいてコンテキストを決定することができる。他の例では、ビデオコード化機器は、現在のブロックをコード化するときに、左に隣接するブロックからのデータに基づいてコンテキストを決定することができる。更に他の例では、ビデオコード化機器は、現在のブロックが(例えば、以下でより詳しく説明するように、新生の高効率ビデオコード化(HEVC)規格において最大コード化ユニット(LCU)と呼ばれる)より大きい区分のサブブロックであるときに限り、上に隣接するブロックからのデータに基づいてコンテキストを決定することができる。
本開示の技法に従って、バッファリングされるデータの量を制限することによって、ビデオデータをコード化することに関連する複雑性を低減することができる。例えば、本開示の態様によるエントロピーコード化により、ビデオコード化機器がより少ないデータをバッファリングすることができ、それにより、そのようなバッファリングに関連するメモリ要件を軽減することができる。
更に、コンテンツが抽出される位置を減らすことにより、エントロピーコード化効率及び/又はスループットを改善することができる。例えば、本開示の技法は、解析スループットを改善するように実施され得る。即ち、ビデオデータがビデオコーダによって受信されると、ビデオデータは特定の解析プロセス(例えば、波面構文解析(wavefront parsing))に従って解析され、読み取られ、セグメント化され得る。幾つかの例では、解析プロセスは、スライスの各LCUを、1つ以上の初期LCU(例えば、スライスにおける上及び/又は左端のLCU)を解析した後に解析することを含み得る。LCUを解析することにより、ビデオコーダは、解析されたLCUのうちの1つ以上を各処理スレッドが含む、複数の処理スレッド(例えば、並列処理の場合)を形成することができる。
しかしながら、コンテキストモデル依存のために、幾つかのスレッドは他のスレッドに依存することがあり、これは並列処理アプリケーションにとって最適ではないことがある。例えば、第1のスレッドは、第2の異なるスレッドによって処理されるデータに依存することがあり、これにより第1のスレッドは、第2のスレッドがデータを処理し終えるまで待機することになり得る。即ち、データは一般に、データが有用であるところまで構文解析され、次いでデータはコード化される。従来型の波面の場合、ビデオコーダは、第1の(例えば、上部)波面のデータをコード化するために減速し得る。そして、それは次のスレッドを停止させることがあり、更に次のスレッドを停止させ、以下同様である。本開示の態様によれば、コンテキスト依存を解消することによって、1つのスレッドの減速は、処理されている他のスレッドに影響を与えなくなる。構文解析に関して、これは、スレッドのパーサが、他のスレッドを参照する必要がなく、スレッドごとに独立して動作し得ることを意味する。
説明のための例では、現在コード化されているLCUがスライスの最上行の下に位置し、スライスの1つ以上のLCUが現在のスライスの上に位置すると仮定する。この例では、現在のLCUをコード化するためのコンテキストは、上位隣接LCU(例えば、現在のLCUの上に位置するLCU)に含まれ得る。即ち、現在のLCUをコード化するためのコンテキストは、上位隣接LCUの1つ以上の値に依存し得る。従って、現在のLCUは、現在のLCUがコード化され得る前に、上位隣接LCUがコード化されるのを待機しなければならないことがある。そのような待ち時間が生じると、特に並列処理アプリケーションにおいて、コード化プロセスが減速し得る。
本開示の態様は、コンテンツが抽出される位置を限定するように実施され得る。即ち、本開示の幾つかの態様によれば、ビデオコーダは、幾つかの隣接ブロックからのコンテキスト情報を使用することができず、代わりに他の発信源からコンテキスト情報を引き出すことができる。従って、本開示の技法は、上述のコンテキスト依存を解消し、構文解析スループットを改善することができる。
更に、場合によっては、現在コード化されているブロックが、別の隣接ブロックに依存するコンテキスト情報を含むとき、隣接ブロックからの情報が(例えば、送信エラー又は他のエラーのために)失われた場合又は利用不可能な場合には、現在のブロックはコード化されないことがある。説明のための一例では、マージコード化モード(merge coding mode)を使用して、現在のブロックを予測することができる(例えば、別のブロックに関連する予測情報が現在のブロックのために採用される)。現在のブロックの参照フレームのエラー(例えば、パケット損失)がある場合、現在のブロックのインター予測方向は適切に導出されないことがある。更に、(エラーのある)隣接ブロックに依存するコンテキストが壊れていることもある。本開示の技法は、上述のコンテキスト依存を解消して、コンテキスト導出エラーの発生を減らすことができる。
図1は、ビデオデータをエントロピーコード化するための技法を利用し得る例示的なビデオ符号化及び復号システム10を示すブロック図である。図1に示すように、システム10は、宛先機器14によって後で復号されるべき符号化ビデオデータを与える発信源機器12を含む。特に、発信源機器12は、コンピュータ可読媒体16を介してビデオデータを宛先機器14に与える。発信源機器12及び宛先機器14は、デスクトップコンピュータ、ノートブック(即ち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、所謂「スマート」フォンなどの電話ハンドセット、所謂「スマート」パッド、テレビジョン、カメラ、表示装置、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミング機器などを含む、広範囲にわたる機器のいずれかを備え得る。場合によっては、発信源機器12及び宛先機器14は、ワイヤレス通信のために装備され得る。
宛先機器14は、コンピュータ可読媒体16を介して復号されるべき符号化ビデオデータを受信し得る。コンピュータ可読媒体16は、符号化ビデオデータを発信源機器12から宛先機器14に移動することが可能な任意のタイプの媒体又は機器を備え得る。一例では、コンピュータ可読媒体16は、発信源機器12が、符号化ビデオデータを宛先機器14にリアルタイムで直接送信することを可能にするための通信媒体を備え得る。符号化ビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先機器14に送信され得る。通信媒体は、無線周波数(RF)スペクトル又は1つ以上の物理伝送線路など、任意のワイヤレス又はワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、又はインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、発信源機器12から宛先機器14への通信を可能にするために有用であり得るルータ、スイッチ、基地局、又は任意の他の機器を含み得る。
幾つかの例では、符号化データは、出力インターフェース22から記憶装置に出力され得る。同様に、符号化データは、入力インターフェースによって記憶装置からアクセスされ得る。記憶装置は、ハードドライブ、ブルーレイ(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、揮発性又は不揮発性メモリ、又は符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体など、様々な分散された又はローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。更なる一例では、記憶装置は、発信源機器12によって生成された符号化ビデオを記憶し得るファイルサーバ又は別の中間記憶装置に対応し得る。宛先機器14は、ストリーミング又はダウンロードを介して記憶装置から、記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶し、その符号化ビデオデータを宛先機器14に送信することが可能な任意のタイプのサーバであり得る。例示的なファイルサーバは、(例えば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)機器、又はローカルディスクドライブを含む。宛先機器14は、インターネット接続を含む、任意の標準のデータ接続を介して符号化ビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(例えば、Wi−Fi接続)、ワイヤード接続(例えば、DSL、ケーブルモデムなど)、又は両方の組合せを含み得る。記憶装置からの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、又はそれらの組合せであり得る。
本開示では、概して、ビデオエンコーダ20が、ある情報をビデオデコーダ30などの別の機器に「信号伝達」することに言及し得る。但し、ビデオエンコーダ20は、幾つかのシンタックス要素をビデオデータの様々な符号化部分に関連付けることによって情報を信号伝達し得ることを理解されたい。即ち、ビデオエンコーダ20は、幾つかのシンタックス要素をビデオデータの様々な符号化部分のヘッダに記憶することによってデータを「信号伝達」し得る。場合によっては、そのようなシンタックス要素は、ビデオデコーダ30によって受信され、復号されるより前に、符号化され、記憶され得る(例えば、記憶媒体34又はファイルサーバ36に記憶され得る)。従って、「信号伝達」という用語は全般的に、圧縮されたビデオデータを復号するためのシンタックス又は他のデータの通信を指すことがあり、そのような通信がリアルタイム又はほぼリアルタイムで生じるか、それともある時間スパンで生じるか、例えば符号化時に媒体にシンタックス要素を記憶する(シンタックス要素は、この媒体に記憶された後、任意の時間に復号機器によって取り出され得る)ときに生じるかを問わない。
本開示の技法は、概して、データをエントロピーコード化することに関するが、必ずしもワイヤレスアプリケーション又は設定に限定されるものではない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH:dynamic adaptive streaming over HTTP)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、又は他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコード化に適用され得る。幾つかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、及び/又はビデオテレフォニーなどの適用例をサポートするために、一方向又は双方向のビデオ送信をサポートするように構成され得る。
図1の例では、発信源機器12は、ビデオ発信源18と、ビデオエンコーダ20と、出力インターフェース22とを含む。宛先機器14は、入力インターフェース28と、ビデオデコーダ30と、表示装置32とを含む。本開示によれば、発信源機器12のビデオエンコーダ20は、動きベクトルをコード化するための、またHEVC及びその拡張、例えばマルチビュー又は3DV拡張における双方向予測を実行するための技法を適用するように構成され得る。他の例では、発信源機器及び宛先機器は他の構成要素又は構成を含み得る。例えば、発信源機器12は、外部カメラなど、外部ビデオ発信源18からビデオデータを受信し得る。同様に、宛先機器14は、内蔵表示装置を含むのではなく、外部表示装置とインターフェースし得る。
図1の図示のシステム10は一例にすぎない。ビデオデータをエントロピーコード化するための技法は、任意のデジタルビデオ符号化及び/又は復号機器によって実行され得る。概して、本開示の技法はビデオ符号化機器によって実行されるが、本技法は、一般に「コーデック」と呼ばれるビデオエンコーダ/デコーダによっても実行され得る。更に、本開示の技法はまた、ビデオプリプロセッサによって実行され得る。発信源機器12及び宛先機器14は、発信源機器12が宛先機器14に送信するためのコード化ビデオデータを生成するような、コード化機器の例にすぎない。幾つかの例では、機器12、14の各々がビデオ符号化構成要素とビデオ復号構成要素とを含むように、機器12、14は、実質的に対称的に動作し得る。従って、システム10は、例えば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト又はビデオテレフォニーのためのビデオ機器12とビデオ機器14との間の一方向又は双方向のビデオ送信をサポートすることができる。
発信源機器12のビデオ発信源18は、ビデオカメラなどの撮像装置、以前に撮影されたビデオを含んでいるビデオアーカイブ、及び/又はビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースを含み得る。更なる代替として、ビデオ発信源18は、発信源ビデオとしてのコンピュータグラフィックスベースのデータ、又はライブビデオとアーカイブビデオとコンピュータ生成ビデオとの組合せを生成し得る。場合によっては、ビデオ発信源18がビデオカメラである場合、発信源機器12及び宛先機器14は、所謂カメラ付き携帯電話又はビデオ電話を形成することができる。但し、上述のように、本開示で説明する技法は、一般にビデオコード化に適用可能であり、ワイヤレス及び/又はワイヤードアプリケーションに適用可能であり得る。各場合に、撮影されたビデオ、以前に撮影されたビデオ又はコンピュータ生成ビデオは、ビデオエンコーダ20によって符号化され得る。符号化ビデオ情報は、次いで、出力インターフェース22によってコンピュータ可読媒体16上に出力され得る。
コンピュータ可読媒体16は、ワイヤレスブロードキャスト又はワイヤードネットワーク送信などの一時媒体、あるいはハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、ブルーレイディスク、又は他のコンピュータ可読媒体などの記憶媒体(即ち、非一時的記憶媒体)を含み得る。幾つかの例では、ネットワークサーバ(図示せず)は、発信源機器12から符号化ビデオデータを受信し、例えば、ネットワーク送信を介して、その符号化ビデオデータを宛先機器14に与え得る。同様に、ディスクスタンピング設備など、媒体製造設備のコンピューティング機器は、発信源機器12から符号化ビデオデータを受信し、その符号化ビデオデータを含んでいるディスクを生成し得る。従って、コンピュータ可読媒体16は、様々な例において、様々な形態の1つ以上のコンピュータ可読媒体を含むことが理解されよう。
宛先機器14の入力インターフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義され、またビデオデコーダ30によって使用される、ブロック及び他のコード化済単位、例えば、GOPの特性及び/又は処理を記述するシンタックス要素を含む、シンタックス情報を含み得る。具体的には、本開示は、スライス、ピクチャ、波面のセット、又はタイルなどの複数のブロックを含むデータの単位として「コード化単位」に言及する。従って、「コード化単位」という用語は、複数のブロック、例えば複数の最大コード化単位(LCU)を含むことを理解されたい。更に、「コード化済単位(coded unit)」という用語を、HEVCで使用される「コード化単位(coding unit)」又はCUという用語と混同すべきではない。表示装置32は、復号されたビデオデータをユーザに対して表示し、陰極線管(CRT)、液晶表示器(LCD)、プラズマ表示器、有機発光ダイオード(OLED)表示器、又は別のタイプの表示装置など、様々な表示装置のいずれかを備え得る。
ビデオエンコーダ20及びビデオデコーダ30は、現在開発中の高効率ビデオコード化(HEVC)規格などのビデオコード化規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20及びビデオデコーダ30は、代替的にMPEG−4、Part 10、アドバンストビデオコード化(AVC)と呼ばれるITU−T H.264規格など、他のプロプライエタリ規格又は業界規格、又はそのような規格の拡張に従って動作し得る。但し、本開示の技法は、いかなる特定のコード化規格にも限定されない。ビデオコード化規格の他の例は、MPEG−2及びITU−T H.263を含む。図1には示されていないが、幾つかの態様では、ビデオエンコーダ20及びビデオデコーダ30は、それぞれオーディオエンコーダ及びオーディオデコーダと統合され得、適切なMUX−DEMUXユニット、又は他のハードウェア及びソフトウェアを含んで、共通のデータストリーム又は別個のデータストリーム中のオーディオとビデオの両方の符号化を処理し得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、又はユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
ITU−T H.264/MPEG−4(AVC)規格は、Joint Video Team(JVT)として知られる共同パートナーシップの成果として、ISO/IEC Moving Picture Experts Group(MPEG)とともにITU-T Video Coding Experts Group(VCEG)によって策定された。幾つかの態様では、本開示で説明する技法は、一般にH.264規格に準拠する機器に適用することができる。H.264規格は、ITU−T研究グループによる2005年3月付けのITU−T勧告H.264「Advanced Video Coding for generic audiovisual services」に記載されており、本明細書ではH.264規格又はH.264仕様、あるいはH.264/AVC規格又は仕様と呼ぶ。Joint Video Team(JVT)はH.264/MPEG−4 AVCへの拡張に取り組み続けている。
JCT−VCは、HEVC規格の開発に取り組んでいる。HEVCの規格化の取り組みは、HEVCテストモデル(HM)と呼ばれるビデオコード化機器の発展的モデルに基づく。HMは、例えば、ITU−T H.264/AVCに従う既存の機器に対してビデオコード化機器の幾つかの追加の能力を仮定する。例えば、H.264は9つのイントラ予測符号化モードを提供するが、HMは33個ものイントラ予測符号化モードを提供し得る。
概して、HMの作業モデルは、ビデオフレーム又はピクチャが、ルーマサンプルとクロマサンプルの両方を含む一連のツリーブロック又は最大コード化単位(LCU)に分割され得ることを記載している。ビットストリーム内のシンタックスデータが、画素の数に関して最大コード化単位であるLCUのサイズを定義し得る。スライスは、コード化順序で幾つかの連続的なツリーブロックを含む。ビデオフレーム又はピクチャは、1つ以上のスライスに区分され得る。各ツリーブロックは、4分木に従ってコード化単位(CU)に分割され得る。概して、4分木データ構造はCUごとに1つのノードを含み、ルートノードはツリーブロックに対応する。CUが4つのサブCUに分割された場合、CUに対応するノードは4つのリーフノードを含み、リーフノードの各々はサブCUのうちの1つに対応する。
4分木データ構造の各ノードは、対応するCUにシンタックスデータを与え得る。例えば、4分木のノードは、そのノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUのシンタックス要素は、再帰的に定義され得、CUがサブCUに分割されるかどうかに依存し得る。CUが更に分割されない場合、そのCUはリーフCUと呼ばれる。本開示では、元のリーフCUの明示的分割が存在しない場合でも、リーフCUの4つのサブCUをリーフCUとも呼ぶ。例えば、16×16サイズのCUが更に分割されない場合、この16×16CUが決して分割されなくても、4つの8×8サブCUをリーフCUとも呼ぶ。
CUは、CUがサイズ差異を有さないことを除いて、H.264規格のマクロブロックと同様の目的を有する。例えば、ツリーブロックは、4つの子ノード(サブCUとも呼ばれる)に分割され得、各子ノードは、今度は親ノードとなり、別の4つの子ノードに分割され得る。4分木のリーフノードと呼ばれる、最後の分割されていない子ノードは、リーフCUとも呼ばれるコード化ノードを備える。コード化ビットストリームに関連するシンタックスデータは、最大CU深さと呼ばれる、ツリーブロックが分割され得る最大回数を定義し得、また、コード化ノードの最小サイズを定義し得る。それに応じて、ビットストリームは最小コード化単位(SCU)をも定義し得る。本開示では、HEVCのコンテキストにおけるCU、PU、又はTU、あるいは他の規格のコンテキストにおける同様のデータ構造(例えば、H.264/AVCにおけるマクロブロック及びそれのサブブロック)のいずれかを指すために「ブロック」という用語を使用する。更に、本開示では、ビデオデータの2つ以上のブロックを含み得るビデオデータの既定の量を記述するために、「コード化単位」という用語を使用し得る。即ち、例えば、コード化単位は、ピクチャ、スライス、タイル、又はタイルのセット、波面のセット、若しくはビデオデータを含む任意の他の既定の単位を指し得る。従って、「コード化単位(coded unit)」という用語を、「コード化単位(coding unit)」又はCUという用語と混同すべきではない。
CUは、コード化ノードと、コード化ノードに関連する予測ユニット(PU)及び変換ユニット(TU)とを含む。CUのサイズは、コード化ノードのサイズに対応し、形状が方形でなければならない。CUのサイズは、8×8画素から最大64×64以上の画素をもつツリーブロックのサイズまでに及び得る。各CUは、1つ以上のPUと、1つ以上のTUとを含み得る。CUに関連するシンタックスデータは、例えば、CUを1つ以上のPUに区分することを記述し得る。区分モードは、CUが、スキップモード符号化又はダイレクトモード符号化されるか、イントラ予測モード符号化されるか、又はインター予測モード符号化されるかの間で異なり得る。PUは、形状が非方形になるように区分され得る。CUに関連するシンタックスデータは、例えば、4分木に従って、CUを1つ以上のTUに区分することも記述し得る。TUは、形状が方形又は非方形(例えば、矩形)であり得る。
HEVC規格は、CUごとに異なり得るTUに従う変換を可能にする。TUは、一般に、区分されたLCUについて定義された所与のCU内のPUのサイズに基づいてサイズ決定されるが、常にそうであるとは限らない。TUは、一般にPUと同じサイズであるか又はPUよりも小さい。幾つかの例では、CUに対応する残差サンプルは、「残差4分木」(RQT:residual quad tree)として知られる4分木構造を使用して、より小さい単位に再分割され得る。RQTのリーフノードは変換単位(TU)と呼ばれることがある。TUに関連する画素差分値は、変換されて変換係数が生成され得、その変換係数は量子化され得る。
リーフCUは、1つ以上の予測単位(PU)を含み得る。概して、PUは、対応するCUの全部又は一部分に対応する空間的エリアを表し、そのPUの参照サンプルを取り出すためのデータを含み得る。その上、PUは、予測に関係するデータを含む。例えば、PUがイントラモード符号化されるとき、PUのデータは、PUに対応するTUのイントラ予測モードを記述するデータを含み得る残差4分木(RQT)中に含まれ得る。別の例として、PUがインターモード符号化されるとき、PUは、PUの1つ以上の動きベクトルを定義するデータを含み得る。PUの動きベクトルを定義するデータは、例えば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(例えば、1/4画素精度又は1/8画素精度)、動きベクトルが指す参照ピクチャ、及び/又は動きベクトルの参照ピクチャリスト(例えば、リスト0、リスト1、もしくはリストC)を記述し得る。
1つ以上のPUを有するリーフCUはまた、1つ以上の変換単位(TU)を含み得る。変換単位は、上記で説明したように、(TU4分木構造とも呼ばれる)RQTを使用して指定され得る。例えば、分割フラグは、リーフCUが4つの変換単位に分割されるかどうかを示し得る。次いで、各変換単位は、更に、更なるサブTUに分割され得る。TUが更に分割されないとき、そのTUはリーフTUと呼ばれ得る。概して、イントラコード化の場合、リーフCUに属するすべてのリーフTUは同じイントラ予測モードを共有する。即ち、概して、リーフCUのすべてのTUの予測値を計算するために同じイントラ予測モードが適用される。イントラコード化の場合、ビデオエンコーダ20は、イントラ予測モードを使用して各リーフTUの残差値を、TUに対応するCUの一部と元のブロックとの間の差分として計算し得る。TUは、必ずしもPUのサイズに制限されるとは限らない。従って、TUはPUよりも大きく又は小さくなり得る。イントラコード化の場合、PUは、同じCUについて対応するリーフTUと同一位置に配置され得る。幾つかの例では、リーフTUの最大サイズは、対応するリーフCUのサイズに対応し得る。
その上、リーフCUのTUはまた、残差4分木(RQT)と呼ばれる、それぞれの4分木データ構造に関連付けられ得る。即ち、リーフCUは、リーフCUがどのようにTUに区分されるかを示す4分木を含み得る。TU4分木のルートノードは概してリーフCUに対応し、CU4分木のルートノードは概してツリーブロック(又はLCU)に対応する。分割されないRQTのTUはリーフTUと呼ばれる。概して、本開示では、特に明記しない限り、リーフCU及びリーフTUに言及するためにそれぞれCU及びTUという用語を使用する。
ビデオシーケンスは、一般に、一連のビデオフレーム又はピクチャを含む。ピクチャグループ(GOP)は、概して、ビデオピクチャのうちの一連の1つ以上を備える。GOPは、GOP中に含まれる幾つかのピクチャを記述するシンタックスデータを、GOPのヘッダ中、ピクチャのうちの1つ以上のヘッダ中、又は他の場所に含み得る。各ピクチャのスライスは、それぞれのスライスの符号化モードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は、一般に、ビデオデータを符号化するために、個々のビデオスライス内のビデオブロックに対して動作する。ビデオブロックは、CU内のコード化ノードに対応し得る。ビデオブロックは、固定サイズ又は可変サイズを有し得、指定のコード化規格に応じてサイズが異なり得る。
一例として、HMは、様々なPUサイズでの予測をサポートする。特定のCUのサイズが2N×2Nであると仮定すると、HMは、2N×2N又はN×NのPUサイズでのイントラ予測をサポートし、2N×2N、2N×N、N×2N、又はN×Nの対称的なPUサイズでのインター予測をサポートする。HMはまた、2N×nU、2N×nD、nL×2N、及びnR×2NのPUサイズでのインター予測のための非対称区分をサポートする。非対称区分では、CUの一方向は区分されないが、他の方向は25%と75%とに区分される。25%の区分に対応するCUの部分は、「n」とその後ろに付く「Up」、「Down」、「Left」、又は「Right」という表示によって示される。従って、例えば「2N×nU」は、上部に2N×0.5N PUと下部に2N×1.5N PUとで水平方向に区分される2N×2N CUを指す。
本開示では、「N×(x)N」と「N×(by)N」は、垂直寸法及び水平寸法に関するビデオブロックの画素寸法、例えば、16×(x)16画素又は16×(by)16画素を指すために互換的に使用され得る。概して、16×16ブロックは、垂直方向に16画素を有し(y=16)、水平方向に16画素を有する(x=16)。同様に、N×Nブロックは、一般に、垂直方向にN画素を有し、水平方向にN画素を有し、ここで、Nは非負整数値を表す。ブロック中の画素は行と列に構成され得る。更に、ブロックは、必ずしも、水平方向に垂直方向と同じ数の画素を有する必要はない。例えば、ブロックは、N×M画素を備え得、Mは必ずしもNに等しいとは限らない。
CUのPUを使用したイントラ予測コード化又はインター予測コード化の後、ビデオエンコーダ20は、CUのTUのための残差データを計算し得る。PUは、(画素領域とも呼ばれる)空間領域において予測画素データを生成する方法又はモードを記述するシンタックスデータを備え得、TUは、変換、例えば、残差ビデオデータへの離散コサイン変換(DCT)、整数変換、ウェーブレット変換、又は概念的に同様の変換の適用後に、変換領域において係数を備え得る。残差データは、符号化されていないピクチャの画素と、PUに対応する予測値との間の画素差分に対応し得る。ビデオエンコーダ20は、CUのための残差データを含むTUを形成し、次いで、TUを変換して、CUの変換係数を生成し得る。
変換係数を生成するための任意の変換の後に、ビデオエンコーダ20は、変換係数の量子化を実行し得る。量子化は、概して、更なる圧縮を提供する、係数を表すために使用されるデータの量をできるだけ低減するために変換係数を量子化するプロセスを指す。量子化プロセスは、係数の一部又は全部に関連するビット深さを低減し得る。例えば、量子化中にnビット値がmビット値に切り捨てられ得、この場合、nはmよりも大きい。
量子化の後に、ビデオエンコーダは、変換係数を走査して、量子化変換係数を含む2次元行列から1次元ベクトルを生成し得る。走査は、より高いエネルギー(従ってより低い周波数)の係数をアレイの前方に配置し、より低いエネルギー(従ってより高い周波数)の係数をアレイの後方に配置するように設計され得る。幾つかの例では、ビデオエンコーダ20は、エントロピー符号化され得るシリアル化ベクトルを生成するために、量子化変換係数を走査するために予め定義された走査順序を利用し得る。他の例では、ビデオエンコーダ20は適応走査を実行し得る。量子化変換係数を走査して1次元ベクトルを形成した後に、ビデオエンコーダ20は、例えば、コンテキスト適応型可変長コード化(CAVLC)、コンテキスト適応型二値算術コード化(CABAC)、シンタックスベースコンテキスト適応型二値算術コード化(SBAC)、確率間隔区分エントロピー(PIPE)コード化、又は別のエントロピー符号化方法に従って1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ20はまた、ビデオデータを復号する際にビデオデコーダ30が使用するための符号化ビデオデータに関連するシンタックス要素をエントロピー符号化し得る。
CABACを実行するために、ビデオエンコーダ20は、送信されるべきシンボルに、コンテキストモデル内のコンテキストを割り当て得る。コンテキストは、例えば、シンボルの隣接値が非0であるか否かに関係し得る。ビデオエンコーダ20はまた、適応走査を実行するときに生成される有効係数フラグ及び最後係数フラグなど、シンタックス要素をエントロピー符号化し得る。
一般に、ビデオデコーダ30によって実行されるビデオ復号プロセスは、ビデオエンコーダ20によって実行される符号化技法とは逆の技法を含み得る。概して逆であるが、ビデオデコーダ30は、場合によっては、ビデオエンコーダ20によって実行される技法と同様の技法を実行することがある。ビデオデコーダ30は、ビデオエンコーダ20に関して説明したデータを含む受信されたビットストリームに含まれるシンタックス要素又は他のデータに依拠することもある。
本開示の態様によれば、ビデオエンコーダ20及び/又はビデオデコーダ30は、エントロピーコード化中にバッファリングされる隣接ブロックからのデータの量を制限するための本開示の技法を実施し得る。例えば、現在のブロックをコード化するときに、上に隣接するブロックのデータをコンテキスト情報として使用するのではなく、幾つかの例では、ビデオエンコーダ20及び/又はビデオデコーダ30は、コード化されているシンタックス要素又はブロックの特性に基づいてコンテキストを決定することができる。他の例では、ビデオエンコーダ20及び/又はビデオデコーダ30は、現在のブロックをコード化するときに、左に隣接するブロックからのデータに基づいてコンテキストを決定することができる。更に他の例では、ビデオエンコーダ20及び/又はビデオデコーダ30は、現在のブロックがより大きい区分(例えば、LCU)のサブブロックであるときに限り、上に隣接するブロックからのデータに基づいてコンテキストを決定することができる。更に、場合によっては、ビデオエンコーダ20及び/又はビデオデコーダ30は、本開示の1つ以上の技法を組み合わせて実行することができる。
ビデオエンコーダ20及びビデオデコーダ30はそれぞれ、適用可能なとき、1つ以上のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理回路、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダ又はデコーダ回路のいずれか、又はそれらの任意の組合せとして実施され得る。ビデオエンコーダ20及びビデオデコーダ30の各々は1つ以上のエンコーダ又はデコーダ中に含まれ得、そのいずれも複合ビデオエンコーダ/デコーダ(コーデック)の一部として統合され得る。ビデオエンコーダ20及び/又はビデオデコーダ30を含む機器は、集積回路、マイクロプロセッサ、及び/又はセルラー電話などのワイヤレス通信機器を備え得る。
図2は、ビデオデータをエントロピーコード化するための、本開示で説明する技法を実施し得る例示的なビデオエンコーダ20を示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコード化及びインターコード化を実行し得る。イントラコード化は、所与のビデオフレーム又はピクチャ内のビデオの空間的冗長性を低減又は除去するために空間的予測に依拠する。インターコード化は、ビデオシーケンスの隣接フレーム又はピクチャ内のビデオの時間的冗長性を低減又は除去するために時間的予測に依拠する。イントラモード(Iモード)は、幾つかの空間ベースの圧縮モードのいずれかを指し得る。単方向予測(Pモード)又は双方向予測(Bモード)などのインターモードは、幾つかの時間ベースの圧縮モードのいずれかを指し得る。
図2に示すように、ビデオエンコーダ20は、符号化されるべきビデオデータを受信する。図2の例では、ビデオエンコーダ20は、モード選択ユニット40と、加算器50と、変換ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56と、参照ピクチャメモリ64とを含む。モード選択ユニット40は、今度は、動き推定ユニット42と、動き補償ユニット44と、イントラ予測ユニット46と、区分ユニット48とを含む。ビデオブロック再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。再構成されたビデオからブロック歪み(blockiness artifacts)を除去するためにブロック境界をフィルタ処理するデブロッキングフィルタ(図2に図示せず)も含まれ得る。所望される場合、デブロッキングフィルタは、一般に、加算器62の出力をフィルタ処理することになる。また、デブロッキングフィルタに加えて追加のループフィルタ(ループ内又はループ後)が使用され得る。そのようなフィルタは、簡潔のために示されていないが、所望される場合、(ループ内フィルタとして)加算器50の出力をフィルタ処理し得る。
符号化プロセス中に、ビデオエンコーダ20はコード化されるべきビデオフレーム又はスライスを受信する。フレーム又はスライスは複数のビデオブロックに分割され得る。動き推定ユニット42及び動き補償ユニット44は、時間圧縮を行うために、1つ以上の参照フレーム中の1つ以上のブロックに対して受信されたビデオブロックのインター予測コード化を実行する。イントラ予測ユニット46は代替的に、空間圧縮を行うために、コード化されるべきブロックと同じフレーム又はスライス中の1つ以上の隣接ブロックに対して受信されたビデオブロックのイントラ予測コード化を実行し得る。ビデオエンコーダ20は、例えば、ビデオデータのブロックごとに適切なコード化モードを選択するために、複数のコード化パスを実行し得る。
その上、区分ユニット48は、前のコード化パスにおける前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。例えば、区分ユニット48は、初めにフレーム又はスライスをLCUに区分し、レート歪み分析(例えば、レート歪み最適化)に基づいてLCUの各々をサブCUに区分し得る。モード選択ユニット40は、更に、LCUをサブCUに区分することを示す4分木データ構造を生成し得る。4分木のリーフノードCUは、1つ以上のPUと、1つ以上のTUとを含み得る。
モード選択ユニット40は、例えば、誤差結果に基づいてコード化モード、即ち、イントラ又はインターのうちの1つを選択し、残差ブロックデータを生成するために、得られたイントラコード化ブロック又はインターコード化ブロックを加算器50に与え、参照フレームとして使用するための符号化ブロックを再構成するために、得られたイントラコード化ブロック又はインターコード化ブロックを加算器62に与え得る。モード選択ユニット40はまた、動きベクトル、イントラモードインジケータ、区分情報、及び他のそのようなシンタックス情報などのシンタックス要素をエントロピー符号化ユニット56に与える。
動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示してある。動き推定ユニット42によって実行される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、例えば、現在のフレーム(又は他のコード化ユニット)内でコード化されている現在のブロックに対する参照フレーム(又は他のコード化済単位)内の予測ブロックに対する現在のビデオフレーム又はピクチャ内のビデオブロックのPUの変位を示し得る。
予測ブロックは、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、又は他の差分メトリックによって決定され得る画素差分に関して、コード化されるブロックにぴったり一致することがわかるブロックである。幾つかの例では、ビデオエンコーダ20は、参照フレームメモリ64に記憶された参照ピクチャのサブ整数画素位置の値を計算し得る。例えば、ビデオエンコーダ20は、参照ピクチャの1/4画素位置、1/8画素位置、又は他の分数画素位置の値を補間し得る。従って、動き推定ユニット42は、フル画素位置と分数画素位置とに対する動き探索を実行し、分数画素精度で動きベクトルを出力し得る。
動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコード化スライスにおけるビデオブロックのPUのための動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)又は第2の参照ピクチャリスト(リスト1)から選択され得、その各々は、参照フレームメモリ64に記憶された1つ以上の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。
動き補償ユニット44によって実行される動き補償は、動き推定ユニット42によって決定された動きベクトルに基づいて予測ブロックを取り込む(fetching)又は生成することに関与し得る。この場合も、幾つかの例では、動き推定ユニット42と動き補償ユニット44とは機能的に統合され得る。現在のビデオブロックのPUのための動きベクトルを受信すると、動き補償ユニット44は、参照ピクチャリストのうちの1つにおいて動きベクトルが指す予測ブロックの位置を特定し得る。加算器50は、以下で説明するように、コード化されている現在のビデオブロックの画素値から予測ブロックの画素値を減算し、画素差分値を形成することによって、残差ビデオブロックを形成する。概して、動き推定ユニット42はルーマ成分に対して動き推定を実行し、動き補償ユニット44は、クロマ成分とルーマ成分の両方のためにルーマ成分に基づいて計算された動きベクトルを使用する。モード選択ユニット40はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30が使用するためのビデオブロックとビデオスライスとに関連するシンタックス要素を生成し得る。
イントラ予測ユニット46は、上記で説明したように、動き推定ユニット42と動き補償ユニット44とによって実行されるインター予測の代替として、現在のブロックをイントラ予測し得る。特に、イントラ予測ユニット46は、現在のブロックを符号化するために使用すべきイントラ予測モードを決定し得る。幾つかの例では、イントラ予測ユニット46は、例えば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在のブロックを符号化し得、イントラ予測ユニット46(又は、幾つかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。
例えば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードのためのレート歪み分析を使用してレート歪み値を計算し、テストされたモードの中で最良のレート歪み特性を有するイントラ予測モードを選択し得る。レート歪み分析は、概して、符号化ブロックと、符号化ブロックを生成するために符号化された元の符号化されていないブロックとの間の歪み(又は誤差)の量、及び符号化ブロックを生成するために使用されるビットレート(即ち、ビット数)を決定する。イントラ予測ユニット46は、どのイントラ予測モードがブロックについて最良のレート歪み値を呈するかを決定するために、様々な符号化ブロックの歪み及びレートから比率を計算し得る。
ビデオエンコーダ20は、コード化されている元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって残差ビデオブロックを形成する。加算器50は、この減算演算を実行する1つ以上の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)又は概念的に同様の変換などの変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換処理ユニット52は、DCTと概念的に同様である他の変換を実行し得る。ウェーブレット変換、整数変換、サブバンド変換又は他のタイプの変換も使用され得る。いずれの場合も、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報を画素値領域から周波数領域などの変換領域に変換し得る。
変換処理ユニット52は、得られた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートを更に低減するために変換係数を量子化する。量子化プロセスは、係数の一部又は全部に関連するビット深度を低減することができる。量子化の程度は、量子化パラメータを調整することによって変更され得る。幾つかの例では、量子化ユニット54は、次いで、量子化変換係数を含む行列の走査を実行し得る。代替的に、エントロピー符号化ユニット56が走査を実行し得る。
量子化の後、エントロピー符号化ユニット56は、量子化変換係数をエントロピーコード化する。例えば、エントロピー符号化ユニット56は、コンテキスト適応型可変長コード化(CAVLC)、コンテキスト適応型二値算術コード化(CABAC)、シンタックスベースコンテキスト適応型二値算術コード化(SBAC)、確率間隔区分エントロピー(PIPE)コード化又は別のエントロピーコード化技法を実行し得る。コンテキストベースエントロピーコード化の場合、コンテキストは隣接ブロックに基づき得る。
CABACに関して、エントロピー符号化ユニット56は、ビデオデータのブロックに関連するシンボルを符号化するためにコンテキストに作用するコンテキストモデルを選択し得る。例えば、エントロピー符号化ユニット56は、シンタックス要素ごとに確率推定値を使用して、ビデオデータのブロックの各シンタックス要素をエントロピー符号化することができる。確率推定値は、要素が所与の値を有する可能性を示し得る。確率推定値は、「コンテキストモデル」とも呼ばれる確率モデル内に含まれ得る。エントロピー符号化ユニット56は、シンタックス要素に関するコンテキスト情報(又はより単純には「コンテキスト」)を決定することによって、コンテキストモデルを選択することができる。コンテキストごとに異なる確率モデルが定められる。シンタックス要素をコード化した後、エントロピー符号化ユニット56は、最新の確率推定値を反映するために、シンタックス要素の実測値に基づいて、選択されたコンテキストモデルを更新することができる。即ち、例えば、エントロピー符号化ユニット56は、コンテキストモデルが新しいコンテキストモデルに移行するために選択される方法を更新することができる。
幾つかの例では、特定のシンタックス要素のコンテキストは、以前コード化された隣接シンタックス要素の関連シンタックス要素の値を含み得る。例えば、エントロピー符号化ユニット56は、現在のシンタックス要素をコード化するためのコンテキストを、現在のシンタックス要素の上及び左に位置する隣接シンタックス要素に基づいて決定し得る。上記のように、新生HEVC規格により、LCUを4×4画素という小さいサブCUに再帰的に区分することができる。従って、1920×1080画素ピクチャ(例えば、1080pビデオの場合)は、水平方向にピクチャにわたるラインバッファ内に495個もの4×4画素ブロックを含むことができる。ビデオエンコーダ20が、ブロックごとに1ビットのコンテキスト情報をバッファリングする場合、ビデオエンコーダ20は、495ビットの情報をバッファリングすることができる。
本開示の技法によれば、エントロピー符号化ユニット56は、ビデオエンコーダ20によってバッファリングされる情報の量を低減又は除去する形で、ビデオデータをエントロピーコード化するためのコンテキストを決定することができる。例えば、本開示の態様によれば、現在のブロック(例えば、コード化済単位、例えばフレーム又はスライスの最上行にないブロック)に関連するシンタックス要素を符号化するときに、上に隣接するブロックのデータをコンテキストとして使用するのではなく、エントロピー符号化ユニット56は、左に隣接するブロックからのデータのみを使用することができる。
別の例として、エントロピー符号化ユニット56は、現在のブロックが区分された最大コード化ユニット(LCU)のサブCUであり、上に隣接するブロックが同じLCU内にあるときに限り、現在のブロックに関連するシンタックス要素を符号化するためのコンテキストとして、上に隣接するブロックからのデータを使用することができる。言い換えれば、エントロピー符号化ユニット56は、上部LCU境界を越えるコンテキスト情報を使用することを回避するように構成され得る。
更に別の例として、エントロピー符号化ユニット56は、ローカルLCU情報に基づいて、現在のブロックに関連するシンタックス要素を符号化するためのコンテキストを導出することができる。例えば、エントロピー符号化ユニット56は、CUに到達するためにLCUが区分された回数に一般に対応するCU深さに基づいて、インター予測データに関するコンテキスト情報を導出することができる。説明のための一例では、LCUはサイズが64×64画素(深さ0)であると仮定する。LCUのサブCUは、CU深さ1でサイズが32×32画素であってよく、サブCUの更なるサブCUは、CU深さ2でサイズが16×16画素であってよい。
本開示の技法によれば、エントロピー符号化ユニット56は、現在のブロックのCU深さに基づいて、現在のブロックのインター予測データに関するコンテキストを決定することができる。即ち、例えば、CU深さ1は、CU深さ2とは異なる確率モデルに対応し得る。言い換えれば、特定のCU深さにおけるCUのシンタックス要素をコード化するとき、エントロピー符号化ユニット56は、シンタックス要素をコード化するために確率モデルを選択するためのコンテキスト情報としてCU深さを使用することができる。
別の例として、エントロピー符号化ユニット56は、変換深度情報に基づいて、イントラ予測データに関するコンテキスト情報を導出することができる。変換深度情報は、CU深さと似ていることがあるが、TUが区分される(例えば、RQT構造に従って区分される)回数を記述する。従って、例えば、TU深さ1は、TU深さ2とは異なる確率モデルに対応し得る。言い換えれば、特定のTU深さにおけるTUのシンタックス要素をコード化するとき、エントロピー符号化ユニット56は、シンタックス要素をコード化するために確率モデルを選択するためのコンテキスト情報としてTU深さを使用することができる。
エントロピー符号化ユニット56によるエントロピーコード化の後に、符号化ビットストリームは、別の機器(例えば、ビデオデコーダ30)に送信されるか、あるいは後で送信するか又は取り出すためにアーカイブされ得る。逆量子化ユニット58及び逆変換ユニット60は、それぞれ逆量子化及び逆変換を適用して、例えば参照ブロックとして後で使用するために、画素領域中で残差ブロックを再構成する。動き補償ユニット44は、残差ブロックを参照フレームメモリ64のフレームのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、再構成された残差ブロックに1つ以上の補間フィルタを適用して、動き推定において使用するサブ整数画素値を計算し得る。加算器62は、再構成された残差ブロックを、動き補償ユニット44によって生成された動き補償予測ブロックに加算して、参照フレームメモリ64に記憶するための再構成されたビデオブロックを生成する。再構成されたビデオブロックは、後続のビデオフレーム中のブロックをインターコード化するために動き推定ユニット42及び動き補償ユニット44によって参照ブロックとして使用され得る。
このように、ビデオエンコーダ20は、ビデオデータのコード化ユニット内に含まれておりコード化済単位中のブロックの最上行の下にあるビデオデータのブロックについてのコンテキスト情報を決定することであって、コンテキスト情報は、コード化済単位中の上に隣接するブロックからの情報を含まないことを含む方法を実行し得るビデオコーダの一例である。本方法は、決定されたコンテキスト情報を使用して、ブロックのデータをエントロピー符号化することも含み得る。
図3は、ビデオデータをエントロピーコード化するための、本開示で説明する技法を実施し得る例示的なビデオデコーダ30を示すブロック図である。図3の例では、ビデオデコーダ30は、エントロピー復号ユニット80と、予測ユニット81と、逆量子化ユニット86と、逆変換ユニット88と、加算器90と、参照ピクチャメモリ92とを含む。予測ユニット81は、動き補償ユニット82と、イントラ予測ユニット84とを含む。
復号プロセス中に、ビデオデコーダ30は、ビデオエンコーダ20から、符号化ビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化ビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット80は、量子化係数と、動きベクトルと、他のシンタックス要素とを生成するためにビットストリームをエントロピー復号する。
ビデオデコーダ30は、ビデオスライスレベル及び/又はビデオブロックレベルでシンタックス要素を受信し得る。例えば、背景として、ビデオデコーダ30は、ネットワークを介した送信のために、所謂「ネットワーク抽象化レイヤユニット(network abstraction layer unit)」又はNALユニットに圧縮された圧縮ビデオデータを受信し得る。各NALユニットは、NALユニットに記憶されるデータのタイプを識別するヘッダを含み得る。一般にNALユニットに記憶されるデータの2つのタイプがある。NALユニットに記憶されるデータの第1のタイプはビデオコード化レイヤ(VCL:video coding layer)データであり、これは圧縮ビデオデータを含む。NALユニットに記憶されるデータの第2のタイプは非VCLデータと呼ばれ、これは、多数のNALユニットに共通のヘッダデータを定義するパラメータセットなどの追加情報と、補足エンハンスメント情報(SEI:supplemental enhancement information)とを含む。例えば、パラメータセットは、(例えば、シーケンスパラメータセット(SPS:sequence parameter set)中の)シーケンスレベルヘッダ情報と(例えば、ピクチャパラメータセット(PPS)中の)まれに変化するピクチャレベルヘッダ情報とを含んでいることがある。パラメータセット中に含まれているまれに変化する情報は、シーケンス又はピクチャごとに繰り返される必要がなく、それによりコード化効率が改善される。更に、パラメータセットの使用はヘッダ情報の帯域外送信を可能にし、それにより誤り耐性のための冗長送信の必要を回避する。
エントロピー復号ユニット80は、図2のビデオエンコーダ20に関して上記で説明したエントロピー符号化ユニット56と同様に構成され得る。例えば、エントロピーコード化ユニット80は、ビデオデータのブロックに関連するシンボルを復号するためにコンテキストに作用するコンテキストモデルを選択し得る。即ち、エントロピーコード化ユニット80は、シンタックス要素ごとに確率推定値を使用して、ビデオデータのブロックの各シンタックス要素をエントロピーコード化することができる。本開示の技法によれば、エントロピーコード化ユニット80は、ビデオデコーダ30によってバッファリングされる情報の量を低減又は除去する形で、ビデオデータをエントロピーコード化するためのコンテキストを決定することができる。例えば、本開示の態様によれば、現在のブロック(例えば、コード化済単位、例えばフレーム又はスライスの最上行にないブロック)に関連するシンタックス要素を符号化するときに、上に隣接するブロックのデータをコンテキストとして使用するのではなく、エントロピーコード化ユニット80は、左に隣接するブロックからのデータのみを使用することができる。
別の例として、エントロピーコード化ユニット80は、現在のブロックが区分された最大コード化単位(LCU)のサブCUであり、上に隣接するブロックが同じLCU内にあるときに限り、現在のブロックに関連するシンタックス要素を復号するためのコンテキストとして、上に隣接するブロックからのデータを使用することができる。言い換えれば、エントロピーコード化ユニット80は、上部LCU境界を越えるコンテキストを使用することを回避するように構成され得る。更に別の例として、エントロピーコード化ユニット80は、ローカルLCU情報(例えば、CU深さ、TU深さなど)に基づいて、現在のブロックに関連するシンタックス要素を復号するためのコンテキストを導出することができる。別の例では、エントロピーコード化ユニット80は、幾つかのシンタックス要素をそれらの要素自体に基づいて復号するための単一のコンテキストを使用することができる。エントロピーコード化ユニット80は、場合によっては、これらの技法の組合せを使用してコンテキストを決定することができる。特定のシンタックス要素を復号するためのコンテキストを決定した後、エントロピーコード化ユニット80は、コンテキストに対応する確率モデルを選択し、選択された確率モデルを使用してシンタックス要素を復号することができる。
エントロピー復号ユニット80は、予測ユニット81に動きベクトルと他の復号されたシンタックス要素とを転送する。ビデオスライスがイントラコード化済(I)スライスとしてコード化されるとき、予測ユニット81のイントラ予測ユニット84は、信号伝達されたイントラ予測モードと現在のフレーム又はピクチャの、前に復号されたブロックからのデータとに基づいて、現在のビデオスライスのビデオブロックについての予測データを生成し得る。ビデオフレームがインターコード化済(即ちB、P、又はGPB)スライスとしてコード化されるとき、予測ユニット81の動き補償ユニット82は、エントロピー復号ユニット80から受信された動きベクトル及び他のシンタックス要素に基づいて現在のビデオスライスのビデオブロックについての予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ92に記憶された参照ピクチャに基づいて、デフォルトの構成技法を使用して、参照フレームリスト、即ち、リスト0及びリスト1を構成し得る。
動き補償ユニット82は、動きベクトルと他のシンタックス要素とを構文解析することによって現在のビデオスライスのビデオブロックのための予測情報を決定し、その予測情報を使用して、復号されている現在のビデオブロックのための予測ブロックを生成する。例えば、動き補償ユニット82は、ビデオスライスのビデオブロックをコード化するために使用される予測モード(例えば、イントラ又はインター予測)、インター予測スライスタイプ(例えば、Bスライス、Pスライス、又はGPBスライス)、スライスの参照ピクチャリストのうちの1つ以上についての構成情報、スライスの各インター符号化ビデオブロックについての動きベクトル、スライスの各インターコード化ビデオブロックについてのインター予測ステータス、及び現在のビデオスライス中のビデオブロックを復号するための他の情報を決定するために、受信されたシンタックス要素の幾つかを使用する。
動き補償ユニット82はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット82は、ビデオブロックの符号化中にビデオエンコーダ20によって使用された補間フィルタを使用して、参照ブロックのサブ整数画素の補間値を計算し得る。この場合、動き補償ユニット82は、受信されたシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを決定し、その補間フィルタを使用して予測ブロックを生成し得る。
逆量子化ユニット86は、ビットストリーム中で与えられ、エントロピー復号ユニット80によって復号された量子化変換係数を逆量子化(inverse quantize)、即ち、逆量子化(de-quantize)する。逆量子化プロセスは、ビデオスライス中の各ビデオブロックについてビデオエンコーダ20によって計算される量子化パラメータを使用して量子化の程度を決定し、同様に、適用すべき逆量子化の程度を決定することを含み得る。
逆変換ユニット88は、画素領域において残差ブロックを生成するために、逆変換、例えば逆DCT、逆整数変換、又は概念的に同様の逆変換プロセスを変換係数に適用する。本開示の態様によれば、逆変換ユニット88は、残差データに変換が適用された方法を決定することができる。即ち、例えば、逆変換ユニット88は、受信されたビデオデータのブロックに関連する残差ルーマサンプル及び残差クロマサンプルに変換(例えば、DCT、整数変換、ウェーブレット変換、又は1つ以上の他の変換)が適用された方法を表すRQTを決定することができる。
動き補償ユニット82が、動きベクトルと他のシンタックス要素とに基づいて現在のビデオブロックのための予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット88からの残差ブロックを動き補償ユニット82によって生成された対応する予測ブロックと加算することによって、復号されたビデオブロックを形成する。加算器90は、この加算演算を実行する1つ以上の構成要素を表す。所望される場合、ブロック歪みを除去するために、復号されたブロックをフィルタ処理するためにデブロッキングフィルタも適用され得る。画素遷移を平滑化するか、又はさもなければビデオ品質を改善するために、(コード化ループ内又はコード化ループ後の)他のループフィルタも使用され得る。所与のフレーム又はピクチャの復号されたビデオブロックは、次いで、その後の動き補償のために使用される参照ピクチャを記憶する参照ピクチャメモリ92に記憶される。参照ピクチャメモリ92はまた、図1の表示装置32などの表示装置上での後の提示のために、復号されたビデオを記憶する。このように、ビデオデコーダ30は、ビデオデータのコード化済単位内に含まれておりコード化済単位内のブロックの最上行の下にあるビデオデータのブロックについてのコンテキスト情報を決定することであって、コンテキスト情報は、コード化済単位内の上に隣接するブロックからの情報を含まないことを含む方法を実行し得るビデオデコーダの一例である。本方法は、決定されたコンテキスト情報を使用して、ブロックのデータをエントロピー復号することも含み得る。
図4A及び図4Bは、例示的な4分木150と、対応する最大コード化ユニット172とを示す概念図である。図4Aは、階層式に構成されたノードを含む、例示的な4分木150を示している。4分木150は、例えば、提案されたHEVC規格によるツリーブロックに関連付けられ得る。4分木150などの4分木中の各ノードは、子をもたないリーフノードであるか、又は4つの子ノードを有し得る。図4Aの例では、4分木150はルートノード152を含む。ルートノード152は、リーフノード156A〜156C(リーフノード156)とノード154とを含む、4つの子ノードを有する。ノード154はリーフノードでないので、ノード154は、この例ではリーフノード158A〜158D(リーフノード158)である、4つの子ノードを含む。
4分木150は、この例ではLCU172など、対応する最大コード化ユニット(LCU)の特性を記述するデータを含み得る。例えば、4分木150は、それの構造により、サブCUへのLCUの分割を記述し得る。LCU172が2N×2Nのサイズを有すると仮定する。LCU172は、この例では、4つのサブCU176A〜176C(サブCU176)及び174を有し、各々はN×Nサイズである。サブCU174は更に4つのサブCU178A〜178D(サブCU178)に分割され、各々はサイズN/2×N/2である。この例では、4分木150の構造はLCU172の分割に対応する。即ち、ルートノード152はLCU172に対応し、リーフノード156はサブCU176に対応し、ノード154はサブCU174に対応し、リーフノード158はサブCU178に対応する。
4分木150のノードのデータは、ノードに対応するCUが分割されるかどうかを記述し得る。CUが分割される場合、4分木150中に4つの追加のノードが存在し得る。幾つかの例では、4分木のノードは以下の擬似コードと同様に実施され得る。
quadtree_node {
boolean split_flag(1);
// signaling data
if (split_flag) {
quadtree_node child1;
quadtree_node child2;
quadtree_node child3;
quadtree_node child4;
}
}
split_flag値は、現在のノードに対応するCUが分割されるかどうかを表す1ビット値であり得る。CUが分割されない場合、split_flag値は「0」であり得るが、CUが分割される場合、split_flag値は「1」であり得る。4分木150の例に関して、分割フラグ値の配列は101000000であり得る。
上記のように、CU深さは、LCU172などのLCUが分割された程度を指し得る。例えば、ルートノード152は、CU深さ0に対応し得、ノード154及びリーフノード156はCU深さ1に対応し得る。更に、リーフノード158はCU深さ2に対応し得る。本開示の態様によれば、CU深さ及び/又はTU深さは、幾つかのシンタックス要素をエントロピーコード化するためのコンテキストとして使用され得る。説明のための一例では、リーフノード156Aは深さ1に位置し、リーフノード158Aは深さ2に位置するので、リーフノード156Aに関連する1つ以上のシンタックス要素は、リーフノード158Aとは異なるコンテキストモデルを使用して、エントロピーコード化され得る。
図4AではCU4分木の一例を示したが、同様の4分木がリーフノードCUのTUに適用され得ることを理解されたい。即ち、リーフノードCUは、CUのためのTUの区分を記述する(残差4分木(RQT)と呼ばれる)TU4分木を含み得る。TU4分木は、TU4分木がCUのTUのイントラ予測モードを個々に信号伝達し得ることを除いて、概してCU4分木に似ていることがある。
本開示の技法によれば、ビデオコーダ(例えば、ビデオエンコーダ20及び/又はビデオデコーダ30)は、現在のブロックのCPU深さに基づいて、現在のブロックのインター予測データに関するコンテキストを決定することができる。即ち、例えば、特定のCU深さにおけるCUのシンタックス要素をコード化するとき、ビデオコーダは、シンタックス要素をコード化するために確率モデルを選択するためのコンテキスト情報としてCU深さを使用することができる。別の例として、ビデオコーダは、変換深度情報に基づいて、イントラ予測データに関するコンテキスト情報を導出することができる。即ち、例えば、特定のTU深さにおけるTUのシンタックス要素をコード化するとき、エントロピー符号化ユニット56は、シンタックス要素をコード化するために確率モデルを選択するためのコンテキスト情報としてTU深さを使用することができる。
図5は、ブロックをエントロピーコード化するためにコンテキストが決定される場合の元になる例示的な隣接ブロックを示すブロック図である。図5はビデオデコーダ30に関して説明しているが、本開示の技法は、様々な、ビデオエンコーダ20(図1及び図2)を含む他のビデオコーダ、他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)のようなハードウェアベースのコード化ユニットなどによって実行され得ることを理解されたい。
ビデオデコーダ30は、現在のブロック180に関連するエントロピーコード化データを受信することができる。例えば、ビデオデコーダ30は、ビデオデコーダ30が現在のブロック180を適切に復号することを可能にするエントロピーコード化有効性マップ、変換係数、及び幾つかの他のシンタックス要素を受信することができる。ビデオデコーダ30は、受信されたシンタックス要素のうちの1つ以上に関するコンテキストを、上に隣接するブロック182及び左に隣接するブロック184に関連するシンタックス要素の値に基づいて決定することができる。
説明のために、ビデオデコーダ30は現在、現在のブロック180内の画素の特定の予測モード(例えば、イントラ予測モード)を示すシンタックス要素を復号していると仮定する。この例では、ビデオデコーダ30は、現在のシンタックス要素に関するコンテキストを決定するために、上に隣接するブロック182及び左に隣接するブロック184からイントラ予測モードを識別することができる。従って、現在のシンタックス要素をエントロピー復号するために使用されるコンテキストモデルは、上に隣接するブロック182及び左に隣接するブロック184のイントラ予測モードに依存し得る。このようにして、ビデオデコーダ30は、上に隣接するブロック182及び左に隣接するブロック184のイントラ予測モードを示すデータを記憶又はバッファリングすることができ、それにより、そのようなデータがエントロピー復号を実行するときに利用可能になる。
例として、イントラ予測モードに関連するシンタックス要素をエントロピーコード化することについて説明しているが、隣接ブロックのデータに基づいて他のシンタックス要素をコード化することもできる。例えば、新生HEVC規格に関しては、上に隣接するブロック182及び左に隣接するブロック184を含む隣接ブロックからのデータを含むコンテキストを使用して、以下のシンタックス要素をエントロピーコード化することができる。
1.skip_flag[x0][y0]
a)1に等しいskip_flagは、現在のCUに関して、P又はBスライスを復号するときに、動きベクトル予測子インデックス以外に、skip_flag[x0][y0]の後、追加のシンタックス要素が解析されないことを明示している。0に等しいskip_flag[x0][y0]は、コード化ユニットがスキップされないことを明示している。アレイインデックスx0、y0は、ピクチャの左上ルーマサンプルに対するコード化ブロックの左上ルーマサンプルの位置(x0,y0)を明示している。
2.split_coding_unit_flag
a)split_coding_unit_flag[x0][y0]は、1つのコード化単位が、半分の水平及び垂直サイズを有するコード化単位に分割されることを明示している。アレイインデックスx0、y0は、ピクチャの左上ルーマサンプルに対するコード化ブロックの左上ルーマサンプルの位置(x0,y0)を明示している。
3.ルーマブロックのcbp
a)コード化済ブロックパターン(CBP)は、どのルーマブロックが非0変換係数レベルを含んでいるかを明示している。即ち、ルーマブロックのCBPは、1つ以上のコード化済ブロックフラグに対応し、コード化済ブロックフラグの各々は、それぞれのルーマブロックがコード化されている(1つ以上の非0変換係数レベル値を含む)か、それともコード化されていない(すべての0値の変換係数を含む)かを示す値を有することができる。
4.クロマブロックのcbp
a)コード化ブロックパターン(CBP)は、どのクロマブロックが非0変換係数レベルを含んでいるかを明示している。即ち、クロマブロックのCBPは、1つ以上のコード化済ブロックフラグに対応し、コード化済ブロックフラグの各々は、それぞれのクロマブロックがコード化されている(1つ以上の非0変換係数レベル値を含む)か、それともコード化されていない(すべての0値の変換係数を含む)かを示す値を有することができる。
5.クロマイントラモードのビン0
a)intra_chroma_pred_mode[x0][y0]は、クロマサンプルのイントラ予測モードを明示している。アレイインデックスx0、y0は、ピクチャの左上ルーマサンプルに対する予測ブロック(PU)の左上ルーマサンプルの位置(x0,y0)を明示している。
6.no_residual_data_flag
a)1に等しいno_residual_data_flagは、現在のコード化単位に関して残差データが存在しないことを明示している。0に等しいno_residual_data_flagは、現在のコード化単位に関して残差データが存在することを明示している。
7.merge_flag
a)merge_flag[x0][y0]は、現在のPUに関するインター予測パラメータが、隣接インター予測区分から推測されるかどうかを明示している。アレイインデックスx0、y0は、ピクチャの左上ルーマサンプルに対する当該予測ブロックの左上ルーマサンプルの位置(x0,y0)を明示している。
8.ref_idxのビン0
a)ref_idx_l0[x0][y0]は、現在のPUのリスト0参照ピクチャインデックスを明示している。アレイインデックスx0、y0は、ピクチャの左上ルーマサンプルに対する予測ブロックの左上ルーマサンプルの位置(x0,y0)を明示している。
b)ref_idx_l1[x0][y0]は、ref_idx_l0と同じ意味構造(semantics)を有し、l0及びリスト0はそれぞれl1及びリスト1に置き換えられる。
c)ref_idx_lc[x0][y0]は、ref_idx_l0と同じ意味構造を有し、l0及びリスト0はそれぞれlc及びリスト組合せに置き換えられる。
9.mvdのビン0
a)mvd_l0[x0][y0][compIdx]は、使用されるリスト0ベクトル成分と予測ベクトルとの間の差分を明示している。アレイインデックスx0、y0は、ピクチャの左上ルーマサンプルに対する予測ブロックの左上ルーマサンプルの位置(x0,y0)を明示している。水平動きベクトル成分差分は、compIdx=0を割り当てられ、垂直動きベクトル成分は、compIdx=1を割り当てられる。
b)mvd_l1[x0][y0]は、mvd_l0と同じ意味構造を有し、l0及びリスト0はそれぞれl1及びリスト1に置き換えられる。
c)mvd_lc[x0][y0][compIdx]は、mvd_l0と同じ意味構造を有し、l0及びリスト0はそれぞれlc及びリスト組合せに置き換えられる。
10.inter_pred_flag
a)inter_pred_flag[x0][y0]は、現在の予測ユニットに単方向予測が使用されるか、それとも双方向予測が使用されるかを明示している。アレイインデックスx0、y0は、ピクチャの左上ルーマサンプルに対する予測ブロックの左上ルーマサンプルの位置(x0,y0)を明示している。
11.イントラクロマブロックのcbp
a)コード化済ブロックパターン(CBP)は、どのブロックが非0変換係数レベルを含み得るかを明示している。
上記に記載したシンタックス要素は、単に例として提供している。即ち、ビデオデコーダ30は、現在のブロック180に関連する他のシンタックス要素をエントロピーコード化するときに、上に隣接するブロック182及び左に隣接するブロック184などの隣接ブロックからのデータを使用することができる。
図6は、本開示の態様による、ブロックをエントロピーコード化するためにコンテキストが決定される場合の元になる例示的な隣接ブロックを示すブロック図である。図6はビデオデコーダ30に関して説明しているが、本開示の技法は、様々な、ビデオエンコーダ20(図1及び図2)を含む他のビデオコーダ、他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)のようなハードウェアベースのコード化ユニットなどによって実行され得ることを理解されたい。
ビデオデコーダ30は、コード化ユニット191の現在のブロック190に関連するエントロピーコード化データを受信することができる。例えば、ビデオデコーダ30は、ビデオデコーダ30がコード化ユニット191の現在のブロック190を適切に復号することを可能にするエントロピーコード化有効性マップ、変換係数(イントラ予測されるか、インター予測されるかを問わない)、及び幾つかの他のシンタックス要素を受信することができる。コード化ユニット191は一般に、例えば、スライス、タイル、タイルのセット、波面のセット、又はビデオデータの複数のブロックを含む任意の他の既定のユニットなど、ビデオデータの複数のブロックを含む既定の量のビデオデータを含み得る。図6の例では、上に隣接するブロック194、左に隣接するブロック192、及びブロック196は全体的に未分割ブロックとして示されているが、そのようなブロックが1つ以上のより小さいブロックに分割され得ることを理解されたい。
本開示の態様によれば、シンタックス要素をコード化するときに、確率モデルを決定するためのコンテキスト情報として、(例えば、図5に示すように)上に隣接するブロック194からのデータを使用するのではなく、ビデオデコーダ30は、現在のブロック190をエントロピーコード化するためのコンテキスト情報として、左に隣接するブロック192からのデータのみを使用することができる。例えば、ビデオデコーダ30は、現在のブロック190をエントロピーコード化するための確率モデルを決定するためのコンテキスト情報として、上に隣接するブロック194又は現在のブロック190に隣接して位置していない以前コード化されたブロック196からのデータを使用することができない。この例では、ビデオデコーダ30は、図5に示す例よりも少ないデータをバッファリングし得る。例えば、64×64画素の最大LCUサイズ、4×4画素の最小CUサイズを仮定すると、ビデオデコーダ30は、ビデオデータのちょうど16ブロック(例えば、64/4=16個の潜在的な左に隣接するブロック)に関連するデータを潜在的にバッファリングし得る。
本開示の他の態様によれば、ビデオデコーダ30は、現在のブロック190をエントロピーコード化するためのコンテキストを決定するときに、隣接ブロックからのデータを、かかる隣接ブロックが現在のブロック190と同じLCUの一部であるときに限り使用することができる。例えば、ビデオデコーダ30は、現在のブロック190に関するコンテキストを決定するために、隣接ブロックからのデータを、現在のブロック190及びかかる隣接ブロックが同じLCUのサブCUであるときに限り使用することができる。即ち、幾つかの例では、ビデオデコーダ30は、現在のブロック190をエントロピーコード化するためのコンテキストを決定するときに、LCU境界を越えるデータを利用しない。LCU境界制限は、上に隣接するブロック194、左に隣接するブロック192、又は上に隣接するブロック194と左に隣接するブロック192の両方に課され得る。
本開示の他の態様によれば、ビデオデコーダ30は、現在のブロック190に関連するローカルCU及び/又はLCU情報に基づいて、現在のブロック190をエントロピーコード化するためのコンテキストを決定することができる。例えば、ビデオデコーダ30は、現在のブロック190が属するLCUが区分された回数に一般に対応するCU深さに基づいて、インター予測データ(例えば、inter_pred_flag)に関するコンテキストを決定することができる。別の例として、ビデオデコーダ30は、一般に現在のブロック190のTUが区分された回数に対応するTU深さに基づいて、イントラ予測データ(例えば、イントラクロマブロックのcbp)に関するコンテキストを決定することができる。
幾つかの例では、ビデオデコーダ30は、現在のブロック190をエントロピーコード化するための確率モデルを決定するときに、コンテキスト情報として、発信源の組合せからのデータを使用することができる。例えば、ビデオデコーダ30は、現在のブロック190をエントロピーコード化するためのコンテキストを決定するときに、本開示の技法の任意の組合せを実施することができる。即ち、一例では、ビデオデコーダ30は、確率モデルを決定するときにコンテキスト情報として、(例えば、上に隣接するブロック又は他のブロックを除く)左に隣接するブロック192からのデータと、現在のブロック190に関連するローカルCU及び/又はLCU情報からのデータの両方を使用することができる。別の例では、ビデオデコーダ30は、確率モデルを決定するときにコンテキスト情報として、(例えば、他の隣接ブロックを除く)現在のブロック190と同じLCUの一部である隣接ブロックからのデータと、現在のブロック190に関連するローカルCU及び/又はLCU情報からのデータとを使用することができる。
追加又は代替として、ビデオデコーダ30は、現在のブロック190をエントロピーコード化するために、単一のコンテキストを使用することができる。例えば、ビデオデコーダ30は、シンタックス要素自体に基づいて、現在のブロック190に関連する特定のシンタックス要素に関するコンテキストを決定することができる。幾つかの例では、ビデオデコーダ30は、図5に関して上述したno_residual_data_flag、merge_flag、ref_idxのビン0、及びmvdのビン0を含むシンタックス要素に関する単一のコンテキストを使用することができる。
図6の例で図示し説明するように、コンテキスト情報の導出元となる位置を限定することによって、ビデオデコーダ30は、コンテキスト導出の目的でバッファリングされるデータの量を減らすことができる。更に、ビデオデコーダ30は、構文解析スループット及び/又は耐性(robustness)を高めることができる。例えば、上記のように、ビデオデコーダ30は、特定の後部案解析プロセス(例えば、波面構文解析)に従って、受信されたビデオデータを構文解析することができる。ビデオデコーダ30が幾つかの隣接ブロックからのデータを使用してコンテキストを決定することのない例では、ビデオデコーダ30は、コンテキスト依存を解消して、構文解析スループットとビデオデータの並列処理能力とを改善することができる。更に、コンテキスト依存を解消することで、コンテキスト導出エラーの可能性を減らし、それにより、構文解析耐性を改善することができる。
図7は、ビデオデータのブロックをエントロピーコード化する例示的な技法を示すフロー図である。図7に示す例は全体的に、ビデオコーダによって実行されるものとして記述している。幾つかの例では、図7の技法は、上述のビデオエンコーダ20(図1及び図2)又はビデオデコーダ30(図1及び図3)によって実行され得ることを理解されたい。他の例では、図7の技法は、様々な他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)のようなハードウェアベースのコード化ユニットなどによって実行され得る。
ビデオコーダは、エントロピーコード化するためのコード化済単位(例えば、ピクチャ、スライス、タイル、波面のセットなど)のビデオデータのブロックを受信することができる(200)。本開示の態様によれば、ビデオデータのブロックは、コード化済単位(CU)の最上行の下に位置し得る。例えば、ビデオコーダは、現在エントロピーコード化されているブロックがコード化済単位のブロックの別の行の下に位置するかどうかを決定することができる。幾つかの例では、現在エントロピーコード化されているブロックは、上に隣接するサブCUと同じLCUに含まれるサブCUであり得る。他の例では、ブロックはLCUの端に、上に隣接するブロックが現在のブロックとは異なるLCUに属するように位置し得る。
次いでビデオコーダは、上に隣接するブロックからの情報を含まない、ブロックに関するコンテキストを決定することができる(202)。例えば、本開示の態様によれば、ビデオコーダは、確率モデルを選択するためのコンテキストを決定するときに、上に隣接するブロックからの情報を使用するのではなく、左に隣接するブロックからの情報を使用することができる。幾つかの例では、左に隣接するブロックは、現在コード化されているブロックと同じLCU内に含まれ得る。他の例では、左に隣接するブロックは、現在コード化されているブロックとは異なるLCUに含まれ得る。
別の例では、ビデオデータのブロックは、LCUの1つ以上のブロックを含むことができ、上に隣接するブロックは、1つ以上の他のLCUを含むことができる。そのような例では、本開示の態様によれば、ビデオコーダは、ブロックに関するコンテキストを、LCUの他のブロックに関連する情報を使用して決定するが、(他のLCUに含まれる)上に隣接するブロックを除外することができる。説明のための一例では、コード化されているブロックは、LCUの第1のサブCUを含むことができ、上に隣接するブロックは、1つ以上の他のLCUを含むことができる。また、第2のサブCUは、(同じLCU内の)第1のサブCUの上に位置する。この例では、ビデオコーダは、第1のサブCUの上に位置する第2のサブCUからの情報を使用して、第1のサブCUに関するコンテキスト情報を決定することができる。
別の例では、本開示の態様によれば、ビデオコーダは、ブロックに関連するローカルCU及び/又はLCU情報に基づいて、ブロックをエントロピーコード化するためのコンテキストを決定することができる。例えば、ビデオコーダは、(例えば、図4に示すような4分木構造による)CU深さ又はTU深さ、LCUのサイズ、又は他の特性に基づいて、コンテキストを決定することができる。即ち、ビデオコーダは、現在のブロックに到達するためにLCUが区分された回数に一般に対応するCU深さに基づいて、インター予測データに関するコンテキストを決定することができる。別の例として、ビデオコーダは、現在のブロックのTUが分割された回数を記述する変換深度に基づいて、イントラ予測データに関するコンテキストを決定することができる。他の例として、ブロックが属するCUのサイズ、ブロックに関連するTUのサイズなどに基づいて、現在のブロックに関するコンテキストを決定することなども考えられる。
他の例では、ビデオコーダは、他の方法でブロックに関するコンテキストを決定することができる。例えば、幾つかの態様によれば、ビデオコーダは、ブロックをエントロピーコード化するときに、単一のコンテキストを使用することができる。即ち、ビデオコーダは、現在コード化されているシンタックス要素に基づいて、現在のブロックをコード化するためのコンテキストを決定することができる(例えば、シンタックス要素は、あるコンテキストに直接マップする)。
幾つかの例では、ビデオコーダは、ブロックをエントロピーコード化するためのコンテキストを決定するときに、発信源の組合せからの情報を使用することができる。例えば、ビデオコーダは、左に隣接するブロックからの情報とローカルCU及び/又はLCU特性からの情報の両方を使用することができる。別の例では、ビデオコーダは、そのブロックと同じLCUの一部である隣接ブロックからの情報と、ローカルCU及び/又はLCU特性からの情報とを使用することができる。コンテキストを決定した後、ビデオコーダは、上記のように、決定されたコンテキストを使用してブロックをエントロピーコード化することができる(204)。
図7に示すプロセスは全体的に、ビデオデータのブロックをコード化することに関して記述しているが、ビデオデータのブロックは、(例えば、上の図5及び図6に関して説明したように)2つ以上の関連するシンタックス要素を含み得ることを理解されたい。従って、図7の例において図示し説明したプロセスは、ビデオデータのブロックをエントロピーコード化するときに複数回実行され得る。即ち、例えば、ビデオコーダは、ビデオデータのブロックに関連する幾つかのシンタックス要素を他のシンタックス要素とは別様にエントロピーコード化することができる。従って、あるシンタックス要素は、ブロックの特性に基づきコンテキストを使用して、エントロピーコード化されることがあり、別のシンタックス要素は、別の方法でエントロピーコード化されることがある。
また、図7に関して図示し説明したステップは一例として与えたものにすぎないことを理解されたい。即ち、図7の方法のステップは必ずしも図7に示す順序で実行される必要があるとは限らず、より少数の、追加の、又は代替のステップが実行され得る。
図8は、ビデオデータのブロックをエントロピーコード化する例示的な技法を示すフロー図である。図8に示す例は全体的に、ビデオコーダによって実行されるものとして記述している。幾つかの例では、図8の技法は、上述のビデオエンコーダ20(図1及び図2)又はビデオデコーダ30(図1及び図3)によって実行され得ることを理解されたい。他の例では、図8の技法は、様々な他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)のようなハードウェア利用コード化ユニットなどによって実行され得る。
幾つかの例によれば、図8に示す例の技法は、図7に示す技法とともに実行され得る。例えば、図8に示す例の技法は、図7のステップ202中に実行され得る。
図8の例では、ビデオコーダは、特定のシンタックス要素をエントロピーコード化するための確率モデルを選択するためのコンテキスト情報として、左に隣接するブロックからのデータを使用するかどうかを決定する(210)。例えば、図7に関して上述したように、ビデオコーダは、1つ以上のシンタックス要素をエントロピーコード化するためのコンテキストを決定するときに、上に隣接するブロックからの情報を使用することができない。本開示の態様によれば、ビデオコーダは、確率モデルを選択するためのコンテキストを決定するときに、上に隣接するブロックからの情報を使用するのではなく、左に隣接するブロックからの情報を使用することができる。そのような例(例えば、ステップ210のはいブランチ)では、ビデオコーダは、左に隣接するブロックからコンテキスト情報の少なくとも一部分を取り出すことができる(212)。幾つかの例では、左に隣接するブロックは、現在コード化されているブロックと同じLCU内に含まれ得る。他の例では、左に隣接するブロックは、現在コード化されているブロックとは異なるLCUに含まれ得る。
次いでビデオコーダは、エントロピーコード化するためのコンテキストとして、他のソースからのデータを使用するかどうかを決定することができる(214)。ビデオコーダが、左に隣接するブロックからのデータをコンテキストとして使用しない場合(例えば、ステップ210のいいえブランチ)、ビデオコーダはステップ214に直接進むことができる。いずれにしても、ビデオコーダは、ブロックに関連するローカルCU及び/又はLCU情報に基づいてコンテキストを決定することができる。即ち、ビデオコーダは、(例えば、図4に示すような4分木構造による)CU深さ又はTU深さ、LCUのサイズ、又は他の特性に基づいて、コンテキストを決定することができる。他の例では、ビデオコーダは単一のコンテキストを決定することができる。即ち、ビデオコーダは、現在コード化されているシンタックス要素に基づいてコンテキストを決定することができる(例えば、シンタックス要素は、あるコンテキストに直接マップする)。
ビデオコーダが他のソースからのデータをコンテキストとして使用する場合(例えば、ステップ214のはいブランチ)、ビデオコーダは他の1つ以上の発信源から適切なコンテキスト情報を取り出すことができる(216)。次いでビデオコーダは、決定されたコンテキスト情報に基づいて確率モデルを選択することができる(218)。ビデオコーダが、他のソースからのデータをコンテキストとして使用しない場合、ビデオコーダはステップ218に直接進むことができる。
また、図8に関して図示し説明したステップは一例として与えたものにすぎないことを理解されたい。即ち、図8の方法のステップは必ずしも図8に示す順序で実行される必要があるとは限らず、より少数の、追加の、又は代替のステップが実行され得る。
図9は、ビデオデータのブロックをエントロピーコード化する例示的な技法を示すフロー図である。図9に示す例は全体的に、ビデオコーダによって実行されるものとして記述している。幾つかの例では、図9の技法は、上述のビデオエンコーダ20(図1及び図2)又はビデオデコーダ30(図1及び図3)によって実行され得ることを理解されたい。他の例では、図9の技法は、様々な他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)のようなハードウェア利用コード化ユニットなどによって実行され得る。
幾つかの例によれば、図9に示す例の技法は、図7に示す技法とともに実行され得る。例えば、図9に示す例の技法は、図7のステップ202中に実行され得る。
図9の例では、ビデオコーダは、現在のLCUから特定のシンタックス要素をエントロピーコード化するための確率モデルを選択するためのコンテキスト情報として、現在のLCUからのデータを使用するかどうかを決定する(230)。例えば、図7に関して上述したように、場合によっては、ビデオコーダは、1つ以上のシンタックス要素をエントロピーコード化するためのコンテキストを決定するときに、上に隣接するブロックからの情報を使用することができない。しかしながら、本開示の態様によれば、ビデオコーダは、上に隣接するブロックが現在コード化されているブロックと同じLCUからのものであるときに限り、コンテキストを決定するときに上に隣接するブロックに関連するデータを使用することができる。即ち、ビデオコーダは、LCUに関連するシンタックス要素をコード化するためのコンテキストを決定するときに、LCU境界を越えるのを控えることができる。
そのような例(例えば、ステップ230のはいブランチ)では、ビデオコーダは、LCUに関するブロックからコンテキスト情報の少なくとも一部分を取り出すことができる(232)。次いでビデオコーダは、エントロピーコード化するためのコンテキストとして、他のソースからのデータを使用するかどうかを決定することができる(234)。ビデオコーダが、現在のLCUからのデータをコンテキストとして使用しない場合(例えば、ステップ230のいいえブランチ)、ビデオコーダはステップ234に直接進むことができる。いずれにしても、ビデオコーダは、ブロックに関連するローカルCU及び/又はLCU情報に基づいてコンテキストを決定することができる。即ち、ビデオコーダは、例えば、(図4に示すような4分木構造による)CU深さ又はTU深さ、LCUのサイズ、又は他の特性に基づいて、コンテキストを決定することができる。他の例では、ビデオコーダは単一のコンテキストを決定することができる。即ち、ビデオコーダは、現在コード化されているシンタックス要素に基づいてコンテキストを決定することができる(例えば、シンタックス要素は、あるコンテキストに直接マップする)。
ビデオコーダが他のソースからのデータをコンテキストとして使用する場合(例えば、ステップ234のはいブランチ)、ビデオコーダは他の1つ以上の発信源から適切なコンテキスト情報を取り出すことができる(236)。次いでビデオコーダは、決定されたコンテキスト情報に基づいて確率モデルを選択することができる(238)。ビデオコーダが、他のソースからのデータをコンテキストとして使用しない場合、ビデオコーダはステップ238に直接進むことができる。
また、図9に関して図示し説明したステップは一例として与えたものにすぎないことを理解されたい。即ち、図9の方法のステップは必ずしも図9に示す順序で実行される必要があるとは限らず、より少数の、追加の、又は代替のステップが実行され得る。
図10は、ビデオデータのブロックをエントロピーコード化する例示的な技法を示すフロー図である。図10に示す例は全体的に、ビデオコーダによって実行されるものとして記述している。幾つかの例では、図10の技法は、上述のビデオエンコーダ20(図1及び図2)又はビデオデコーダ30(図1及び図3)によって実行され得ることを理解されたい。他の例では、図8の技法は、様々な他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)のようなハードウェア利用コード化ユニットなどによって実行され得る。
幾つかの例によれば、図10に示す例の技法は、図7に示す技法とともに実行され得る。例えば、図10に示す例の技法は、図7のステップ202中に実行され得る。
図10の例では、ビデオコーダは、特定のシンタックス要素をエントロピーコード化するための確率モデルを選択するためのコンテキスト情報として、ローカルブロック情報からのデータを使用するかどうかを決定する(260)。例えば、図7に関して上述したように、ビデオコーダは、1つ以上のシンタックス要素をエントロピーコード化するためのコンテキストを決定するときに、上に隣接するブロックからの情報を使用することができない。本開示の態様によれば、ビデオコーダは、上に隣接するブロックからの情報を使用するのではなく、ローカルブロック情報からのデータを使用することができる。そのような例(例えば、ステップ210のはいブランチ)では、ビデオコーダは、ローカルブロック情報からコンテキスト情報の少なくとも一部分を取り出すことができる(212)。
例えば、ビデオコーダは、コンテキスト情報を決定するときに、CUの1つ以上の特性からのデータを使用することができる。即ち、一例では、ビデオコーダは、CUのインター予測残差データをエントロピーコード化することができる。この例では、ビデオコーダは、インター予測残差データをエントロピーコード化するためのコンテキスト情報を決定するときに、CU深さを決定することができる。言い換えれば、特定のCU深さにおけるCUのシンタックス要素をコード化するとき、ビデオコーダは、確率モデルを選択するためのコンテキスト情報としてCU深さを使用することができる。説明のための一例では、ビデオコーダは、特定のCU深さをコンテキスト情報として使用して、特定のCU深さにおけるインター予測データに関連するインター予測フラグ(inter_pred_flag)をエントロピーコード化することができる。
別の例では、ビデオコーダは、コンテキスト情報を決定するときに、TUの1つ以上の特性からのデータを使用することができる。即ち、一例では、ビデオコーダは、TUのイントラ予測残差データをエントロピーコード化することができる。この例では、ビデオコーダは、イントラ予測残差データをエントロピーコード化するためのコンテキスト情報を決定するときに、TU深さを決定することができる。言い換えれば、特定のTU深さにおけるTUのシンタックス要素をコード化するとき、ビデオコーダは、確率モデルを選択するためのコンテキスト情報としてTU深さを使用することができる。説明のための一例では、ビデオコーダは、特定のTU深さをコンテキスト情報として使用して、特定のTU深さにおけるコード化ブロックパターンの1つ以上のシンタックス要素をエントロピーコード化することができる。
次いでビデオコーダは、エントロピーコード化するためのコンテキストとして、他のソースからのデータを使用するかどうかを決定することができる(264)。例えば、ビデオコーダは、左に隣接するブロックからのデータ(例えば、図8)又はコード化されているLCUにおける他のブロックからのデータ(例えば、図9)を使用して、エントロピーコード化するためのコンテキストを決定することができる。他の例では、ビデオコーダは、現在コード化されているシンタックス要素に基づいてコンテキストを決定することができる(例えば、シンタックス要素は、あるコンテキストに直接マップする)。
ビデオコーダが他のソースからのデータをコンテキストとして使用する場合(例えば、ステップ264のはいブランチ)、ビデオコーダは他の1つ以上の発信源から適切なコンテキスト情報を取り出すことができる(266)。次いでビデオコーダは、決定されたコンテキスト情報に基づいて確率モデルを選択することができる(268)。ビデオコーダが、他のソースからのデータをコンテキストとして使用しない場合、ビデオコーダはステップ268に直接進むことができる。
また、図10に関して図示し説明したステップは一例として与えたものにすぎないことを理解されたい。即ち、図10の方法のステップは必ずしも図10に示す順序で実行される必要があるとは限らず、より少数の、追加の、又は代替のステップが実行され得る。
更に、例によっては、本明細書で説明する方法のうちいずれかの、幾つかの作用又はイベントは、異なる順序で実行され得、追加され、マージされ、又は完全に除外され得る(例えば、すべての説明した作用又はイベントが、本方法の実施に必要であるとは限らない)ことを理解されたい。更に、幾つかの例では、作用又はイベントは、連続的にではなく、同時に、例えば、マルチスレッド処理、割込み処理、又は複数のプロセッサを通して実施され得る。更に、本開示の幾つかの態様は、明快にするために単一のモジュール又はユニットによって実行されるものとして説明しているが、本開示の技法はビデオコーダに関連するユニット又はモジュールの組合せによって実行され得ることを理解されたい。
1つ以上の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せで実施され得る。ソフトウェアで実施される場合、機能は、1つ以上の命令又はコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、例えば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含むデータ記憶媒体又は通信媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得る。
このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号又は搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実施のための命令、コード及び/又はデータ構造を取り出すために1つもしくは複数のコンピュータ又は1つもしくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD−ROM又は他の光ディスクストレージ、磁気ディスクストレージ、又は他の磁気記憶装置、フラッシュメモリ、あるいは命令又はデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。例えば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、又は赤外線、無線、及びマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、又は他のリモート発信源から送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、又は赤外線、無線、及びマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。
但し、コンピュータ可読記憶媒体及びデータ記憶媒体は、接続、搬送波、信号、又は他の一時媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)及びディスク(disc)は、コンパクトディスク(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)及びブルーレイディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
命令は、1つ以上のデジタル信号プロセッサ(DSP)などの1つ以上のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路又はディスクリート論理回路によって実行され得る。従って、本明細書で使用する「プロセッサ」という用語は、前述の構造、又は本明細書で説明した技法の実施に好適な他の構造のいずれかを指し得る。更に、幾つかの態様では、本明細書で説明した機能は、符号化及び復号のために構成された専用のハードウェア及び/又はソフトウェアモジュール内に与えられ得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つ以上の回路又は論理要素中に十分に実施され得る。
本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、又はICのセット(例えば、チップセット)を含む、多種多様な機器又は装置において実施され得る。本開示では、開示する技法を実行するように構成された機器の機能的態様を強調するために様々な構成要素、モジュール、又はユニットについて説明したが、それらの構成要素、モジュール、又はユニットを、必ずしも異なるハードウェアユニットによって実現する必要はない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェア及び/又はファームウェアとともに、上記で説明した1つ以上のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、又は相互動作ハードウェアユニットの集合によって与えられ得る。
本開示の様々な態様について説明した。これら及び他の態様は以下の特許請求の範囲内に入る。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] ビデオデータをコード化する方法であって、ビデオデータのコード化済単位内に含まれており前記コード化済単位中のブロックの最上行の下にあるビデオデータのブロックについてのコンテキスト情報を決定することと、前記コンテキスト情報は、前記コード化済単位中の上部に隣接するブロックからの情報を含まない、決定された前記コンテキスト情報を使用して、前記ブロックのデータをエントロピーコード化することと、を備える方法。
[2] 前記コード化済単位は、ピクチャ、スライス、タイル、及び波面のセットのうちの1つを備える、[1]に記載の方法。
[3] 前記コンテキスト情報を決定することは、前記コード化済単位の左に隣接するブロックからの前記コンテキスト情報の少なくとも一部分に基づく、[1]に記載の方法。
[4] ビデオデータの前記ブロックに関するコンテキスト情報を決定することは、シンタックス要素の第1のセットに関するコンテキスト情報を、前記ブロックに隣接しており前記コード化ユニット中に含まれるブロックからの前記コンテキスト情報の少なくとも一部分に基づいて決定することと、シンタックス要素の第2のセットに関するコンテキスト情報を決定することと、備え、前記コンテキスト情報は、前記ブロックに隣接しており前記コード化済単位中に含まれるブロックからの情報を含まない、[1]に記載の方法。
[5] シンタックス要素の前記第2のセットは、残差データなしフラグ(no_residual_data_flag)、マージフラグ(merge_flag)、参照インデックスフラグの第1のビン(ref_idxのビン0)、及び動きベクトル差分インデックス(mvd_idx)の第1のビンのうちの少なくとも1つを備える、[4]に記載の方法。
[6] シンタックス要素の前記第2のセットに関するコンテキスト情報を決定することは、コード化されているシンタックス要素に基づいて単一のコンテキストを決定することを備える、[5]に記載の方法。
[7] シンタックス要素の前記第1のセットは、スキップフラグ、分割コード化単位フラグ(split_coding_unit_flag)、ルーマブロックのcbp、及びクロマイントラモードのビン0のうちの少なくとも1つを備える、[4]に記載の方法。
[8] 前記ブロックは最大コード化単位LCUの1つ以上のブロックを備え、ブロックの前記最上行は1つ以上の他のLCUを備え、前記ブロックに関するコンテキスト情報を決定することは、前記LCUの前記1つ以上のブロックに関連する情報を使用してコンテキスト情報を決定することと、前記LCUの外の情報を除外することとを備える、[1]に記載の方法。
[9] 前記ブロックは前記コード化済単位の第1の最大コード化単位(LCU)の第1のサブコード化単位(CU)を備え、前記上部に隣接するブロックは、前記第1のLCUの上にある前記コード化済単位の第2のLCUを備え、前記コンテキスト情報を決定することは、前記コンテキスト情報を、前記第1のLCUの第2のサブCUからの前記コンテキスト情報の少なくとも一部分に基づいて決定することを備え、前記第2のサブCUは、前記第1のLCU中の前記第1のサブCUの上にある、[1]に記載の方法。
[10] 前記ブロックはコード化単位(CU)を備え、前記コンテキスト情報を決定することは、前記CUの1つ以上の特性を決定することを備える、[1]に記載の方法。
[11] 前記ブロックの前記データをエントロピーコード化することは、前記CUのインター予測残差データをエントロピーコード化することを備え、前記CUの前記1つ以上の特性を決定することは、前記CUのCU深さを決定することを備える、[10]に記載の方法。
[12] 前記CUのインター予測残差データをエントロピーコード化することは、前記CUの前記CU深さに基づいてインター予測フラグ(inter_pred_flag)をエントロピーコード化することを備える、[11]に記載の方法。
[13] 前記ブロックは変換単位(TU)を備え、前記コンテキスト情報を決定することは、前記TUの1つ以上の特性を決定することを備える、[1]に記載の方法。
[14] 前記ブロックの前記データをエントロピーコード化することは、前記TUのイントラ予測残差データをエントロピーコード化することを備え、前記TUの前記1つ以上の特性を決定することは、前記TUのTU深さを決定することを備える、[13]に記載の方法。
[15] 前記TUのイントラ予測残差データをエントロピーコード化することは、コード化済ブロックパターンの1つ以上のシンタックス要素をエントロピーコード化することを備える、[14]に記載の方法。
[16] 決定された前記コンテキスト情報を使用して前記ブロックのデータをエントロピーコード化することは、決定された前記コンテキスト情報に基づいて確率モデルを決定することと、決定された前記確率モデルを使用して前記データをエントロピーコード化することとを備える、[1]に記載の方法。
[17] ビデオデータの前記ブロックをエントロピーコード化することは、ビデオデータの前記ブロックをエントロピー符号化することを備える、[1]に記載の方法。
[18] ビデオデータの前記ブロックをエントロピー符号化することは、ビデオデータの前記ブロックをコンテキスト適応型二値算術コード化することを備える、[17]に記載の方法。
[19] ビデオデータの前記ブロックをエントロピー符号化することは、前記ブロックの1つ以上の残差値に変換を適用して変換係数を生成することと、前記変換係数を量子化して量子化変換係数を生成することと、前記量子化変換係数をエントロピー符号化することと、を更に備える、[17]に記載の方法。
[20] ビデオデータの前記ブロックをエントロピーコード化することは、ビデオデータの前記ブロックをエントロピー復号することを備える、[1]に記載の方法。
[21] ビデオデータの前記ブロックをエントロピー復号することは、受信されたビットストリームをエントロピー復号して、ビデオデータの前記ブロックに関連する量子化変換係数を生成することと、前記量子化変換係数を逆量子化して変換係数を生成することと、前記変換係数に逆変換を適用して、ビデオデータの前記ブロックに関連する残差値を生成することと、を備える、[20]に記載の方法。
[22] ビデオデータの前記ブロックをエントロピー復号することは、ビデオデータの前記ブロックをコンテキスト適応型二値算術コード化することを備える、[20]に記載の方法。
[23] ビデオデータをコード化するための装置であって、1つ以上のプロセッサを備え、前記1つ以上のプロセッサは、ビデオデータのコード化済単位内に含まれており前記コード化済単位中のブロックの最上行の下にあるビデオデータのブロックについてのコンテキスト情報を決定することと、前記コンテキスト情報は、前記コード化済単位中の上部に隣接するブロックからの情報を含まない、決定された前記コンテキスト情報を使用して、前記ブロックのデータをエントロピーコード化することと、を行うように構成される、装置。
[24] 前記コード化済単位は、ピクチャ、スライス、タイル、及び波面のセットのうちの1つを備える、[23]に記載の装置。
[25] 前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記コンテキスト情報を、前記コード化済単位の左に隣接するブロックからの前記コンテキスト情報の少なくとも一部分に基づいて決定するように構成される、[23]に記載の装置。
[26] ビデオデータの前記ブロックに関するコンテキスト情報を決定するために、前記1つ以上のプロセッサは、シンタックス要素の第1のセットに関するコンテキスト情報を、前記ブロックに隣接しており前記コード化済単位中に含まれるブロックからの前記コンテキスト情報の少なくとも一部分に基づいて決定することと、シンタックス要素の第2のセットに関するコンテキスト情報を決定することと、を行うように構成され、前記コンテキスト情報は、前記ブロックに隣接しており前記コード化済単位中に含まれるブロックからの情報を含まない、[23]に記載の装置。
[27] シンタックス要素の前記第2のセットは、残差データなしフラグ(no_residual_data_flag)、マージフラグ(merge_flag)、参照インデックスフラグの第1のビン(ref_idxのビン0)、及び動きベクトル差分インデックス(mvd_idx)の第1のビンのうちの少なくとも1つを備える、[26]に記載の装置。
[28] シンタックス要素の前記第2のセットに関するコンテキスト情報を決定するために、前記1つ以上のプロセッサは、コード化されているシンタックス要素に基づいて単一のコンテキストを決定するように構成される、[27]に記載の装置。
[29] シンタックス要素の前記第1のセットは、スキップフラグ、分割コード化単位フラグ(split_coding_unit_flag)、ルーマブロックのcbp、及びクロマイントラモードのビン0のうちの少なくとも1つを備える、[26]に記載の装置。
[30] 前記ブロックは最大コード化単位LCUの1つ以上のブロックを備え、ブロックの前記最上行は1つ以上の他のLCUを備え、前記ブロックに関するコンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記LCUの前記1つ以上のブロックに関連する情報を使用してコンテキスト情報を決定し、前記LCUの外の情報を除外するように構成される、[23]に記載の装置。
[31] 前記ブロックは前記コード化済単位の第1の最大コード化単位(LCU)の第1のサブコード化単位(CU)を備え、前記上部に隣接するブロックは、前記第1のLCUの上にある前記コード化済単位の第2のLCUを備え、前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記コンテキスト情報を、前記第1のLCUの第2のサブCUからの前記コンテキスト情報の少なくとも一部分に基づいて決定するように構成され、前記第2のサブCUは、前記第1のLCU中の前記第1のサブCUの上にある、[23]に記載の装置。
[32] 前記ブロックはコード化単位(CU)を備え、前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記CUの1つ以上の特性を決定するように構成される、[23]に記載の装置。
[33] 前記ブロックの前記データをエントロピーコード化するために、前記1つ以上のプロセッサは、前記CUのインター予測残差データをエントロピーコード化するように構成され、前記CUの前記1つ以上の特性を決定するために、前記1つ以上のプロセッサは、前記CUのCU深さを決定するように構成される、[32]に記載の装置。
[34] 前記CUのインター予測残差データをエントロピーコード化するために、前記1つ以上のプロセッサは、前記CUの前記CU深さに基づいてインター予測フラグ(inter_pred_flag)をエントロピーコード化するように構成される、[33]に記載の装置。
[35] 前記ブロックは変換単位(TU)を備え、前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記TUの1つ以上の特性を決定するように構成される、[23]に記載の装置。
[36] 前記ブロックの前記データをエントロピーコード化するために、前記1つ以上のプロセッサは、前記TUのイントラ予測残差データをエントロピーコード化するように構成され、前記TUの前記1つ以上の特性を決定するために、前記1つ以上のプロセッサは、前記TUのTU深さを決定するように構成される、[35]に記載の装置。
[37] 前記TUのイントラ予測残差データをエントロピーコード化するために、前記1つ以上のプロセッサは、コード化済ブロックパターンの1つ以上のシンタックス要素をエントロピーコード化するように構成される、[36]に記載の装置。
[38] 決定された前記コンテキスト情報を使用して前記ブロックのデータをエントロピーコード化するために、前記1つ以上のプロセッサは、決定された前記コンテキスト情報に基づいて確率モデルを決定し、決定された前記確率モデルを使用して前記データをエントロピーコード化するように構成される、[23]に記載の装置。
[39] ビデオデータの前記ブロックをエントロピーコード化するために、前記1つ以上のプロセッサは、ビデオデータの前記ブロックを符号化するように構成される、[23]に記載の装置。
[40] ビデオデータの前記ブロックをエントロピー符号化するために、前記1つ以上のプロセッサは、ビデオデータの前記ブロックをコンテキスト適応型二値算術コード化するように構成される、[39]に記載の装置。
[41] ビデオデータの前記ブロックをエントロピー符号化するために、前記1つ以上のプロセッサは、前記ブロックの1つ以上の残差値に変換を適用して変換係数を生成し、前記変換係数を量子化して量子化変換係数を生成し、前記量子化変換係数をエントロピー符号化する
ように構成される、[39]に記載の装置。
[42] ビデオデータの前記ブロックをエントロピーコード化するために、前記1つ以上のプロセッサは、ビデオデータの前記ブロックを復号するように構成される、[23]に記載の装置。
[43] ビデオデータの前記ブロックをエントロピー復号するために、前記1つ以上のプロセッサは、受信されたビットストリームをエントロピー復号して、ビデオデータの前記ブロックに関連する量子化変換係数を生成し、前記量子化変換係数を逆量子化して変換係数を生成し、前記変換係数に逆変換を適用して、ビデオデータの前記ブロックに関連する残差値を生成するように構成される、[42]に記載の装置。
[44] ビデオデータの前記ブロックをエントロピー復号するために、前記1つ以上のプロセッサは、ビデオデータの前記ブロックをコンテキスト適応型二値算術コード化するように構成される、[42]に記載の装置。
[45] ビデオデータをコード化するための装置であって、ビデオデータのコード化済単位内に含まれており前記コード化済単位中のブロックの最上行の下にあるビデオデータのブロックについてのコンテキスト情報を決定するための手段と、前記コンテキスト情報は、前記コード化済単位中の上部に隣接するブロックからの情報を含まない、決定された前記コンテキスト情報を使用して、前記ブロックのデータをエントロピーコード化するための手段と、を備える装置。
[46] 前記コード化済単位は、ピクチャ、スライス、タイル、及び波面のセットのうちの1つを備える、[45]に記載の装置。
[47] 前記コンテキスト情報を決定するための手段は、コンテキスト情報を、前記コード化済単位の左に隣接するブロックからの前記コンテキスト情報の少なくとも一部分に基づいて決定するための手段を備える、[45]に記載の装置。
[48] ビデオデータの前記ブロックに関するコンテキスト情報を決定するための手段は、シンタックス要素の第1のセットに関するコンテキスト情報を、前記ブロックに隣接しており前記コード化済単位中に含まれるブロックからの前記コンテキスト情報の少なくとも一部分に基づいて決定するための手段と、シンタックス要素の第2のセットに関するコンテキスト情報を決定するための手段と、を備え、前記コンテキスト情報は、前記ブロックに隣接しており前記コード化済単位中に含まれるブロックからの情報を含まない、[45]に記載の装置。
[49] シンタックス要素の前記第2のセットは、残差データなしフラグ(no_residual_data_flag)、マージフラグ(merge_flag)、参照インデックスフラグの第1のビン(ref_idxのビン0)、及び動きベクトル差分インデックス(mvd_idx)の第1のビンのうちの少なくとも1つを備える、[48]に記載の装置。
[50] シンタックス要素の前記第2のセットに関するコンテキスト情報を決定するための手段は、コード化されているシンタックス要素に基づいて単一のコンテキストを決定するための手段を備える、[49]に記載の装置。
[51] シンタックス要素の前記第1のセットは、スキップフラグ、分割コード化単位フラグ(split_coding_unit_flag)、ルーマブロックのcbp、及びクロマイントラモードのビン0のうちの少なくとも1つを備える、[48]に記載の装置。
[52] 前記ブロックは前記コード化済単位の第1の最大コード化単位(LCU)の第1のサブコード化単位(CU)を備え、前記上部に隣接するブロックは、前記第1のLCUの上にある前記コード化済単位の第2のLCUを備え、前記コンテキスト情報を決定するための手段は、前記コンテキスト情報を、前記第1のLCUの第2のサブCUからの前記コンテキスト情報の少なくとも一部分に基づいて決定するための手段を備え、前記第2のサブCUは、前記第1のLCU中の前記第1のサブCUの上にある、[45]に記載の装置。
[53] 前記ブロックはコード化済単位(CU)を備え、前記コンテキスト情報を決定するための手段は、前記CUの1つ以上の特性を決定するための手段を備える、[45]に記載の装置。
[54] 前記ブロックの前記データをエントロピーコード化するための手段は、前記CUのインター予測残差データをエントロピーコード化するための手段を備え、前記CUの前記1つ以上の特性を決定するための手段は、前記CUのCU深さを決定するための手段を備える、[53]に記載の装置。
[55] 前記CUのインター予測残差データをエントロピーコード化するための手段は、前記CUの前記CU深さに基づいてインター予測フラグ(inter_pred_flag)をエントロピーコード化するための手段を備える、[54]に記載の装置。
[56] 前記ブロックは変換単位(TU)を備え、前記コンテキスト情報を決定するための手段は、前記TUの1つ以上の特性を決定するための手段を備える、[45]に記載の装置。
[57] 前記ブロックの前記データをエントロピーコード化するための手段は、前記TUのイントラ予測残差データをエントロピーコード化するための手段を備え、前記TUの前記1つ以上の特性を決定するための手段は、前記TUのTU深さを決定するための手段を備える、[56]に記載の装置。
[58] 前記TUのイントラ予測残差データをエントロピーコード化するための手段は、コード化済ブロックパターンの1つ以上のシンタックス要素をエントロピーコード化するための手段を備える、[57]に記載の装置。
[59] 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は実行されたとき、1つ以上のプロセッサに、ビデオデータのコード化済単位内に含まれており前記コード化済単位中のブロックの最上行の下部にあるビデオデータのブロックについてのコンテキスト情報を決定することと、前記コンテキスト情報は、前記コード化済単位中の上部に隣接するブロックからの情報を含まない、決定された前記コンテキスト情報を使用して、前記ブロックのデータをエントロピーコード化することと、を行わせる、コンピュータ可読記憶媒体。
[60] 前記コード化済単位は、ピクチャ、スライス、タイル、及び波面のセットのうちの1つを備える、[59]に記載のコンピュータ可読記憶媒体。
[61] 前記命令は、前記1つ以上のプロセッサに、コンテキスト情報を、前記コード化済単位の左に隣接するブロックからの前記コンテキスト情報の少なくとも一部分に基づいて決定して、コンテキスト情報を決定することを更に行わせる、[59]に記載のコンピュータ可読記憶媒体。
[62] 前記命令は、前記1つ以上のプロセッサに、シンタックス要素の第1のセットに関するコンテキスト情報を、前記ブロックに隣接しており前記コード化済単位中に含まれるブロックからの前記コンテキスト情報の少なくとも一部分に基づいて決定することと、シンタックス要素の第2のセットに関するコンテキスト情報を決定することと、を更に行わせ、前記コンテキスト情報は、前記ブロックに隣接しており前記コード化済単位中に含まれるブロックからの情報を含まない、[59]に記載のコンピュータ可読記憶媒体。
[63] シンタックス要素の前記第2のセットは、残差データなしフラグ(no_residual_data_flag)、マージフラグ(merge_flag)、参照インデックスフラグの第1のビン(ref_idxのビン0)、及び動きベクトル差分インデックス(mvd_idx)の第1のビンのうちの少なくとも1つを備える、[62]に記載のコンピュータ可読記憶媒体。
[64] 前記命令は、前記1つ以上のプロセッサに、シンタックス要素の前記第2のセットに関し、コード化されているシンタックス要素に基づいて単一のコンテキストを決定すること更に行わせる、[62]に記載のコンピュータ可読記憶媒体。
[65] シンタックス要素の前記第1のセットは、スキップフラグ、分割コード化単位フラグ(split_coding_unit_flag)、ルーマブロックのcbp、及びクロマイントラモードのビン0のうちの少なくとも1つを備える、[62]に記載のコンピュータ可読記憶媒体。
[66] 前記ブロックは前記コード化済単位の第1の最大コード化単位(LCU)の第1のサブコード化単位(CU)を備え、前記上部に隣接するブロックは、前記第1のLCUの上にある前記コード化済単位の第2のLCUを備え、前記命令は、前記1つ以上のプロセッサに、コンテキスト情報を、前記第1のLCUの第2のサブCUからの前記コンテキスト情報の少なくとも一部分に基づいて決定することを更に行わせ、前記第2のサブCUは、前記第1のLCU中の前記第1のサブCUの上にある、[59]に記載のコンピュータ可読記憶媒体。
[67] 前記ブロックはコード化済単位(CU)を備え、前記命令は、前記1つ以上のプロセッサに、前記CUの1つ以上の特性を決定することによって前記コンテキスト情報を決定することを更に行わせる、[59]に記載のコンピュータ可読記憶媒体。
[68] 前記命令は、前記1つ以上のプロセッサに、前記CUのインター予測残差データをエントロピーコード化することと、前記CUのCU深さを決定することによって前記CUの前記1つ以上の特性を決定することとを行わせる、[67]に記載のコンピュータ可読記憶媒体。
[69] 前記命令は、前記1つ以上のプロセッサに、前記CUの前記CU深さに基づいてインター予測フラグ(inter_pred_flag)をエントロピーコード化することによって前記CUのインター予測残差データをエントロピーコード化することを更に行わせる、[68]に記載のコンピュータ可読記憶媒体。
[70] 前記ブロックは変換単位(TU)を備え、前記命令は、前記1つ以上のプロセッサに、前記TUの1つ以上の特性を決定することによって前記コンテキスト情報を決定することを更に行わせる、[59]に記載のコンピュータ可読記憶媒体。
[71] 前記命令は、前記1つ以上のプロセッサに、前記TUのイントラ予測残差データをエントロピーコード化することによって前記ブロックの前記データをエントロピーコード化することと、前記TUのTU深さを決定することによって前記TUの前記1つ以上の特性を決定することとを更に行わせる、[70]に記載のコンピュータ可読記憶媒体。
[72] 前記命令は、前記1つ以上のプロセッサに、コード化ブロックパターンの1つ以上のシンタックス要素をエントロピーコード化することによって前記TUのイントラ予測残差データをエントロピーコード化することを更に行わせる、[71]に記載のコンピュータ可読記憶媒体。

Claims (54)

  1. ビデオデータを復号する方法であって、
    ビデオデコーダが、ビデオデータのブロックに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することと、ここにおいて、前記ブロックはビデオデータのコード化単位(CU)内に含まれ、前記ビデオデータは4分木構造を定義し、前記コード化単位は前記4分木構造のノードであり、前記CUは変換単位(TU)を備え、前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定することは前記TUの深さに基づいて前記TUに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える
    前記ビデオデコーダが、決定された前記コンテキスト情報を使用して、前記1つ以上のシンタックス要素をエントロピー復号することと、
    を備え、
    前記1つ以上のシンタックス要素をエントロピー復号することは前記1つ以上のシンタックス要素をコンテキスト適応型二値算術復号することを備え、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術復号することは決定された前記コンテキスト情報を使用して前記1つ以上のシンタックス要素を復号するために複数の確率モデルから1つの確率モデルを選択することを備える、方法。
  2. 前記CUの前記深さに基づいて前記CUのインター予測残差データについてのコンテキスト情報を決定することを含む1つ以上の第2のシンタックス要素についてのコンテキスト情報を決定することをさらに備える、請求項1に記載の方法。
  3. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定することは前記CUの前記深さに基づいてインター予測フラグ(inter_pred_flag)についてのコンテキスト情報を決定することを含む、請求項2に記載の方法。
  4. 前記コンテキスト情報を決定することは前記TUが前記TUの前記深さに基づいて非0変換係数レベルを含むかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える、請求項に記載の方法。
  5. 符号化されたビットストリームから前記1つ以上のシンタックス要素を受信することをさらに備える、請求項1に記載の方法。
  6. 受信されたビットストリームをエントロピー復号して、ビデオデータの前記ブロックに関連する量子化変換係数を生成することと、
    前記量子化変換係数を逆量子化して変換係数を生成することと、
    前記変換係数に逆変換を適用して、ビデオデータの前記ブロックに関連する残差値を生成することと、
    をさらに備える、請求項に記載の方法。
  7. ビデオデータを復号するための装置であって、
    ビデオデータのブロックを記憶するよう構成されるメモリと、
    1つ以上のプロセッサを備え、前記1つ以上のプロセッサは、
    ビデオデータの前記ブロックに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することと、ここにおいて、前記ブロックはビデオデータのコード化単位(CU)内に含まれ、前記ビデオデータは4分木構造を定義し、前記CUは前記4分木構造のノードであり、前記CUは変換単位(TU)を備え、前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定することは前記TUの深さに基づいて前記TUに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える
    決定された前記コンテキスト情報を使用して、前記1つ以上のシンタックス要素をエントロピー復号することと、
    を行うよう構成され、
    前記1つ以上のシンタックス要素をエントロピー復号するために、前記1つ以上のプロセッサは、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術復号するよう構成され、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術復号するために、前記1つ以上のプロセッサは決定された前記コンテキスト情報を使用して前記1つ以上のシンタックス要素を復号するために複数の確率モデルから1つの確率モデルを選択するよう構成される、装置。
  8. 前記1つ以上のプロセッサが前記CUの前記深さに基づいて前記CUのインター予測残差データについてのコンテキスト情報を決定することを含む1つ以上の第2のシンタックス情報についてのコンテキスト情報を決定するようにさらに構成される、請求項に記載の装置。
  9. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは前記CUの前記深さに基づいてインター予測フラグ(inter_pred_flag)についてのコンテキスト情報を決定するように構成される、請求項に記載の装置。
  10. 前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは前記TUが前記TUの前記深さに基づいて非0変換係数レベルを含むかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定するように構成される、請求項に記載の装置。
  11. 前記1つ以上のプロセッサは符号化されたビットストリームから前記1つ以上のシンタックス要素を受信するよう構成される、請求項に記載の装置。
  12. 前記1つ以上のプロセッサは、
    受信されたビットストリームをエントロピー復号して、ビデオデータの前記ブロックに関連する量子化変換係数を生成し、
    前記量子化変換係数を逆量子化して変換係数を生成し、
    前記変換係数に逆変換を適用して、ビデオデータの前記ブロックに関連する残差値を生成するようにさらに構成される、請求項11に記載の装置。
  13. ビデオデータを復号するための装置であって、
    ビデオデータのブロックに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定するための手段と、ここにおいて、前記ブロックはビデオデータのコード化単位(CU)内に含まれ、前記ビデオデータは4分木構造を定義し、前記コード化単位は前記4分木構造のノードであり、前記CUは変換単位(TU)を備え、前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定することは前記TUの深さに基づいて前記TUに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える
    決定された前記コンテキスト情報を使用して、前記1つ以上のシンタックス要素をエントロピー復号するための手段と、
    を備え、
    前記1つ以上のシンタックス要素をエントロピー復号するための前記手段は前記1つ以上のシンタックス要素をコンテキスト適応型二値算術復号するための手段を備え、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術復号するための前記手段は前記決定されたコンテキスト情報を使用して前記1つ以上のシンタックス要素を復号するために複数の確率モデルから1つの確率モデルを選択するための手段を備える、装置。
  14. 前記CUの前記深さに基づいて前記CUのインター予測残差データについてのコンテキスト情報を決定するための手段を含む1つ以上の第2のシンタックス要素についてのコンテキスト情報を決定するための手段をさらに備える、請求項13に記載の装置。
  15. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定するための前記手段は、前記CUの前記深さに基づいてインター予測フラグ(inter_pred_flag)についてのコンテキスト情報を決定するための手段を含む、請求項14に記載の装置。
  16. 前記コンテキスト情報を決定するための前記手段は、前記TUが前記TUの前記深さに基づいて非0変換係数レベルを含むかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定するための手段を備える、請求項13に記載の装置。
  17. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は実行されたとき、1つ以上のプロセッサに、
    ビデオデータのブロックに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することと、ここにおいて、前記ブロックはビデオデータのコード化単位(CU)内に含まれ、前記ビデオデータは4分木構造を定義し、前記CUは前記4分木構造のノードであり、前記CUは変換単位(TU)を備え、前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定することは前記TUの深さに基づいて前記TUに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える
    決定された前記コンテキスト情報を使用して、前記1つ以上のシンタックス要素をエントロピー復号することと、
    を行わせ、
    前記1つ以上のシンタックス要素をエントロピー復号するために、前記1つ以上のプロセッサは前記1つ以上のシンタックス要素をコンテキスト適応型二値算術復号するよう構成され、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術復号するために、前記1つ以上のプロセッサは決定された前記コンテキスト情報を使用して前記1つ以上のシンタックス要素を復号するために複数の確率モデルから1つの確率モデルを選択するように構成される、コンピュータ可読記憶媒体。
  18. 記1つ以上のプロセッサに前記CUの前記深さに基づいて前記CUのインター予測残差データについてのコンテキスト情報を決定することを含む1つ以上の第2のシンタックス要素についてのコンテキスト情報を決定させる命令をさらに備える、請求項17に記載のコンピュータ可読記憶媒体。
  19. 前記命令は、前記1つ以上のプロセッサに、前記CUの前記深さに基づいてインター予測フラグ(inter_pred_flag)についてのコンテキスト情報を決定することによって前記CUの前記インター予測残差データについての前記コンテキスト情報を決定させる、請求項18に記載のコンピュータ可読記憶媒体。
  20. 前記命令は、前記1つ以上のプロセッサに、前記TUが前記TUの前記深さに基づいて非0変換係数レベルを含むかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定することによって前記コンテキスト情報を決定させる、請求項17に記載のコンピュータ可読記憶媒体。
  21. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定することは、前記CUが前記CUの前記深さに基づいて分割されるかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える、請求項2に記載の方法。
  22. 前記TUに関連する前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定することは前記TUの前記深さに基づいて前記TUのイントラ予測残差データについてのコンテキスト情報を決定することを備える、請求項に記載の方法。
  23. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記CUが前記CUの前記深さに基づいて分割されるかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定するよう構成される、請求項に記載の装置。
  24. 前記TUに関連する前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記TUの前記深さに基づいて前記TUのイントラ予測残差データについてのコンテキスト情報を決定するよう構成される、請求項に記載の装置。
  25. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定するための前記手段は、前記CUが前記CUの前記深さに基づいて分割されるかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定するための手段を備える、請求項14に記載の装置。
  26. 前記TUに関連する前記1つ以上のシンタックス要素についてのコンテキスト情報を決定するための前記手段は、前記TUの前記深さに基づいて前記TUのイントラ予測残差データについてのコンテキスト情報を決定するための手段を備える、請求項13に記載の装置。
  27. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定するために、前記命令は、前記1つ以上のプロセッサに、前記CUが前記CUの前記深さに基づいて分割されるかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定させる、請求項18に記載のコンピュータ可読記憶媒体。
  28. 前記TUに関連する前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定するために、前記命令は、前記1つ以上のプロセッサに、前記TUの前記深さに基づいて前記TUのイントラ予測残差データについての前記コンテキスト情報を決定させる、請求項17に記載のコンピュータ可読記憶媒体。
  29. ビデオデータを符号化する方法であって、
    ビデオデータのブロックに関連する1つ以上のシンタックス要素についてのコンテキスト情報を、ビデオエンコーダ、決定することと、ここにおいて、前記ブロックはビデオデータのコード化単位(CU)内に含まれ、前記ビデオデータは4分木構造を定義し、前記コード化単位は前記4分木構造のノードであり、前記CUは変換単位(TU)を備え、前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定することは前記TUの深さに基づいて前記TUに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える
    決定された前記コンテキスト情報を使用する前記1つ以上のシンタックス要素を、前記ビデオエンコーダ、エントロピー符号化することと
    を備え、
    前記1つ以上のシンタックス要素をエントロピー符号化することは、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術符号化することを備え、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術符号化することは決定された前記コンテキスト情報を使用して前記1つ以上のシンタックス要素を符号化するために複数の確率モデルから1つの確率モデルを選択することを備える、方法。
  30. 前記CUの前記深さに基づいて前記CUのインター予測残差データについてのコンテキスト情報を決定することを含む1つ以上の第2のシンタックス要素についてのコンテキスト情報を決定することをさらに備える、請求項29に記載の方法。
  31. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定することは前記CUが前記CUの前記深さに基づいて分割されるかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える、請求項30に記載の方法。
  32. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定することは、前記CUの前記深さに基づいてインター予測フラグ(inter_pred_flag)についてのコンテキスト情報を決定することを備える、請求項30に記載の方法。
  33. 前記TUに関連する前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定することは前記TUの前記深さに基づいて前記TUのイントラ予測残差データについてのコンテキスト情報を決定することを備える、請求項29に記載の方法。
  34. 前記コンテキスト情報を決定することは、前記TUが前記TUの前記深さに基づいて非0変換係数レベルを含むかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える、請求項29に記載の方法。
  35. 変換係数を生成するよう前記ブロックの1つ以上の残差値に変換を適用することと、
    量子化変換係数を生成するよう前記変換係数を量子化することと、
    前記量子化変換係数を符号化することと
    をさらに備える、請求項29に記載の方法。
  36. ビデオデータを符号化するための装置であって、
    ビデオデータのブロックを記憶するよう構成されるメモリと、
    1つ以上のプロセッサを備え、前記1つ以上のプロセッサは、
    ビデオデータの前記ブロックに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することと、ここにおいて、前記ブロックはビデオデータのコード化単位(CU)内に含まれ、前記ビデオデータは4分木構造を定義し、前記CUは前記4分木構造のノードであり、前記CUは変換単位(TU)を備え、前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定することは前記TUの深さに基づいて前記TUに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える
    決定された前記コンテキスト情報を使用して、前記1つ以上のシンタックス要素をエントロピー符号化することと、
    を行うよう構成され、
    前記1つ以上のシンタックス要素をエントロピー符号化するために、前記1つ以上のプロセッサは、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術符号化するよう構成され、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術符号化するために、前記1つ以上のプロセッサは決定された前記コンテキスト情報を使用して前記1つ以上のシンタックス要素を符号化するために複数の確率モデルから1つの確率モデルを選択するよう構成される、装置。
  37. 記1つ以上のプロセッサは前記CUの前記深さに基づいて前記CUのインター予測残差データについてのコンテキスト情報を決定することを含む1つ以上の第2のジンタックス要素についてのコンテキスト情報を決定するようさらに構成される、請求項36に記載の装置。
  38. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記CUが前記CUの前記深さに基づいて分割されるかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定するよう構成される、請求項37に記載の装置。
  39. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記CUの前記深さに基づいて前記インター予測フラグ(inter_pred_flag)についてのコンテキスト情報を決定するよう構成される、請求項37に記載の装置。
  40. 前記TUに関連する前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記TUの前記深さに基づいて前記TUのイントラ予測残差データについてコンテキスト情報を決定するよう構成される、請求項36に記載の装置。
  41. 前記コンテキスト情報を決定するために、前記1つ以上のプロセッサは、前記TUが前記TUの前記深さに基づいて非0変換係数レベルを含むかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定するよう構成される、請求項36に記載の装置。
  42. 前記1つ以上のプロセッサであって、
    変換係数を生成するよう前記ブロックの1つ以上の残差値に変換を適用することと、
    量子化変換係数を生成するよう前記変換係数を量子化することと、
    前記量子化変換係数を符号化することと
    を行うように構成される、請求項36に記載の装置。
  43. ビデオデータを符号化するための装置であって、
    ビデオデータのブロックに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定するための手段と、ここにおいて、前記ブロックはビデオデータのコード化単位(CU)内に含まれ、前記ビデオデータは4分木構造を定義し、前記コード化単位は前記4分木構造のノードであり、前記CUは変換単位(TU)を備え、前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定することは前記TUの深さに基づいて前記TUに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える
    決定された前記コンテキスト情報を使用して、前記1つ以上のシンタックス要素をエントロピー符号化するための手段と、
    を備え、
    前記1つ以上のシンタックス要素をエントロピー符号化するための前記手段は、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術符号化するための手段を備え、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術符号化するための前記手段は、決定された前記コンテキスト情報を使用して前記1つ以上のシンタックス要素を符号化するために複数の確率モデルから1つの確率モデルを選択するための手段を備える、装置。
  44. 前記CUの前記深さに基づいて前記CUのインター予測残差データについてのコンテキスト情報を決定することための手段を含む1つ以上の第2のシンタックス要素についてのコンテキスト情報を決定するための手段をさらに備える、請求項43に記載の装置。
  45. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定するための前記手段は前記CUが前記CUの前記深さに基づいて分割されるかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定するための手段を備える、請求項44に記載の装置。
  46. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定するための前記手段は、前記CUの前記深さに基づいてインター予測フラグ(inter_pred_flag)についてのコンテキスト情報を決定するための手段を備える、請求項44に記載の装置。
  47. 前記TUに関連する前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定するための前記手段は前記TUの前記深さに基づいて前記TUのイントラ予測残差データについてのコンテキスト情報を決定するための手段を備える、請求項43に記載の装置。
  48. 前記コンテキスト情報を決定するための前記手段は、前記TUが前記TUの前記深さに基づいて非0変換係数レベルを含むかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定するための手段を備える、請求項43に記載の装置。
  49. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は実行されたとき、1つ以上のプロセッサに、
    ビデオデータのブロックに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することと、ここにおいて、前記ブロックはビデオデータのコード化単位(CU)内に含まれ、前記ビデオデータは4分木構造を定義し、前記CUは前記4分木構造のノードであり、前記CUは変換単位(TU)を備え、前記1つ以上のシンタックス要素についての前記コンテキスト情報を決定することは前記TUの深さに基づいて前記TUに関連する1つ以上のシンタックス要素についてのコンテキスト情報を決定することを備える
    決定された前記コンテキスト情報を使用して、前記1つ以上のシンタックス要素をエントロピー符号化することと、
    を行わせ、
    前記1つ以上のシンタックス要素をエントロピー符号化するために、前記1つ以上のプロセッサは前記1つ以上のシンタックス要素をコンテキスト適応型二値算術符号化するよう構成され、前記1つ以上のシンタックス要素をコンテキスト適応型二値算術符号化するために、前記1つ以上のプロセッサは決定された前記コンテキスト情報を使用して前記1つ以上のシンタックス要素を符号化するために複数の確率モデルから1つの確率モデルを選択するように構成される、コンピュータ可読記憶媒体。
  50. 記1つ以上のプロセッサに、前記CUの前記深さに基づいて前記CUのインター予測残差データについてのコンテキスト情報を決定することを含む1つ以上の第2のシンタックス要素についてのコンテキスト情報を決定させる命令をさらに備える、請求項49に記載のコンピュータ可読記憶媒体。
  51. 前記CUの前記インター予測残差データについての前記コンテキスト情報を決定するために、前記命令は、前記1つ以上のプロセッサに、前記CUが前記CUの前記深さに基づいて分割されるかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定させる、請求項50に記載のコンピュータ可読記憶媒体。
  52. 前記命令は、前記1つ以上のプロセッサに、前記CUの前記深さに基づいてインター予測フラグ(inter_pred_flag)についてのコンテキスト情報を決定することによって前記CUの前記インター予測残差データについての前記コンテキスト情報を決定させる、請求項50に記載のコンピュータ可読記憶媒体。
  53. 前記TUに関連する前記1つ以上のシンタックス要素についての前記コンテキスト情報を判断するために、前記命令は、前記1つ以上のプロセッサに前記TUの前記深さに基づいて前記TUのイントラ予測残差データについてのコンテキスト情報を決定させる、請求項49に記載のコンピュータ可読記憶媒体。
  54. 前記命令は前記1つ以上のプロセッサに、前記TUが前記TUの前記深さに基づいて非0変換係数レベルを含むかどうかを示す1つ以上のシンタックス要素についてのコンテキスト情報を決定することによって前記コンテキスト情報を決定させる、請求項49に記載のコンピュータ可読記憶媒体。
JP2014513749A 2011-06-03 2012-06-01 メモリ効率的コンテキストモデリング Active JP5869108B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201161493361P 2011-06-03 2011-06-03
US61/493,361 2011-06-03
US201161504153P 2011-07-01 2011-07-01
US61/504,153 2011-07-01
US201161546732P 2011-10-13 2011-10-13
US61/546,732 2011-10-13
US13/485,198 2012-05-31
US13/485,198 US8995523B2 (en) 2011-06-03 2012-05-31 Memory efficient context modeling
PCT/US2012/040483 WO2012167097A1 (en) 2011-06-03 2012-06-01 Memory efficient context modeling

Publications (2)

Publication Number Publication Date
JP2014522603A JP2014522603A (ja) 2014-09-04
JP5869108B2 true JP5869108B2 (ja) 2016-02-24

Family

ID=46208192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014513749A Active JP5869108B2 (ja) 2011-06-03 2012-06-01 メモリ効率的コンテキストモデリング

Country Status (19)

Country Link
US (1) US8995523B2 (ja)
EP (2) EP4007279B1 (ja)
JP (1) JP5869108B2 (ja)
KR (1) KR101651759B1 (ja)
CN (1) CN103563378B (ja)
AU (1) AU2012261975B2 (ja)
BR (1) BR112013031006B1 (ja)
CA (1) CA2837099C (ja)
DK (1) DK2716044T3 (ja)
ES (2) ES2897708T3 (ja)
HU (1) HUE057018T2 (ja)
IL (1) IL229265A (ja)
MX (1) MX2013014123A (ja)
MY (1) MY158277A (ja)
RU (1) RU2580066C2 (ja)
SG (1) SG194912A1 (ja)
UA (1) UA108698C2 (ja)
WO (1) WO2012167097A1 (ja)
ZA (1) ZA201309671B (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9379736B2 (en) * 2011-06-03 2016-06-28 Qualcomm Incorporated Context-adaptive coding video data
US8743969B2 (en) 2011-06-23 2014-06-03 Panasonic Corporation Image decoding method and apparatus based on a signal type of the control parameter of the current block
USRE47366E1 (en) 2011-06-23 2019-04-23 Sun Patent Trust Image decoding method and apparatus based on a signal type of the control parameter of the current block
KR102062283B1 (ko) * 2011-06-24 2020-01-03 선 페이턴트 트러스트 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치
WO2012176464A1 (ja) 2011-06-24 2012-12-27 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置
CA2842646C (en) 2011-06-27 2018-09-04 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
CN106878724B (zh) 2011-06-28 2020-06-05 太阳专利托管公司 图像编码解码装置
MX2013010892A (es) 2011-06-29 2013-12-06 Panasonic Corp Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
CA2837537C (en) 2011-06-30 2019-04-02 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
AU2012277219A1 (en) 2011-06-30 2013-09-19 Sun Patent Trust Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device
AU2012278484B2 (en) * 2011-07-01 2016-05-05 Samsung Electronics Co., Ltd. Method and apparatus for entropy encoding using hierarchical data unit, and method and apparatus for decoding
CA2838575C (en) * 2011-07-11 2018-06-12 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
EP4152749B1 (en) 2011-07-15 2024-04-10 GE Video Compression, LLC Sample array coding for low-delay
US9693064B2 (en) * 2011-09-30 2017-06-27 Avago Technologies General Ip (Singapore) Pte. Ltd Video coding infrastructure using adaptive prediction complexity reduction
US9892188B2 (en) * 2011-11-08 2018-02-13 Microsoft Technology Licensing, Llc Category-prefixed data batching of coded media data in multiple categories
US11039138B1 (en) * 2012-03-08 2021-06-15 Google Llc Adaptive coding of prediction modes using probability distributions
TWI752680B (zh) 2012-04-13 2022-01-11 美商Ge影像壓縮有限公司 用以自資料串流重構圖像的解碼器及方法、用以將圖像編碼入資料串流的編碼器及方法、與相關電腦程式及機器可存取媒體
US10085024B2 (en) * 2012-04-13 2018-09-25 Qualcomm Incorporated Lookup table for rate distortion optimized quantization
WO2013157791A1 (ko) * 2012-04-15 2013-10-24 삼성전자 주식회사 인터 예측의 참조영상을 결정하는 방법과 그 장치
KR102249484B1 (ko) 2012-06-26 2021-05-12 엘지전자 주식회사 비디오 인코딩 방법, 비디오 디코딩 방법 및 이를 이용하는 장치
CN115442623B (zh) 2012-06-29 2024-08-23 Ge视频压缩有限责任公司 解码视频数据流的方法、存储介质、编码器、解码器
US9621905B2 (en) * 2012-06-29 2017-04-11 Qualcomm Incorporated Tiles and wavefront parallel processing
PL4033764T3 (pl) * 2012-09-26 2023-12-27 Sun Patent Trust Sposób dekodowania obrazów, sposób kodowania obrazów, urządzenie do dekodowania obrazów, urządzenie do kodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów
US9271010B2 (en) * 2012-10-02 2016-02-23 Futurewei Technologies, Inc. System and method for motion estimation for large-size block
KR101817589B1 (ko) * 2013-07-08 2018-01-11 미디어텍 싱가폴 피티이. 엘티디. 3d 비디오 코딩에서 단순화된 cabac 코딩의 방법
JP6118199B2 (ja) * 2013-07-09 2017-04-19 シャープ株式会社 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法及びコンピュータ読み取り可能な記録媒体。
JP6202912B2 (ja) * 2013-07-12 2017-09-27 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP6268989B2 (ja) * 2013-11-29 2018-01-31 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム
US20150373350A1 (en) * 2014-06-20 2015-12-24 Qualcomm Incorporated Temporal motion vector prediction (tmvp) indication in multi-layer codecs
US9930341B2 (en) * 2014-06-20 2018-03-27 Qualcomm Incorporated Block vector coding for intra block copying
US9936201B2 (en) 2015-01-27 2018-04-03 Qualcomm Incorporated Contexts for large coding tree units
US10148977B2 (en) 2015-06-16 2018-12-04 Futurewei Technologies, Inc. Advanced coding techniques for high efficiency video coding (HEVC) screen content coding (SCC) extensions
KR20180074773A (ko) * 2015-11-22 2018-07-03 엘지전자 주식회사 비디오 신호를 엔트로피 인코딩, 디코딩하는 방법 및 장치
EP3244610A1 (en) 2016-05-12 2017-11-15 Thomson Licensing Method and device for context-adaptive binary arithmetic coding a sequence of binary symbols representing a syntax element related to video data
WO2018199468A1 (ko) 2017-04-24 2018-11-01 에스케이텔레콤 주식회사 움직임 보상을 위한 옵티컬 플로우 추정 방법 및 장치
KR20240010541A (ko) 2017-07-04 2024-01-23 삼성전자주식회사 다중 코어 변환에 의한 비디오 복호화 방법 및 장치, 다중 코어 변환에 의한 비디오 부호화 방법 및 장치
KR20210156351A (ko) * 2017-07-07 2021-12-24 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US10506258B2 (en) * 2017-07-13 2019-12-10 Google Llc Coding video syntax elements using a context tree
CN118381906A (zh) * 2018-03-21 2024-07-23 Lx 半导体科技有限公司 图像编码/解码方法、存储介质以及图像数据的发送方法
WO2019194439A1 (ko) * 2018-04-02 2019-10-10 엘지전자 주식회사 컨텍스트 기반 인트라 예측 모드 정보 코딩을 이용한 영상 코딩 방법 및 그 장치
CN110891180B (zh) 2018-09-10 2023-11-17 华为技术有限公司 视频解码方法及视频解码器
CN113906753B (zh) 2019-04-24 2023-12-01 字节跳动有限公司 编解码视频的量化残差差分脉冲编解码调制表示的约束
EP3949387A4 (en) 2019-05-02 2022-05-18 ByteDance Inc. SIGNALING IN A TRANSFORM JUMP MODE
WO2020242260A1 (ko) * 2019-05-31 2020-12-03 한국전자통신연구원 전역적 문맥을 이용하는 기계 학습 기반의 이미지 압축을 위한 방법 및 장치
WO2021036939A1 (en) * 2019-08-23 2021-03-04 Mediatek Inc. Method and apparatus of partitioning small size coding units with partition constraints

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2156889C (en) * 1994-09-30 1999-11-02 Edward L. Schwartz Method and apparatus for encoding and decoding data
US7336720B2 (en) 2002-09-27 2008-02-26 Vanguard Software Solutions, Inc. Real-time video coding/decoding
US8107535B2 (en) 2003-06-10 2012-01-31 Rensselaer Polytechnic Institute (Rpi) Method and apparatus for scalable motion vector coding
RU2406254C2 (ru) * 2006-03-29 2010-12-10 Квэлкомм Инкорпорейтед Видеообработка с масштабируемостью
KR101356733B1 (ko) 2007-03-07 2014-02-05 삼성전자주식회사 컨텍스트 기반 적응적 이진 산술 부호화, 복호화 방법 및장치
RU2420023C1 (ru) * 2007-03-13 2011-05-27 Нокиа Корпорейшн Система и способ кодирования и декодирования видеосигналов
US8483282B2 (en) * 2007-10-12 2013-07-09 Qualcomm, Incorporated Entropy coding of interleaved sub-blocks of a video block
US8542748B2 (en) 2008-03-28 2013-09-24 Sharp Laboratories Of America, Inc. Methods and systems for parallel video encoding and decoding
WO2010036772A2 (en) 2008-09-26 2010-04-01 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
CN101836454B (zh) 2008-12-03 2012-08-22 联发科技股份有限公司 对有序熵切片执行平行cabac码处理的方法及装置
KR101457418B1 (ko) * 2009-10-23 2014-11-04 삼성전자주식회사 계층적 부호화 단위의 크기에 따른 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
KR101700358B1 (ko) 2009-12-09 2017-01-26 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9369736B2 (en) * 2010-04-05 2016-06-14 Samsung Electronics Co., Ltd. Low complexity entropy-encoding/decoding method and apparatus
CN103238321B (zh) * 2010-09-30 2016-11-02 三星电子株式会社 用于对分层结构的符号进行编解码的视频编解码方法及其装置
US9497472B2 (en) 2010-11-16 2016-11-15 Qualcomm Incorporated Parallel context calculation in video coding
WO2012134246A2 (ko) * 2011-04-01 2012-10-04 엘지전자 주식회사 엔트로피 디코딩 방법 및 이를 이용하는 디코딩 장치

Also Published As

Publication number Publication date
ES2897708T3 (es) 2022-03-02
DK2716044T3 (da) 2021-11-15
EP2716044B1 (en) 2021-10-20
AU2012261975A1 (en) 2013-12-12
RU2580066C2 (ru) 2016-04-10
EP4007279A1 (en) 2022-06-01
WO2012167097A1 (en) 2012-12-06
HUE057018T2 (hu) 2022-04-28
KR20140017015A (ko) 2014-02-10
EP2716044A1 (en) 2014-04-09
US8995523B2 (en) 2015-03-31
IL229265A0 (en) 2014-01-30
CA2837099C (en) 2016-10-18
IL229265A (en) 2016-04-21
MX2013014123A (es) 2014-01-23
RU2013158385A (ru) 2015-07-20
MY158277A (en) 2016-09-30
JP2014522603A (ja) 2014-09-04
BR112013031006A2 (pt) 2016-11-29
CA2837099A1 (en) 2012-12-06
CN103563378B (zh) 2017-05-24
ZA201309671B (en) 2016-02-24
BR112013031006B1 (pt) 2022-05-17
ES2952256T3 (es) 2023-10-30
EP4007279C0 (en) 2023-07-19
KR101651759B1 (ko) 2016-08-26
UA108698C2 (uk) 2015-05-25
CN103563378A (zh) 2014-02-05
AU2012261975B2 (en) 2015-09-03
US20120328003A1 (en) 2012-12-27
SG194912A1 (en) 2013-12-30
EP4007279B1 (en) 2023-07-19

Similar Documents

Publication Publication Date Title
JP5869108B2 (ja) メモリ効率的コンテキストモデリング
JP5869122B2 (ja) ビデオコーディングにおける予測データのバッファリング
JP5869008B2 (ja) ビデオコーディングにおける変換
JP6081499B2 (ja) 変換係数コーディングのためのコンテキスト導出における走査ベーススライディングウィンドウ
JP6162150B2 (ja) ビデオコーディング用の残差4分木(rqt)コーディング
JP5902307B2 (ja) イントラモードビデオコーディング
KR102334126B1 (ko) 인트라 블록 복사를 위한 레지듀얼 예측
JP6162212B2 (ja) マージシグナリングおよびループフィルタオン/オフシグナリング
JP2018530246A (ja) ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測
JP6239609B2 (ja) ビデオコーディングのための長期参照ピクチャをシグナリングすること
JP5955955B2 (ja) リーフレベルコード化単位のサブセットについての変換係数のシンタックス要素の信号伝達
JP2018110405A (ja) 係数走査のための係数グループおよび係数コーディング
TWI527440B (zh) 在視訊寫碼中針對高效率視訊寫碼(hevc)延伸之多層之低複雜度支援
JP2018537908A (ja) ビデオデータの符号情報をコーディングすること
US20160219276A1 (en) Contexts for large coding tree units
JP6271558B2 (ja) 改善されたランダムアクセスポイントピクチャ挙動を用いたビデオコーディング
JP6042526B2 (ja) ビデオコーディングのための最後の位置コーディングのためのコンテキストの導出
JP2016534649A (ja) イントラブロックコピー実行時の領域決定
JP2015511472A (ja) ビデオコード化におけるコードブックを使用したループフィルタパラメータのコード化
US20130128971A1 (en) Transforms in video coding

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160106

R150 Certificate of patent or registration of utility model

Ref document number: 5869108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250