JP2015533462A - ビデオコーディングのための参照ピクチャステータス - Google Patents

ビデオコーディングのための参照ピクチャステータス Download PDF

Info

Publication number
JP2015533462A
JP2015533462A JP2015539594A JP2015539594A JP2015533462A JP 2015533462 A JP2015533462 A JP 2015533462A JP 2015539594 A JP2015539594 A JP 2015539594A JP 2015539594 A JP2015539594 A JP 2015539594A JP 2015533462 A JP2015533462 A JP 2015533462A
Authority
JP
Japan
Prior art keywords
picture
video
video block
motion vector
status information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015539594A
Other languages
English (en)
Other versions
JP2015533462A5 (ja
Inventor
チェン、イン
ワン、イェ−クイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015533462A publication Critical patent/JP2015533462A/ja
Publication of JP2015533462A5 publication Critical patent/JP2015533462A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本開示の技法は、一般に、ピクチャの参照ステータスに関連し得る。技法は、ピクチャがコーディングされているインスタンスにおいてピクチャの参照ピクチャの参照ステータス情報を記憶し得る。次に、技法は、後続のピクチャのビデオブロックをインター予測するために、ピクチャがコーディングされたインスタンスにおける、ピクチャの参照ピクチャの参照ステータス情報を利用し得る。

Description

[0001]本出願は、その内容全体が参照により本明細書に組み込まれる、2012年10月25日に出願された米国仮出願第61/718,629号の利益を主張する。
[0002]本開示は、ビデオコーディングに関し、より詳細には、ビデオコーディングのための参照ピクチャステータスに関連する技法に関する。
[0003]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラーまたは衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、Part 10、アドバンストビデオコーディング(AVC:Advanced Video Coding)、現在開発中の高効率ビデオコーディング(HEVC)規格によって定義された規格、およびそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実装する。ビデオデバイスは、そのようなビデオ圧縮技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
[0004]ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間的(イントラピクチャ)予測および/または時間的(インターピクチャ)予測を実行する。ブロックベースのビデオコーディングでは、ビデオスライス(すなわち、ビデオフレームまたはビデオフレームの一部)はビデオブロックに区分され得、これらのビデオブロックは、ツリーブロック、コーディングユニット(CU:coding unit)および/またはコーディングノードと呼ばれることがある。ピクチャのイントラコード化(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック内の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコード化(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測、または他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005]空間的予測または時間的予測は、コード化されるべきブロックの予測ブロックを生じる。残差データは、コード化されるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、およびコード化ブロックと予測ブロックとの間の差分を示す残差データに従って符号化される。イントラコード化ブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて、残差変換係数が得られ得、その残差変換係数は、次いで量子化され得る。量子化変換係数は、最初に2次元アレイで構成され、変換係数の1次元ベクトルを生成するために走査することができ、なお一層の圧縮を達成するためにエントロピーコーディングを適用することができる。
[0006]本開示で説明する技法は、一般に、ビデオコーディングプロセスと、参照ピクチャのうちの1つまたは複数を使用するピクチャがコーディングされるインスタンスにおいて参照ピクチャの参照ステータス情報を記憶することとに関連する。このようにして、参照ピクチャの参照ステータスが後で変わる場合でも、ビデオコーダは、ピクチャがコーディングされたインスタンスにおける参照ピクチャの参照ステータスを判断することができる。
[0007]一例では、本開示は、ビデオデータをコーディングするための方法を説明する。方法は、第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、参照ステータス情報は第1のピクチャがコーディングされるインスタンスにおける1つまたは複数の参照ピクチャの参照ステータス情報を示す;第1のピクチャの1つまたは複数の参照ピクチャの、第1のピクチャがコーディングされたインスタンスにおける記憶された参照ステータス情報に基づいて第2の異なるピクチャ内のビデオブロックをコーディングすることとを含む。
[0008]一例では、本開示は、ビデオデータをコーディングするための装置について説明する。装置は、第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、参照ステータス情報は第1のピクチャがコーディングされるインスタンスにおける1つまたは複数の参照ピクチャの参照ステータス情報を示す;第1のピクチャの1つまたは複数の参照ピクチャの、第1のピクチャがコーディングされたインスタンスにおける記憶された参照ステータス情報に基づいて第2の異なるピクチャ内のビデオブロックをコーディングすることとを行うように構成されたビデオコーダを含む。
[0009]一例では、本開示は、ビデオデータをコーディングするための装置について説明する。装置は、第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶するための手段と、参照ステータス情報は第1のピクチャがコーディングされるインスタンスにおける1つまたは複数の参照ピクチャの参照ステータス情報を示す;第1のピクチャの1つまたは複数の参照ピクチャの、第1のピクチャがコーディングされたインスタンスにおける記憶された参照ステータス情報に基づいて第2の異なるピクチャ内のビデオブロックをコーディングするための手段とを含む。
[0010]一例では、本開示は、命令を記憶したコンピュータ可読記憶媒体について説明し、命令は、実行されると1つまたは複数のプロセッサに、第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、参照ステータス情報は第1のピクチャがコーディングされるインスタンスにおける1つまたは複数の参照ピクチャの参照ステータス情報を示す;第1のピクチャの1つまたは複数の参照ピクチャの、第1のピクチャがコーディングされたインスタンスにおける記憶された参照ステータス情報に基づいて第2の異なるピクチャ内のビデオブロックをコーディングすることとを実行させる。
[0011]1つまたは複数の例の詳細は、添付の図面および以下の説明に記載されている。他の特徴、目的、および利点は、その説明および図面、ならびに特許請求の範囲から明らかになろう。
[0012]本開示で説明する技法を利用し得る例示的なビデオ符号化および復号システムを示すブロック図。 [0013]本開示で説明する技法を実装し得る例示的なビデオエンコーダを示すブロック図。 [0014]本開示で説明する技法を実装し得る例示的なビデオデコーダを示すブロック図。 [0015]本開示で説明する1つまたは複数の例示的な技法による例示的な動作を示すフローチャート。
[0016]本開示で説明する技法は、一般に、ビデオコーディングプロセス内でピクチャの参照ステータスを検査することに関連する。ビデオコーダは、参照ステータスの例として、「長期参照に使用される」、「短期参照に使用される」、または「参照に使用されない」としてピクチャを指定する(たとえば、標識する)ことができる。たとえば、ピクチャ内のビデオブロックをインター予測するために、ビデオコーダは、1つまたは2つの参照ピクチャリスト(RefPicList0および/またはRefPicList1)を構築し得る。参照ピクチャリストは、ピクチャ内のビデオブロックをインター予測するために使用され得る参照ピクチャを識別する。本開示で説明する技法では、ビデオコーダは、ピクチャがコーディングされるインスタンスにおける、RefPicList0および/またはRefPicList1内で識別された参照ピクチャに対する参照ステータス情報を記憶する。
[0017]いくつかの場合には、ビデオコーダは、後続のピクチャのビデオブロックをコーディングするときにピクチャの参照ピクチャに対する参照ステータス情報を判断することを必要とすることがある。しかしながら、ピクチャの参照ピクチャの参照ステータスは、ビデオコーダがピクチャをコーディングしたときからビデオコーダが後続のピクチャをコーディングすべきときまでに変わっていることがある。ピクチャがコーディングされるインスタンスにおいてピクチャの参照ピクチャに対する参照ステータス情報を記憶することによって、本開示で説明する技法は、後続のピクチャをコーディングするときのピクチャの参照ピクチャの参照ステータスをビデオコーダが判断することを可能にし得る。
[0018]たとえば、ビデオコーダは、ビデオブロックをコーディングするためのマージ/スキップモードまたは拡張型動きベクトル予測(AMVP)モードを実施するために、参照ステータスが変更された時間より前に参照ピクチャの参照ステータスを取得することを必要とすることがある。単に例示のために、技法が、マージ/スキップモードまたはAMVPモードに関して説明される。しかしながら、本開示で説明する技法は、マージ/スキップモードまたはAMVPモードに限定されると見なされるべきではない。
[0019]より詳細に説明するように、マージ/スキップモードまたはAMVPモードにおいて、ビデオコーダは、インター予測されるべきブロックに対する動きベクトルを判断するために、動きベクトル予測子を利用する。動きベクトル予測子の一例は、時間的動きベクトル予測子(TMVP)である。
[0020]TMVPは、時間的隣接ブロックの動きベクトルを指す。時間的隣接ブロックは、インター予測されたブロックを含むピクチャ以外のピクチャ内に存在する。時間的隣接ブロックは、コーディングされたビデオブロックに関連するピクチャと異なるピクチャのコロケートされたブロックであり得るが、他のコロケートされないブロックも同様に使用され得る。説明しやすいように、インター予測されたブロックは、現在ピクチャ内の現在ブロックと呼ばれる。時間的隣接ブロックは、時間的ピクチャ内に存在し、ここで時間的ピクチャは、現在ピクチャ以外のピクチャである。
[0021]TMVPは、時間的ピクチャの参照ピクチャであるピクチャを指す。たとえば、ビデオコーダは、時間的ピクチャのために2つの参照ピクチャリスト(RefPicList0およびRefPicList1)を構築し得る。時間的隣接ブロックに対する動きベクトルであるTMVPは、時間的ピクチャのためのRefPicList0またはRefPicList1のうちの一方の中の参照ピクチャを指す。時間的隣接ブロックが2つの動きベクトルを用いてインター予測される(すなわち、双予測される)例では、一方の動きベクトルはRefPicList0内の参照ピクチャを指し、他方の動きベクトルはRefPicList1内のピクチャを指す。これらの例では、2つのTMVPが存在し得る。
[0022]いくつかの例では、現在ブロックに対する1つまたは複数の動きベクトル予測子として(すなわち、現在ブロックに対する1つまたは複数のTMVPとして)動きベクトルまたは時間的隣接ブロックのベクトルを利用するために、ビデオコーダは、時間的隣接ブロックの1つまたは複数の動きベクトルが参照した参照ピクチャの参照ステータスを判断することを必要とすることがある。言い換えれば、ビデオコーダは、ビデオコーダが時間的ピクチャをコーディングしたインスタンスにおける、時間的ピクチャに対するRefPicList0および/またはRefPicList1内で識別される参照ピクチャの参照ステータスを判断することを必要とすることがある。
[0023]一般に、ビデオコーダは、ピクチャに対する参照ステータス情報を記憶するようにすでに構成されていることがある。しかしながら、ピクチャに対する参照ステータス情報は変わることがある。したがって、時間的ピクチャがコーディングされたインスタンスにおける、時間的ピクチャに対するRefPicList0およびRefPicList1内で識別されるピクチャの参照ステータスは、後で現在ピクチャをコーディングするときには失われていることがある。
[0024]たとえば、時間的ピクチャに対する参照ピクチャの参照ステータスが、時間的ピクチャがコーディングされたインスタンスにおける「長期参照ピクチャに使用される」であると仮定する。次に、参照ピクチャの参照ステータスが、現在ピクチャのコーディングの前に、「長期参照ピクチャに使用される」から「短期参照ピクチャに使用される」に変わったと仮定する。この例では、ビデオコーダが時間的ピクチャをコーディングしたインスタンスにおける「長期参照ピクチャを使用される」である、参照ピクチャの参照ステータスは、ビデオコーダが現在ピクチャをコーディングするときには失われていることがある。
[0025]本開示で説明する技法では、ビデオコーダは、第1のピクチャがコーディングされるインスタンスにおいて第1のピクチャ(たとえば、時間的ピクチャ)の参照ピクチャに対する参照ステータス情報を記憶する。その結果、第1のピクチャがコーディングされたインスタンスにおける第1のピクチャの参照ピクチャに対する参照ステータス情報は、第2の異なるピクチャ(たとえば、現在ピクチャ)をコーディングするときに利用可能である。たとえば、第1のピクチャ内のブロックに対する動きベクトルが、第2の異なるピクチャ内のブロックに対する動きベクトル予測子であるべきである場合、ビデオコーダは、第2の異なるピクチャ内のブロックの適切なインター予測を確実にするために、第1のピクチャがコーディングされたインスタンスにおける、第1のピクチャ内のブロックに対する動きベクトルが参照した参照ピクチャの参照ステータスを判断することができる。
[0026]図1は、本開示で説明する技法を利用し得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、宛先デバイス14によって後で復号されるべき符号化ビデオデータを生成するソースデバイス12を含む。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備え得る。場合によっては、ソースデバイス12および宛先デバイス14は、ワイヤレス通信に対応し得る。
[0027]宛先デバイス14は、リンク16を介して復号されるべき符号化ビデオデータを受信することができる。リンク16は、ソースデバイス12から宛先デバイス14に符号化ビデオデータを移動することが可能な任意のタイプの媒体またはデバイスを備え得る。一例では、リンク16は、ソースデバイス12が、符号化されたビデオデータをリアルタイムで宛先デバイス14に直接送信することを可能にするための、通信媒体を備え得る。符号化されたビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、高周波(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたは有線通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットのようなグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、ソースデバイス12から宛先デバイス14への通信を可能にするために有用であり得る、ルータ、スイッチ、基地局、または任意の他の機器を含み得る。
[0028]代替的に、符号化データは、出力インターフェース22からストレージデバイス34に出力され得る。同様に、符号化データは、入力インターフェースによってストレージデバイス34からアクセスされ得る。ストレージデバイス34は、ハードドライブ、ブルーレイ(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、揮発性もしくは不揮発性メモリ、または符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体のような、種々の分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。さらなる一例では、ストレージデバイス34は、ソースデバイス12によって生成された符号化ビデオを保持し得るファイルサーバまたは別の中間ストレージデバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介してストレージデバイス34から、記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶し、その符号化ビデオデータを宛先デバイス14に送信することが可能な任意のタイプのサーバであり得る。例示的なファイルサーバは、(たとえば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)デバイス、またはローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含む任意の標準データ接続を介して、符号化ビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、または両方の組合せを含み得る。ストレージデバイス34からの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、または両方の組合せであり得る。
[0029]本開示の技法は、必ずしもワイヤレス適用例または設定に限定されるとは限らない。本技法は、無線を通じたテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、たとえばインターネットを介したストリーミングビデオ送信、データ記憶媒体に記憶するためのデジタルビデオの符号化、データ記憶媒体に記憶されたデジタルビデオの復号、または他の用途など、種々のマルチメディア用途のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0030]図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。場合によっては、出力インターフェース22は、変調器/復調器(モデム)および/または送信機を含み得る。ソースデバイス12において、ビデオソース18は、たとえばビデオカメラなどのビデオキャプチャデバイス、以前にキャプチャされたビデオを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェース、および/またはソースビデオとしてコンピュータグラフィックスデータを生成するためのコンピュータグラフィックスシステムなどのソース、あるいはそのようなソースの組合せを含み得る。一例として、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラフォンまたはビデオフォンを形成し得る。ただし、本開示で説明する技法は、概してビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤード適用例に適用され得る。
[0031]キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成されたビデオは、ビデオエンコーダ20によって符号化され得る。符号化ビデオデータは、ソースデバイス12の出力インターフェース22を介して宛先デバイス14に直接送信され得る。符号化ビデオデータは、さらに(または代替として)、復号および/または再生のための宛先デバイス14または他のデバイスによる後のアクセスのためにストレージデバイス34上に記憶され得る。
[0032]宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。いくつかの場合、入力インターフェース28は、受信機および/またはモデムを含み得る。宛先デバイス14の入力インターフェース28は、リンク16を介して符号化ビデオデータを受信する。リンク16を介して通信され、またはストレージデバイス34上に与えられた符号化ビデオデータは、ビデオデータを復号する際に、ビデオデコーダ30など、ビデオデコーダが使用するためのビデオエンコーダ20によって生成される様々なシンタックス要素を含み得る。そのようなシンタックス要素は、通信媒体上で送信されるか、記憶媒体上に記憶されるか、またはファイルサーバ上に記憶される符号化ビデオデータとともに含まれ得る。
[0033]ディスプレイデバイス32は、宛先デバイス14と一体化されるかまたはその外部にあり得る。いくつかの例では、宛先デバイス14は、一体型ディスプレイデバイスを含み得、また、外部ディスプレイデバイスとインターフェースするように構成され得る。他の例では、宛先デバイス14はディスプレイデバイスであり得る。概して、ディスプレイデバイス32は、復号されたビデオデータをユーザに対して表示し、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
[0034]ビデオエンコーダ20およびビデオデコーダ30は、様々なビデオコーディング規格に従って動作し得る。ビデオコーディング規格は、ITU−T H.261、ISO/IEC MPEG−1 Visualと、ITU−T H.262またはISO/IEC MPEG−2 Visualと、ITU−T H.263、ISO/IEC MPEG−4 Visualと、スケーラブルビデオコーディング(SVC)拡張とマルチビュービデオコーディング(MVC)拡張とを含む(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264とを含む。ビデオ圧縮規格の他の例には、MPEG−2およびITU−T H.263がある。
[0035]さらに、ITU−Tビデオコーディングエキスパートグループ(VCEG)とISO/IECモーションピクチャエキスパートグループ(MPEG:Motion Picture Experts Group)とのジョイントコラボレーションチームオンビデオコーディング(JCT−VC:Joint Collaboration Team on Video Coding)によって開発されている新しいビデオコーディング規格、すなわち、高効率ビデオコーディング(HEVC)がある。これ以降HEVC WD9と呼ばれる、HEVCの最新の作業草案(WD)が、2013年2月21日の時点で、http://phenix.int−evry.fr/jct/doc_end_user/documents/11_Shanghai/wg11/JCTVC−K1003−v10.zipから入手可能である。
[0036]ただし、本開示の技法は、いかなる特定のコーディング規格にも限定されない。その上、本開示で説明する技法が特定の規格に必ずしも準拠するとは限らないとしても、本開示で説明する技法は、さらに、様々な規格に関してコーディング効率を支援し得る。同じく、本開示で説明する技法は、将来の規格の一部であり得る。理解しやすいように、技法は開発中のHEVC規格に関して説明するが、技法はHEVC規格に限定されず、特定の企画によって規定されない他のビデオコーディング企画またはビデオコーディング技法に拡張され得る。
[0037]図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、それぞれオーディオエンコーダおよびデコーダと統合され得、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含んで、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理し得る。適用可能な場合、いくつかの例では、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0038]ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダ回路のいずれか、あるいはそれらの任意の組合せとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、非一時的コンピュータ可読記憶媒体などの好適なコンピュータ可読記憶媒体にソフトウェアの命令を記憶し、1つまたは複数のプロセッサを使用してその命令をハードウェアで実行して、本開示の技法を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。
[0039]JCT−VCは、HEVC規格の開発に取り組んでいる。HEVC規格化の取り組みは、HEVCテストモデル(HM)と呼ばれるビデオコーディングデバイスの発展的モデルに基づく。HMは、たとえば、ITU−T H.264/AVCに従う既存のデバイスに対してビデオコーディングデバイスのいくつかの追加の能力を仮定する。たとえば、H.264は9つのイントラ予測符号化モードを提供するが、HMは33個もの方向性/角度イントラ予測符号化モードプラスDCモードおよび平面モードを提供することができる。
[0040]一般に、HMの作業モデルは、ビデオフレームまたはピクチャが、ルーマとクロマの両方のサンプルを含む一連のツリーブロックまたは最大コーディングユニット(LCU)に分割され得ることを記載する。ツリーブロックは、H.264規格のマクロブロックと同様の目的を有する。スライスは、コーディング順序でいくつかの連続するツリーブロックを含む。ビデオフレームまたはピクチャは、1つまたは複数のスライスに区分され得る。各ツリーブロックは、4分木に従ってコーディングユニット(CU)に分割され得る。たとえば、4分木のルートノードとしてのツリーブロックは、4つの子ノードに分割され得、各子ノードは、次に、親ノードとなり、別の4つの子ノードに分割され得る。4分木のリーフノードとしての、最終的な、分割されていない子ノードは、コーディングノード、すなわち、コード化ビデオブロックを備える。コード化ビットストリームに関連するシンタックスデータは、ツリーブロックが分割され得る最大回数を定義し得、コーディングノードの最小サイズをも定義し得る。
[0041]CUは、コーディングノードと、コーディングノードに関連する予測ユニット(PU)および変換ユニット(TU)とを含む。CUのサイズは、コーディングノードのサイズに対応し、形状が方形であり得る。CUのサイズは、8×8ピクセルから、最大で64×64ピクセル以上のツリーブロックのサイズにまで及び得る。各CUは、1つまたは複数のPUと1つまたは複数のTUとを含み得る。CUに関連するシンタックスデータは、たとえば、CUを1つまたは複数のPUに区分することを記述し得る。区分モードは、CUが、スキップモード符号化またはダイレクトモード符号化されるか、イントラ予測モード符号化されるか、あるいはインター予測モード符号化されるかによって異なり得る。PUは、形状が非方形になるように区分され得る。CUに関連するシンタックスデータは、たとえば、4分木に従って、CUを1つまたは複数のTUに区分することも記述し得る。TUは、形状が方形または非方形であり得る。
[0042]HEVC規格は、CUごとに異なり得るTUに従う変換を可能にする。TUは、一般に、区分されたLCUについて定義された所与のCU内のPUのサイズに基づいてサイズ決定されるが、常にそうであるとは限らない。TUは、一般にPUと同じサイズであるかまたはPUよりも小さい。いくつかの例では、CUに対応する残差サンプルは、「残差4分木」(RQT:residual quad tree)として知られる4分木構造を使用してより小さいユニットに再分割され得る。RQTのリーフノードは変換ユニット(TU)と呼ばれることがある。TUに関連するピクセル差分値は、変換されて変換係数が生成され得、その変換係数は量子化され得る。
[0043]一般に、PUは、予測プロセスに関連したデータを含む。たとえば、PUがイントラモード符号化されるとき、PUは、PUのイントラ予測モードを記述するデータを含み得る。別の例として、PUがインターモード符号化されるとき、PUは、PUのための動きベクトルを定義するデータを含み得る。PUについての動きベクトルを定義するデータは、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(たとえば、1/4ピクセル精度もしくは1/8ピクセル精度)、動きベクトルが指す参照ピクチャ、および/または動きベクトル用の参照ピクチャリスト(たとえば、RefPicList0(L0)もしくはRefPicList1(L1))を記述し得る。
[0044]TUは、変換プロセスと量子化プロセスとのために使用され得る。1つまたは複数のPUを有する所与のCUは、1つまたは複数の変換ユニット(TU)も含み得る。予測の後に、ビデオエンコーダ20は、PUに対応する残差値を計算し得る。残差値は、エントロピーコーディングのためのシリアル化変換係数(serialized transform coefficient)を生成するために、TUを使用して変換係数に変換され、量子化され、走査され得るピクセル差分値を備える。本開示では、一般に、CUのコーディングノードを指すために「ビデオブロック」という用語を使用する。いくつかの特定の場合において、本開示では、コーディングノードならびにPUおよびTUを含む、ツリーブロック、すなわち、LCUまたはCUを指す「ビデオブロック」という用語も使用し得る。
[0045]たとえば、現在開発中の高効率ビデオコーディング(HEVC)規格に従うビデオコーディングでは、ビデオピクチャがコーディングユニット(CU)と予測ユニット(PU)と変換ユニット(TU)とに区分され得る。CUは、概して、ビデオ圧縮のために様々なコーディングツールが適用される基本ユニットとして働く画像領域を指す。CUは、一般に正方形の形状を有し、たとえば、ITU−T H.264などの他のビデオコーディング規格の下でのいわゆる「マクロブロック」と同様であると見なされ得る。
[0046]より良いコーディング効率を達成するために、CUは、それが含んでいるビデオデータに応じて可変サイズを有し得る。すなわち、CUは、より小さいブロックまたはサブCUに区分または「分割」され得、その各々はCUと呼ばれることもある。さらに、サブCUに分割されない各CUは、それぞれ、CUの予測および変換のために1つまたは複数のPUとTUとにさらに区分され得る。
[0047]PUは、H.264などの他のビデオコーディング規格の下でのいわゆるブロックのパーティションと同様であると見なされ得る。PUは、「残差」係数を生成するためにブロックについての予測が実行されるベースである。CUの残差係数は、CUのビデオデータと、CUの1つまたは複数のPUを使用して判断されたCUについての予測データとの間の差を表す。詳細には、1つまたは複数のPUは、CUが予測のためにどのように区分されるかを指定し、CUの各パーティション内に含まれているビデオデータを予測するためにどの予測モードが使用されるかを指定する。
[0048]CUの1つまたは複数のTUは、CUのための残差変換係数のブロックを生成するために、ブロックにどの変換が適用されるかに基づいて、CUの残差係数のブロックのパーティションを指定する。1つまたは複数のTUはまた、適用される変換のタイプに関連し得る。変換は、残差係数をピクセルまたは空間領域から周波数領域などの変換領域に変換する。さらに、1つまたは複数のTUは、量子化残差変換係数のブロックを生成するために残差変換係数の得られたブロックにどの量子化が適用されるかに基づいてパラメータを指定し得る。残差変換係数は、場合によっては、係数を表すために使用されるデータの量を低減するために量子化され得る。
[0049]CUは、一般に、Yとして示される1つのルミナンス成分とUおよびVとして示される2つのクロミナンス成分とを含む。言い換えれば、サブCUにさらに分割されない所与のCUは、Y成分とU成分とV成分とを含み得、その各々は、前に説明したように、CUの予測および変換のために1つまたは複数のPUとTUとにさらに区分され得る。たとえば、ビデオサンプリングフォーマットに応じて、サンプルの数で表されるU成分およびV成分のサイズは、Y成分のサイズと同じであるかまたはそれとは異なり得る。したがって、予測、変換、および量子化に関して上記で説明した技法は、所与のCUのY成分とU成分とV成分との各々について実行され得る。
[0050]CUを符号化するために、CUの1つまたは複数のPUに基づいて、CUのための1つまたは複数の予測子が最初に導出される。予測子は、CUについての予測データを含んでいる参照ブロックであり、前に説明したように、CUのための対応するPUに基づいて導出される。たとえば、PUは、それについて予測データが判断されるべきCUのパーティションと、予測データを判断するために使用される予測モードとを示す。予測子は、イントラ(I)予測(すなわち、空間的予測)モードまたはインター(PまたはB)予測(すなわち、時間的予測)モードのいずれかを通して導出され得る。したがって、いくつかのCUは、同じフレーム中の隣接参照ブロックまたはCUに対する空間的予測を使用してイントラコーディング(I)され得るが、他のCUは、他のフレーム中の参照ブロックまたはCUに対してインターコーディング(PまたはB)され得る。
[0051]CUの1つまたは複数のPUに基づいて1つまたは複数の予測子を識別するときに、1つまたは複数のPUに対応するCUの元のビデオデータと1つまたは複数の予測子中に含まれているCUについての予測データとの間の差が計算される。予測残差とも呼ばれるこの差は、残差係数を備え、前に説明したように、1つまたは複数のPUと1つまたは複数の予測子とによって指定されたCUの部分間のピクセル差分を指す。残差係数は、概して、1つまたは複数のPUoCUに対応する2次元(2D)アレイで構成される。
[0052]さらなる圧縮を達成するために、予測残差は、概して、たとえば、離散コサイン変換(DCT)、整数変換、カルーネンレーベ(Karhunen-Loeve)(K−L)変換、または別の変換を使用して変換され得る。変換は、同じく前に説明したように、空間領域中の予測残差、すなわち、残差係数を変換領域、たとえば、周波数領域中の残差変換係数に変換する。変換係数はまた、概してCUの1つまたは複数のTUに対応する2Dアレイに配列される。さらなる圧縮のため、残差変換係数は、同じく前に説明したように、場合によっては、係数を表すために使用されるデータの量を低減するために量子化され得る。
[0053]またさらなる圧縮を達成するために、エントロピーコーダは、コンテキスト適応型可変長コーディング(CAVLC:Context Adaptive Variable Length Coding)、コンテキスト適応型バイナリ算術コーディング(CABAC)、確率間隔区分エントロピーコーディング(PIPE:Probability Interval Partitioning Entropy Coding)、または別のエントロピーコーディング方法を使用して、得られた残差変換係数を後で符号化する。エントロピーコーディングは、他のCUと比較して、係数によって表される、CUのビデオデータに固有の統計的冗長を低減または削除することによって、このさらなる圧縮を達成し得る。
[0054]ビデオシーケンスは、一般に、一連のビデオフレームまたはピクチャを含む。ピクチャグループ(GOP)は、一般に、ビデオピクチャのうちの一連の1つまたは複数を備える。GOPは、GOP中に含まれるいくつかのピクチャを記述するシンタックスデータを、GOPのヘッダ中、ピクチャのうちの1つまたは複数のヘッダ中、または他の場所に含み得る。ピクチャの各スライスは、それぞれのスライスのための符号化モードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は、通常、ビデオデータを符号化するために、個々のビデオスライス内のビデオブロックに対して動作する。ビデオブロックはCU内のコーディングノードに対応し得る。ビデオブロックは、サイズを固定することも変更することもでき、指定のコーディング規格に応じてサイズが異なることがある。
[0055]一例として、HMは、様々なPUサイズでの予測をサポートする。特定のCUのサイズが2N×2Nであると仮定すると、HMは、2N×2NまたはN×NのPUサイズでのイントラ予測をサポートし、2N×2N、2N×N、N×2N、またはN×Nの対称的なPUサイズでのインター予測をサポートする。HMはまた、2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズでのインター予測のための非対称区分をサポートする。非対称区分では、CUの一方向は区分されないが、他の方向は25%と75%とに区分される。25%の区分に対応するCUの部分は、「n」とその後ろに付く「Up」、「Down」、「Left」、または「Right」という表示によって示される。したがって、たとえば、「2N×nU」は、上部の2N×0.5N PUと下部の2N×1.5N PUとで水平方向に区分された2N×2N CUを指す。
[0056]本開示では、「N×N(NxN)」および「N×N(N by N)」は、垂直寸法および水平寸法に関するビデオブロックのピクセル寸法、たとえば、16×16(16x16)ピクセルまたは16×16(16 by 16)ピクセルを指すために互換的に使用され得る。一般に、16×16ブロックは、垂直方向に16ピクセルを有し(y=16)、水平方向に16ピクセルを有する(x=16)。同様に、N×Nブロックは、一般に、垂直方向にNピクセルを有し、水平方向にNピクセルを有し、ただし、Nは非負整数値を表す。ブロック中のピクセルは行と列に構成され得る。その上、ブロックは、必ずしも、水平方向において垂直方向と同じ数のピクセルを有する必要があるとは限らない。たとえば、ブロックはN×Mピクセルを備えてよく、ただし、Mは必ずしもNに等しいとは限らない。
[0057]CUのPUを使用するイントラ予測またはインター予測のコーディングに続いて、ビデオエンコーダ20は、CUのTU用の残差データを計算し得る。PUは、(ピクセル領域とも呼ばれる)空間領域においてピクセルデータを備え得、TUは、残差ビデオデータへのある変換、たとえば、離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に同様の変換の適用後に、変換領域において係数を備え得る。残差データは、符号化されていないピクチャのピクセルと、PUに対応する予測値との間のピクセル差分に対応する場合がある。ビデオエンコーダ20は、CUのための残差データを含むTUを形成し、次いで、TUを変換して、CUの変換係数を生成し得る。
[0058]変換係数を生成するための任意の変換の後に、ビデオエンコーダ20は、変換係数の量子化を実行し得る。量子化は、概して、さらなる圧縮を提供する、係数を表すために使用されるデータの量をできるだけ低減するために変換係数を量子化するプロセスを指す。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。たとえば、量子化中にnビット値がmビット値に切り捨てられ得、nはmよりも大きい。
[0059]いくつかの例では、ビデオエンコーダ20は、エントロピー符号化され得るシリアル化ベクトルを生成するために、量子化変換係数を走査するためにあらかじめ定義された走査順序を利用し得る。他の例では、ビデオエンコーダ20は適応走査を実行し得る。量子化変換係数を走査して1次元ベクトルを形成した後に、ビデオエンコーダ20は、たとえば、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディング、または別のエントロピー符号化方法に従って、1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ20はまた、ビデオデータを復号する際にビデオデコーダ30が使用するための符号化ビデオデータに関連するシンタックス要素をエントロピー符号化し得る。
[0060]CABACを実行するために、ビデオエンコーダ20は、送信されるべきシンボルに、コンテキストモデル内のコンテキストを割り当て得る。コンテキストは、たとえば、シンボルの隣接値が非0であるか否かに関係し得る。CAVLCを実行するために、ビデオエンコーダ20は、送信されるべきシンボル用の可変長コードを選択することができる。VLCにおけるコードワードは、比較的短いコードが優勢シンボルに対応し、より長いコードが劣勢シンボルに対応するように構成され得る。このようにして、VLCの使用は、たとえば、送信されるべき各シンボルのために等長コードワードを使用するよりも、ビット節約を達成し得る。確率判断は、シンボルに割り当てられるコンテキストに基づく場合がある。
[0061]ビデオエンコーダ20およびビデオデコーダ30は、本開示の技法に従って構成され得る。たとえば、ビデオエンコーダ20およびビデオデコーダ30は、ピクチャがコーディングされるインスタンスにおいて、各ピクチャの参照ピクチャに対する参照ステータス情報を記憶するように構成され得る。例として、参照ステータス情報は、参照ピクチャが、「短期参照に使用される」、「長期参照に使用される」、または「参照に使用されない」として識別されるかどうかを示す。より詳細に説明するように、ビデオエンコーダ20およびビデオデコーダ30は、後続のピクチャのブロックをインター予測するために、ピクチャがコーディングされたインスタンスにおける、ピクチャの参照ピクチャに対する参照ステータス情報に依存し得る。
[0062]たとえば、ビデオエンコーダ20およびビデオデコーダ30は、現在ピクチャの現在ブロックをインター予測するために、マージ/スキップモードまたは拡張型動きベクトル予測(AMVP)モードを実施するように構成され得る。技法はマージ/スキップモードおよびAMVPモードに関して説明されているが、技法は、マージ/スキップモードおよびAMVPモードだけに適用することに限定されないことを理解されたい。ビデオエンコーダ20およびビデオデコーダ30は、マージ/スキップモードまたはAMVPモードがインター予測のために利用されない例においても、本開示で説明する技法を実施するように構成され得る。
[0063]マージ/スキップモードまたはAMVPモードでは、現在ブロックの実際の動きベクトルに対する情報を、ビデオエンコーダ20は通知せず、ビデオデコーダ30は受信しない。そうではなく、ビデオデコーダ30が現在ブロックの動きベクトルを導出する情報を、ビデオエンコーダ20は通知し、ビデオデコーダ30は受信する。
[0064]たとえば、マージ/スキップモードまたはAMVPモードでは、ビデオエンコーダ20およびビデオデコーダ30は、それぞれ、候補動きベクトル予測子のリストを構築する。動きベクトル予測子は、インター予測されるブロック以外のブロック(すなわち、現在ブロック以外のブロック)に対する動きベクトルである。たとえば、ビデオデコーダ30は、現在ブロックに空間的に隣接するブロック(すなわち、現在ブロックに隣接する現在ピクチャ内のブロック)が、インター予測されるかどうか、および候補動きベクトル予測子のリスト内に空間的に隣接するブロックの1つまたは複数の動きベクトルを含むかどうかを判断し得る。
[0065]別の例として、ビデオデコーダ30は、現在ブロックに時間的に隣接するブロック(すなわち、現在ピクチャ以外のピクチャ内のブロック)が、インター予測されるかどうか、および候補動きベクトル予測子のリスト内に時間的に隣接するブロックに対する1つまたは複数の動きベクトルを含むかどうかを判断し得る。時間的ピクチャは、現在ピクチャがコーディングまたは表示される時間と異なる時間においてコーディングまたは表示されるので、時間的隣接ブロックを含むピクチャは、時間的ピクチャと呼ばれる。たとえば、時間的ピクチャは、現在ピクチャより前にコーディングされるピクチャであるが、現在ピクチャより前にまたは後で表示されることがある。
[0066]いくつかのマルチビューコーディング技法では、時間的ピクチャは、現在ブロックを含むピクチャと異なるビュー内のピクチャであることがある。この例では、時間的ピクチャおよび現在ピクチャは、同時に表示されることがある。しかしながら、異なるビュー内のピクチャは、現在ピクチャがコーディングされる時間と異なる時間においてコーディングされることがある。したがって、時間的ピクチャは、現在ピクチャと同じビュー内のピクチャであってよく、または現在ピクチャと異なるビュー内のピクチャであってもよい。いずれの例においても、時間的ピクチャは、現在ピクチャと異なる(すなわち、予測されるべき現在ブロックを含むピクチャと異なる)ピクチャである。
[0067]いくつかの例では、時間的隣接ブロックは、現在ブロックが現在ピクチャ内で包含する時間的ピクチャ内のエリアと同じエリアを包含し得る。この例では、時間的隣接ブロックは、現在ブロックとコロケートされていると見なされ得る。
[0068]いくつかの例では、時間的隣接ブロックは、現在ブロックが時間的ピクチャ内に位置する場所の右下に位置することがある。たとえば、ビデオエンコーダ20およびビデオデコーダ30は、現在ブロックの右下に位置する現在ピクチャ内のブロックのロケーションを決定し得る。ビデオエンコーダ20およびビデオデコーダ30は、時間的ピクチャ内のブロックを識別するために、現在ピクチャ内の右下のブロックの決定されたロケーション情報を利用し得る。時間的ピクチャ内のこの識別されたブロックは、時間的隣接ブロックの別の例である。
[0069]現在ブロックに対する動きベクトル予測子を形成する空間的隣接ブロックに対する動きベクトルは、空間的動きベクトル予測子(SMVP)と呼ばれることがある。現在ブロックに対する1つまたは複数の動きベクトル予測子を形成する時間的隣接ブロックに対する1つまたは複数の動きベクトルは、1つまたは複数の時間的動きベクトル予測子(1つまたは複数のTMVP)と呼ばれることがある。したがって、ビデオデコーダ30は、SMVPおよび/またはTMVPを含む候補動きベクトル予測子のリストを構築し得る。ビデオエンコーダ20は、ソースデバイス12の側に候補動きベクトル予測子のリストを同様に構築するために、類似の技法を利用し得る。
[0070]ビデオエンコーダ20は、候補動きベクトル予測子のリストにインデックスを通知し得、ビデオデコーダ30は、候補動きベクトル予測子のリストに通知されたインデックスに基づいて、1つまたは複数の動きベクトル予測子を選択し得る。ビデオデコーダ30は、現在ブロックに対する1つまたは複数の動きベクトルを導出するために、1つまたは複数の動きベクトル予測子を利用する。
[0071]たとえば、マージ/スキップモードでは、ビデオデコーダ30は、選択された1つまたは複数の動きベクトル予測子に等しい現在ブロックの1つまたは複数の動きベクトルを設定する。AMVPモードにおいて、候補動きベクトル予測子のリストにインデックス値を通知することに加えて、ビデオエンコーダ20はまた、選択された1つまたは複数の動きベクトル予測子と現在ブロックの実際の1つまたは複数の動きベクトルとの間の動きベクトル差分(MVD)を通知し得る。この例では、ビデオデコーダ30は、MVDを受信し、MVDと選択された1つまたは複数の動きベクトル予測子とに基づいて現在ブロックの1つまたは複数の動きベクトルを判断することができる。
[0072]いくつかの例では、マージ/スキップモードまたはAMVPモードを実施するために、ビデオエンコーダ20およびビデオデコーダ30は、ピクチャがコーディングされたインスタンスにおける、ピクチャの参照ピクチャの参照ステータスを判断することを必要とすることがある。たとえば、TMVPを利用するために、ビデオエンコーダ20およびビデオデコーダ30は、時間的ピクチャの参照ピクチャの参照ステータスを判断することを必要とすることがある。
[0073]たとえば、時間的ピクチャをコーディングするとき、ビデオエンコーダ20およびビデオデコーダ30は、それぞれ、1つまたは2つの参照ピクチャリスト(すなわち、時間的ピクチャに対するRefPicList0および時間的ピクチャに対するRefPicList1)を構築していることがある。時間的ピクチャに対するRefPicList0およびRefPicList1は、時間的隣接ブロックをインター予測するために使用される参照ピクチャを含む、時間的ピクチャのブロックをインター予測するために使用され得る参照ピクチャを識別する。時間的隣接ブロックが単予測される(uni-predicted)(すなわち、1つの動きベクトルを用いて予測される)場合、時間的隣接ブロックに対する動きベクトルは、RefPicList0内の参照ピクチャまたはRefPicList1内の参照ピクチャを指すことがある。時間的隣接ブロックが双予測される(bi-predicted)(すなわち、2つの動きベクトルを用いて予測される)場合、時間的隣接ブロックに対する第1の動きベクトルはRefPicList0内の参照ピクチャを指し、時間的隣接ブロックに対する第2の動きベクトルはRefPicList1内の参照ピクチャを指すことがある。
[0074]ビデオエンコーダ20およびビデオデコーダ30が、時間的隣接ブロックに対する1つまたは複数の動きベクトルが現在ブロックに対する候補動きベクトル予測子のリストに含まれるべきであると判断するか、または時間的隣接ブロックに対する1つまたは複数の動きベクトルが現在ブロックの1つまたは複数の動きベクトルを導出するために使用されるべきであると判断する場合、ビデオエンコーダ20およびビデオデコーダ30は、時間的ピクチャがコーディングされたインスタンスにおける、時間的隣接ブロックの1つまたは複数の動きベクトルが参照した1つまたは複数の参照ピクチャの参照ステータスを判断することを必要とすることがある。たとえば、時間的隣接ブロックが、時間的ピクチャのRefPicList0内の第3のピクチャを指す動きベクトルを用いて単予測されると仮定する。この例では、ビデオエンコーダ20およびビデオデコーダ30は、ビデオエンコーダ20およびビデオデコーダ30が時間的ピクチャをコーディングしたインスタンスにおける、時間的ピクチャのRefPicList0内の第3のピクチャの参照ステータスを判断することを必要とすることがある。
[0075]たとえば、HEVC WD9は、従属節8.5.3.1において、関数LongTermRefPicを定義している。HEVC WD9は、従属節8.5.3.1において下記のように述べている。
[0076]Xが0または1のいずれかである関数LongTermRefPic(picX、refIdx、LX)は、次のように定義される。picXが現在ピクチャであった時点で、ピクチャpicXの参照ピクチャリストLXからのインデックスrefIdxを伴うピクチャが「長期参照に使用される」と標識された場合、LongTermRefPic(picX,refIdx,LX)は1に等しく、それ以外の場合、LongTermRefPic(picX,refIdx,LX)は0に等しい。
[0077]前の例(たとえば、時間的隣接ブロックが、時間的ピクチャのRefPicList0内の第3のピクチャを指す動きベクトルを用いて単予測される)に従って、現在ピクチャ内の現在ブロックに対するLongTermRefPic関数を実施するために、picXは時間的ピクチャに等しく、refIdxは(第1の参照ピクチャに対するインデックスが0であると仮定して)2に等しく、LXはRefPicList0に等しい。言い換えれば、この例では、LongTermRefPic関数はLongTermRefPic(時間的ピクチャ、2、RefPicList0)と見なされ得る。この例では、時間的ピクチャに対するRefPicList0内の第3のピクチャが、ビデオエンコーダ20およびビデオデコーダ30が時間的ピクチャをコーディングしたインスタンスにおいて「長期参照に使用される」と識別されていた場合、LongTermRefPic関数は1に等しい。同じく、この例では、時間的ピクチャに対するRefPicList0内の第3のピクチャが、ビデオエンコーダ20およびビデオデコーダ30が時間的ピクチャをコーディングしたインスタンスにおいて「長期参照に使用される」と識別されていなかった場合、LongTermRefPic関数は0に等しい。
[0078]上記の例によれば、LongTermRefPic関数は、時間的ピクチャがコーディングされたインスタンスにおける(すなわち、HEVC WD9において記述される「picXが現在ピクチャであった時点における」)時間的ピクチャの参照ピクチャの参照ステータスに基づく。時間的ピクチャがコーディングされたインスタンスにおける時間的ピクチャの参照ピクチャの参照ステータスが失われた場合、ビデオエンコーダ20およびビデオデコーダ30は、HEVC規格の要件に準拠することはできないことがある。たとえば、時間的ピクチャがコーディングされたインスタンスにおける時間的ピクチャの参照ピクチャの参照ステータスが失われた場合、ビデオエンコーダ20およびビデオデコーダ30は、LongTermRefPic関数を実施することはできないことがある。
[0079]HEVC WD9におけるLongTermRefPic関数の記述は、例示のために提供されているにすぎなく、限定するものと見なされるべきではないことを理解されたい。本開示で説明する技法は、LongTermRefPic関数以外の目的に適用可能であるとともに、HEVC規格以外の規格に対しても適用可能である。
[0080]本開示で説明する技法によれば、ビデオエンコーダ20およびビデオデコーダ30は、ピクチャがコーディングされるインスタンスにおいて各ピクチャの参照ピクチャに対する参照ステータス情報を記憶する。このようにして、ピクチャのブロックの1つまたは複数の動きベクトルが、現在ピクチャの現在ブロックに対する1つまたは複数のTMVPとして後で利用される場合、ピクチャの参照ピクチャに対する参照ステータス情報が利用可能である。
[0081]ビデオエンコーダ20およびビデオデコーダ30が、ピクチャの参照ピクチャに対する参照ステータス情報を記憶し得る様々な方法が存在し得る。一例として、ビデオエンコーダ20およびビデオデコーダ30は、ピクチャの参照ピクチャリストの各々に対するフラグのリストを記憶し得る。参照ピクチャが、ピクチャがコーディングされるインスタンスにおいて「長期参照に使用される」と識別される場合、フラグの値は1であり得る。参照ピクチャが、ピクチャがコーディングされるインスタンスにおいて「長期参照に使用される」と識別されない場合、フラグの値は0であり得る。
[0082]たとえば、ビデオエンコーダ20およびビデオデコーダ30は、それぞれ、RefPicListXに対してusedForLongTermXと呼ばれるフラグのリストを維持することができ、ここでXは0または1に等しい。たとえば、ピクチャをコーディングするために、ビデオエンコーダ20およびビデオデコーダ30は、それぞれ、ピクチャに対するRefPicList0および/またはピクチャに対するRefPicList1を構築し得る。この例では、usedForLongTerm0は、「長期参照に使用される」と識別されるRefPicList0内の参照ピクチャに対して1のフラグ値を含み得、「長期参照に使用される」と識別されないRefPicList0内の参照ピクチャに対して0のフラグ値を含み得る。同様に、usedForLongTerm1は、「長期参照に使用される」と識別されるRefPicList1内の参照ピクチャに対して1のフラグ値を含み得、「長期参照に使用される」と識別されないRefPicList1内の参照ピクチャに対して0のフラグ値を含み得る。
[0083]言い換えれば、ビデオエンコーダ20およびビデオデコーダ30がピクチャに対してRefPicListXを構築した後、ビデオエンコーダ20およびビデオデコーダ30は、RefPicListX[i]と識別されたピクチャが「長期参照に使用される」と標識されている場合は、usedForLongTermX[i]の値を1に等しく設定し、そうでない場合は0に等しく設定し得る。いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、それぞれの復号されたピクチャバッファ(DPB)にフラグのusedForLongTermXリストを記憶し得るが、ビデオエンコーダ20およびビデオデコーダ30がそれぞれのDPB以外のロケーションにフラグのusedForLongTermXリストを記憶することも可能である。概して、フラグのusedForLongTermXリストは、それぞれのDPB内の各ピクチャに対する参照ピクチャリストの各々に対して利用可能であり得る。
[0084]ビデオエンコーダ20のDPBおよびビデオデコーダ30のDPBは、復号されたピクチャ、ならびに復号されたピクチャに関連する情報を記憶し得る。たとえば、ピクチャの符号化プロセスの一部として、ビデオエンコーダ20は、ピクチャの符号化されたブロックを復号し、ビデオエンコーダ20が後続のピクチャをインター予測するために復号されたピクチャを利用できるようにビデオエンコーダ20のDPB内に復号されたピクチャを記憶する。ビデオデコーダ30は、ピクチャを復号し、ビデオデコーダ30が後続のピクチャをインター予測するために復号されたピクチャを利用できるようにそのDPB内に復号されたピクチャを記憶することができる。したがって、ビデオエンコーダ20のDPBおよびビデオデコーダ30のDPBは、ピクチャがコーディングされる(すなわち、場合に応じて符号化されるかまたは復号される)インスタンスにおいて、ピクチャの参照ピクチャに対する参照ステータス情報を記憶するのに好適なロケーションであり得る。
[0085]本開示で説明する技法では、ビデオエンコーダ20およびビデオデコーダ30は、ピクチャがコーディングされるインスタンスにおける、ピクチャに対して記憶された参照ステータス情報を使用してLongTermRefPic関数を実施し得る。たとえば、LongTermRefPic(picX、refIdx、LX)は、picXのusedForLongTermX[refIdx]の値を返す。たとえば、ビデオエンコーダ20およびビデオデコーダ30は、usedForLongTermX[refIdx]に記憶された値に基づいて、ピクチャがコーディングされたインスタンスにおける参照ピクチャのピクチャの参照ステータスを判断し得る。
[0086]一例として、picXが、時間的隣接ブロックを含む時間的ピクチャであり、時間的隣接ブロックの1つまたは複数の動きベクトルが、現在ブロックの1つまたは複数の動きベクトルを判断するために使用されると仮定する。同じく、時間的隣接ブロックが、時間的ピクチャのRefPicList0内の第2の参照ピクチャ(すなわち、RefPicList0に対するrefIdxが1)を指す1つの動きベクトルと、時間的ピクチャのRefPicList1内の第4の参照ピクチャ(すなわち、RefPicList1に対するrefIdxが3)を指す別の動きベクトルとを用いて双予測されると仮定する。この例では、LongTermRefPic(時間的ピクチャ、1、RefPicList0)関数を実施するために、ビデオエンコーダ20およびビデオデコーダ30は、時間的ピクチャに対するusedForLongTerm0[1]に記憶された値を判断する。LongTermRefPic(時間的ピクチャ、3、RefPicList1)関数を実施するために、ビデオエンコーダ20およびビデオデコーダ30は、時間的ピクチャに対するusedForLongTerm1[3]に記憶された値を判断する。このようにして、ビデオエンコーダ20およびビデオデコーダ30は、現在ピクチャをコーディングするときに、時間的ピクチャがコーディングされたインスタンスにおける時間的ピクチャの参照ピクチャの参照ステータスを判断することができる。
[0087]ピクチャがコーディングされるインスタンスにおける、ピクチャの参照ピクチャの参照ステータス情報は、ビデオエンコーダ20およびビデオデコーダ30が場合によっては実行し得るピクチャの一般的ステータス標識(general status marking)と混同されるべきではない。たとえば、ビデオエンコーダ20およびビデオデコーダ30は、「長期参照に使用される」、「短期参照に使用される」、または「参照に使用されない」としてピクチャを指定する(すなわち、標識する)ことと、それぞれのDPBにそのような指定を記憶することとを行うように、すでに構成されていることがある。これらのピクチャの指定は変わることがある。たとえば、DPBに現在記憶されているピクチャは、「短期参照に使用される」として標識されているが、「長期参照に使用される」に変わることがある。この場合、ビデオエンコーダ20およびビデオデコーダ30は、それぞれのDPB内にピクチャの指定「長期参照に使用される」を記憶することがある。
[0088]「長期参照に使用される」、「短期参照に使用される」、または「参照に使用されない」としてのピクチャの標識は、ピクチャの現在のステータスを示し得る。しかしながら、ピクチャの現在のステータスは、ピクチャの前のステータスに関する情報を与えず、ましてピクチャが参照ピクチャとして使用されたときのピクチャのステータスを与えない。
[0089]上記で説明したように、一例としてフラグのusedForLongTermXリストは、参照ピクチャがピクチャをインター予測するために使用されたときの参照ピクチャのステータスを記憶し得る。このようにして、各ピクチャに関連するフラグのusedForLongTermXリストが存在し得る。たとえば、第1のピクチャのコーディングの間、ビデオエンコーダ20およびビデオデコーダ30は、第1のピクチャに関連するフラグのusedForLongTerm0リストおよび/またはusedForLongTerm1リストを記憶し得る。第2のピクチャのコーディングの間、ビデオエンコーダ20およびビデオデコーダ30は、第2のピクチャに関連するフラグのusedForLongTerm0リストおよび/またはusedForLongTerm1リストを記憶し得、以下同様である。
[0090]第1のピクチャに関連するフラグのusedForLongTerm0リストおよび/またはusedForLongTerm1リストは、第2のピクチャに関連するフラグのusedForLongTerm0リストおよび/またはusedForLongTerm1リストと異なることがある。たとえば、第1のピクチャおよび第2のピクチャが、インター予測のために同じ参照ピクチャのうちの1つまたは複数を使用した場合でも、第1のピクチャと第2のピクチャの両方によって使用された参照ピクチャに対する参照ステータスは、ビデオエンコーダ20およびビデオデコーダ30が第1のピクチャをコーディングしたときからビデオエンコーダ20およびビデオデコーダ30が第2のピクチャをコーディングしたときまでに変わっていることが起こりうる。ピクチャに対するフラグのusedForLongTerm0リストおよび/またはusedForLongTerm1リストは、そのピクチャに対して一意であり、ビデオエンコーダ20およびビデオデコーダ30は、コーディングされる各ピクチャに対するフラグのusedForLongTerm0リストおよび/またはusedForLongTerm1リストを記憶し得る。
[0091]したがって、本開示で説明する技法では、ビデオエンコーダ20およびビデオデコーダ30は、ピクチャの現在のステータスだけでなく、そのピクチャが、別のピクチャがコーディングされたインスタンスにおいて別のピクチャに対する参照ピクチャであったときの、そのピクチャのステータスをも記憶するように構成され得る。1つまたは複数のTMVPを使用するようないくつかの場合には、現在ブロックをコーディングすることは、時間的隣接ブロックに対する参照ピクチャであったピクチャの現在のステータスに依存すべきではない。そうではなく、そのピクチャが時間的隣接ブロックに対する参照ピクチャとして機能したときのピクチャのステータスは、適切であり得る。本開示で説明する技法は、時間的ピクチャがコーディングされたインスタンスにおける、時間的ピクチャの参照ピクチャに対する参照ステータス情報を、ビデオエンコーダ20およびビデオデコーダ30が記憶することを可能にする。
[0092]上記で説明したように、1つまたは複数のTMVPは、時間的隣接ブロックの1つまたは複数の動きベクトルである。いくつかの例では、時間的隣接ブロックの1つまたは複数の動きベクトルは、時間的ピクチャおよび現在ピクチャと同じビュー内の1つまたは複数のピクチャを指すことができる。しかしながら、本開示で説明する技法は、そのように限定されない。
[0093]本開示で説明する技法は、マルチビューコーディングに拡張され得る。マルチビューコーディングでは、各々がピクチャを含む複数のビューが存在する。たとえば、第1のビューはピクチャの第1のセットを含み、第2のビューはピクチャの第2のセットを含むことができる。第1および第2のビューより多いビューが存在してもよい。ピクチャの第1のセットおよびピクチャの第2のセットは、実質的に類似するが水平視差を有するビデオコンテンツを含み得る。ビューアがピクチャの第1と第2の両方セットを同時に見るとき、ビューアは、ディスプレイデバイス32の2Dエリアに制約されるのではなく、3Dの体積を包含する3Dビデオを知覚する。
[0094]非マルチビューコーディングでは、1つのみのビューが存在し得る。これらの例では、時間的隣接ブロックの1つまたは複数の動きベクトルは、時間的ピクチャと同じビュー内のピクチャを指すことができる。しかしながら、マルチビューコーディングでは、時間的隣接ブロックの1つまたは複数の動きベクトルは、時間的ピクチャを含むビューとは別のビュー内のピクチャを指すことができる。たとえば、マルチビューコーディングでは、時間的ピクチャおよび現在ピクチャは同じビュー内にあり得るが、時間的ピクチャに対する1つまたは複数の動きベクトルは、時間的ピクチャと現在ピクチャとを含むビュー以外のビュー内のピクチャを指す。
[0095]別のビュー内のピクチャを指す動きベクトルは、視差動きベクトルと呼ばれることがある。したがって、時間的隣接ブロックの1つまたは複数の動きベクトルが別のビュー内のピクチャを指す例では、1つまたは複数のTMVPは、1つまたは複数の視差動きベクトルであり得る。
[0096]いくつかの例では、マルチビューコーディングは、現在ビューにおいて現在ピクチャ内のブロックをインター予測するために使用される他のビュー内のピクチャが現在ピクチャと同時に表示されることを必要とすることがある。たとえば、現在ピクチャおよび時間的ピクチャが現在ビューのピクチャであると仮定する。同じく、時間的ピクチャに対する動きベクトルが別のビュー内のピクチャを指すと仮定する。この例では、マルチビューコーディングは、時間的ピクチャおよび他のビュー内のピクチャが同時に表示されることを必要とすることがある。
[0097]ピクチャが表示される時点は、ピクチャのピクチャ順序カウント(POC)値によって定義され得る。たとえば、より小さいPOC値を有するピクチャは、より大きいPOC値を有するピクチャよりも早く表示され得る。ピクチャの表示時間は、ピクチャのコーディング時間と混同されるべきではない。たとえば、より小さいPOC値を有するピクチャは、より大きいPOC値を有するピクチャより早く表示され得るが、より小さいPOCを有するピクチャは、より大きいPOC値を有するピクチャがコーディングされるときより後でコーディングされることがある。
[0098]マルチビューコーディングでは、同時に表示されるべき異なるビュー内のピクチャが、同じPOC値を割り当てられ得る。たとえば、時間的ピクチャのPOC値と、時間的隣接ブロックの1つまたは複数の動きベクトルが参照する他のビュー内のピクチャのPOC値とは、同じであり得る。同じく、マルチビューコーディングでは、第1のビュー内のピクチャがインター予測のために第2のビュー内のピクチャを利用するとき、第2のビュー内のピクチャは、第1のビュー内のピクチャがコーディングされるインスタンスにおける「長期参照に使用される」と見なされ得る。
[0099]本開示で説明する技法では、ビデオエンコーダ20およびビデオデコーダ30がピクチャに対するRefPicList0および/またはRefPicList1を構築するとき、ビデオエンコーダ20およびビデオデコーダ30は、参照ピクチャリストのいずれかまたは両方の中の異なるビューからのピクチャを含み得る。たとえば、RefPicList0およびRefPicList1は、参照ピクチャのPOC値を識別し得る。RefPicList0またはRefPicList1内で識別された参照ピクチャに対するPOC値が、コーディングされるピクチャのPOC値と異なる場合、参照ピクチャは、ピクチャがコーディングされるビューと同じビューに属する。RefPicList0またはRefPicList1内で識別された参照ピクチャに対するPOC値が、コーディングされるピクチャのPOC値と同じである場合、参照ピクチャは、ピクチャがコーディングされるビューと異なるビューに属する。
[0100]上記で説明したように、ピクチャがコーディングされるビューと異なるビューに属する参照ピクチャは、ピクチャがコーディングされるインスタンスにおいて「長期参照に使用される」として指定され得る。いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、RefPicListX[i]によって識別されたピクチャがコーディングされるピクチャと同じPOC値を有する場合、1に等しいusedForLongTermX[i]の値を設定し得る。これらの例では、ビデオエンコーダ20およびビデオデコーダ30は、RefPicListX[i]によって識別されたピクチャがコーディングされるピクチャと同じPOC値を有さない場合、0に等しいusedForLongTermX[i]の値を設定し得る。
[0101]たとえば、いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、ピクチャをコーディングするとき、RefPicListX[i]によって識別された参照ピクチャが「長期参照に使用される」として指定される場合、1に等しいusedForLongTermX[i]の値を設定し得、そうでない場合、0に等しいusedForLongTermX[i]の値を設定し得る。これらの例は、マルチビューコーディングと非マルチビューコーディングの両方に適用され得る。
[0102]いくつかの代替例では、ビデオエンコーダ20およびビデオデコーダ30は、ピクチャをコーディングするとき、RefPicListX[i]によって識別された参照ピクチャがコーディングされるピクチャと同じPOC値を有する場合、1に等しいusedForLongTermX[i]の値を設定し得、そうでない場合、0に等しいusedForLongTermX[i]の値を設定し得る。これらの代替例では、RefPicListX[i]によって識別された参照ピクチャが「長期参照に使用される」として指定されるが、コーディングされるピクチャと同じPOC値を有さない場合、ビデオエンコーダ20およびビデオデコーダ30は、0に等しいusedForLongTermX[i]の値を設定し得る。たとえば、これらの代替例では、ピクチャがコーディングされているときに参照ピクチャが「長期参照に使用される」として指定される場合でも、ビデオエンコーダ20およびビデオデコーダ30は、参照ピクチャのPOC値がコーディングされるピクチャのPOC値と異なる場合、参照ピクチャに対応するusedForLongTermXのエントリを0に等しく設定し得る。これらの代替例は、マルチビューコーディングに対してより適用可能であるが、非マルチビューコーディングにも有用であり得る。
[0103]言い換えれば、いくつかの例では、usedForLongTermX[i]の値は、RefPicListX[i]によって識別された参照ピクチャが「長期参照に使用される」と標識されているか、または「長期参照に使用される」と標識されていないかに基づく。いくつかの代替例では、usedForLongTermX[i]の値は、RefPicListX[i]によって識別された参照ピクチャがコーディングされるピクチャと同じPOC値を有するか、またはコーディングされるピクチャと同じPOC値を有さないかに基づく。いずれの例においても、ビデオエンコーダ20およびビデオデコーダ30は、そのピクチャに関連するフラグのusedForLongTermXリストの値に基づいてピクチャに対するLongTermRefPic関数を実施し得る。
[0104]上記で説明したように、いくつかの例では、(1つの非限定的な例として)HEVC規格の要件に準拠するために、技法は、時間的ピクチャがコーディングされたインスタンスにおける時間的ピクチャの参照ピクチャのステータス情報を、ビデオエンコーダ20およびビデオデコーダ30が判断することを可能にする。下記は、ビデオエンコーダ20およびビデオデコーダ30が、時間的ピクチャがコーディングされたインスタンスにおける、時間的ピクチャの参照ピクチャのステータス情報を判断し得る理由の一例を、以下で説明する。この説明は例示の目的で提供されているにすぎず、限定的と見なされるべきでないことを理解されたい。やはり、本開示で説明する技法は、HEVC規格に限定されず、またはマージモードもしくはAMVPモードに限定されない。
[0105]マージモードまたはAMVPモードの間、ビデオエンコーダ20およびビデオデコーダ30が、マージ候補リストまたはAMVP候補リスト内に空間的候補動きベクトルまたは時間的候補動きベクトル(すなわち、SMVPまたはTMVP)を含むかどうかを判断するとき、ビデオエンコーダ20およびビデオデコーダ30は、ターゲット参照ピクチャ(たとえば、時間的ピクチャの参照ピクチャ)の長期または短期のステータスと、候補動きベクトルの参照ピクチャ(たとえば、時間的ピクチャの参照ピクチャ)の長期または短期のステータスとを比較し得る。いくつかの場合には、これらのピクチャの両方のステータスが(時間的ピクチャのコーディングの時点において)同じであるときだけ、候補動きベクトルが候補リストに追加される。そのようなプロセスが必要とされ、同じプロセスが、ビデオエンコーダ20とビデオデコーダ30の両方に対して存在し得る。
[0106]本開示で説明する技法によれば、時間的候補動きベクトルが参照する参照ピクチャ(たとえば、時間的ピクチャの参照ピクチャ)のステータスにアクセスするために、picXのusedForLongTermX[refIdx]が使用され得、ここにおいてpicXはコロケートされたピクチャ(たとえば、時間的ピクチャ)である。たとえば、picXのusedForLongTermX[refIdx]が1である場合、それは、picXのRefPicListXのrefIdxを有する参照ピクチャが長期参照ピクチャであり、そうでない場合は短期参照ピクチャであることを意味する。この例では、RefPicListXのrefIdxを有する参照ピクチャは、picXに対する参照ピクチャであり、picXは時間的ピクチャを指す。時間的ピクチャは、時間的隣接ブロックを含み、時間的隣接ブロックの動きベクトル情報は、潜在的に、現在ブロックに対する動きベクトル情報を判断するために使用され得る。
[0107]このようにして、ビデオコーダ(たとえば、ビデオエンコーダ20またはビデオデコーダ30)は、技法を実施するように構成され得る。たとえば、ビデオコーダは、第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶し得、ここで参照ステータス情報は、第1のピクチャがコーディングされるインスタンスにおける1つまたは複数の参照ピクチャの参照ステータス情報を示す。ビデオコーダは、第1のピクチャの1つまたは複数の参照ピクチャの、第1のピクチャがコーディングされたインスタンスにおける記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングし得る。いくつかの例では、第1のピクチャがコーディングされるインスタンスにおける、1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスは、第2のピクチャがコーディングされるインスタンスにおける、参照ピクチャの参照ステータスとは異なる。
[0108]ビデオコーダは、第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築し得る。ビデオコーダは、少なくとも1つの参照ピクチャリスト内で識別された参照ピクチャの各々に対する参照ステータス情報を記憶し得る。たとえば、ビデオコーダは、第1のピクチャに対するフラグのusedForLongTermXリストを記憶し得る。いくつかの例では、フラグのusedForLongTermXリストは、参照ピクチャが「長期参照に使用される」として指定されるか、または「長期参照に使用される」として指定されないかを示す第1のピクチャの参照ピクチャのうちの1つの参照ピクチャに対する値を記憶し得る。いくつかの例では、フラグのusedForLongTermXリストは、参照ピクチャのピクチャ順序カウント(POC)値が第1のピクチャのPOC値と同じPOC値であるか、または参照ピクチャのPOC値が第1のピクチャのPOC値と異なるかを示す第2のピクチャの参照ピクチャのうちの1つの参照ピクチャに対する値を記憶し得る。
[0109]いくつかの例では、ビデオコーダは、第2のピクチャ内のビデオブロックに対する動きベクトルが、第1のピクチャ内のビデオブロックの動きベクトルから導出されるべきである(たとえば、TMVPがマージ/スキップモードまたはAMVPモードにおいて使用されるべきである)かどうかを判断し得る。第2のピクチャ内のビデオブロックに対する動きベクトルが、第1のピクチャ内のビデオブロックの動きベクトルから導出されるべきであるとき、ビデオコーダは、第1のピクチャ内のビデオブロックの動きベクトルが参照する、第1のピクチャの1つまたは複数の参照ピクチャのうちの1つの参照ピクチャを判断し得る。ビデオコーダは、記憶された参照ステータス情報に基づいて、第1のピクチャがコーディングされるインスタンスにおける、判断された参照ピクチャの参照ステータスを判断し得る。これらの例では、ビデオコーダは、判断された参照ステータスに基づいて第2のピクチャ内のビデオブロックをコーディングする(たとえば、符号化または復号する)ことができる。
[0110]図2は、本開示で説明する技法を実装し得る例示的なビデオエンコーダ20を示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングおよびインターコーディング(すなわち、イントラ予測またはインター予測)を実行し得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオの空間的冗長性を低減または除去するために空間的予測に依拠する。インターコーディングは、ビデオシーケンスの隣接フレームまたはピクチャ内のビデオの時間的冗長性を低減または除去するために時間的予測に依拠する。イントラモード(Iモード)は、いくつかの空間ベースの圧縮モードのいずれかを指し得る。単方向予測(Pモード)または双予測(Bモード)などのインターモードは、いくつかの時間ベースの圧縮モードのいずれかを指し得る。
[0111]図2に示すように、ビデオエンコーダ20は、符号化されるべきビデオピクチャ内の現在ビデオブロックを受信する。図2の例では、ビデオエンコーダ20は、モード選択ユニット40と、参照ピクチャメモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56とを含む。モード選択ユニット40は、同様に、動き推定ユニット42と、動き補償ユニット44と、イントラ予測ユニット46と、パーティションユニット48とを含む。ビデオブロック復元のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。ブロック境界をフィルタ処理して、復元されたビデオからブロッキネスアーティファクトを除去するデブロッキングフィルタ(図2に図示せず)も含むことができる。必要な場合、デブロッキングフィルタは、通常、加算器62の出力をフィルタ処理することになる。デブロッキングフィルタに加えて、(ループ内またはループ後の)追加フィルタも使用することができる。そのようなフィルタは、簡潔のために示されていないが、所望される場合、(ループ内フィルタとして)加算器50の出力をフィルタ処理し得る。
[0112]いくつかの例では、モード選択ユニット40またはビデオエンコーダ20の他のユニットと関連するモード選択ユニット40は、本開示で説明する技法を実装し得る。たとえば、モード選択ユニット40は、ビデオエンコーダ20が第1のピクチャを符号化したインスタンスにおける、第1のピクチャの参照ピクチャに対する参照ステータス情報を記憶し得る。モード選択ユニット40は、ビデオエンコーダ20が第1のピクチャを符号化したインスタンスにおける、第1のピクチャの参照ピクチャに対する参照ステータス情報に基づいて、第2のピクチャのブロックをインター予測し得る。
[0113]一例として、第2のピクチャ内のブロックをインター予測するために、モード選択ユニット40は、第2のピクチャ内のブロックの動きベクトルが第1のピクチャ内のブロックの動きベクトルから判断されるべきであると判断し得る。この例では、モード選択ユニット40は、第2のピクチャ内のブロックの動きベクトルを判断するために、第2のピクチャの参照ピクチャに対する参照ステータス情報を利用し得る。モード選択ユニット40は、参照ピクチャメモリ64に、第1のピクチャがコーディングされるインスタンスにおいて第1のピクチャの参照ピクチャの参照ステータス情報を記憶し得る。参照ピクチャメモリ64は、ビデオエンコーダ20の復号ピクチャバッファ(DPB)の一例である。
[0114]本開示の態様は、本開示で説明する技法を実装するモード選択ユニット40に限定されない。いくつかの例では、プロセッサまたは処理ユニット(具体的に示されていない)が、本開示において説明する技法を実装してもよい。同じく、参照ピクチャメモリ64以外のバッファが、ピクチャの参照ピクチャの参照ステータス情報を記憶してもよい。
[0115]符号化プロセス中に、ビデオエンコーダ20は、コーディングされるべきビデオピクチャまたはスライスを受信する。ピクチャまたはスライスは複数のビデオブロックに分割され得る。動き推定ユニット42および動き補償ユニット44は、時間圧縮を行うために、1つまたは複数の参照ピクチャ中の1つまたは複数のブロックに対する受信したビデオブロックのインター予測コーディングを実施する。イントラ予測ユニット46は、代替的に、空間圧縮を行うために、コーディングされるべきブロックと同じピクチャまたはスライス中の1つまたは複数の隣接ブロックに対する受信したビデオブロックのイントラ予測コーディングを実施し得る。ビデオエンコーダ20は、たとえば、ビデオデータのブロックごとに適切なコーディングモードを選択するために、複数のコーディングパスを実行し得る。
[0116]その上、パーティションユニット48は、前のコーディングパスにおける前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。たとえば、パーティションユニット48は、初めにピクチャまたはスライスをLCUに区分し、レートひずみ分析(たとえば、レートひずみ最適化)に基づいてLCUの各々をサブCUに区分し得る。モード選択ユニット40は、LCUをサブCUに区分することを示す4分木データ構造をさらに生成し得る。4分木のリーフノードCUは、1つまたは複数のPUおよび1つまたは複数のTUを含み得る。
[0117]モード選択ユニット40は、たとえば、誤り結果に基づいて、複数のコーディングモード、すなわちイントラまたはインターのうちの1つを選択して、得られたイントラコード化ブロックまたはインターコード化ブロックを、残差ブロックデータを生成するために加算器50に与え、参照ピクチャとして使用するための符号化ブロックを再構成するために加算器62に与え得る。モード選択ユニット40はまた、動きベクトル、イントラモードインジケータ、パーティション情報、および他のそのようなシンタックス情報など、シンタックス要素をエントロピー符号化ユニット56に与える。
[0118]動き推定ユニット42は、ビデオシーケンスの所定のパターンに従ってビデオスライスのためのインター予測モードを判断するように構成され得る。動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示されている。動き推定ユニット42によって実行される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、参照ピクチャ内の予測ブロックに対する現在ビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。
[0119]上記で説明したように、動きベクトル予測子は、現在ブロック以外のブロックに対する動きベクトルであってよく、隣接ブロックに対する動きベクトルであることもあり得る。動き推定ユニット42はまた、動きベクトル差分(MVD)を決定し得る。たとえば、動き推定ユニット42は、現在ブロックに対する動きベクトルと動きベクトル予測子との間の差分(たとえば、X座標の差分(delta)およびY座標の差分)を決定し得る。
[0120]予測ブロックは、絶対値差分和(SAD)、差分2乗和(SSD)、または他の差分尺度によって決定され得るピクセル差分に関して、コード化されるべきビデオブロックのPUに厳密に一致することがわかるブロックである。いくつかの例では、ビデオエンコーダ20は、参照ピクチャメモリ64に記憶された参照ピクチャのサブ整数ピクセル位置の値を計算し得る。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置と分数ピクセル位置とに対する動き探索を実行し、分数ピクセル精度で動きベクトルを出力し得る。
[0121]動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコード化スライス中のビデオブロックのPUについての動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(RefPicList0)または第2の参照ピクチャリスト(RefPicList1)から選択され得、それらの参照ピクチャリストの各々は、参照ピクチャメモリ64に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。
[0122]動き補償ユニット44によって実行される動き補償は、動き推定ユニット42によって判断された動きベクトルに基づいて予測ブロックをフェッチまたは生成することに関与し得る。この場合も、いくつかの例では、動き推定ユニット42と動き補償ユニット44とは機能的に統合され得る。現在ビデオブロックのPUのための動きベクトルを受信すると、動き補償ユニット44は、参照ピクチャリストのうちの1つにおいて動きベクトルが指す予測ブロックの位置を特定し得る。加算器50は、以下で説明するように、コーディングされている現在ビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって、残差ビデオブロックを形成する。概して、動き推定ユニット42はルーマ成分に対して動き推定を実行し、動き補償ユニット44は、クロマ成分とルーマ成分の両方のためにルーマ成分に基づいて計算された動きベクトルを使用する。モード選択ユニット40はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30が使用するための、ビデオブロックとビデオスライスとに関連するシンタックス要素を生成し得る。
[0123]イントラ予測ユニット46は、上記で説明したように、動き推定ユニット42と動き補償ユニット44とによって実行されるインター予測の代替として、現在ブロックをイントラ予測し得る。特に、イントラ予測ユニット46は、現在ブロックを符号化するために使用すべきイントラ予測モードを決定し得る。いくつかの例では、イントラ予測ユニット46は、たとえば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在ブロックを符号化し得、イントラ予測ユニット46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。
[0124]たとえば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードのためのレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの中で最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は、概して、符号化ブロックと、符号化ブロックを生成するために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化ブロックを生成するために使用されるビットレート(すなわち、ビット数)を判断する。イントラ予測ユニット46は、どのイントラ予測モードがブロックについて最良のレートひずみ値を呈するかを判断するために、様々な符号化ブロックのひずみおよびレートから比を計算し得る。
[0125]いずれの場合も、ブロックのイントラ予測モードを選択した後に、イントラ予測ユニット46は、ブロックについての選択されたイントラ予測モードを示す情報をエントロピー符号化ユニット56に提供し得る。エントロピー符号化ユニット56は、選択されたイントラ予測モードを示す情報を符号化し得る。
[0126]ビデオエンコーダ20は、コーディングされている元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって残差ビデオブロックを形成する。加算器50は、この減算演算を実行する1つまたは複数の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換処理ユニット52は、DCTと概念的に同様である他の変換を実施し得る。ウェーブレット変換、整数変換、サブバンド変換または他のタイプの変換も使用され得る。
[0127]いずれの場合も、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、ピクセル値領域からの残差情報を周波数領域などの変換領域に変換し得る。変換処理ユニット52は、得られた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連するビット深度を低減することができる。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット54は、次いで、量子化された変換係数を含む行列の走査を実行し得る。代替的に、エントロピー符号化ユニット56がエントロピーコーディングの間、走査を実行し得る。
[0128]量子化の後、エントロピー符号化ユニット56は、量子化変換係数をエントロピー符号化する。たとえば、エントロピー符号化ユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディングまたは別のエントロピー符号化方法または技法を実行し得る。エントロピー符号化ユニット56によるエントロピー符号化の後に、符号化ビットストリームは、ビデオデコーダ30に送信されるか、あるいはビデオデコーダ30が後で送信するかまたは取り出すためにアーカイブされ得る。エントロピー符号化ユニット56はまた、コード化されている現在ビデオスライスのための動きベクトルと他のシンタックス要素とをエントロピー符号化し得る。
[0129]逆量子化ユニット58および逆変換ユニット60は、それぞれ逆量子化および逆変換を適用して、たとえば、参照ブロックとして後で使用するために、ピクセル領域において残差ブロックを再構成する。動き補償ユニット44は、残差ブロックを参照ピクチャメモリ64のピクチャのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、再構成された残差ブロックに1つまたは複数の補間フィルタを適用して、動き推定において使用するサブ整数ピクセル値を計算し得る。加算器62は、再構成された残差ブロックを動き補償ユニット44によって生成された動き補償予測ブロックに加算して、参照ピクチャメモリ64に記憶するための再構成されたビデオブロックを生成する。再構成されたビデオブロックは、後続のビデオピクチャ中のブロックをインターコード化するために、動き推定ユニット42および動き補償ユニット44によって参照ブロックとして使用され得る。
[0130]図3は、本開示で説明する技法を実装し得る例示的なビデオデコーダ30を示すブロック図である。図3の例では、ビデオデコーダ30は、エントロピー復号ユニット80と、モード選択ユニット81と、逆量子化ユニット86と、逆変換ユニット88と、加算器90と、参照ピクチャメモリ92とを含む。モード選択ユニット81は、動き補償ユニット82と、イントラ予測ユニット84とを含む。ビデオデコーダ30は、いくつかの例では、図2のビデオエンコーダ20に関して説明した符号化パスとは概して逆の復号パスを実行し得る。
[0131]いくつかの例では、モード選択ユニット81またはビデオエンコーダ30の他のユニットと関連するモード選択ユニット81は、本開示で説明する技法を実施し得る。たとえば、モード選択ユニット81は、ビデオデコーダ30が第1のピクチャを復号したインスタンスにおける、第1のピクチャの参照ピクチャに対する参照ステータス情報を記憶し得る。モード選択ユニット81は、ビデオデコーダ30が第1のピクチャを復号したインスタンスにおける、第1のピクチャの参照ピクチャに対する参照ステータス情報に基づいて、第2のピクチャのブロックをインター予測し得る。
[0132]一例として、第2のピクチャ内のブロックをインター予測するために、モード選択ユニット81は、第2のピクチャ内のブロックの動きベクトルが第1のピクチャ内のブロックの動きベクトルから判断されるべきであると判断し得る。この例では、モード選択ユニット81は、第2のピクチャ内のブロックの動きベクトルを判断するために、第2のピクチャの参照ピクチャに対する参照ステータス情報を利用し得る。モード選択ユニット81は、参照ピクチャメモリ92に、第1のピクチャがコーディングされるインスタンスにおいて、第1のピクチャの参照ピクチャの参照ステータス情報を記憶し得る。参照ピクチャメモリ92は、ビデオデコーダ30の復号ピクチャバッファ(DPB)の一例である。
[0133]本開示の態様は、本開示で説明する技法を実装するモード選択ユニット81に限定されない。いくつかの例では、プロセッサまたは処理ユニット(具体的に示されていない)が、本開示において説明する技法を実施してもよい。同じく、参照ピクチャメモリ92以外のバッファが、ピクチャの参照ピクチャの参照ステータス情報を記憶してもよい。
[0134]復号プロセス中に、ビデオデコーダ30は、ビデオエンコーダ20から、符号化ビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化ビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット80は、量子化係数、動きベクトル、および他のシンタックス要素を生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット80は、モード選択ユニット81に動きベクトルと他のシンタックス要素とを転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。
[0135]ビデオスライスがイントラコード化(I)スライスとしてコード化されたとき、モード選択ユニット81のイントラ予測ユニット84は、シグナリングされたイントラ予測モードと、現在フレームまたはピクチャの、前に復号されたブロックからのデータとに基づいて、現在ビデオスライスのビデオブロックのための予測データを生成し得る。ビデオピクチャがインターコード化(すなわち、B、またはP)スライスとしてコード化されるとき、モード選択ユニット81の動き補償ユニット82は、エントロピー復号ユニット80から受信された動きベクトルおよび他のシンタックス要素に基づいて、現在のビデオスライスのビデオブロックのための予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ92に記憶された参照ピクチャに基づいて、デフォルト構成技法または任意の他の技法を使用して参照ピクチャリストRefPicList0およびRefPicList1を構成し得る。
[0136]動き補償ユニット82は、動きベクトルと他のシンタックス要素とを解析することによって現在ビデオスライスのビデオブロックについての予測情報を判断し、予測情報を使用して、復号されている現在ビデオブロックのための予測ブロックを生成する。たとえば、動き補償ユニット82は、ビデオスライスのビデオブロックをコード化するために使用される予測モード(たとえば、イントラまたはインター予測)と、インター予測スライスタイプ(たとえば、BスライスまたはPスライス)と、スライスの参照ピクチャリストのうちの1つまたは複数についての構成情報と、スライスの各インター符号化ビデオブロックについての動きベクトルと、スライスの各インターコード化ビデオブロックについてのインター予測ステータスと、現在ビデオスライス中のビデオブロックを復号するための他の情報とを判断するために、受信されたシンタックス要素のいくつかを使用する。
[0137]動き補償ユニット82はまた、補間フィルタに基づいて補間を実施し得る。動き補償ユニット82は、ビデオブロックの符号化中にビデオ符号器20によって使用される補間フィルタを使用して、参照ブロックのサブ整数ピクセルの補間値を計算し得る。この場合、動き補償ユニット82は、受信されたシンタックス要素からビデオ符号器20によって使用された補間フィルタを判断し、その補間フィルタを使用して予測ブロックを生成し得る。
[0138]逆量子化ユニット86は、ビットストリーム中で与えられ、エントロピー復号ユニット80によって復号された、量子化変換係数を逆量子化(inverse quantize)、(すなわち、逆量子化(de-quantize))する。逆量子化プロセスは、ビデオスライス中の各ビデオブロックについてビデオエンコーダ20によって計算される量子化パラメータを使用して量子化の程度を判断し、同様に、適用すべき逆量子化の程度を判断することを含み得る。逆変換ユニット88は、ピクセル領域において残差ブロックを生成するために、逆変換、たとえば、逆DCT、逆整数変換、または概念的に同様の逆変換プロセスを変換係数に適用する。
[0139]動き補償ユニット82が、動きベクトルおよび他のシンタックス要素に基づいて現在のビデオブロックのための予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット88からの残差ブロックを動き補償ユニット82によって生成された対応する予測ブロックと加算することによって、復号ビデオブロックを形成する。加算器90は、この加算演算を実行する1つまたは複数のコンポーネントを表す。所望される場合、ブロッキネスアーティファクトを除去するために、復号ブロックをフィルタリングするためのデブロッキングフィルタも適用され得る。ピクセル遷移を平滑化するか、またはさもなければビデオ品質を改善するために、(コーディングループ内またはコーディングループ後の)他のループフィルタも使用され得る。次いで、所与のフレームまたはピクチャ内の復号されたビデオブロックは、その後の動き補償に使用される参照ピクチャを記憶する参照ピクチャメモリ92に記憶される。参照ピクチャメモリ92はまた、図1のディスプレイデバイス32などのディスプレイデバイス上に後で提示するための、復号されたビデオを記憶する。
[0140]図4は、本開示で説明する1つまたは複数の例示的な技法による例示的な動作を示すフローチャートである。ビデオコーダは、図4に示される例示的な技法を実装するように構成され得る。ビデオコーダの例は、ビデオエンコーダ20またはビデオデコーダ30を含む。
[0141]図4に示すように、ビデオコーダは、第1のピクチャに対する参照ピクチャリスト(たとえば、第1のピクチャに対するRefPicList0および/またはRefPicList1)を構築し得る(94)。ビデオコーダは、参照ピクチャリスト内で識別された参照ピクチャに対する参照ステータス情報を記憶し得る(96)。たとえば、ビデオコーダは、フラグのusedForLongTermX[i]リストを記憶し得る。
[0142]いくつかの例では、ビデオコーダは、RefPicListX[i]によって識別された参照ピクチャが、第1のピクチャがコーディングされるインスタンスにおいて、「長期参照に使用される」として指定されるか、または「長期参照に使用される」として指定されないかを示すusedForLongTermX[i]内の値を記憶する。いくつかの例では、ビデオコーダは、第1のピクチャのピクチャ順序カウント(POC)値が、RefPicListX[i]によって識別された参照ピクチャのPOCと同じであるか、またはRefPicListX[i]によって識別された参照ピクチャのPOV値と同じでないかを示すusedForLongTermX[i]内の値を記憶する。
[0143]ビデオコーダは、第1のピクチャをコーディングし得る(100)。いくつかの例では、ビデオコーダは、構築された参照ピクチャリスト内で識別された参照ピクチャに基づいて、第1のピクチャのビデオブロックに対するインター予測を実行し得る。第1のピクチャをコーディングした後、ビデオコーダは、第2の異なるピクチャをコーディングし得る。
[0144]たとえば、ビデオコーダは、第1のピクチャ内のビデオブロックの動きベクトルが第2のピクチャ内のビデオブロックの動きベクトルを導出するために使用されるかどうかを判断し得る(102)。一例として、ビデオコーダは、第1のピクチャ内のビデオブロックの動きベクトルが第2のピクチャ内のビデオブロックに対するTMVPを形成するべきであるかどうかを判断し得る。別の例として、ビデオコーダは、TMVPが、第2のピクチャ内のビデオブロックに対する動きベクトルを導出するために使用されるべきであるかどうかを判断し得る。
[0145]第1のピクチャ内のビデオブロックの動きベクトルが、第2のピクチャ内のビデオブロックの動きベクトルを導出するために使用されるべきでない場合(102のノー)、ビデオコーダは次のブロックに進み、次に、予測されている現在ブロックを形成し得る(104)。次に、ビデオコーダは、第1のピクチャ内のビデオブロックの動きベクトルが第2のピクチャ内の現在ブロックの動きベクトルを導出するために使用されるかどうかを判断することを繰り返すことができる。
[0146]第1のピクチャ内のビデオブロックの動きベクトルが、第2のピクチャ内のビデオブロックの動きベクトルを導出するために使用されるべきである場合(102のイエス)、ビデオコーダは、第1のピクチャのビデオブロックの動きベクトルが参照する参照ピクチャを判断し得る(106)。たとえば、ビデオコーダは、動きベクトルの構築された参照ピクチャリストへの参照インデックスを判断し得る。ビデオコーダは、動きベクトルが参照した参照ピクチャを判断するために参照インデックスを使用し得る。
[0147]ビデオコーダは、記憶された参照ステータス情報に基づいて判断された参照ピクチャの参照ステータスを判断し得る(108)。たとえば、ビデオコーダは、第1のピクチャに対するフラグのusedForLongTermXリストへの入力として第1のブロックの動きベクトルの参照インデックスを利用し得る。たとえば、第1のピクチャに対して構築された参照ピクチャリストが、RefPicList0であると仮定する。同じく、RefPicList0への参照インデックスが、refIdx0であると仮定する。この例では、ビデオコーダは、第1のピクチャに対してRefPicList0[refIdx0]によって識別された参照ピクチャの参照ステータスを判断するために、usedForLongTerm0[refIdx0]内に記憶された値を判断し得る。
[0148]ビデオコーダは、それ(the)に基づいて第2のピクチャのビデオブロックをコーディングし、参照ステータスを判断し得る(110)。このようにして、本開示で説明する技法は、ビデオエンコーダ20およびビデオデコーダ30が、HEVC規格の要件に準拠することを可能にし得る。しかしながら、上記で説明したように、本開示で説明する技法は、HEVC規格に限定されると見なされるべきではなく、他の規格ならびに任意のビデオコーディング技法に拡張可能である。
[0149]1つまたは複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアに実装される場合、機能は、1つもしくは複数の命令もしくはコードとしてコンピュータ可読媒体上に記憶されるか、またはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行することができる。コンピュータ可読媒体は、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含むデータ記憶媒体または通信媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
[0150]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
[0151]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路によって実行され得る。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明する技法の実装に好適な他の構造のいずれかを指す。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用のハードウェアおよび/またはソフトウェアモジュール内に与えられ得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素中に十分に実装され得る。
[0152]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示する技法を実行するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットを、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作ハードウェアユニットの集合によって与えられ得る。
[0153]様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
[0153]様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る
以下に、出願当初の特許請求の範囲を付記する。
[付記1]
ビデオデータをコーディングするための方法であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける、前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを備える、方法。
[付記2]
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとをさらに備え、
前記第2のピクチャ内の前記ビデオブロックをコーディングすることが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングすることを備える、付記1に記載の方法。
[付記3]
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶することを備える、付記1に記載の方法。
[付記4]
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶することを備える、付記1に記載の方法。
[付記5]
前記参照ステータス情報を記憶することが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、付記1に記載の方法。
[付記6]
前記参照ステータス情報を記憶することが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、付記1に記載の方法。
[付記7]
前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、付記1に記載の方法。
[付記8]
前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、付記1に記載の方法。
[付記9]
前記第1のピクチャの前記ビデオブロックの前記動きベクトルが前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、付記8に記載の方法。
[付記10]
記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオエンコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが符号化される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
コーディングすることが、前記第1のピクチャが符号化された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオエンコーダを用いて符号化することを備える、付記1に記載の方法。
[付記11]
記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオデコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが復号される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
コーディングすることが、前記第1のピクチャが復号された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオデコーダを用いて復号することを備える、付記1に記載の方法。
[付記12]
ビデオデータをコーディングするための装置であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行うように構成されたビデオコーダを備える、装置。
[付記13]
前記ビデオコーダが、
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行うように構成され、
前記第2のピクチャ内の前記ビデオブロックをコーディングするために、前記ビデオコーダが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするように構成される、付記12に記載の装置。
[付記14]
前記ビデオコーダが、
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶するように構成される、付記12に記載の装置。
[付記15]
前記ビデオコーダが、
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶するように構成される、付記12に記載の装置。
[付記16]
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、付記12に記載の装置。
[付記17]
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、付記12に記載の装置。
[付記18]
前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、付記12に記載の装置。
[付記19]
前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、付記12に記載の装置。
[付記20]
前記第1のピクチャの前記ビデオブロックの前記動きベクトルが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記ビデオコーダが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために、拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、付記19に記載の装置。
[付記21]
前記ビデオコーダがビデオデコーダを備え、前記ビデオデコーダが、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを復号することとを行うように構成される、付記12に記載の装置。
[付記22]
前記ビデオコーダがビデオエンコーダを備え、前記ビデオエンコーダが、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを符号化することとを行うように構成される、付記12に記載の装置。
[付記23]
前記装置が、
ワイヤレス通信デバイスと、
マイクロプロセッサと、
集積回路とのうちの1つを備える、付記12に記載の装置。
[付記24]
ビデオデータをコーディングするための装置であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶するための手段と、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングするための手段とを備える、装置。
[付記25]
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断するための手段と、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断するための手段と、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断するための手段とをさらに備え、
前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段が、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段を備える、付記24に記載の装置。
[付記26]
命令を記憶されたコンピュータ可読記憶媒体であって、前記命令が、実行されると1つまたは複数のプロセッサに、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行わせる、コンピュータ可読記憶媒体。
[付記27]
前記1つまたは複数のプロセッサに、
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行わせる命令をさらに備え、
前記1つまたは複数のプロセッサに前記第2のピクチャ内の前記ビデオブロックをコーディングさせる前記命令が、前記1つまたは複数のプロセッサに、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングさせる命令を備える、付記26に記載のコンピュータ可読記憶媒体。

Claims (27)

  1. ビデオデータをコーディングするための方法であって、
    第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける、前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
    前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを備える、方法。
  2. 前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
    前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
    前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとをさらに備え、
    前記第2のピクチャ内の前記ビデオブロックをコーディングすることが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングすることを備える、請求項1に記載の方法。
  3. 前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
    前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶することを備える、請求項1に記載の方法。
  4. 前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
    前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶することを備える、請求項1に記載の方法。
  5. 前記参照ステータス情報を記憶することが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、請求項1に記載の方法。
  6. 前記参照ステータス情報を記憶することが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、請求項1に記載の方法。
  7. 前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、請求項1に記載の方法。
  8. 前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、請求項1に記載の方法。
  9. 前記第1のピクチャの前記ビデオブロックの前記動きベクトルが前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、請求項8に記載の方法。
  10. 記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオエンコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが符号化される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
    コーディングすることが、前記第1のピクチャが符号化された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオエンコーダを用いて符号化することを備える、請求項1に記載の方法。
  11. 記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオデコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが復号される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
    コーディングすることが、前記第1のピクチャが復号された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオデコーダを用いて復号することを備える、請求項1に記載の方法。
  12. ビデオデータをコーディングするための装置であって、
    第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
    前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行うように構成されたビデオコーダを備える、装置。
  13. 前記ビデオコーダが、
    前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
    前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきかどうかを判断することと、
    前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行うように構成され、
    前記第2のピクチャ内の前記ビデオブロックをコーディングするために、前記ビデオコーダが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするように構成される、請求項12に記載の装置。
  14. 前記ビデオコーダが、
    前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
    前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶するように構成される、請求項12に記載の装置。
  15. 前記ビデオコーダが、
    前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
    前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶するように構成される、請求項12に記載の装置。
  16. 前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、請求項12に記載の装置。
  17. 前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、請求項12に記載の装置。
  18. 前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、請求項12に記載の装置。
  19. 前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、請求項12に記載の装置。
  20. 前記第1のピクチャの前記ビデオブロックの前記動きベクトルが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記ビデオコーダが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために、拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、請求項19に記載の装置。
  21. 前記ビデオコーダがビデオデコーダを備え、前記ビデオデコーダが、
    前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
    前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを復号することとを行うように構成される、請求項12に記載の装置。
  22. 前記ビデオコーダがビデオエンコーダを備え、前記ビデオエンコーダが、
    前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
    前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを符号化することとを行うように構成される、請求項12に記載の装置。
  23. 前記装置が、
    ワイヤレス通信デバイスと、
    マイクロプロセッサと、
    集積回路とのうちの1つを備える、請求項12に記載の装置。
  24. ビデオデータをコーディングするための装置であって、
    第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶するための手段と、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
    前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングするための手段とを備える、装置。
  25. 前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断するための手段と、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
    前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断するための手段と、
    前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断するための手段とをさらに備え、
    前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段が、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段を備える、請求項24に記載の装置。
  26. 命令を記憶されたコンピュータ可読記憶媒体であって、前記命令が、実行されると1つまたは複数のプロセッサに、
    第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
    前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行わせる、コンピュータ可読記憶媒体。
  27. 前記1つまたは複数のプロセッサに、
    前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
    前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
    前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行わせる命令をさらに備え、
    前記1つまたは複数のプロセッサに前記第2のピクチャ内の前記ビデオブロックをコーディングさせる前記命令が、前記1つまたは複数のプロセッサに、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングさせる命令を備える、請求項26に記載のコンピュータ可読記憶媒体。
JP2015539594A 2012-10-25 2013-09-05 ビデオコーディングのための参照ピクチャステータス Pending JP2015533462A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261718629P 2012-10-25 2012-10-25
US61/718,629 2012-10-25
US13/803,736 2013-03-14
US13/803,736 US9854234B2 (en) 2012-10-25 2013-03-14 Reference picture status for video coding
PCT/US2013/058276 WO2014065947A1 (en) 2012-10-25 2013-09-05 Reference picture status for video coding

Publications (2)

Publication Number Publication Date
JP2015533462A true JP2015533462A (ja) 2015-11-24
JP2015533462A5 JP2015533462A5 (ja) 2016-10-20

Family

ID=49237609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015539594A Pending JP2015533462A (ja) 2012-10-25 2013-09-05 ビデオコーディングのための参照ピクチャステータス

Country Status (6)

Country Link
US (1) US9854234B2 (ja)
EP (1) EP2912847A1 (ja)
JP (1) JP2015533462A (ja)
KR (1) KR20150076235A (ja)
CN (1) CN104756499B (ja)
WO (1) WO2014065947A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4020991A1 (en) * 2014-12-26 2022-06-29 Sony Group Corporation Image processing apparatus and image processing method
WO2017043734A1 (ko) * 2015-09-07 2017-03-16 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN107071481A (zh) * 2015-12-14 2017-08-18 联发科技股份有限公司 一种视频编码解码方法及装置
WO2020003278A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Update of look up table: fifo, constrained fifo
EP3797516A1 (en) 2018-06-29 2021-03-31 Beijing Bytedance Network Technology Co. Ltd. Interaction between lut and amvp
CN110662056B (zh) 2018-06-29 2022-06-07 北京字节跳动网络技术有限公司 哪个查找表需要更新或不更新
CN110662057B (zh) 2018-06-29 2022-06-21 北京字节跳动网络技术有限公司 视频处理方法、装置、设备以及存储比特流的方法
KR20210024502A (ko) 2018-06-29 2021-03-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝
TWI723444B (zh) 2018-06-29 2021-04-01 大陸商北京字節跳動網絡技術有限公司 使用一個或多個查找表來按順序存儲先前編碼的運動信息並使用它們來編碼後面的塊的概念
EP3791588A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Checking order of motion candidates in lut
JP7460617B2 (ja) 2018-06-29 2024-04-02 北京字節跳動網絡技術有限公司 Lut更新条件
EP4307679A3 (en) 2018-07-02 2024-06-19 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
TW202025760A (zh) 2018-09-12 2020-07-01 大陸商北京字節跳動網絡技術有限公司 要檢查多少個hmvp候選
CN111416981B (zh) * 2019-01-07 2023-06-02 浙江大学 视频图像解码、编码方法及装置
CN113273186A (zh) 2019-01-10 2021-08-17 北京字节跳动网络技术有限公司 Lut更新的调用
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
CN113302937B (zh) 2019-01-16 2024-08-02 北京字节跳动网络技术有限公司 运动候选推导
CN113615193B (zh) 2019-03-22 2024-06-25 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN113689430B (zh) * 2021-10-26 2022-02-15 紫东信息科技(苏州)有限公司 肠镜检查状态监测的图像处理方法与装置
CN115118977B (zh) * 2022-08-29 2022-11-04 华中科技大学 针对360度视频的帧内预测编码方法、系统及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019462A (ja) * 2010-07-09 2012-01-26 Panasonic Corp 画像復号装置および画像復号方法
US20120250773A1 (en) * 2011-03-31 2012-10-04 Qualcomm Incorporated Combined reference picture list construction and mapping
JP2012191298A (ja) * 2011-03-09 2012-10-04 Fujitsu Ltd 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100934674B1 (ko) * 2006-03-30 2009-12-31 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
JP4810298B2 (ja) 2006-05-09 2011-11-09 キヤノン株式会社 画像符号化装置及び符号化方法並びに画像復号化装置及び復号化方法
WO2008048515A2 (en) 2006-10-13 2008-04-24 Thomson Licensing Method for reference picture management involving multiview video coding
CA2666452C (en) 2006-10-16 2014-12-16 Nokia Corporation System and method for implementing efficient decoded buffer management in multi-view video coding
KR101385808B1 (ko) 2006-10-16 2014-04-17 톰슨 라이센싱 비디오 동작 동안 nal 유닛을 이용하여 동시 디코딩 리프레시를 시그널링하는 방법
US20100027615A1 (en) * 2006-10-24 2010-02-04 Purvin Bibhas Pandit Picture identification for multi-view video coding
TW201121331A (en) 2009-12-10 2011-06-16 Novatek Microelectronics Corp Picture decoder
EP2630799A4 (en) 2010-10-20 2014-07-02 Nokia Corp METHOD AND DEVICE FOR VIDEO CODING AND DECODING
US20120230409A1 (en) 2011-03-07 2012-09-13 Qualcomm Incorporated Decoded picture buffer management
US9143795B2 (en) * 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019462A (ja) * 2010-07-09 2012-01-26 Panasonic Corp 画像復号装置および画像復号方法
JP2012191298A (ja) * 2011-03-09 2012-10-04 Fujitsu Ltd 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
US20120250773A1 (en) * 2011-03-31 2012-10-04 Qualcomm Incorporated Combined reference picture list construction and mapping

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
B. BROSS ET AL.: "High efficiency video coding (HEVC) text specification draft 7", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 9TH M, vol. JCTVC-I1003_d4, JPN6017023394, 12 June 2012 (2012-06-12), pages 119 - 140, ISSN: 0003701129 *
Y.CHEN ET AL.: "Temporal motion vector prediction hook for MV-HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-K0239, JPN6017023391, 19 October 2012 (2012-10-19), ISSN: 0003701131 *
Y.CHEN, ET AL.: "AHG10: Motion related hooks for HEVC multiview/3D extension based on long-term reference pictures", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 10TH, vol. JCTVC-J0121r1, JPN6017023393, 20 July 2012 (2012-07-20), SW, ISSN: 0003701128 *
Y.TAKAHASHI ET AL.: "High-level Syntax: Motion vector prediction issue for long-term reference picture", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-J0071, JPN6017023392, 2 July 2012 (2012-07-02), SW, ISSN: 0003701130 *

Also Published As

Publication number Publication date
EP2912847A1 (en) 2015-09-02
US20140119447A1 (en) 2014-05-01
KR20150076235A (ko) 2015-07-06
CN104756499A (zh) 2015-07-01
WO2014065947A1 (en) 2014-05-01
US9854234B2 (en) 2017-12-26
CN104756499B (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
US11431968B2 (en) Variable number of intra modes for video coding
CN111164973B (zh) 译码用于视频译码的仿射预测运动信息
RU2697744C2 (ru) Объединенное предсказание межкадровое и с внутрикадровой копией блока
JP6720153B2 (ja) イントラbcとインターの統合
US9854234B2 (en) Reference picture status for video coding
JP6092222B2 (ja) ビデオコード化のための動きベクトル決定
EP3849182B1 (en) Restriction of prediction units in b slices to uni-directional inter prediction
US9325991B2 (en) Motion vector rounding
US20130272409A1 (en) Bandwidth reduction in video coding through applying the same reference index
US9143781B2 (en) Weighted prediction parameter coding
CN111213376A (zh) 使用基于编码结构的候选列表构建对视频数据的运动信息进行编码
JP2018530246A (ja) ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測
US20130258052A1 (en) Inter-view residual prediction in 3d video coding
JP2018537908A (ja) ビデオデータの符号情報をコーディングすること
JP2017513332A (ja) ビデオコーディングの参照として現在のピクチャを使用すること
JP2015510358A (ja) Bスライス中の予測単位の単方向インター予測への制限
KR20140018967A (ko) 비디오 코딩에서의 모션 벡터 예측
JP2015532554A (ja) ビデオプロパティの指示
JP6526574B2 (ja) レイヤ間シンタックス予測制御
US9338452B2 (en) Motion vector difference coding extension for enhancement layer
JP2015508952A (ja) 並列動き推定範囲サイズの暗黙的導出

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180717