JP2015508952A - 並列動き推定範囲サイズの暗黙的導出 - Google Patents

並列動き推定範囲サイズの暗黙的導出 Download PDF

Info

Publication number
JP2015508952A
JP2015508952A JP2014554776A JP2014554776A JP2015508952A JP 2015508952 A JP2015508952 A JP 2015508952A JP 2014554776 A JP2014554776 A JP 2014554776A JP 2014554776 A JP2014554776 A JP 2014554776A JP 2015508952 A JP2015508952 A JP 2015508952A
Authority
JP
Japan
Prior art keywords
pme
motion vector
area
candidate list
coding unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014554776A
Other languages
English (en)
Other versions
JP2015508952A5 (ja
JP6067750B2 (ja
Inventor
セレジン、バディム
ワン、シャンリン
チェン、ジャンレ
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015508952A publication Critical patent/JP2015508952A/ja
Publication of JP2015508952A5 publication Critical patent/JP2015508952A5/ja
Application granted granted Critical
Publication of JP6067750B2 publication Critical patent/JP6067750B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオデータを復号するための方法について記載する。この方法は、並列動き推定(PME)エリアのサイズの指示を受信することと、PMEスタイル候補リスト構築プロセスおよびPMEエリアを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施することと、PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出することと、PMEスタイル候補リスト構築プロセスおよび暗黙的PMEエリアを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施することとを備え得る。

Description

[0001]本出願は、内容全体が参照により本明細書に組み込まれる、2012年1月31日に出願した米国仮特許出願第61/593,169号の利益を主張する。
[0002]本開示は、ビデオコーディングに関し、より詳細には、ビデオコーディングプロセスにおける動き予測および並列符号化のための技法に関する。
[0003]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラーまたは衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、Part 10、アドバンストビデオコーディング(AVC:Advanced Video Coding)、現在開発中の高効率ビデオコーディング(HEVC)規格によって定義された規格、およびそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実装する。ビデオデバイスは、そのようなビデオ圧縮技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
[0004]ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために空間的(イントラピクチャ)予測および/または時間的(インターピクチャ)予測を実施する。ブロックベースのビデオコーディングの場合、ビデオスライス(すなわち、ビデオフレームまたはビデオフレームの一部分)が、ツリーブロック、コーティングユニット(CU:coding unit)および/またはコーディングノードと呼ばれることもあるビデオブロックに分割され得る。ピクチャのイントラコード化(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック内の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコード化(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測、または他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005]空間的予測または時間的予測は、予測ブロックを利用する。残差データは、コーディングされる元のブロックと予測ブロックとの間のピクセル差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、およびコード化ブロックと予測ブロックとの間の差分を示す残差データに従って符号化される。イントラコード化ブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて、残差変換係数が得られ得、その残差変換係数は、次いで量子化され得る。量子化変換係数(quantized transform coefficient)は、最初は2次元アレイで構成され、変換係数の1次元ベクトルを生成するために走査され得、なお一層の圧縮を達成するために、エントロピー符号化が適用され得る。
[0006]概して、本開示は、ビデオコーディングのための技法と、より詳細には、ビデオコーディングプロセスにおける動き推定のための技法とを記載する。本技法は、動き推定エリアに関連づけられたサイズのシグナリングを使用することができ、動き推定エリアのシグナリングされたサイズ以下のサイズを有するコーディングユニットに対して動きベクトル予測を実施することができる。本技法は、動き推定エリアのシグナリングされたサイズよりも大きいサイズを有するコーディングユニットについての暗黙的動き推定エリアの導出も伴い得る。
[0007]本開示の一例では、ビデオデータを復号するための方法は、並列動き推定(PME)エリアのサイズの指示を受信することと、PMEスタイル候補リスト構築プロセスおよびPMEエリアを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施することと、PMEエリアよりも大きいサイズを有するコーディングユニットについての暗黙的PMEエリアを導出することと、PMEスタイル候補リスト構築プロセスおよび暗黙的PMEエリアを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施することとを備える。
[0008]本開示の別の例では、ビデオデータを符号化するための方法は、PMEスタイル候補リスト構築プロセスおよびPMEエリアを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施することと、PMEスタイル候補リスト構築プロセスおよび暗黙的PMEエリアを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施することと、PMEエリアのサイズの指示をシグナリングすることとを備える。
[0009]本開示の別の例では、ビデオデータを復号するように構成された装置は、PMEエリアのサイズの指示を受信し、PMEスタイル候補リスト構築プロセスとPMEエリアとを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出し、PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するように構成されたビデオデコーダを備える。
[0010]本開示の別の例では、ビデオデータを符号化するように構成された装置は、PMEスタイル候補リスト構築プロセスとPMEエリアとを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、PMEエリアのサイズの指示をシグナリングするように構成されたビデオエンコーダを備える。
[0011]本開示の別の例では、ビデオデータを符号化するように構成された装置は、PMEエリアのサイズの指示を受信するための手段と、PMEスタイル候補リスト構築プロセスおよびPMEエリアを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するための手段と、PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出するための手段と、PMEスタイル候補リスト構築プロセスおよび暗黙的PMEエリアを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するための手段とを備える。
[0012]本開示の別の例では、ビデオデータを符号化するように構成された装置は、PMEスタイル候補リスト構築プロセスおよびPMEエリアを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するための手段と、PMEスタイル候補リスト構築プロセスおよび暗黙的PMEエリアを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するための手段と、PMEエリアのサイズの指示をシグナリングするための手段とを備える。
[0013]本開示の別の例では、コンピュータ可読記憶媒体が、実行されると、ビデオデータを復号するように構成されたデバイスの1つまたは複数のプロセッサに、PMEエリアのサイズの指示を受信させ、PMEスタイル候補リスト構築プロセスとPMEエリアとを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施させ、PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出させ、PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施させる命令を記憶する。
[0014]本開示の別の例では、コンピュータ可読記憶媒体が、実行されると、ビデオデータを符号化するように構成されたデバイスの1つまたは複数のプロセッサに、PMEスタイル候補リスト構築プロセスとPMEエリアとを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施させ、PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施させ、PMEエリアのサイズの指示をシグナリングさせる命令を記憶する。
[0015]1つまたは複数の例の詳細を添付の図面および以下の説明に記載する。他の特徴、目的、および利点は、その説明および図面、ならびに特許請求の範囲から明らかになろう。
[0016]本開示で説明する技法を利用し得る例示的なビデオ符号化および復号システムを示すブロック図。 [0017]隣接し合う並列動き推定(PME)エリアに分割されたスライスを示す概念図。 [0018]動きベクトル予測のための候補ブロックを示す概念図。 [0019]PMEスタイル候補リスト構築のための利用不可能な候補ブロックを示す概念図。 [0020]PMEスタイル候補リスト構築の例を示すフローチャート。 [0021]本開示で説明する技法を実装し得る例示的なビデオエンコーダを示すブロック図。 [0022]本開示で説明する技法を実装し得る例示的なビデオデコーダを示すブロック図。 [0023]本開示の技法による例示的な復号方法を示すフローチャート。 [0024]本開示の技法による例示的な符号化方法を示すフローチャート。
[0025]高効率ビデオコーディング(HEVC)規格についての最新の提案は、並列動き推定(PME)を含む。PMEを用いて、動き情報が、指定されたPMEエリア(たとえば、シグナリングされたシンタックス要素によって定義されるPMEエリア)内の一部または全部のブロック(たとえば、コーディングユニット)に対して並列に実施される。動き情報は、動きベクトルと、参照インデックスと、予測方向とを含み得る。多くの場合、動き情報は、動きベクトル予測プロセスを使って復号される。
[0026]動きベクトル予測プロセスは通常、隣接ブロックの復号された動き情報を使って、現在のブロックについての動き情報を導出する。ただし、隣接ブロックが同じPMEエリア内にある場合、動き情報はこれらのブロックに対して並列に実施されるので、動き情報は入手可能でない。PMEのこの特徴により、PMEエリア内のブロックについて動きベクトル予測を実施するための、特別な規則が適用される。具体的には、特別な候補リスト構築プロセスが使われ、このプロセスでは、コード化ブロックと同じPMEエリア内の近隣ブロックは、動きベクトル予測プロセスにおいて候補ブロックとして使うことはできない。
[0027]ただし、ピクチャ中のすべてのブロックが、PMEエリア内にあるわけではない。たとえば、PMEエリアよりも大きいブロックについての動き情報は、他のブロックと並列には復号されない。この状況において、近隣ブロックに対するいかなる制約も、PMEエリアよりも大きいブロック向けの候補リスト構築のためには適用されない。
[0028]要するに、PME概念が有効にされると、候補リスト構築のための2つの異なるモードが使われる。PMEに適合するデコーダは、両方のモードをサポートするように構成され得、したがって、実装の複雑さを増大させる得る。この欠点を考慮して、本開示は、実装の複雑さを緩和または削減することができる、PME対応ビデオコーダのための、動きベクトルをコーディングするための技法を提示する。本技法は、シグナリングされたPMEエリアよりも大きいブロックについてのPMEサイズの暗黙的導出と、PMEサイズが暗黙的に導出されるブロック向けの「PMEスタイル」候補リスト構築の適用とを含む。本開示の技法について、以下でより詳細に説明する。
[0029]図1は、本開示の例による動き予測および並列コーディングのための技法を利用するように構成され得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、通信チャネル16を介して符号化ビデオを宛先デバイス14に送信するソースデバイス12を含む。符号化ビデオデータはまた、記憶媒体34またはファイルサーバ36に記憶され得、必要に応じて宛先デバイス14によってアクセスされ得る。記憶媒体またはファイルサーバに記憶されたとき、ビデオエンコーダ20は、コード化ビデオデータを記憶媒体に記憶するための、ネットワークインターフェース、コンパクトディスク(CD)、ブルーレイまたはデジタルビデオディスク(DVD)バーナーまたはスタンピングファシリティデバイス、あるいは他のデバイスなど、別のデバイスにコード化ビデオデータを与え得る。同様に、ネットワークインターフェース、CDまたはDVDリーダーなど、ビデオデコーダ30とは別個のデバイスが、記憶媒体からコード化ビデオデータを取り出し、取り出されたデータをビデオデコーダ30に与え得る。
[0030]ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆるスマートフォンなどの電話ハンドセット、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソールなどを含む、多種多様なデバイスのいずれかを備え得る。多くの場合、そのようなデバイスはワイヤレス通信用に装備され得る。したがって、通信チャネル16は、符号化ビデオデータの送信に好適なワイヤレスチャネル、ワイヤードチャネル、またはワイヤレスチャネルとワイヤードチャネルとの組合せを備え得る。同様に、ファイルサーバ36は、インターネット接続を含む任意の標準データ接続を介して宛先デバイス14によってアクセスされ得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、または両方の組合せを含み得る。
[0031]本開示の例による、動きベクトル予測のための技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、たとえばインターネットを介したストリーミングビデオ送信、データ記憶媒体に記憶するためのデジタルビデオの符号化、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの適用例をサポートするために、単方向または二方向のビデオ送信をサポートするように構成され得る。
[0032]図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、変調器/復調器22と、トランスミッタ24とを含む。ソースデバイス12において、ビデオソース18は、ビデオカメラなどのビデオキャプチャデバイス、以前にキャプチャされたビデオを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェース、および/またはソースビデオとしてコンピュータグラフィックスデータを生成するためのコンピュータグラフィックスシステムなどのソース、あるいはそのようなソースの組合せを含み得る。一例として、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラ付き電話またはテレビ電話を形成し得る。ただし、本開示で説明する技法は、概してビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤード適用例、あるいは符号化ビデオデータがローカルディスクに記憶された適用例に適用され得る。
[0033]キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成ビデオはビデオエンコーダ20によって符号化され得る。符号化ビデオ情報は、ワイヤレス通信プロトコルなどの通信規格に従ってモデム22によって変調され、トランスミッタ24を介して宛先デバイス14に送信され得る。モデム22は、信号変調のために設計された様々なミキサ、フィルタ、増幅器または他の構成要素を含み得る。トランスミッタ24は、増幅器、フィルタ、および1つまたは複数のアンテナを含む、データを送信するために設計された回路を含み得る。
[0034]ビデオエンコーダ20によって符号化された、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成されたビデオはまた、後で消費するために記憶媒体34またはファイルサーバ36に記憶され得る。記憶媒体34は、ブルーレイ(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、または符号化ビデオを記憶するための他の好適なデジタル記憶媒体を含み得る。記憶媒体34に記憶された符号化ビデオは、次いで、復号および再生のために宛先デバイス14によってアクセスされ得る。
[0035]ファイルサーバ36は、符号化ビデオを記憶することと、その符号化ビデオを宛先デバイス14に送信することとが可能な任意のタイプのサーバであり得る。例示的なファイルサーバは、(たとえば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)デバイス、ローカルディスクドライブ、または符号化ビデオデータを記憶することと、符号化ビデオデータを宛先デバイスに送信することとが可能な他のタイプのデバイスを含む。ファイルサーバ36からの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、または両方の組合せであり得る。ファイルサーバ36は、インターネット接続を含む任意の標準データ接続を介して宛先デバイス14によってアクセスされ得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適である、ワイヤレスチャネル(たとえば、Wi−Fi接続)、ワイヤード接続(たとえば、DSL、ケーブルモデム、イーサネット(登録商標)、USBなど)、または両方の組合せを含み得る。
[0036]宛先デバイス14は、図1の例では、レシーバ26と、モデム28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。宛先デバイス14のレシーバ26は、チャネル16を介して情報を受信し、モデム28は、情報を復調して、ビデオデコーダ30向けの復調ビットストリームを生じる。チャネル16を通じて通信される情報は、ビデオデータを復号する際にビデオデコーダ30が使用する、ビデオエンコーダ20によって生成された種々のシンタックス情報を含み得る。そのようなシンタックスはまた、記憶媒体34またはファイルサーバ36に記憶された符号化ビデオデータに含まれ得る。ビデオエンコーダ20およびビデオデコーダ30の各々は、ビデオデータを符号化または復号することが可能であるそれぞれのエンコーダデコーダ(コーデック)の一部を形成し得る。
[0037]ディスプレイデバイス32は、宛先デバイス14と一体化されるかまたはその外部にあり得る。いくつかの例では、宛先デバイス14は、一体型ディスプレイデバイスを含み、また、外部ディスプレイデバイスとインターフェースするように構成され得る。他の例では、宛先デバイス14はディスプレイデバイスであり得る。概して、ディスプレイデバイス32は、復号ビデオデータをユーザに対して表示し、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
[0038]図1の例では、通信チャネル16は、無線周波数(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体、あるいはワイヤレス媒体とワイヤード媒体との任意の組合せを備え得る。通信チャネル16は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークのような、パケットベースのネットワークの一部を形成することができる。通信チャネル16は、概して、ワイヤード媒体またはワイヤレス媒体の任意の好適な組合せを含む、ビデオデータをソースデバイス12から宛先デバイス14に送信するのに好適な任意の通信媒体、または様々な通信媒体の集合体を表す。通信チャネル16は、ソースデバイス12から宛先デバイス14への通信を支援するのに有用であり得る、ルータ、スイッチ、基地局、または任意の他の機器を含み得る。
[0039]ビデオエンコーダ20およびビデオデコーダ30は、現在開発中の高効率ビデオコーディング(HEVC)規格のようなビデオ圧縮規格に従って動作することができ、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20およびビデオデコーダ30は、代替的にMPEG−4、Part 10、アドバンストビデオコーディング(AVC)と呼ばれるITU−T H.264規格など、他のプロプライエタリ規格または業界規格、あるいはそのような規格の拡張に従って動作し得る。ただし、本開示の技法は、いかなる特定のコーディング規格にも限定されない。他の例にはMPEG−2およびITU−T H.263がある。
[0040]図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、それぞれオーディオエンコーダおよびオーディオデコーダと統合され得、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含んで、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理し得る。適用可能な場合、いくつかの例では、MUX−DEMUXユニットはITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠することができる。
[0041]ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダ回路のいずれか、またはそれらの任意の組合せとして実装され得る。本技法がソフトウェアで部分的に実施されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェアの命令を記憶し、1つまたは複数のプロセッサを使用してその命令をハードウェアで実行して、本開示の技法を実施し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。
[0042]ビデオエンコーダ20は、ビデオ符号化プロセスにおける動きベクトル予測のための本開示の技法のいずれかまたはすべてを実装し得る。同様に、ビデオデコーダ30は、ビデオコーディングプロセスにおける動きベクトル予測のためのこれらの技法のいずれかまたはすべてを実装し得る。本開示に記載されたビデオコーダは、ビデオエンコーダまたはビデオデコーダを指す場合がある。同様に、ビデオコーディングユニットは、ビデオエンコーダまたはビデオデコーダを指す場合がある。同様に、ビデオコーディングはビデオ符号化またはビデオ復号を指す場合がある。
[0043]以下でより詳細に説明するように、ビデオデコーダ30は、並列動き推定(PME)エリアのサイズの指示を受信し、PMEスタイル候補リスト構築プロセスとPMEエリアとを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出し、PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するように構成され得る。
[0044]本開示の別の例では、ビデオエンコーダ20は、PMEスタイル候補リスト構築プロセスとPMEエリアとを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、並列動き推定(PME)エリアのサイズの指示をシグナリングするように構成され得る。
[0045]新しいビデオコーディング規格、すなわち、高効率ビデオコーディング(HEVC)が、ITU−Tビデオコーディングエキスパーツグループ(VCEG:Video Coding Experts Group)とISO/IECモーションピクチャエキスパーツグループ(MPEG:Motion Picture Experts Group)とのビデオコーディング共同研究部会(JCT−VC:Joint Collaboration Team on Video Coding)によって現在開発中である。HEVC仕様の最新の作業草案は、ITU−T SG16 WP3およびISO/IEC JTC1/SC29/WG11の、以下でHEVC WD9と呼ばれる文書であるJCTVC−I1003、Brossら、「High efficiency video coding(HEVC)text specification draft 9」、ビデオコーディング共同研究部会(JCT−VC)に記載されており、http://phenix.int−evry.fr/jct/doc_end_user/documents/11_Shanghai/wg11/JCTVC−K1003−v12.zipから入手可能である。
[0046]本開示の技法については概して、新興のHEVC規格との関係で記載する。ただし、本開示の技法は、上述したビデオコーディング規格のうちいずれをも含む、非標準ビデオコーデックと他の標準ビデオコーデックとを含む、他のビデオコーディング技術との、ならびに上述した規格のどの将来の規格または将来の拡張との使用にも適用可能であり得る。さらに、本開示の技法は、HEVCに対する拡張との使用に適用可能であり得る。そのような拡張は、マルチビューコーディング(MVC)拡張と、スケーラブルビデオコーディング拡張(SVC)と、3Dビデオコーディング拡張(たとえば、3DV、マルチビュープラス奥行)とを含み得る。
[0047]HEVC規格化の取り組みは、HEVCテストモデル(HM)と呼ばれるビデオコーディングデバイスの発展的モデルに基づく。HMは、たとえば、ITU−T H.264/AVCに従う既存のデバイスに対してビデオコーディングデバイスのいくつかの追加の能力を仮定する。たとえば、H.264は9つのイントラ予測符号化モードを提供するが、HMは34個ものイントラ予測符号化モードを提供し得る。
[0048]一般に、HMの作業モデルは、ビデオフレームまたはピクチャが、輝度と彩度の両方のサンプルを含む一連のツリーブロックまたは最大コーディングユニット(LCU)に分割され得ることを記載する。ツリーブロックは、H.264規格のマクロブロックと同様の目的を有する。スライスは、コーディング順序でいくつかの連続的なツリーブロックを含む。ビデオフレームまたはピクチャは、1つまたは複数のスライスに分割され得る。各ツリーブロックは、4分木に従ってコーディングユニット(CU)に分割され得る。たとえば、4分木のルートノードとしてのツリーブロックは、4つの子ノードに分割され得、各子ノードは、次に、親ノードとなり、別の4つの子ノードに分割され得る。4分木のリーフノードとしての、最終的な、分割されていない子ノードは、コーディングノード、すなわち、コード化ビデオブロックを備える。コード化ビットストリームに関連するシンタックスデータは、ツリーブロックが分割され得る最大回数を定義し得、コーディングノードの最小サイズをも定義し得る。
[0049]CUは、コーディングノードと、コーディングノードに関連する予測ユニット(PU)および変換ユニット(TU)とを含む。CUのサイズは、概してコーディングノードのサイズに対応し、通常、形状が方形でなければならない。CUのサイズは、8×8ピクセルから最大64×64以上のピクセルをもつツリーブロックのサイズまでに及び得る。各CUは、1つまたは複数のPUと、1つまたは複数のTUとを含み得る。CUに関連するシンタックスデータは、たとえば、CUを1つまたは複数のPUに分割することを記述し得る。分割モードは、CUが、スキップモード符号化またはダイレクトモード符号化されるか、イントラ予測モード符号化されるか、あるいはインター予測モード符号化されるかによって異なり得る。PUは、形状が非方形になるように分割され得る。CUに関連するシンタックスデータは、たとえば、4分木に従って、CUを1つまたは複数のTUに分割することも記述し得る。TUは、形状が方形または非方形であり得る。
[0050]HEVC規格は、CUごとに異なり得るTUに従う変換を可能にする。TUは、一般に、分割されたLCUについて定義された所与のCU内のPUのサイズに基づいてサイズ決定されるが、常にそうであるとは限らない。TUは、一般にPUと同じサイズであるかまたはPUよりも小さい。いくつかの例では、CUに対応する残差サンプルは、「残差4分木」(RQT:residual quad tree)として知られる4分木構造を使用してより小さいユニットに再分割され得る。RQTのリーフノードは変換ユニット(TU)と呼ばれることがある。TUに関連するピクセル差分値は、変換されて変換係数が生成され得、その変換係数は量子化され得る。
[0051]一般に、PUは、予測プロセスに関連したデータを含む。たとえば、PUがイントラモード符号化されるとき、PUは、PUについてのイントラ予測モードを記述するデータを含み得る。別の例として、PUがインターモード符号化されるとき、PUは、そのPUについての動きベクトルを定義するデータを含み得る。PUについての動きベクトルを定義するデータは、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(たとえば、1/4ピクセル精度または1/8ピクセル精度)、動きベクトルが指す参照ピクチャ、および/または動きベクトルの参照ピクチャリスト(たとえば、リスト0、リスト1、またはリストC)を記述し得る。
[0052]概して、TUは、変換プロセスと量子化プロセスとのために使用される。1つまたは複数のPUを有する所与のCUは、1つまたは複数の変換ユニット(TU)を含む場合もある。予測に続いて、ビデオエンコーダ20は、PUに従ってコーディングノードによって識別されたビデオブロックから残差値を計算し得る。コーディングノードは、次いで、元のビデオブロックではなく残差値を参照するように更新される。残差値はピクセル差分値を備え、ピクセル差分値は、エントロピーコーディングのためのシリアル化変換係数(serialized transform coefficient)を生成するためにTU中で指定された変換と他の変換情報とを使用して変換係数に変換され、量子化され、走査され得る。コーディングノードはこれらのシリアル化変換係数を指すようにもう一度更新され得る。本開示では、一般に、CUのコーディングノードを指すために「ビデオブロック」という用語を使用する。いくつかの特定の場合において、本開示では、コーディングノードならびにPUおよびTUを含む、ツリーブロック、すなわち、LCUまたはCUを指す「ビデオブロック」という用語も使用し得る。
[0053]ビデオシーケンスは、一般的に、一連のビデオフレームまたはピクチャを含む。ピクチャグループ(GOP)は、一般に、ビデオピクチャのうちの一連の1つまたは複数を備える。GOPは、GOP内に含まれるいくつかのピクチャを記述するシンタックスデータを、GOPのヘッダ中、1つまたは複数のピクチャのヘッダ中、または他の場所に含み得る。ピクチャの各スライスは、それぞれのスライスの符号化モードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は、一般に、ビデオデータを符号化するために、個々のビデオスライス内のビデオブロックに対して動作する。ビデオブロックは、CU内のコーディングノードに対応し得る。ビデオブロックは、サイズを固定することも変更することもでき、指定のコーディング規格に応じてサイズが異なることがある。
[0054]一例として、HMは、様々なPUサイズでの予測をサポートする。特定のCUのサイズが2N×2Nであると仮定すると、HMは、2N×2NまたはN×NのPUサイズでのイントラ予測をサポートし、2N×2N、2N×N、N×2N、またはN×Nの対称的なPUサイズでのインター予測をサポートする。HMはまた、2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズでのインター予測のための非対称分割をサポートする。非対称分割では、CUの一方向は分割されないが、他の方向は25%と75%とに分割される。25%の分割に対応するCUの部分は、「n」とその後ろに付く「Up」、「Down」、「Left」、または「Right」という表示によって示される。したがって、たとえば、「2N×nU」は、上部の2N×0.5N PUと下部の2N×1.5N PUとで水平方向に分割された2N×2N CUを指す。
[0055]本開示では、「N×N(NxN)」および「N×N(N by N)」は、垂直寸法および水平寸法に関するビデオブロックのピクセル寸法、たとえば、16×16(16x16)ピクセルまたは16×16(16 by 16)ピクセルを指すために互換的に使用され得る。概して、16×16ブロックは、垂直方向に16ピクセルを有し(y=16)、水平方向に16ピクセルを有する(x=16)。同様に、N×Nブロックは、一般に、垂直方向にNピクセルを有し、水平方向にNピクセルを有し、ここで、Nは非負整数値を表す。ブロック中のピクセルは行と列に構成され得る。その上、ブロックは、必ずしも、水平方向において垂直方向と同じ数のピクセルを有する必要があるとは限らない。たとえば、ブロックはN×Mピクセルを備えてよく、ただし、Mは必ずしもNに等しいとは限らない。
[0056]CUのPUを使用したイントラ予測コーディングまたはインター予測コーディングの後、ビデオエンコーダ20は、CUのTUによって指定された変換が適用される残差データを計算し得る。残差データは、符号化されていないピクチャのピクセルと、CUに対応する予測値との間のピクセル差分に対応し得る。ビデオエンコーダ20は、CUのための残差データを形成し、次いで、残差データを変換して、変換係数を生成し得る。
[0057]変換係数を生成するための任意の変換の後に、ビデオエンコーダ20は、変換係数の量子化を実施し得る。量子化は、概して、さらなる圧縮を提供する、係数を表すために使用されるデータの量をできるだけ低減するために変換係数を量子化するプロセスを指す。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。たとえば、量子化中にnビット値がmビット値に切り捨てられ得、この場合、nはmよりも大きい。
[0058]いくつかの例では、ビデオエンコーダ20は、エントロピー符号化され得る連続したベクトルを生成するために、量子化変換係数を走査するためにあらかじめ定義された走査順序を利用し得る。他の例では、ビデオエンコーダ20は適応走査を実施し得る。量子化変換係数を走査して1次元ベクトルを形成した後に、ビデオエンコーダ20は、たとえば、コンテキスト適応型可変長コーディング(CAVLC:context-adaptive variable length coding)、コンテキスト適応型バイナリ算術コーディング(CABAC:context-adaptive binary arithmetic coding)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)、確率間隔分割エントロピー(PIPE:Probability Interval Partitioning Entropy)コーディング、または別のエントロピー符号化方法に従って1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ20はまた、ビデオデータを復号する際にビデオデコーダ30が使用するための符号化ビデオデータに関連するシンタックス要素をエントロピー符号化し得る。
[0059]CABACを実施するために、ビデオエンコーダ20は、送信されるべきシンボルに、コンテキストモデル内のコンテキストを割り当て得る。コンテキストは、たとえば、シンボルの隣接値が非0であるか否かに関係し得る。CAVLCを実施するために、ビデオエンコーダ20は、送信されるべきシンボルの可変長コードを選択し得る。VLCにおけるコードワードは、比較的短いコードが優勢シンボルに対応し、より長いコードが劣勢シンボルに対応するように構成され得る。このようにして、VLCの使用は、たとえば、送信されるべき各シンボルのために等長コードワードを使用するよりも、ビット節約を達成し得る。確率判断は、シンボルに割り当てられるコンテキストに基づき得る。
[0060]最近のHEVC標準化活動では、いわゆる並列動き推定(PME)エリアを有効にすることに関連したいくつかの提案がある。PMEエリアは一般に、CUグループからなり、動き推定(ME)は、グループ中の各CUに対して並列に行われる。動き推定を並列に実施すると、符号化と復号の両方に対する処理時間を高速化することができる。PMEについての1つの提案は、このPMEエリアのサイズが、スライスレベルにおいて、符号化ビデオビットストリーム中でシグナリングされるべきであることを提案している。同じサイズのPMEエリアが、特定のスライス内で適用される。つまり、スライスは、スライスのサイズに依存して、ある特定の数の隣接し合うPMEエリアに分割される。図2は、隣接し合うPMEエリア202に分割されたスライス200を示す概念図である。
[0061]動き推定は、ビデオデータのブロック(たとえば、PUまたはCU)についての動きベクトルを判断するのに使われるプロセスである。エンコーダは、一例として、エンコーダが時間的に後続のあるいは将来の参照フレーム中の各ブロックについて探索する、参照フレーム中の「動き探索」と呼ばれ得るものを実施することによってこれらの動きベクトルを判断する。現在部分に最も良く一致する(または十分に一致する)参照フレームのブロックを見つけると、エンコーダは、現在のブロックのための現在の動きベクトルを、現在のブロックから参照フレーム中の一致する部分までの(すなわち、現在のブロックの中心から一致する部分の中心までの)ロケーションの差分として判断する。
[0062]いくつかの例では、エンコーダは、符号化ビデオビットストリーム中で、各ブロックについて動きベクトルをシグナリングし得る。シグナリングされた動きベクトルは、ビデオデータを復号するために、デコーダによって動き補償を実施するために使用される。ただし、動きベクトル全体をシグナリングすると、予測動きベクトルシグナリングで達成され得るコーディングよりも効率的でなくなる場合がある。
[0063]いくつかの事例では、動きベクトル全体をシグナリングするのではなく、エンコーダは、各分割について動きベクトルを予測し得る。動きベクトル予測プロセスを実施する際に、エンコーダは、現在のブロックと同じフレーム中の空間的に隣接するPUについて判断される候補動きベクトルのセット、あるいは別の参照フレーム中のコロケートPUについて判断される候補動きベクトルを選択し得る。エンコーダは、シグナリングにおけるビットレートおよび複雑さを低減するために、動きベクトル全体をシグナリングするのではなく動きベクトル予測を実施し得る。
[0064]動きベクトル予測の2つの異なるモードまたはタイプが、HEVCにおいて使用するために現在提案されている。一方のモードは「マージ」モードと呼ばれる。他方のモードは高度動きベクトル予測(AMVP)モードと呼ばれる。マージモードにおいて、エンコーダは、予測シンタックスのビットストリームシグナリングを通して、デコーダに、フレームの現在のブロックについての、選択された候補ブロックからの動き情報(動きベクトル予測子、すなわち「MVP」)をコピーするよう命令する。動き情報は、動きベクトルと、参照インデックス(動きベクトルが指す所与の参照ピクチャリスト中の参照フレームを識別する)と、動き予測方向(参照ピクチャリストを、すなわち、参照フレームが現在フレームに時間的に先行するか、それとも後続するかによって識別する)とを含む。マージモードでは、ビデオエンコーダは、選択された候補動きベクトルを有する候補ブロックを識別するインデックス(たとえば、mvp_idx)を、符号化ビデオビットストリーム中でシグナリングする。
[0065]したがって、マージモードでは、予測シンタックスは、モード(この場合は「マージ」モード)を識別するフラグと、候補ブロックのロケーションを識別するインデックスとを含み得る。いくつかの事例では、候補ブロックは、現在のブロックを参照する因果的ブロックになる。すなわち、候補ブロックは、デコーダによってすでに復号されていることになる。したがって、デコーダは、候補ブロックのための動きベクトル、参照インデックス、および動き予測方向をすでに受信および/または判断している。したがって、デコーダは、単に、メモリから、候補ブロックに関連する動きベクトルと参照インデックスと動き予測方向とを取り出し、現在のブロックについてこれらの値をコピーし得る。
[0066]AMVPモードでは、エンコーダは、候補ブロック(すなわち、MVP)から動きベクトルのみをコピーするようにビットストリームシグナリングを通してデコーダに命令し、参照フレームと予測方向とを別々にシグナリングする。AMVPモードでは、コピーされるべき動きベクトルは、動きベクトル差分(MVD:motion vector difference)を送ることによってシグナリングされ得る。MVDは、現在のブロックのための現在の動きベクトルと、選択された候補ブロックのための候補動きベクトルとの間の差分である。このように、デコーダは、現在の動きベクトルのために候補動きベクトルの厳密なコピーを使用する必要はないが、そうではなく、現在の動きベクトルに値が「近接」した候補動きベクトルを使用し、現在の動きベクトルを再生するためにMVDを加算し得る。たいていの状況では、MVDは、シグナリングするために現在の動きベクトル全体よりも少ないビットを必要とする。
[0067]したがって、AMVPモードは、動きベクトル全体をシグナリングすることと比較して、符号化効率を維持しながら、現在の動きベクトルを正確にシグナリングすることを可能にする。AMVPとは対照的に、マージモードはMVDの指定に対応しておらず、したがって、マージモードは、シグナリング効率の増加(すなわち、ビットの低減)のために動きベクトルシグナリングの精度を犠牲にする。AMVPモードの予測シンタックスは、モード(この場合はAMVPモード)のフラグと、候補ブロックのインデックスと、現在の動きベクトルと候補ブロックからの予測動きベクトルとの間のMVDと、参照インデックスと、動き予測方向とを含み得る。AMVPモードは、マージモードの場合と同様にして、候補ブロックを選択することができる。
[0068]図3は、そこから動きベクトル予測子候補が動きベクトル予測モードに関して生成される、空間的近傍ブロックと時間的近傍ブロックとを示す概念図である。HEVCについての1つの例示的な提案では、マージおよびAMVPモードの両方が、現在のビデオブロックまたはPU312に関する動きベクトルをそこから特定するべき、同じ動きベクトル予測子候補リストを使う。マージモードおよびAMVPモードにおける動きベクトル予測子候補は、たとえば、図3に示す近傍ブロックA、B、C、DおよびEなど、現在のPU312の空間的近傍ブロックに関する動きベクトルを含み得る。動きベクトル予測子候補はまた、たとえば、図3に示す隣接ブロックT1およびT2など、現在のPU312のコロケートブロック314の時間的隣接ブロックに関する動きベクトルを含み得る。コロケートブロックとは、現在コーディング中のブロックとは異なるピクチャ中のブロックである。場合によっては、動きベクトル予測子候補は、隣接ブロックのうちの2つ以上の動きベクトルの組合せ、たとえば、2つ以上の動きベクトルの平均値、中央値、または重み付き平均値を含み得る。
[0069]動きベクトル予測プロセスを(たとえば、マージまたはAMVPモードで)実施するとき、現在CU向けの動きベクトル予測子候補についてのインデックスが、動きベクトル候補リストから判断される。ただし、PMEが有効にされた場合、どのような隣接ブロックが動きベクトル予測子候補として利用可能であり得るかに対して、いくつかの制約が適用され得る。たとえば、CUグループ中の1つのCUは、同じPMEエリア向けのCUグループの他のCUを参照する動きベクトル予測子候補を有することができない。というのは、PMEエリア向けのグループ中の各CUについての動き推定は並列に行われるので、グループの他のCUについての動き推定がまだ実施されていないからである。したがって、同じPMEエリア内の隣接CUについてのどの動きベクトル情報も、動きベクトル予測プロセスにおける検討のために利用可能でない。
[0070]上述したように、一例では、PMEエリアのサイズは、スライスヘッダにおいてシグナリングされ得る。他の例では、PMEエリアは他のレベルでシグナリングされ得る。たとえば、PMEエリアは、LCUレベルで、ピクチャレベルで、ピクチャパラメータセット(PPS)中で、適合パラメータセット(APS)中で、シーケンスパラメータセット(SPS)中などでシグナリングされ得る。PME領域についての例示的サイズは、8×8、16×16、32×32または64×64を含む。PME領域のサイズは、ゼロとしてシグナリングされてもよく、これはPMEが使われないことを意味する。したがって、デコーダは、PMEと非PME(通常)モードの両方のモードをサポートするように構成され得る。
[0071]PMEエリアでは、すべてのMEが並列に実施されるので、動き情報は、同じPMEエリアの内側に置かれたCUからは使うことができない。言い換えると、CUグループ間依存が、PME領域についてなくされる。さらに、並列MEのために、PU間依存も断ち切ることが望ましい場合がある。この場合、1つのPUは、同じCUの近隣PUからの動き情報を使うことができない。したがって、PMEが有効にされると、PUおよびCU依存はすべて、同じPME領域内で解消可能であるべきである。このような依存解消プロセスは、「PMEスタイル」での動きベクトル候補リスト構築(すなわち、PMEスタイル候補リスト構築)と呼ぶことができる。
[0072]図4は、PMEスタイル候補リスト構築のための利用不可能な候補ブロックを示す概念図である。図4に示すように、現在CU412はPMEエリア202内にある。この例では、動きベクトル予測プロセス(たとえば、マージモードやAMVPモード)のための候補隣接ブロックE、BおよびCは、PMEエリアの外側にある。したがって、これらの候補ブロックは、動き予測プロセスに使うことができる。ただし、候補ブロックAおよびDは、PMEエリア202内の別のCUからのものである。したがって、これらの候補ブロックは、動きベクトル予測プロセス用の候補リストから削除される(または追加されない)。
[0073]図5は、PMEスタイル候補リスト構築の例を示すフローチャートである。最初に、ビデオエンコーダ20および/またはビデオデコーダ30は、候補ブロックリスト中の第1の可能な候補ブロックを検討する(500)。一例として、可能な候補ブロックは、図3に示す候補ブロックであってよい。ただし、他の構成の候補ブロックも使うことができる。次に、ビデオエンコーダ20および/またはビデオデコーダ30は、候補ブロックが、現在のコードブロックと同じPMEエリア内にあるかどうか判断する(502)。一例では、候補ブロックが、同じPMEエリア内のCUからのものであるかどうかだけが判断される。別の例では、候補ブロックが同じPMEエリア内のPUであるかどうか判断される。PUを検討するとき、候補PUは、現在コーディング中のCUと同じCUからのものであり得る。
[0074]可能な候補ブロックが、現在コーディング中のブロックと同じPMEエリア内にある場合、ビデオエンコーダ20および/またはビデオデコーダ30は、候補リストに可能な候補ブロックを追加しない(504)。可能な候補ブロックが、現在コーディング中のブロックと同じPMEエリア内にない場合、ビデオエンコーダ20および/またはビデオデコーダ30は、候補リストに可能な候補ブロックを追加する(506)。次に、ビデオエンコーダ20および/またはビデオデコーダ30は、可能な候補ブロックが最後の候補ブロックだったかどうか判断する(508)。最後の候補ブロックだった場合、候補リスト構築は停止する。最後の候補ブロックではなかった場合、候補リスト構築プロセスは、リスト中の次の可能な候補ブロックに対して再開する。一例では、固定数n個の候補ブロックのみが、候補リストへの追加についてチェックされる。別の例では、1つまたは複数の可能な候補ブロック(たとえば、図3に示すもの)は、PMEエリア内にあり、1つまたは複数の追加候補ブロックがリストに含めるかどうかを検討され得るので、候補リストに含まれない。
[0075]候補リスト構築のための上記プロセスは、PMEが有効にされているときに適用される。ただし、非PME(通常)MEの場合、PUとCUとの間の依存が存在し得る。たとえば、近隣CUまたはPUは、現在コーディング中のCUまたはPUとは並列に処理されないので、時間参照インデックスが近隣CUまたはPUから導出され得る。さらに、N×N分割モードの場合、動き情報は、同じCUの近隣PUから取得され得る。CUとPUの相互依存を制限しない候補リスト構築プロセスは、「通常スタイル」候補リスト構築と呼ばれ得る。
[0076]要するに、PME概念が有効にされていると、動きベクトル候補リストが、2つの異なるやり方(たとえば、PMEスタイルおよび通常スタイル)で構築され得る。PMEに適合するデコーダは、両方のモードをサポートするように構成することができ、したがって、実装コストを増大させる可能性がある。上述した欠点を考慮して、本開示は、PME有効ビデオコーダのための、動きベクトルをコーディングするための技法を提示する。本技法は、シグナリングされたPMEエリア(すなわち、明示的PMEエリア)よりも大きいブロックについてのPMEエリアの暗黙的導出を含む。
[0077]上述したように、一例では、PMEサイズは、スライスヘッダにおいてシグナリングされ得る。したがって、PMEサイズ以下のサイズのCUに対して、並列動き推定が適用されてよく、PMEスタイル動きベクトル候補リスト構築が使われる。PMEサイズよりも大きいサイズのCUに対して、通常スタイル動きベクトル候補リスト構築が使われ得る。
[0078]ただし、柔軟性を増すために、本開示は、PMEスタイル動きベクトル候補リスト構築も、シグナリングされたPMEサイズよりも大きいCUに対して使われ得ることを提案する。この特徴をサポートするために、本開示は、PMEサイズを暗黙的に導出する概念を提案する。
[0079]本開示の例によると、暗黙的PMEサイズとは、シグナリングされたPMEサイズの受信とともに、または受信を伴わずに使うことができるPMEエリアのサイズである。同じPMEスタイル動きベクトル候補モードが、この暗黙的に導出されたPMEエリア用に使われ得るが、この領域についてのサイズシグナリングはなくてよい。暗黙的PMEエリアのサイズは、たとえば、CUサイズ、PUサイズ、CU予測モード、分割モードおよび/またはスライスタイプに基づいて導出することができる。
[0080]たとえば、スライスヘッダにおいてシグナリングされたPMEサイズが8×8であると仮定する。したがって、この例では、PMEスタイル動きベクトル候補リスト構築は、8×8以下のすべてのCUに対して使われ得る。8×8CUよりも大きいCUに対して、通常スタイル動きベクトル候補リスト構築を使う代わりに、暗黙的に導出されたPMEエリアが、16×16および32×32のCUサイズに対して適用され得る。つまり、16×16のサイズのCUの場合、ビデオデコーダ30は、そのCUに対して16×16PMEエリアを適用し、ならびにPMEスタイル候補リスト構築規則を使うように構成され得る。同様に、32×32のサイズのCUの場合、ビデオデコーダ30は、そのCUに対して32×32のPMEエリアを適用し、ならびにPMEスタイル候補リスト構築規則を使うように構成され得る。
[0081]別の例では、通常スタイルマージモードは依然として、64×64CUに対して使うことができ、シグナリングされ暗黙的に導出されたPMEエリアは、より小さいCUに対して使われる。この例では、明示的にシグナリングされたPME領域が8×8であるとき、暗黙的に導出されたPME領域が、16×16および32×32のサイズのCUに対して適用され得る(これらのサイズ向けのPME領域は、シグナリングなしで導出される)。ただし、この例では、PMEおよび通常スタイルマージモードの両方が使用され得、したがって、デコーダは、両方をサポートするように構成され得る。
[0082]デコーダのハードウェア/ソフトウェア実装形態の場合、一様動きベクトル予測処理を有することが望ましい。したがって、シグナリングされたPMEエリアよりも大きいCUに対して暗黙的に導出されたPMEエリアを使い、ならびにPMEスタイル動きベクトル候補リスト構築を一様に適用することにより、デコーダの実装の複雑さを低下することができる。
[0083]本開示の別の例では、PMEスタイル動きベクトル候補リスト構築は、(たとえば、スライスヘッダにおいて)シグナリングされたPMEサイズにかかわらず、およびCUサイズにかかわらず、すべてのCUに対して適用され得る。したがって、CUサイズと等しいサイズのPME領域が、シグナリングされたPMEエリアの外側に置かれたすべてのCUに対して暗黙的に導出および適用され得る。したがって、通常動きベクトル候補リスト構築は完全に除去され得、デコーダは、PMEスタイル動きベクトル候補リスト構築をサポートするだけでよい。
[0084]たとえば、PMEが適用されない(たとえば、PMEサイズが、ゼロとシグナリングされた)場合、HEVCの現在のテストモデルに従って、通常動きベクトル候補リスト構築が適用される。ただし、本開示において提案される技法によると、通常スタイル動きベクトル候補リスト構築は、現在CUサイズと同じサイズをもつPMEサイズの暗黙的導出による、PMEスタイル動きベクトル候補リスト構築で置き換えられ得る。したがって、PMEスタイル動きベクトル候補リスト構築のみが使われ、通常スタイル動きベクトル候補リスト構築に存在し得るPU間依存が、PMEエリアおよびPMEモードの暗黙的適用により除去される。言い換えると、ただ1つのPMEスタイル動きベクトル候補リスト構築が、あらゆるCUに対して使用され得、このCUに対するすべてのPUが並列に処理され得る。
[0085]本開示の別の例では、スライスヘッダにおいてPMEサイズNがシグナリングされ得る。この場合、PMEサイズが、サイズNよりも大きいCUに対して暗黙的に適用され得る。PMEスタイル動きベクトル候補リスト構築が次いで、シグナリングされたPMEサイズN以下のサイズのCUに対して適用され得る。少なくともすべてのインターCU依存が除去され得る。さらなるPU間依存が除去されてもよく、残ってもよい。PMEサイズは、シグナリングされたPMEサイズNよりも大きいCUについて暗黙的に導出され得る。暗黙的PMEエリアのサイズは、CUサイズと等しくてよい。言い換えると、PMEスタイル動きベクトル候補リスト構築のみが、これらのCUに対して使用され得、これらのCUに対するすべてのPUが並列に処理され得る。
[0086]シグナリングされたPMEエリアの内側に置かれたCUと、PMEがそれについて暗黙的に導出されるCUは、いくつかの違いを呈し得る。PMEエリアの内側に置かれたCUについては、少なくともCU間依存が除去され得る。このことは、この場合、PMEエリアの内側のあらゆるCUに対するMEが並列に行われ得、PU間依存が依然として存在し得ることを意味する。一方、暗黙的に導出されたPMEエリアについては、PU間依存が除去され得る。このことは、この場合、同じCUのあらゆるPUが並列に処理され得ることを意味する。
[0087]本開示の技法は、どの区画構成にも、どのサイズのCUにも、ならびに任意の数の区画および/またはブロックにも適用することができる。本開示の技法は、動きベクトル予測プロセス(たとえば、マージモードおよびAMVPモード)について一般的に記載されているが、本開示の技法は、マージモードのみ、AMVPモード、マージおよびAMVPモードの両方、または他のどのインター予測モードにも適用され得る。
[0088]CUと区画とを参照して記載した本開示の技法は、PU、LCU、ブロックのグループ、および区画のグループも対象とし得る。本開示の技法は、他のタイプ、または異なるレベルにおけるCUまたはブロックにも適用することができる。たとえば、本開示の技法は、LCU、CU、PU、TU、LCUのグループ、CUのグループ、PUのグループ、TUのグループまたは他のサブブロックレベルに適用することもできる。
[0089]図6は、本開示で説明する動きベクトル予測のための技法を実装し得る例示的なビデオエンコーダ20を示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングおよびインターコーディングを実施し得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオの空間的冗長性を低減または除去するために空間的予測に依拠する。インターコーディングは、ビデオシーケンスの隣接フレームまたはピクチャ内のビデオの時間的冗長性を低減または除去するための時間的予測による。イントラモード(Iモード(登録商標))は、いくつかの空間ベースの圧縮モードのいずれも参照し得る。単方向予測(Pモード)または双予測(Bモード)などのインターモードは、いくつかの時間ベースの圧縮モードのいずれも参照し得る。
[0090]図6の例では、ビデオエンコーダ20は、分割ユニット35と、予測処理ユニット41と、参照ピクチャメモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56とを含む。予測処理ユニット41は、動き推定ユニット42と、動き補償ユニット44と、イントラ予測処理ユニット46とを含む。ビデオブロック再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換処理ユニット60と、加算器62とを含む。再構成されたビデオからブロッキネスアーティファクト(blockiness artifact)を除去するためにブロック境界をフィルタ処理するデブロッキングフィルタ(図6に図示せず)も含まれ得る。望むのであれば、デブロッキングフィルタは、一般に、加算器62の出力をフィルタ処理する。追加のループフィルタ(ループ内またはループ後)もデブロッキングフィルタに加えて使用され得る。
[0091]図6に示すように、ビデオエンコーダ20はビデオデータを受信し、分割ユニット35はデータをビデオブロックに分割する。この分割は、たとえば、LCUおよびCUの4分木構造に応じて、スライス、タイル、または他のより大きいユニットへの分割、ならびにビデオブロック分割をも含み得る。ビデオエンコーダ20は、概して、符号化されるべきビデオスライス内のビデオブロックを符号化する構成要素を示す。スライスは、複数のビデオブロックに(および、場合によっては、タイルと呼ばれるビデオブロックのセットに)分割され得る。予測処理ユニット41は、誤り結果(たとえば、コーディングレートおよびひずみレベル)に基づいて現在のビデオブロックのために、複数のイントラコーディングモードのうちの1つ、または複数のインターコーディングモードのうちの1つなど、複数の可能なコーディングモードのうちの1つを選択し得る。予測処理ユニット41は、得られたイントラコード化ブロックまたはインターコード化ブロックを、残差ブロックデータを生成するために加算器50に与え、参照ピクチャとして使用するための符号化ブロックを再構成するために加算器62に与え得る。
[0092]予測処理ユニット41内のイントラ予測処理ユニット46は、空間圧縮を行うために、コーディングされるべき現在のブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに対する現在のビデオブロックのイントラ予測コーディングを実施し得る。予測処理ユニット41内の動き推定ユニット42および動き補償ユニット44は、時間圧縮を行うために、1つまたは複数の参照ピクチャ中の1つまたは複数の予測ブロックに対する現在のビデオブロックのインター予測コーディングを実施する。
[0093]動き推定ユニット42は、ビデオシーケンスに関する前もって決められたパターンに従ってビデオスライスのためのインター予測モードを決定するように構成され得る。前もって決められたパターンは、シーケンス中のビデオスライスをPスライス、BスライスまたはGPBスライスに指定し得る。動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示されている。動き推定は、動き推定ユニット42によって実施されるが、動きベクトルを生成するプロセスであり、ビデオブロックに関する動きを推定する。動きベクトルは、たとえば、参照ピクチャ内の予測ブロックに対する現在のビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。
[0094]予測ブロックは、ピクセル差分に関してコーディングされるビデオブロックのPUにぴったり一致すると認められるブロックであり、それは、絶対値差分和(SAD)、差分2乗和(SSD)、または他の差分メトリックによって判断され得る。いくつかの例では、ビデオエンコーダ20は、参照ピクチャメモリ64に記憶された参照ピクチャのサブ整数ピクセル(sub-integer)位置に関する値を計算し得る。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置と分数ピクセル位置とに対する動き探索を実施し、分数ピクセル精度で動きベクトルを出力し得る。
[0095]動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インター符号化スライス中のビデオブロックのPUに関する動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得、それらの参照ピクチャリストの各々は、参照ピクチャメモリ64に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。
[0096]本開示の例によると、動きベクトル自体をシグナリングするよりもむしろ、動き推定ユニット42は、動きベクトル予測プロセスを使えばよい。さらに、本開示の例によると、動き推定ユニット42は、PMEエリアよりも大きいブロックに関しても、PMEエリア内の両方のブロックに対して、PME、ならびにPMEスタイル動きベクトル候補リスト構築を実施するように構成され得る。ブロックがPMEエリアよりも大きい場合、動き推定ユニット42は、ブロックのサイズに等しい暗黙的PMEエリアを導出するように構成され得る。
[0097]このように、動き推定ユニット42は、単独またはビデオエンコーダ20の他の機能ユニットと組み合わされて、PMEスタイル候補リスト構築プロセスとPMEエリアとを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、PMEエリアのサイズの指示をシグナリングするように構成され得る。
[0098]動き補償ユニット44によって実施される動き補償は、動き推定によって決定された動きベクトルに基づいて予測ブロックを取り出す(fetch)または生成すること、場合によってはサブピクセル精度への補間を実施することを伴い得る。現在のビデオブロックのPUに関する動きベクトルを受信すると、動き補償ユニット44は、参照ピクチャリストのうちの1つにおいて動きベクトルが指す予測ブロックの位置を特定し得る。ビデオエンコーダ20は、コーディングされている現在のビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって残差ビデオブロックを形成する。ピクセル差分値は、ブロックの残差データを形成し、輝度差分成分と彩度差分成分の両方を含み得る。加算器50は、この減算演算を実施する1つまたは複数の構成要素を表す。動き補償ユニット44はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30が使用するための、ビデオブロックとビデオスライスとに関連するシンタックス要素を生成し得る。
[0099]イントラ予測処理ユニット46は、上記で説明したように、動き推定ユニット42と動き補償ユニット44とによって実施されるインター予測の代替として、現在のブロックをイントラ予測し得る。特に、イントラ予測処理ユニット46は、現在のブロックを符号化するために使用すべきイントラ予測モードを決定し得る。いくつかの例では、イントラ予測処理ユニット46は、たとえば、別々の符号化パス中に、様々なイントラ予測モードを使用して現在のブロックを符号化し得、イントラ予測処理ユニット46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから、使用するのに適切なイントラ予測モードを選択し得る。たとえば、イントラ予測処理ユニット46は、様々なテストされたイントラ予測モードに関するレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの中で最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は、概して、符号化されたブロックと、その符号化されたブロックを生成するために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化されたブロックを生成するために使用されるビットレート(すなわち、ビット数)を判断する。イントラ予測処理ユニット46は、どのイントラ予測モードがブロックに関する最良のレートひずみ値を呈するかを判断するために、様々な符号化ブロックに関するひずみおよびレートから比率を計算し得る。
[0100]どんな場合でも、ブロックに関するイントラ予測モードを選択した後、イントラ予測処理ユニット46は、ブロックに関して選択されたイントラ予測モードを示す情報を、エントロピー符号化ユニット56に提供することができる。エントロピー符号化ユニット56は、本開示の技法に従って選択されたイントラ予測モードを示す情報を符号化し得る。ビデオエンコーダ20は、送信ビットストリーム中に設定データを含み得、それは、複数のイントラ予測モードインデックステーブルおよび複数の変更されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも呼ばれる)と、様々なブロックの符号化コンテキストの定義と、および、コンテキストの各々について使用する、変更されたイントラ予測モードインデックステーブル、イントラ予測モードインデックステーブル、もっともあり得るイントラ予測モードの指示とを含み得る。
[0101]予測処理ユニット41が、インター予測またはイントラ予測のいずれかを介して、現在のビデオブロックのための予測ブロックを生成した後、ビデオエンコーダ20は、現在のビデオブロックから予測ブロックを減算することによって残差ビデオブロックを形成する。残差ブロック中の残差ビデオデータは、1つまたは複数のTU中に含まれ、変換処理ユニット52に適用され得る。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を使用して、残差ビデオデータを残差変換係数に変換する。変換処理ユニット52は、残差ビデオデータをピクセル領域から周波数領域などの変換領域に変換し得る。
[0102]変換処理ユニット52は、得られた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット54は、次いで、量子化変換係数を含む行列の走査を実施し得る。代替的に、エントロピー符号化ユニット56が走査を実施し得る。
[0103]量子化に続いて、エントロピー符号化ユニット56は、量子化変換係数をエントロピー符号化する。たとえば、エントロピー符号化ユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔分割エントロピー(PIPE)コーディングまたは別のエントロピー符号化方法または技法を実施し得る。エントロピー符号化ユニット56によるエントロピー符号化の後に、符号化されたビットストリームは、ビデオデコーダ30に送信されるか、あるいはビデオデコーダ30が後で送信するかまたは取り出すためにアーカイブされ得る。エントロピー符号化ユニット56はまた、コーディングされている現在のビデオスライスのための動きベクトルと他のシンタックス要素とをエントロピー符号化し得る。
[0104]逆量子化ユニット58および逆変換処理ユニット60は、それぞれ逆量子化および逆変換を適用して、参照ピクチャの参照ブロックとして後で使用するためにピクセル領域において残差ブロックを再構成する。動き補償ユニット44は、残差ブロックを参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、動き推定において使用するためのサブ整数ピクセル値を計算するように再構成された残差ブロックに1つまたは複数の補間フィルタを適用し得る。加算器62は、再構成された残差ブロックを参照ピクチャメモリ64に記憶するための参照ブロックを生成するように動き補償ユニット44によって生成された動き補償予測ブロックに加算する。参照ブロックは、後続のビデオフレームまたはピクチャ中のブロックをインター予測するために、参照ブロックとして動き補償ユニット44および動き推定ユニット42によって使用され得る。
[0105]図7は、本開示で説明する動きベクトル予測のための技法を実装し得る例示的なビデオデコーダ30を示すブロック図である。図7の例では、ビデオデコーダ30は、エントロピー復号ユニット80と、予測処理ユニット81と、逆量子化ユニット86と、逆変換ユニット88と、加算器90と、参照ピクチャメモリ92とを含む。予測処理ユニット81は、動き補償ユニット82と、イントラ予測処理ユニット84とを含む。ビデオデコーダ30は、いくつかの例では、図6のビデオエンコーダ20に関して説明した符号化パスとは概して逆の復号パスを実施し得る。
[0106]復号プロセス中に、ビデオデコーダ30は、ビデオエンコーダ20から、符号化ビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化されたビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット80は、量子化係数と、動きベクトルと、他のシンタックス要素とを生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット80は、予測処理ユニット81に動きベクトルと他のシンタックス要素とを転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。
[0107]ビデオスライスがイントラコード化(I)スライスとしてコーディングされるとき、予測処理ユニット81のイントラ予測処理ユニット84は、シグナリングされたイントラ予測モードと、現在フレームまたはピクチャの、前に復号されたブロックからのデータとに基づいて、現在のビデオスライスのビデオブロックのための予測データを生成し得る。ビデオフレームがインターコード化(すなわち、B、PまたはGPB)スライスとしてコーディングされるとき、予測処理ユニット81の動き補償ユニット82は、エントロピー復号ユニット80から受信された動きベクトルおよび他のシンタックス要素に基づいて、現在のビデオスライスのビデオブロックのための予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ92に記憶された参照ピクチャに基づいて、デフォルトの構成技法を使用して、参照フレームリスト、すなわち、リスト0およびリスト1を構成し得る。
[0108]動き補償ユニット82は、動きベクトルと他のシンタックス要素とを解析することによって現在のビデオスライスのビデオブロックについての予測情報を判断し、復号されている現在のビデオブロックに関する予測ブロックを生成するために、予測情報を使用する。たとえば、動き補償ユニット82は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(たとえば、イントラまたはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、PスライスまたはGPBスライス)と、スライスの参照ピクチャリストのうちの1つまたは複数についての構成情報と、スライスの各インター符号化ビデオブロックについての動きベクトルと、スライスの各インターコード化ビデオブロックについてのインター予測ステータスと、現在のビデオスライス中のビデオブロックを復号するための他の情報とを判断するために、受信されたシンタックス要素のいくつかを使用する。
[0109]本開示の例によると、動き補償ユニット82は、動きベクトル予測プロセスを使うことができる。さらに、本開示の例によると、動き補償ユニット82は、PMEエリアよりも大きいブロックに関しても、PMEエリア内の両方のブロックに対して、PME、ならびにPMEスタイル動きベクトル候補リスト構築を実施するように構成され得る。ブロックがPMEエリアよりも大きい場合、動き補償ユニット82は、ブロックのサイズに等しい暗黙的PMEエリアを導出するように構成され得る。
[0110]このように、動き補償ユニット82は、単独またはビデオデコーダ30の他の機能ユニットと組み合わされて、PMEエリアのサイズの指示を受信し、PMEスタイル候補リスト構築プロセスとPMEエリアとを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出し、PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するように構成され得る。
[0111]動き補償ユニット82はまた、補間フィルタに基づいて補間を実施し得る。動き補償ユニット82は、参照ブロックのサブ整数ピクセルの補間値を計算するために、ビデオブロックの符号化中にビデオ符号器20によって使用される補間フィルタを使用し得る。この場合、動き補償ユニット82は、受信されたシンタックス要素からビデオ符号器20によって使用される補間フィルタを決定し、予測ブロックを生成するために、その補間フィルタを使用する。
[0112]逆量子化ユニット86は、ビットストリーム中で与えられ、エントロピー復号ユニット80によって復号された、量子化変換係数を逆量子化(inverse quantize)、すなわち、逆量子化(de-quantize)する。逆量子化プロセスは、量子化の程度を決定し、同様に、適用すべき逆量子化の程度を決定するために、ビデオスライス中の各ビデオブロックに関してビデオエンコーダ20によって計算される量子化パラメータの使用を含み得る。逆変換処理ユニット88は、ピクセル領域において残差ブロックを生成するために、逆変換、たとえば、逆DCT、逆整数変換、または概念的に同様の逆変換プロセスを変換係数に適用する。
[0113]動き補償ユニット82が、動きベクトルおよび他のシンタックス要素に基づいて現在のビデオブロックのための予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット88からの残差ブロックを動き補償ユニット82によって生成された対応する予測ブロックと加算することによって、復号ビデオブロックを形成する。加算器90は、この加算演算を実施する1つまたは複数の構成要素を表す。望むのであれば、デブロッキングフィルタも、ブロッキネスアーティファクトを除去するために、復号されたブロックをフィルタ処理するために適用され得る。他のループフィルタ(コーディングループ内またはコーディングループ後の)も、ピクセル遷移を平滑化するか、またはさもなければビデオ品質を改善するために使用され得る。次いで、所与のフレームまたはピクチャ内の復号されたビデオブロックは、参照ピクチャメモリ92に記憶され、そのメモリは、その後の動き補償に使用される参照ピクチャを記憶する。参照ピクチャメモリ92はまた、図1のディスプレイデバイス32などの、ディスプレイデバイス上での後の表示のための、復号されたビデオを記憶する。
[0114]図8は、本開示の技法による例示的な復号方法を示すフローチャートである。図8の方法は、ビデオデコーダ30の1つまたは複数のハードウェアユニットによって実装され得る。一例では、ビデオデコーダ30は、PMEエリアのサイズの指示を受信し(800)、PMEスタイル候補リスト構築プロセスとPMEエリアとを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施する(810)ように構成され得る。並列動き推定および動きベクトル予測は、一例では動き補償ユニット82によって実施され得る。一例では、PMEスタイル候補リスト構築プロセスは、動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する。別の例では、PMEスタイル候補リスト構築プロセスは、動きベクトル候補リストにおける予測ユニット間依存をさら除去する。
[0115]ビデオデコーダ30は、PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出し(820)、PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施する(830)ようにさらに構成され得る。一例では、暗黙的PMEエリアは、PMEエリアよりも大きいサイズを有する特定のコーディングユニットのサイズに等しい。動きベクトル予測プロセスを実施する際、ビデオデコーダ30は動きベクトルを生成する。ビデオデコーダ30は次いで、生成された動きベクトルを使って、コーディングユニットを復号する(840)ようにさらに構成される。
[0116]ビデオデコーダ30は、図5を参照して上述した技法を使って、PME候補リスト構築を実施するように構成され得る。PMEスタイル候補リスト構築の一例では、ビデオデコーダ30は、候補ブロックがPMEエリアまたは暗黙的PMEエリア内にあるかどうか判断し、候補ブロックがPMEエリアまたは暗黙的PMEエリア内にある場合は、動きベクトル候補リストに候補ブロックを追加せず、候補ブロックがPMEエリア内にも暗黙的PMEエリア内にもない場合は、動きベクトル候補リストに候補ブロックを追加するように構成され得る。
[0117]図8の技法は、マージモードとAMVPモードとを含む、どのタイプの動きベクトル予測プロセスにも適用することができる。図8の技法は、ビデオデコーダ30がPMEエリアおよび暗黙的PMEエリア内のすべてのコーディングユニットに対して並列動き推定を並列に実施するように構成され、ビデオデコーダ30が、PMEエリアよりも大きいコーディングユニットのすべての予測ユニットに対して並列に動き推定を実施するように構成される状況にも適用することできる。
[0118]図9は、本開示の技法による例示的な符号化方法を示すフローチャートである。図9の方法は、ビデオエンコーダ20の1つまたは複数のハードウェアユニットによって実装され得る。一例では、ビデオエンコーダ20は、PMEスタイル候補リスト構築プロセスとPMEエリアとを使って、PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施する(900)ように構成され得る。並列動き推定および動きベクトル予測プロセスは、動き推定ユニット42および動き補償ユニット44のうちの1つまたは複数を含む予測処理ユニット41によって実施することができる。ビデオエンコーダ20は、符号化ビデオビットストリーム中で、PMEエリアのサイズの指示をシグナリングする(920)こともできる。
[0119]ビデオエンコーダ20は、PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、PMEエリアよりも大きいサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施する(910)ようにさらに構成され得る。一例では、暗黙的PMEエリアは、PMEエリアよりも大きいサイズを有する特定のコーディングユニットのサイズに等しい。動きベクトル予測プロセスを実施する際、ビデオエンコーダ20は動きベクトルを生成する。ビデオエンコーダ20は次いで、生成された動きベクトルを使って、コーディングユニットを符号化する(930)ようにさらに構成される。
[0120]ビデオエンコーダ20は、図5を参照して上述した技法を使って、PME候補リスト構築を実施するように構成され得る。PMEスタイル候補リスト構築の一例では、ビデオエンコーダ20は、候補ブロックがPMEエリアまたは暗黙的PMEエリア内にあるかどうか判断し、候補ブロックがPMEエリアまたは暗黙的PMEエリア内にある場合は、動きベクトル候補リストに候補ブロックを追加せず、候補ブロックがPMEエリア内にも暗黙的PMEエリア内にもない場合は、動きベクトル候補リストに候補ブロックを追加するように構成され得る。
[0121]図9の技法は、マージモードとAMVPモードとを含む、どのタイプの動きベクトル予測プロセスにも適用することができる。図9の技法は、ビデオエンコーダ20がPMEエリアおよび暗黙的PMEエリア内のすべてのコーディングユニットに対して並列動き推定を並列に実施するように構成され、ビデオエンコーダ20が、PMEエリアよりも大きいコーディングユニットのすべての予測ユニットに対して並列に動き推定を実施するように構成される状況にも適用することできる。
[0122]1つまたは複数の例では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。各機能は、ソフトウェアで実装される場合、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されてよく、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行されてよい。コンピュータ可読媒体は、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む、データ記憶媒体または通信媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
[0123]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
[0124]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路によって実行され得る。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明する技法の実装に好適な他の構造のいずれかを指す。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用のハードウェアおよび/またはソフトウェアモジュール内に与えられ得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素中に十分に実装され得る。
[0125]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示する技法を実行するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットを、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作ハードウェアユニットの集合によって与えられ得る。
[0126]様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
[0126]様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]ビデオデータを復号するための方法であって、
並列動き推定(PME)エリアのサイズの指示を受信することと、
PMEスタイル候補リスト構築プロセスおよび前記PMEエリアを使って、前記PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施することと、
前記PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出することと、
前記PMEスタイル候補リスト構築プロセスおよび前記暗黙的PMEエリアを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施することと、
を備える方法。
[C2]前記暗黙的PMEエリアを導出することが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズと等しい前記暗黙的PMEエリアを導出することを備える、[C1]に記載の方法。
[C3]前記PMEスタイル候補リスト構築プロセスを実施することであって、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去することをさらに備える、[C1]に記載の方法。
[C4]前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル候補リストにおける予測ユニット間依存をさらに除去する、[C3]に記載の方法。
[C5]前記PMEスタイル候補リスト構築プロセスを実施することが、
候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にあるかどうか判断することと、
前記候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にある場合、前記動きベクトル候補リストに前記候補ブロックを追加しないことと、
前記候補ブロックが前記PMEエリア内にも前記暗黙的PMEエリア内にもない場合、前記動きベクトル候補リストに前記候補ブロックを追加することと、
を備える、[C3]に記載の方法。
[C6]前記動きベクトル予測プロセスがマージモードである、[C3]に記載の方法。
[C7]前記動きベクトル予測プロセスが高度動きベクトル予測プロセスである、[C3]に記載の方法。
[C8]前記PMEエリアおよび前記暗黙的PMEエリア内のすべてのコーディングユニットに対して動き推定を並列に実施することをさらに備える、[C1]に記載の方法。
[C9]前記PMEエリアよりも大きいコーディングユニットのすべての予測ユニットに対して動き推定を並列に実施することをさらに備える、[C1]に記載の方法。
[C10]前記動きベクトル予測プロセスを実施することが動きベクトルを生成し、前記方法が、
前記生成された動きベクトルを使って、前記コーディングユニットを復号することをさらに備える、[C1]に記載の方法。
[C11]ビデオデータを符号化するための方法であって、
PMEスタイル候補リスト構築プロセスおよび前記PMEエリアを使って、並列動き推定(PME)エリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施することと、
前記PMEスタイル候補リスト構築プロセスおよび暗黙的PMEエリアを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施することと、
前記PMEエリアのサイズの指示をシグナリングすることと、
を備える方法。
[C12]前記暗黙的PMEエリアが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい、[C11]に記載の方法。
[C13]前記PMEスタイル候補リスト構築プロセスを実施することであって、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去することをさらに備える、[C11]に記載の方法。
[C14]前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル候補リストにおける予測ユニット間依存をさらに除去する、[C13]に記載の方法。
[C15]前記PMEスタイル候補リスト構築プロセスを実施することが、
候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にあるかどうか判断することと、
前記候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にある場合、前記動きベクトル候補リストに前記候補ブロックを追加しないことと、
前記候補ブロックが前記PMEエリア内にも前記暗黙的PMEエリア内にもない場合、前記動きベクトル候補リストに前記候補ブロックを追加することと、
を備える、[C13]に記載の方法。
[C16]前記動きベクトル予測プロセスがマージモードである、[C13]に記載の方法。
[C17]前記動きベクトル予測プロセスが高度動きベクトル予測プロセスである、[C13]に記載の方法。
[C18]前記PMEエリアおよび前記暗黙的PMEエリア内のすべてのコーディングユニットに対して動き推定を並列に実施することをさらに備える、[C11]に記載の方法。
[C19]前記PMEエリアよりも大きいコーディングユニットのすべての予測ユニットに対して動き推定を並列に実施することをさらに備える、[C11]に記載の方法。
[C20]前記動きベクトル予測プロセスを実施することが動きベクトルを生成し、前記方法が、
前記生成された動きベクトルを使って、前記コーディングユニットを符号化することをさらに備える、[C11]に記載の方法。
[C21]ビデオデータを復号するように構成された装置であって、
並列動き推定(PME)エリアのサイズの指示を受信し、
PMEスタイル候補リスト構築プロセスと前記PMEエリアとを使って、前記PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、
前記PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出し、
前記PMEスタイル候補リスト構築プロセスと前記暗黙的PMEエリアとを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施する、
ように構成されたビデオデコーダを備える装置。
[C22]前記ビデオデコーダが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい前記暗黙的PMEエリアを導出するように構成される、[C21]に記載の装置。
[C23]前記ビデオデコーダが、
前記PMEスタイル候補リスト構築プロセスを実施するようにさらに構成され、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する、[C21]に記載の装置。
[C24]前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル候補リストにおける予測ユニット間依存をさらに除去する、[C23]に記載の装置。
[C25]前記ビデオデコーダが、
候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にあるかどうか判断し、
前記候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にある場合、前記動きベクトル候補リストに前記候補ブロックを追加せず、
前記候補ブロックが前記PMEエリア内にも前記暗黙的PMEエリア内にもない場合、前記動きベクトル候補リストに前記候補ブロックを追加するようにさらに構成される、[C23]に記載の装置。
[C26]前記動きベクトル予測プロセスがマージモードである、[C23]に記載の装置。
[C27]前記動きベクトル予測プロセスが高度動きベクトル予測プロセスである、[C23]に記載の装置。
[C28]前記ビデオデコーダが、
前記PMEエリアおよび前記暗黙的PMEエリア内のすべてのコーディングユニットに対して動き推定を並列に実施するようにさらに構成される、[C21]に記載の装置。
[C29]前記ビデオデコーダが、
前記PMEエリアよりも大きいコーディングユニットのすべての予測ユニットに対して動き推定を並列に実施するようにさらに構成される、[C21]に記載の装置。
[C30]前記動きベクトル予測プロセスの実施が動きベクトルを生成し、前記ビデオデコーダが、
前記生成された動きベクトルを使って、前記コーディングユニットを復号するようにさらに構成される、[C21]に記載の装置。
[C31]ビデオデータを符号化するように構成された装置であって、
PMEスタイル候補リスト構築プロセスと前記PMEエリアとを使って、並列動き推定(PME)エリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、
前記PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施し、
前記PMEエリアのサイズの指示をシグナリングする、
ように構成されたビデオエンコーダを備える装置。
[C32]前記暗黙的PMEエリアが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい、[C31]に記載の装置。
[C33]前記ビデオエンコーダが、
前記PMEスタイル候補リスト構築プロセスを実施するようにさらに構成され、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する、[C31]に記載の装置。
[C34]前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル候補リストにおける予測ユニット間依存をさらに除去する、[C33]に記載の装置。
[C35]前記ビデオエンコーダが、
候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にあるかどうか判断し、
前記候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にある場合、前記動きベクトル候補リストに前記候補ブロックを追加せず、
前記候補ブロックが前記PMEエリア内にも前記暗黙的PMEエリア内にもない場合、前記動きベクトル候補リストに前記候補ブロックを追加するようにさらに構成される、[C33]に記載の装置。
[C36]前記動きベクトル予測プロセスがマージモードである、[C33]に記載の装置。
[C37]前記動きベクトル予測プロセスが高度動きベクトル予測プロセスである、[C33]に記載の装置。
[C38]前記ビデオエンコーダが、
前記PMEエリアおよび前記暗黙的PMEエリア内のすべてのコーディングユニットに対して動き推定を並列に実施するようにさらに構成される、[C31]に記載の装置。
[C39]前記ビデオエンコーダが、
前記PMEエリアよりも大きいコーディングユニットのすべての予測ユニットに対して動き推定を並列に実施するようにさらに構成される、[C31]に記載の装置。
[C40]前記動きベクトル予測プロセスの実施が動きベクトルを生成し、前記ビデオエンコーダが、
前記生成された動きベクトルを使って、前記コーディングユニットを符号化するようにさらに構成される、[C31]に記載の装置。
[C41]ビデオデータを復号するように構成された装置であって、
並列動き推定(PME)エリアのサイズの指示を受信するための手段と、
PMEスタイル候補リスト構築プロセスおよび前記PMEエリアを使って、前記PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するための手段と、
前記PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出するための手段と、
前記PMEスタイル候補リスト構築プロセスおよび前記暗黙的PMEエリアを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施するための手段と、
を備える装置。
[C42]前記暗黙的PMEエリアを導出するための前記手段が、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズと等しい前記暗黙的PMEエリアを導出するための手段を備える、[C41]に記載の装置。
[C43]前記PMEスタイル候補リスト構築プロセスを実施するための手段であって、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する手段をさらに備える、[C41]に記載の装置。
[C44]ビデオデータを符号化するように構成された装置であって、
PMEスタイル候補リスト構築プロセスおよび前記PMEエリアを使って、並列動き推定(PME)エリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するための手段と、
前記PMEスタイル候補リスト構築プロセスおよび暗黙的PMEエリアを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施するための手段と、
前記PMEエリアのサイズの指示をシグナリングするための手段と、
を備える装置。
[C45]前記暗黙的PMEエリアが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい、[C44]に記載の装置。
[C46]前記PMEスタイル候補リスト構築プロセスを実施するための手段であって、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する手段をさらに備える、[C44]に記載の装置。
[C47]実行されたとき、ビデオデータを復号するように構成されたデバイスの1つまたは複数のプロセッサに、
並列動き推定(PME)エリアのサイズの指示を受信させ、
PMEスタイル候補リスト構築プロセスと前記PMEエリアとを使って、前記PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施させ、
前記PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出させ、
前記PMEスタイル候補リスト構築プロセスと前記暗黙的PMEエリアとを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施させる、
命令を記憶するコンピュータ可読記憶媒体。
[C48]前記命令が、前記1つまたは複数のプロセッサにさらに、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい前記暗黙的PMEエリアを導出させる、[C47]に記載のコンピュータ可読記憶媒体。
[C49]前記命令が、前記1つまたは複数のプロセッサにさらに、
前記PMEスタイル候補リスト構築プロセスを実施させ、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する、[C47]に記載のコンピュータ可読記憶媒体。
[C50]実行されたとき、ビデオデータを符号化するように構成されたデバイスの1つまたは複数のプロセッサに、
PMEスタイル候補リスト構築プロセスと前記PMEエリアとを使って、並列動き推定(PME)エリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施させ、
前記PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施させ、
前記PMEエリアのサイズの指示をシグナリングさせる、
命令を記憶するコンピュータ可読記憶媒体。
[C51]前記暗黙的PMEエリアが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい、[C50]に記載のコンピュータ可読記憶媒体。
[C52]前記命令が、前記1つまたは複数のプロセッサにさらに、
前記PMEスタイル候補リスト構築プロセスを実施させ、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する、[C50]に記載のコンピュータ可読記憶媒体。

Claims (52)

  1. ビデオデータを復号するための方法であって、
    並列動き推定(PME)エリアのサイズの指示を受信することと、
    PMEスタイル候補リスト構築プロセスおよび前記PMEエリアを使って、前記PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施することと、
    前記PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出することと、
    前記PMEスタイル候補リスト構築プロセスおよび前記暗黙的PMEエリアを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施することと、
    を備える方法。
  2. 前記暗黙的PMEエリアを導出することが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズと等しい前記暗黙的PMEエリアを導出することを備える、請求項1に記載の方法。
  3. 前記PMEスタイル候補リスト構築プロセスを実施することであって、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去することをさらに備える、請求項1に記載の方法。
  4. 前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル候補リストにおける予測ユニット間依存をさらに除去する、請求項3に記載の方法。
  5. 前記PMEスタイル候補リスト構築プロセスを実施することが、
    候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にあるかどうか判断することと、
    前記候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にある場合、前記動きベクトル候補リストに前記候補ブロックを追加しないことと、
    前記候補ブロックが前記PMEエリア内にも前記暗黙的PMEエリア内にもない場合、前記動きベクトル候補リストに前記候補ブロックを追加することと、
    を備える、請求項3に記載の方法。
  6. 前記動きベクトル予測プロセスがマージモードである、請求項3に記載の方法。
  7. 前記動きベクトル予測プロセスが高度動きベクトル予測プロセスである、請求項3に記載の方法。
  8. 前記PMEエリアおよび前記暗黙的PMEエリア内のすべてのコーディングユニットに対して動き推定を並列に実施することをさらに備える、請求項1に記載の方法。
  9. 前記PMEエリアよりも大きいコーディングユニットのすべての予測ユニットに対して動き推定を並列に実施することをさらに備える、請求項1に記載の方法。
  10. 前記動きベクトル予測プロセスを実施することが動きベクトルを生成し、前記方法が、
    前記生成された動きベクトルを使って、前記コーディングユニットを復号することをさらに備える、請求項1に記載の方法。
  11. ビデオデータを符号化するための方法であって、
    PMEスタイル候補リスト構築プロセスおよび前記PMEエリアを使って、並列動き推定(PME)エリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施することと、
    前記PMEスタイル候補リスト構築プロセスおよび暗黙的PMEエリアを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施することと、
    前記PMEエリアのサイズの指示をシグナリングすることと、
    を備える方法。
  12. 前記暗黙的PMEエリアが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい、請求項11に記載の方法。
  13. 前記PMEスタイル候補リスト構築プロセスを実施することであって、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去することをさらに備える、請求項11に記載の方法。
  14. 前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル候補リストにおける予測ユニット間依存をさらに除去する、請求項13に記載の方法。
  15. 前記PMEスタイル候補リスト構築プロセスを実施することが、
    候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にあるかどうか判断することと、
    前記候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にある場合、前記動きベクトル候補リストに前記候補ブロックを追加しないことと、
    前記候補ブロックが前記PMEエリア内にも前記暗黙的PMEエリア内にもない場合、前記動きベクトル候補リストに前記候補ブロックを追加することと、
    を備える、請求項13に記載の方法。
  16. 前記動きベクトル予測プロセスがマージモードである、請求項13に記載の方法。
  17. 前記動きベクトル予測プロセスが高度動きベクトル予測プロセスである、請求項13に記載の方法。
  18. 前記PMEエリアおよび前記暗黙的PMEエリア内のすべてのコーディングユニットに対して動き推定を並列に実施することをさらに備える、請求項11に記載の方法。
  19. 前記PMEエリアよりも大きいコーディングユニットのすべての予測ユニットに対して動き推定を並列に実施することをさらに備える、請求項11に記載の方法。
  20. 前記動きベクトル予測プロセスを実施することが動きベクトルを生成し、前記方法が、
    前記生成された動きベクトルを使って、前記コーディングユニットを符号化することをさらに備える、請求項11に記載の方法。
  21. ビデオデータを復号するように構成された装置であって、
    並列動き推定(PME)エリアのサイズの指示を受信し、
    PMEスタイル候補リスト構築プロセスと前記PMEエリアとを使って、前記PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、
    前記PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出し、
    前記PMEスタイル候補リスト構築プロセスと前記暗黙的PMEエリアとを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施する、
    ように構成されたビデオデコーダを備える装置。
  22. 前記ビデオデコーダが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい前記暗黙的PMEエリアを導出するように構成される、請求項21に記載の装置。
  23. 前記ビデオデコーダが、
    前記PMEスタイル候補リスト構築プロセスを実施するようにさらに構成され、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する、請求項21に記載の装置。
  24. 前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル候補リストにおける予測ユニット間依存をさらに除去する、請求項23に記載の装置。
  25. 前記ビデオデコーダが、
    候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にあるかどうか判断し、
    前記候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にある場合、前記動きベクトル候補リストに前記候補ブロックを追加せず、
    前記候補ブロックが前記PMEエリア内にも前記暗黙的PMEエリア内にもない場合、前記動きベクトル候補リストに前記候補ブロックを追加するようにさらに構成される、請求項23に記載の装置。
  26. 前記動きベクトル予測プロセスがマージモードである、請求項23に記載の装置。
  27. 前記動きベクトル予測プロセスが高度動きベクトル予測プロセスである、請求項23に記載の装置。
  28. 前記ビデオデコーダが、
    前記PMEエリアおよび前記暗黙的PMEエリア内のすべてのコーディングユニットに対して動き推定を並列に実施するようにさらに構成される、請求項21に記載の装置。
  29. 前記ビデオデコーダが、
    前記PMEエリアよりも大きいコーディングユニットのすべての予測ユニットに対して動き推定を並列に実施するようにさらに構成される、請求項21に記載の装置。
  30. 前記動きベクトル予測プロセスの実施が動きベクトルを生成し、前記ビデオデコーダが、
    前記生成された動きベクトルを使って、前記コーディングユニットを復号するようにさらに構成される、請求項21に記載の装置。
  31. ビデオデータを符号化するように構成された装置であって、
    PMEスタイル候補リスト構築プロセスと前記PMEエリアとを使って、並列動き推定(PME)エリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施し、
    前記PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施し、
    前記PMEエリアのサイズの指示をシグナリングする、
    ように構成されたビデオエンコーダを備える装置。
  32. 前記暗黙的PMEエリアが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい、請求項31に記載の装置。
  33. 前記ビデオエンコーダが、
    前記PMEスタイル候補リスト構築プロセスを実施するようにさらに構成され、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する、請求項31に記載の装置。
  34. 前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル候補リストにおける予測ユニット間依存をさらに除去する、請求項33に記載の装置。
  35. 前記ビデオエンコーダが、
    候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にあるかどうか判断し、
    前記候補ブロックが前記PMEエリアまたは前記暗黙的PMEエリア内にある場合、前記動きベクトル候補リストに前記候補ブロックを追加せず、
    前記候補ブロックが前記PMEエリア内にも前記暗黙的PMEエリア内にもない場合、前記動きベクトル候補リストに前記候補ブロックを追加するようにさらに構成される、請求項33に記載の装置。
  36. 前記動きベクトル予測プロセスがマージモードである、請求項33に記載の装置。
  37. 前記動きベクトル予測プロセスが高度動きベクトル予測プロセスである、請求項33に記載の装置。
  38. 前記ビデオエンコーダが、
    前記PMEエリアおよび前記暗黙的PMEエリア内のすべてのコーディングユニットに対して動き推定を並列に実施するようにさらに構成される、請求項31に記載の装置。
  39. 前記ビデオエンコーダが、
    前記PMEエリアよりも大きいコーディングユニットのすべての予測ユニットに対して動き推定を並列に実施するようにさらに構成される、請求項31に記載の装置。
  40. 前記動きベクトル予測プロセスの実施が動きベクトルを生成し、前記ビデオエンコーダが、
    前記生成された動きベクトルを使って、前記コーディングユニットを符号化するようにさらに構成される、請求項31に記載の装置。
  41. ビデオデータを復号するように構成された装置であって、
    並列動き推定(PME)エリアのサイズの指示を受信するための手段と、
    PMEスタイル候補リスト構築プロセスおよび前記PMEエリアを使って、前記PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するための手段と、
    前記PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出するための手段と、
    前記PMEスタイル候補リスト構築プロセスおよび前記暗黙的PMEエリアを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施するための手段と、
    を備える装置。
  42. 前記暗黙的PMEエリアを導出するための前記手段が、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズと等しい前記暗黙的PMEエリアを導出するための手段を備える、請求項41に記載の装置。
  43. 前記PMEスタイル候補リスト構築プロセスを実施するための手段であって、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する手段をさらに備える、請求項41に記載の装置。
  44. ビデオデータを符号化するように構成された装置であって、
    PMEスタイル候補リスト構築プロセスおよび前記PMEエリアを使って、並列動き推定(PME)エリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施するための手段と、
    前記PMEスタイル候補リスト構築プロセスおよび暗黙的PMEエリアを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施するための手段と、
    前記PMEエリアのサイズの指示をシグナリングするための手段と、
    を備える装置。
  45. 前記暗黙的PMEエリアが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい、請求項44に記載の装置。
  46. 前記PMEスタイル候補リスト構築プロセスを実施するための手段であって、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する手段をさらに備える、請求項44に記載の装置。
  47. 実行されたとき、ビデオデータを復号するように構成されたデバイスの1つまたは複数のプロセッサに、
    並列動き推定(PME)エリアのサイズの指示を受信させ、
    PMEスタイル候補リスト構築プロセスと前記PMEエリアとを使って、前記PMEエリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施させ、
    前記PMEエリアよりも大きいサイズを有するコーディングユニット向けの暗黙的PMEエリアを導出させ、
    前記PMEスタイル候補リスト構築プロセスと前記暗黙的PMEエリアとを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施させる、
    命令を記憶するコンピュータ可読記憶媒体。
  48. 前記命令が、前記1つまたは複数のプロセッサにさらに、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい前記暗黙的PMEエリアを導出させる、請求項47に記載のコンピュータ可読記憶媒体。
  49. 前記命令が、前記1つまたは複数のプロセッサにさらに、
    前記PMEスタイル候補リスト構築プロセスを実施させ、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する、請求項47に記載のコンピュータ可読記憶媒体。
  50. 実行されたとき、ビデオデータを符号化するように構成されたデバイスの1つまたは複数のプロセッサに、
    PMEスタイル候補リスト構築プロセスと前記PMEエリアとを使って、並列動き推定(PME)エリア以下のサイズを有するコーディングユニットに対して動きベクトル予測プロセスを実施させ、
    前記PMEスタイル候補リスト構築プロセスと暗黙的PMEエリアとを使って、前記PMEエリアよりも大きい前記サイズを有するコーディングユニットに対して前記動きベクトル予測プロセスを実施させ、
    前記PMEエリアのサイズの指示をシグナリングさせる、
    命令を記憶するコンピュータ可読記憶媒体。
  51. 前記暗黙的PMEエリアが、前記PMEエリアよりも大きい前記サイズを有する特定のコーディングユニットの前記サイズに等しい、請求項50に記載のコンピュータ可読記憶媒体。
  52. 前記命令が、前記1つまたは複数のプロセッサにさらに、
    前記PMEスタイル候補リスト構築プロセスを実施させ、ここにおいて、前記PMEスタイル候補リスト構築プロセスが、前記動きベクトル予測プロセス用の動きベクトル候補リストにおけるコーディングユニット間依存を除去する、請求項50に記載のコンピュータ可読記憶媒体。
JP2014554776A 2012-01-31 2013-01-22 並列動き推定範囲サイズの暗黙的導出 Expired - Fee Related JP6067750B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261593169P 2012-01-31 2012-01-31
US61/593,169 2012-01-31
US13/746,148 2013-01-21
US13/746,148 US9674527B2 (en) 2012-01-31 2013-01-21 Implicit derivation of parallel motion estimation range size
PCT/US2013/022557 WO2013116043A1 (en) 2012-01-31 2013-01-22 Implicit derivation of parallel motion estimation range size

Publications (3)

Publication Number Publication Date
JP2015508952A true JP2015508952A (ja) 2015-03-23
JP2015508952A5 JP2015508952A5 (ja) 2016-02-18
JP6067750B2 JP6067750B2 (ja) 2017-01-25

Family

ID=48870205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014554776A Expired - Fee Related JP6067750B2 (ja) 2012-01-31 2013-01-22 並列動き推定範囲サイズの暗黙的導出

Country Status (6)

Country Link
US (1) US9674527B2 (ja)
EP (1) EP2810442A1 (ja)
JP (1) JP6067750B2 (ja)
KR (1) KR20140131525A (ja)
CN (1) CN104081778B (ja)
WO (1) WO2013116043A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021507639A (ja) * 2017-12-23 2021-02-22 華為技術有限公司Huawei Technologies Co.,Ltd. ピクチャブロックの動き情報を予測するための方法および装置、エンコーダ、ならびにデコーダ

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102883163B (zh) 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
US9832478B2 (en) * 2013-05-14 2017-11-28 Mediatek Inc. Video encoding method and apparatus for determining size of parallel motion estimation region based on encoding related information and related video decoding method and apparatus
TWI538487B (zh) * 2013-12-05 2016-06-11 財團法人工業技術研究院 螢幕視訊之預測編碼的方法與系統
CN112544077B (zh) * 2018-07-16 2023-12-08 Lg电子株式会社 用于子块单元中的时间运动信息预测的帧间预测方法及其装置
WO2020057504A1 (en) 2018-09-17 2020-03-26 Mediatek Inc. Methods and apparatuses of combining multiple predictors for block prediction in video coding systems
US11172214B2 (en) * 2018-12-21 2021-11-09 Qualcomm Incorporated Derivation of processing area for parallel processing in video coding
WO2020140218A1 (zh) * 2019-01-02 2020-07-09 深圳市大疆创新科技有限公司 用于视频编码或解码的运动信息获取方法与装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006028088A1 (ja) * 2004-09-08 2006-03-16 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法および動画像復号化方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040008779A1 (en) 2002-06-18 2004-01-15 Lai King Chung Techniques for video encoding and decoding
US20080126278A1 (en) 2006-11-29 2008-05-29 Alexander Bronstein Parallel processing motion estimation for H.264 video codec
EP2266318B1 (en) 2008-03-19 2020-04-22 Nokia Technologies Oy Combined motion vector and reference index prediction for video coding
US20090268821A1 (en) 2008-04-29 2009-10-29 The Hong Kong University Of Science And Technology Block parallel and fast motion estimation in video coding
US8379718B2 (en) 2009-09-02 2013-02-19 Sony Computer Entertainment Inc. Parallel digital picture encoding
US9357228B2 (en) 2010-05-27 2016-05-31 The Hong Kong University Of Science And Technology Motion estimation of images
US9066110B2 (en) 2011-03-08 2015-06-23 Texas Instruments Incorporated Parsing friendly and error resilient merge flag coding in video coding
EP2687015A4 (en) * 2011-03-14 2014-12-17 Mediatek Inc METHOD AND DEVICE FOR OBTAINING PREDICTIONS FOR TEMPORARY MOTION VECTORS
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9866859B2 (en) * 2011-06-14 2018-01-09 Texas Instruments Incorporated Inter-prediction candidate index coding independent of inter-prediction candidate list construction in video coding
EP4231647A3 (en) * 2011-09-09 2023-08-30 LG Electronics Inc. Image decoding method, image encoding method, and computer-readable storage medium encoded image information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006028088A1 (ja) * 2004-09-08 2006-03-16 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法および動画像復号化方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HUI YONG KIM,ET AL.: "CU-based Merge Candidate List Construction", JOINT COLLABORATIVE TEAM ON VIDEO CODING(JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 7TH ME, vol. JCTVC-G416, JPN6016044655, 21 November 2011 (2011-11-21), US, pages 1 - 13, ISSN: 0003444074 *
MINHUA ZHOU,ET AL.: "Parallelized merge/skip mode for HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING(JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH ME, vol. JCTVC-F069, JPN6016044653, 22 July 2011 (2011-07-22), US, pages 1 - 13, ISSN: 0003444073 *
MINHUA ZHOU: "AHG10: Configurable and CU-group level parallel merge/skip", JOINT COLLABORATIVE TEAM ON VIDEO CODING(JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 8TH ME, vol. JCTVC-H0082, JPN6016044656, 22 January 2012 (2012-01-22), US, pages 1 - 13, ISSN: 0003444075 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021507639A (ja) * 2017-12-23 2021-02-22 華為技術有限公司Huawei Technologies Co.,Ltd. ピクチャブロックの動き情報を予測するための方法および装置、エンコーダ、ならびにデコーダ
US11297326B2 (en) 2017-12-23 2022-04-05 Huawei Technologies Co., Ltd. Method and apparatus for predicting motion information of picture block, encoder, and decoder
US12088819B2 (en) 2017-12-23 2024-09-10 Huawei Technologies Co., Ltd. Method and apparatus for predicting motion information of picture block, encoder, and decoder

Also Published As

Publication number Publication date
US20130195189A1 (en) 2013-08-01
WO2013116043A1 (en) 2013-08-08
KR20140131525A (ko) 2014-11-13
CN104081778A (zh) 2014-10-01
US9674527B2 (en) 2017-06-06
CN104081778B (zh) 2017-10-03
EP2810442A1 (en) 2014-12-10
JP6067750B2 (ja) 2017-01-25

Similar Documents

Publication Publication Date Title
JP5847957B2 (ja) コンテキスト適応型バイナリ算術コード化のためのコンテキスト削減
JP6254136B2 (ja) 統合されたマージモードおよび適応動きベクトル予測モード候補選択
JP6174123B2 (ja) ビデオコーディングにおける量子化パラメータ(qp)コーディング
JP5778299B2 (ja) 動きベクトル予測
JP6250583B2 (ja) 隣接モードを使用したビデオコーディングのための拡張イントラ予測モードシグナリング
JP6151277B2 (ja) ビデオコーディングにおけるデブロッキングフィルタパラメータのシグナリング
JP5797840B2 (ja) ビデオコーディングのための並列化フレンドリーなマージ候補
JP5940726B2 (ja) ビデオコーディングにおけるバイパスコーディングされたシンタックス要素のグループ化
JP5922244B2 (ja) ビデオコーディングにおいて適応ループフィルタとマージされたサンプル適応オフセット
JP5823623B2 (ja) ビデオコーディングのための動きベクトル予測子候補クリッピング削除
JP5869008B2 (ja) ビデオコーディングにおける変換
JP5886440B2 (ja) イントラ予測ビデオコーディングにおける非正方形変換
JP2018142972A (ja) Bスライス中の予測ユニットの単方向インター予測への制限
JP5833249B2 (ja) ビデオコーディングのための適応的な中心帯域オフセットフィルタ
JP6067750B2 (ja) 並列動き推定範囲サイズの暗黙的導出
JP5784830B2 (ja) ビデオコード化のための複数領域走査順序
JP6239609B2 (ja) ビデオコーディングのための長期参照ピクチャをシグナリングすること
JP6151446B2 (ja) ビデオコーディングのための高精度明示的重み付け予測
JP2016184936A (ja) 適応型重複ブロック動き補償
JP2018537908A (ja) ビデオデータの符号情報をコーディングすること
JP6105048B2 (ja) ビデオコーディングのための変換係数のコーディングにおけるグループフラグ
JP6042526B2 (ja) ビデオコーディングのための最後の位置コーディングのためのコンテキストの導出
JP2015534779A (ja) ビデオコーディングにおける4:2:2サンプルフォーマットのためのコード化ブロックフラグ(cbf)コーディング
JP2015510358A (ja) Bスライス中の予測単位の単方向インター予測への制限
JP2017523685A (ja) イントラブロックコピーイングのためのブロックベクトルコーディング

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161221

R150 Certificate of patent or registration of utility model

Ref document number: 6067750

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees