JP2014509480A - ビデオコード化のための動きベクトル予測の実行 - Google Patents

ビデオコード化のための動きベクトル予測の実行 Download PDF

Info

Publication number
JP2014509480A
JP2014509480A JP2013552014A JP2013552014A JP2014509480A JP 2014509480 A JP2014509480 A JP 2014509480A JP 2013552014 A JP2013552014 A JP 2013552014A JP 2013552014 A JP2013552014 A JP 2013552014A JP 2014509480 A JP2014509480 A JP 2014509480A
Authority
JP
Japan
Prior art keywords
candidate motion
motion vector
spatial candidate
pruning
spatial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013552014A
Other languages
English (en)
Other versions
JP5813784B2 (ja
Inventor
チエン、ウェイ−ジュン
チェン、ペイソン
コバン、ムハンメド・ゼイド
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014509480A publication Critical patent/JP2014509480A/ja
Application granted granted Critical
Publication of JP5813784B2 publication Critical patent/JP5813784B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一般に、ビデオコード化のための動きベクトル予測を実行するための技法について説明する。動き補償ユニットを備える装置が、本技法を実施することができる。動き補償ユニットは、現在のフレームの現在の部分に関連する空間的候補動きベクトル(MVP)を決定し、時間的候補動きベクトルを除去することなく、重複するものを除去するために空間的候補動きベクトルをプルーニングする。動き補償ユニットは、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして時間的候補動きベクトル又はプルーニング後に残存する空間的候補動きベクトルのうちの1つのうちの1つを選択し、被選択候補動きベクトルに基づいて動き補償を実行する。

Description

本出願は、その各々の全体が参照により本明細書に組み込まれる、2011年1月27日に出願された米国仮出願第61/436,997号、2011年3月7日に出願された米国仮出願第61/449,985号、及び2011年11月18日に出願された米国仮出願第61/561,601号の利益を主張する。
本開示は、ビデオコード化に関し、より詳細には、ビデオコード化の動き補償の態様に関する。
デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータ又はデスクトップコンピュータ、デジタルカメラ、デジタル記録機器、デジタルメディアプレーヤ、ビデオゲーム機器、ビデオゲームコンソール、セルラー電話又は衛星無線電話、ビデオ遠隔会議機器などを含む、広範囲にわたる機器に組み込まれ得る。デジタルビデオ機器は、デジタルビデオ情報をより効率的に送信及び受信するために、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、Part 10、Advanced Video Coding(AVC)によって定義された規格、及びそのような規格の拡張版に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実施する。MPEGとITU−Tとのコラボレーションである「Joint Collaborative Team−Video Coding」(JCT−VC)によって開発されているHigh Efficiency Video Coding(HEVC)規格など、新しいビデオコード化規格が開発されつつある。新生HEVC規格は、H.265と呼ばれることもあるが、そのような名称は公式になされたものでない。
概して、本開示では、動きベクトル予測子(MVP)を特定するための技法について説明する。MVPは通常、動き補償が実行される際の効率性を高める方法としてビデオコード化において採用される。ビデオエンコーダは、現在のブロックに一致する参照フレーム内のブロックの探索を実行するのではなく、MVPのリストから現在のブロックに関する動きベクトルを選択することができる。幾つかの例では、MVPのリストは、現在のブロックに対する空間的近傍ブロックである4つのブロックからの動きベクトルを含むことができ、参照フレームのコロケートブロックからの動きベクトルは時間的に、現在のフレームの前又は後にある。その場合、MVPのうちの選択された1つが現在のブロックに使用され、動き補償のプロセスがなくならないにしても減少する。
一例では、ビデオデータを符号化する方法が、現在のビデオフレームの現在の部分に関連する、現在の部分に隣接する現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定することと、空間的候補動きベクトルのうちの少なくとも1つを除去するために空間的候補動きベクトルをプルーニング(pruning)することと、現在のビデオフレームの現在の部分に関連する時間的候補動きベクトルを決定することとを備える。時間的候補動きベクトルは、参照ビデオフレームの部分に関して決定された動きベクトルを備える。本方法はまた、被選択候補動きベクトルとして、時間的候補動きベクトル又は刈り込み後に残存する空間的候補動きベクトルのうちの1つを選択することと、ビットストリームにおいて被選択候補動きベクトルを信号伝達することとを備える。
別の例では、ビデオデータを符号化するための装置が、現在のビデオフレームの現在の部分に関連する、現在の部分に隣接する現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定するための手段と、空間的候補動きベクトルのうちの少なくとも1つを除去するために空間的候補動きベクトルをプルーニングするための手段と、現在のビデオフレームの現在の部分に関連する時間的候補動きベクトルを決定するための手段とを備える。時間的候補動きベクトルは、参照ビデオフレームの部分に関して決定された動きベクトルを備える。本装置は、被選択候補動きベクトルとして、時間的候補動きベクトル又はプルーニング後に残存する空間的候補動きベクトルのうちの1つを選択するための手段と、ビットストリームにおいて被選択候補動きベクトルを信号伝達するための手段とを更に備える。
別の例では、ビデオデータを符号化するための装置が、現在のビデオフレームの現在の部分に関連する、現在の部分に隣接する現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定し、空間的候補動きベクトルのうちの少なくとも1つを除去するために空間的候補動きベクトルをプルーニングし、現在のビデオフレームの現在の部分に関連する時間的候補動きベクトルを決定する動き補償ユニットを備える。時間的候補動きベクトルは、参照ビデオフレームの部分に関して決定された動きベクトルを備える。本装置はまた、被選択候補動きベクトルとして、時間的候補動きベクトル又はプルーニング後に残存する空間的候補動きベクトルのうちの1つを選択するモード選択ユニットと、ビットストリームにおいて被選択候補動きベクトルを信号伝達するエントロピーコード化ユニットとを備える。
別の例では、非一時的コンピュータ可読媒体が、実行されたとときに、1つ以上のプロセッサに、現在のビデオフレームの現在の部分に関連する、現在の部分に隣接する現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定することと、空間的候補動きベクトルのうちの少なくとも1つを除去するために空間的候補動きベクトルをプルーニングすることと、現在のビデオフレームの現在の部分に関連する、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを決定することと、被選択候補動きベクトルとして、時間的候補動きベクトル又はプルーニング後に残存する空間的候補動きベクトルのうちの1つを選択することと、ビットストリームにおいて被選択候補動きベクトルを信号伝達することとを行わせる命令を備える。
別の例では、ビデオデータを復号する方法が、現在のビデオフレームの現在の部分に関連する、現在の部分に隣接する現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定することと、現在のビデオフレームの現在の部分に関して決定された時間的候補動きベクトルを除去することなく、空間的候補動きベクトルのうちの少なくとも1つを除去するために空間的候補動きベクトルをプルーニングすることとを備える。時間的候補動きベクトルは、現在のビデオフレームに現在の部分があるように、参照ビデオフレームの同じ位置に配置される(コロケートされる)参照ビデオフレームの部分に関して決定された動きベクトルを備える。本方法はまた、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、時間的候補動きベクトル又はプルーニング後に残存する空間的候補動きベクトルのうちの1つのうちの1つを選択することと、被選択候補動きベクトルに基づいて動き補償を実行することとを備える。
別の例では、ビデオデータを復号するための装置が、現在のビデオフレームの現在の部分に関連する、現在の部分に隣接する現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定するための手段と、現在のビデオフレームの現在の部分に関して決定された時間的候補動きベクトルを除去することなく、空間的候補動きベクトルのうちの少なくとも1つを除去するために空間的候補動きベクトルをプルーニングするための手段とを備える。時間的候補動きベクトルは、参照ビデオフレームの部分に関して決定された動きベクトルを備える。本装置はまた、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、時間的候補動きベクトル又はプルーニング後に残存する空間的候補動きベクトルのうちの1つのうちの1つを選択するための手段と、被選択候補動きベクトルに基づいて動き補償を実行するための手段とを備える。
別の例では、ビデオデータを復号するための装置が、現在のビデオフレームの現在の部分に関連する、現在の部分に隣接する現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定し、現在のビデオフレームの現在の部分に関して決定された、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを除去することなく、空間的候補動きベクトルのうちの少なくとも1つを除去するために空間的候補動きベクトルをプルーニングし、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、時間的候補動きベクトル又はプルーニング後に残存する空間的候補動きベクトルのうちの1つのうちの1つを選択し、被選択候補動きベクトルに基づいて動き補償を実行する動き補償ユニットを備える。
別の例では、非一時的コンピュータ可読媒体が、実行されたときに、1つ以上のプロセッサに、現在のビデオフレームの現在の部分に関連する、現在の部分に隣接する現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定することと、現在のビデオフレームの現在の部分に関して決定された、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを除去することなく、空間的候補動きベクトルのうちの少なくとも1つを除去するために空間的候補動きベクトルをプルーニングすることと、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、時間的候補動きベクトル又はプルーニング後に残存する空間的候補動きベクトルのうちの1つのうちの1つを選択することと、被選択候補動きベクトルに基づいて動き補償を実行することとを行わせる命令を備える。
1つ以上の例の詳細を添付の図面及び以下の説明に記載する。他の特徴、目的、及び利点は、その説明及び図面、並びに特許請求の範囲から明らかになろう。
動きベクトル予測子(MVP)を特定するための本開示で説明する技法を利用するように構成され得る例示的なビデオ符号化及び復号システムを示すブロック図。 動きベクトル予測子を特定するための本開示で説明する技法を実施し得るビデオエンコーダの一例を示すブロック図。 本開示で説明する動きベクトル予測技法を実施するビデオデコーダの一例を示すブロック図。 本開示で説明する動きベクトル予測技法を実行する際のビデオエンコーダの例示的な動作を示すフローチャート。 本開示で説明する動きベクトル予測技法を実施する際のビデオデコーダの例示的な動作を示すフローチャート。 現在の予測ユニット(PU)に対する隣接する近傍PU及び時間的に同位置に配置されたPU(コロケートPU)の例示的配置を示す図。
本開示で説明する技法の実施形態は、ビデオエンコーダがロバストであるが効率的な方法で、プルーニングプロセス中に時間的に同位置に配置されたMVPを含めることなく冗長な空間的MVPをプルーニングすることによって、MVPを特定することを可能にする。言い換えれば、本技法は、空間的MVPのみを含むMVP中間リストを作成し、このMVP中間リストに関してプルーニングを実行し、次いで、プルーニングされたMVP中間リストに時間的に同位置に配置されたMVPを追加して、プルーニングされたMVPリストを作成する。このようにして、従来型のシステムではよくある、時間的に同位置に配置されたMVPを特定する参照フレームの消失がビットストリームのパーシングを妨げることのないようにしつつ、プルーニングプロセスの適用を通じて実現されるコード化効率向上をなお確保することができる。
図1は、動きベクトル予測子(MVP)を特定するための本開示で説明する技法を利用するように構成され得る例示的なビデオ符号化及び復号システム10を示すブロック図である。図1の例に示すように、システム10は、宛先機器14によって復号される符号化ビデオを生成する発信源12を含む。発信源12は、通信チャネル16を介して宛先機器14に符号化ビデオを送信することができ、又は記憶媒体34若しくはファイルサーバ36に符号化ビデオを記憶して、符号化ビデオが必要に応じて宛先機器14によってアクセスされ得るようにすることができる。発信源12及び宛先機器14は、デスクトップコンピュータ、ノートブック(即ち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、(セルラー電話又はハンドセット及び所謂スマートフォンを含む)電話ハンドセット、テレビジョン、カメラ、表示装置、デジタルメディアプレーヤ、ビデオゲームコンソールなどを含む、広範囲にわたる機器のいずれかを備え得る。
多くの場合、そのような機器はワイヤレス通信が可能であり得る。従って、通信チャネル16はワイヤレスチャネルを備え得る。代替的に、通信チャネル16は、有線チャネル、ワイヤレスチャネルと有線チャネルの組合せ、又は符号化ビデオデータの送信に好適な任意の他のタイプの通信チャネル若しくは通信チャネルの組合せ、例えば、無線周波数(RF)スペクトル又は1つ以上の物理伝送線路を備え得る。幾つかの例では、通信チャネル16は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、又はインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。従って、通信チャネル16は、概して、有線媒体又はワイヤレス媒体の任意の好適な組合せを含む、ビデオデータを発信源12から宛先機器14に送信するのに好適な任意の通信媒体、又は様々な通信媒体の集合体を表す。通信チャネル16は、発信源12から宛先機器14への通信を可能にするのに有用であり得るルータ、スイッチ、基地局、又は任意の他の機器を含み得る。
図1の例に更に示すように、発信源12は、ビデオソース18と、ビデオエンコーダ20と、変調器/復調器22(「モデム22」)と、送信機24とを含む。発信源12において、ビデオソース18は撮像装置などの信号源を含み得る。撮像装置は、例として、ビデオカメラ、以前に撮影されたビデオを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェース、及び/又はソースビデオとしてコンピュータグラフィックスデータを生成するためのコンピュータグラフィックスシステムのうちの1つ又は複数を含み得る。一例として、ビデオソース18がビデオカメラである場合、発信源12及び宛先機器14は、所謂カメラ付き携帯電話又はビデオ電話を形成し得る。但し、本開示で説明する技法は、ワイヤレスアプリケーション又は設定に限定されず、ビデオ符号化及び/又は復号機能を含む非ワイヤレス機器に適用され得る。従って、発信源12及び宛先機器14は、本明細書で説明する技法をサポートすることができるコード化機器の例にすぎない。
ビデオエンコーダ20は、撮影されたビデオ、以前に撮影されたビデオ、又はコンピュータ生成ビデオを符号化することができる。符号化されると、ビデオエンコーダ20は、この符号化ビデオをモデム22に出力することができる。次いでモデム22は、ワイヤレス通信プロトコルなどの通信規格に従って符号化ビデオを変調することができ、その後、送信機24は、変調された符号化ビデオデータを宛先機器14に送信することができる。モデム22は、信号変調のために設計された様々なミキサ、フィルタ、増幅器又は他の構成要素を含み得る。送信機24は、増幅器、フィルタ、及び1つ以上のアンテナを含む、データを送信するために設計された回路を含むことができる。
ビデオエンコーダ20によって符号化された、撮影されたビデオ、以前に撮影されたビデオ、又はコンピュータ生成ビデオはまた、後の取出し、復号及び消費のために記憶媒体34又はファイルサーバ36に記憶され得る。記憶媒体34は、ブルーレイ(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、又は符号化ビデオを記憶するための任意の他の好適なデジタル記憶媒体を含み得る。宛先機器14は、記憶媒体34又はファイルサーバ36に記憶された符号化ビデオにアクセスし、この符号化ビデオを復号して復号ビデオを生成し、この復号ビデオを再生することができる。
ファイルサーバ36は、符号化ビデオを記憶することと、その符号化ビデオを宛先機器14に送信することとが可能な任意のタイプのサーバであり得る。例示的なファイルサーバは、(例えば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続記憶(NAS)機器、ローカルディスクドライブ、又は符号化ビデオデータを記憶することと、符号化ビデオデータを宛先機器に送信することとが可能な任意の他のタイプの機器を含む。ファイルサーバ36からの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、又は両方の組合せであり得る。宛先機器14は、インターネット接続を含む任意の標準的なデータ接続によりファイルサーバ36にアクセスすることができる。この接続は、ワイヤレスチャネル(例えば、Wi−Fi接続又はワイヤレスセルラーデータ接続)、有線接続(例えば、DSL、ケーブルモデムなど)、有線チャネルとワイヤレスチャネルの両方の組合せ、又はファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適な任意の他のタイプの通信チャネルを含むことができる。
図1の例では、宛先機器14は、受信機26と、モデム28と、ビデオデコーダ30と、表示装置32とを含む。宛先機器14の受信機26はチャネル16を介して情報を受信し、モデム28はその情報を復調して、ビデオデコーダ30のための復調されたビットストリームを生成する。チャネル16を介して通信される情報は、関連する符号化ビデオデータを復号する際にビデオデコーダ30が使用する、ビデオエンコーダ20によって生成された様々なシンタックス情報を含み得る。そのようなシンタックスはまた、記憶媒体34又はファイルサーバ36に記憶された符号化ビデオデータとともに含まれ得る。ビデオエンコーダ20及びビデオデコーダ30の各々は、ビデオデータを符号化又は復号することが可能であるそれぞれのエンコーダデコーダ(コーデック)の一部を形成し得る。
宛先機器14の表示装置32は、閲覧者が消費するビデオデータを提示することが可能な任意のタイプの表示器を表す。表示装置32は宛先機器14に統合されているものとして示されているが、宛先機器14に統合されても、宛先機器14の外部にあってもよい。幾つかの例では、宛先機器14は、一体型表示装置を含み、また、外部表示装置とインターフェースするように構成され得る。他の例では、宛先機器14は表示装置であり得る。概して、表示装置32は、復号ビデオデータをユーザに対して表示し、液晶表示器(LCD)、プラズマ表示器、有機発光ダイオード(OLED)表示器、又は別のタイプの表示装置など、様々な表示装置のいずれかを備え得る。
本開示は全般的に、ビデオデコーダ30などの別の機器にシンタックス情報を「信号伝達する」ビデオエンコーダ20に言及することがある。但し、ビデオエンコーダ20は、ビデオデータの様々な符号化部分にシンタックス要素を関連付けることによって、情報を信号伝達し得ることを理解されたい。即ち、ビデオエンコーダ20は、ビデオデータの様々な符号化部分のヘッダに幾つかのシンタックス要素を記憶することによって、データを「信号伝達する」ことができる。場合によっては、そのようなシンタックス要素は、ビデオデコーダ30によって受信され、復号される前に符号化され、記憶され(例えば、記憶媒体34又はファイルサーバ36に記憶され)得る。従って、「信号伝達」という用語は全般的に、圧縮されたビデオデータを復号するために使用されるシンタックス又は他のデータの通信を指すことがあり、そのような通信がリアルタイム又はほぼリアルタイムで生じるか、それともある時間スパンで生じるか、例えば符号化時に媒体にシンタックス要素を記憶する(シンタックス要素は、この媒体に記憶された後、任意の時間に復号機器によって取り出され得る)ときに生じるかを問わない。
ビデオエンコーダ20及びビデオデコーダ30は、現在開発中の高効率ビデオコード化(HEVC)規格などのビデオ圧縮規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20及びビデオデコーダ30は、代替的にMPEG−4、Part 10、Advanced Video Coding(AVC)と呼ばれるITU−T H.264規格、又はそのような規格の拡張版など、他のプロプライエタリ又は業界標準に従って動作し得る。但し、本開示の技法は、いかなる決定のコード化規格にも限定されない。他の例にはMPEG−2及びITU−T H.263がある。
HMでは、ビデオデータのブロックをコード化単位(CU)と呼ぶ。概して、CUは、CUがH.264のマクロブロックに関連するサイズ差異を有しないことを除いて、H.264に従ってコード化されたマクロブロックと同様の目的を有する。従って、CUはサブCUに分割され得る。概して、本開示におけるCUへの言及は、ピクチャの最大コード化ユニット(LCU)又はLCUのサブCUを指すことがある。例えば、ビットストリーム内のシンタックスデータが、画素の数に関して最大のコード化単位であるLCUを定義し得る。LCUはサブCUに分割され得、各サブCUはサブCUに分割され得る。ビットストリームのシンタックスデータは、最大CU深さと呼ばれる、LCUが分割され得る最大回数を定義し得る。従って、ビットストリームは最小コード化単位(SCU)をも定義し得る。
LCUは階層型4分木データ構造に関連付けられ得る。概して、4分木データ構造はCUごとに1つのノードを含み、ルートノードはLCUに対応する。CUが4つのサブCUに分割された場合、CUに対応するノードは、サブCUに対応する4つのノードの各々に関する参照を含む。4分木データ構造の各ノードは、対応するCUのシンタックスデータを与え得る。例えば、4分木のノードは、そのノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUのシンタックス要素は、再帰的に定義され得、CUがサブCUに分割されるかどうかに依存し得る。
分割されないCUは、1つ以上の予測単位を含み得る。概して、PUは、対応するCUの全部又は一部分を表し、そのPUの参照サンプルを取り出すためのデータを含む。例えば、PUがイントラモード符号化されるとき、PUは、そのPUのイントラ予測モードを記述するデータを含み得る。別の例として、PUがインターモード符号化されるとき、PUは、PUの1つ以上の動きベクトルを定義するデータを含み得る。動きベクトルは全般的に、1つ以上の参照フレーム内のコロケートCUを識別し、「参照フレーム」という用語は、時間的に、PUが位置するフレームの前又は後に生じるフレームを指す。また、(1つ以上の)PUを定義するCUについてのデータは、例えば、1つ以上のPUへのCUの区分について記述し得る。区分モードは、CUがコード化されないか、イントラ予測モード符号化されるか、又はインター予測モード符号化されるかとの間で異なり得る。
動きベクトルを定義するデータは、例えば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(例えば、1/4画素精度又は1/8画素精度)、動きベクトルがポイントする参照フレーム、識別された参照フレームが現在のフレームの前にあるか後にあるかを識別する予測方向、及び/又は動きベクトルの参照リスト(例えば、リスト0もしくはリスト1)を記述し得る。代替的に、動きベクトルを定義するデータは、動きベクトル予測子(MVP)と呼ばれるものに関して動きベクトルを記述し得る。動きベクトル予測子は、近傍PU又は時間的に同位置配置のPUの動きベクトルを含み得る。一般に、5つのMVPを有するリストが、規定された方法で(例えば、最大振幅を有するMVPから最小振幅を有するMVPまでのMVP、即ち、コード化される現在のPUと参照PUとの間の最大変位又は最小変位を有するMVPを含むMVPを記載する、若しくは位置、即ち上ブロック、左ブロック、隅ブロック、時間ブロックに基づいてMVPを記載する、など)形成され、この場合、5つのMVPのうちの4つは、4つの近傍PUから選択された空間MVPであり、5番目のMVPは、参照フレーム内の時間的に同位置に配置されたPUから選択された時間的に同位置配置のMVPである。
一般に、時間的候補動きベクトルは参照フレームにおいて、現在のフレーム内の現在の部分と同じ部分に同位置配置されるが、本技法は、同位置配置される時間的候補動きベクトルに厳密に限定されるものではない。代わりに、本技法は、同位置配置されるかどうかにかかわらず、任意の時間的候補動きベクトルに関して実施され得る。場合によっては、ビデオエンコーダは、現在のフレームの現在のブロック又は部分と同位置配置されていない時間的候補動きベクトルを識別し、この時間的候補動きベクトルを時間的MVPとして選択することができる。通常、ビデオエンコーダは、コロケートされていない時間的MVPが使用されることを信号伝達することがあり、又は場合によっては、所与の文脈が、コロケートされていない時間的MVPが使用されることを示す(この場合、ビデオエンコーダは、同位置配置されていない時間的MVPが選択されたかどうかを信号伝達しなくてよい)ことがある。
5つのMVPを有するリストを作成した後、ビデオエンコーダ20は、MVPの各々を評価して、ビデオを符号化するために選択された所与のレート及び歪みのプロファイルに最も良く合致する最良のレート及び歪みの特性をもたらすのはどれかを決定することができる。ビデオエンコーダ20は、5つのMVPの各々に関してレート歪み最適化(RDO)手順を実行し、最良のRDO結果を有するMVPのうちの1つを選択することができる。代替的に、ビデオエンコーダ20は、現在のPUに関して決定された動きベクトルに最も近似する、リストに記憶された5つのMVPのうちの1つを選択することができる。
いずれの場合も、ビデオエンコーダ20は、5つのMVPを有するリスト内のMVPのうちの選択された1つを識別するインデックス、(リスト形式であることが多い)動きベクトルがポイントする1つ以上の参照フレーム、及び予測が単方向であるか双方向であるかを識別する予測方向を備えるデータを使用して、動きベクトルを特定することができる。代替的に、動きベクトルを定義するデータは、参照フレームと予測方向とを特定することなく、5つのMVPを有するリスト内の選択されたMVPのインデックスを特定するだけでもよく、この場合、MVPのうちの選択された1つが現在のPUに全体的に使用されることが、ビデオデコーダに信号伝達される。
1つ以上の動きベクトルを定義する1つ以上のPUを有することに加えて、CUは1つ以上の変換ユニット(TU)を含むことができる。PUを使用した予測の後に、ビデオエンコーダは、PUに対応するCUの部分の残差値を計算することができ、この残差値は残差データと呼ばれることもある。残差値は変換され、量子化され、走査され得る。TUは、必ずしもPUのサイズに制限されるとは限らない。従って、各TUは、同じCUについての対応するPUよりも大きくても小さくてもよい。幾つかの例では、TUの最大サイズは、対応するCUのサイズであり得る。本開示ではまた、CU、PU、及び/又はTUの任意の1つ又は組合せを指すために「ブロック」という用語を使用する。
概して、符号化ビデオデータは予測データと残差データとを含み得る。ビデオエンコーダ20は、イントラ予測モード又はインター予測モード中に予測データを生成し得る。イントラ予測は、概して、あるピクチャのブロック中の画素値を、同じピクチャの近傍にある、前にコード化されたブロック中の参照サンプルに対して予測することを伴う。インター予測は、概して、あるピクチャのブロック中の画素値を、前にコード化されたピクチャのデータに対して予測することを伴う。
イントラ予測又はインター予測の後に、ビデオエンコーダ20はブロックの残差画素値を計算し得る。その残差値は、概して、ブロックの予測画素値データとブロックの真の画素値データとの間の差分に対応する。例えば、残差値は、コード化画素と予測画素との間の差分を示す画素差分値を含み得る。幾つかの例では、コード化画素は、コード化されるべき画素のブロックに関連し得、予測画素は、コード化ブロックを予測するために使用される画素の1つ以上のブロックに関連し得る。
ブロックの残差値を更に圧縮するために、残差値は、(「エネルギー」とも呼ばれる)できるだけ多くのデータをできるだけ少数の係数に構成する変換係数のセットに変換され得る。変換技法は、離散コサイン変換(DCT)プロセス又は概念的に同様のプロセス、整数変換、ウェーブレット変換、又は他のタイプの変換を備え得る。その変換は、画素の残差値を空間領域から変換領域に変換する。変換係数は、元のブロックと通常同じサイズである係数の2次元行列に対応する。言い換えれば、元のブロック中の画素とちょうど同数の変換係数がある。但し、変換により、変換係数の多くは、0に等しい値を有し得る。
ビデオエンコーダ20は、次いで、ビデオデータを更に圧縮するために変換係数を量子化し得る。量子化は、概して、相対的に大きい範囲内の値を相対的に小さい範囲中の値にマッピングし、それによって、量子化変換係数を表すために必要とされるデータの量を低減することを伴う。より詳細には、量子化は、LCUレベルにおいて定義され得る量子化パラメータ(QP)に従って適用され得る。従って、LCU内のCUの様々なPUに関連するTUにおける全ての変換係数に、同じレベルの量子化が適用され得る。但し、QP自体を信号伝達するのではなく、QPの変化(即ち、差分)がLCUとともに信号伝達され得る。差分QPは、前に通信されたLCUのQPのような何らかの参照QPに対するLCUの量子化パラメータの変化を定義する。
量子化の後に、ビデオエンコーダ20は、変換係数を走査して、量子化変換係数を含む2次元行列から1次元ベクトルを生成し得る。次いでビデオエンコーダ20は、(誤称によって「エントロピー符号化」と一般に呼ばれる)統計的可逆符号化を実行して、得られたアレイを符号化することで、データをなお一層圧縮することができる。概して、エントロピーコード化は、一連の量子化変換係数及び/又は他のシンタックス情報をまとめて圧縮する1つ以上のプロセスを備える。例えば、差分QP、予測ベクトル、コード化モード、フィルタ、オフセット、又は他の情報などのシンタックス要素も、エントロピーコード化ビットストリームに含まれ得る。走査された係数は次いで、例えば、コンテンツ適応型可変長コード化(CAVLC:content adaptive variable length coding)、コンテキスト適応型バイナリ算術コード化(CABAC:context adaptive binary arithmetic coding)、又は任意の他の統計的可逆コード化プロセスによって、任意のシンタックス情報とともにエントロピーコード化される。
上述のように、PUに関する動きベクトルを定義するデータは幾つかの形態をとり得る。ビデオエンコーダ20は、動きベクトルデータを圧縮するように動きベクトルが表現され得る様々な方法を実施することができる。ビデオエンコーダ20は、規定された方法で構成されたMVPのリストに記憶されたMVPを識別するインデックスとして動きベクトルを表現する、マージモードと呼ばれるものを実施することができる。ビデオデコーダ30は、このマージモードの逆を実施する中で、このインデックスを受信し、規定された方法に従って5つのMVPからなるリストを再構成し、インデックスによって示されるリスト内の5つのMVPのうちの1つを選択する。次いでビデオデコーダ30は、MVPのうちの選択された1つの同じ解像度による、MVPのうちの選択された1つがポイントするのと同じ参照フレームをポイントする関連PUに関する動きベクトルとして、MVPのうちの選択された1つをインスタンス化することができる。マージモードを実施する際、ビデオエンコーダ20は、動きベクトルを導出するのに必要な全範囲で動き推定を実行しなくてよく、動きベクトルの水平成分及び垂直成分、動きベクトルの解像度、(動きベクトルが時間的に現在のフレームの前にあるフレームをポイントするか、それとも後にあるフレームをポイントするかを意味する)動きベクトル方向、又は参照フレームインデックスを特定しなくてよく、それにより潜在的に、動きベクトルを決定するのに必要なプロセッササイクルを減らし、動きベクトルデータを圧縮する。
ビデオエンコーダ20は、マージモードに類似する、規定された方法で構成されたMVPのリストに記憶されたMVPを識別するインデックスとして動きベクトルを表現することを含む適応型動きベクトル予測(AMVP)モードを実施することもできる。但し、マージモードとは異なり、ビデオエンコーダ20は予測方向と参照フレームとを特定して、MVPのうちの選択された1つのこれらの部分を効果的に無効にすることもできる。AMVPモードを実施する際、ビデオエンコーダ20は、動きベクトルを導出するのに必要な全範囲で動き推定を実行しなくてよく、動きベクトルの水平成分及び垂直成分と動きベクトルの解像度とを特定しなくてよく、それにより潜在的に、動きベクトルを決定するのに必要なプロセッササイクルを減らし、動きベクトルデータを圧縮する。
様々なコード化規格が進化する中、なお一層効率的な動きベクトル表現が進化してきた。例えば、新生HEVC規格に対する提案は、MVPインデックスが「プルーニング」又は「MVPプルーニング」と呼ばれるプロセスを通じて圧縮され得る方法を提案している。このプルーニングプロセスを実行する際、ビデオエンコーダ20は、規定された方法で5つのMVPを有するリストを構成し、次いで冗長なMVPをプルーニング又は除去する。即ち、ビデオエンコーダ20は、X成分とY成分の両方に対して同じ振幅を有し、同じ参照フレームを参照するMVPを除去することができ、これらのMVPは本開示では「冗長なMVP」と考えられる。代替的に、ビデオエンコーダ20は、「一意」であるMVPをリストに追加することができ、この「一意」は、これらのMVPが、リストにすでに含まれているその他のMVPとは異なる振幅をX方向及びY方向において有し、及び/又は異なる参照フレームを参照することを意味する。リストに追加された後にプルーニングするか、リストを作成するときにプルーニングするかにかかわらず、プルーニングプロセスは、リストのサイズを縮小し、その結果、MVPのうちの選択された1つを信号伝達あるいは特定するために使用されるビットを少なくすることができ、その理由は、一般にリストが短いほど、最大インデックス値を表現するのに必要なビットの数が小さくなることにある。
例えば、説明のために、5つのMVPのうちのいずれもプルーニングされないと仮定する。この場合、ビデオエンコーダは最大4ビットを備える短縮単項コード(truncated unary code)を使用して、選択される決定のMVPを示すために、5つのMVPを有するこのリストへのインデックスを信号伝達することができる。提案では、5つのMVPを有するリスト内の5番目のMVPの選択を信号伝達するために使用される短縮単項コードは1111、5つのMVPを有するリスト内の4番目のMVPは1110、5つのMVPを有するリスト内の3番目のMVPは110、5つのMVPを有するリスト内の2番目のMVPは10、5つのMVPを有するリスト内の1番目のMVPは0である。一方、MVPのリストを3つのMVPまでプルーニングすることができる(これは、MVPのうちの2つが冗長であることを意味する)場合、ビデオエンコーダ20は、最大2ビットを消費する短縮単項コードを使用し(例えばこの場合、3番目のMVPが11のコードを使用して信号伝達され得る)、潜在的に、プルーニングが採用されないか、又は可能ではなく(例えば、冗長なMVPがないとき)、5つのMVPを有するリスト内の5番目のMVP又は4番目のMVPが選択された場合と比べて、1ビット節約することができる。従って、ある程度まで、コードはMVPリストのサイズに依存し、MVPリストが小さい(つまり、リストが有するMVPが少ない)ほど、コードが小さくなる(つまり、プルーニングされたMVPリストから選択されたMVPを表現するのにコードが必要とするビットが少なくなる)。
プルーニングは、MVPリスト内の選択されたMVPのインデックスを信号伝達するために使用されるコードの長さを短縮することによってコード化効率を高めることができるが、このプルーニングは、ビデオデコーダ30がビットストリームを首尾よく構文解析する能力に影響を与えることもある。コードはプルーニングされたMVPリストのサイズに依存するので、ビデオデコーダ30は、プルーニングされたMVPリストにあるMVPの数を把握する必要がある。しかしながら、時間的に同位置に配置されたMVPを特定する参照フレームが消失したときには、この時間的に同位置に配置されたMVPは利用不可能であり、ビデオデコーダ30は、このMVPが一意であるか冗長であるかを決定することができない。その結果、ビデオデコーダ30は、プルーニングされたMVPリストがこの時間的に同位置に配置されたMVPを含んでいたはずであるかどうかを決定できず、従って、プルーニングされたMVPリストのサイズを決定することができない。プルーニングされたMVPリストのサイズを決定することができないので、ビデオデコーダ30は、コードの最大長さを決定することができず、その結果、ビデオデコーダ30は、ビットストリームからコードを構文解析できない。
本開示で説明する技法によれば、ビデオエンコーダ20は潜在的にロバストであるが効率的な方法で、プルーニングプロセス中に時間的に同位置に配置されたMVPを含めることなく冗長な空間的MVPをプルーニングすることによって、MVPを特定することができる。言い換えれば、ビデオエンコーダ20は、本開示で説明する技法を実施して、空間的MVPのみを含むMVP中間リストを作成し、このMVP中間リストに関してプルーニングを実行し、次いで、時間的に同位置に配置されたMVPをプルーニングされたMVP中間リストと組み合わせて、プルーニングされたMVPリストを作成することができる。このようにして、従来型のシステムではよくある、時間的に同位置に配置されたMVPを特定する参照フレームの消失がビットストリームのパーシングを妨げることのないようにしつつ、プルーニングプロセスを採用することによって実現されるコード化効率向上の少なくとも一部をなお確保することができる。
説明のために、ビデオエンコーダ20は、最初に、CUのような現在のビデオフレームの現在の部分に関連する空間的候補動きベクトルを決定する。この場合も、空間的候補動きベクトルは、対応するCUに関連する現在のPUに隣接する近傍PUに関して決定された近傍動きベクトルを含む。一般に、これらの近傍PUは、図6の例に関連してより詳細に示すように、左、左上、真上及び右上に、現在のPUに隣接して位置する。これらの空間的候補動きベクトルがこれらのブロックに関してすでに決定されているので、ビデオエンコーダ20は、これらの空間的候補動きベクトルを使用する。現在のPUの右又は真下に位置するブロックの場合、ビデオエンコーダ20が上から下、左から右の動き推定/補償を一般に実行することに鑑み、ビデオエンコーダ20は、これらのブロックの動きベクトルをまだ計算していない。しかしながら、本技法は、これらの空間的動きベクトルに関して説明したが、異なる順序で(例えば、上から下、右から左に)動き推定/補償を実行するビデオエンコーダ20において実施され得る。加えて、本技法は、より多くの、又はより少ない空間的動きベクトル又は時間的動きベクトルに関して実施され得る。
これらの空間的動きベクトルを決定した後、ビデオエンコーダ20は、空間的候補動きベクトルのうちの重複するものを除去するために空間的候補動きベクトルをプルーニングする。ビデオエンコーダ20は、重複する空間的候補動きベクトルを、候補動きベクトルのx軸成分とy軸成分の両方に関して同じ振幅を有し、同じ参照フレームから来る候補の空間的動きベクトルのいずれかであると識別することができる。ビデオエンコーダ20は、空間的候補動きベクトルの中間リストと呼ばれ得るリストから重複するものを除去すること、又は単に、この中間リストに追加する候補の空間的動きベクトルは重複するものではないと決定して、このリストに候補の空間的動きベクトルを追加すること、のいずれかによってプルーニングを実行する。
この方法で空間的候補動きベクトルをプルーニングした後、ビデオエンコーダ20は、現在のビデオフレームの現在のPUに関して時間的候補動きベクトルを決定することができる。この場合も、時間的候補動きベクトルは、現在のビデオフレーム内の現在のPUと同じ位置に配置される参照ビデオフレームのPUに関して決定された動きベクトルを備える。次いでビデオエンコーダ20は、被選択候補動きベクトルとして、時間的候補動きベクトル又はプルーニングプロセスを実行した後に残存する空間的候補動きベクトルのうちの1つを選択することができる。次いでビデオエンコーダ20は、ビットストリームにおいて被選択候補動きベクトルを信号伝達する。
場合によっては、ビデオエンコーダ20は、決定された空間的候補動きベクトルの各々が空間的に予測されるか、それとも時間的に予測されるかを決定することができる。言い換えれば、決定された空間的候補動きベクトル自体は、参照フレーム内の同位置に配置されたブロックから時間的に予測されること、又は空間的候補動きベクトルの各々が決定される際の対象ブロックに隣接するブロックから空間的に予測されることがある。ビデオエンコーダ20は、この決定に応答して、決定された空間的候補動きベクトルのうちの1つ又は複数をプルーニングプロセスから更に除去することができる。ビデオエンコーダ20は、例えば、空間的候補動きベクトルのうちで、それら自体時間的に予測されると決定されたものをプルーニングプロセスから除去することができ、その理由は、これらの時間的に予測される空間的候補動きベクトルが予測される際の元になる参照フレームの部分が消失した場合に、これらの時間的に予測される空間的候補動きベクトルをデコーダが利用できなくなり得ることにある。次いでビデオエンコーダ20は、時間的候補動きベクトル、時間的に予測される空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する空間的に予測される空間的候補動きベクトルのうちの1つを選択し、この被選択候補動きベクトルをビットストリームにおいて信号伝達することができる。
代替的に、ビデオエンコーダ20は、時間的に予測される空間的候補動きベクトルをプルーニングプロセスから除去するのではなく、これらの時間的に予測される空間的候補動きベクトルを、デフォルト動き情報を定義するデフォルト候補動きベクトルに差し替えることができる。このデフォルト動きベクトル情報は、例えば、動きベクトル振幅、参照フレームが時間的に現在のフレームの前に来るか後に来るかを識別する予測方向、及び参照フレームを識別する参照インデックスを備えることができる。ビデオエンコーダ20は、幾つかの例を挙げれば、それらの利用可能な空間的に予測される空間的候補動きベクトルの平均を取得すること、第1の利用可能な空間的に予測される空間的候補動きベクトルを選ぶこと、又はビデオエンコーダ20とビデオデコーダ30の両方の中に空間的に構成されるデフォルト動きベクトル情報を使用することによって、このデフォルト動きベクトル情報を決定することができる。
空間的候補動きベクトルのうちで、(例えば、圧縮されたビデオデータの送信エラーあるいはビデオエンコーダ20又はビデオデコーダ30のいずれかにおける記憶エラーに起因して)消失しているか、ビデオデコーダ30にとって利用不可能であることのあるものをプルーニングプロセスから消去することによって、ビデオエンコーダ20は、これらの時間的に予測される空間的候補動きベクトルが消失したか利用不可能になった場合に、ビデオデコーダ30がビットストリームを適切に構文解析できるように、被選択候補動きベクトルを信号伝達することができる。同様に、代替として、時間的に予測される空間的候補動きベクトルをデフォルト候補動きベクトルに差し替えることによって、ビデオエンコーダ20は、これらの時間的に予測される空間的候補動きベクトルが消失したか利用不可能になった場合に、ビデオデコーダ30がビットストリームを適切に構文解析できるように、被選択候補動きベクトルを信号伝達することができる。
一般に、ビデオエンコーダ20は、リスト内に配置された被選択候補動きベクトルのインデックスを表す単項コードを使用して、被選択候補動きベクトルを信号伝達することができる。ビデオエンコーダ20は、時間的候補動きベクトルと、プルーニングプロセスを実行した後に残存する空間的候補動きベクトルとを、所定の方法又は規定された方法で(例えば、最高振幅から最低振幅へ、最低振幅から最高振幅へ、最初に時間的動きベクトル、続いて残存する空間的動きベクトルを、最高振幅から最低振幅又は最低振幅から最高振幅のいずれかの順序で、など)配置して、候補動きベクトルのリストを作成することができる。代替的に、ビデオエンコーダ20は、動きベクトルがリスト内でどのように配置されているかを示す何らかの識別子を信号伝達することができる。いずれにせよ、次いでビデオエンコーダ20は、このリストに記憶された候補動きベクトルのうちの1つを識別し、上記の方法で単項コードを使用してこのリストに記憶された候補動きベクトルのうちの選択された1つのインデックスを符号化する。
ビデオデコーダ30はこのビットストリームを受信し、インデックスを復号し、可能な場合に空間的候補動きベクトルの中間リストを作成する。上述のように、空間的候補動きベクトルのうちの1つ又は複数は、ビデオエンコーダ20が近傍ブロックに関する動きベクトルを符号化するために動きベクトル予測を採用し、時間的動きベクトルを選択した場合に、この時間的動きベクトルを定義する参照フレームが(例えば、メモリの破損、バスエラー又は伝送エラーに起因して)消失した場合、利用できないことがある。代替的に、空間的候補動きベクトルのうちの1つ又は複数は、ビデオエンコーダ20がこの近傍PUに関する動きベクトルを符号化するために動きベクトル予測を採用し、それ自体が時間的動きベクトルから予測される動きベクトルであった空間的動きベクトルのうちの1つを選択したときに、この時間的動きベクトルを定義する参照フレームが(例えば、メモリの破損、バスエラー又は伝送エラーに起因して)消失した場合、利用できないことがある。ビデオデコーダ30はこの問題を、利用不可能な時間的に予測される候補動きベクトルをプルーニングプロセスから除去すること、又は代替として、これらの利用不可能な時間的に予測される空間的候補動きベクトルをデフォルト候補動きベクトルに差し替えること、のいずれかによって克服することができる。ビデオデコーダ30はこの点で、ビットストリームから信号伝達された被選択候補動きベクトルを適切に構文解析するために、ビデオエンコーダ20に関して上述した技法を実質的に同様の方法で実施する。
いずれの場合も、1つ以上の候補動きベクトルが消失すると仮定しても、本技法は、ビットストリームのパーシングを容易にする方法でMVPを信号伝達することができる。プルーニング後にリストに常に時間的候補動きベクトルが存在するようにすることによって、ビデオエンコーダ20は、ビデオデコーダ30が利用可能な動きベクトルの数を決定し、それによりビットストリームからインデックスを構文解析することがきるようにする。同様に、時間的に予測される空間的候補動きベクトルがリスト内に常にあるか、ビデオデコーダ30が常に再生できるデフォルト候補動きベクトルに差し替えられるようにすることによって、ビデオエンコーダ20は、ビデオデコーダ30が利用可能な動きベクトルの数を決定し、それによりビットストリームからインデックスを構文解析することがきるようにする。このようにして、時間的候補動きベクトル及び/又は時間的に予測される空間的候補動きベクトルを記憶しているスライスが消失したとしても、ビデオデコーダ30は依然として、単項コードが使用されるかどうかにかかわらずビットストリームを構文解析することができる。特に、ビデオデコーダ30は、時間的候補動きベクトル及び/又は時間的に予測される空間的候補動きベクトルが常にMVPリストに含まれ、MVPリストからプルーニングされることは決してないことを把握した状態で、ビットストリームを構文解析することができる。代替として、時間的に予測される空間的候補動きベクトルがデフォルト候補動きベクトルに差し替えられる場合、ビデオエンコーダ20は、そのような時間的に予測される空間的候補動きベクトルが消失することはないことを効果的に保証するが、その理由は、ビデオデコーダ30が、これらの動きベクトルを、このデフォルト候補動きベクトルを決定するためにビデオエンコーダ20が実行した同じ技法を使用して常に決定できるように構成されることにある。
時間的候補動きベクトルが消失する場合を例示するために、空間的候補動きベクトルの振幅が1、1、1及び1であり、時間的候補動きベクトルの振幅が−1である場合を考える。ビデオデコーダ30は本技法を実施して、MVPリストと呼ばれることがあるリストを、MVPリストが1、1、1及び1となるように最初に空間的候補動きベクトルのみにより作成することができる。次いでデコーダは、この空間のみMVPリストを、このMVPリストが1と定義されるようにプルーニングする。次いでデコーダは、MVPリストが−1及び1と定義されるように、MVPリストに時間的候補動きベクトルを追加する。エンコーダは、これらの動きベクトルのうちの1つが選択されたことを示すために、0又は1のいずれかのmvp_idx(又は短縮単項コードを使用しない場合に0及び10のmvp_idx)を信号伝達することができる。上記で説明した単項コードに関して、本開示の技法は、少なくとも1つの空間的候補動きベクトル及び時間的候補空間的動きベクトルが常に存在することになるので、プルーニング後にたった1つの候補動きベクトルが利用可能であったと推測せざるを得ない可能性を除去する。
このようにして、本技法は、ビデオエンコーダが潜在的にロバストであるが効率的な方法で、プルーニングプロセス中に時間的に同位置に配置されたMVPを考慮することなく冗長な空間的MVPをプルーニングすることによって、MVPを特定することを可能にする。言い換えれば、本技法は、空間的MVPのみを含むMVP中間リストを作成し、このMVP中間リストに関してプルーニングを実行し、次いで、プルーニングされたMVP中間リストに時間的に同位置に配置されたMVPを追加して、プルーニングされたMVPリストを作成する。このようにして、従来型のシステムではよくある、時間的に同位置に配置されたMVPを特定する参照フレームの消失がビットストリームのパーシングを妨げることのないようにしつつ、プルーニングプロセスを採用することによって実現されるコード化効率向上をなお確保することができる。
場合によっては、本技法は他の文脈において適用され得る。例えば、HEVCテストモデルの第4のバージョン(HM4.0)は、MVPをプルーニングし、次いで、プルーニング後に残存するMVPの総数が5未満である場合にさらなるMVPを追加することを提案している。言い換えれば、HM4.0は5つのMVP(即ち、1つの時間的MVP及び4つの空間的MVP)をプルーニングして、プルーニングされたMVPリストを生成する。このプルーニングされたMVPリストにおけるMVPの数が5未満である場合、プルーニングされたリストにおけるMVPの総数が5に等しくなるまで、HM4.0は非冗長MVPを追加する。これらの非冗長MVPは、他の空間的ブロック又は時間的ブロックから選択されてよく、又はプルーニングされたMVPリスト内のMVPに基づいて(例えば、プルーニングされたMVPリスト内の1つのMVPのy成分とプルーニングされたMVPリスト内の別の異なるMVPによるx成分とを選択して)生成されてよい。この文脈では、ビデオエンコーダは、本開示で説明する技法を実施して追加の非冗長MVPを選択することができ、それにより空間的MVPのみが選択され、かつ/又は使用されて、これらの追加の非冗長MVPが生成される。
空間的MVPのみを選択すること、又はプルーニング後に残存する既存の空間的MVPを使用することで、これらの追加の非冗長MVPを生成することによって、ビデオエンコーダは、MVPのうちの選択された1つをビデオデコーダが適切に決定できるようにし得る。即ち、5つのMVPを常に有することによって、ビデオエンコーダは、ビデオデコーダが常にビットストリームからMVPインデックスを構文解析できるようにするが、時間的MVPが消失した場合、ビデオデコーダはMVPリストを正確に構成きないことがあり、その理由は、時間的MVPが消失したときに互いに関してMVPの順序をMVPは決定できないことにある。本開示で説明する技法は、時間的MVP又は時間的MVPからそれら自体予測される空間的MVPを追加の非冗長MVPとして選択しないことによって、時間的MVPを消失することによる影響を低減又は潜在的に除去することができる。
本開示の例に関して説明した動きベクトル予測を特定するための技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、例えばインターネットを介したストリーミングビデオ送信、データ記憶媒体に記憶するためのデジタルビデオの符号化、データ記憶媒体に記憶されたデジタルビデオの復号、又は他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコード化に適用され得る。幾つかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、及び/又はビデオテレフォニーなどの適用例のために、一方向又は双方向のビデオ送信をサポートするように構成され得る。
図1には示されていないが、幾つかの態様では、ビデオエンコーダ20及びビデオデコーダ30は、それぞれオーディオエンコーダ及びオーディオデコーダと統合でき、適切なMUX−DEMUXユニット又は他のハードウェア及びソフトウェアを含んで、共通のデータストリーム又は別個のデータストリーム中のオーディオとビデオの両方の符号化を処理することができる。適用可能な場合、幾つかの例では、MUX−DEMUXユニットはITU H.223マルチプレクサプロトコル、又はユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
ビデオエンコーダ20及びビデオデコーダ30はそれぞれ、1つ以上のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、決定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダ回路のいずれか、又はそれらの任意の組合せとして実装され得る。本技法がソフトウェアで部分的に実施されるとき、機器は、好適な非一時的コンピュータ可読媒体にソフトウェアの命令を記憶し、1つ以上のプロセッサを使用してその命令をハードウェアで実行して、本開示の技法を実行し得る。ビデオエンコーダ20及びビデオデコーダ30の各々は1つ以上のエンコーダ又はデコーダ中に含まれ得、そのいずれも、それぞれの機器において複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。
図2は、動きベクトル予測子を特定するための技法を実施し得るビデオエンコーダ20の一例を示すブロック図である。ビデオエンコーダ20は、マクロブロックあるいはマクロブロックのパーティション又はサブパーティションを含むビデオフレーム内のブロックのイントラコード化及びインターコード化を実行し得る。イントラコード化は、所与のビデオフレーム内のビデオの空間的冗長性を低減又は除去するために空間的予測に依拠する。インターコード化は、ビデオシーケンスの隣接フレーム内のビデオの時間的冗長性を低減又は除去するために時間的予測に依拠する。イントラモード(Iモード)は、幾つかの空間ベースの圧縮モードのいずれかを指し、単方向予測(Pモード)又は双方向予測(Bモード)などのインターモードは、幾つかの時間ベースの圧縮モードのいずれかを指し得る。図2にはインターモード符号化のための構成要素が示されているが、ビデオエンコーダ20はイントラモード符号化のための構成要素を更に含み得ることを理解されたい。但し、簡潔及び明快のために、そのような構成要素は示されていない。
図2に示すように、ビデオエンコーダ20は、符号化されるビデオフレーム内の現在のビデオブロックを受信する。図2の例では、ビデオエンコーダ20は、動き補償ユニット44と、動き推定ユニット42と、メモリ64と、加算器50と、変換ユニット52と、量子化ユニット54と、エントロピーコード化ユニット56とを含む。ビデオブロック再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。再構成ビデオからブロック歪みを除去するためにブロック境界をフィルタ処理するデブロッキングフィルタ(図2に図示せず)も含まれ得る。所望される場合、デブロッキングフィルタは、一般に、加算器62の出力をフィルタ処理することになる。全般的にランダムアクセスメモリ(RAM)、ダイナミックRAM(DRAM)、スタティックRAM(SRAM)、フラッシュメモリ又は他の持続的もしくは非持続的なチップベースの記憶媒体を指し得るメモリ64を含むものとして記述しているが、ハードドライブ、光学式ドライブ、ディスクドライブなどを含む任意のタイプの非一時的コンピュータ可読媒体を利用してよい。
符号化プロセス中に、ビデオエンコーダ20はコード化されるビデオフレーム又はスライスを受信する。フレーム又はスライスは、複数のビデオブロックに分割され得る。動き推定ユニット42及び動き補償ユニット44は、時間圧縮を行うために、1つ以上の参照フレーム中の1つ以上のブロックに対する受信したビデオブロックのインター予測コード化を実行する。また、イントラ予測ユニット46は、空間圧縮を行うために、コード化されるブロックと同じフレーム又はスライス中の1つ以上の近傍ブロックに対する受信したビデオブロックのイントラ予測コード化を実行し得る。
図2の例に更に示すように、ビデオエンコーダ20はモード選択ユニット40も含む。モード選択ユニット40は、例えば、誤差結果に基づいてコード化モード、即ち、イントラ又はインターのうちの1つを選択し、残差ブロックデータを生成するために、得られたイントラコード化ブロック又はインターコード化ブロックを加算器50に与え、参照フレームとして使用するための符号化ブロックを再構成するために、得られたイントラコード化ブロック又はインターコード化ブロックを加算器62に与え得る。
動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示してある。動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、例えば、現在のフレーム(又は、他のコード化ユニット)内のコード化されている現在のブロックに対する予測参照フレーム(又は、他のコード化ユニット)内の予測ブロックの変位を示し得る。予測ブロックは、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、又は他の差分メトリックによって決定され得る画素差分に関して、コード化されるブロックにぴったり一致することがわかるブロックである。動きベクトルはまた、マクロブロックの区分の変位を示し得る。動き補償は、動き推定によって決定された動きベクトルに基づいて予測ブロックを取り込む又は生成することに関与し得る。この場合も、幾つかの例では、動き推定ユニット42と動き補償ユニット44とは機能的に統合され得る。
動き推定ユニット42は、ビデオブロックをメモリ64中の参照フレームのビデオブロックと比較することによってインターコード化フレームのビデオブロックの動きベクトルを計算する。動き補償ユニット44はまた、参照フレーム、例えば、Iフレーム又はPフレームのサブ整数画素を補間し得る。新生HEVC規格(及びITU H.264規格)は、一般に「リスト」と呼ばれる1つ以上のリストデータ構造によって参照フレームを記憶する。従って、メモリ64に記憶されたデータをリストと見なすこともできる。動き推定ユニット42は、メモリ64からの1つ以上の参照フレーム(又はリスト)のブロックを現在のフレーム、例えば、Pフレーム又はBフレームの符号化されるべきブロックと比較する。メモリ64中の参照フレームがサブ整数画素の値を含むとき、動き推定ユニット42によって計算される動きベクトルは参照フレームのサブ整数画素位置を参照し得る。動き推定ユニット42は、計算された動きベクトルをエントロピーコード化ユニット56と動き補償ユニット44とに送る。動きベクトルによって識別される(CUを備え得る)参照フレームブロックは予測ブロックと呼ばれることがある。動き補償ユニット44は参照フレームの予測ブロックの誤差値を計算する。
動き補償ユニット44は、予測ブロックに基づいて予測データを計算し得る。ビデオエンコーダ20は、コード化されている元のビデオブロックから、動き補償ユニット44からの予測データを減算することによって残差ビデオブロックを形成する。加算器50は、この減算演算を実行する1つ以上の構成要素を表す。変換ユニット52は、離散コサイン変換(DCT)又は概念的に同様の変換などの変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換ユニット52は、概念的にDCTと同様である、H.264規格によって定義される変換などの他の変換を実行し得る。ウェーブレット変換、整数変換、サブバンド変換又は他のタイプの変換をも使用することができる。いずれの場合も、変換ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報を画素値領域から周波数領域などの変換領域に変換し得る。量子化ユニット54は、ビットレートを更に低減するために残差変換係数を量子化する。量子化プロセスは、係数の一部又は全部に関連するビット深度を低減させることができる。量子化の程度は、量子化パラメータを調整することによって変更され得る。
量子化の後、エントロピーコード化ユニット56が量子化変換係数をエントロピーコード化する。例えば、エントロピーコード化ユニット56は、コンテンツ適応型可変長コード化(CAVLC)、コンテキスト適応型バイナリ算術コード化(CABAC)、又は別のエントロピーコード化技法を実行し得る。エントロピーコード化ユニット56によるエントロピーコード化の後、符号化ビデオは、別の機器に送信されるか、又は後の送信又は取出しのためにアーカイブされ得る。コンテキスト適応型バイナリ算術コード化の場合、コンテキストは近傍マクロブロックに基づき得る。
場合によっては、エントロピーコード化ユニット56又はビデオエンコーダ20の別のユニットは、エントロピーコード化に加えて他のコード化機能を実行するように構成され得る。例えば、エントロピーコード化ユニット56はマクロブロック及び区分のCBP値を決定するように構成され得る。また、場合によっては、エントロピーコード化ユニット56は、マクロブロック又はそれの区分中の係数のランレングスコード化を実行し得る。特に、エントロピーコード化ユニット56は、マクロブロック又は区分中の変換係数を走査するためにジグザグ走査又は他の走査パターンを適用し、さらなる圧縮のためにゼロのランを符号化し得る。エントロピーコード化ユニット56はまた、符号化ビデオビットストリーム中での送信のために適切なシンタックス要素とともにヘッダ情報を構成し得る。
逆量子化ユニット58及び逆変換ユニット60は、それぞれ逆量子化及び逆変換を適用して、例えば参照ブロックとして後で使用するために、画素領域中で残差ブロックを再構成する。動き補償ユニット44は、メモリ64内の参照フレーム記憶部のフレームのうちの1つの予測ブロックに残差ブロックを加算することによって、参照ブロックを計算し得る。動き補償ユニット44はまた、再構成残差ブロックに1つ以上の補間フィルタを適用して、動き推定において使用するサブ整数画素値を計算し得る。加算器62は、再構成残差ブロックを、動き補償ユニット44によって生成された動き補償予測ブロックに加算して、メモリ64の参照フレーム記憶部に記憶するための再構成ビデオブロックを生成する。再構成ビデオブロックは、後続のビデオフレーム中のブロックをインターコード化するために動き推定ユニット42及び動き補償ユニット44によって参照ブロックとして使用され得る。
上述のように、動き推定ユニット42は、場合によっては、動きベクトルを計算せず、代わりに、4つが空間的候補動きベクトル、1つが時間的候補動きベクトルである動きベクトル予測子のリストを決定することがある。一般に、動き推定ユニット42は、動き推定の計算の複雑さを低減し、それによってビデオデータの符号化速度を改善する一方で電力消費も減らすために、動きベクトルの計算を控える。本開示で説明する技法によれば、動き推定ユニット42は、4つの空間的候補動きベクトルを有する(又は、空間的候補動きベクトルのうちの1つ又は複数がそれら自体時間的に予測されると決定される場合には、より少ない空間的候補動きベクトルを有し、この場合、そのように時間的に予測される空間的候補動きベクトルはプルーニングプロセスから除去される)中間リストを決定し、(潜在的にもっぱら空間的に予測される)空間的候補動きベクトルを有するこのリストをプルーニングし、(潜在的にもっぱら空間的に予測される)空間的候補動きベクトルを有するこのプルーニングされたリストに時間的候補動きベクトル(及び潜在的に時間的に予測される空間的候補動きベクトル)を追加することができる。代替的に、動き推定ユニット42は、(これらの時間的に予測される空間的候補動きベクトルをデフォルト候補動きベクトルに差し替えるとき)4つの空間的候補動きベクトルを有する中間リストを決定し、(決定されたデフォルト候補動きベクトルのうちの1つ又は複数を含む)空間的候補動きベクトルを有するこのリストをプルーニングし、空間的候補動きベクトルを有するプルーニングされたリストに時間的候補動きベクトルを追加することができる。動き推定ユニット42は、時間的動きベクトル候補とプルーニングされた空間的動きベクトル候補とを含むこのリストを、動き補償ユニット44に出力することができる。
次いで動き補償ユニット44は、リストに含まれる候補動きベクトルごとに(この場合も、予測ブロックと呼ばれ得る)参照フレームブロックを識別することができる。次いで動き補償ユニット44は、候補動きベクトルごとに決定された予測ブロックに基づいて、予測データを計算することができる。次いでビデオエンコーダ20は、候補動きベクトルの対応する1つについて計算された予測データごとに残差データを決定し、残差データを変換し、トランスコードされた残差データを量子化し、次いで上記で説明した方法で量子化残差データをエントロピー符号化することができる。次いでビデオエンコーダ20は逆演算を実行して、プルーニング後に残存する候補動きベクトルの各々に関して生成されたこのエントロピー符号化残差データを復号して、再構成ビデオブロックの形態で参照データを再生することができる。モード選択ユニット40は、候補動きベクトルの各々に関して生成された再構成ビデオブロックの各々を分析して、候補動きベクトルのうちの1つを選択することができる。モード選択ユニット40は、一般にレート歪み最適化と呼ばれ、通常「RDO」と略されるプロセスを通じて最良のレート対歪み比をもたらす候補動きベクトルのうちの1つを選択することができる。
RDOは一般に、あるレート(一般に、圧縮されたフレーム、スライス又はブロックを含む圧縮されたビデオデータが送られる場合のビットレートを指す)を達成するために圧縮された再構成されたフレーム、スライス又はブロックを、元のフレーム、スライス又はブロックと比較し、元のフレーム、スライス又はブロックと所与のレートによる再構成されたフレーム、スライス又はブロックとの間の歪みの程度を決定することを伴う。モード選択ユニット40は、所与のレートを達成するか、達成することを試みる複数の異なるメトリクスを使用して同じビデオデータを符号化し、これらの様々なメトリクスに関して歪み最適化プロセスを実行することができる。この場合、モード選択ユニット40は、各再構成ビデオブロックのRD出力を比較し、目標レートにおいて歪みが最も小さいものを選択することができる。
次いでモード選択ユニット40は、この選択を動き推定ユニット42に示すことができ、続いて動き推定ユニット42は、エントロピーコード化ユニット56とインターフェースして、この選択をエントロピーコード化ユニット56に知らせる。一般に、動き推定ユニット42は、エントロピーコード化ユニット56とインターフェースして、被選択候補動きベクトルを識別するインデックスとともに動きベクトル予測が実行されたことを示す。上述のように、動き推定ユニット42は、候補動きベクトルを規定された方法で、例えば、最高振幅から最低振幅へ、又は最低振幅から最高振幅へ、又は任意の他の規定された方法で配置することができる。代替的に、動き推定ユニット42はエントロピーコード化ユニット56に対し、MVPリストと呼ばれることもあるこのリスト内で候補動きベクトルがどのように配置されたかを信号伝達してもよい。次いでエントロピーコード化ユニット56は、動きデータを符号化するようにMVPが実行されたことを示すのに必要であり得る任意の他の情報とともに、単項コード又は短縮単項コードのいずれかを使用して、このインデックスを符号化することができる。エントロピーコード化ユニット56は、ビットストリームにおいて(「mvp_idx」と示され得る)シンタックス要素として符号化インデックスを出力することができ、これは図1に関連して上述した方法で記憶又は送信され得る。
場合によっては、エントロピーコード化ユニット56は、コンテキスト適応型バイナリ算術コード化(CABAC)と呼ばれる形式のエントロピーコード化を実行する。CABACを実行する中で、エントロピーコード化ユニット56は、(対応するコンテキストに関連するビデオデータをより効率的に圧縮するために様々なコンテキストについて特定された様々なコードテーブルである)複数の所謂コンテキストのうちの1つを選択することができ、選択されたコンテキストについて定義されたコードテーブルに従って、圧縮された残差データを符号化する。エントロピーコード化ユニット56は、コンテキスト情報に基づいてコンテキストのうちの1つを選択することができ、このコンテキスト情報は、動きベクトル予測を実行するときに決定される参照インデックスと、一意の動きベクトル候補の数と、動きベクトル予測を実行するときに決定される予測方向とを含み得る。
図3は、符号化ビデオシーケンスを復号するビデオデコーダ30の一例を示すブロック図である。図3の例では、ビデオデコーダ30は、エントロピー復号ユニット70と、動き補償ユニット72と、イントラ予測ユニット74と、逆量子化ユニット76と、逆変換ユニット78と、メモリ82と、加算器80とを含む。ビデオデコーダ30は、幾つかの例では、図1及び図2の例に示すビデオエンコーダ20のようなビデオエンコーダに関して説明した符号化構文解析とは概して逆の復号構文解析を実行し得る。概して逆であるが、ビデオデコーダ30は、場合によっては、ビデオエンコーダ20によって実行される技法と同様の技法を実行することがある。言い換えれば、ビデオデコーダ30は、ビデオエンコーダ20によって実行されるプロセスと実質的に同様のプロセスを実行することができる。更に、上記のように、ビデオエンコーダ20は、ビデオ符号化を実行するプロセスにおいてビデオ復号を実行し得る。説明すると、ビデオエンコーダ20の逆量子化ユニット58、逆変換ユニット60、及び加算器62は、ビデオデコーダ30の逆量子化ユニット76、逆変換ユニット78、及び加算器80と実質的に同様の動作を実行することができる。
図3の例に示すように、エントロピー復号ユニット70は符号化ビットストリームを受信し、符号化ビットストリームは説明のために、被選択候補動きベクトル(この場合も、これらの候補動きベクトルは動きベクトル予測子又はMVPと呼ばれることがある)を識別する単項コード化インデックス又は短縮単項コード化インデックスを含むと仮定される。エントロピー復号ユニット70は、ビデオエンコーダ20のエントロピーコード化ユニット56とは概して逆のプロセスを実行する中で、現在のPUに関する動きベクトルを決定するように動きベクトル予測が実行されたことを示す、現在のPUに関するシンタックス要素又は他のコード化データを受信することができる。このシンタックス要素又は他のコード化データに応答して、エントロピー復号ユニット70は、ビットストリームから単項コード又は短縮単項コードを適切に構文解析するために、プルーニング後に残存する候補動きベクトルの数を決定するように本開示で説明する技法を実施する。
候補動きベクトルの数を決定するために、エントロピーコード化ユニット70は本開示で説明する技法に従って、動き補償ユニット72とインターフェースし、動き補償ユニット72に対し、候補動きベクトルの数を決定するように命令することができる。動き補償ユニット72は、現在のPUに隣接するPUに関する空間的候補動きベクトルと参照フレーム内のコロケートPUに関する時間的候補動きベクトルとを取り出す。エントロピーコード化ユニット70は動き補償ユニット72に対し、(一般に、ビットストリームにおいて別のシンタックス要素として)現在のPUに関して識別される参照フレームを提供することができる。代替的に、動き補償ユニット72は、AMVP又はマージモードのいずれかに関して、所定の方法で(例えば、現在のPUが位置する現在のフレームから1つ、2つ又は任意の他の数だけ後退又は前進して、など)識別される参照フレームから時間的候補動きベクトルを取り出すように構成され得る。
次いで動き補償ユニット72は、ビデオエンコーダ20の動き補償ユニット44に関して上述した方法と実質的に同様の方法で、4つの空間的候補動きベクトルを含む(又は、空間的候補動きベクトルのうちの1つ以上がそれら自体時間的に予測されると決定される場合には、より少ない空間的候補動きベクトルを含み、この場合、そのように時間的に予測される空間的候補動きベクトルはプルーニングプロセスから除去される)中間リストを構成し、(潜在的にもっぱら空間的に予測される)空間的候補動きベクトルを有するこのリストをプルーニングし、(潜在的にもっぱら空間的に予測される)空間的候補動きベクトルを有するこのプルーニングされたリストと時間的候補動きベクトル(及び潜在的に時間的に予測される空間的候補動きベクトル)とを組み合わせることができる。代替的に、動き補償ユニット72は、ビデオエンコーダ20の動き補償ユニット44に関して上述した方法と実質的に同様の方法で、(時間的に予測される空間的候補動きベクトルをデフォルト候補動きベクトルに差し替えた)4つの空間的候補動きベクトルを有する中間リストを決定し、(決定されたデフォルト候補動きベクトルのうちの1つ以上を含む)空間的候補動きベクトルを有するこのリストをプルーニングし、空間的候補動きベクトルを有するプルーニングされたリストと時間的候補動きベクトルとを組み合わせることができる。各場合において、動き補償ユニット72は、プルーニングされたMVPリストとしてプルーニングを実行した後に決定された候補動きベクトルのこのリストを出力する。このプルーニングされたMVPリストを生成した後、動き補償ユニット72はこのリスト内の候補動きベクトルの数をカウントし、この数をエントロピーコード化ユニット70に信号伝達する。次いでエントロピーコード化ユニット70は、上記の理由により提供されるビットストリームから単項コード化インデックス又は短縮単項コード化インデックスを適切に構文解析することができる。[良]
単項コード化インデックス又は短縮単項コード化インデックスを構文解析した後、エントロピーコード化ユニット70は、単項コード化インデックス又は短縮単項コード化インデックスを復号して、MVPリストへのインデックスを生成することができる。次いでエントロピーコード化ユニット70は、このインデックスを動き補償ユニット72に渡し、次いで動き補償ユニット72は、インデックスによって識別されるプルーニングされたMVPリストから候補動きベクトルのうちの1つを選択する。インターコード化ブロックの場合、動き補償ユニット72は、識別された動きベクトルに基づいて、インター予測データを生成することができる。動き補償ユニット72は、この動きベクトルを使用して、メモリ82に記憶された参照フレーム中の予測ブロックを識別し得る。イントラコード化ブロックの場合、イントラ予測ユニット74は、ビットストリーム中で受信されたイントラ予測モードを使用して、空間的に隣接するブロックから予測ブロックを形成し得る。逆量子化ユニット76は、ビットストリーム中で供給され、エントロピー復号ユニット70によって復号された量子化ブロック係数を逆量子化(inverse quantize)、即ち、逆量子化(de-quantize)する。逆量子化プロセスは、例えば、H.264復号規格によって定義された従来のプロセスを含み得る。逆量子化プロセスはまた、量子化の程度を決定し、同様に、適用すべき逆量子化の程度を決定するための、各マクロブロックについて加算器50によって計算される量子化パラメータQPYの使用を含み得る。
逆変換ユニット60は、逆変換、例えば、逆DCT、逆整数変換、又は概念的に同様の逆変換プロセスを変換係数に適用して、画素領域において残差ブロックを生成する。動き補償ユニット72は動き補償ブロックを生成し、場合によっては、補間フィルタに基づいて補間を実行する。サブ画素精度をもつ動き推定に使用されるべき補間フィルタの識別子は、シンタックス要素中に含まれ得る。動き補償ユニット72は、ビデオブロックの符号化中にビデオエンコーダ20によって使用される補間フィルタを使用して、参照ブロックのサブ整数画素の補間値を計算し得る。動き補償ユニット72は、受信されたシンタックス情報に従って、ビデオエンコーダ20によって使用された補間フィルタを決定し、その補間フィルタを使用して予測ブロックを生成し得る。
動き補償ユニット72は、シンタックス情報の幾つかを使用して、符号化ビデオシーケンスの(1つ以上の)フレームを符号化するために使用されるCUのサイズと、符号化ビデオシーケンスのフレームの各CUがどのように区分されるのかを記述する区分情報と、各CUがどのように符号化されるのかを示すモードと、各インター符号化CUのための1つ以上の参照フレーム(又はリスト)と、符号化ビデオシーケンスを復号するための他の情報とを決定する。
加算器80は、残差ブロックを、動き補償ユニット72又はイントラ予測ユニットによって生成される対応する予測ブロックと加算して、復号ブロックを形成する。所望される場合、ブロック歪みを除去するために、復号ブロックをフィルタ処理するためにデブロッキングフィルタも適用され得る。復号ビデオブロックは、次いで、HEVC規格において復号ピクチャバッファと呼ばれることがあるメモリ82内の参照フレーム記憶部に記憶され、参照フレーム記憶部は、参照ブロックをその後の動き補償に供給し、また、表示装置(図1の表示装置32など)上での提示のために復号ビデオを生成する。
場合によっては、一例として、時間的候補動きベクトルを特定するスライスが消失したとき、即ち、符号化ビットストリームにおいて回復又は受信されないときのように、時間的候補動きベクトルは利用できないことがある。この時間的候補動きベクトルが利用不可能であるとき、動き補償ユニット72は、この時間的候補動きベクトルをデフォルト値にセットするか、又はこの時間的候補動きベクトルに関するデフォルト動きベクトル情報を決定することができる。場合によっては、時間的候補動きベクトルに関するこのデフォルト動きベクトル情報は、参照フレームがイントラコード化されたかどうかに応じて再構成され得る。参照フレームがイントラコード化されていると決定されたとき、動き補償ユニット72は、現在のフレームに現在の部分があるように、参照フレームの同じ位置に配置される参照フレームの部分に関して決定された空間的動きベクトルに基づいて、デフォルト候補動きベクトルに関するデフォルト動きベクトル情報を導出することができる。同様に、時間的に予測される空間的候補動きベクトルのうちの1つ以上は、利用不可能であるか消失していることがあり、現在のフレームに現在の部分があるように、参照フレームの同じ位置にコロケートされる参照フレームの部分に関して決定された空間的動きベクトルに基づいて、デフォルト候補動きベクトルに関するデフォルト動きベクトル情報を導出することができる。
本開示に示す技法の様々な態様はまた、消失又は紛失した時間的動きベクトルからそれら自体予測された空間的候補動きベクトルの結果として、CABAC又は任意の他のコンテキスト依存型可逆統計的コード化プロセスを実行するときに生じる問題に対処することができる。エントロピーコード化ユニット70はこの問題を、本技法のこれらの態様に従い、消失した空間的候補動きベクトルを無効にすることによって克服することができる。代替的に、エントロピーコード化ユニット70は、この消失した空間的候補動きベクトルをデフォルト動き情報に差し替えることができる。エントロピーコード化ユニット70は、動き補償ユニット72とインターフェースして、このデフォルト動き情報を決定することができる。このデフォルト動き情報は、デフォルト動きベクトルと、予測方向と、参照インデックスとを特定することができる。場合によっては、動き補償ユニット72はこの差し替え動き情報を、(現在のスライスがイントラ予測型であるか、インター予測型であるかなどを示す)スライスタイプ、(現在のPUが存在する上記の4分木階層におけるCUの深さによる)現在のCU深さ、現在のPUのサイズ又は任意の他の利用可能な情報に基づいて生成する。次いで動き補償ユニット72は、このデフォルト動き情報をエントロピーコード化ユニット70に提供することができる。このデフォルト動き情報を利用することによって、エントロピーコード化ユニット70は、引き続きCABACプロセスを実行することができる。
本開示で説明する技法は、幾つかの例では、空間的候補動きベクトルがそれ自体、空間的候補動きベクトルから予測されたか、それとも時間的候補動きベクトルから予測されたかを動き補償ユニット72が決定できないとき(例えば、その時間的候補動きベクトルが消失したとき)に生じる問題を克服することもできる。これらの場合に、空間的候補動きベクトルのうちの1つが利用不可能であるとき、動き補償ユニット72は、本開示の技法を実施して、空間的動きベクトル予測を無効化する(更に、それによって、エンコーダによって何が信号伝達されたかにかかわらず、コロケート時間的候補動きベクトルを利用する)ことができる。代替的に、動き補償ユニット72は、上記で説明した方法でデフォルト動き情報を決定することができる。
本技法は更に、空間的候補動きベクトルがそれ自体、時間的候補動きベクトルから予測されたかどうかを動き補償ユニット72が決定できないとき(例えば、その時間的候補動きベクトルが消失したとき)に生じる問題を克服することもできる。これらの場合に、空間的候補動きベクトルのうちの1つが利用不可能であるとき、動き補償ユニット72は、本開示の技法を実施して、空間的動きベクトル予測を無効化する(更に、それによって、エンコーダによって何が信号伝達されたかにかかわらず、同位置に配置された時間的候補動きベクトルを利用する)ことができる。代替的に、動き補償ユニット72は、上記で説明した方法でデフォルト動き情報を決定し、デフォルト候補動きベクトルのこのデフォルト動き情報に関してプルーニングを実行するか、又はこのデフォルト候補動きベクトルをプルーニングから完全に除去して(但し、それを別個に特定して)、ビットストリームの構文解析を有効にすることができる。
上述のように、マージモードとAMVPという、2つのタイプの動きベクトル予測がある。マージモードの場合、動き補償ユニット72は、デフォルト動き情報を決定するときに、動きベクトル振幅と、予測方向と、参照インデックスとを決定する。AMVPの場合、動き補償ユニット72は、動きベクトル振幅を決定するが、予測方向と参照インデックスとを決定する必要はなく、その理由は、これらが現在のPUに関してビットストリームにおいて別個に信号伝達されることにある。従って、動き補償ユニット72は、デフォルト動き情報の決定を、動きベクトル予測を実行するために信号伝達されたモード、即ち現在のPUに関して、信号伝達された動きベクトル予測のタイプがマージモードであるか、それともAMVPであるかに依拠し得る。
図4は、本開示で説明する動きベクトル予測技法を実施する際の、図2の例に示すビデオエンコーダ20などのビデオエンコーダの例示的な動作を示すフローチャートである。初めに、動き推定ユニット42は、上記のように、現在のCUに対応する現在のPUに関する空間的候補動きベクトルを決定することができる(90)。動き推定ユニット42は、これらの空間的候補動きベクトルを記憶する中間リスト又は中間空間的MVPリストと呼ばれ得るものを例示化することができる。次いで動き推定ユニット42は、上記の方法のうちの1つにより、冗長な空間的候補動きベクトルをプルーニングすることができる(92)。この意味で、動き推定ユニット42は、残存する空間的候補動きベクトルを有する中間空間的MVPリストを生成することができる。
残存する空間的候補動きベクトルを有するこの中間空間的MVPリストを生成した後、動き推定ユニット42は、この場合も上記のように、参照フレーム内の同位置に配置されたPU(コロケートPU)からの、現在のPUに関する時間的候補動きベクトルを決定することができる(94)。次に、動き推定ユニット42は、残存する空間的候補動きベクトルと時間的候補動きベクトルとを含むようにMVPリストを作成することができる(96)。動き推定ユニット42は、このMVPリストを動き補償ユニット44に提供することができ、動き補償ユニット44は、MVPリストに含まれる各候補動きベクトルに関して、上記の方法で動き補償を実行する。次いでビデオエンコーダ20は、MVPリストに含まれる候補動きベクトルの各々に関して実行された動き補償によって生成された予測データに基づいて、残差データを生成する。ビデオエンコーダ20は、残差データに1つ以上の変換を適用し、変換された残差データを量子化し、次いで残差データを再構成する。次いで再構成残差データは、MVPリストに含まれる候補動きベクトルの各々に基づいて生成された予測データによって増強されて、再構成ビデオデータが生成される。
次いでモード選択ユニット40は、再構成ビデオデータに基づいて、現在のPUに関してMVPリストから候補動きベクトルのうちの1つを選択することができる(98)。例えば、モード選択ユニット40は、MVPリスト内の候補動きベクトルの各々に関して再構成された再構成ビデオデータに対して何らかの形態のレート歪み分析を実行し、最良のレート対歪みメトリックをもたらす候補動きベクトルのうちの1つをリストから選択することができる。次いでモード選択ユニット40は、動き推定ユニット42とインターフェースして、その候補動きベクトル選択を示すことができる。次いで動き推定ユニット42は、上記のように、候補動きベクトルのうちの選択された1つを識別するMVPリストへのインデックスを決定することができる(100)。次いで動き推定ユニット42は、このインデックスをエントロピーコード化ユニット56に提供することができる。次いでエントロピーコード化ユニット56は、上記で更に説明したように、MVPリスト内の候補動きベクトルのうちの選択された1つを識別するインデックスをコード化することができる(102)。次いでエントロピーコード化ユニット56は、コード化インデックスをビットストリームに挿入することができる(104)。
図5は、本開示で説明する動きベクトル予測技法を実施する際の、図3の例に示すビデオデコーダ30などのビデオデコーダの例示的な動作を示すフローチャートである。上記のように、ビデオデコーダ30のエントロピー復号ユニット70は最初に、一般にそのシンタックス要素名によって「mvp_idx」又は「MVPインデックス」と呼ばれるコード化インデックスを含むビットストリームを受信する(110)。エントロピー復号ユニット70はまた、動きベクトル予測として表現される動きベクトルを現在のPUが有することを示す、このMVPインデックスの前又は後のいずれかにある他のシンタックス要素を復号する。ビットストリームからこのMVPインデックスを構文解析するために、エントロピー復号ユニット70は最初に、プルーニングプロセスを実行した後に残存する候補動きベクトルの数を決定しなければならない。候補動きベクトルの数を決定するために、エントロピー復号ユニット70は、動き補償ユニット72とインターフェースし、動き補償ユニット72に対し、現在のPUに関するこの候補動きベクトルの数を提示するように要求することができる。
この要求に応答して、動き補償ユニット72は、上記で説明した方法で、現在のPUに関する空間的候補動きベクトルを決定する(112)。空間的候補動きベクトルうちの1つ又は複数が、上記でより詳しく述べた理由により利用不可能である場合(「はい」114)、動き補償ユニット72は、上記の方法のうちのいずれかにより、(デフォルト動き情報などの)動き情報を生成し、生成された動き情報に基づいて動き補償を実行することができる(116、118)。空間的候補動きベクトルの全てが利用可能である場合(「いいえ」114)、動き補償ユニット72は、上記で更に説明したように、冗長な空間的候補動きベクトルをプルーニングする(120)。
冗長な空間的候補動きベクトルをプルーニングした後、動き補償ユニット72は、上記のように、参照フレーム内の同位置に配置されたPUからの、現在のPUに関する時間的候補動きベクトルを決定する(122)。この時間的候補動きベクトルが上記の理由により利用不可能である場合(「はい」124)、動き補償ユニット72は動き情報を生成し、生成された動き情報に基づいて動き補償を実行する(116、118)。一方、時間的候補動きベクトルが利用可能である場合(「いいえ」124)、動き補償ユニット72は、残存する空間的候補動きベクトルと時間的候補動きベクトルとを含むようにMVPリストを作成する(126)。次いで動き補償ユニット72は、MVPリスト内の候補動きベクトルの数を決定して(128)、この数をエントロピー復号ユニット70に渡すことができる。
次いでエントロピー復号ユニット70は、決定された数に基づいて、ビットストリームからMVPインデックスを構文解析することができる(130)。次いでエントロピー復号ユニット70は、コード化MVPインデックスを復号する(131)。エントロピー復号ユニット70は、復号MVPインデックスを動き補償ユニット72に渡し、動き補償ユニット72は、上記のように復号MVPインデックスに基づいて、MVPリストから候補動きベクトルのうちの1つを選択する(132)。次いで動き補償ユニット72は、候補動きベクトルのうちの選択された1つに基づいて、上記で説明した方法で動き補償を実行する(134)。動き補償ユニット72は、いずれのモードがビットストリームで信号伝達されるか、又は動き補償ユニット72によって決定されるか、のいずれかに応じて、マージモード又はAMVPのいずれかに従って動き補償を実行することができる。
図6は、現在のPU144に対する隣接する近傍PU140A〜140D及び時間的に同位置に配置されたPU142Aの例示的配置を示す図である。図6の例に示すように、現在のPU144は現在のフレーム146A内に含まれる。時間的に、現在のフレーム146Aの1つ前に参照フレーム146Bがあり、その1つ前に参照フレーム146Cがある。隣接する近傍PU140Aは、現在のPU144の左に空間的に隣接して存在する。隣接する近傍PU140Bは、現在のPU144の左上に空間的に隣接して存在する。隣接する近傍PU140Cは、現在のPU144の上に空間的に隣接して存在する。隣接する近傍PU140Dは、現在のPU144の右上に空間的に隣接して存在する。時間的に同位置に配置されたPU142Aは、現在のPU144に時間的に先行し、現在のPU144が現在のフレーム146A内で位置するのと同じ位置に参照フレーム146B内で位置する。
隣接する近傍PU140A〜140Dの各々は、現在のPU144に関する空間的候補動きベクトルを記憶あるいは提供し、時間的に同位置に配置されたPU142Aは、現在のPU144に関する時間的候補動きベクトルを記憶あるいは提供する。図2の例に示すビデオデコーダ30の動き補償ユニット72のようなビデオデコーダの動き補償ユニットは、これらの空間的候補動きベクトル及び時間的候補動きベクトルを、それぞれPU140A〜140D及び142Aから取り出すことができる。時間的に同位置に配置されたPU142Aは、現在のPU144のフレームとは異なる参照フレーム146B内に含まれるので、この時間的に同位置に配置されたPU142Aは通常、(新生HEVC規格ではスライスと呼ばれることが多い)異なる単独で復号可能な部分に関連付けられる。参照フレーム146Bのスライスは(例えば、伝送中に、又はメモリ若しくは記憶機器の破損により)消失することがあり、動き補償ユニット72は、現在のPU144に関する時間的候補動きベクトルを記憶しているこの時間的に同位置に配置されたPU142Aを取り出すことができないことがある。この時間的候補動きベクトルを消失することにより、エントロピー復号ユニット70は上記の理由によりビットストリームを構文解析できないことがある。本開示で説明する技法は、プルーニングプロセスに時間的候補動きベクトルを含めないことによって動き補償ユニット72がこの問題を克服することを可能にし得る。
同様に、隣接する近傍PU140A〜140Dのうちの1つに関する動きベクトルを決定するようにMVPが実行され、その結果、時間的候補動きベクトルが選択されており、時間的候補動きベクトルを記憶しているその時間的に同位置に配置されたPUが消失したとき、現在のPU144に関する空間的候補動きベクトルが消失することがある。例示のために、時間的に同位置に配置されたPUが図6の例では時間的に同位置に配置されたPU142Bとして識別される、隣接する近傍PU140Aについて考える。PU142Bが消失し、空間的近傍PU140Aに関する動きベクトルが、PU142Bに関連する時間的候補動きベクトルとして選択されている場合、PU140Aに関する動きベクトル情報がない。その結果、現在のPU144に関する空間的候補動きベクトルも消失する。この消失した空間的候補動きベクトルを潜在的に克服するために、本技法は、動き補償ユニット72が(デフォルト動き情報などの)動き情報を生成することを可能にし、この動き情報は、現在のPU144に関する空間的候補動きベクトルとして使用され得る。
更に、この消失した空間的候補動きベクトル(又は、更に言えば消失した時間的候補動きベクトル)は、MVPが実行され、複数の時間的に同位置に配置されたPUに関して時間的候補動きベクトルが選択されたときに生じ得る。例示のために、PU140Aと時間的に同位置に配置されるPU142Bに関する動きベクトルを決定するようにMVPが実行され、その時間的に同位置に配置されたPU、即ち、図6の例ではPU142Cが消失したと仮定する。この消失は、本開示で説明する技法がなければ、ビットストリームからMVPインデックスを構文解析することを妨げるだけでなく、PU142Bに関する動きベクトルの消失を招くことにもなる。PU140Aに関する動きベクトルを決定するようにMVPが実行されており、時間的に同位置に配置されたPU142Bが選択されていると仮定すると、PU142Bに関する動きベクトルの消失は、本開示で説明する技法がなければ、PU140Aに関する動きベクトルの消失を招く。この動きベクトルの消失は、空間的候補動きベクトルが利用できないという点で、現在のPU144に影響を与える。このために、本技法は、複数消失効果(multiple loss effect)と呼ばれ得る事態を防ぐために、動き補償ユニット72が動き情報を生成する(又は、場合によっては、消失した動き情報を再生する)ことを可能にする。
上記の例は、重複する空間的候補動きベクトルを除去することに言及しているが、本技法は必ずしも、重複する空間的候補動きベクトルを除去することのみを要求するとは限らない。本技法は、全般的に空間的候補動きベクトルのうちの少なくとも1つを除去するためにプルーニングを実行するように実施され得る。例えば、ビデオエンコーダは、ピクチャ、フレーム、スライス又はブロックのレベルにおいて、幾つかの例を挙げれば最大振幅又は最小振幅を有する空間的候補動きベクトルをプルーニングすることを信号伝達し得る。代替的に、ビデオエンコーダは、ビットストリームにおいて、プルーニング用の基準としてMVPが特定される場合のしきい値などの任意の基準を信号伝達し得る。幾つかの実施形態では、ビデオエンコーダ及びビデオデコーダは、候補動きベクトルがプルーニングされる場合の一定のプロファイル又は他の構成に同意し得る。場合によっては、ビデオデコーダは、コンテキスト又は他の情報に基づいて、幾つかの候補動きベクトルをいつプルーニングするかを暗示し得る。従って、本技法は重複する候補動きベクトルを除去するためだけにプルーニングを実行することに厳密に限定されるものではなく、少なくとも1つの空間的候補動きベクトルをプルーニングするように実施され得る任意の技法を包含するものである。
1つ以上の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せで実装され得る。ソフトウェアで実装する場合、機能は、1つ以上の命令又はコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され得る。コンピュータ可読媒体は、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む、コンピュータデータ記憶媒体又は通信媒体を含み得る。データ記憶媒体は、本開示で説明した技法を実施するための命令、コード及び/又はデータ構造を取り出すために1つ以上のコンピュータ若しくは1つ以上のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。限定ではなく、例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD−ROM又は他の光ディスク記憶、磁気ディスク記憶若しくは他の磁気記憶機器、フラッシュメモリ、又は命令若しくはデータ構造の形態の所望のプログラムコードを搬送又は記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。同様に、いかなる接続も適切にコンピュータ可読媒体と称される。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL)、又は赤外線、無線、及びマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、又は他のリモートソースから送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、又は赤外線、無線、及びマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。本明細書で使用するディスク(disk)及びディスク(disc)は、コンパクトディスク(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)及びブルーレイディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
符号は、1つ以上のデジタル信号プロセッサ(DSP)など1つ以上のプロセッサ、汎用マイクロプロセッサ、決定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、又は他の等価な集積若しくは個別論理回路によって実行できる。従って、本明細書で使用する「プロセッサ」という用語は、前述の構造、又は本明細書で説明する技法の実施に好適な任意の他の構造のいずれかを指す。更に、幾つかの態様では、本明細書で説明した機能は、符号化及び復号のために構成された専用のハードウェア及び/又はソフトウェアモジュール内に提供され得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つ以上の回路又は論理要素において十分に実施され得る。
本開示の技法は、ワイヤレスハンドセット、集積回路(IC)又はICのセット(例えば、チップセット)を含む、多種多様な機器又は装置において実施され得る。本開示では、開示する技法を実行するように構成された機器の機能的態様を強調するために様々な構成要素、モジュール、又はユニットについて説明したが、それらの構成要素、モジュール、又はユニットを、必ずしも異なるハードウェアユニットによって実現する必要はない。むしろ、上記で説明したように、様々なユニットは、好適なソフトウェア及び/又はファームウェアとともに、上記で説明したように1つ以上のプロセッサを含む、コーデックハードウェアユニットにおいて組み合わせられるか、又は相互動作ハードウェアユニットの集合によって実現され得る。
様々な例について説明した。これら及び他の例は以下の特許請求の範囲内に入る。
様々な例について説明した。これら及び他の例は以下の特許請求の範囲内に入る。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] ビデオデータを符号化する方法であって、現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定することと、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングすることと、前記現在のビデオフレームの前記現在の部分に関連する、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを決定することと、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することと、ビットストリームにおいて前記被選択候補動きベクトルを信号伝達することを備える方法。
[2] 前記空間的候補動きベクトルをプルーニングすることは、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングすることを備える、請求項1]に記載の方法。
[3] 前記現在の部分は現在のコード化ユニット(CU)を備え、前記参照フレームの前記部分は前記参照フレームのCUを備える、請求項1]に記載の方法。
[4] 少なくとも前記被選択候補動きベクトルを備える予測データを含む予測単位(PU)を生成することを更に備え、前記被選択候補動きベクトルを信号伝達することは、前記ビットストリームにおいて前記PUを信号伝達することを備える、[1]に記載に方法。
[5] 前記被選択候補動きベクトルを信号伝達することは、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルを有するリスト内における前記被選択候補動きベクトルの位置を識別する動きベクトル予測子(MVP)インデックスとして、前記被選択候補動きベクトルを信号伝達することを備える、[1]に記載の方法。
[6] 前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルを有するリスト内における前記被選択候補動きベクトルの位置を識別する動きベクトル予測子(MVP)インデックスを決定することと、単項コード又は短縮単項コードを使用して前記MVPインデックスを符号化して、符号化MVPインデックスを生成することを更に備え、前記被選択候補動きベクトルを信号伝達することは、前記ビットストリームにおいて前記符号化MVPインデックスを信号伝達することを備える、[1]に記載に方法。
[7] 前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することは、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルの各々に関してレート歪み分析を実行することと、前記レート歪み分析に基づいて、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することを備える、[1]に記載の方法。
[8] 決定された前記空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定することを更に備え、前記空間的候補動きベクトルのうちの前記重複するものを除去するために前記空間的候補動きベクトルをプルーニングすることは、決定された前記空間的候補動きベクトルのうちで、時間的に予測されると決定されたものは一切プルーニングせず、決定された前記空間的候補動きベクトルのうちで、空間的に予測されると決定されたもののみをプルーニングすることを備え、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することは、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、時間的に予測されると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する空間的に予測されると決定された前記空間的候補動きベクトルのうちの1つを選択することを備える、[1]に記載の方法。
[9] 決定された前記空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定することと、前記空間的候補動きベクトルのうちで、時間的に予測されると決定されたものをデフォルト候補動きベクトルに差し替えることとを更に備え、前記デフォルト候補動きベクトルはデフォルト動きベクトル情報を含み、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備え、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングすることは、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ以上を含む前記空間的候補動きベクトルをプルーニングすることを備える、[1]に記載の方法。
[10] 時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを決定することを更に備え、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することは、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択することを備える、[1]に記載の方法。
[11] ビデオデータを符号化するための装置であって、現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定するための手段と、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングするための手段と、前記現在のビデオフレームの前記現在の部分に関連する、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを決定するための手段と、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するための手段と、ビットストリームにおいて前記被選択候補動きベクトルを信号伝達するための手段を備える装置。
[12] 前記空間的候補動きベクトルをプルーニングするための前記手段は、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングするための手段を備える、[11]に記載の装置。
[13] 決定された前記空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定するための手段を更に備え、前記空間的候補動きベクトルのうちの前記重複するものを除去するために前記空間的候補動きベクトルをプルーニングするための前記手段は、決定された前記空間的候補動きベクトルのうちで、時間的に予測されると決定されたものは一切プルーニングせず、決定された前記空間的候補動きベクトルのうちで、空間的に予測されると決定されたもののみをプルーニングするための手段を備え、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するための前記手段は、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、時間的に予測されると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する空間的に予測されると決定された前記空間的候補動きベクトルのうちの1つを選択するための手段を備える、[11]に記載の装置。
[14] 決定された前記空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定するための手段と、前記空間的候補動きベクトルのうちで、時間的に予測されると決定されたものをデフォルト候補動きベクトルに差し替えるための手段とを更に備え、前記デフォルト候補動きベクトルはデフォルト動きベクトル情報を含み、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備え、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングするための前記手段は、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ以上を含む前記空間的候補動きベクトルをプルーニングするための手段を備える、[11]に記載の装置。
[15] 時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを決定するための手段を更に備え、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するための前記手段は、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択するための手段を備える、[11]に記載の装置。
[16] ビデオデータを符号化するための装置であって、現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定し、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングし、前記現在のビデオフレームの前記現在の部分に関連する、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを決定する動き補償ユニットと、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するモード選択ユニットと、ビットストリームにおいて前記被選択候補動きベクトルを信号伝達するエントロピーコード化ユニットを備える装置。
[17] 前記動き補償ユニットは、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングする、[16]に記載の装置。
[18] 前記現在の部分は現在のコード化ユニット(CU)を備え、前記参照フレームの前記部分は前記参照フレームのCUを備える、[16]に記載の装置。
[19] 前記動き補償ユニットは、少なくとも前記被選択候補動きベクトルを備える予測データを含む予測単位(PU)を更に生成し、前記エントロピーコード化ユニットは、前記ビットストリームにおいて前記PUを信号伝達する、[16]に記載の装置。
[20] 前記エントロピーコード化ユニットは、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルを有するリスト内における前記被選択候補動きベクトルの位置を識別する動きベクトル予測子(MVP)インデックスとして、前記被選択候補動きベクトルを信号伝達する、[16]に記載の装置。
[21] 前記動き補償ユニットは、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルを有するリスト内における前記被選択候補動きベクトルの位置を識別する動きベクトル予測子(MVP)インデックスを決定し、前記エントロピーコード化ユニットは、単項コード又は短縮単項コードのうちの1つを使用して前記MVPインデックスを符号化して、符号化MVPインデックスを生成し、前記ビットストリームにおいて前記符号化MVPインデックスを信号伝達する、[16]に記載の装置。
[22] 前記モード選択ユニットは、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルの各々に関してレート歪み分析を実行し、前記レート歪み分析に基づいて、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択する、[16]に記載の装置。
[23] 前記動き補償ユニットは、更に、決定された前記空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定し、決定された前記空間的候補動きベクトルのうちで、時間的に予測されると決定されたものは一切プルーニングせず、決定された前記空間的候補動きベクトルのうちで、空間的に予測されると決定されたもののみをプルーニングし、前記モード選択ユニットは、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、時間的に予測されると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する空間的に予測されると決定された前記空間的候補動きベクトルのうちの1つを選択する、[16]に記載の装置。
[24] 前記動き補償ユニットは、決定された前記空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定し、前記空間的候補動きベクトルのうちで、時間的に予測されると決定されたものをデフォルト候補動きベクトルに差し替え、前記デフォルト候補動きベクトルはデフォルト動きベクトル情報を含み、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備え、前記動き補償ユニットは、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ以上を含む前記空間的候補動きベクトルをプルーニングする、[16]に記載の装置。
[25] 前記動き補償ユニットは、時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを更に決定し、前記モード選択ユニットは、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択する、[1]に記載の装置。
[26] 実行されたとき、1つ以上のプロセッサに、現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定することと、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングすることと、前記現在のビデオフレームの前記現在の部分に関連する、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを決定することと、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することと、ビットストリームにおいて前記被選択候補動きベクトルを信号伝達することを行わせる命令を備える非一時的コンピュータ可読媒体。
[27] ビデオデータを復号する方法であって、現在のビデオフレームの現在の部分に関連する、前記現在のビデオフレーム内の前記現在の部分に隣接する空間的近傍部分に関して決定された近傍動きベクトルを備える空間的候補動きベクトルを決定することと、前記現在のビデオフレームの前記現在の部分に関して決定された、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを除去することなく、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングすることと、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することと、前記被選択候補動きベクトルに基づいて動き補償を実行することを備える方法。
[28] 前記空間的候補動きベクトルをプルーニングすることは、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングすることを備える、[27]に記載の方法。
[29] 前記時間的候補動きベクトルと前記空間的候補動きベクトルのうちでプルーニング後に残存するものとを合わせた候補動きベクトルの数を決定することと、候補動きベクトルの前記決定された数に基づいて、前記ビットストリームから、単項コード化MVPインデックス及び短縮単項コード化MVPインデックスのうちの1つを備えるコード化MVPインデックスを構文解析することと、前記コード化MVPインデックスを復号して前記MVPインデックスを決定することを更に備える、[27]に記載の方法。
[30] 前記現在のフレームの前記現在の部分に関する前記時間的候補動きベクトルは利用不可能であると決定することと、前記時間的候補動きベクトルは利用不可能であると決定したことに応答して、前記時間的候補動きベクトルに関するデフォルト動きベクトル情報を決定することとを更に備え、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備える、[27]に記載の方法。
[31] 決定された前記デフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定することを更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、[30]に記載の方法。
[32] 前記デフォルト動きベクトル情報を決定することは、前記参照フレームがイントラコード化されたかどうかを決定することと、前記参照フレームがイントラコード化されていると決定されたときに、前記参照フレームの前記部分に関して決定された空間的動きベクトルに基づいて、前記デフォルト動きベクトル情報を導出することを備える、[30]に記載の方法。
[33] 前記空間的候補動きベクトルのうちの1つが利用不可能であると決定することと、前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、動きベクトル予測モードに基づいて、前記空間的候補動きベクトルのうちの前記1つに関するデフォルト動きベクトル情報を含むデフォルト候補動きベクトルを決定することを更に備え、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングすることは、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ以上を含む前記空間的候補動きベクトルをプルーニングすることを備え、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することは、前記ビットストリームにおいて信号伝達された前記動きベクトル予測子(MVP)インデックスに基づいて、前記時間的候補動きベクトル、又は利用不可能であると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することを備える、[27]に記載の方法。
[34] 前記デフォルト動きベクトル情報を決定することは、前記動きベクトル予測モードが適応型動きベクトル予測(AMVP)モードであるときに、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向、又は前記参照フレームを識別する参照インデックスを決定することなしに、動きベクトル振幅を決定することを備える、[33]に記載の方法。
[35] 前記デフォルト動きベクトル情報を決定することは、前記動きベクトル予測モードがマージモードであるときに、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを決定することを備える、[33]に記載の方法。
[36] 決定された前記デフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定することを更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、[33]に記載の方法。
[37] 前記空間的候補動きベクトルのうちの1つが利用不可能であると決定することと、前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを前記プルーニングプロセスから除去することを更に備え、前記空間的候補動きベクトルをプルーニングすることは、前記現在のビデオフレームの前記現在の部分に関して決定された時間的候補動きベクトル、又は利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを除去することなく、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記空間的候補動きベクトルのうちで利用可能であると決定されたもののみをプルーニングすることを備える、[27]に記載の方法。
[38] 時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを決定することを更に備え、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することは、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択することを備える、[1]に記載の方法。
[39] ビデオデータを復号するための装置であって、現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定するための手段と、前記現在のビデオフレームの前記現在の部分に関して決定された、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを除去することなく、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングするための手段と、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つのうちの1つを選択するための手段と、前記被選択候補動きベクトルに基づいて動き補償を実行するための手段を備える装置。
[40] 前記空間的候補動きベクトルをプルーニングするための前記手段は、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングするための手段を備える、[39]に記載の装置。
[41] 前記時間的候補動きベクトルと前記空間的候補動きベクトルのうちでプルーニング後に残存するものとを合わせた候補動きベクトルの数を決定するための手段と、候補動きベクトルの前記決定された数に基づいて、前記ビットストリームから、単項コード化MVPインデックス及び短縮単項コード化MVPインデックスのうちの1つを備えるコード化MVPインデックスを構文解析するための手段と、前記コード化MVPインデックスを復号して前記MVPインデックスを決定するための手段を更に備える、[39]に記載の装置。
[42] 前記現在のフレームの前記現在の部分に関する前記時間的候補動きベクトルは利用不可能であると決定するための手段と、前記時間的候補動きベクトルは利用不可能であると決定したことに応答して、前記時間的候補動きベクトルに関するデフォルト動きベクトル情報を決定するための手段とを更に備え、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備える、[39]に記載の装置。
[43] 決定された前記デフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定するための手段を更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、[42]に記載の装置。
[44] 前記デフォルト動きベクトル情報を決定するための前記手段は、前記参照フレームがイントラコード化されたかどうかを決定するための手段と、前記参照フレームがイントラコード化されていると決定されたときに、前記参照フレームの前記部分に関して決定された空間的動きベクトルに基づいて、前記デフォルト動きベクトル情報を導出するための手段を備える、[42]に記載の装置。
[45] 前記空間的候補動きベクトルのうちの1つが利用不可能であると決定するための手段と、前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、動きベクトル予測モードに基づいて、前記空間的候補動きベクトルのうちの前記1つに関するデフォルト動きベクトル情報を含むデフォルト候補動きベクトルを決定するための手段を更に備え、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングするための前記手段は、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ以上を含む前記空間的候補動きベクトルをプルーニングするための手段を備え、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するための前記手段は、前記ビットストリームにおいて信号伝達された前記動きベクトル予測子(MVP)インデックスに基づいて、前記時間的候補動きベクトル、又は利用不可能であると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することを備える、[39]に記載の装置。
[46] 前記デフォルト動きベクトル情報を決定するための前記手段は、前記動きベクトル予測モードが適応型動きベクトル予測(AMVP)モードであるときに、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向、又は前記参照フレームを識別する参照インデックスを決定することなしに、動きベクトル振幅を決定するための手段を備える、[45]に記載の装置。
[47] 前記デフォルト動きベクトル情報を決定するための前記手段は、前記動きベクトル予測モードがマージモードであるときに、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを決定するための手段を備える、[45]に記載の装置。
[48] 決定された前記デフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定するための手段を更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、[45]に記載の装置。
[49] 前記空間的候補動きベクトルのうちの1つが利用不可能であると決定するための手段と、前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを前記プルーニングプロセスから除去するための手段を更に備え、前記空間的候補動きベクトルをプルーニングするための前記手段は、前記現在のビデオフレームの前記現在の部分に関して決定された時間的候補動きベクトル、又は利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを除去することなく、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記空間的候補動きベクトルのうちで利用可能であると決定されたもののみをプルーニングするための手段を備える、[39]に記載の装置。
[50] 時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを決定するための手段を更に備え、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するための前記手段は、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択するための手段を備える、[39]に記載の装置。
[51] ビデオデータを復号するための装置であって、現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する近傍部分に関して決定された近傍動きベクトルを備える空間的候補動きベクトルを決定し、前記現在のビデオフレームの前記現在の部分に関して決定された、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを除去することなく、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングし、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つのうちの1つを選択し、前記被選択候補動きベクトルに基づいて動き補償を実行する動き補償ユニットを備える装置。
[52] 前記動き補償ユニットは、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングする、[51]に記載の装置。
[53] 前記動き補償ユニットは、前記時間的候補動きベクトルと前記空間的候補動きベクトルのうちでプルーニング後に残存するものとを合わせた候補動きベクトルの数を決定し、前記装置は、候補動きベクトルの前記決定された数に基づいて、前記ビットストリームから、単項コード化MVPインデックス及び短縮単項コード化MVPインデックスのうちの1つを備えるコード化MVPインデックスを構文解析し、前記コード化MVPインデックスを復号して前記MVPインデックスを決定するエントロピー復号ユニットを更に備える、[51]に記載の装置。
[54] 前記現在のフレームの前記現在の部分に関する前記時間的候補動きベクトルは利用不可能であると決定することと、前記時間的候補動きベクトルは利用不可能であると決定したことに応答して、前記時間的候補動きベクトルに関するデフォルト動きベクトル情報を決定することとを更に備え、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備える、[51]に記載の装置。
[55] 決定された前記デフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定するエントロピー復号ユニットを更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、[54]に記載の装置。
[56] 前記動き補償ユニットは、更に、前記参照フレームがイントラコード化されたかどうかを決定し、前記参照フレームがイントラコード化されていると決定されたときに、前記現在のフレームに前記現在の部分があるように、前記参照フレームの同じ位置にコロケートされる前記参照フレームの前記部分に関して決定された空間的動きベクトルに基づいて、前記デフォルト動きベクトル情報を導出する、[54]に記載の装置。
[57] 前記動き補償ユニットは、前記空間的候補動きベクトルのうちの1つが利用不可能であると決定し、前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、動きベクトル予測モードに基づいて、前記空間的候補動きベクトルのうちの前記1つに関するデフォルト動きベクトル情報を含むデフォルト候補動きベクトルを決定し、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ以上を含む前記空間的候補動きベクトルをプルーニングし、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、前記時間的候補動きベクトルのうちの1つ、利用不可能であると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択する、[51]に記載の装置。
[58] 前記動き補償ユニットは、前記動きベクトル予測モードが適応型動きベクトル予測(AMVP)モードであるときに、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向、又は前記参照フレームを識別する参照インデックスを決定することなしに、動きベクトル振幅を決定する、[57]に記載の装置。
[59] 前記動き補償ユニットは、前記動きベクトル予測モードがマージモードであるときに、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを決定することを備える、[57]に記載の装置。
[60] 決定された前記デフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定するエントロピー復号ユニットを更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、[57]に記載の装置。
[61] 前記動き補償ユニットは、前記空間的候補動きベクトルのうちの1つが利用不可能であると決定し、前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを前記プルーニングプロセスから除去し、前記現在のビデオフレームの前記現在の部分に関して決定された時間的候補動きベクトル、又は利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを除去することなく、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記空間的候補動きベクトルのうちで利用可能であると決定されたもののみをプルーニングする、[51]に記載の装置。
[62] 前記動き補償ユニットは、時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを決定し、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択する、[51]に記載の装置。
[63] 実行されたとき、1つ以上のプロセッサに、現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定することと、前記現在のビデオフレームの前記現在の部分に関して決定された、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを除去することなく、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングすることと、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つのうちの1つを選択することと、前記被選択候補動きベクトルに基づいて動き補償を実行することを行わせる命令を備える非一時的コンピュータ可読媒体。

Claims (63)

  1. ビデオデータを符号化する方法であって、
    現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定することと、
    前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングすることと、
    前記現在のビデオフレームの前記現在の部分に関連する、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを決定することと、
    被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することと、
    ビットストリームにおいて前記被選択候補動きベクトルを信号伝達することと
    を備える方法。
  2. 前記空間的候補動きベクトルをプルーニングすることは、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングすることを備える、請求項1に記載の方法。
  3. 前記現在の部分は現在のコード化ユニット(CU)を備え、
    前記参照フレームの前記部分は前記参照フレームのCUを備える、請求項1に記載の方法。
  4. 少なくとも前記被選択候補動きベクトルを備える予測データを含む予測ユニット(PU)を生成することを更に備え、
    前記被選択候補動きベクトルを信号伝達することは、前記ビットストリームにおいて前記PUを信号伝達することを備える、請求項1に記載に方法。
  5. 前記被選択候補動きベクトルを信号伝達することは、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルを有するリスト内における前記被選択候補動きベクトルの位置を識別する動きベクトル予測子(MVP)インデックスとして、前記被選択候補動きベクトルを信号伝達することを備える、請求項1に記載の方法。
  6. 前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルを有するリスト内における前記被選択候補動きベクトルの位置を識別する動きベクトル予測子(MVP)インデックスを決定することと、
    単項コード又は短縮単項コードを使用して前記MVPインデックスを符号化して、符号化MVPインデックスを生成することと
    を更に備え、
    前記被選択候補動きベクトルを信号伝達することは、前記ビットストリームにおいて前記符号化MVPインデックスを信号伝達することを備える、請求項1に記載に方法。
  7. 前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することは、
    前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルの各々に関してレート歪み分析を実行することと、
    前記レート歪み分析に基づいて、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することと
    を備える、請求項1に記載の方法。
  8. 前記決定された空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定することを更に備え、
    前記空間的候補動きベクトルのうちの前記重複するものを除去するために前記空間的候補動きベクトルをプルーニングすることは、前記決定された空間的候補動きベクトルのうちで、時間的に予測されると決定されたものは一切プルーニングせず、前記決定された空間的候補動きベクトルのうちで、空間的に予測されると決定されたもののみをプルーニングすることを備え、
    前記被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することは、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、時間的に予測されると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する空間的に予測されると決定された前記空間的候補動きベクトルのうちの1つを選択することを備える、請求項1に記載の方法。
  9. 前記決定された空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定することと、
    前記空間的候補動きベクトルのうちで、時間的に予測されると決定されたものをデフォルト候補動きベクトルに差し替えることとを更に備え、前記デフォルト候補動きベクトルはデフォルト動きベクトル情報を含み、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備え、
    前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングすることは、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ又は複数を含む前記空間的候補動きベクトルをプルーニングすることを備える、請求項1に記載の方法。
  10. 時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを決定することを更に備え、
    前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することは、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択することを備える、請求項1に記載の方法。
  11. ビデオデータを符号化するための装置であって、
    現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定するための手段と、
    前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングするための手段と、
    前記現在のビデオフレームの前記現在の部分に関連する、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを決定するための手段と、
    被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するための手段と、
    ビットストリームにおいて前記被選択候補動きベクトルを信号伝達するための手段と
    を備える装置。
  12. 前記空間的候補動きベクトルをプルーニングするための前記手段は、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングするための手段を備える、請求項11に記載の装置。
  13. 前記決定された空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定するための手段を更に備え、
    前記空間的候補動きベクトルのうちの前記重複するものを除去するために前記空間的候補動きベクトルをプルーニングするための前記手段は、前記決定された空間的候補動きベクトルのうちで、時間的に予測されると決定されたものは一切プルーニングせず、前記決定された空間的候補動きベクトルのうちで、空間的に予測されると決定されたもののみをプルーニングするための手段を備え、
    前記被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するための前記手段は、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、時間的に予測されると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する空間的に予測されると決定された前記空間的候補動きベクトルのうちの1つを選択するための手段を備える、請求項11に記載の装置。
  14. 前記決定された空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定するための手段と、
    前記空間的候補動きベクトルのうちで、時間的に予測されると決定されたものをデフォルト候補動きベクトルに差し替えるための手段とを更に備え、前記デフォルト候補動きベクトルはデフォルト動きベクトル情報を含み、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備え、
    前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングするための前記手段は、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ又は複数を含む前記空間的候補動きベクトルをプルーニングするための手段を備える、請求項11に記載の装置。
  15. 時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを決定するための手段を更に備え、
    前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するための前記手段は、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択するための手段を備える、請求項11に記載の装置。
  16. ビデオデータを符号化するための装置であって、
    現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定し、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングし、前記現在のビデオフレームの前記現在の部分に関連する、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを決定する動き補償ユニットと、
    被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するモード選択ユニットと、
    ビットストリームにおいて前記被選択候補動きベクトルを信号伝達するエントロピーコード化ユニットと
    を備える装置。
  17. 前記動き補償ユニットは、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングする、請求項16に記載の装置。
  18. 前記現在の部分は現在のコード化ユニット(CU)を備え、
    前記参照フレームの前記部分は前記参照フレームのCUを備える、請求項16に記載の装置。
  19. 前記動き補償ユニットは、少なくとも前記被選択候補動きベクトルを備える予測データを含む予測ユニット(PU)を更に生成し、
    前記エントロピーコード化ユニットは、前記ビットストリームにおいて前記PUを信号伝達する、請求項16に記載の装置。
  20. 前記エントロピーコード化ユニットは、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルを有するリスト内における前記被選択候補動きベクトルの位置を識別する動きベクトル予測子(MVP)インデックスとして、前記被選択候補動きベクトルを信号伝達する、請求項16に記載の装置。
  21. 前記動き補償ユニットは、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルを有するリスト内における前記被選択候補動きベクトルの位置を識別する動きベクトル予測子(MVP)インデックスを決定し、
    前記エントロピーコード化ユニットは、単項コード又は短縮単項コードのうちの1つを使用して前記MVPインデックスを符号化して、符号化MVPインデックスを生成し、前記ビットストリームにおいて前記符号化MVPインデックスを信号伝達する、請求項16に記載の装置。
  22. 前記モード選択ユニットは、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルの各々に関してレート歪み分析を実行し、前記レート歪み分析に基づいて、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択する、請求項16に記載の装置。
  23. 前記動き補償ユニットは、更に、前記決定された空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定し、前記決定された空間的候補動きベクトルのうちで、時間的に予測されると決定されたものは一切プルーニングせず、前記決定された空間的候補動きベクトルのうちで、空間的に予測されると決定されたもののみをプルーニングし、
    前記モード選択ユニットは、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、時間的に予測されると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する空間的に予測されると決定された前記空間的候補動きベクトルのうちの1つを選択する、請求項16に記載の装置。
  24. 前記動き補償ユニットは、前記決定された空間的候補動きベクトルの各々が空間的に予測されたか、それとも時間的に予測されたかを決定し、前記空間的候補動きベクトルのうちで、時間的に予測されると決定されたものをデフォルト候補動きベクトルに差し替え、前記デフォルト候補動きベクトルはデフォルト動きベクトル情報を含み、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備え、前記動き補償ユニットは、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ又は複数を含む前記空間的候補動きベクトルをプルーニングする、請求項16に記載の装置。
  25. 前記動き補償ユニットは、時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを更に決定し、
    前記モード選択ユニットは、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択する、請求項1に記載の装置。
  26. 実行されたとき、1つ以上のプロセッサに、
    現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定することと、
    前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングすることと、
    前記現在のビデオフレームの前記現在の部分に関連する、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを決定することと、
    被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することと、
    ビットストリームにおいて前記被選択候補動きベクトルを信号伝達することと
    を行わせる命令を備える非一時的コンピュータ可読媒体。
  27. ビデオデータを復号する方法であって、
    現在のビデオフレームの現在の部分に関連する、前記現在のビデオフレーム内の前記現在の部分に隣接する空間的近傍部分に関して決定された近傍動きベクトルを備える空間的候補動きベクトルを決定することと、
    前記現在のビデオフレームの前記現在の部分に関して決定された、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを除去することなく、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングすることと、
    ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することと、
    前記被選択候補動きベクトルに基づいて動き補償を実行することと
    を備える方法。
  28. 前記空間的候補動きベクトルをプルーニングすることは、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングすることを備える、請求項27に記載の方法。
  29. 前記時間的候補動きベクトルと前記空間的候補動きベクトルのうちでプルーニング後に残存するものとを合わせた候補動きベクトルの数を決定することと、
    候補動きベクトルの前記決定された数に基づいて、前記ビットストリームから、単項コード化MVPインデックス及び短縮単項コード化MVPインデックスのうちの1つを備えるコード化MVPインデックスを構文解析することと、
    前記コード化MVPインデックスを復号して前記MVPインデックスを決定することと
    を更に備える、請求項27に記載の方法。
  30. 前記現在のフレームの前記現在の部分に関する前記時間的候補動きベクトルは利用不可能であると決定することと、
    前記時間的候補動きベクトルは利用不可能であると決定したことに応答して、前記時間的候補動きベクトルに関するデフォルト動きベクトル情報を決定することとを更に備え、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備える、請求項27に記載の方法。
  31. 前記決定されたデフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定することを更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、請求項30に記載の方法。
  32. 前記デフォルト動きベクトル情報を決定することは、
    前記参照フレームがイントラコード化されたかどうかを決定することと、
    前記参照フレームがイントラコード化されていると決定されたときに、前記参照フレームの前記部分に関して決定された空間的動きベクトルに基づいて、前記デフォルト動きベクトル情報を導出することと
    を備える、請求項30に記載の方法。
  33. 前記空間的候補動きベクトルのうちの1つが利用不可能であると決定することと、
    前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、動きベクトル予測モードに基づいて、前記空間的候補動きベクトルのうちの前記1つに関するデフォルト動きベクトル情報を含むデフォルト候補動きベクトルを決定することと
    を更に備え、
    前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングすることは、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ又は複数を含む前記空間的候補動きベクトルをプルーニングすることを備え、
    前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することは、前記ビットストリームにおいて信号伝達された前記動きベクトル予測子(MVP)インデックスに基づいて、前記時間的候補動きベクトル、又は利用不可能であると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することを備える、請求項27に記載の方法。
  34. 前記デフォルト動きベクトル情報を決定することは、前記動きベクトル予測モードが適応型動きベクトル予測(AMVP)モードであるときに、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向、又は前記参照フレームを識別する参照インデックスを決定することなしに、動きベクトル振幅を決定することを備える、請求項33に記載の方法。
  35. 前記デフォルト動きベクトル情報を決定することは、前記動きベクトル予測モードがマージモードであるときに、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを決定することを備える、請求項33に記載の方法。
  36. 前記決定されたデフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定することを更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、請求項33に記載の方法。
  37. 前記空間的候補動きベクトルのうちの1つが利用不可能であると決定することと、
    前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを前記プルーニングプロセスから除去することと
    を更に備え、
    前記空間的候補動きベクトルをプルーニングすることは、前記現在のビデオフレームの前記現在の部分に関して決定された時間的候補動きベクトル、又は利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを除去することなく、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記空間的候補動きベクトルのうちで利用可能であると決定されたもののみをプルーニングすることを備える、請求項27に記載の方法。
  38. 時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを決定することを更に備え、
    前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することは、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択することを備える、請求項1に記載の方法。
  39. ビデオデータを復号するための装置であって、
    現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定するための手段と、
    前記現在のビデオフレームの前記現在の部分に関して決定された、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを除去することなく、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングするための手段と、
    ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つのうちの1つを選択するための手段と、
    前記被選択候補動きベクトルに基づいて動き補償を実行するための手段と
    を備える装置。
  40. 前記空間的候補動きベクトルをプルーニングするための前記手段は、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングするための手段を備える、請求項39に記載の装置。
  41. 前記時間的候補動きベクトルと前記空間的候補動きベクトルのうちでプルーニング後に残存するものとを合わせた候補動きベクトルの数を決定するための手段と、
    候補動きベクトルの前記決定された数に基づいて、前記ビットストリームから、単項コード化MVPインデックス及び短縮単項コード化MVPインデックスのうちの1つを備えるコード化MVPインデックスを構文解析するための手段と、
    前記コード化MVPインデックスを復号して前記MVPインデックスを決定するための手段と
    を更に備える、請求項39に記載の装置。
  42. 前記現在のフレームの前記現在の部分に関する前記時間的候補動きベクトルは利用不可能であると決定するための手段と、
    前記時間的候補動きベクトルは利用不可能であると決定したことに応答して、前記時間的候補動きベクトルに関するデフォルト動きベクトル情報を決定するための手段とを更に備え、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備える、請求項39に記載の装置。
  43. 前記決定されたデフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定するための手段を更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、請求項42に記載の装置。
  44. 前記デフォルト動きベクトル情報を決定するための前記手段は、
    前記参照フレームがイントラコード化されたかどうかを決定するための手段と、
    前記参照フレームがイントラコード化されていると決定されたときに、前記参照フレームの前記部分に関して決定された空間的動きベクトルに基づいて、前記デフォルト動きベクトル情報を導出するための手段と
    を備える、請求項42に記載の装置。
  45. 前記空間的候補動きベクトルのうちの1つが利用不可能であると決定するための手段と、
    前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、動きベクトル予測モードに基づいて、前記空間的候補動きベクトルのうちの前記1つに関するデフォルト動きベクトル情報を含むデフォルト候補動きベクトルを決定するための手段と
    を更に備え、
    前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングするための前記手段は、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ又は複数を含む前記空間的候補動きベクトルをプルーニングするための手段を備え、
    前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するための前記手段は、前記ビットストリームにおいて信号伝達された前記動きベクトル予測子(MVP)インデックスに基づいて、前記時間的候補動きベクトル、又は利用不可能であると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択することを備える、請求項39に記載の装置。
  46. 前記デフォルト動きベクトル情報を決定するための前記手段は、前記動きベクトル予測モードが適応型動きベクトル予測(AMVP)モードであるときに、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向、又は前記参照フレームを識別する参照インデックスを決定することなしに、動きベクトル振幅を決定するための手段を備える、請求項45に記載の装置。
  47. 前記デフォルト動きベクトル情報を決定するための前記手段は、前記動きベクトル予測モードがマージモードであるときに、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを決定するための手段を備える、請求項45に記載の装置。
  48. 前記決定されたデフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定するための手段を更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、請求項45に記載の装置。
  49. 前記空間的候補動きベクトルのうちの1つが利用不可能であると決定するための手段と、
    前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを前記プルーニングプロセスから除去するための手段と
    を更に備え、
    前記空間的候補動きベクトルをプルーニングするための前記手段は、前記現在のビデオフレームの前記現在の部分に関して決定された時間的候補動きベクトル、又は利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを除去することなく、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記空間的候補動きベクトルのうちで利用可能であると決定されたもののみをプルーニングするための手段を備える、請求項39に記載の装置。
  50. 時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを決定するための手段を更に備え、
    前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択するための前記手段は、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択するための手段を備える、請求項39に記載の装置。
  51. ビデオデータを復号するための装置であって、
    現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する近傍部分に関して決定された近傍動きベクトルを備える空間的候補動きベクトルを決定し、前記現在のビデオフレームの前記現在の部分に関して決定された、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを除去することなく、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングし、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つのうちの1つを選択し、前記被選択候補動きベクトルに基づいて動き補償を実行する動き補償ユニットを備える装置。
  52. 前記動き補償ユニットは、前記空間的候補動きベクトルのうちの重複するものを除去するために前記空間的候補動きベクトルをプルーニングする、請求項51に記載の装置。
  53. 前記動き補償ユニットは、前記時間的候補動きベクトルと前記空間的候補動きベクトルのうちでプルーニング後に残存するものとを合わせた候補動きベクトルの数を決定し、
    前記装置は、候補動きベクトルの前記決定された数に基づいて、前記ビットストリームから、単項コード化MVPインデックス及び短縮単項コード化MVPインデックスのうちの1つを備えるコード化MVPインデックスを構文解析し、前記コード化MVPインデックスを復号して前記MVPインデックスを決定するエントロピー復号ユニットを更に備える、請求項51に記載の装置。
  54. 前記現在のフレームの前記現在の部分に関する前記時間的候補動きベクトルは利用不可能であると決定することと、
    前記時間的候補動きベクトルは利用不可能であると決定したことに応答して、前記時間的候補動きベクトルに関するデフォルト動きベクトル情報を決定することとを更に備え、前記デフォルト動きベクトル情報は、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを備える、請求項51に記載の装置。
  55. 前記決定されたデフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定するエントロピー復号ユニットを更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、請求項54に記載の装置。
  56. 前記動き補償ユニットは、更に、前記参照フレームがイントラコード化されたかどうかを決定し、前記参照フレームがイントラコード化されていると決定されたときに、前記現在のフレームに前記現在の部分があるように、前記参照フレームの同じ位置にコロケートされる前記参照フレームの前記部分に関して決定された空間的動きベクトルに基づいて、前記デフォルト動きベクトル情報を導出する、請求項54に記載の装置。
  57. 前記動き補償ユニットは、前記空間的候補動きベクトルのうちの1つが利用不可能であると決定し、前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、動きベクトル予測モードに基づいて、前記空間的候補動きベクトルのうちの前記1つに関するデフォルト動きベクトル情報を含むデフォルト候補動きベクトルを決定し、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記デフォルト候補動きベクトルのうちの1つ又は複数を含む前記空間的候補動きベクトルをプルーニングし、ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、前記時間的候補動きベクトルのうちの1つ、利用不可能であると決定された前記空間的候補動きベクトルのうちの1つ、又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つを選択する、請求項51に記載の装置。
  58. 前記動き補償ユニットは、前記動きベクトル予測モードが適応型動きベクトル予測(AMVP)モードであるときに、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向、又は前記参照フレームを識別する参照インデックスを決定することなしに、動きベクトル振幅を決定する、請求項57に記載の装置。
  59. 前記動き補償ユニットは、前記動きベクトル予測モードがマージモードであるときに、動きベクトル振幅と、前記参照フレームが時間的に前記現在のフレームの前に来るか、それとも後に来るかを識別する予測方向と、前記参照フレームを識別する参照インデックスとを決定することを備える、請求項57に記載の装置。
  60. 前記決定されたデフォルト動きベクトル情報に基づいて、コンテキスト適応型可逆統計的復号を実行するためのコンテキストを決定するエントロピー復号ユニットを更に備え、前記コンテキストは、前記ビデオデータを復号するために使用するコード化テーブルを識別する、請求項57に記載の装置。
  61. 前記動き補償ユニットは、前記空間的候補動きベクトルのうちの1つが利用不可能であると決定し、前記空間的候補動きベクトルのうちの前記1つが利用不可能であると決定したことに応答して、利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを前記プルーニングプロセスから除去し、前記現在のビデオフレームの前記現在の部分に関して決定された時間的候補動きベクトル、又は利用不可能であると決定された前記空間的候補動きベクトルのうちの前記1つを除去することなく、前記空間的候補動きベクトルのうちの重複するものを除去するために、前記空間的候補動きベクトルのうちで利用可能であると決定されたもののみをプルーニングする、請求項51に記載の装置。
  62. 前記動き補償ユニットは、時間的に予測されず、前記時間的候補動きベクトル及びプルーニング後に残存する前記空間的候補動きベクトルのいずれとも異なる1つ以上の追加の空間的候補動きベクトルを決定し、前記被選択候補動きベクトルとして、前記時間的候補動きベクトル、プルーニング後に残存する前記空間的候補動きベクトルのうちの1つ、又は前記追加の空間的候補動きベクトルのうちの1つを選択する、請求項51に記載の装置。
  63. 実行されたとき、1つ以上のプロセッサに、
    現在のビデオフレームの現在の部分に関連する、前記現在の部分に隣接する前記現在のビデオフレームの近傍部分に関して決定された動きベクトルを備える空間的候補動きベクトルを決定することと、
    前記現在のビデオフレームの前記現在の部分に関して決定された、参照ビデオフレームの部分に関して決定された動きベクトルを備える時間的候補動きベクトルを除去することなく、前記空間的候補動きベクトルのうちの少なくとも1つを除去するために前記空間的候補動きベクトルをプルーニングすることと、
    ビットストリームにおいて信号伝達された動きベクトル予測子(MVP)インデックスに基づいて、被選択候補動きベクトルとして、前記時間的候補動きベクトル又はプルーニング後に残存する前記空間的候補動きベクトルのうちの1つのうちの1つを選択することと、
    前記被選択候補動きベクトルに基づいて動き補償を実行することと
    を行わせる命令を備える非一時的コンピュータ可読媒体。
JP2013552014A 2011-01-27 2012-01-18 ビデオコード化のための動きベクトル予測の実行 Active JP5813784B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201161436997P 2011-01-27 2011-01-27
US61/436,997 2011-01-27
US201161449985P 2011-03-07 2011-03-07
US61/449,985 2011-03-07
US201161561601P 2011-11-18 2011-11-18
US61/561,601 2011-11-18
US13/351,980 US9319716B2 (en) 2011-01-27 2012-01-17 Performing motion vector prediction for video coding
US13/351,980 2012-01-17
PCT/US2012/021742 WO2012102927A1 (en) 2011-01-27 2012-01-18 Performing motion vector prediction for video coding

Publications (2)

Publication Number Publication Date
JP2014509480A true JP2014509480A (ja) 2014-04-17
JP5813784B2 JP5813784B2 (ja) 2015-11-17

Family

ID=46577354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013552014A Active JP5813784B2 (ja) 2011-01-27 2012-01-18 ビデオコード化のための動きベクトル予測の実行

Country Status (20)

Country Link
US (1) US9319716B2 (ja)
EP (1) EP2668784B1 (ja)
JP (1) JP5813784B2 (ja)
KR (1) KR101574866B1 (ja)
CN (1) CN103339938B (ja)
AU (1) AU2012209403B2 (ja)
BR (1) BR112013018816B1 (ja)
CA (1) CA2825154C (ja)
DK (1) DK2668784T3 (ja)
ES (1) ES2684522T3 (ja)
HU (1) HUE039019T2 (ja)
IL (1) IL227287A (ja)
MY (1) MY164598A (ja)
PL (1) PL2668784T3 (ja)
PT (1) PT2668784T (ja)
RU (1) RU2550554C2 (ja)
SG (1) SG191824A1 (ja)
SI (1) SI2668784T1 (ja)
WO (1) WO2012102927A1 (ja)
ZA (1) ZA201306423B (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014527362A (ja) * 2011-08-17 2014-10-09 キヤノン株式会社 画像のシーケンスを符号化するための方法およびデバイス、および画像のシーケンスを復号するための方法およびデバイス
US9848187B2 (en) 2011-12-28 2017-12-19 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10015514B2 (en) 2011-12-28 2018-07-03 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
JP2022126817A (ja) * 2018-06-29 2022-08-30 北京字節跳動網絡技術有限公司 マージ/amvpにhmvp候補を追加する際の一部/全部プルーニング
US11877002B2 (en) 2018-06-29 2024-01-16 Beijing Bytedance Network Technology Co., Ltd Update of look up table: FIFO, constrained FIFO
US11909951B2 (en) 2019-01-13 2024-02-20 Beijing Bytedance Network Technology Co., Ltd Interaction between lut and shared merge list
US11909989B2 (en) 2018-06-29 2024-02-20 Beijing Bytedance Network Technology Co., Ltd Number of motion candidates in a look up table to be checked according to mode
US11956464B2 (en) 2019-01-16 2024-04-09 Beijing Bytedance Network Technology Co., Ltd Inserting order of motion candidates in LUT
US11973971B2 (en) 2018-06-29 2024-04-30 Beijing Bytedance Network Technology Co., Ltd Conditions for updating LUTs
US11997253B2 (en) 2018-09-12 2024-05-28 Beijing Bytedance Network Technology Co., Ltd Conditions for starting checking HMVP candidates depend on total number minus K
US12034914B2 (en) 2018-06-29 2024-07-09 Beijing Bytedance Network Technology Co., Ltd Checking order of motion candidates in lut
US12058364B2 (en) 2018-06-29 2024-08-06 Beijing Bytedance Network Technology Co., Ltd. Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10474875B2 (en) 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
AR083954A1 (es) 2010-11-24 2013-04-10 Panasonic Corp Metodo para calcular vectores de movimiento, metodo para codificar imagenes, metodo para decodificar imagenes y aparato y sistema de calculo de vectores de movimiento
GB2487197B (en) * 2011-01-11 2015-06-17 Canon Kk Video encoding and decoding with improved error resilience
WO2012096173A1 (ja) 2011-01-12 2012-07-19 パナソニック株式会社 動画像符号化方法および動画像復号化方法
JP6108309B2 (ja) * 2011-02-22 2017-04-05 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
KR101878008B1 (ko) 2011-03-03 2018-07-13 선 페이턴트 트러스트 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치
US9066110B2 (en) 2011-03-08 2015-06-23 Texas Instruments Incorporated Parsing friendly and error resilient merge flag coding in video coding
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
PL3136727T3 (pl) 2011-04-12 2018-11-30 Sun Patent Trust Sposób kodowania ruchomych obrazów i urządzenie do kodowania ruchomych obrazów
EP3410718B8 (en) 2011-05-27 2020-04-01 Sun Patent Trust Image coding method and image coding apparatus,
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
US8989271B2 (en) 2011-05-31 2015-03-24 Panasonic Intellectual Property Corporation Of America Decoding method and apparatus with candidate motion vectors
US9866859B2 (en) * 2011-06-14 2018-01-09 Texas Instruments Incorporated Inter-prediction candidate index coding independent of inter-prediction candidate list construction in video coding
CN103621093B (zh) * 2011-06-15 2018-07-03 联发科技股份有限公司 在三维视频编码系统中的纹理图像处理方法及装置
KR101900986B1 (ko) 2011-06-30 2018-09-20 선 페이턴트 트러스트 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치, 및, 화상 부호화 복호 장치
CN103718558B (zh) 2011-08-03 2017-04-19 太阳专利托管公司 运动图像编码方法及装置、解码方法及装置和编解码装置
CN107404651B (zh) 2011-09-09 2020-03-06 株式会社Kt 用于解码视频信号的方法
MY180182A (en) 2011-10-19 2020-11-24 Sun Patent Trust Picture coding method,picture coding apparatus,picture decoding method,and picture decoding apparatus
CN103999468A (zh) * 2011-10-21 2014-08-20 诺基亚公司 用于视频编码的方法和装置
US9571833B2 (en) 2011-11-04 2017-02-14 Nokia Technologies Oy Method for coding and an apparatus
US9088796B2 (en) * 2011-11-07 2015-07-21 Sharp Kabushiki Kaisha Video decoder with enhanced CABAC decoding
RU2585976C2 (ru) 2011-11-08 2016-06-10 Кт Корпорейшен Способ и устройство для определения способа сканирования на основании режима деления блока предсказания
JP5747816B2 (ja) * 2011-12-28 2015-07-15 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム
JP2013141078A (ja) * 2011-12-28 2013-07-18 Jvc Kenwood Corp 動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2013141077A (ja) * 2011-12-28 2013-07-18 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
JP5617834B2 (ja) * 2011-12-28 2014-11-05 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
WO2013109093A1 (ko) * 2012-01-19 2013-07-25 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
WO2013107028A1 (en) * 2012-01-19 2013-07-25 Mediatek Singapore Pte. Ltd. Methods and apparatuses of amvp simplification
US9729873B2 (en) 2012-01-24 2017-08-08 Qualcomm Incorporated Video coding using parallel motion estimation
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9426463B2 (en) 2012-02-08 2016-08-23 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
JPWO2013136678A1 (ja) * 2012-03-16 2015-08-03 パナソニックIpマネジメント株式会社 画像復号装置および画像復号方法
US9584802B2 (en) * 2012-04-13 2017-02-28 Texas Instruments Incorporated Reducing context coded and bypass coded bins to improve context adaptive binary arithmetic coding (CABAC) throughput
US9800869B2 (en) * 2012-06-15 2017-10-24 Google Technology Holdings LLC Method and apparatus for efficient slice header processing
US20140079135A1 (en) * 2012-09-14 2014-03-20 Qualcomm Incoporated Performing quantization to facilitate deblocking filtering
CN104704835B (zh) * 2012-10-03 2017-11-24 联发科技股份有限公司 视频编码中运动信息管理的装置与方法
CN102883163B (zh) 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
EP2907311A4 (en) * 2012-10-09 2016-08-24 Mediatek Inc METHOD AND DEVICE FOR PREDICTING AND ASSUMING MOTION DATA IN VIDEO CODING
US9826244B2 (en) * 2013-01-08 2017-11-21 Qualcomm Incorporated Device and method for scalable coding of video information based on high efficiency video coding
CN103079067B (zh) * 2013-01-09 2016-03-09 华为技术有限公司 运动矢量预测值列表构建方法和视频编解码方法及装置
JP5983430B2 (ja) * 2013-01-25 2016-08-31 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
FR3011429A1 (fr) * 2013-09-27 2015-04-03 Orange Codage et decodage video par heritage d'un champ de vecteurs de mouvement
RU2654129C2 (ru) 2013-10-14 2018-05-16 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Функциональные возможности режима внутреннего предсказания с блочным копированием для кодирования и декодирования видео и изображений
CN105659606B (zh) 2013-10-14 2019-06-18 微软技术许可有限责任公司 用于视频和图像编码和解码的方法、系统和介质
EP3058736B1 (en) 2013-10-14 2019-02-27 Microsoft Technology Licensing, LLC Encoder-side options for intra block copy prediction mode for video and image coding
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
CN105917650B (zh) 2014-01-03 2019-12-24 微软技术许可有限责任公司 视频和图像编/解码的方法、计算设备及计算机可读介质
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
CA2939431C (en) 2014-03-04 2020-09-22 Microsoft Techology Licensing, Llc Block flipping and skip mode in intra block copy prediction
US9479788B2 (en) * 2014-03-17 2016-10-25 Qualcomm Incorporated Systems and methods for low complexity encoding and background detection
KR102311815B1 (ko) 2014-06-19 2021-10-13 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 통합된 인트라 블록 카피 및 인터 예측 모드
JP5874790B2 (ja) * 2014-09-08 2016-03-02 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
JP5874791B2 (ja) * 2014-09-08 2016-03-02 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
JP5874792B2 (ja) * 2014-09-08 2016-03-02 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
JP5874793B2 (ja) * 2014-09-08 2016-03-02 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
KR102330740B1 (ko) 2014-09-30 2021-11-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 파면 병렬 프로세싱이 인에이블되는 경우의 인트라 픽쳐 예측 모드에 대한 규칙
US9992512B2 (en) * 2014-10-06 2018-06-05 Mediatek Inc. Method and apparatus for motion vector predictor derivation
US9591325B2 (en) 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode
JP5975146B2 (ja) * 2015-05-14 2016-08-23 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム
US10187653B2 (en) * 2015-05-18 2019-01-22 Avago Technologies International Sales Pte. Limited Motor vector prediction using co-located prediction units
RU2684193C1 (ru) * 2015-05-21 2019-04-04 Хуавэй Текнолоджиз Ко., Лтд. Устройство и способ для компенсации движения в видеоизображении
CN106664405B (zh) 2015-06-09 2020-06-09 微软技术许可有限责任公司 用调色板模式对经逸出编码的像素的稳健编码/解码
CN109274974B (zh) 2015-09-29 2022-02-11 华为技术有限公司 图像预测的方法及装置
US10477233B2 (en) * 2015-09-30 2019-11-12 Apple Inc. Predictor candidates for motion estimation search systems and methods
US10225572B2 (en) * 2015-09-30 2019-03-05 Apple Inc. Configurable motion estimation search systems and methods
JP6037061B2 (ja) * 2016-01-18 2016-11-30 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
JP5962877B1 (ja) * 2016-04-26 2016-08-03 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム
JP5962875B1 (ja) * 2016-04-26 2016-08-03 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム
JP5962876B1 (ja) * 2016-04-26 2016-08-03 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム
JP6183505B2 (ja) * 2016-06-29 2017-08-23 株式会社Jvcケンウッド 動画像符号化装置
US10567461B2 (en) * 2016-08-04 2020-02-18 Twitter, Inc. Low-latency HTTP live streaming
WO2018045944A1 (en) * 2016-09-06 2018-03-15 Mediatek Inc. Methods and apparatuses of candidate set determination for binary-tree splitting blocks
KR20180103733A (ko) * 2017-03-09 2018-09-19 주식회사 케이티 영상 부호화 또는 복호화 방법 및 장치
EP3410717A1 (en) * 2017-05-31 2018-12-05 Thomson Licensing Methods and apparatus for candidate list pruning
KR102185370B1 (ko) * 2017-09-13 2020-12-01 삼성전자주식회사 기본 움직임 벡터를 이용하여 움직임 벡터를 부호화하는 장치 및 방법, 및 복호화 장치 및 방법
JP6406408B2 (ja) * 2017-09-28 2018-10-17 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び、動画像復号プログラム
JP6406409B2 (ja) * 2017-09-28 2018-10-17 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び、動画像復号プログラム
KR102347598B1 (ko) * 2017-10-16 2022-01-05 삼성전자주식회사 영상 부호화 장치 및 인코더
KR102476204B1 (ko) * 2017-10-19 2022-12-08 삼성전자주식회사 멀티 코덱 인코더 및 이를 포함하는 멀티 코덱 인코딩 시스템
CN118694962A (zh) * 2017-11-09 2024-09-24 三星电子株式会社 运动信息编码设备、运动信息解码设备和比特流发送方法
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
CN112204966B (zh) * 2018-03-27 2024-10-18 株式会社Kt 对图像进行解码、编码的方法和用于传送比特流的装置
EP3797516A1 (en) 2018-06-29 2021-03-31 Beijing Bytedance Network Technology Co. Ltd. Interaction between lut and amvp
JP7295230B2 (ja) 2018-06-29 2023-06-20 北京字節跳動網絡技術有限公司 スライス/タイル/lcuの行ごとのルックアップテーブルのリセット
KR102611261B1 (ko) * 2018-06-29 2023-12-08 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 업데이트 대상 lut 또는 비업데이트 lut의 구별
TWI723446B (zh) 2018-07-02 2021-04-01 大陸商北京字節跳動網絡技術有限公司 具有lic的lut
CN117241039A (zh) 2018-08-28 2023-12-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
MX2021002399A (es) 2018-08-28 2021-07-15 Huawei Tech Co Ltd Método y aparato para construir una lista de información de movimiento candidata, método de interpredicción y aparato.
US11849132B2 (en) * 2018-09-11 2023-12-19 B1 Institute Of Image Technology, Inc. Image encoding/decoding method and apparatus using inter prediction
WO2020088691A1 (en) 2018-11-02 2020-05-07 Beijing Bytedance Network Technology Co., Ltd. Harmonization between geometry partition prediction mode and other tools
MX2021006014A (es) * 2018-11-26 2021-08-24 Fraunhofer Ges Forschung Concepto de interprediccion que utiliza restricciones de independencia de mosaicos.
KR102648159B1 (ko) 2019-01-10 2024-03-18 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
US10979716B2 (en) * 2019-03-15 2021-04-13 Tencent America LLC Methods of accessing affine history-based motion vector predictor buffer
CN113615193B (zh) 2019-03-22 2024-06-25 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN111741304A (zh) * 2019-03-25 2020-10-02 四川大学 一种基于运动矢量细化的帧率上变换与hevc相结合的方法
WO2020248925A1 (en) 2019-06-08 2020-12-17 Beijing Bytedance Network Technology Co., Ltd. History-based motion vector prediction with default parameters
US20240080451A1 (en) * 2022-09-02 2024-03-07 Tencent America LLC Systems and methods for temporal motion vector prediction candidate derivation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009115901A2 (en) * 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
WO2012093585A1 (ja) * 2011-01-07 2012-07-12 株式会社エヌ・ティ・ティ・ドコモ 動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム
JP2012151576A (ja) * 2011-01-18 2012-08-09 Hitachi Ltd 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
JP2013141077A (ja) * 2011-12-28 2013-07-18 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6968008B1 (en) * 1999-07-27 2005-11-22 Sharp Laboratories Of America, Inc. Methods for motion estimation with adaptive motion accuracy
US6671321B1 (en) 1999-08-31 2003-12-30 Mastsushita Electric Industrial Co., Ltd. Motion vector detection device and motion vector detection method
JP2001251632A (ja) 1999-12-27 2001-09-14 Toshiba Corp 動きベクトル検出方法および装置並びに動きベクトル検出プログラム
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7408986B2 (en) 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US7471724B2 (en) 2003-06-23 2008-12-30 Vichip Corp. Limited Method and apparatus for adaptive multiple-dimensional signal sequences encoding/decoding
US7567617B2 (en) 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US20080144716A1 (en) 2004-03-11 2008-06-19 Gerard De Haan Method For Motion Vector Determination
KR100587562B1 (ko) 2004-04-13 2006-06-08 삼성전자주식회사 비디오 프레임에 대한 움직임 추정 방법 및 비디오 인코더
WO2010046854A1 (en) 2008-10-22 2010-04-29 Nxp B.V. Device and method for motion estimation and compensation
CN102860006B (zh) * 2010-02-05 2016-11-23 瑞典爱立信有限公司 管理预测运动向量候选

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009115901A2 (en) * 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
WO2012093585A1 (ja) * 2011-01-07 2012-07-12 株式会社エヌ・ティ・ティ・ドコモ 動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム
JP2012151576A (ja) * 2011-01-18 2012-08-09 Hitachi Ltd 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
JP2013141077A (ja) * 2011-12-28 2013-07-18 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
AKIRA FUJIBAYASHI AND FRANK BOSSEN: "CE9 3.2d Simplified Motion vector prediction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-D231, JPN6015003553, 15 January 2011 (2011-01-15), pages 1 - 5, ISSN: 0003132551 *
BIN LI ET AL.: "Constrained temporal motion vector prediction for error resilience", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-D139r1, JPN6015005778, 20 January 2011 (2011-01-20), pages 1 - 4, ISSN: 0003132550 *
BOSSEN,F., ET AL: "Simplified motion vector coding method", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC)OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6014030957, July 2010 (2010-07-01), ISSN: 0002861641 *
FRANK BOSSEN AND PHILIPP KOSSE: "Simplified motion vector coding method", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-B094, JPN6014050333, July 2010 (2010-07-01), pages 1 - 5, ISSN: 0003132549 *
JOONYOUNG PARK, ET AL: "Improvements on median motion vectors of AMVP[online]", JCTVC-D095, JPN6014030959, 14 January 2011 (2011-01-14), ISSN: 0002861642 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10306256B2 (en) 2011-08-17 2019-05-28 Canon Kabushiki Kaisha Method and device for encoding a sequence of images and method and device for decoding a sequence of images
JP2014527362A (ja) * 2011-08-17 2014-10-09 キヤノン株式会社 画像のシーケンスを符号化するための方法およびデバイス、および画像のシーケンスを復号するための方法およびデバイス
US10469865B2 (en) 2011-12-28 2019-11-05 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10097849B2 (en) 2011-12-28 2018-10-09 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10631003B2 (en) 2011-12-28 2020-04-21 Jvckenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10165298B1 (en) 2011-12-28 2018-12-25 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10165301B2 (en) 2011-12-28 2018-12-25 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10165299B2 (en) 2011-12-28 2018-12-25 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10171830B1 (en) 2011-12-28 2019-01-01 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10171832B2 (en) 2011-12-28 2019-01-01 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US9848187B2 (en) 2011-12-28 2017-12-19 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10015514B2 (en) 2011-12-28 2018-07-03 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10171831B2 (en) 2011-12-28 2019-01-01 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US10080031B1 (en) 2011-12-28 2018-09-18 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US12058364B2 (en) 2018-06-29 2024-08-06 Beijing Bytedance Network Technology Co., Ltd. Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks
US11877002B2 (en) 2018-06-29 2024-01-16 Beijing Bytedance Network Technology Co., Ltd Update of look up table: FIFO, constrained FIFO
US11909989B2 (en) 2018-06-29 2024-02-20 Beijing Bytedance Network Technology Co., Ltd Number of motion candidates in a look up table to be checked according to mode
US11973971B2 (en) 2018-06-29 2024-04-30 Beijing Bytedance Network Technology Co., Ltd Conditions for updating LUTs
US12034914B2 (en) 2018-06-29 2024-07-09 Beijing Bytedance Network Technology Co., Ltd Checking order of motion candidates in lut
JP2022126817A (ja) * 2018-06-29 2022-08-30 北京字節跳動網絡技術有限公司 マージ/amvpにhmvp候補を追加する際の一部/全部プルーニング
US11997253B2 (en) 2018-09-12 2024-05-28 Beijing Bytedance Network Technology Co., Ltd Conditions for starting checking HMVP candidates depend on total number minus K
US11909951B2 (en) 2019-01-13 2024-02-20 Beijing Bytedance Network Technology Co., Ltd Interaction between lut and shared merge list
US11956464B2 (en) 2019-01-16 2024-04-09 Beijing Bytedance Network Technology Co., Ltd Inserting order of motion candidates in LUT
US11962799B2 (en) 2019-01-16 2024-04-16 Beijing Bytedance Network Technology Co., Ltd Motion candidates derivation

Also Published As

Publication number Publication date
SG191824A1 (en) 2013-08-30
KR20130126691A (ko) 2013-11-20
AU2012209403B2 (en) 2015-10-01
PT2668784T (pt) 2018-10-09
US9319716B2 (en) 2016-04-19
PL2668784T3 (pl) 2018-12-31
WO2012102927A1 (en) 2012-08-02
JP5813784B2 (ja) 2015-11-17
IL227287A0 (en) 2013-09-30
BR112013018816B1 (pt) 2022-07-19
CA2825154C (en) 2016-10-04
CA2825154A1 (en) 2012-08-02
US20120195368A1 (en) 2012-08-02
BR112013018816A2 (pt) 2017-07-25
HUE039019T2 (hu) 2018-12-28
CN103339938B (zh) 2016-10-05
ZA201306423B (en) 2014-04-30
IL227287A (en) 2016-10-31
KR101574866B1 (ko) 2015-12-04
ES2684522T3 (es) 2018-10-03
RU2013139569A (ru) 2015-03-10
RU2550554C2 (ru) 2015-05-10
DK2668784T3 (en) 2018-08-20
SI2668784T1 (en) 2018-08-31
EP2668784A1 (en) 2013-12-04
MY164598A (en) 2018-01-30
AU2012209403A1 (en) 2013-08-01
EP2668784B1 (en) 2018-05-30
CN103339938A (zh) 2013-10-02

Similar Documents

Publication Publication Date Title
JP5813784B2 (ja) ビデオコード化のための動きベクトル予測の実行
US9131239B2 (en) Unified merge mode and adaptive motion vector prediction mode candidates selection
JP5778299B2 (ja) 動きベクトル予測
CA2858979C (en) Performing motion vector prediction for video coding

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150916

R150 Certificate of patent or registration of utility model

Ref document number: 5813784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250