JP2009525683A - 組合せ参照双方向予測を用いて動き推定を行う方法および装置 - Google Patents

組合せ参照双方向予測を用いて動き推定を行う方法および装置 Download PDF

Info

Publication number
JP2009525683A
JP2009525683A JP2008553285A JP2008553285A JP2009525683A JP 2009525683 A JP2009525683 A JP 2009525683A JP 2008553285 A JP2008553285 A JP 2008553285A JP 2008553285 A JP2008553285 A JP 2008553285A JP 2009525683 A JP2009525683 A JP 2009525683A
Authority
JP
Japan
Prior art keywords
reference pictures
motion vector
motion
picture
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008553285A
Other languages
English (en)
Other versions
JP5165593B2 (ja
JP2009525683A5 (ja
Inventor
トウラピス,アレグザンドロス
マクドナルド ボイス,ジル
イン,ペング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2009525683A publication Critical patent/JP2009525683A/ja
Publication of JP2009525683A5 publication Critical patent/JP2009525683A5/ja
Application granted granted Critical
Publication of JP5165593B2 publication Critical patent/JP5165593B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Processing Or Creating Images (AREA)

Abstract

組合せ参照双方向予測を用いて動き推定を行う方法および装置を提供する。この装置は、2つ以上の参照ピクチャの組合せから、該2つ以上の参照ピクチャのうち特定の1つの参照ピクチャの動きベクトルを動き推定プロセスで予測し、該2つ以上の参照ピクチャの残りの参照ピクチャの動きベクトルを該動き推定プロセスで使用する所定値に初期化することによって、マルチ予測ピクチャを符号化するエンコーダ(200)を含む。

Description

(関連出願の相互参照)
本願は、2006年2月2日出願の米国仮出願第60/764452号の特典を請求するものである。
本発明は、一般にビデオ符号化に関し、特に、組合せ参照双方向予測を用いて動き推定を行う方法および装置に関する。
第1の従来技術の手法として記載されるように、動き補償ビデオ・エンコーダおよびデコーダにおいて複合仮説動き補償が大きな利点を有することは周知である。さらに詳細には、2つの仮説を考慮する双方向予測(B)スライス(または以前の標準および勧告では双方向予測ピクチャ)は、一般に、ISO/IEC MPEG−4 Part 10 Advanced Video Coding(AVC)標準/ITU−T H.264勧告(以下「MPEG−4 AVC標準」と呼ぶ)のコーデックにおいて最も効率的に符号化されるスライスである。これは、これらのスライスが、2つ以上の仮説を線形に結合することによってシーケンス内に存在する時間的相関をより効率的に活用し、それらに関連するエラーを低減することができることによる。さらに具体的には、Bスライスでは、マクロブロックまたはブロックの符号化は、1つの予測(リスト0またはリスト1)あるいは2つの予測(リスト0およびリスト1)の線形結合によって当該マクロブロックまたはブロックを予測でき、フェードまたはクロスフェードが存在する場合に各リストに関連する重みによってさらなる利点が得られるように行われる。この予測を実行するためにデコーダが必要とするのは、予測タイプによって1つまたは2つの動きベクトル(MV)、およびそれらに関連する参照(関連する各リストごとに1つ)が、ビットストリーム内で伝送されること、あるいはダイレクト・モードの場合と同様にそれらが推測されることだけである。
例えば現在のJM参照ソフトウェア、JVT(Joint Video Team)参照ソフトウェア・バージョンJM7.4などのほとんどのエンコーダでは、Bスライス(および複合仮説符号化一般)の動き推定では、利用可能な予測リスト内の各候補参照を動き推定中に別個に考慮し、双方向予測(または複合仮説予測)の具体的な仮定は一切立てない。各予測リストごとに、エンコーダは、最良の一方向予測動きベクトルを計算し、その後、これらの候補動きベクトルを使用して、エンコーダは、どのモード(一方向予測、複数予測、もしくはイントラ)を使用するかを決定する最終的なモード決定において後に使用することになる付加的な双方向予測候補の組を生成する。
図1を参照すると、双方向予測を用いるビデオ・エンコーダの全体を、参照番号100で示してある。コンバイナ105の非反転入力部、モード決定(MD)/動き補償(MC)175の第1の入力部、動き推定器(ME)165の第1の入力部、および動き推定器170の第1の入力部は、ビデオ・エンコーダの入力部として使用することができる。コンバイナ105の出力部は、変換器110の入力部に信号線で接続される。変換器110の出力部は、量子化器115の入力部に信号線で接続される。量子化器115の出力部は、可変長コーダ(VLC)120の入力部に信号線で接続される。VLC120の出力部は、ビデオ・エンコーダ100の出力部として使用することができる。
量子化器115の出力部は、逆量子化器125の入力部にも信号線で接続される。逆量子化器125の出力部は、逆変換器130の入力部に信号線で接続される。逆変換器130の出力部は、コンバイナ180の第1の非反転入力部に信号線で接続される。コンバイナ180の出力部は、ループ・フィルタ135の入力部に信号線で接続される。ループ・フィルタ135の出力部は、ピクチャ参照ストア140の入力部に信号線で接続される。参照ピクチャ・ストア140の出力部は、リスト0参照バッファ145の入力部およびリスト1参照バッファ150の入力部に信号線で接続される。リスト0参照バッファ145の第1の出力部は、乗算器155の第1の入力部に信号線で接続される。リスト1参照バッファ150の第1の出力部は、乗算器160の第1の入力部に信号線で接続される。リスト0参照バッファ145の第2の出力部およびリスト1参照バッファ150の第2の出力部は、MD/MC175の第2の入力部に信号線で接続される。乗算器155の出力部は、動き推定器165の第2の入力部に信号線で接続される。乗算器160の出力部は、動き推定器170の第2の入力部に信号線で接続される。MD/MC175の第1の出力部は、コンバイナ105の反転入力部に信号線で接続される。MD/MC175の第2の出力部は、コンバイナ180の第2の非反転入力部に信号線で接続される。
上記の方法は、これらの動きベクトルを十分に双方向予測に使用することができるという仮定に基づいている。残念ながら、この仮定は常に正しいわけではなく、効率が著しく低下する可能性もある。特に、クロスフェード(ディゾルブ)が存在する場合には効率が著しく低下する可能性がある。このクロスフェードが存在する場合は、これらの画像の重なり合うオブジェクトが大幅に異なる輝度特性や動きを有することがあり、各リストを別個に考慮することによって性能が比較的低くなる可能性がある。従って、動き推定フェーズにおいて利用可能な候補参照を複合的に考慮し、符号化効率を高めることができることが、強く望まれている。ただし、低いビットレートでは非常に重要な、そのような場合には動きベクトルの組を1組(参照xおよびyに対するmvおよびmv)だけ伝送すればよいことを考えると特に、一方向予測でも依然として良好な結果を得ることができるので、各参照を別個に考慮してはならないということではない。
単一の候補についての動き推定自体が、かなり計算コストが高いことは周知である。つまり、検索ウィンドウ(±N、±M)を用いて全検索手法を使用する場合には、(2N+1)×(2M+1)個のチェック・ポイントを調べることになる。明らかに、このブルート・フォースな、またある意味では最適な双方向予測の手法では、(2N+1)×(2M+1)個のチェック・ポイントが必要となり、これはどのようなアーキテクチャでもかなり無理のあるものである。さらに一般的に、複合仮説(k予測)の場合には、これは、(2N+1)×(2M+1)個を調べる必要があることを意味する。前述の第1の従来技術の手法には、以前に推定した仮説を考慮することによって各仮説を順次検査して改良する反復的手法をブルート・フォースな方法の代わりに用いる、はるかに単純な代替のアーキテクチャが記載されている。
双方向予測の場合については、この方法は、以下のように要約することができる。現在のピクチャがzであり、考慮する2つの参照はピクチャxおよびyであると仮定する。これらのピクチャに対して、重み付け予測のために重みaおよびbがそれぞれ選択されている(通常の双方向予測では、a=b=1/2)。mvおよびmvはそれぞれ、参照xおよびy(またはそれらに重み付けしたもの)に対応する動き補償に必要な動きベクトルである。簡潔にするために、このプロセスでは重み付けオフセットは無視するが、同じ考え方を当てはめることができる。以下の手順では、SAD(絶対差の総和)を歪み測度として使用する。
ステップ1
Figure 2009525683
を設定する。
ステップ2 参照ピクチャをaxとして形成する。
ステップ3 axにおいて動き推定を実行し、歪み
Figure 2009525683
を用いて動きベクトルmvを改良する。
ステップ4
Figure 2009525683
を設定する。
ステップ5 参照ピクチャをbyとして形成する。
ステップ6 byにおいて動き推定を実行し、歪み
Figure 2009525683
を用いて動きベクトルmvを得る。
ステップ7
Figure 2009525683
であれば、終了する。
ステップ8
Figure 2009525683
を設定する。
ステップ9 歪み
Figure 2009525683
を用いてaxの動きベクトルmvを改良する。
ステップ10
Figure 2009525683
であれば、終了する。
ステップ11
Figure 2009525683
を設定する。
ステップ12 ステップ6に進む。
上記の方法は、複合仮説の場合にも一般化することができる。この方法の問題は、必要となる反復回数が依然として多いことがあることである。さらに、性能が改善される可能性は非常に高いものの、特にこの方式が極小値をとる場合には、最終的な予測が可能な限り最良のものにならない可能性もある。特に、アルゴリズムを反復するたびに動き補償を用いて新たな仮説を再構築する必要があることを考えると、このアーキテクチャの実施は、かなり複雑である。上述の第1の従来技術の手法には、ステップ1の最初のゼロ動きベクトルを各リストを独立して考慮することによって生成した動きベクトルで置換する、これとかなり似た代替の手法も記されている。
ビデオ圧縮エンコーダおよびデコーダは、その圧縮効率の大部分を、符号化対象である現在のピクチャ(またはスライス)Pcurrentの予測を形成し、この予測と現在のピクチャの間の差分をさらに符号化することによって得ている。予測と現在のピクチャの相関が強くなるほど、当該ピクチャを圧縮するのに必要なビット数は少なくなる。従って、可能な限り最良のピクチャ予測を形成することが望ましい。この予測は、空間的予測方法(イントラ符号化)または時間的方法(インター符号化)の何れかで生成することができる。
時間的予測方法では、基本的に、予測参照を生成するために動き補償型の技術を利用する。これは、通常は、ソース画像をN×Mサイズの重複しないブロックに分割し、動き推定技術を用いて参照ピクチャPreference内の最良の一致を見つけることによって行われる。この最良の一致は、ビットストリーム内で符号化もされる1組の動きパラメータと関連づけられる。MPEG−4 AVC標準などのより新しい標準では、動きパラメータとともに使用される参照の指標を示すことにより、複数の参照ピクチャを考慮して最良の予測の推定および選択を行うこともできる。このような複数参照エンコーダおよびデコーダでは、参照バッファを使用し、可能性のある各候補参照は、符号化処理または復号処理の間にはそこに記憶され、そこでアクセスされる。
性能を大幅に改善することができる代替の方法は、一度に1つしか参照ピクチャを考慮しないのではなく、特に双方向予測(B)ピクチャ/スライスの符号化の場合に行うように、複数の仮説の組合せを用いる可能性を考慮するものである。ここでも、予測は、複数の参照からなる1組の参照から選択した単一の参照を考慮することによっても、また2つの利用可能な参照を線形に結合する(すなわち重み付け平均を実行する)ことによっても生成することができる。この場合も、必要に応じて、各参照に対応する2つの異なる動きパラメータの組を推定して伝送する必要がある。この概念は、上述の第1の従来技術の手法に記載されるように3つ以上の仮説を考慮するエンコーダに一般化することができる。性能を改善することができるその他のパラメータは、各仮説に異なる重み係数を適用することができ、グローバル動き補償技術などさらに複雑な動きモデルを使用する第2の従来技術の手法に示されるように、重み付け予測を考慮することを含む。
複合仮説動き補償を考慮することによってビデオ・コーデックの性能を大幅に改善することができるが、この場合に動きパラメータを適切に推定することは、非常に困難な問題である。特に、可能な全ての予測の組合せを利用可能な参照を用いて調査する、すなわち、ある参照中の可能な各動きベクトルについて、その他の全ての動きベクトルと残りの参照中のそれらの組合せとを調査すれば、最適な解を見つけることができるが、これは明らかに計算上不可能である。
本発明は、組合せ参照双方向予測を用いて動き推定を行う方法および装置に関し、従来技術の上記およびその他の欠点および不利に対処するものである。
本発明の一態様によれば、装置が提供される。この装置は、2つ以上の参照ピクチャの組合せから、前記2つ以上の参照ピクチャのうち特定の1つの動きベクトルを動き推定プロセスで予測し、前記2つ以上の参照ピクチャの残りの参照ピクチャの動きベクトルを前記動き推定プロセスで使用する所定値に初期化することによって、マルチ予測(multi−prediction)ピクチャを符号化するエンコーダを備える。
本発明の別の態様によれば、方法が提供される。この方法は、2つ以上の参照ピクチャの組合せから、前記2つ以上の参照ピクチャのうち特定の1つの動きベクトルを動き推定プロセスで予測し、前記2つ以上の参照ピクチャの残りの参照ピクチャの動きベクトルを前記動き推定プロセスで使用する所定値に初期化することによって、マルチ予測ピクチャを符号化するステップを含む。
本発明の上記その他の態様、特徴、および利点は、以下の例示的な実施形態の詳細な説明を添付の図面と関連づけて読めば明らかになるであろう。
本発明は、後記の例示的な図面によってよりよく理解することができる。
本発明は、組合せ参照双方向予測を用いて動き推定を行う方法および装置に関する。
本明細書では、本発明の原理について説明する。従って、本明細書に明示的に記述または図示してはいないが本発明の原理を実施し、本発明の趣旨および範囲内に含まれる様々な構成を、当業者なら考案することができることを理解されたい。
本明細書に記載する全ての実施例および条件に関する表現は、本発明の原理と発明者(等)による技術の進歩の助けとなる概念とを読者が理解するのを助けるための教育的な目的を有するものであり、これら具体的に列挙した実施例および条件に限定されないものと解釈されたい。
さらに、本発明の原理、態様および実施形態ならびに本発明の具体的な実施例について本明細書で述べる全ての記述は、その構造的均等物および機能的均等物の両方を含むものとする。さらに、これらの均等物には、現在既知の均等物と将来開発されるであろう均等物の両方が含まれる、すなわち、その構造にかかわらず同じ機能を実行する、将来開発される任意の要素が含まれるものとする。
従って、例えば、当業者なら、本明細書に示すブロック図が本発明の原理を実施する例示的な回路の概念図を表していることを理解するであろう。同様に、任意のフロー・チャート、流れ図、状態遷移図、擬似コードなどが、コンピュータ可読媒体中に実質的に表現され、明示される場合もされない場合もあるコンピュータまたはプロセッサによって実行される様々なプロセスを表していることも理解されたい。
図面に示す様々な要素の機能は、専用のハードウェア、および適当なソフトウェアと連動してソフトウェアを実行することができるハードウェアを使用して実現することができる。プロセッサによって実現するときには、これらの機能は単一の専用プロセッサで実現することも、単一の共用プロセッサで実現することも、あるいはその一部を共用することもできる複数の個別プロセッサで実現することもできる。さらに、「プロセッサ」または「制御装置」という用語を明示的に用いていても、ソフトウェアを実行することができるハードウェアのみを指していると解釈すべきではなく、ディジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを記憶するための読取り専用メモリ(ROM)、ランダム・アクセス・メモリ(RAM)および不揮発性記憶装置(ただしこれらに限定されない)を暗に含むことがある。
従来の、且つ/または特注のその他ハードウェアも含まれることがある。同様に、図面に示す任意のスイッチも、概念的なものに過ぎない。スイッチの機能は、プログラム論理の動作によっても、専用論理によっても、プログラム制御と専用論理の相互作用によっても、あるいは手作業でも実施することができ、インプリメンタ(implementer)が前後関係から個々に判断して特定の技術を選択することができる。
本明細書の特許請求の範囲において、特定の機能を実行する手段として表現されている任意の要素は、例えば、(a)当該機能を実行する回路素子の組合せや、(b)ファームウェアやマイクロコードなども含めた任意の形態のソフトウェアを、当該ソフトウェアを実行して当該機能を実行する適当な回路と組み合わせたものも含めて、当該機能を実行する任意の方法を含むものとする。特許請求の範囲によって定義される本発明は、列挙する様々な手段が実施する機能を、特許請求の範囲が要求するかたちで組み合わせることにある。従って、これらの機能を実施することができる任意の手段を、本明細書に示す手段の均等物とするものとする。
本明細書において、本発明の「一実施形態」または「実施形態」と述べていれば、それは、当該実施形態と関連づけて述べられる特定のフィーチャ、構造、特徴などが、本発明の少なくとも1つの実施形態には含まれているということを意味する。従って、本明細書の様々な箇所で「1実施形態では」または「実施形態では」という表現が出てきても、必ずしもそれら全てが同じ実施形態のことを言っているわけではない。
本明細書に与える擬似コードはあくまでも例示を目的としたものであり、従って、本明細書に記載の本発明の教示があれば、当業者なら、本発明の範囲を維持しながら、それに続く擬似コード・シーケンスならびにその変形を思いつくことができることを理解されたい。
図2を参照すると、減算を考慮した双方向予測を用いる例示的なビデオ・エンコーダの全体を、参照番号200で示す。
コンバイナ205の非反転入力部、モード決定(MD)/動き補償(MC)275の第1の入力部、動き推定器(ME)265の第1の入力部、動き推定器(ME)270の第1の入力部、コンバイナ286の非反転入力部、およびコンバイナ288の非反転入力部は、ビデオ・エンコーダの入力部として使用することができる。コンバイナ205の出力部は、変換器210の入力部に信号線で接続される。変換器210の出力部は、量子化器215の入力部に信号線で接続される。量子化器215の出力部は、可変長符号化器(VLC)220の入力部に信号線で接続される。VLC220の出力部は、ビデオ・エンコーダ200の出力部として使用することができる。
量子化器215の出力部は、逆量子化器225の入力部にも信号線で接続される。逆量子化器225の出力部は、逆変換器230の入力部に信号線で接続される。逆変換器230の出力部は、コンバイナ280の第1の非反転入力部に信号線で接続される。コンバイナ280の出力部は、ループ・フィルタ235の入力部に信号線で接続される。ループ・フィルタ235の出力部は、ピクチャ参照ストア240の入力部に信号線で接続される。ピクチャ参照ストア240の出力部は、リスト0参照バッファ245の入力部およびリスト1参照バッファ250の入力部に信号線で接続される。リスト0参照バッファ245の第1の出力部は、乗算器255の第1の入力部に信号線で接続される。リスト1参照バッファ250の第1の出力部は、乗算器260の第1の入力部に信号線で接続される。リスト0参照バッファ245の第2の出力部およびリスト1参照バッファ250の第2の出力部は、MD/MC275の第2の入力部に信号線で接続される。乗算器255の出力部は、動き推定器265の第2の入力部に信号線で接続される。乗算器260の出力部は、動き推定器270の第2の入力部に信号線で接続される。MD/MC275の第1の出力部は、コンバイナ205の反転入力部に信号線で接続される。MD/MC275の第2の出力部は、コンバイナ280の第2の非反転入力部に信号線で接続される。
乗算器255の出力部は、動き推定器284の第1の入力部およびコンバイナ286の反転入力部にも信号線で接続される。乗算器260の出力部は、コンバイナ288の反転入力部および動き推定器282の第1の入力部にも信号線で接続される。コンバイナ288の出力部は、動き推定器284の第2の入力部に信号線で接続される。コンバイナ286の出力部は、動き推定器282の第2の入力部に信号線で接続される。動き推定器284の出力部は、MD/MC275の第3の入力部に信号線で接続される。動き推定器282の出力部は、MD/MC275の第4の入力部に信号線で接続される。
本発明では、ビデオ符号化アーキテクチャにおいて双方向予測ピクチャまたはスライスの符号化性能を著しく改善することができる方法および装置について述べる。主としてMPEG−4 AVC標準に関連して本発明について述べるが、本発明は、この標準のみに限定されるわけではなく、本発明の範囲を維持しながらその他のビデオ符号化標準および勧告と関連して使用することもできることを理解されたい。
本発明の一つの実施形態では、基本的には2つのその他の参照の線形組合せである動き推定プロセスにおいて、追加の参照ピクチャを考慮する。この新しい参照により、双方向予測がより正確に考慮され、符号化効率が向上することになるので、双方向予測(B)ピクチャ(組合せ参照双方向予測)内の予測参照をさらに改良することができる。本発明の一つの実施形態では、この方法を、複合仮説予測に拡張する。この実施形態では、品質に有意な悪影響を及ぼすことなく複合仮説動き推定の複雑さが軽減されるので有利である。
上述した第1の従来技術の手法では、複合仮説動き補償のための動き推定を、反復の度にその他全ての参照リストまたは仮説の以前の推定動きベクトルを考慮しながら特定の参照または仮説の動きベクトルを改良する反復的方法を用いて実行する。また、初期推定として、一方向予測の動きベクトル(MV)を使用できることも示唆されている。
本発明の一つの実施形態では、特定の参照の動きベクトルを推定する異なる方法を使用することが提案される。この方法は、反復的方法に基づいてはいるものの、各参照の動きベクトルをより良好に推定することができる。その上、この方法は、条件またはアーキテクチャによっては、はるかに容易に実行できる可能性もある。
一つの実施形態は、隣り合うピクチャは、フェードおよびクロスフェードの間でも高い割合で静止領域を含む傾向があるという仮定に基づいている。上述した第1の従来技術の手法では、反復のシーケンスを実行して、その他全ての既に推定された参照の以前に計算された動きベクトルに基づいて特定の参照の動きベクトルを推定したが、実施形態では、これとは異なり、その他全ての参照が静止していると仮定して各参照の動きベクトルを予測することが第1に考慮される(図2参照)。このようにすることで、静止領域を非静止領域からより良好に分離することができ、それにより、第1の従来技術の手法のように動き推定の精度または反復方式の収束性を改善することができる。より詳細には、この解決策は、いくつかの代替の可能性をもたらす。
実施形態では、本発明による、組合せ参照双方向予測を用いる動き推定を行う第1の手法は、残りの仮説を最適化する並列反復を実行することを含む。並列化は、異なる参照指標の動き推定の実行を、その他の参照指標の動きベクトルが0であると仮定して開始することによって実現される。この概念は、あらゆるブロックに対して使用することができる以下の擬似コードを検討し、N個の仮説を有すると仮定することによって説明することができる。以下の擬似コードにおいて、xは、指標iの参照ピクチャを示し、wは、指標iの参照ピクチャに関連する重み付け予測用の重みを示し、mvj、k、iは、MEを参照指標iから開始した場合の指標jの参照について計算した動きベクトルを示し、k={0、1}は、反復プロセス中に動きベクトルの任意の変化が起きたか否か、およびアルゴリズムを終了する必要があるか否かを検証するために使用される。特に、N=2である場合には、以下のようになる。
for(i=0;i<2;i++)

mv0,0,i=mv0,1,i=mv1,0,i=mv1,1,i=(0,0);
//!perform ME starting using reference index i
reference=w*x
if(i==0)j=1;
else j=0;
source=z−w*x
//!Perform ME using reference to refine motion vectors mvi,0
//!using distortion SAD=|source−reference(mvm,0,i)|.
Motion_Estimation(source,reference,mvi,0,i,minSAD
do

for(m=0;m<2;m++)

reference=w*x
source=z;

if(m==0)j=1;
else j=0;
source=z−w*x(mvj,0,i);

//!Perform ME using reference to refine mvm,0,i
//!using distortion SAD=|source−reference(mvm,0,i)|.
Motion_Estimation(source,reference,mvm,0,i,minSAD);

for(j=0;j<2;j++)

if(mvj,0,i!=mvj,1,i

iterate=1;
mvj,1,i=mvj,0,i
break;}
else iterate=0;
};

while(iterate==1)
上記の擬似コードは、異なるそれぞれの仮説ごとに、2組の動きベクトルの組合せを生じる可能性がある。歪みが最小となる1つを使用することで、最良の組合せを選択することができる。すなわち、以下のようになる。
if(minSAD<minSAD

best_mv={mv0,0,0,mv1,0,0
minSAD=minSAD

else

best_mv={mv0,0,1,mv1,0,1
minSAD=minSAD
仮説がN個の場合のより一般的なアルゴリズムは、以下のようになる。
for(i=0;i<N;i++)

reference=w*x
source=z;
for(j=0;j<N;j++)

mvj,0,i=mvj,1,i=(0,0);
if(j!=i)source=source−w*x(mvj,0,i);
};
//!Perform ME using reference to refine motion vectors mvi,0,i
//!using distortion SAD=|source−reference(mvm,0,i)|.
Motion_Estimation(source,reference,mvi,0,i,minSAD

do

for(m=0;m<N;m++)

reference=w*x
source=z;
for(j=0;j<N;j++)

if(j!=m)source=source−w*x(mvj,0,i);
};
//!Perform ME using reference to refine mvm,0
//!using distortion SAD=|source−reference(mvm,0,i)|.
Motion_Estimation(source,reference,mvm,0,i,minSAD

for(j=0;j<N;j++)

if(mvj,0,i!=mvj,1,i

iterate=1;
mvj,1,i=mvj,0,i
break;

else iterate=0;
};

while(iterate==1)
この場合には、異なるそれぞれの仮説ごとに最大でN組までの動きベクトルの組合せを有することができる。以下の方法を用いて、最良の組合せを選択することができる。
minSAD=minSAD
best_mv={mv0,0,0,mv1,0,0,…,mvm,0,0,…,mvN−1,0,0
for(i=1;i<N−1;i++)

if(minSAD<minSAD)

minSAD=minSAD
best_mv={mv0,0,i,mv1,0,i,…,mvm,0,i,…,mvN−1,0,i

この決定は、(所与のラグランジュ・パラメータで動きベクトルを符号化するのに必要な実際のビットと組み合わせた二乗誤差の和(SSE)を歪みメトリックとして用いて)モード決定プロセス内で行うこともできるが、各組の動きベクトルの組合せ、またはその他の予測子の組合せ、あるいは空間的/時間的ダイレクト動きベクトル、一方向動きベクトル、ゼロ動きベクトル、一時コロケート(temporarily collocated)動きベクトルなどモード決定においてさらなる仮説を生じる可能性がある以前に推定された動きベクトルの組合せも可能である。また、実施態様によっては、反復の最大数、または実行される並列改良の回数も予測することができ、それにより所与のシステムの複雑さが低減されることもあることにも留意されたい。
一つの実施形態において、組合せ参照双方向予測を用いて動き推定を行う本発明による第2の手法について述べる。本発明による第1の手法で述べたように考えられる全ての反復を実行することは依然としてかなり複雑であることを理解されたい。本発明による第2の手法では、各仮説の第1のステップのみを実行し、その後、最良の1つのみに基づいて(最小歪み基準に基づいて)反復改良を実行する。これにより、同様の性能を達成しながら、複雑さを大幅に低減することができる。この第2の手法の擬似コードは、以下の通りである。
for(i=0;i<N;i++)

reference=w*x
source=z;
for(j=0;j<N;j++)

mvj,0,i=mvj,1,i=(0,0);
if(j!=i)source=source−w*x(mvj,0,i);
};
//!Perform ME using reference to refine motion vectors mvi,0
//!using distortion SAD=|source−reference(mvm,0,i)|.
Motion_Estimation(source,reference,mvi,0,i,minSAD

minSAD=minSAD
best_mv={mv0,0,0,0,0,…};
best_ref=0;
for(i=1;i<N−1;i++)

if(minSAD<minSAD)

minSAD=minSAD
best_mv={0,0,…,mvi,0,i,…,0,0};
best_ref=i;


do

for(m=0;m<N;m++)

reference=w*x
source=z;
for(j=0;j<N;j++)

if(j!=m)source=source−w*x(mvj,0,best_ref);
};
//!Perform ME using reference to refine motion vectors mvi,0
//!using distortion SAD=|source−reference(mvm,0,i)|.
Motion_Estimation(source,reference,mvm,0,best_ref,minSADbest_ref

for(j=0;j<N;j++)

if(mvj,0,best_ref!=mvj,1,best_ref

iterate=1;
mvj,1,best_ref=mvj,0,best_ref
break;

else iterate=0;
};

while(iterate==1)

minSAD=minSADbest_ref
best_mv={mv0,0,best_ref,mv1,0,best_ref,…,mvm,0,best_ref,…,mvN−1,0,best_ref
初期参照選択は、参照がソース画像とどの程度同じであるか(より厳密には、同じでないか)に基づいて行うこともできる。例えば、最初にその他の全ては静止状態であるとみなして、ソースと比較した歪みが最大の参照の改良を開始することができ、反復ステップは、本発明による第1の手法で前述したのと同様に実行する。
一つの実施形態において、組合せ参照双方向予測を用いて動き推定を行う本発明による第3の手法について述べる。本発明による上記2つの手法における例示的なアルゴリズムの最初のステップにゼロ動きベクトルが考慮されていることに留意されたい。ただし、以前に生成した動きベクトル(例えば1つまたは任意数M個の仮説)を代替の解決策と見なし、最良の1つを改良プロセスのために選択することもできる。これは、時間的/空間的ダイレクト動きベクトル、一方向動きベクトル、ゼロ動きベクトル、一時コロケート動きベクトルなど、これらの予測子のうちどの1つが、追加の動き推定/補償ステップを実行せずに初期参照に対する歪みが最小のソース画像をもたらすかを調べることによって行うことができる。その後、この予測子を、それ以前の全てのステップのゼロ予測子の代わりに、その他の全ての動きベクトルの改良に使用する。
一つの実施形態において、組合せ参照双方向予測を用いて動き推定を行う本発明による第4の手法について述べる。第4の手法は、より簡潔ではあるが、上記の方法に比べると多少効率が低下する可能性がある手法であり、全ての仮説が同じ動きを有する(すなわち全ての参照が同じ動きベクトルと関連づけられる)と見なし、それらの予測をまとめてソース画像と比較して改良するものである。これは、以下のように行うことができる。
reference=[];
source=z;
for(j=0;j<N;j++)

mvj,0,i=mvj,1,i=(0,0);
reference=reference+w*x(mvj,0,i);
};
//!Perform ME using reference to refine motion vectors mvi,0
//!using distortion SAD=|source−reference(mv)|.
Motion_Estimation(source,reference,mv,minSAD)

best_mv={mv,mv,…,mv};
本発明者は、上述の例示的なアルゴリズムが、N個の参照を使用する場合に最良である可能性のある組合せ動きベクトルを推定することを指摘する。しかしながら、エンコーダは、所与のマクロブロックに対して参照の数を選択することもできる。これは、それによって、予測がより良好に行われる、またはオーバヘッドが低減されることにより、性能が向上する可能性があるからである。このプロセスは考えられる全ての参照の組合せに対して繰り返すことができるが、最終的には、所与の基準を用いて、最高の性能をもたらす参照の組合せを選択することができるのは明らかである。特に、可能な参照/仮説の数が2である場合には、上記に基づき、以下の3つのケースを考慮することができる。
本発明による第4の手法に関する第1のケースに関しては、各参照(xまたはy)を別個にソース・ピクチャzと比較して静止状態であるとみなし(反復なしのケース1)、以下のように重み推定プロセスで得られた適当な重み(それぞれaおよびb)を考慮しながら、以下の歪みメトリックを使用して他方の参照の動きを計算する。
Figure 2009525683
モード決定中に、一方向予測、一方向予測MEを用いて計算したmvおよびmvを用いる双方向予測モード、ダイレクト・モード、mvおよび(0、0)を用いる双方向予測モード、(0、0)およびmvを用いる双方向予測モード、ならびにmvおよびmvを用いる双方向予測モードをといったモード/動きベクトルを考慮することができ、さらに任意選択で、mvおよびmv、またはmvおよびmv、あるいはダイレクト動きベクトルとの組合せを用いる双方向予測モードも考慮することができる。
本発明による第4の手法に関する第2のケースに関しては、ただ1つの参照をソース・ピクチャと比較して静止状態であるとみなし、以下のように重み推定プロセスで得られた適当な重みを考慮しながら、以下の歪みメトリックを使用して他方の参照の動きを計算する(反復なしの制約ケース1)。
Figure 2009525683
モード決定中に、一方向予測、一方向予測MEを用いて計算したmvおよびmvを用いる双方向予測モード、ダイレクト・モード、ならびにmvおよび(0、0)を用いる双方向予測モードといったケースを考慮することができ、さらに任意選択で(推奨される)、mvおよびmv、またはダイレクト動きベクトルとの組合せを用いる双方向予測モードのケースも考慮することができる。
この方法では、2つの参照のうちどちらを静止状態とするかを選択する必要もある。例えば、(a)リスト0またはリスト1の参照を選択する、(b)時間的に最も近いものを選択する、(c)ソース・ピクチャと見た目が最も近いものを選択するなど、いくつかの選択肢がある。組合せメトリックを考慮することもできるが、ピクチャ/スライス・レベル(1スライス内の全てのブロックを同じ方法を用いて推定する)、またはマクロブロック/ブロック・レベル(参照決定を各ブロックごとに行う)の何れかでこのプロセスを行うこともできる。
本発明による第4の手法に関する第3のケースに関しては、両画像を、それらの間の動きがゼロであると仮定して結合する。次いで、このピクチャを新たな参照として用いて、以下のように動き推定を実行する。
Figure 2009525683
モード決定中に、一方向予測、一方向予測MEを用いて計算したmvおよびmvを用いる双方向予測モード、ダイレクト・モード、ならびに両参照のmvを用いる双方向予測モードといったケースを考慮することができ、さらに任意選択で(推奨される)、mvおよびmv、mvおよびmv、またはダイレクト動きベクトルとの組合せを用いる双方向予測モードのケースも考慮することができる。
図3を参照すると、双方向予測を用いてマクロブロックを符号化する例示的な方法の全体を、参照番号300で示してある。方法300は、制御を機能ブロック350およびループ端ブロック310に渡す初期化ブロック305を含む。
機能ブロック350では、イントラ・モード決定を実行し、歪み測度を記録し、制御を機能ブロック330に渡す。
ループ端ブロック310では、インター・モード全体にわたるループを開始し、制御を機能ブロック315に渡す。機能ブロック315では、全ての仮説を複合的に考慮することによって動き推定を実行し、制御を機能ブロック320に渡す。機能ブロック320では、モード決定を実行し、歪み測度を記録し、ループを終了するループ端ブロック325に制御を渡し、制御を機能ブロック330に渡す。
機能ブロック330では、歪み測度が最低となるモードに符号化モードを設定し、制御を機能ブロック335に渡す。機能ブロック335では、現在のマクロブロックを符号化し、制御を終了ブロック399に渡す。
図4を参照すると、並列反復を実行して残りの仮説を最適化する、組合せ参照双方向予測を用いて動き推定を行う例示的な方法の全体を、参照番号400で示してある。
方法400は、制御を機能ブロック410、機能ブロック415および機能ブロック420に渡す開始ブロック405を含む。
機能ブロック410では、その他の参照指標についての動きベクトルが0または何らかの予め規定された値であると仮定して、参照指標0についての動き推定の実行を開始し、制御を機能ブロック425に渡す。機能ブロック425では、全ての参照について動きベクトルを反復的に改良し、動きベクトルを{mv0、0、0、mv1、0、0、…mvm、0、0、…mvN−1、0、0}として、また歪みをminSADとして保存し、制御を機能ブロック445に渡す。
機能ブロック415では、その他の参照指標についての動きベクトルが0または何らかの予め規定された値であると仮定して、参照指標mについての動き推定の実行を開始し、制御を機能ブロック430に渡す。機能ブロック430では、全ての参照について動きベクトルを反復的に改良し、動きベクトルを{mv0、0、m、mv1、0、m、…mvm、0、m、…mvN−1、0、m}として、また歪みをminSADとして保存し、制御を機能ブロック445に渡す。
機能ブロック420では、その他の参照指標についての動きベクトルが0または何らかの予め規定された値であると仮定して、参照指標N−1についての動き推定の実行を開始し、制御を機能ブロック440に渡す。機能ブロック440では、全ての参照について動きベクトルを反復的に改良し、動きベクトルを{mv0、0、N−1、mv1、0、N−1、…mvm、0、N−1、…mvN−1、0、N−1}として、また歪みをminSADN−1として保存し、制御を機能ブロック445に渡す。
機能ブロック445では、minSAD値が最小となる最良の動きベクトルの組合せを選択し、制御を終了ブロック499に渡す。
図5を参照すると、動きベクトルを最良の参照に基づいて反復的に改良する組合せ参照双方向予測を用いて動き推定を行う例示的な方法の全体を、参照番号500で示してある。
方法500は、制御を機能ブロック510、機能ブロック515および機能ブロック520に渡す開始ブロック505を含む。
機能ブロック510では、その他の参照指標についての動きベクトルが0または何らかの予め規定された値であると仮定して、参照指標0についての動き推定の実行を開始し、制御を機能ブロック525に渡す。
機能ブロック515では、その他の参照指標についての動きベクトルが0または何らかの予め規定された値であると仮定して、参照指標mについての動き推定の実行を開始し、制御を機能ブロック525に渡す。
機能ブロック520では、その他の参照指標についての動きベクトルが0または何らかの予め規定された値であると仮定して、参照指標N−1についての動き推定の実行を開始し、制御を機能ブロック525に渡す。
機能ブロック525では、minSAD値が最小となる最良の参照(best_ref)を選択し、制御を機能ブロック530に渡す。機能ブロック530では、全ての参照について動きベクトルを反復的に改良し、動きベクトルを{mv0、0、best_ref、mv1、0、best_ref、…mvm、0、best_ref、…mvN−1、0、best_ref}として保存し、制御を終了ブロック599に渡す。
図6を参照すると、全ての仮説が同じ動きベクトルを有するものとする動き推定を行う例示的な方法の全体を、参照番号600で示してある。
方法600は、制御を機能ブロック610に渡す開始ブロック605を含む。機能ブロック610では、全ての参照ピクチャを加算して単一の参照ピクチャを形成し、制御を機能ブロック615に渡す。機能ブロック615では、この新たに形成された参照ピクチャに基づいて動き推定を実行し、制御を機能ブロック620に渡す。機能ブロック620では、新たに形成された参照ピクチャについて得られた動きベクトルを、全ての参照ピクチャの動きベクトルとして設定し、制御を終了ブロック699に渡す。
図7を参照すると、各参照(xまたはy)を別個にソース・ピクチャxと比較して静止状態であるとする、組合せ参照双方向予測を用いて動き推定を行う例示的な方法の全体を、参照番号700で示してある。
方法700は、制御を機能ブロック710に渡す開始ブロック705を含む。機能ブロック710では、参照xについての動き推定(動きベクトルmvを生成する)を実行し、制御を機能ブロック715に渡す。機能ブロック715では、参照yについての動き推定(動きベクトルmvを生成する)を実行し、制御を機能ブロック720に渡す。機能ブロック720では、SAD=|(z−by)−ax(mv)|を用いて動き推定(動きベクトルmvを生成する)を実行し、制御を機能ブロック725に渡す。機能ブロック725では、SAD=|(z−ax)−by(mv)|を用いて動き推定(mv)を実行し、制御を機能ブロック730に渡す。機能ブロック730では、モード決定を実行し、制御を機能ブロック735に渡す。機能ブロック730で実行されるモード決定に関して、このモード決定は、例えば、一方向予測、mvおよびmvを用いる双方向予測モード、ダイレクト・モード、mvおよび(0、0)を用いる双方向予測モード、(0、0)およびmvを用いる双方向予測モード、ならびにmvおよびmvを用いる双方向予測モードを考慮して、また任意選択で、mvおよびmv、またはmvおよびmv、あるいはダイレクト動きベクトルとの組合せを用いる双方向予測モードも考慮して、行うことができる。上記の考慮対象は例示的なものであり、従って、本明細書に与える本発明の教示があれば、本発明の範囲を維持しながら、機能ブロック730で行うモード決定において上記およびその他の考慮対象を利用することもできる。
機能ブロック735では、歪み測度が最小となるモードを選択し、制御を終了ブロック799に渡す。
図8を参照すると、1つの参照のみをソース・ピクチャと比較して静止状態であるとする組合せ参照双方向予測を用いて動き推定を実行する例示的な方法の全体を、参照番号800で示してある。方法800は、制御を機能ブロック810に渡す開始ブロック805を含む。機能ブロック810では、参照xについての動き推定(動きベクトルmvを生成する)を実行し、制御を機能ブロック815に渡す。機能ブロック815では、参照yについての動き推定(動きベクトルmvを生成する)を実行し、制御を機能ブロック820に渡す。機能ブロック820では、SAD=|(z−by)−ax(mv)|を用いて動き推定(動きベクトルmvを生成する)を実行し、制御を機能ブロック825に渡す。機能ブロック825では、モード決定を実行し、制御を機能ブロック830に渡す。機能ブロック825で実行されるモード決定に関して、このモード決定は、例えば、一方向予測、mvおよびmvを用いる双方向予測モード、ダイレクト・モード、ならびにmvおよび(0、0)を用いる双方向予測モードを考慮して、また任意選択で、mvおよびmv、またはダイレクト動きベクトルとの組合せを用いる双方向予測モードも考慮して、行うことができる。上記の考慮対象は例示的なものであり、従って、本明細書に与える本発明の教示があれば、本発明の範囲を維持しながら、機能ブロック825で行うモード決定において上記およびその他の考慮対象を利用することもできる。
機能ブロック830では、歪み測度が最小となるモードを選択し、制御を終了ブロック899に渡す。
図9を参照すると、両参照をその間の動きがゼロであると仮定して組み合わせる組合せ参照双方向予測を用いて動き推定を実行する例示的な方法の全体を、参照番号900で示してある。方法900は、制御を機能ブロック910に渡す開始ブロック905を含む。機能ブロック910では、参照xについての動き推定(動きベクトルmvを生成する)を実行し、制御を機能ブロック915に渡す。機能ブロック915では、参照yについての動き推定(動きベクトルmvを生成する)を実行し、制御を機能ブロック920に渡す。機能ブロック920では、SAD=|(z−by(mv))−ax(mv)|を用いて動き推定(動きベクトルmvを生成する)を実行し、制御を機能ブロック925に渡す。機能ブロック925では、モード決定を実行し、制御を機能ブロック930に渡す。機能ブロック925で実行されるモード決定に関して、このモード決定は、例えば、一方向予測、mvおよびmvを用いる双方向予測モード、ダイレクト・モード、ならびに両refについてのmvを用いる双方向予測モードを考慮して、また任意選択で、mvおよびmv、mvおよびmv、またはダイレクト動きベクトルとの組合せを用いる双方向予測モードも考慮して、行うことができる。上記の考慮対象は例示的なものであり、従って、本明細書に与える本発明の教示があれば、本発明の範囲を維持しながら、機能ブロック925で行うモード決定において上記およびその他の考慮対象を利用することもできる。
機能ブロック930では、歪み測度が最小となるモードを選択し、制御を終了ブロック999に渡す。
以下、その一部は既に上述したが、本発明の多くの付加的な利点/特徴のいくつかについて説明する。例えば、1つの利点/特徴は、2つ以上の参照ピクチャの組合せから、前記2つ以上の参照ピクチャのうち特定の1つの参照ピクチャの動きベクトルを動き推定プロセスで予測し、前記2つ以上の参照ピクチャの残りの参照ピクチャの動きベクトルを前記動き推定プロセスで使用する所定値に初期化することによって、マルチ予測ピクチャを符号化するエンコーダを含む装置である。
別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、前記2つ以上の参照ピクチャの前記残りの参照ピクチャが静止状態であるとすることによって前記2つ以上の参照の前記特定の1つの参照ピクチャの動きベクトルを予測する、装置である。
さらに別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、複数の反復的プロセスの第1のプロセスの並列部分において前記2つ以上の参照のそれぞれの動きベクトルを予測し、前記複数の反復的プロセスの後続のプロセスにおいて前記動きベクトルを改良する、装置である。さらに別の利点/特徴は、上述した、複数の反復的プロセスの第1のプロセスの並列部分において前記2つ以上の参照のそれぞれの動きベクトルを予測し、前記複数の反復的プロセスの後続のプロセスにおいて前記動きベクトルを改良するエンコーダを有する装置であって、前記エンコーダが、歪み測度に基づいて、前記複数の反復的プロセスで得られた最良の動きベクトルの組合せを選択する、装置である。
さらに、別の利点/特徴は、上述したエンコーダを有する装置であって、前記2つ以上の参照ピクチャの前記残りの参照ピクチャのうち少なくとも1つの参照ピクチャの動きベクトルの少なくとも1つが、前記2つ以上の参照ピクチャの前記残りの参照ピクチャのうちの前記少なくとも1つの参照ピクチャの以前に計算した動きベクトルに基づいて前記所定値に初期化される、装置である。さらに、別の利点/特徴は、上述した、前記2つ以上の参照ピクチャの前記残りの参照ピクチャのうち少なくとも1つの参照ピクチャの動きベクトルの少なくとも1つが、前記2つ以上の参照ピクチャの前記残りの参照ピクチャのうちの前記少なくとも1つの参照ピクチャの以前に計算した動きベクトルに基づいて初期化される、エンコーダを有する装置であって、前記以前に計算した動きベクトルが、少なくとも1つのダイレクト動きベクトルと、前記2つ以上の参照ピクチャより少ない数の参照ピクチャの組合せから以前に計算した動きベクトルとを含み、前記少なくとも1つのダイレクト動きベクトルが、少なくとも1つの時間的ダイレクト動きベクトルおよび少なくとも1つの空間的ダイレクト動きベクトルの少なくとも1つを含む、装置である。また、別の利点/特徴は、上述した、前記2つ以上の参照ピクチャの前記残りの参照ピクチャのうち少なくとも1つの参照ピクチャの動きベクトルの少なくとも1つが、前記2つ以上の参照ピクチャの前記残りの参照ピクチャのうちの前記少なくとも1つの参照ピクチャの以前に計算した動きベクトルに基づいて初期化される、エンコーダを有する装置であって、前記エンコーダが、反復的プロセスを使用して前記2つ以上の参照ピクチャの動きベクトルを予測し、相関メトリックに基づいて、前記所定値に初期化された動きベクトルの前記少なくとも1つおよび前記以前に計算した動きベクトルの中から、前記反復的プロセスで最初に使用する動きベクトルを決定する、装置である。
さらに、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、反復的プロセスを用いて前記2つ以上の参照ピクチャの動きベクトルを予測する装置である。さらに、別の利点/特徴は、上述した前記エンコーダが反復的プロセスを用いて前記2つ以上の参照ピクチャの動きベクトルを予測する装置であって、前記エンコーダが、前記反復的プロセスで実行される反復の最大数を制約する装置である。さらに、別の利点/特徴は、上述した前記エンコーダが反復的プロセスを用いて前記2つ以上の参照ピクチャの動きベクトルを予測する装置であって、前記エンコーダが、前記反復的プロセスで並列に試験される前記2つ以上の参照ピクチャの最大数を制約する、装置である。
また、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、以前の重み推定プロセスで得られた前記2つ以上の参照ピクチャに使用された重みに基づいて、前記2つ以上の参照ピクチャの動きベクトルを推定する、装置である。
さらに、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、複数の反復的プロセスを並列に用いて前記2つ以上の参照ピクチャの動きベクトルを推定し、前記複数の反復的プロセスが、前記2つ以上の参照ピクチャの異なる参照ピクチャにそれぞれ対応する異なる初期化点を有する、装置である。さらに、別の利点/特徴は、上述した複数の反復的プロセスを実行するエンコーダを有する装置であって、前記エンコーダが、前記複数の反復的プロセスの第1のプロセスを実行して、前記2つ以上の参照ピクチャのそれぞれの動きベクトルの初期値を得、最低の歪み測度に基づいて前記2つ以上の参照のうちの最良の初期参照を選択し、前記複数の反復的プロセスの後続のプロセスを実行して、前記2つ以上の参照の前記最良の初期参照に対して得られた初期値を改良する、装置である。
さらに、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、前記2つ以上の参照ピクチャの動きベクトルが同じであることに基づいて前記マルチ予測ピクチャの動き情報を予測し、前記マルチ予測ピクチャと比較した動きベクトルを複合的に改良する、装置である。
また、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、前記2つ以上の参照ピクチャを組み合わせて組合せ参照ピクチャを形成し、前記2つ以上の参照ピクチャ間でゼロ動きを用いることによって、前記マルチ予測ピクチャの動きベクトル情報を推定する、装置である。
さらに、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、前記2つ以上の参照ピクチャの残りの参照ピクチャを前記マルチ予測ピクチャと比較して静止状態であると別個にすることによって、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを予測する、装置である。さらに、別の利点/特徴は、上述した、前記2つ以上の参照ピクチャの残りの参照ピクチャを前記マルチ予測ピクチャと比較して静止状態であると別個にすることによって、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを予測するエンコーダを有する装置であって、前記エンコーダが、前記2つ以上の参照ピクチャのそれぞれの前記動きベクトルを、それぞれに対する重みを選択することによって予測する、装置である。
さらに、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、前記マルチ予測ピクチャのモード決定を実行して、一方向予測モード、ダイレクト予測モード、一方向予測を用いてそれぞれ計算した前記2つ以上の参照ピクチャの動きベクトルを使用する双方向予測モード、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの改良された動きベクトルおよび静止動きベクトルを用いる少なくとも1つの双方向予測モード、ならびに前記2つ以上の参照ピクチャのそれぞれの改良された動きベクトルを用いる双方向予測モードの中から歪み測度が最小となるモードを選択し、前記2つ以上の参照ピクチャのそれぞれの動きベクトルが、前記2つ以上の参照ピクチャの残りの参照ピクチャの動きベクトルを静止状態であると別個にすることに基づいて計算される、装置である。さらに、別の利点/特徴は、上述したモード決定を実行するエンコーダを有する装置であって、前記エンコーダが、さらに、歪み測度が最小となる前記モードを、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの動きベクトルおよび前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの改良された動きベクトル、ならびに少なくとも1つのダイレクト動きベクトルを含む少なくとも1つの組合せを用いる少なくとも1つの双方向予測モードの中から選択する、装置である。
また、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、前記2つ以上の参照ピクチャのただ1つの参照ピクチャだけを前記マルチ予測ピクチャと比較して静止状態であるとすることによって、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを予測する、装置である。さらに、別の利点/特徴は、上述した、前記2つ以上の参照ピクチャのただ1つの参照ピクチャだけを前記マルチ予測ピクチャと比較して静止状態であるとすることによって、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを予測するエンコーダを有する装置であって、前記エンコーダが、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを、それぞれに対する重みを選択することによって予測する、装置である。さらに、別の利点/特徴は、上述した、前記2つ以上の参照ピクチャのただ1つの参照ピクチャだけを前記マルチ予測ピクチャと比較して静止状態であるとすることによって、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを予測するエンコーダを有する装置であって、前記2つ以上の参照ピクチャの前記ただ1つの参照ピクチャが、前記2つ以上の参照ピクチャの前記ただ1つの参照ピクチャが対応する特定の参照リスト、時間的接近性、前記マルチ予測ピクチャに対する最大類似性の少なくとも1つに基づいて選択される、装置である。
さらに、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、前記マルチ予測ピクチャのモード決定を実行して、一方向予測モード、ダイレクト予測モード、一方向予測を用いてそれぞれ計算した前記2つ以上の参照ピクチャの動きベクトルを使用する双方向予測モード、静止動きベクトルおよび改良された動きベクトルを用いる双方向予測モードの中から歪み測度が最小となるモードを選択し、前記2つ以上の参照ピクチャのただ1つの参照ピクチャの動きベクトルのそれぞれが、静止動きベクトルが前記2つ以上の参照ピクチャの残りの参照ピクチャに使用されることに基づいて計算される、装置である。また、別の利点/特徴は、上述したモード決定を実行するエンコーダを有する装置であって、前記エンコーダが、さらに、歪み測度が最小となる前記モードを、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの動きベクトルの1つおよび前記改良された動きベクトル、ならびに方向動きベクトルと前記歪み測度に従って計算した動きベクトルとの少なくとも1つの組合せを用いる少なくとも1つの双方向予測モードの中から選択する、装置である。
さらに、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、前記2つ以上の参照ピクチャが符号化の対象である前記マルチ予測ピクチャと同じ動きを有することに基づいて、前記2つ以上の参照ピクチャの動きベクトルを複合的に計算する、装置である。さらに、別の利点/特徴は、上述した、前記2つ以上の参照ピクチャの動きベクトルを複合的に計算するエンコーダを有する装置であって、前記エンコーダが、前記2つ以上の参照ピクチャの動きベクトルを、それぞれに対する重みを選択することによって複合的に計算する、装置である。
さらに、別の利点/特徴は、上述したエンコーダを有する装置であって、前記エンコーダが、前記マルチ予測ピクチャのモード決定を実行して、一方向予測モード、ダイレクト予測モード、一方向予測を用いてそれぞれ計算した前記2つ以上の参照ピクチャの動きベクトルを使用する双方向予測モード、前記2つ以上の参照ピクチャのそれぞれの改良された動きベクトルを用いる双方向予測モード、ならびに前記2つ以上の参照ピクチャの動きベクトルを同じであるとすることによって計算した前記2つ以上の参照ピクチャの組合せの動きベクトルを用いる予測モードの中から、歪み測度が最小となるモードを選択する、装置である。さらに、別の利点/特徴は、上述したモード決定を実行するエンコーダを有する装置であって、前記エンコーダが、さらに、歪み測度が最小となる前記モードを、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの動きベクトルの1つおよび前記2つ以上の参照ピクチャの動きベクトルを同じであるとすることによって計算した動きベクトル、ならびにダイレクト動きベクトルと前記2つ以上の参照ピクチャの動きベクトルを同じであるとすることによって計算した動きベクトルとの少なくとも1つの組合せを用いる少なくとも1つの双方向予測モードの中から選択する、装置である。
本発明の以上その他の特徴および利点は、当業者なら本明細書の教示に基づいて容易に確認することができる。本発明の教示は、ハードウェア、ソフトウェア、ファームウェア、特殊目的プロセッサまたはそれらの組合せの様々な形態で実施することができることを理解されたい。
本発明の教示は、ハードウェアとソフトウェアの組合せとして実施されることが最も好ましい。さらに、ソフトウェアは、プログラム記憶装置上で有形に実装されたアプリケーション・プログラムとして実施することができる。アプリケーション・プログラムは、任意の適当なアーキテクチャを有するマシンにアップロードして実行することができる。このマシンは、1つまたは複数の中央処理装置(「CPU」)、ランダム・アクセス・メモリ(「RAM」)および入出力(「I/O」)インタフェースなどのハードウェアを有するコンピュータ・プラットフォームに実装されることが好ましい。コンピュータ・プラットフォームは、オペレーティング・システムおよびマイクロ命令コードを含むこともできる。本明細書に記載の様々なプロセスおよび機能は、CPUが実行することができる、マイクロ命令コードの一部またはアプリケーション・プログラムの一部あるいはそれらの任意の組合せとすることもできる。さらに、追加のデータ記憶装置や印刷装置など、その他の様々な周辺機器をコンピュータ・プラットフォームに接続することもできる。
さらに、添付の図面に示すシステム構成要素および方法の一部はソフトウェアで実施することが好ましいので、システム構成要素間またはプロセス機能ブロック間の実際の接続形態は、本発明を実施する方法によって変わることがあることを理解されたい。本明細書の教示があれば、当業者なら、上記の、またそれに類する本発明の実施態様または構成を思いつくことができるであろう。
本明細書では添付の図面を参照しながら例示的な実施形態について説明したが、本発明はこれらの具体的な実施形態に限定されるものではなく、当業者なら、本発明の趣旨または範囲を逸脱することなく様々な変更および修正を加えることができることを理解されたい。これらの変更および修正は全て、添付の特許請求の範囲に記載する本発明の範囲に含まれるものとする。
従来技術による双方向予測を用いるビデオ・エンコーダを示す図である。 本発明の一実施形態による、減算を考慮した双方向予測を用いる例示的なビデオ・エンコーダを示す図である。 本発明の一実施形態による、双方向予測を用いてマクロブロックを符号化する例示的な方法を示す図である。 本発明の一実施形態による、並列反復を実行して残りの仮説を最適化する、組合せ参照双方向予測を用いて動き推定を行う例示的な方法を示す図である。 本発明の一実施形態による、動きベクトルを最良の参照に基づいて反復的に改良する、組合せ参照双方向予測を用いて動き推定を行う例示的な方法を示す図である。 本発明の一実施形態による、全ての仮説が同じ動きベクトルを有するものとする動き推定を行う例示的な方法を示す図である。 本発明の一実施形態による、各参照(xまたはy)を別個にソース・ピクチャxと比較して静止状態であるとする、組合せ参照双方向予測を用いて動き推定を行う例示的な方法を示す図である。 本発明の一実施形態による、1つの参照だけをソース・ピクチャと比較して静止状態であるとする、組合せ参照双方向予測を用いて動き推定を行う例示的な方法を示す図である。 本発明の一実施形態による、両方の参照を両者の間の動きがゼロであると仮定して組み合わせる、組合せ参照双方向予測を用いて動き推定を行う例示的な方法を示す図である。

Claims (56)

  1. 2つ以上の参照ピクチャの組合せからマルチ予測ピクチャを符号化するエンコーダ(200)を備え、
    前記エンコーダが、前記2つ以上の参照ピクチャのうちの特定の1つの参照ピクチャの動きベクトルを動き推定プロセスで予測し、前記2つ以上の参照ピクチャの残りの参照ピクチャの動きベクトルを前記動き推定プロセスで使用する所定値に初期化することによって、前記マルチ予測ピクチャを符号化する、装置。
  2. 前記エンコーダ(200)が、前記2つ以上の参照ピクチャの前記残りの参照ピクチャが静止状態であるとして前記2つ以上の参照ピクチャのうちの前記特定の1つの参照ピクチャの動きベクトルを予測する、請求項1に記載の装置。
  3. 前記エンコーダ(200)が、複数の反復的プロセスの第1のプロセスの並列部分において前記2つ以上の参照ピクチャのそれぞれの動きベクトルを予測し、前記複数の反復的プロセスの後続のプロセスにおいて前記動きベクトルを改良する、請求項1に記載の装置。
  4. 前記エンコーダ(200)が、歪み測度に基づいて、前記複数の反復的プロセスで得られた最良の動きベクトルの組合せを選択する、請求項3に記載の装置。
  5. 前記2つ以上の参照ピクチャの前記残りの参照ピクチャのうち少なくとも1つの参照ピクチャの動きベクトルの少なくとも1つが、前記2つ以上の参照ピクチャの前記残りの参照ピクチャのうちの前記少なくとも1つの参照ピクチャの以前に計算した動きベクトルに基づいて前記所定値に初期化される、請求項1に記載の装置。
  6. 前記以前に計算した動きベクトルが、少なくとも1つのダイレクト動きベクトルと、前記2つ以上の参照ピクチャよりも少ない数の参照ピクチャの組合せから以前に計算した動きベクトルとを含み、前記少なくとも1つのダイレクト動きベクトルが、少なくとも1つの時間的ダイレクト動きベクトルおよび少なくとも1つの空間的ダイレクト動きベクトルの少なくとも1つを含む、請求項5に記載の装置。
  7. 前記エンコーダ(200)が、反復的プロセスを使用して前記2つ以上の参照ピクチャの動きベクトルを予測し、相関メトリックに基づいて、前記動きベクトルのうち前記所定値に初期化された前記少なくとも1つの動きベクトルおよび前記以前に計算した動きベクトルの中から、前記反復的プロセスで最初に使用する動きベクトルを決定する、請求項5に記載の装置。
  8. 前記エンコーダ(200)が、反復的プロセスを用いて前記2つ以上の参照ピクチャの動きベクトルを予測する、請求項1に記載の装置。
  9. 前記エンコーダ(200)が、前記反復的プロセスで実行される反復の最大数を制約する、請求項8に記載の装置。
  10. 前記エンコーダ(200)が、前記反復的プロセスで並列に試験される前記2つ以上の参照ピクチャの最大数を制約する、請求項8に記載の装置。
  11. 前記エンコーダ(200)が、以前の重み推定プロセスで得られた前記2つ以上の参照ピクチャに使用された重みに基づいて、前記2つ以上の参照ピクチャの動きベクトルを推定する、請求項1に記載の装置。
  12. 前記エンコーダ(200)が、複数の反復的プロセスを並列に用いて前記2つ以上の参照ピクチャの動きベクトルを推定し、前記複数の反復的プロセスが、前記2つ以上の参照ピクチャの異なる参照ピクチャにそれぞれ対応する異なる初期化点を有する、請求項1に記載の装置。
  13. 前記エンコーダ(200)が、前記複数の反復的プロセスの第1のプロセスを実行して、前記2つ以上の参照ピクチャのそれぞれの動きベクトルの初期値を得、最低の歪み測度に基づいて前記2つ以上の参照ピクチャのうちの最良の初期参照を選択し、前記複数の反復的プロセスの後続のプロセスを実行して、前記2つ以上の参照ピクチャの前記最良の初期参照に対して得られた初期値を改良する、請求項12に記載の装置。
  14. 前記エンコーダ(200)が、前記2つ以上の参照ピクチャの動きベクトルが同じであることに基づいて前記マルチ予測ピクチャの動き情報を予測し、前記マルチ予測ピクチャと比較した動きベクトルを複合的に改良する、請求項1に記載の装置。
  15. 前記エンコーダ(200)が、前記2つ以上の参照ピクチャを組み合わせて組合せ参照ピクチャを形成し、前記2つ以上の参照ピクチャ間でゼロ動きを用いることによって、前記マルチ予測ピクチャの動きベクトル情報を推定する、請求項1に記載の装置。
  16. 前記エンコーダ(200)が、前記2つ以上の参照ピクチャの残りの参照ピクチャを前記マルチ予測ピクチャと比較して別個に静止状態であるとすることによって、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを予測する、請求項1に記載の装置。
  17. 前記エンコーダ(200)が、前記2つ以上の参照ピクチャのそれぞれの前記動きベクトルを、それぞれに対する重みを選択することによって予測する、請求項16に記載の装置。
  18. 前記エンコーダ(200)が、前記マルチ予測ピクチャのモード決定を実行して、一方向予測モード、ダイレクト予測モード、一方向予測を用いてそれぞれ計算した前記2つ以上の参照ピクチャの動きベクトルを使用する双方向予測モード、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの改良された動きベクトルおよび静止動きベクトルを用いる少なくとも1つの双方向予測モード、ならびに前記2つ以上の参照ピクチャのそれぞれの改良された動きベクトルを用いる双方向予測モードの中から歪み測度が最小となるモードを選択し、前記2つ以上の参照ピクチャのそれぞれの動きベクトルが、前記2つ以上の参照ピクチャの残りの参照ピクチャの動きベクトルを別個に静止状態であるとすることに基づいて計算される、請求項1に記載の装置。
  19. 前記エンコーダ(200)が、さらに、歪み測度が最小となる前記モードを、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの動きベクトルおよび前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの改良された動きベクトル、ならびに少なくとも1つのダイレクト動きベクトルを含む少なくとも1つの組合せを用いる少なくとも1つの双方向予測モードの中から選択する、請求項18に記載の装置。
  20. 前記エンコーダ(200)が、前記2つ以上の参照ピクチャのただ1つの参照ピクチャだけを前記マルチ予測ピクチャと比較して静止状態であるとすることによって、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを予測する、請求項1に記載の装置。
  21. 前記エンコーダ(200)が、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを、それぞれに対する重みを選択することによって予測する、請求項20に記載の装置。
  22. 前記2つ以上の参照ピクチャの前記ただ1つの参照ピクチャが、前記2つ以上の参照ピクチャの前記ただ1つの参照ピクチャが対応する特定の参照リスト、時間的接近性、前記マルチ予測ピクチャに対する最大類似性の少なくとも1つに基づいて選択される、請求項20に記載の装置。
  23. 前記エンコーダ(200)が、前記マルチ予測ピクチャのモード決定を実行して、一方向予測モード、ダイレクト予測モード、一方向予測を用いてそれぞれ計算した前記2つ以上の参照ピクチャの動きベクトルを使用する双方向予測モード、静止動きベクトルおよび改良された動きベクトルを用いる双方向予測モードの中から歪み測度が最小となるモードを選択し、前記2つ以上の参照ピクチャのただ1つの参照ピクチャの動きベクトルのそれぞれが、静止動きベクトルが前記2つ以上の参照ピクチャの残りの参照ピクチャに使用されることに基づいて計算される、請求項1に記載の装置。
  24. 前記エンコーダ(200)が、さらに、歪み測度が最小となる前記モードを、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの動きベクトルの1つおよび前記改良された動きベクトル、ならびに方向動きベクトルと前記歪み測度に従って計算した動きベクトルとの少なくとも1つの組合せを用いる少なくとも1つの双方向予測モードの中から選択する、請求項23に記載の装置。
  25. 前記エンコーダ(200)が、前記2つ以上の参照ピクチャが符号化の対象である前記マルチ予測ピクチャと同じ動きを有することに基づいて、前記2つ以上の参照ピクチャの動きベクトルを複合的に計算する、請求項1に記載の装置。
  26. 前記エンコーダ(200)が、前記2つ以上の参照ピクチャの動きベクトルを、それぞれに対する重みを選択することによって複合的に計算する、請求項25に記載の装置。
  27. 前記エンコーダ(200)が、前記マルチ予測ピクチャのモード決定を実行して、一方向予測モード、ダイレクト予測モード、一方向予測を用いてそれぞれ計算した前記2つ以上の参照ピクチャの動きベクトルを使用する双方向予測モード、前記2つ以上の参照ピクチャのそれぞれの改良された動きベクトルを用いる双方向予測モード、ならびに前記2つ以上の参照ピクチャの動きベクトルを同じであるとすることによって計算した前記2つ以上の参照ピクチャの組合せの動きベクトルを用いる予測モードの中から、歪み測度が最小となるモードを選択する、請求項1に記載の装置。
  28. 前記エンコーダ(200)が、さらに、歪み測度が最小となる前記モードを、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの動きベクトルの1つおよび前記2つ以上の参照ピクチャの動きベクトルを同じであるとすることによって計算した動きベクトル、ならびにダイレクト動きベクトルと前記2つ以上の参照ピクチャの動きベクトルを同じであるとすることによって計算した動きベクトルとの少なくとも1つの組合せを用いる少なくとも1つの双方向予測モードの中から選択する、請求項27に記載の装置。
  29. 2つ以上の参照ピクチャの組合せからマルチ予測ピクチャを符号化するステップであって、前記2つ以上の参照ピクチャのうちの特定の1つの参照ピクチャの動きベクトルを動き推定プロセスで予測し、前記2つ以上の参照ピクチャの残りの参照ピクチャの動きベクトルを前記動き推定プロセスで使用する所定値に初期化することによってマルチ予測ピクチャを符号化する、前記符号化ステップ(400)を含む、方法。
  30. 前記符号化ステップで、前記2つ以上の参照ピクチャピクチャのうちの前記残りの参照ピクチャが静止状態であるとすることによって前記2つ以上の参照の前記特定の1つの参照ピクチャの動きベクトルを予測する(410、415、420)、請求項29に記載の方法。
  31. 前記符号化ステップで、複数の反復的プロセスの第1のプロセスの並列部分において前記2つ以上の参照のそれぞれの動きベクトルを予測し、前記複数の反復的プロセスの後続のプロセスにおいて前記動きベクトルを改良する(410、425、415、430、420、440)、請求項29に記載の方法。
  32. 前記符号化ステップで、歪み測度に基づいて、前記複数の反復的プロセスで得られた最良の動きベクトルの組合せを選択する(445)、請求項31に記載の方法。
  33. 前記2つ以上の参照ピクチャの前記残りの参照ピクチャのうちの少なくとも1つの参照ピクチャの動きベクトルの少なくとも1つが、前記2つ以上の参照ピクチャの前記残りの参照ピクチャの前記少なくとも1つの参照ピクチャの以前に計算した動きベクトルに基づいて前記所定値に初期化される、請求項29に記載の方法。
  34. 前記以前に計算した動きベクトルが、少なくとも1つのダイレクト動きベクトルと、前記2つ以上の参照ピクチャより少ない数の参照ピクチャの組合せから以前に計算した動きベクトルとを含み、前記少なくとも1つのダイレクト動きベクトルが、少なくとも1つの時間的ダイレクト動きベクトルおよび少なくとも1つの空間的ダイレクト動きベクトルの少なくとも1つを含む、請求項33に記載の方法。
  35. 前記符号化ステップで、反復的プロセスを使用して前記2つ以上の参照ピクチャの動きベクトルを予測し、相関メトリックに基づいて、前記動きベクトルのうち前記所定値に初期化された前記少なくとも1つの動きベクトルおよび前記以前に計算した動きベクトルの中から、前記反復的プロセスで最初に使用する動きベクトルを決定する、請求項33に記載の方法。
  36. 前記符号化ステップで、反復的プロセスを用いて前記2つ以上の参照ピクチャの動きベクトルを予測する(425、430、440)、請求項29に記載の方法。
  37. 前記符号化ステップで、前記反復的プロセスで実行される反復の最大数を制約する、請求項36に記載の方法。
  38. 前記符号化ステップで、前記反復的プロセスで並列に試験される前記2つ以上の参照ピクチャの最大数を制約する、請求項36に記載の方法。
  39. 前記符号化ステップで、以前の重み推定プロセスで得られた前記2つ以上の参照ピクチャに使用された重みに基づいて、前記2つ以上の参照ピクチャの動きベクトルを推定する、請求項29に記載の方法。
  40. 前記符号化ステップで、複数の反復的プロセスを並列に用いて前記2つ以上の参照ピクチャの動きベクトルを推定し、前記複数の反復的プロセスが、前記2つ以上の参照ピクチャの異なる参照ピクチャにそれぞれ対応する異なる初期化点を有する(510、515、520)、請求項29に記載の方法。
  41. 前記符号化ステップで、前記複数の反復的プロセスの第1のプロセスを実行して、前記2つ以上の参照ピクチャのそれぞれの動きベクトルの初期値を得、最低の歪み測度に基づいて前記2つ以上の参照のうちの最良の初期参照を選択し、前記複数の反復的プロセスの後続のプロセスを実行して、前記2つ以上の参照の前記最良の初期参照に対して得られた初期値を改良する(500)、請求項40に記載の方法。
  42. 前記符号化ステップで、前記2つ以上の参照ピクチャの動きベクトルが同じであることに基づいて前記マルチ予測ピクチャの動き情報を予測し、前記マルチ予測ピクチャと比較した動きベクトルを複合的に改良する(600)、請求項29に記載の方法。
  43. 前記符号化ステップで、前記2つ以上の参照ピクチャを組み合わせて組合せ参照ピクチャを形成し、前記2つ以上の参照ピクチャ間でゼロ動きを用いることによって、前記マルチ予測ピクチャの動きベクトル情報を推定する(610)、請求項29に記載の方法。
  44. 前記符号化ステップで、前記2つ以上の参照ピクチャの残りの参照ピクチャを前記マルチ予測ピクチャと比較して静止状態であると別個にすることによって、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを予測する(720、725)、請求項29に記載の方法。
  45. 前記符号化ステップで、前記2つ以上の参照ピクチャのそれぞれの前記動きベクトルを、それぞれに対する重みを選択することによって予測する、請求項44に記載の方法。
  46. 前記符号化ステップで、前記マルチ予測ピクチャのモード決定を実行して、一方向予測モード、ダイレクト予測モード、一方向予測を用いてそれぞれ計算した前記2つ以上の参照ピクチャの動きベクトルを使用する双方向予測モード、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの改良された動きベクトルおよび静止動きベクトルを用いる少なくとも1つの双方向予測モード、ならびに前記2つ以上の参照ピクチャのそれぞれの改良された動きベクトルを用いる双方向予測モードの中から歪み測度が最小となるモードを選択し、前記2つ以上の参照ピクチャのそれぞれの動きベクトルが、前記2つ以上の参照ピクチャの残りの参照ピクチャの動きベクトルを静止状態であると別個にすることに基づいて計算される(730)、請求項29に記載の方法。
  47. 前記符号化ステップで、さらに、歪み測度が最小となる前記モードを、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの動きベクトルおよび前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの改良された動きベクトル、ならびに少なくとも1つのダイレクト動きベクトルを含む少なくとも1つの組合せを用いる少なくとも1つの双方向予測モードの中から選択する、請求項46に記載の方法。
  48. 前記符号化ステップで、前記2つ以上の参照ピクチャのただ1つの参照ピクチャだけを前記マルチ予測ピクチャと比較して静止状態であるとすることによって、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを予測する(820)、請求項29に記載の方法。
  49. 前記符号化ステップで、前記2つ以上の参照ピクチャのそれぞれの動きベクトルを、それぞれに対する重みを選択することによって予測する、請求項48に記載の方法。
  50. 前記2つ以上の参照ピクチャの前記ただ1つの参照ピクチャが、前記2つ以上の参照ピクチャの前記ただ1つの参照ピクチャが対応する特定の参照リスト、時間的接近性、前記マルチ予測ピクチャに対する最大類似性の少なくとも1つに基づいて選択される、請求項48に記載の方法。
  51. 前記符号化ステップで、前記マルチ予測ピクチャのモード決定を実行して、一方向予測モード、ダイレクト予測モード、一方向予測を用いてそれぞれ計算した前記2つ以上の参照ピクチャの動きベクトルを使用する双方向予測モード、静止動きベクトルおよび改良された動きベクトルを用いる双方向予測モードの中から歪み測度が最小となるモードを選択し、前記2つ以上の参照ピクチャのただ1つの参照ピクチャの動きベクトルのそれぞれが、静止動きベクトルが前記2つ以上の参照ピクチャの残りの参照ピクチャに使用されることに基づいて計算される(825)、請求項29に記載の方法。
  52. 前記符号化ステップで、さらに、歪み測度が最小となる前記モードを、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの動きベクトルの1つおよび前記改良された動きベクトル、ならびに方向動きベクトルと前記歪み測度に従って計算した動きベクトルとの少なくとも1つの組合せを用いる少なくとも1つの双方向予測モードの中から選択する、請求項51に記載の方法。
  53. 前記符号化ステップで、前記2つ以上の参照ピクチャが符号化の対象である前記マルチ予測ピクチャと同じ動きを有することに基づいて、前記2つ以上の参照ピクチャの動きベクトルを複合的に計算する(920)、請求項29に記載の方法。
  54. 前記符号化ステップで、前記2つ以上の参照ピクチャの動きベクトルを、それぞれに対する重みを選択することによって複合的に計算する、請求項53に記載の方法。
  55. 前記符号化ステップで、前記マルチ予測ピクチャのモード決定を実行して、一方向予測モード、ダイレクト予測モード、一方向予測を用いてそれぞれ計算した前記2つ以上の参照ピクチャの動きベクトルを使用する双方向予測モード、前記2つ以上の参照ピクチャのそれぞれの改良された動きベクトルを用いる双方向予測モード、ならびに前記2つ以上の参照ピクチャの動きベクトルを同じであるとすることによって計算した前記2つ以上の参照ピクチャの組合せの動きベクトルを用いる予測モードの中から、歪み測度が最小となるモードを選択する(925)、請求項29に記載の方法。
  56. 前記符号化ステップで、さらに、歪み測度が最小となる前記モードを、前記2つ以上の参照ピクチャのうちの1つの参照ピクチャの動きベクトルの1つおよび前記2つ以上の参照ピクチャの動きベクトルを同じであるとすることによって計算した動きベクトル、ならびにダイレクト動きベクトルと前記2つ以上の参照ピクチャの動きベクトルを同じであるとすることによって計算した動きベクトルとの少なくとも1つの組合せを用いる少なくとも1つの双方向予測モードの中から選択する、請求項55に記載の方法。
JP2008553285A 2006-02-02 2007-01-30 組合せ参照双方向予測を用いて動き推定を行う方法および装置 Active JP5165593B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US76445206P 2006-02-02 2006-02-02
US60/764,452 2006-02-02
PCT/US2007/002381 WO2007092192A2 (en) 2006-02-02 2007-01-30 Method and apparatus for motion estimation using combined reference bi-prediction

Publications (3)

Publication Number Publication Date
JP2009525683A true JP2009525683A (ja) 2009-07-09
JP2009525683A5 JP2009525683A5 (ja) 2010-03-18
JP5165593B2 JP5165593B2 (ja) 2013-03-21

Family

ID=38284077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008553285A Active JP5165593B2 (ja) 2006-02-02 2007-01-30 組合せ参照双方向予測を用いて動き推定を行う方法および装置

Country Status (6)

Country Link
US (1) US9215475B2 (ja)
EP (1) EP1982532A2 (ja)
JP (1) JP5165593B2 (ja)
CN (1) CN101379835B (ja)
BR (1) BRPI0706803A2 (ja)
WO (1) WO2007092192A2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069384A1 (ja) * 2011-11-07 2013-05-16 株式会社エヌ・ティ・ティ・ドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
WO2013153778A1 (ja) * 2012-04-09 2013-10-17 パナソニック株式会社 画像符号化方法および画像復号化方法
JP2014112940A (ja) * 2014-02-20 2014-06-19 Ntt Docomo Inc 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2014187721A (ja) * 2014-07-11 2014-10-02 Ntt Docomo Inc 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2015039246A (ja) * 2014-11-28 2015-02-26 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2015156704A (ja) * 2015-04-17 2015-08-27 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP2016149797A (ja) * 2016-04-13 2016-08-18 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080204598A1 (en) * 2006-12-11 2008-08-28 Lance Maurer Real-time film effects processing for digital video
US8681855B2 (en) * 2007-10-12 2014-03-25 Thomson Licensing Method and apparatus for video encoding and decoding geometrically partitioned bi-predictive mode partitions
US20110211637A1 (en) * 2007-11-20 2011-09-01 Ub Stream Ltd. Method and system for compressing digital video streams
KR100939917B1 (ko) 2008-03-07 2010-02-03 에스케이 텔레콤주식회사 움직임 예측을 통한 부호화 시스템 및 움직임 예측을 통한부호화 방법
US8254469B2 (en) * 2008-05-07 2012-08-28 Kiu Sha Management Liability Company Error concealment for frame loss in multiple description coding
US8208065B2 (en) * 2008-07-30 2012-06-26 Cinnafilm, Inc. Method, apparatus, and computer software for digital video scan rate conversions with minimization of artifacts
US8873626B2 (en) * 2009-07-02 2014-10-28 Qualcomm Incorporated Template matching for video coding
US8917769B2 (en) * 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US9654792B2 (en) 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
US20110002387A1 (en) * 2009-07-03 2011-01-06 Yi-Jen Chiu Techniques for motion estimation
US8462852B2 (en) * 2009-10-20 2013-06-11 Intel Corporation Methods and apparatus for adaptively choosing a search range for motion estimation
WO2011069831A1 (en) 2009-12-10 2011-06-16 Thomson Licensing Method and apparatus for coding and decoding an image block
US9100658B2 (en) 2009-12-17 2015-08-04 Telefonaktiebolaget L M Ericsson (Publ) Method and arrangement for video coding
US9094658B2 (en) * 2010-05-10 2015-07-28 Mediatek Inc. Method and apparatus of adaptive loop filtering
WO2012083487A1 (en) 2010-12-21 2012-06-28 Intel Corporation System and method for enhanced dmvd processing
US8908755B2 (en) * 2010-07-16 2014-12-09 Sony Corporation Multi-parameter motion for efficient prediction in video compression
US9398308B2 (en) * 2010-07-28 2016-07-19 Qualcomm Incorporated Coding motion prediction direction in video coding
US8861617B2 (en) 2010-10-05 2014-10-14 Mediatek Inc Method and apparatus of region-based adaptive loop filtering
US9008176B2 (en) 2011-01-22 2015-04-14 Qualcomm Incorporated Combined reference picture list construction for video coding
US8934552B2 (en) 2011-03-31 2015-01-13 Qualcomm Incorporated Combined reference picture list construction and mapping
EP3136727B1 (en) 2011-04-12 2018-06-13 Sun Patent Trust Motion-video coding method and motion-video coding apparatus
TR201819396T4 (tr) 2011-05-27 2019-01-21 Sun Patent Trust Görüntü Kod Çözme Metodu Ve Görüntü Kod Çözme Cihazı
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
MX2013012209A (es) 2011-05-31 2013-11-01 Panasonic Corp Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
WO2012177052A2 (ko) 2011-06-21 2012-12-27 한국전자통신연구원 인터 예측 방법 및 그 장치
KR20120140592A (ko) 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
JP5937594B2 (ja) * 2011-06-30 2016-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像復号方法及び画像復号装置
AU2012291454B2 (en) 2011-08-03 2016-11-17 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
WO2013057877A1 (ja) 2011-10-19 2013-04-25 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、および、画像復号装置
WO2013109124A1 (ko) 2012-01-19 2013-07-25 삼성전자 주식회사 쌍방향 예측 및 블록 병합을 제한하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9426463B2 (en) 2012-02-08 2016-08-23 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9143781B2 (en) * 2012-04-03 2015-09-22 Qualcomm Incorporated Weighted prediction parameter coding
CN103533372B (zh) * 2012-07-02 2016-12-07 华为技术有限公司 双向预测图像片的编码、解码方法及设备
CN103916673B (zh) * 2013-01-06 2017-12-22 华为技术有限公司 基于双向预测的编码方法、解码方法和装置
CN104717512B (zh) * 2013-12-16 2019-07-23 浙江大学 一种前向双假设编码图像块的编解码方法和装置
CN104954787B (zh) * 2014-03-27 2018-03-23 浙江大华技术股份有限公司 Hevc帧间预测模式选择方法及装置
CN105681809B (zh) * 2016-02-18 2019-05-21 北京大学 针对双前向预测单元的运动补偿方法
WO2019152283A1 (en) 2018-02-02 2019-08-08 Apple Inc. Techniques of multi-hypothesis motion compensation
US11924440B2 (en) 2018-02-05 2024-03-05 Apple Inc. Techniques of multi-hypothesis motion compensation
US11234017B1 (en) * 2019-12-13 2022-01-25 Meta Platforms, Inc. Hierarchical motion search processing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308062A (ja) * 1999-04-15 2000-11-02 Canon Inc 動画像処理方法
JP2003299102A (ja) * 2002-03-18 2003-10-17 Lg Electronics Inc ビデオ符号化システムにおけるbピクチャーモード決定方法及びその装置
JP2004260251A (ja) * 2003-02-24 2004-09-16 Victor Co Of Japan Ltd 動きベクトル検出装置及び動きベクトル検出プログラム
JP2006020095A (ja) * 2004-07-01 2006-01-19 Sharp Corp 動きベクトル検出回路、画像符号化回路、動きベクトル検出方法および画像符号化方法
JP2007525072A (ja) * 2003-06-25 2007-08-30 トムソン ライセンシング 置換されたフレーム差を使用する重み付き予測推定の方法と装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619268A (en) * 1995-01-17 1997-04-08 Graphics Communication Laboratories Motion estimation method and apparatus for calculating a motion vector
CN1297147C (zh) * 1997-03-07 2007-01-24 通用仪器公司 对交错数字视频的双向预测的视频目标平面的预测和编码
US6807231B1 (en) * 1997-09-12 2004-10-19 8×8, Inc. Multi-hypothesis motion-compensated video image predictor
WO2001058166A1 (en) * 2000-02-01 2001-08-09 Koninklijke Philips Electronics N.V. Video encoding with a two step motion estimation for p-frames
US7003035B2 (en) * 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
KR100508798B1 (ko) * 2002-04-09 2005-08-19 엘지전자 주식회사 쌍방향 예측 블록 예측 방법
KR100491530B1 (ko) * 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
US7376186B2 (en) * 2002-07-15 2008-05-20 Thomson Licensing Motion estimation with weighting prediction
KR100865034B1 (ko) * 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
EP1568222B1 (en) 2002-12-04 2019-01-02 Thomson Licensing Encoding of video cross-fades using weighted prediction
CN1225127C (zh) * 2003-09-12 2005-10-26 中国科学院计算技术研究所 一种用于视频编码的编码端/解码端双向预测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308062A (ja) * 1999-04-15 2000-11-02 Canon Inc 動画像処理方法
JP2003299102A (ja) * 2002-03-18 2003-10-17 Lg Electronics Inc ビデオ符号化システムにおけるbピクチャーモード決定方法及びその装置
JP2004260251A (ja) * 2003-02-24 2004-09-16 Victor Co Of Japan Ltd 動きベクトル検出装置及び動きベクトル検出プログラム
JP2007525072A (ja) * 2003-06-25 2007-08-30 トムソン ライセンシング 置換されたフレーム差を使用する重み付き予測推定の方法と装置
JP2006020095A (ja) * 2004-07-01 2006-01-19 Sharp Corp 動きベクトル検出回路、画像符号化回路、動きベクトル検出方法および画像符号化方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069384A1 (ja) * 2011-11-07 2013-05-16 株式会社エヌ・ティ・ティ・ドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
AU2019210545B2 (en) * 2011-11-07 2021-01-28 Ntt Docomo, Inc. Video prediction encoding device, video prediction encoding method, video prediction encoding program, video prediction decoding device, video prediction decoding method, and video prediction decoding program
AU2020294321B2 (en) * 2011-11-07 2022-03-10 Ntt Docomo, Inc. Video prediction encoding device, video prediction encoding method, video prediction encoding program, video prediction decoding device, video prediction decoding method, and video prediction decoding program
WO2013153778A1 (ja) * 2012-04-09 2013-10-17 パナソニック株式会社 画像符号化方法および画像復号化方法
JPWO2013153778A1 (ja) * 2012-04-09 2015-12-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化方法および画像復号化方法
US10075708B2 (en) 2012-04-09 2018-09-11 Sun Patent Trust Image encoding method and image decoding method
JP2014112940A (ja) * 2014-02-20 2014-06-19 Ntt Docomo Inc 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2014187721A (ja) * 2014-07-11 2014-10-02 Ntt Docomo Inc 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2015039246A (ja) * 2014-11-28 2015-02-26 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2015156704A (ja) * 2015-04-17 2015-08-27 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP2016149797A (ja) * 2016-04-13 2016-08-18 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法

Also Published As

Publication number Publication date
JP5165593B2 (ja) 2013-03-21
WO2007092192A2 (en) 2007-08-16
CN101379835A (zh) 2009-03-04
WO2007092192A3 (en) 2008-02-28
CN101379835B (zh) 2011-08-24
BRPI0706803A2 (pt) 2011-04-05
EP1982532A2 (en) 2008-10-22
US20090067505A1 (en) 2009-03-12
US9215475B2 (en) 2015-12-15

Similar Documents

Publication Publication Date Title
JP5165593B2 (ja) 組合せ参照双方向予測を用いて動き推定を行う方法および装置
US11134266B2 (en) Method and device for encoding a sequence of images and method and device for decoding a sequence of images
JP5721851B2 (ja) Dmvd処理のシステムおよび方法の改善
US9113111B2 (en) Method and apparatus for estimating motion vector using plurality of motion vector predictors, encoder, decoder, and decoding method
JP5224459B2 (ja) 動き補償予測のための適応重み選択を行う方法および装置
KR100958504B1 (ko) 가중치 예측을 사용한 움직임 추정
JP4533841B2 (ja) 加重予測による動き推定
TW202005392A (zh) 用於視訊編解碼系統中的子塊運動補償的視訊處理方法和裝置
JP2006501760A (ja) ビデオ・デコーダにおける参照画像の陰解法による重みづけ
JP2009526436A (ja) ビデオ符号化向けの動き予測の予測子として利用可能な動き情報を再使用する方法及び装置
TWI517671B (zh) 用於增強型解碼器側移動向量導出(dmvd)處理之系統及方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111221

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120127

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120425

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5165593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250