JP2008178149A - 運動ベクトルフィールドを圧縮するための装置及び方法 - Google Patents

運動ベクトルフィールドを圧縮するための装置及び方法 Download PDF

Info

Publication number
JP2008178149A
JP2008178149A JP2008101068A JP2008101068A JP2008178149A JP 2008178149 A JP2008178149 A JP 2008178149A JP 2008101068 A JP2008101068 A JP 2008101068A JP 2008101068 A JP2008101068 A JP 2008101068A JP 2008178149 A JP2008178149 A JP 2008178149A
Authority
JP
Japan
Prior art keywords
motion
model
field
adjacent segment
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008101068A
Other languages
English (en)
Inventor
Marta Karczewicz
マルタ カルツェウィッツ
Jani Lainema
ヤニ ライネマ
Bogdan-Paul Dobrin
ボグダン−ポール ドブリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=23464821&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2008178149(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of JP2008178149A publication Critical patent/JP2008178149A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】ビデオシーケンスの運動補償コード化を行う装置及び関連方法が提供される。
【解決手段】運動補償型予想が運動ベクトルフィールドの表示に使用される。予想エラーを低く維持しながら運動ベクトルフィールドを表すのに少数のビットしか必要とされず、これにより、ビデオシーケンスを形成するビデオフレームの通信及び再生を容易に改善する。
【選択図】図2

Description

本発明は、一般に、ビデオシーケンスをコード化する際に運動補償を使用する方法に係る。より詳細には、本発明は、運動補償された予想を使用してビデオシーケンスをエンコード及びデコードするための装置及び関連方法に係る。セグメントの運動フィールドは、直交アフィン運動ベクトルフィールドモデルを使用することにより、ビデオフレームの隣接セグメントから予想される。本発明の実施形態の動作により、運動ベクトルフィールドは、予想エラーを低く維持しながら少数のビットで形成される。
デジタル通信技術の進歩により新規な改良された形式の通信を開発できるようになった。このような進歩を利用する通信及び通信システムにおいて更なる進歩により改善を続けることができねばならない。
例えば、ビデオフレームを形成することのできるデジタルビデオデータ通信用の通信システムが提案されている。ビデオ会議中に使用されるビデオ像は、デジタルビデオシーケンスを効果的に利用することのできるアプリケーションの一例である。
しかしながら、ビデオフレームは、通常、非常の多数のピクセルで形成され、各ピクセルは、1組のデジタルビットで表わすことができる。そして、ビデオシーケンスを表わすのに、通常、非常に多数のビデオフレームが必要とされる。典型的なビデオシーケンスを形成するのに、フレーム当たり非常に多数のピクセルと、非常に多数のフレームとが必要とされるために、ビデオシーケンスを表わすのに必要なデータの量が急速に増大する。例えば、例示的なビデオフレームは、640x480ピクセルのアレーを含み、各ピクセルは、カラー成分当たり8ビットのRGB(赤、緑、青)カラー表示を有し、フレーム当たり全部で7,372,800ビットとなる。
ビデオシーケンスは、フィルムに記録される通常の動画と同様に、一連の静止像より成り、連続する像を比較的速い速度、例えば、毎秒15−30フレームで表示することにより動きの幻覚が形成される。比較的速いフレーム速度であるために、連続フレームにおける像は、極めて良く似たものになる。典型的なシーンは、幾つかの静止画素、例えば、背景シーンと、幾つかの動き部分とを含み、これら動き部分は、例えば、ニュースアナウンサーの顔や、交通の流れ等、多数の異なる形態をとり得る。或いは、シーンを記録するカメラそれ自体が移動することもあり、この場合には、像の全ての画素が同じ種類の動きをもつことになる。多くの場合に、これは、あるビデオフレームと次のビデオフレームとの間の全体的な変化がやや少ないことを意味する。もちろん、これは動きの性質に依存し、動きが速いほど、あるフレームから次のフレームへの変化が大きくなる。
ビデオシーケンスを送信する際には、主として、送信装置から受信装置へ送信しなければならない情報の量に関して問題が生じる。シーケンスの各フレームは、ピクセルのアレーを長方形マトリクスの形態で含む。鮮明な像を得るには、高解像度が要求され、即ちフレームは非常に多数のピクセルを含まねばならない。今日、多数の標準化された像フォーマットがあり、352x288ピクセルのCIF(共通中間フォーマット)や、176x144ピクセルのQCIF(1/4共通中間フォーマット)を含む。QCIFフォーマットは、第1世代の移動ビデオ電話装置に使用されるフォーマットの典型で、このような装置に使用できる種類の小型(3−4cm平方)LCDディスプレイに、受け入れられる鮮明な像を形成する。もちろん、大型のディスプレイ装置は、一般に、高い空間的解像度をもつ像を必要とし、これらの像が表示時に充分な空間的ディテールで現れるようにしなければならない。
像の各ピクセルごとに、カラー情報を設けなければならない。通常、上述したように、カラー情報は、原色成分赤、緑及び青(RGB)に関してコード化されるか、又はYUVモデルとして知られた関連ルミナンス/クロミナンスモデルを使用してコード化され、これは、以下に述べるように、幾つかのコード化利点を与える。カラー情報を与えることのできる方法は多数あるが、全てのカラー表示に共通した同じ問題があり、即ち自然のシーンに存在するカラー範囲を正しく表示するために情報量が必要とされる。人間の視覚系統に対して受け入れられるクオリティのカラー像を形成するために、各カラー成分は、通常、8ビット解像度で表示されねばならない。従って、像の各ピクセルは、24ビットの情報を必要とし、それ故、QCIF解像度のカラー像は、176x144x(3x8)=608256ビットを必要とする。更に、そのQCIF像が15フレーム/秒のフレームレートをもつビデオシーケンスの一部分を形成する場合には、そのシーケンスをコード化するのに全部で9,123,840ビット/sが必要となる。
従って、多量のデータを、時には、比較的低いビットレートの通信チャンネルを経て送信しなければならず、例えば、64kビット/s以下で動作するワイヤレス通信チャンネルを経て送信しなければならない。
このようなビデオシーケンスを表示するのに必要なデータの量を減少するためにビデオコード化スキムが使用される。多数のビデオコード化スキムの要点は、運動補償された予想をいかに与えるかである。運動補償された予想は、一般に、フレーム間の時間的冗長性を除去することによりフレーム圧縮を改善する方法を与える。同じ一般像の短いシーケンス内で、ほとんどのオブジェクトが同じ位置に留まり、一方、他のオブジェクトが短い距離だけ移動することに基づいて、オペレーションが断定される。このような運動は、2次元運動ベクトルとして記述される。
YUVカラーモデルを使用して、あるコード化効果を得ることができる。これは、色の変化に対するものよりも輝度(ルミナンス)の変化により敏感な人間の視覚系統の特性を利用する。従って、像が、ルミナンス成分及び2つのクロミナンス成分に関して表わされる場合には(YUVモデルのように)、クロミナンス成分を空間的にサブサンプルする(その解像度を減少する)ことができる。これは、像のクオリティを受け入れられる程度に下げて像のカラー情報をコード化するのに必要な全情報量を減少することになる。空間的サブサンプリングは、多数の方法で実行できるが、通常は、像の16x16ピクセルの各ブロックが、ルミナンス情報を表わす16x16ピクセルの1ブロックと、両クロミナンス成分に対する8x8ピクセルの1ブロックとによりコード化される。換言すれば、クロミナンス成分が、x及びy方向に2のファクタでサブサンプリングされる。これにより得られる1つの16x16ルミナンスブロック及び2つの8x8クロミナンスブロックの組立体を、一般に、マクロブロックと称する。この種のコード化スキムを使用して、QCIF像をコード化するのに必要な情報の量を次のように計算することができる。QCIF解像度は、176x144である。従って、像は、11x9、16x16ピクセルのルミナンスブロックを含む。各ルミナンスブロックには、2つの8x8ピクセルのサブサンプリングされたクロミナンスブロックが関連され、即ち像内には11x9のマクロブロックもある。ルミナンス及びクロミナンス成分が8ビットの解像度でコード化される場合には、マクロブロック当りに必要とされる全ビット数は、1x(16x16x8)+2x(8x8x8)=3072ビットとなる。従って、全QCIF像をコード化するに必要なビット数は、今や、99x3072=304128ビットであり、即ちクロミナンスのサブサンプリングが実行されない場合に必要とされる数の半分である(上記参照)。しかしながら、これでも非常に多量の情報であり、このようにコード化されるQCIF像が、15フレーム/秒のビデオシーケンスの一部分である場合には、全部で4,561,920ビット/sが依然として必要である。
ビデオコード化は、多量の情報の処理を必要とする。これは、当然、ビデオ像をコード化するのにパワフルな信号処理装置が必要とされ、そしてこれらの像をオリジナルの形態で送信すべき場合には、広帯域巾の通信チャンネルが必要とされることを意味する。しかしながら、多くの状態においては、大容量の送信チャンネルを与えることができない。これは、ビデオ信号を、既存の固定ライン通信チャンネルを経て(即ち従来の公衆電話ネットワークを経て)送信しなければならないか、又は移動電話ネットワークにより与えられるような無線通信リンクを使用して送信しなければならないビデオ電話のアプリケーションにおいて特に言えることである。多数の国際テレコミュニケーション規格が既に存在し、これら種類のシステムにおけるビデオコード化のガイドラインを規定している。国際テレコミュニケーションユニオン(ITU)規格のH.261及びH.263は、その一例である。規格H.261は、64kビット/sの倍数で動作する送信システム(これらは通常固定ライン電話ネットワークである)におけるビデオコード化の推奨勧告であり、一方、H.263は、使用可能な帯域巾が64kビット/sより小さいシステムに対する同様の推奨勧告である。これら2つの規格は、実際には、非常に密接に関連しており、そして両方とも、運動予想コード化として知られている技術を使用して、転送されねばならない情報の量を減少する。
移動ビデオ電話では、約20kビット/sの使用可能な帯域巾をもつ送信チャンネルを経てビデオシーケンスを送信することが目的である。典型的なフレームレートは、動きの良好な幻覚を与えるに充分なものでなければならず、従って、10ないし15フレーム/sでなければならない。従って、4.5Mビット/sを必要とするビデオシーケンスを、20kビット/sしか転送できないチャンネルに合致させるためには、非常に大きな圧縮比(約225:1)が必要とされることが明らかである。これは、運動予想コード化及び他の技術が実施される場合である。
運動予想コード化の背景にある基本的な考え方は、ビデオシーケンスに存在する非常に多量の時間的冗長性を考慮することである。上述したように、比較的迅速なフレームレート(即ち、10フレーム/sより高い)で記録される典型的なビデオシーケンスでは、あるフレームから次のフレームへ僅かに変化するだけである。通常、背景は固定であり、像のある部分だけが、ある形式の動きを受ける。或いは又、カメラ自体が移動する場合には、全ての画素がある程度一貫した動きを受ける。
従って、ビデオシーケンスの送信時に、情報の量を減少するように試みるときに、連続するフレーム間のこの高度な相関の利点を取り入れることができる。換言すれば、1つのフレームを、手前のいわゆる基準フレームから予想することができ、この基準フレームは、通常は、現在コード化されているフレームの直前のフレームであるが、必ずしもそうでなくてもよい。このようなコードスキムでは、コード化されて受信器へ送信されるのが、通常、現在フレームと基準フレームとの間の差だけである。一般的に、この種のコード化を、INTERコード化と称する。このようなコード化スキムに必要とされることは、送信器及び受信器の両方が基準フレーム(例えば、手前のコード化フレーム)の記録を保持することである。送信器では、ビデオエンコーダが、現在フレームを基準フレームと比較し、2つのフレーム間の差を識別し、それらをコード化し、そして変化に関する情報を受信器へ転送する。受信器では、ビデオデコーダにおいて差の情報を基準(例えば手前の)フレームに追加することにより現在フレームが再構成される。エンコーダ及びデコーダに記憶されたフレームが次いで更新されて、現在フレームが新たな基準となり、そしてあるフレームから次のフレームへとプロセスが同様に続けられる。
もちろん、この種の予想を使用できない状態も幾つかある。ビデオシーケンスの第1フレームは、常に、コード化され、そして受信器のデコーダへ送信されねばならないことが明らかである。予想コード化のための基準として使用できる手前のフレームが存在しないことが明らかである。シーンカットの場合にも、同様の状態が生じる。ここで、現在フレームが、予想ができないほど手前のフレームと相違することがあり、この場合にも、新たなフレームをコード化して送信しなければならない。この種のコード化は、一般に、INTRAコード化と称する。又、多くのコード化スキムは、周期的INTRAフレームコード化も使用する。例えば、1つのINTRAフレームが10個又は20個のフレームごとに送信されてもよい。これは、徐々に蓄積して最終的に再構成像に受け入れられない歪を生じさせるコード化エラーの影響を防止するために行われる。
運動予想コード化は、上述したINTERコード化技術の拡張とみなすことができる。上述した考慮は、ある手前のフレームを基準として現在ビデオフレームをデコードできるようにするために差の情報を受信器へいかに送信するかを説明する。差の情報を与えるための最も簡単で且つ最も明らかな方法は、基準像における対応ピクセルとは異なる現在像における各ピクセルのピクセル値(YUVデータ)を送信することである。しかしながら、実際には、この解決策は、非常に低いビットレートのチャンネルを経てビデオ送信を行えるようにするのに必要なデータレートの減少を与えるものではない。運動予想コード化は、異なる解決策を採用する。上述したように、エンコーダ及びデコーダの両方は、基準フレームの記録を維持し、そして現在フレームが、その記憶されたフレームに対する基準でコード化される。デコーダでは、現在像が、記憶された手前のフレームに対する基準と、エンコーダから送信された差の情報とで再構成される。
エンコーダでは、現在フレームがセグメントごとに検査され、それ自身と基準フレームとの間の対応が決定される。多数のセグメント化スキムを採用することができる。しばしば、現在像は、通常のピクセルブロックに簡単に分割され、例えば、マクロブロックごとに比較がなされる。或いは又、フレームを他の何らかの基準で分割してもよく、おそらく、フレームに含まれた像の異なる画素を良好に識別し、ひいては、フレーム内の動きをより正確に決定できるようにする試みにおいてそのようになされる。
予め定められたセグメント化スキムを使用し、現在フレームと基準フレームの各セグメント間で比較を行い、そのセグメントにおけるピクセルと、基準フレームにおけるピクセルのグループとの間の「最良の一致」が決定される。基準フレームに適用される固定のセグメント化は存在せず、現在フレームの所与のセグメントに最良に対応するピクセルは、以下に述べるある範囲内で、基準フレーム内の任意の位置を有してもよいことに注意されたい。このようにして、運動予想コード化は、現在像におけるピクセルのグループの原点を識別する試みとみなすことができ、即ち基準フレームを振り返って見ることによりあるフレームから次のフレームへピクセル値がいかに伝播するかを確立するよう試みる。
現在フレーム内の所与のセグメントに対して最良の一致が見つかると、そのセグメントと現在フレームとの間の対応が、「運動ベクトル」を使用してコード化される。運動ベクトルは、x及びy(水平及び垂直)成分をもつ変位ベクトルと考えることができ、これは、実際に、現在フレームのセグメントから基準フレームのピクセル位置に戻るように指し示す。従って、運動ベクトルは、実際には、基準フレームとの比較により現在フレームにおけるピクセルの原点を識別する。コード化は、現在フレームにおける各セグメントの原点が識別されるまで続けられる。それにより得られる表示は、2つのフレーム間の全体的対応を示す「運動ベクトルフィールド」と考えることができる。
運動ベクトルを使用してセグメントごとに1つの完全なビデオフレームをコード化することにより、現在フレームの非常に効率的な表示が形成される。というのは、各セグメントごとに運動ベクトルに関する情報をコード化するのに比較的少数のビットしか必要とされないからである。しかしながら、コード化プロセスは完璧なものではなく、情報のエラー及びロスがある。一般に、基準フレームにおける対応ピクセル値を厳密に識別することができないので、エラーが生じる。例えば、あるフレームから次のフレームへ像内容が若干変化することがあり、従って、基準フレームに対応部分をもたない新たな画素が現在フレームに現れる。更に、多数の予想運動エンコーダは、フレーム間に許される運動の形式を制限する。この制限は、次のように行われる。運動ベクトルフィールドを表すのに必要な情報の量を更に減少するために、運動予想エンコーダは、通常、「運動モデル」を使用し、ピクセル値をあるフレームから次のフレームへ伝播する仕方を記述する。運動モデルを使用すると、運動ベクトルフィールドは、1組の「基礎関数」に関して記述される。あるフレームから次のフレームへのピクセル値の伝播は、これらの数学的基礎関数に関して表わされる。典型的に、運動は、基礎関数にある係数値を乗算したものを含む和として表わされ、その係数は、運動ベクトルフィールドの最良の近似を与えるように決定される。運動ベクトルフィールドのこの再表現は、当然、ある付加的なエラーを導入する。というのは、運動モデルが、運動ベクトルフィールドを厳密に記述できないからである。しかしながら、この解決策は、今や運動モデル係数だけをデコーダへ送信すればよいので著しい効果を有する。この効果は、運動フィールド基礎関数が、必要と考えられる精度レベル及び実施に基づいて前もって選択され、従って、それらがエンコーダ及びデコーダの両方に知られることから得られる。現在提案されている多数のビデオコード化スキムであって、運動予想コード化を使用し、特に、H.263規格を使用するビデオコード化スキムは、並進運動フィールドモデルをベースとし、即ちその基礎関数がx及びy(水平及び垂直)方向の直線運動しか表わせないものをベースとする。従って、連続フレーム間に生じる画素の回転やスキューを表わすことができず、これは、予想される運動に必然的にエラーを招く。
最終的に、そして運動フィールドコード化プロセスにより導入されたエラーを補償するために、典型的な運動予想エンコーダは、エラー推定関数を含む。予想エラーに関する情報は、運動フィールドモデル係数と一緒にデコーダへ送信される。運動フィールドコード化プロセスに導入されたエラーを推定するため、運動予想エンコーダは、通常、受信器に見られるものと同一のデコード区分も備えている。上述した運動予想方法を使用して現在フレームがエンコードされると、エンコーダのデコード区分は、現在フレームを再構成し、そしてそれを現在フレームのオリジナルバージョンと比較する。従って、コード化された現在フレームと、オリジナルの現在フレームとの間の差を含む「予想エラーフレーム」を構成することができる。この情報は、運動フィールドのモデル係数及びおそらくは現在フレームのセグメントに関するある情報と共に、デコーダへ送信される。
このような例示的構成を使用しても、ビデオシーケンスを表示するためには、依然として著しい量のデータが必要とされる。
それ故、予想エラーを低く保持しながら、減少されたビット量又は減少されたビットレートを使用してビデオシーケンスをコード化する改良された方法が効果的である。
ビデオデータに関連したこの背景情報に鑑み、本発明の顕著な改良が展開された。
従って、本発明は、運動補償型予想を使用してビデオシーケンスに対して動作するための装置及び関連方法を効果的に提供する。
ビデオフレームをセグメントに分割しそしてセグメントの運動フィールドをその隣接セグメントから予想し、そして直交アフィン運動ベクトルフィールドモデルを使用することにより、運動ベクトルフィールドを表示するための方法が提供される。本発明の実施形態のオペレーションは、予想エラーを低く保ちながら、運動ベクトルフィールドを迅速に且つコンパクトにエンコードする方法を提供する。従って、ビデオシーケンスを一緒に形成する改良されたクオリティのビデオフレームの送信が与えられる。
本発明の実施形態のオペレーションにより、予想エラーの量を低く保つと同時に、運動ベクトルフィールドを表わすのに必要な情報の量を減少するための方法が提供される。
運動ベクトルフィールドを形成するためのエンコーダ用の運動フィールドコーダが提供される。アフィン運動ベクトルフィールドモデリングが使用される。例えば、純粋な並進運動モデルとは対照的に、アフィンモデリングを使用して運動フィールドの柔軟性の高い表示を得ることができる。ズーミング、回転、転向又は並進移動のような典型的な自然の運動を、アフィン運動ベクトルフィールドモデルによって表わすことができる。並進移動モデルのみを使用した従来のシステムは、他の形式の運動を表わすことができない。
アフィン予想運動ベクトルフィールドを使用することにより、ビデオフレームの隣接セグメントのアフィン運動ベクトルフィールドの類似性が利用される。例えば、2つの隣接セグメントが同様の運動ベクトルフィールドを有する場合には、小さな又は無視できる程度の、即ちゼロの精密化フィールドを追加するだけで、運動ベクトルフィールドの一方を他方から計算することができる。ビデオフレームの各セグメントに対して、できるだけ少数の非ゼロ係数で充分に低い予想エラーを達成するアフィン運動モデルが選択される。更に、直交基礎関数が使用される。直交基礎関数は、対応する運動係数の量子化に対する感度が低く、従って、少数のビットで係数を表わすことができる。即ち、運動係数の効率的な送信は、係数を低い精度レベルへ量子化することを必要とする。しかしながら、従来使用されている基礎関数の形式は、少数のビットで表わされたときに受け入れられないほど予想エラーを増加させる。直交基礎関数に対応する係数は、量子化に対して非常に頑丈であるから、本発明の実施形態のオペレーション中に直交基礎関数の効果的な利用がなされる。
本発明の1つの特徴において、ビデオエンコーダに対して運動フィールドコーダが提供される。この運動フィールドコーダは、圧縮された運動ベクトルフィールドを形成するように動作でき、これは、現在フレームの全ピクセルの運動ベクトルセットで形成される。運動ベクトルフィールドは、予想運動ベクトルフィールドと、精密化運動ベクトルフィールドとで形成される。
本発明の別の特徴において、ビデオエンコーダに対して運動補償型予想装置が提供される。この運動補償型予想装置は、運動フィールドコーダにより形成された補償された運動ベクトルフィールドの指示を受け取る。運動補償型予想装置は予想フレームを構成する。予想装置は、各セグメントの運動ベクトルフィールドを計算することによりフレームのピクセルを再構成するように動作できる。運動ベクトルフィールドは、予想運動ベクトルフィールド及び精密化運動ベクトルフィールドに基づいて計算される。
本発明の更に別の特徴において、ビデオデコーダに対して運動補償型予想装置が提供される。この運動補償型予想装置は、予想された運動ベクトルフィールドの指示と、精密化運動ベクトルフィールド係数とを受け取る。
それ故、これら及び他の特徴において、ビデオシーケンスに対して動作するためのビデオ装置用の装置が提供される。ビデオシーケンスは、少なくとも第1隣接セグメント及び第2隣接セグメントを有する少なくとも現在ビデオフレームで形成される。この装置は、第2隣接セグメントの運動ベクトルフィールドの近似を形成する。この装置は、第1隣接セグメントを表わす第1運動ベクトルフィールドの近似を形成する第1アフィン運動モデルを表わす指示を受け取るように接続された運動ベクトルフィールドビルダーを備えている。この運動ベクトルフィールドビルダーは、第1アフィン運動モデルを表わす指示に応答して第2アフィン運動モデルを形成する。この第2アフィン運動モデルは、第2隣接セグメントの運動ベクトルフィールドの近似を形成する。
本発明及びその範囲は、添付図面、現在好ましいと思われる本発明の実施形態の以下の詳細な説明及び特許請求の範囲から完全に明らかとなろう。
本発明の実施形態による運動予想ビデオコード化の新規な方法は、良好な像クオリティを維持しながら、低ビットレートのビデオコード化システムにおいてエンコーダからデコーダへ転送されるべきデータの量を更に減少する。この方法は、現在フレームにおけるセグメントのピクセル値を、その同じフレームの既にコード化されたセグメントを使用して更に予想するという新規な方法を含む。
1つの例示的な実施形態において、新たなビデオシーケンスをコード化しそして送信すべきときには、そのシーケンスにおける第1フレームが、上述した公知のINTRAフォーマットで送信される。このフレームは、次いで、エンコーダ及びデコーダに記憶され、そしてシーケンスにおける次の(即ち第2の)フレームに対して基準フレームを形成する。
エンコーダが第2フレームのエンコードを開始するときには、フレームの第1セグメントを検査することによりコード化プロセスをスタートする。好ましい実施形態では、現在フレームが1組の16x16ピクセルセグメントに分割されるが、これは、この方法にとって本質的なものではなく、他のセグメント化スキムも考えられる。エンコードは、最も左上のセグメントからスタートされ、そして左から右へそして上から下へとフレーム全体に進められる(即ち、コード化プロセスは、行において行われ、上から下へと進行する)。
基準フレームと現在フレームの第1セグメントとの間のピクセル値のマッピングを記述する運動ベクトルフィールドが決定され、次いで、いわゆる「アフィン」運動モデルを使用して、その運動ベクトルを近似しそして1組の運動係数を発生する。このアフィン運動モデルは、その数式が例えばフレーム間の並進移動、回転移動及びスキュー移動を許すような運動モデルの特殊なクラスである。これは6つの基礎関数よりなる。従って、運動ベクトルは、本質的に、適当に選択された「運動係数」を6つの基礎関数に乗算したものを含む和と置き換えられる。従って、運動係数(又はそのサブセット)のみをデコーダに送信すれば充分である。というのは、基礎関数自体がエンコーダ及びデコーダの両方に知られている(即ち記憶されている)からである。現在フレームの所与のセグメントに対して最良のアフィン運動モデルを生じる基準フレーム内のピクセルのグループは、少なくとも理論的には、基準フレームの任意の領域に存在し得る。ここでは、この方法の目的は、単に予想エラーを最小にするだけでなく、「レート歪」の意味でセグメントに対して最良の一致を生じるアフィン運動フィールドモデルを見出すことであると強調しなければならない。これは、像歪の尺度と、その歪レベルを達成するのに必要なデータ量の尺度との両方を考慮することにより、最良の一致が決定されることを意味する。
フレームの第1(最も左上)セグメントは、以前にコード化された隣接部をもたないので、更なる動作を行うことができず、エンコーダは、現在フレームの第2セグメントへ進む。次いで、基準フレームと現在フレームの第2セグメントとの間に最良のマッピングを与えるアフィン運動フィールドモデルが、同じ種類のレート歪、即ち上述した最良一致評価を使用して、決定される。上述したように、ピクセル値の対応領域が基準フレーム内のどこかに存在し、そして実際には、現在フレームの第1セグメントに対して最良の一致として既に決定されたものと重畳する。
第2のセグメントは、1つの以前にコード化された隣接セグメント(即ち第1セグメント)を有する。エンコーダは、ここで、第2セグメントそれ自体に対して新たに決定されるアフィン運動係数に基づくのではなく、第1セグメントに対して以前に決定されたアフィン運動モデルに関して第2セグメントをモデリングするのが「より効率的」であるかどうか考える。その理論的根拠は、次の通りである。第1セグメントに対する運動係数は既に決定されてデコーダへ送信されているので、第2セグメントをエンコードする間にデコーダへ送信しなければならない情報の量を減少することができる。従って、コード化効率の改善を得ることができる。
しかしながら、第1セグメントに対する運動係数が、第2セグメントの運動ベクトルフィールドを最も正確にモデリングするものと厳密に同じであることはほとんどあり得ない。それ故、第1セグメントに対して計算された運動係数は、単にそのように使用されず、第1セグメントの運動フィールドを第2セグメントへマップするために投影が行われる。この投影が行われた後でも、再構成像における受け入れられない歪を回避するために、第1及び第2セグメントの運動フィールド間の差に関するある情報もデコーダへ送信しなければならないことが依然考えられる。従って、エンコーダは、a)第2セグメントに対して特に決定された運動係数データを送信するのに必要なデータの量と、b)第1セグメントの運動モデルの投影及びある「精密化(refinement)」情報から第2セグメントの運動ベクトルフィールドが決定される場合に必要なデータの量との間で比較を行う。どんな情報を送信するかの選択を行うときには、エンコーダは、予想プロセスにより像に導入されることのある歪も考慮しなければならない。オプション間のこの比較は、特定のオプション、即ち送信されるべき情報の量と許される歪の量との間の妥協、を選択する「コスト」を決定するものと考えることができる。
運動予想コード化に対するこの解決策の利益は、直ちに明らかにならない。しかしながら、多くの場合に、隣接セグメントから運動フィールドモデルを投影した後には、必要とされる精密化情報が非常に僅かであるか又はゼロのこともあると分かった。これは、エンコーダ又はデコーダから送信されねばならないデータの量を著しく減少することができる。必要とされる精密化情報がゼロの場合には、第2セグメントの運動ベクトルフィールドは、単純に、デコーダに既に記憶されている運動係数に基づいて予想することができる。
この例では、今までのところ、フレームの第1及び第2セグメントしか考慮していない。上述したように、本発明の好ましい実施形態に使用されるセグメント化スキムによれば、第2セグメントは、その運動係数を予想するのに使用できる隣接部を1つしか有していない。フレームの第1行における他の全てのセグメントについても同じことが言える。このような全てのセグメントは、以前にコード化された隣接部をそのすぐ左側に有するだけである。しかしながら、像の第2行以降では、以前にコード化されたセグメントが、各セグメントの上にも得られる。従って、後続行におけるセグメントは、その左側及び上に隣接部を有する。これは、以前にコード化された隣接部をその真上にしかもたない各行の第1セグメントを除く全セグメントについて言えることである。従って、コード化されるべきフレームにおいて一般的なセグメントを考慮するときには、運動係数の予想について多数の可能性がある。一般的なケースでは、エンコーダは、所与のセグメントに対する運動係数を、その上又は左側のセグメントに対する運動フィールドモデルを使用して予想するよう試みることができる。或いは又、両隣接部に対する運動フィールドモデルを使用して、ある種の平均値を形成することもできる。各々のケースでは、隣接セグメント(1つ又は複数)から予想される運動フィールドモデルは、「予想フィールド」と称され、そしてその予想フィールドと、セグメント自体に対して特に決定された運動フィールドモデルとの間の差は、「精密化フィールド」と称される。好ましい実施形態では、予想フィールド及び精密化フィールドの両方がアフィン運動フィールドモデルである。従って、予想フィールド及び精密化フィールドの和は、セグメント自体にアフィン運動モデルを適用することにより決定される運動フィールドモデルに等しくなければならない。所与のセグメントに対する運動フィールドモデルをその隣接部から予想することができない場合には、予想フィールドがゼロにセットされ、そして精密化フィールドは、セグメント自体に対して特に決定された運動フィールドモデルに等しくなる。
以上の説明から明らかなように、所与のセグメントをコード化することのできる多数の異なる方法が存在する。どのオプションを使用するかの選択は、エンコーダにおいて、上述した「レート歪」事項に基づいて行われる。従って、選択されたコード化オプションに基づいて多数の異なる形式のデータがデコーダに送信されねばならず、そしてその情報は、セグメントを正しく再構成して表示できるように、鮮明なやり方でデコーダに送信されねばならない。種々のコード化オプションは、次の通りである。1)所与のセグメントは、予想フィールド及び精密化フィールドの和として表わすことができる。2)セグメントは、予想フィールドのみとして表わすことができる。この状態は、セグメントを1つ以上の以前にコード化された隣接部の運動フィールドに関して充分に表わすことができそして精密化情報が必要とされないとき、或いはエンコーダが精密化フィールドをゼロに効率的に減少できると分った場合に、発生する。3)当該セグメントは、基準フレームを使用してセグメントに対して特に決定された運動モデルを使用してコード化することができる。この場合には、上述したように、予想フィールドがゼロにセットされ、そして精密化フィールドが、基準フレームから決定された運動フィールドモデルに等しくセットされる。
基本的に、所与のセグメントを正しく再構成できるためにデコーダに送信されねばならない情報の形式は2つある。それらは、1)デコーダが予想に使用するための正しい隣接セグメント(1つ又は複数)を選択できるようにする選択情報と、2)運動係数情報である。予想フィールドを使用してセグメントがコード化されるときには、関連する精密化フィールドがあるかどうかに関わりなく、予想に使用される隣接セグメント(1つ又は複数)に関する情報を与えることが必要である。運動係数データを送信する必要はない。というのは、以前にコード化された隣接セグメント(1つ又は複数)の運動フィールドモデル(1つ又は複数)がデコーダに既に知られている(即ち記憶されている)からである。例えば、2つ以上の隣接セグメントに基づいて予想が行われる場合、或いは隣接セグメントをサブセグメントに分割しそして1つ以上のサブセグメントの運動フィールドモデルを使用して予想フィールドを形成する場合には、余計な情報が必要とされることもある。精密化フィールドが使用されるときには、運動係数値が与えられねばならない。この場合には、運動モデル基礎関数がデコーダにもエンコーダにも知られているので、運動係数データを送信するだけでよいことを想起されたい。
それ故、エンコーダからデコーダへ送信されるデータ流は、おそらくは、運動係数データと、異なるオペレーションを遂行するようにデコーダに命令する種々の選択データ(即ち非運動係数データ)との両方を含む。例えば、デコーダが非運動係数データを受信する場合には、選択データにより指示された隣接セグメント(1つ又は複数)又はサブセグメント(1つ又は複数)を使用して予想運動フィールドモデルを構成しなければならない。デコーダは、運動係数データを受信する場合には、送信された運動係数値及び記憶された運動モデル基礎関数を使用して精密化運動フィールドモデルを構成しなければならない。本発明の好ましい実施形態においてエンコーダにより与えられるデータ流のフォーマットは、以下で詳細に説明する。
この方法は、更なる幾つかの改善が考えられる。本発明の好ましい実施形態では、隣接セグメントを、より小さなサブセグメントに分割することができる。より詳細には、各16x16ピクセルセグメントを、4つの8x8ピクセルブロックに分割し、そしてこれらサブセグメントに対する運動フィールドモデルを使用して、予想フィールドを導出することができる。この場合、一般的な16x16ピクセルセグメントは、4つのじかに隣接する8x8ピクセルサブセグメントを有し、これらは、2つが真上でそして2つがすぐ左側であると考えられる。この状態において、判断プロセスは若干複雑であるが、上述したものと本質的に同様に機能する。サブセグメントサイズの選択は、上記の例に限定されるものではなく、種々の他のサブセグメントサイズも考えられる。例えば、4x8又は8x4ピクセルブロックをサブセグメントとして使用することができる。
上述したように、本発明の方法が実際に適用されるときには、精密化情報がほとんど必要とされず、そして一般的セグメントの運動モデルをその隣接セグメントの運動フィールドモデルからかなり高い精度で予想できることがしばしば明らかである。本発明は、もし「レート歪の意味」で効率的であれば、精密化フィールドの個々の係数又は全精密化フィールドをゼロにセットできるような更に別の特徴を含む。換言すれば、精密化フィールドは、それを実施する際に導入された像歪が、送信されるべきデータ量の減少を考慮したときに受け入れられるならば、ゼロにセットすることができる。この付加的な特徴は、エンコーダからデコーダへ送信されねばならないデータの量を更に減少する。
図1を参照すれば、10で一般的に示された通信システムは、ビデオシーケンスジェネレータとビデオシーケンス受信器との間にビデオシーケンスを通信するように動作できる。この図には、ビデオシーケンスジェネレータのエンコーダ12が示されていると共に、ビデオシーケンス受信器の一部分を形成するデコーダ14も示されている。ビデオシーケンスジェネレータ及び受信器の他の要素は、明瞭化のために図示されていない。通信経路16は、通信システムの部分を相互接続するように示されている。この通信経路は、例えば、無線リンクを含む種々の形態をとり得る。
エンコーダ12は、ここでは、ライン18を経てビデオ入力を受け取るように接続されて示されている。ビデオ入力は、運動推定装置22に送られると共に、減算器24の入力にも送られる。運動推定装置は、フレームメモリ26に記憶された基準フレームの指示を受け取るようにも接続される。運動推定装置は、コード化されているフレーム、即ち現在ビデオ入力In(x、y)と、以前のフレーム即ち基準フレームRref(x、y)との間のピクセルの運動ベクトルを計算する。
エンコーダが各セグメントをコード化すると、その再構成に必要な情報をデコーダに送信することができ、そしてデコーダは、セグメントの再構成をスタートすることができる。各フレームはセグメントごとのベースでコード化されそして以前にコード化されたセグメントのみが予想プロセスに使用されるので、デコーダにおけるフレームの再構成は、直ちにスタートすることができ、即ち全フレームがエンコードされるまで待機する必要がない。各セグメントに関する情報は、それが使用できるようになるや否やデコーダに送信され、そしてフレームのデコード動作は、受信器において、エンコードプロセスと本質的に並列に行われる。ビデオ電話の分野では、これは、端−端遅延が最小に保たれるという効果を有する。もちろん、この方法は、即座の送信が必要な要件でないビデオ記憶及び検索システムにも適用することができる。この場合に、データを即座に送信することが要求されず、現在フレームにおける他の隣接セグメントを予想目的に使用することもできる。
運動推定装置22は、運動フィールドコーダ28に接続される。この運動フィールドコーダ28は、現在フレームの全ピクセルの1組の運動ベクトルである運動ベクトルフィールドを形成するように動作し得る。運動フィールドコーダにより発生されたフィールドは、ライン32によりマルチプレクサ34へ送られ、その後、通信経路16を経てビデオシーケンス受信器及びそのデコーダ14へ通信される。
エンコーダは、運動補償型(MC)予想装置36を含むように更に示されている。又、予想装置36はフレームメモリ26にも接続される。予想装置36は、予想フレームを発生するように動作でき、これは、減算器24及び加算器38に送られる。
減算器24によって形成された差の値は、予想エラーコーダ42に送られる。この予想エラーコーダは、現在入力ビデオフレームと、フレームのMC予想バージョンとの間のピクセル値の差を決定し、予想エラーの指示を発生する。次いで、予想エラーコーダ42は、マルチプレクサ34及び予想エラーデコーダ46に接続される。予想エラーデコードブロックは、予想エラーをデコードし、これは加算器38によりMC予想現在フレームに追加され、そしてその結果がフレームメモリ26に記憶される。
デコーダ14は、ここでは、デマルチプレクサ52、予想エラーデコーダ54、運動補償型予想装置36、加算器56、及びフレームメモリ26を含むように示されている。エンコーダ及びデコーダの予想装置36は、各装置のフレームメモリ26と同様に、共通の番号にされる。
運動推定装置22は、現在フレームIn(x、y)と称されるコード化されているフレームと、基準フレームRref(x、y)との間のピクセルの運動ベクトル(Δx(x、y)、Δy(x、y))を計算する。基準フレームは、以前にコード化されそして送信されたフレームの1つであり、これは、所与の瞬間に、エンコーダ及びデコーダのフレームメモリ26に得られる。
Δx(x、y)及びΔy(x、y)は、各々、水平及び垂直変位の値である。運動ベクトルフィールドと称される現在フレームにおける全ピクセルの運動ベクトルのセットは、運動フィールドコーダ28によって圧縮され、そしてその後、上述したように、デコーダへ送信される。
運動ベクトルフィールドの圧縮が通常損失性であることを示すために、圧縮された運動ベクトルは、次のように表わされる。
Figure 2008178149
運動補償型予想装置36において、圧縮された運動ベクトル及び基準フレームを使用して、予想フレームPn(x、y)が構成される。予想フレームは、運動推定装置22及び運動フィールドコーダ28により決定された運動ベクトルフィールドと、基準フレームRref(x、y)のピクセル値とを使用して計算された現在フレームIn(x、y)のコード化バージョンである。次の式は、予想フレームをいかに計算するかを示す。
Figure 2008178149
予想エラー即ち現在フレームと予想フレームとの間の差は、次の通りである。
Figure 2008178149
MC予想装置36によって形成された運動補償予想フレームPn(x、y)は、再構成エラーの量を最小にすると同時に、運動ベクトルフィールドを表わすのに必要な情報の量を最小にするように構成される。
典型的なビデオシーケンスのフレームは、異なる動きを伴う多数のセグメントを含む。それ故、運動補償された予想は、フレームIn(x、y)を多数のセグメントに分割しそしてこのようなフレームと基準フレームとの間でこのようなセグメントの運動を推定することにより行われる。セグメント化情報は、運動表示の固有の部分である。デフォールトフレームセグメント化が使用されそしてエンコーダ及びデコーダの両方に知らされることがない限り、フレームの最終的な区画を記述する付加的な情報をデコーダへ送信しなければならない。実際に、セグメントは、通常、少なくとも数十のピクセルを含む。このようなピクセルの運動ベクトルをコンパクトに表示するために、それらの値を若干のパラメータの関数によって記述することが望ましい。このような関数は、運動ベクトルフィールドモデルと称される。以下の説明上、像セグメントの運動ベクトルは、次の一般的な加法式を使用して近似されねばならない。
Δx(x、y)=Δxprd(x、y)+Δxrefine(x、y)
Δy(x、y)=Δyprd(x、y)+Δyrefine(x、y) 式5
上記式の第2項は、精密化運動ベクトルフィールドと称され、そして次のような線形の組合せとして表される。
Figure 2008178149
パラメータcnは、精密化運動係数と称される。これらの係数は、エンコーダにおいて圧縮され、通信経路16に送信され、そしてデコーダ14において回復される。
関数fnは、基礎関数と称され、そしてエンコーダ12及びデコーダ14の両方に知られている。1組のベクトル(Δxprd(x、y)、Δyprd(x、y))は、予想運動ベクトルフィールドと称され、これも、エンコーダ及びデコーダの両方に知られている。
運動補償された予想の後に生じる予想エラーフレームEn(x、y)(式2参照)は、通常、離散的コサイン変換(DCT)のような二次元変換を使用することによりエンコードされる。このプロセスは、予想エラーコード化と称され、予想エラーを減少することを目的とする。予想エラーコード化は、通常、損失性であるために、再構成エラーを招く。
エンコーダ12の主たるタスクは、適当な1組の運動係数を見出し、それらをエンコードしてデコーダへ送信することである。通常、係数のコードに割り当てられるビット数を増加することにより、結果的に被る歪が減少される。しかしながら、歪の減少は、常に、ビット数の増加より価値があるというものではない。通常、このような妥協を取り扱う方法は、次のラグランジュ基準を次のように最小化することである。
L=D+λ・B 式7
この式において、項Dは、所与の1組の係数によりエンコードするときに被る歪即ちエラーを表わす。係数を送信するコストは、ビット数Bで表わされる。係数λは、ラグランジュパラメータと称する定数である。
本発明の実施形態の動作において、ビデオフレームの所与のセグメントの運動ベクトルフィールドは、2つのアフィン運動ベクトルフィールド、即ち予想運動ベクトルフィールド及び精密化運動ベクトルフィールドの和であり、次の通りである。
Δx(x、y)=Δxprd(x、y)+Δxrefine(x、y)
Δy(x、y)=Δyprd(x、y)+Δyrefine(x、y) 式8
予想運動ベクトルフィールドは、1つ以上の隣接セグメントの運動ベクトルフィールドから多数の方法の1つで得られる。例えば、1つの実施形態では、予想運動ベクトルフィールドは、現在セグメントによりカバーされたエリア内の隣のセグメント、例えば隣接セグメントのアフィン運動ベクトルフィールドを外挿することにより得られる。現在セグメントは、多数の隣接セグメントをもつことができるので、どのセグメントを使用すべきか特定するために、通常、シグナリング情報がデコーダに送られる。別の実施形態では、予想運動ベクトルフィールドは、エンコーダ及びデコーダの両方に知られたある特定の方法を使用して多数の隣接セグメントのアフィン運動ベクトルフィールドの組合せから得られる。このような方法は、例えば、水平及び垂直の運動ベクトルフィールド成分を平均化するか又はその中点を決定することである。
精密化運動ベクトルフィールドは、次のように表されたアフィンモデルを有する。
Figure 2008178149
ここで、基礎関数f1、・・f3は、アフィン直交関数である。これら基礎関数は、所与のセグメントを取り巻く長方形に対して直交する。そして、係数c1、・・c6は、基礎関数の直交セットに対応する精密化運動ベクトルフィールド係数である。
精密化運動係数は、フレーム内の各セグメントに対して、エンコーダ12によるエンコード中に運動フィールドコーダにより、特に、運動フィールドコーダ28により、決定される。
図2は、運動フィールドコーダ28を詳細に示す。このコーダ28は、ここでは、予想運動フィールドのセレクタ及びビルダー(形成装置)62と、運動アナライザー64と、運動係数除去装置66と、量子化装置68とを含むように示されている。
セレクタ及びビルダー62は、所与のセグメントに対し、現在フレームの以前にエンコードされたセグメント又はそのようなセグメントの組合せであって、その運動ベクトルフィールド(1つ又は複数)が所与のセグメント例えば現在セグメントの運動フィールドを予想するのに最適であるようなセグメント又はその組合せを決定するように動作できる。「勝利する」候補(1つ又は複数)の運動ベクトルフィールドに基づいて、予想運動フィールドが上記のように計算される。通常、多数の候補セグメントの中で最も適したものを特定するために、デコーダにシグナリング情報が送信される。
運動アナライザー64は、精密化運動ベクトルフィールドの新たな表示を見出すように動作できる。即ち、数学的に効率の良い表示が作られる。この新たな表示は、運動係数除去装置66において、精密化運動係数を迅速に且つ柔軟に決定するために後で使用される。
運動係数除去装置66は、精密化係数のいずれをゼロにセットすべきか決定し、そしてラグランジュ基準を最小にするように残りの非ゼロ係数の値を次のように計算する。
L(c)=D(c)+λ・B(c) 式10
但し、D(c)及びB(c)は、精密化運動係数cを使用することにより所与のセグメントをエンコードすることに対応する予想エラー及びビットの尺度である。定数λは、ラグランジュパラメータである。精密化運動ベクトルフィールド係数のいずれかをゼロにセットすると、予想エラーが増加する。しかしながら、より多くの係数がゼロにセットされたときには、エンコーダによってデコーダへ送信される必要のあるビット数が減少される。それ故、ラグランジュの値は、精密化運動係数のいずれかがゼロにセットされたときに減少できる。
量子化装置68は、残りの非ゼロ精密化運動ベクトル係数を量子化して、このような係数を、エントロピーコード化及びエンコーダからデコーダへの送信に適したものにする。
図3は、図1に示すエンコーダ12及びデコーダ14の両方の一部分を形成する運動補償型(MC)予想装置36を示す。MC予想装置36の機能的要素は、エンコーダ及びデコーダの両方に対して同様であり、そしてMC予想装置は、エンコーダ及びデコーダの両方において、フレーム内の各セグメントの運動ベクトルフィールドを計算することにより現在フレームのピクセルを再構成するように動作できる。運動ベクトルフィールドは、予想運動ベクトルフィールド(Δxprd(x、y)、Δyprd(x、y))及び精密化運動ベクトルフィールド係数に基づいて計算される。ここに例示する実施形態では、精密化運動ベクトルフィールドは、それらの逆量子化値により表わされる。デコーダ14において、既にデコードされた1つ又は多数の隣接セグメントから予想運動ベクトルフィールドが導出される。精密化運動ベクトルフィールド係数は、デコード及び逆量子化が逆量子化装置76によって行われた後にデコーダに得られる。図示されたように、MC予想装置は、更に、運動ベクトルフィールドビルダー、セグメント予想装置80及び予想運動ベクトルフィールドビルダー81を含む。
図2に示したように、運動フィールドコーダ62の運動アナライザー64への入力は、推定運動ベクトルフィールド(Δx(x、y)、Δy(x、y))を含む。この運動ベクトルフィールドは、運動推定装置22(図1に示す)によって与えられる。運動ベクトルフィールドは、運動推定装置22において従来のやり方で計算される。予想運動ベクトルフィールドも、運動アナライザーに送られる。コード化されるべきセグメントSの幾何学形状、即ちサイズ及び形状と、基準及び現在フレーム(各々Rref(x、y)及びIn(x、y))も、運動アナライザーの入力として送られる。
運動アナライザーは、多数のオペレーションを遂行するように動作する。先ず、運動アナライザーは、エラー線形化を遂行する。P個のピクセル座標(xp、xp)、p=1、2・・P、より成り、その予想運動フィールドが(Δxprd(xp、yp)、Δyprd(xp、yp))で表わされ、そしてその精密化運動ベクトルフィールドが式9で示すアフィン運動モデルにより近似されるような所与のセグメントSiの予想エラーDiは、次の通りである。
Figure 2008178149
線形化の間に、式11のRref(x、y)の値は、(Δxrefine(xp、yp)、Δyrefine(xp、yp))に直線的に依存したものとなるように、ある既知の近似方法を使用して近似される。従って、2乗予想エラーDiは、次のように近似することができる。
Figure 2008178149
e及びwの値は、使用する近似方法の形式に依存する。
その後、運動アナライザーによってマトリクスが構成される。式12において2乗のもとにあるエレメントは、係数cnの直線的組合せであるから、この式を最小にすることは、次のマトリクス式を最小にすることと完全に同等である。
(Eii−wiT(Eii−wi) 式13
但し、Ei、wi、ciは、次の通りである。
Figure 2008178149
i及びwiに基づき、マトリクスAi及びベクトルdiは、次のように計算される。
i=Ei Ti 式15
i=Ei Ti 式16
運動アナライザーは、次の式で表わされる(N+M)x(N+M)上部三角マトリクスRiを含む出力を発生する。
Figure 2008178149
但し、記号xは、次のようにマトリクスAiのコレスキー(Cholesky)因数分解を計算することにより得られた非ゼロエレメントを示す。
i=Ri Ti 式17
又、運動アナライザーは、次の1組の式を解くことによって得られるベクトルziも発生する。
i Ti=di 式18
マトリクスRi及びベクトルziは、運動アナライザーの出力パラメータであり、このような出力パラメータは、運動係数除去装置66において操作するのに適した精密化運動ベクトルフィールドの表示を構成する。
Figure 2008178149
予想運動フィールドが導出されるセグメント又は1組の隣接セグメントを特定し、又はデフォールトにより暗示するのに、種々の方法を使用することができる。又、予想運動フィールドΔxprd(x、y)、Δyprd(x、y)を発生し、上記式11を線形化し、そして1組の式18を解くのに、異なる方法を使用することができる。
図4は、単一のビデオフレーム84を示し、これは、複数の、ここでは30の、セグメント86に分割されて示されている。各セグメント86は、16ピクセルx16ピクセルブロックで構成される。各セグメントを更に分割して、より小さいセグメントを形成することもできる。ここでは、幾つかのセグメント86を分割して、8ピクセルx8ピクセルブロック88を形成する。セグメント86は、一般に、マクロブロックと称される。フレームのコード化は、左から右へそして上から下へマクロブロックごとに走査することにより行われる。
上述したように、所与のセグメントの運動ベクトルフィールドは、式(8)で与えられる加算的運動モデルに従う。予想、精密化及び最終的運動予想フィールドを得る方法について以下に述べる。ここに例示する実施形態では、運動予想又は運動精密化フィールドのいずれかをゼロにすることができる。それ故、運動ベクトルフィールドについては、所与のセグメントSiを種々の方法のいずれかでコード化することができる。例えば、セグメントは、隣接セグメントから外挿される予想運動ベクトルフィールドのみを使用してコード化することができる。或いは、セグメントは、隣接セグメントから外挿される予想運動ベクトルフィールドを、圧縮された精密化運動ベクトルフィールドと一緒に使用することにより、コード化することもできる。或いは又、セグメントは、予想フィールドを使用せずに、圧縮された運動ベクトルフィールドのみを使用してコード化することもできる。しかしながら、予想フィールドがゼロにセットされる場合には、精密化情報が送信される。又、セグメントは、ゼロ運動ベクトルフィールド、例えば基準フレームRref(x、y)からのコピーを使用することによりコード化することもできる。又、例えば、運動ベクトルフィールドを使用しないイントラコード化を使用してセグメントをコード化することもできる。
ここに例示する実施形態では、予想運動ベクトルフィールド又は精密化運動ベクトルフィールドの存在に関わらず、所与の運動補償されたセグメントSiの最終的運動ベクトルフィールドは、次の式で表されたアフィンモデルを有し、ここで、添字iは、係数が対応セグメントSiに関連していることを指示する。
Δx(x、y)=β1 i+β2 i・(y−y0 i)+β3 i・(x−x0 i)
Δx(x、y)=β4 i+β5 i・(y−y0 i)+β6 i・(x−x0 i) 式19
但し、x0 i及びy0 iは、セグメントの最も左上のピクセルの座標であり、そしてβ1 i・・β6 iは、以下に述べるように計算されたアフィン座標である。
デコーダ14のここに例示する実施形態では、整数精度を使用することによりオペレーションが実行される。これは、固定精度に対応する固定ポイント実施を利用することによって達成される。その結果、以下で参照する全ての係数は、式(19)の係数を含む整数値のものとなる。他の実施形態では、他の精度が使用される。
ここに例示する実施形態では、隣接部の予想フィールドが使用されるか否かを信号するためにデコーダ14に1ビットが送信されるが、これは少なくとも1つの予想隣接部候補がある場合だけである。隣接セグメントSkは、非ゼロの運動ベクトルフィールドを有する場合だけセグメントSiの運動ベクトルフィールドを予想するための候補となる。
又、ここに例示する実施形態では、現在セグメントの左側又は真上の至近隣接ブロックのみから予想が行われる。それ故、隣接セグメントの数はせいぜい4つであり、即ち2つの8x8ピクセルブロックが上にあり、そして2つの8x8ピクセルブロックが左側にある。この実施形態では、デコーダに送信されたビットが、隣接セグメントからの予想が使用されることを指示するときに、予想候補の数及び位置がエンコーダ及びデコーダの両方において計算される。予想候補が、例えば、2つ、3つ又は4つある場合には、使用されるべき候補を指示するために1つ又は2つの選択ビットがデコーダ14へ送信される。選択情報は、例えば、存在してもしなくてもよい1つの予想方向ビットと、それに続く、これも存在してもしなくてもよい1つの弁別ビットとで形成される。
図5は、本発明の例示的な実施形態において選択ビットの意味及び値をリストしたテーブルを92で一般的に示す。xマークは、不存在、又はコンテキストに基づく論理的「ドントケア」を示す。方向ビットは、候補の隣接セグメントが、現在予想されているセグメントの上にあるか又は左にあるかを指示する。弁別ビットは、運動ベクトルフィールドを予想するために2つの残りの候補のどちらを使用しなければならないかを特定する。即ち、上又は左側のセグメントが選択されるときに、選択の可能性は2つある。弁別ビットは、選択を識別する。テーブルに示された最終的な4つのケースでは、最も適した候補セグメントの位置に基づいて弁別ビットが存在してもしなくてもよい。例えば、方向ビットが「左から」を指示し、1つの候補しかない場合には、弁別ビットは必要とされない。デコーダ14において、方向ビットをデコードした後に、勝者の候補の方向が分る。
現在セグメントを予想するために隣接セグメントが選択されると、予想運動ベクトルフィールドは、単に、現在セグメントでカバーされたピクセルドメイン内におけるセグメントの運動ベクトルフィールドの外挿であり、次の通りである。
Δxprd(x、y)=β1 k+β2 k・(y−y0 k)+β3 k・(x−x0 k)
Δyprd(x、y)=β4 k+β5 k・(y−y0 k)+β6 k・(x−x0 k) 式20
但し、x0 k及びy0 kは、隣接セグメントSkの最も左上のピクセルの座標であり、そしてβ1 k・・β6 kは、セグメントSkの運動フィールドに対応する整数値の係数ある。式20において、添字kは、係数が隣接セグメントSkに関連していることを指示する。
式19及び20を分析すると、隣接セグメントSkの運動ベクトルフィールドが、これを現在セグメントSi内のピクセルに対して単に外挿するだけで、セグメントSiの予想運動ベクトルフィールドになることが指示される。
精密化運動ベクトルフィールドは、式9で表わされるアフィン直交モデルを仮定する。しかしながら、好ましい実施形態では、精密化係数が1組の補助精密化係数へと変換される。この補助精密化係数は、最終的な予想運動フィールドの高速計算を行えるようにする。
好ましい実施形態では、基礎関数の直交アフィンセットに対応する式9の精密化係数は、先ず、補助係数の異なるセットに変換される。これらの係数は、基礎関数のセット{1、(y−y0)、(x−x0)}に対応し、ここで、x0、y0は、セグメントにおける最も左上のピクセルの座標である。この変換は、予想及び精密化の両運動ベクトルフィールドに対する共通の基礎関数表示を得るために実行され、即ち同じ1組の基礎関数を使用するために実行される。これを行うことにより、以下に述べるように、2組の係数の加算に基づいて最終的な運動ベクトルフィールドが計算される。精密化係数c1、・・c6に基づき、セグメントSiに対して次の補助係数a1、・・a6が計算される。16x16ピクセルブロックであるセグメントに対しては、これは、次のようになる。
Figure 2008178149
8x8ピクセルブロックであるセグメントSiに対しては、計算が次の式となる。
Figure 2008178149
その結果、次の整数値変位は、セグメントSiの精密化運動ベクトルフィールドを表す。
Δxrefine(x、y)=a1+a2・(y−y0 i)+a3・(x−x0 i)
Δxrefine(x、y)=a4+a5・(y−y0 i)+a6・(x−x0 i) 式23
但し、x0 i及びy0 iは、セグメントSi内の最も左上のピクセルの座標である。
添字iは、これらの座標が現在セグメントSiに関連していることを指示する。
ここに例示する実施形態では、隣接セグメントSkを使用して運動フィールドを予想するための、所与のセグメントに対するアフィン係数の最終セットが、次の式で計算される。ここで、添字i及びkは、対応する係数が各々Si及びSkに関連していることを指示する。
β1 I=a1+Δxprd(x0 i、y0 i) β4 i=a4+Δyprd(x0 i、y0 i)
β2 I=a2+β2 k 及び β5 I=a5+β5 k
β3 I=a3+β3 k β6 I=a6+β6 k 式24
β1、・・β6の整数値係数に基づき、式19を使用して、セグメントS1に対する1組の最終運動ベクトルが発生される。運動ベクトルを使用して、基準フレームからピクセル強度を計算する方法を以下に説明する。
ここに例示する実施形態では、精密化又は非精密化運動係数を期待できるときに、ビット流における運動係数の存在が1ビットでシグナリングされる。このビットは、運動係数指示子(MCI)と称される。
又、ここに例示する実施形態では、セグメントSiに対する運動係数が送信されるときに、運動係数パターン(MPC)と称される可変長さコードが先ず送信されて、どの係数が非ゼロ値を有するか指示する。全てゼロのパターンは、唯一の非有効パターンである。というのは、この可能性は、MCIビットのみでシグナリングできるからである。MCPコードワードによって指示することのできる有効パターンの全数は、63である。これは、アフィンモデルの特性である。これは、6つの係数を有するので、26個、即ち64個の考えられる結果が生じる。従って、MCPコードワードは、ゼロが有効でないので、63個の考えられる値を有する。MCPコードワードに続いて、MCPパターンで指示される各非ゼロ運動係数のエンコードされた値がある。各非ゼロ係数のエンコードされた値がMCPコードワードに続く。運動係数cjは、cjの絶対値を示す振幅可変長さコードワードと、その後にcjの符号を示す符号ビットが続くものとしてエンコードされる。ここに例示する実施形態では、同じ可変長さコードテーブルを使用して、異なる係数の振幅をエンコードする。異なるコードテーブルを使用することができる。ゼロ振幅は、有効なオプション間にはない。というのは、この可能性は、MCPコードワードによって指示できるからである。
式19を使用することにより計算された最終的な運動ベクトルフィールド成分は、次の弁別ステップに対応する。
D=1/65536=0.0000152587890625 式25
(Δx(x、y)、Δy(x、y))がセグメントSiに対する最終的な運動補償変位を表わす場合には、以前のフレームにおける対応する非整数座標が次のようになる。
x’=x+Δx(x、y)・D
y’=y+Δy(x、y)・D 式26
好ましい実施形態では、基準フレームRrefは、そのサイズがMxNピクセルで、強度値が{0,1、・・255}の範囲である。有効ピクセル座標(x’、y’)は、{0、1、・・M−1}x{0、1、・・N−1}の範囲内でのみ定義される。運動補償予想が、基準フレームRref内の非整数位置におけるルミナンス及びクロミナンス値の評価を必要とするときには、立体的コンボリューション補間の離散的バージョンが使用される。ここに例示する実施形態では、以下に述べるように、基準フレームの再構成値を計算するときに固定ポイントの精度が使用される。
先ず、セグメントSiのピクセル(x、y)に対応する整数値変位(Δx(x、y)、Δy(x、y))は、次のように、モジュロ65536で表わされる。
Δx(x、y)=dx・65536+δx
δx∈{0、1、・・65535}
Δx(x、y)=dy・65536+δy
δy∈{0、1、・・65535} 式27
但し、dx、dy、δx及びδyは、整数値であり、後者の2つは、常に、負でない。
4x4立体的コンボリューションウインドウのx'j、y'k整数値座標は、次のように定義される。
x'j=sat(x+dx+j−2、M−1)、j=1、2、3、4
x'k=sat(y+dy+k−2、N−1)、k=1、2、3、4 式28
但し、sat(u、v)は、次のような飽和関数である。
Figure 2008178149
従って、立体的なコンボリューションに使用される16個の整数ピクセル値rjkは、次の通りである。
jk=Rref(x'j、y'k) j、k=1、2、3、4 式29
但し、x'j、y'kは、式28で計算された整数値座標である。
次いで、コンボリューション係数が計算される。以下、切り捨てによる整数の除算は「/」で表わし、そしてその両方又はそのオペランドは、常に、負でない整数である。整数切り捨てを使用することにより、次のuj、vk、j、k=1、2、3、4が計算される。
1=spl(δx/256+256) v1=spl(δy/256+256)
2=spl(δx/256) 及び v2=spl(δy/256)
3=spl(256−(δx/256)) v3=spl(256−(δy/256)) u4=16384−(u1+u2+u3) v4=16384−(v1+v2+v3)
式31但し、δx、δyは、式27の整数値であり、そしてspl(s)は、正の整数の引数の整数値関数である。
Figure 2008178149
次いで、基準ピクセル値が計算される。切り捨てによる整数除算を使用することにより、基準ピクセル値が次のように計算される。
Figure 2008178149
但し、整数値係数rjkは、式30により与えられ、整数値係数uj、vk、j、k=1、2、3、4は、式31により与えられ、そして関数sat(..)は、式29により与えられる。
運動アナライザーにおいて、線形化のステップは、次の式に対しRref(x、y)の一次テイラー展開を使用することにより実行される。
x'p=xp+Δx(xp、yp)
y'p=yp+Δy(xp、yp) 式34
x及びyについては、次のようになる。
ref(xp+Δxprd(xp、yp)+Δxrefine(xp、yp)、
p+Δyprd(xp、yp)+Δrefine(xp、yp))
≒Rref(x'p、y'p)+(Δxrefine(xp、yp)+Δxprd(xp、yp)
−Δx(xp、yp))・Gx(x'p、y'p)+(Δyrefine(xp、yp)
+Δyprd(xp、yp)−Δy(xp、yp))・Gy(x'p、y'p) 式35
x(x'p、y'p)及びGy(x'p、y'p)は、x及びyに対する基準フレームRrefの導関数の値である。このような近似を使用すると、式14におけるマトリクスEi及びベクトルwiのエレメントは、次のようになる。
Figure 2008178149
以上、本発明の好ましい実施形態について詳細に説明したが、本発明の範囲はこれに限定されるものではない。本発明の範囲は、特許請求の範囲によって限定されるものとする。
本発明の実施形態が動作できるビデオ通信システムのエンコーダ及びデコーダを示す図である。 図1に示す通信システムの一部分を形成する運動フィールドコーダーの機能的ブロック図である。 図1に示す通信システムのエンコーダ及びデコーダの一部分を形成する運動補償型予想装置の機能的ブロック図である。 本発明の実施形態の動作中にビデオフレームをセグメントに分割する方法を示す図である。 本発明の実施形態の動作中に使用される選択ビットの例示的な値及び意味を示すテーブルである。

Claims (92)

  1. ビデオシーケンスに対して動作する方法において、上記ビデオシーケンスは、少なくとも現在ビデオフレームと基準ビデオフレームとで形成され、現在ビデオフレームは、少なくとも1つの第1隣接セグメントと第2隣接セグメントとを含み、現在ビデオフレームの運動補償型予想のための方法の改良が、
    以前に記憶された第1運動フィールドモデルを検索し、この第1運動フィールドモデルは、基準ビデオフレーム内のピクセルに対する第1隣接セグメント内のピクセルの変位を記述する第1運動ベクトルフィールドのモデルであり、
    基準ビデオフレーム内のピクセルに対する現在ビデオフレームの第2隣接セグメント内のピクセルの変位を記述する第2運動ベクトルフィールドを決定し、
    運動モデルを用いて上記第2運動ベクトルフィールドをモデリングして、第2運動フィールドモデルを形成し、
    上記第1運動フィールドモデルに基づいて上記第2運動フィールドモデルを近似して、予想フィールドモデルを形成し、
    上記第2運動フィールドモデルを上記予想フィールドモデルと比較し、そして精密化フィールドモデルを形成し、この精密化フィールドモデルは、上記第2運動フィールドモデルと上記予想フィールドモデルとの間の差を表わし、
    上記予想フィールドモデルと上記精密化フィールドモデルとの和を形成することにより上記第2運動フィールドモデルの別のモデル表示を構成し、
    第1コスト関数を計算し、この第1コスト関数は、被った第1像歪の尺度と、上記第2運動フィールドモデルを使用するときに必要とされるデータの第1量の尺度とを含み、
    第2コスト関数を計算し、この第2コスト関数は、被った第2像歪の尺度と、上記第2運動フィールドの上記別のモデル表示を使用するときに必要とされるデータの第2量の尺度とを含み、
    上記第1及び第2コスト関数を比較し、そして上記第1及び第2コスト関数のどちらの絶対値が小さいか決定し、そして
    上記第2運動フィールドモデルと、上記小さい絶対値に関連した上記第2運動ベクトルフィールドの上記別のモデル表示とのいずれか1つを選択して、選択された運動フィールドモデルを指示し、そしてその選択された運動フィールドモデルを記憶する、
    という段階を含むことを特徴とする方法。
  2. 上記選択された運動フィールドモデルに関する情報をエンコードする段階を更に含む請求項1に記載の方法。
  3. 上記コード化された情報をデコーダに送信してデコードする段階を更に含む請求項2に記載の方法。
  4. 上記コード化された情報を記憶手段に記憶する段階を更に含む請求項2に記載の方法。
  5. 上記第1運動フィールドモデル、上記第2運動フィールドモデル、上記予想フィールドモデル及び上記精密化フィールドモデルの各々は、運動フィールド基礎関数の和として形成され、上記運動フィールド基礎関数の各々は運動係数が乗算される請求項1に記載の方法。
  6. 上記運動フィールド基礎関数は、直交関数である請求項5に記載の方法。
  7. 上記第1運動フィールドモデル、上記第2運動フィールドモデル、上記予想フィールドモデル及び上記精密化フィールドモデルの各々は、アフィン運動フィールドモデルである請求項6に記載の方法。
  8. 上記少なくとも1つの第1隣接セグメント及び上記第2隣接セグメントは、四辺形である請求項1に記載の方法。
  9. 上記少なくとも1つの第1隣接セグメントを複数のサブセグメントに分割し、そして少なくとも1つの上記サブセグメントの運動フィールドモデルを使用して上記予想フィールドモデルを形成する請求項1に記載の方法。
  10. 上記予想フィールドモデルは、上記少なくとも1つの隣接セグメントの運動フィールドモデルを投影することにより形成される請求項1に記載の方法。
  11. 上記予想フィールドモデルは、2つ以上の第1隣接セグメントから決定された上記第2運動ベクトルフィールドの近似を平均化することにより形成される請求項1に記載の方法。
  12. 上記予想フィールドモデルは、2つ以上の第1隣接セグメントから決定された上記第2フィールドモデルの近似を平均化することによって形成される請求項1に記載の方法。
  13. 上記第1コスト関数を計算する上記段階は、ラグランジュ基準を使用して実行される請求項1に記載の方法。
  14. 上記ラグランジュ基準は、式L=D+lambdaxBを有し、但し、Dは、所与の1組の運動係数をエンコードするときに被る歪であり、Bは、運動係数を表わすのに必要なビット数であり、そしてlambdaは、乗算ラグランジュパラメータである請求項13に記載の方法。
  15. 上記予想運動フィールド及び上記精密化運動フィールドは、共通の1組の基礎関数を使用して表わされる請求項1に記載の方法。
  16. 第1スレッシュホールド値を定義し、
    上記精密化フィールドモデルの運動係数を、上記精密化フィールドモデルの全運動係数の最小値で識別し、
    上記最小の運動係数をゼロにセットすることにより招く第3コスト関数を決定し、そして
    上記第3像歪が上記第1スレッシュホールド値を越えない状態において上記最小値の運動係数をゼロにセットすることにより上記精密化フィールドの近似を形成する、
    という段階を更に含む請求項1に記載の方法。
  17. 上記選択された運動フィールドモデルが上記第2運動フィールドモデルである場合には、上記方法は、更に、
    上記予想フィールドモデルの全運動係数をゼロにセットし、そして
    上記精密化フィールドモデルの全運動係数を上記第2運動フィールドモデルの上記運動係数に等しくセットする、
    という段階を含む請求項1に記載の方法。
  18. 情報の上記エンコードは、選択されたフィールドモデルに基づくやり方で行われる請求項17に記載の方法。
  19. 上記選択されたフィールドモデルが上記第2運動フィールドモデルである場合には、情報の上記エンコードは、上記精密化フィールドモデルをエンコードする段階を含む請求項18に記載の方法。
  20. 上記選択されたフィールドモデルが上記別のモデル表示である場合には、情報の上記エンコードは、
    上記予想フィールドモデルをエンコードし、そして
    上記精密化フィールドモデルをエンコードする、
    という段階を含む請求項18に記載の方法。
  21. 上記精密化フィールドモデルの上記エンコードは、
    上記エンコードされた情報が上記精密化フィールドモデルの上記運動係数を含むことを、第1及び第2値のいずれか1つに運動係数指示子をセットすることにより指示し、
    上記運動係数のどちらが非ゼロ値を有するかを、運動係数パターン指示子をセットすることにより指示し、そして
    上記非ゼロの運動係数値をエンコードする、
    という段階を含む請求項20に記載の方法。
  22. 上記非ゼロの運動係数値各々は、振幅値及び符号を指示することによりエンコードされる請求項21に記載の方法。
  23. 上記予想フィールドモデルのエンコードは、
    上記エンコードされた情報が運動係数値を含まないことを、第1及び第2値のいずれか1つに運動係数指示子をセットすることにより指示し、そして
    上記別のモデル表示が構成されたところの上記少なくとも1つの第1隣接セグメントの上記第2隣接セグメントに対する方向を、方向弁別指示子をセットすることにより指示する、
    という段階を含む請求項20に記載の方法。
  24. 上記予想フィールドモデルのエンコードは、
    上記別のモデル表示が構成されたところの上記少なくとも1つの第1隣接セグメントのサブセグメントを、サブセグメント弁別指示子をセットすることにより指示するという段階を更に含む請求項23に記載の方法。
  25. ビデオシーケンスに対して動作する方法において、上記ビデオシーケンスは、少なくとも現在ビデオフレームと基準ビデオフレームで形成され、現在ビデオフレームは、少なくとも1つの第1隣接セグメントと第2隣接セグメントとを含み、現在ビデオフレームの運動補償型予想のための方法の改良が、
    少なくとも1つの以前に記憶された第1運動フィールドモデルを検索し、この少なくとも1つの第1運動フィールドモデルは、基準ビデオフレーム内のピクセルに対する少なくとも1つの第1隣接セグメント内のピクセルの変位を記述する第1運動ベクトルフィールドのモデルであり、
    基準ビデオフレーム内のピクセルに対する現在ビデオフレームの第2隣接セグメント内のピクセルの変位を記述する第2運動ベクトルフィールドを決定し、
    運動モデルを用いて上記第2運動ベクトルフィールドをモデリングして、第2運動フィールドモデルを形成し、そして
    上記少なくとも1つの第1運動フィールドモデルに基づいて上記第2運動フィールドモデルを近似して、予想フィールドモデルを形成する、
    という段階を含むことを特徴とする方法。
  26. 少なくとも現在ビデオフレームで形成されたビデオシーケンスに対して動作するビデオ装置において、現在ビデオフレームは、少なくとも第1隣接セグメント及び第2隣接セグメントを含み、その第2隣接セグメントの運動ベクトルフィールドの近似を形成する装置の改良が、
    上記第1隣接セグメントを表わす第1運動ベクトルフィールドの近似を形成する第1アフィン運動モデルを表わす指示を受信すると共に、上記第2隣接セグメントの指示も受信するよう接続された運動ベクトルフィールドビルダーを備え、この運動ベクトルフィールドビルダーは、上記第1アフィン運動モデルを表わす指示に応答して第2アフィン運動モデルを形成するためのものであり、この第2アフィン運動モデルは、上記第2隣接セグメントの運動ベクトルフィールドの近似を形成することを特徴とする装置。
  27. 上記ビデオシーケンスは、更に、基準ビデオフレームで形成され、上記運動ベクトルフィールドビルダーは、更に、基準ビデオフレームの指示を受信するように接続され、そして上記第2アフィン運動モデルは、第1アフィンモデルを表わす指示と、基準ビデオフレームの選択された部分とのいずれか1つに応答する請求項26に記載の装置。
  28. 上記運動ベクトルフィールドビルダーは、更に、第2運動ベクトルフィールドを計算し、この第2運動ベクトルフィールドは、基準ビデオフレームの選択された部分に応答して計算される請求項27に記載の装置。
  29. 上記運動ベクトルフィールドビルダーは、更に、第2運動ベクトルフィールドと第2アフィン運動モデルとの間の差を決定し、これらの差が精密化フィールドモデルを形成する請求項28に記載の装置。
  30. 上記運動ベクトルフィールドビルダーは、更に、第2運動ベクトルフィールドの別の表示モデルを構成し、第2運動ベクトルフィールドのこの別の表示モデルは、精密化フィールドモデルと第2アフィン運動モデルの組合せで形成される請求項29に記載の装置。
  31. 上記運動ベクトルフィールドビルダーは、更に、コスト関数を決定し、このコスト関数は、少なくともその一部分が、像の歪と、第2運動ベクトルフィールド及び第2アフィン運動モデルの少なくとも選択された一方に関連した所要データとを表わす請求項30に記載の装置。
  32. 上記運動ベクトルフィールドビルダーは、更に、第2運動ベクトルフィールド及び第2アフィン運動モデルの選択された一方を使用し、その選択は、コスト関数に応答して行われる請求項31に記載の装置。
  33. 上記運動ベクトルフィールドビルダーは、更に、第1アフィンモデルを表わす指示及び基準ビデオフレームの選択された部分のいずれか1つを選択し、それに応答して第2アフィン運動モデルが形成される請求項27に記載の装置。
  34. 上記第1アフィン運動モデルは、それに関連した第1アフィン運動係数を有し、そして上記運動ベクトルフィールドビルダーは、更に、第1アフィン運動モデルの値を投影して、第2アフィン運動モデルを形成する請求項26に記載の装置。
  35. 上記現在ビデオフレームは、更に、第3隣接セグメントを有し、この第3隣接セグメントは、第1隣接セグメント及び第2隣接セグメントの両方に隣接し、上記運動ベクトルフィールドビルダーは、更に、この第2隣接セグメントの指示を受け取るように接続され、そして上記運動ベクトルフィールドビルダーは、更に、第1アフィン運動モデル及び第2アフィン運動モデルの選択されたいずれか1つに応答して第3アフィン運動モデルを形成する請求項26に記載の装置。
  36. 上記運動ベクトルフィールドビルダーは、更に、第1アフィン運動モデル及び第2アフィン運動モデルのいずれか1つを選択し、それに応答して第3アフィン運動モデルが形成される請求項35に記載の装置。
  37. 上記ビデオ装置は、エンコーダを有するビデオシーケンスジェネレータを形成し、そして上記運動ベクトルフィールドビルダーは、エンコーダの一部分を形成する請求項26に記載の装置。
  38. 上記ビデオ装置は、デコーダを有するビデオシーケンス受信器を形成し、そして上記運動ベクトルフィールドビルダーは、デコーダの一部分を形成する請求項26に記載の装置。
  39. 少なくとも現在ビデオフレームで形成されたビデオシーケンスに対して動作する方法において、上記の現在ビデオフレームは、少なくとも第1隣接セグメント及び第2隣接セグメントを有し、この第2隣接セグメントの運動ベクトルフィールドの近似を形成する方法の改良が、
    上記第1隣接セグメントを表わす第1運動ベクトルフィールドを形成し、
    その第1運動ベクトルフィールドを第1アフィン運動モデルでモデリングし、そして
    上記モデリング動作中にモデリングされた第1運動ベクトルフィールドに応答して第2アフィン運動ベクトルモデルを形成し、この第2アフィン運動モデルは、第2隣接セグメントの運動ベクトルフィールドの近似を形成する、
    という段階を含むことを特徴とする方法。
  40. 上記現在ビデオフレームは、更に、第3隣接セグメントを含み、この第3隣接セグメントは、第1隣接セグメント及び第2隣接セグメントの両方に隣接し、上記方法は、更に、第3隣接セグメントの運動ベクトルフィールドの近似を形成し、上記方法は、更に、
    第1アフィン運動モデル及び第2アフィン運動モデルのいずれか1つに応答して第3アフィン運動モデルを形成する、
    という段階を含む請求項39に記載の方法。
  41. 上記ビデオシーケンスは、更に、基準ビデオフレームで形成され、第2アフィン運動モデルを形成する上記動作中に形成された第2アフィン運動ベクトルフィールドは、第1運動ベクトルフィールド及び基準フレームの一部分のいずれか1つに応答する請求項39の記載の方法。
  42. 第1運動ベクトルフィールド及び基準フレームのいずれかを選択する付加的な動作を更に備え、それに応答して、第2アフィン運動モデルが形成される請求項41に記載の方法。
  43. 少なくとも現在ビデオフレーム及び基準ビデオフレームで形成されたビデオシーケンスに対して動作するビデオ装置において、現在ビデオフレームは、少なくとも第1隣接セグメントと第2隣接セグメントを含み、運動ベクトルフィールドの近似を形成する装置の改良が、
    第1隣接セグメント及び第2隣接セグメントの選択された一方を表わす指示と、基準ビデオフレームの部分を表わす指示とを受信するように接続された運動ベクトルフィールドビルダーを備え、この運動ベクトルフィールドビルダーは、第1及び第2の隣接セグメントの選択された一方と、基準ビデオフレームの選択された部分との間のマッピングを決定すると共に、そのマッピングをアフィン運動モデルで近似するためのものであり、このアフィン運動モデルは、運動ベクトルフィールドの近似を形成することを特徴とする装置。
  44. 第1隣接セグメント及び第2隣接セグメントの選択された一方は、第1隣接セグメントであり、そして運動ベクトルフィールドの近似を形成するアフィン運動モデルは、第1アフィン運動モデルより成り、この第1アフィン運動モデルは、第1隣接セグメントを表わす請求項43に記載の装置。
  45. 第1隣接セグメント及び第2隣接セグメントの選択された一方は、更に、第2隣接セグメントであり、上記運動ベクトルフィールドビルダーは、更に、第2隣接セグメントと、基準ビデオフレームの選択された部分及び第1隣接セグメントのいずれか1つとの間のマッピングを決定し、そして運動ベクトルフィールドの近似を形成するアフィン運動モデルは、第2アフィン運動モデルより成り、この第2アフィン運動モデルは、第2隣接セグメントを表わす請求項43に記載の装置。
  46. 上記ビデオ装置は、エンコーダを有するビデオシーケンスジェネレータを備え、そして上記運動ベクトルフィールドビルダーは、エンコーダの一部分を構成する請求項43に記載の装置。
  47. 上記ビデオ装置は、デコーダを有するビデオシーケンス受信器を備え、そして上記運動ベクトルフィールドビルダーは、デコーダの一部分を構成する請求項43に記載の装置。
  48. ビデオシーケンスをデコードする方法において、ビデオシーケンスは、少なくとも現在フレーム及び基準フレームで形成され、現在フレームは、少なくとも第1隣接セグメント及び第2隣接セグメントを含み、上記現在ビデオフレームをデコードする方法の改良が、
    情報形式の指示を受け取り、
    上記第2隣接セグメントに対するセグメント再構成情報を受け取り、
    上記指示に応答してセグメント再構成モードを選択し、そして
    上記選択されたセグメント再構成モードに基づいて上記第2隣接セグメントを再構成する、
    という段階を含むことを特徴とする方法。
  49. 上記選択されたセグメント再構成モードは、
    上記セグメント再構成情報が、上記隣接セグメントの再構成段階に使用されるべき第1隣接セグメントの指示を含むような第1セグメント再構成モードと、
    上記セグメント再構成情報が運動係数情報を含むような第2セグメント再構成モードと、
    を含む1組のセグメント再構成モードの1つである請求項48に記載の方法。
  50. 上記1組のセグメント再構成モードは、更に、
    上記セグメント再構成情報が上記基準フレームからのピクセル値の指示を含むような第3セグメント再構成モードと、
    上記セグメント再構成情報が上記現在フレームからのピクセル値の指示を含むような第4セグメント再構成モードと、
    を含む請求項49に記載の方法。
  51. 第1隣接セグメントの上記指示は、上記第2隣接セグメントに対する上記第1隣接セグメントの位置に関する情報を含む請求項49に記載の方法。
  52. 第1隣接セグメントの上記指示は、更に、その第1隣接セグメント内のサブセグメントに関する情報を含む請求項51に記載の方法。
  53. 上記運動係数情報は、少なくとも1つの非ゼロの運動係数値の指示を含む請求項49に記載の方法。
  54. 上記少なくとも1つの非ゼロの運動係数値の指示は、非ゼロの係数パターン指示と、少なくとも1つの非ゼロの係数値とを含む請求項53に記載の方法。
  55. 上記第1セグメント再構成モードは、上記第1隣接セグメントを表わす第1運動フィールドモデルから導出された予想運動フィールドモデルを使用することを含む請求項49に記載の方法。
  56. 上記予想運動フィールドモデルは、上記第1運動フィールドモデルを上記第1隣接セグメントから上記第2隣接セグメントへ投影することにより構成される請求項55に記載の方法。
  57. 上記第2セグメント再構成モードは、精密化運動フィールドモデルを使用することを含む請求項49に記載の方法。
  58. 上記精密化運動フィールドモデルは、少なくとも1つの運動係数値の指示により表わされる請求項57に記載の方法。
  59. 上記精密化運動フィールドモデルは、第2運動フィールドモデルと上記予想運動フィールドモデルとの間の差を表わし、上記第2運動フィールドモデルは、上記基準フレームから導出された上記第2セグメントの表示である請求項57に記載の方法。
  60. 上記精密化運動フィールドモデルは、上記基準フレームから導出された上記第2セグメントの表示である請求項57に記載の方法。
  61. ビデオシーケンスをエンコードする方法において、ビデオシーケンスは、少なくとも現在ビデオフレーム及び基準ビデオフレームで形成され、現在ビデオフレームは、少なくとも第1隣接セグメント及び第2隣接セグメントを含み、上記現在ビデオフレームの運動補償型予想のための方法の改良が、 上記第2隣接セグメントに対する1組のコード化モードを定義し、
    1組のコスト関数を計算し、これらコスト関数の各1つは、上記1組のコード化モードの1つに関連され、
    上記1組のコスト関数のうち、絶対値が最小のものを選択し、
    上記1組のコード化モードのうち、上記最小の絶対値に関連したコード化モードを、上記第2隣接セグメントに対する選択されたコードモード化として定義し、そして
    上記第2隣接セグメントに関する情報を上記選択されたコード化モードに基づいてエンコードする、
    という段階を含むことを特徴とする方法。
  62. 上記エンコードされた情報をデコーダに送信してデコードする段階を更に含む請求項61に記載の方法。
  63. 上記コード化された情報を記憶手段に記憶する段階を更に含む請求項61に記載の方法。
  64. 上記1組のコード化モードは、
    上記第1隣接セグメントからの運動フィールドモデルが上記第2隣接セグメントに投影されて、予想運動フィールドモデルを形成すると共に、上記第2隣接セグメントが上記予想運動フィールドモデルにより表わされるような第1コード化モードと、
    上記第2隣接セグメントが、上記基準フレームから導出された運動フィールドモデルにより表わされるような第2コード化モードと、
    上記第1隣接セグメントからの運動フィールドモデルが上記第2隣接セグメントに投影されて、投影フィールドモデルを形成すると共に、上記第2隣接セグメントが上記予想運動フィールドモデル及び精密化運動フィールドモデルにより表わされるような第3コード化モードと、
    を備えた請求項61に記載の方法。
  65. 上記1組のコード化モードは、更に、
    上記第2隣接セグメントが上記基準フレームからのピクセル値を使用してエンコードされるような第4コード化モードと、
    上記第2隣接セグメントが上記現在フレームからのピクセル値を使用してエンコードされるような第5コード化モードと、
    を備えた請求項64に記載の方法。
  66. 上記精密化運動フィールドモデルは、上記基準フレームから導出された上記運動フィールドモデルと上記予想運動フィールドモデルとの間の差を表わす請求項64に記載の方法。
  67. 上記予想運動フィールドモデル、上記精密化運動フィールドモデル、及び上記基準フレームから導出された上記運動フィールドモデルは、1組の基礎関数より成り、各基礎関数は運動係数値が乗算される請求項64に記載の方法。
  68. 上記基礎関数は直交関数である請求項67に記載の方法。
  69. 上記予想運動フィールドモデル、上記精密化運動フィールドモデル、及び上記基準フレームから導出された上記運動フィールドモデルは、アフィン運動フィールドモデルである請求項68に記載の方法。
  70. 上記1組のコスト関数の各1つは、被った像歪の尺度と、上記コード化モードの所与の1つを使用するときに必要とされるデータ量の尺度とを含む請求項61に記載の方法。
  71. 上記1組のコスト関数の各々は、ラグランジュ基準を使用して計算される請求項70に記載の方法。
  72. 上記ラグランジュ基準は、式L=D+lambdaxBを有し、但し、Dは、所与の1組の運動係数をエンコードするときに被る歪の尺度であり、Bは、運動係数を表わすのに必要なビット数であり、そしてlambdaは、ラグランジュパラメータである請求項71に記載の方法。
  73. 上記予想運動フィールド及び上記精密化運動フィールドは、共通の1組の基礎関数を使用して表わされる請求項67に記載の方法。
  74. 上記精密化運動フィールドモデルは、運動係数を除去することにより近似される請求項67に記載の方法。
  75. 上記現在フレームは、複数の第1隣接セグメントを含み、上記方法は、更に、
    上記複数の第1隣接セグメントの各々に対して1つづつの、複数の予想運動フィールドモデルを形成し、そして
    上記複数の予想運動フィールドモデルの所与の1つに各々対応する複数の精密化運動フィールドモデルを形成する、
    という段階を含む請求項64に記載の方法。
  76. 上記予想運動フィールドモデルは、2つ以上の第1隣接セグメントに基づいて形成される請求項75に記載の方法。
  77. 上記予想運動フィールドモデルは、2つ以上の第1隣接セグメントからの運動フィールドモデルの投影を平均化することにより形成される請求項76に記載の方法。
  78. 上記方法は、更に、上記第1隣接セグメントを複数のサブセグメントに分割し、そして少なくとも1つの上記サブセグメントの運動フィールドモデルを使用して、上記予想フィールド運動モデルを形成することを含む請求項64に記載の方法。
  79. 情報の上記エンコードは、選択されたフィールドモデルに基づくやり方で行われる請求項61に記載の方法。
  80. 上記選択されたコード化モードが上記第2のコード化モードである場合には、上記方法は、更に、上記精密化運動フィールドモデルの全運動係数を、上記基準フレームから導出された上記運動フィールドモデルの上記運動係数に等しくセットすることを含む請求項79に記載の方法。
  81. 情報の上記エンコードは、上記精密化運動フィールドモデルをエンコードする段階を含む請求項80に記載の方法。
  82. 上記選択されたコード化モードが上記第1コード化モードである場合には、情報の上記エンコードは、上記予想運動フィールドモデルをエンコードする段階を含む請求項79に記載の方法。
  83. 上記選択されたコード化モードが上記第3コード化モードである場合には、情報の上記エンコードは、
    上記予想運動フィールドモデルをエンコードし、そして
    上記精密化運動フィールドモデルをエンコードする、
    という段階を含む請求項79に記載の方法。
  84. 上記精密化運動フィールドモデルの上記エンコードは、
    上記エンコードされた情報が上記精密化フィールドモデルの上記運動係数を含むことを、第1及び第2値のいずれか1つに運動係数指示子をセットすることにより指示し、
    上記精密化フィールドモデルの上記運動係数のいずれが非ゼロ値を有するかを、運動係数指示子をセットすることにより指示し、そして
    上記非ゼロ値をエンコードする、
    という段階を含む請求項81に記載の方法。
  85. 上記精密化運動フィールドモデルの上記エンコードは、
    上記エンコードされた情報が上記精密化フィールドモデルの上記運動係数を含むことを、第1及び第2値のいずれか1つに運動係数指示子をセットすることにより指示し、
    上記精密化フィールドモデルの上記運動係数のいずれが非ゼロ値を有するかを、運動係数パターン指示子をセットすることにより指示し、そして
    上記非ゼロ値をエンコードする、
    という段階を含む請求項83に記載の方法。
  86. 上記非ゼロ係数値の各々は、振幅及び符号を指示することによりエンコードされる請求項84に記載の方法。
  87. 上記予想運動フィールドモデルのエンコードは、上記エンコードされた情報が運動係数値を含まないことを、第1及び第2値のいずれか1つに運動係数指示子をセットすることにより指示することを含む請求項82に記載の方法。
  88. 上記予想運動フィールドモデルのエンコードは、上記予想運動フィールドモデルが形成されたところの上記第1隣接セグメントの、上記第2隣接セグメントに対する相対的な位置を識別する方向を指示することを更に含む請求項87に記載の方法。
  89. 上記予想運動フィールドモデルのエンコードは、上記予想運動フィールドモデルが形成されたところの上記第1隣接セグメントのサブセグメントを、サブセグメント弁別指示子をセットすることにより指示することを更に含む請求項88に記載の方法。
  90. 上記予想運動フィールドモデルのエンコードは、上記エンコードされた情報が運動係数値を含まないことを、第1及び第2値のいずれか1つに運動係数指示子をセットすることにより指示することを含む請求項83に記載の方法。
  91. 上記予想運動フィールドモデルのエンコードは、上記予想運動フィールドモデルが形成されたところの上記第1隣接セグメントの、上記第2隣接セグメントに対する相対的な位置を識別する方向を指示することを更に含む請求項90に記載の方法。
  92. 上記予想運動フィールドモデルのエンコードは、上記予想運動フィールドモデルが形成されたところの上記第1隣接セグメントのサブセグメントを、サブセグメント弁別指示子をセットすることにより指示することを更に含む請求項91に記載の方法。
JP2008101068A 1999-08-11 2008-04-09 運動ベクトルフィールドを圧縮するための装置及び方法 Pending JP2008178149A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/371,641 US6735249B1 (en) 1999-08-11 1999-08-11 Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001515631A Division JP2003506978A (ja) 1999-08-11 2000-08-10 運動ベクトルフィールドを圧縮するための装置及び方法

Publications (1)

Publication Number Publication Date
JP2008178149A true JP2008178149A (ja) 2008-07-31

Family

ID=23464821

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2001515631A Pending JP2003506978A (ja) 1999-08-11 2000-08-10 運動ベクトルフィールドを圧縮するための装置及び方法
JP2008101068A Pending JP2008178149A (ja) 1999-08-11 2008-04-09 運動ベクトルフィールドを圧縮するための装置及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2001515631A Pending JP2003506978A (ja) 1999-08-11 2000-08-10 運動ベクトルフィールドを圧縮するための装置及び方法

Country Status (8)

Country Link
US (5) US6735249B1 (ja)
EP (1) EP1206881B1 (ja)
JP (2) JP2003506978A (ja)
CN (1) CN1207916C (ja)
AT (1) ATE281740T1 (ja)
AU (2) AU6899200A (ja)
DE (1) DE60015566C5 (ja)
WO (1) WO2001011891A1 (ja)

Families Citing this family (135)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6735249B1 (en) * 1999-08-11 2004-05-11 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
US6738423B1 (en) * 2000-01-21 2004-05-18 Nokia Mobile Phones Ltd. Method for encoding and decoding video information, a motion compensated video encoder and a corresponding decoder
FI115946B (fi) * 2000-05-05 2005-08-15 Nokia Corp Menetelmä virheiden havaitsemiseksi videoinformaatiosta
KR100355831B1 (ko) * 2000-12-06 2002-10-19 엘지전자 주식회사 2차원 최소 비트 예측 기반의 움직임 벡터 부호화 방법
US20020122491A1 (en) 2001-01-03 2002-09-05 Marta Karczewicz Video decoder architecture and method for using same
US6765963B2 (en) 2001-01-03 2004-07-20 Nokia Corporation Video decoder architecture and method for using same
US8290098B2 (en) * 2001-03-30 2012-10-16 Texas Instruments Incorporated Closed loop multiple transmit, multiple receive antenna wireless communication system
US7266150B2 (en) * 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US7693220B2 (en) 2002-01-03 2010-04-06 Nokia Corporation Transmission of video information
EP1395061A1 (en) * 2002-08-27 2004-03-03 Mitsubishi Electric Information Technology Centre Europe B.V. Method and apparatus for compensation of erroneous motion vectors in video data
US8063295B2 (en) * 2002-10-03 2011-11-22 Polyphonic Human Media Interface, S.L. Method and system for video and film recommendation
US8978090B2 (en) * 2003-03-12 2015-03-10 Qualcomm Incorporated Multimedia transcoding proxy server for wireless telecommunication system
US8824553B2 (en) 2003-05-12 2014-09-02 Google Inc. Video compression method
US7145950B2 (en) 2003-07-14 2006-12-05 Primax Electronics Ltd. Method of motion vector determination in digital video compression
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US7567617B2 (en) 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
CN100353768C (zh) * 2003-11-26 2007-12-05 联发科技股份有限公司 在视频压缩系统中进行运动估测的方法及相关装置
JP4982694B2 (ja) * 2004-01-16 2012-07-25 トライデント マイクロシステムズ インコーポレイテッド ビデオ情報を圧縮/伸張する方法
US7953152B1 (en) 2004-06-28 2011-05-31 Google Inc. Video compression and encoding method
CN100581052C (zh) * 2004-08-13 2010-01-13 深圳赛意法微电子有限公司 具有自适应的爬升和衰减时间的自动增益控制系统
KR100587698B1 (ko) 2004-10-22 2006-06-08 주식회사 휴맥스 선택적 예측 부호화/복호화 방법 및 장치
WO2007060572A2 (en) * 2005-11-24 2007-05-31 Philips Intellectual Property & Standards Gmbh Motion compensated ct reconstruction of high contrast objects
GB2435140B (en) * 2006-02-13 2011-04-06 Snell & Wilcox Ltd Sport action coding
US20100091845A1 (en) * 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
WO2007114612A1 (en) * 2006-03-30 2007-10-11 Lg Electronics Inc. A method and apparatus for decoding/encoding a video signal
US9161048B2 (en) * 2006-06-30 2015-10-13 Telecom Italia S.P.A. Method, apparatus and system for robust video transmission with auxiliary information channel
US8358693B2 (en) 2006-07-14 2013-01-22 Microsoft Corporation Encoding visual data with computation scheduling and allocation
US8311102B2 (en) * 2006-07-26 2012-11-13 Microsoft Corporation Bitstream switching in multiple bit-rate video streaming environments
US8340193B2 (en) * 2006-08-04 2012-12-25 Microsoft Corporation Wyner-Ziv and wavelet video coding
WO2008023968A1 (en) * 2006-08-25 2008-02-28 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
US20080050608A1 (en) * 2006-08-25 2008-02-28 Mcfaul Surry D Metal coating process and product
US9307122B2 (en) * 2006-09-27 2016-04-05 Core Wireless Licensing S.A.R.L. Method, apparatus, and computer program product for providing motion estimation for video encoding
US7388521B2 (en) * 2006-10-02 2008-06-17 Microsoft Corporation Request bits estimation for a Wyner-Ziv codec
US8457410B2 (en) * 2007-02-14 2013-06-04 Technion Research And Development Foundation Ltd. Over-parameterized variational optical flow method
US10194175B2 (en) 2007-02-23 2019-01-29 Xylon Llc Video coding with embedded motion
US20080240242A1 (en) * 2007-03-27 2008-10-02 Nokia Corporation Method and system for motion vector predictions
US8340192B2 (en) * 2007-05-25 2012-12-25 Microsoft Corporation Wyner-Ziv coding with multiple side information
CN100566427C (zh) * 2007-07-31 2009-12-02 北京大学 用于视频编码的帧内预测编码最佳模式的选取方法及装置
US8208552B2 (en) * 2008-01-25 2012-06-26 Mediatek Inc. Method, video encoder, and integrated circuit for detecting non-rigid body motion
BRPI0907748A2 (pt) * 2008-02-05 2015-07-21 Thomson Licensing Métodos e aparelhos para segmentação implícita de blocos em codificação e decodificação de vídeo
CN102113326A (zh) 2008-08-04 2011-06-29 杜比实验室特许公司 重叠块差异估计和补偿体系结构
US8326075B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video encoding using adaptive loop filter
US8325796B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video coding using adaptive segmentation
US8385404B2 (en) 2008-09-11 2013-02-26 Google Inc. System and method for video encoding using constructed reference frame
US8311111B2 (en) 2008-09-11 2012-11-13 Google Inc. System and method for decoding using parallel processing
US8654849B2 (en) * 2008-12-22 2014-02-18 Arris Enterprises, Inc. Integrated transcoding
US9628794B2 (en) 2009-06-18 2017-04-18 Kabushiki Kaisha Toshiba Video encoding apparatus and a video decoding apparatus
SI3448031T1 (sl) 2009-06-18 2021-03-31 Kabushiki Kaisha Toshiba Naprava za video dekodiranje in postopek za video dekodiranje
JP2011035655A (ja) * 2009-07-31 2011-02-17 Sanyo Electric Co Ltd フレームレート変換装置、およびそれを搭載した表示装置
KR101459714B1 (ko) * 2009-10-28 2014-11-13 에스케이텔레콤 주식회사 공간 분할을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US8971400B2 (en) * 2010-04-14 2015-03-03 Mediatek Inc. Method for performing hybrid multihypothesis prediction during video coding of a coding unit, and associated apparatus
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
US8611415B1 (en) 2010-11-15 2013-12-17 Google Inc. System and method for coding using improved motion estimation
PT3349360T (pt) * 2011-01-14 2019-12-09 Ge Video Compression Llc Esquema de codificação e descodificação de entropia
US8838680B1 (en) 2011-02-08 2014-09-16 Google Inc. Buffer objects for web-based configurable pipeline media processing
US8644383B2 (en) * 2011-03-10 2014-02-04 Microsoft Corporation Mean absolute difference prediction for video encoding rate control
US8938001B1 (en) 2011-04-05 2015-01-20 Google Inc. Apparatus and method for coding using combinations
US8891626B1 (en) 2011-04-05 2014-11-18 Google Inc. Center of motion for encoding motion fields
US8693547B2 (en) 2011-04-06 2014-04-08 Google Inc. Apparatus and method for coding using motion vector segmentation
US8638854B1 (en) 2011-04-07 2014-01-28 Google Inc. Apparatus and method for creating an alternate reference frame for video compression using maximal differences
US8781004B1 (en) 2011-04-07 2014-07-15 Google Inc. System and method for encoding video using variable loop filter
US8780971B1 (en) 2011-04-07 2014-07-15 Google, Inc. System and method of encoding using selectable loop filters
US9154799B2 (en) 2011-04-07 2015-10-06 Google Inc. Encoding and decoding motion via image segmentation
US8780996B2 (en) 2011-04-07 2014-07-15 Google, Inc. System and method for encoding and decoding video data
US8804819B1 (en) 2011-04-19 2014-08-12 Google Inc. Method and apparatus for encoding video using data frequency
US9749638B1 (en) 2011-04-28 2017-08-29 Google Inc. Method and apparatus for encoding video with dynamic quality improvement
US8705620B1 (en) 2011-04-28 2014-04-22 Google Inc. Method and apparatus for encoding anchor frame by encoding features using layers
US8681866B1 (en) 2011-04-28 2014-03-25 Google Inc. Method and apparatus for encoding video by downsampling frame resolution
US9106787B1 (en) 2011-05-09 2015-08-11 Google Inc. Apparatus and method for media transmission bandwidth control using bandwidth estimation
US8989256B2 (en) * 2011-05-25 2015-03-24 Google Inc. Method and apparatus for using segmentation-based coding of prediction information
CN103620674B (zh) * 2011-06-30 2016-02-24 瑞典爱立信有限公司 用于对音频信号的时间段进行编码和解码的变换音频编解码器和方法
WO2013006386A1 (en) 2011-07-01 2013-01-10 General Instrument Corporation Motion vector prediction design simplification
US8885706B2 (en) 2011-09-16 2014-11-11 Google Inc. Apparatus and methodology for a video codec system with noise reduction capability
US20130083845A1 (en) 2011-09-30 2013-04-04 Research In Motion Limited Methods and devices for data compression using a non-uniform reconstruction space
US9185428B2 (en) 2011-11-04 2015-11-10 Google Technology Holdings LLC Motion vector scaling for non-uniform motion vector grid
EP2595382B1 (en) 2011-11-21 2019-01-09 BlackBerry Limited Methods and devices for encoding and decoding transform domain filters
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
US9100657B1 (en) 2011-12-07 2015-08-04 Google Inc. Encoding time management in parallel real-time video encoding
US8908767B1 (en) 2012-02-09 2014-12-09 Google Inc. Temporal motion vector prediction
US9262670B2 (en) 2012-02-10 2016-02-16 Google Inc. Adaptive region of interest
US8947449B1 (en) 2012-02-21 2015-02-03 Google Inc. Color space conversion between semi-planar YUV and planar YUV formats
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
US9131073B1 (en) 2012-03-02 2015-09-08 Google Inc. Motion estimation aided noise reduction
US9232230B2 (en) * 2012-03-21 2016-01-05 Vixs Systems, Inc. Method and device to identify motion vector candidates using a scaled motion search
WO2013162980A2 (en) 2012-04-23 2013-10-31 Google Inc. Managing multi-reference picture buffers for video data coding
US9609341B1 (en) 2012-04-23 2017-03-28 Google Inc. Video data encoding and decoding using reference picture lists
US9185429B1 (en) 2012-04-30 2015-11-10 Google Inc. Video encoding and decoding using un-equal error protection
US9172970B1 (en) 2012-05-29 2015-10-27 Google Inc. Inter frame candidate selection for a video encoder
US9014266B1 (en) 2012-06-05 2015-04-21 Google Inc. Decimated sliding windows for multi-reference prediction in video coding
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
EP2683165B1 (en) * 2012-07-04 2015-10-14 Thomson Licensing Method for coding and decoding a block of pixels from a motion model
US9344729B1 (en) 2012-07-11 2016-05-17 Google Inc. Selective prediction signal filtering
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9288484B1 (en) 2012-08-30 2016-03-15 Google Inc. Sparse coding dictionary priming
US9407915B2 (en) 2012-10-08 2016-08-02 Google Inc. Lossless video coding with sub-frame level optimal quantization values
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9369732B2 (en) 2012-10-08 2016-06-14 Google Inc. Lossless intra-prediction video coding
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9210432B2 (en) 2012-10-08 2015-12-08 Google Inc. Lossless inter-frame video coding
US9756346B2 (en) 2012-10-08 2017-09-05 Google Inc. Edge-selective intra coding
US9172740B1 (en) 2013-01-15 2015-10-27 Google Inc. Adjustable buffer remote access
US9311692B1 (en) 2013-01-25 2016-04-12 Google Inc. Scalable buffer remote access
US9225979B1 (en) 2013-01-30 2015-12-29 Google Inc. Remote access encoding
US9300906B2 (en) 2013-03-29 2016-03-29 Google Inc. Pull frame interpolation
US10448008B1 (en) * 2013-04-30 2019-10-15 Pixelworks, Inc. Motion estimation based on block level bilateral filter and local motion model
US9756331B1 (en) 2013-06-17 2017-09-05 Google Inc. Advance coded reference prediction
US9313493B1 (en) 2013-06-27 2016-04-12 Google Inc. Advanced motion estimation
US11425395B2 (en) 2013-08-20 2022-08-23 Google Llc Encoding and decoding using tiling
US9438910B1 (en) 2014-03-11 2016-09-06 Google Inc. Affine motion prediction in video coding
US9392272B1 (en) 2014-06-02 2016-07-12 Google Inc. Video coding using adaptive source variance based partitioning
US9578324B1 (en) 2014-06-27 2017-02-21 Google Inc. Video coding using statistical-based spatially differentiated partitioning
US9286653B2 (en) 2014-08-06 2016-03-15 Google Inc. System and method for increasing the bit depth of images
US9153017B1 (en) 2014-08-15 2015-10-06 Google Inc. System and method for optimized chroma subsampling
US10102613B2 (en) 2014-09-25 2018-10-16 Google Llc Frequency-domain denoising
CN104363451B (zh) 2014-10-27 2019-01-25 华为技术有限公司 图像预测方法及相关装置
MY190198A (en) 2015-03-10 2022-04-04 Huawei Tech Co Ltd Picture prediction method and related apparatus
AU2015406855A1 (en) * 2015-08-24 2018-03-15 Huawei Technologies Co., Ltd. Motion vector field coding and decoding method, coding apparatus, and decoding apparatus
US9794574B2 (en) 2016-01-11 2017-10-17 Google Inc. Adaptive tile data size coding for video and image compression
US10542258B2 (en) 2016-01-25 2020-01-21 Google Llc Tile copying for video compression
US10560712B2 (en) 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
US10448010B2 (en) * 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
WO2018070152A1 (en) * 2016-10-10 2018-04-19 Sharp Kabushiki Kaisha Systems and methods for performing motion compensation for coding of video data
US10225573B1 (en) 2017-01-31 2019-03-05 Google Llc Video coding using parameterized motion models
US10873760B2 (en) * 2017-04-07 2020-12-22 Futurewei Technologies, Inc. Motion vector (MV) constraints and transformation constraints in video coding
WO2018209067A1 (en) * 2017-05-11 2018-11-15 Vid Scale, Inc. Higher-order motion models and graduated motion parameter estimation for video coding
US10284869B2 (en) 2017-09-28 2019-05-07 Google Llc Constrained motion field estimation for hardware efficiency
US10880573B2 (en) 2017-08-15 2020-12-29 Google Llc Dynamic motion vector referencing for video coding
US11877001B2 (en) 2017-10-10 2024-01-16 Qualcomm Incorporated Affine prediction in video coding
KR20230165377A (ko) * 2018-07-02 2023-12-05 엘지전자 주식회사 어파인 예측을 이용하여 비디오 신호를 처리하기 위한 방법 및 장치
CN116708815A (zh) * 2018-08-09 2023-09-05 Lg电子株式会社 编码设备、解码设备和数据发送设备
US10904550B2 (en) * 2019-01-12 2021-01-26 Tencent America LLC Method and apparatus for video coding
US10970855B1 (en) 2020-03-05 2021-04-06 International Business Machines Corporation Memory-efficient video tracking in real-time using direction vectors

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992014197A1 (en) * 1991-02-08 1992-08-20 Kabushiki Kaisha Toshiba Model forecasting controller
SE469866B (sv) 1991-04-12 1993-09-27 Dv Sweden Ab Metod för estimering av rörelseinnehåll i videosignaler
US5210605A (en) * 1991-06-11 1993-05-11 Trustees Of Princeton University Method and apparatus for determining motion vectors for image sequences
EP0533195A2 (en) * 1991-09-20 1993-03-24 Sony Corporation Picture signal encoding and/or decoding apparatus
CA2079434A1 (en) 1991-09-30 1993-03-31 Derek Andrew Motion vector estimation, motion picture encoding and storage
JP2636622B2 (ja) * 1992-03-13 1997-07-30 松下電器産業株式会社 ビデオ信号の符号化方法及び復号化方法ならびにビデオ信号の符号化装置及び復号化装置
TW224553B (en) * 1993-03-01 1994-06-01 Sony Co Ltd Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture
JPH06343172A (ja) * 1993-06-01 1994-12-13 Matsushita Electric Ind Co Ltd 動きベクトル検出方法及び動きベクトル符号化方法
US5398072A (en) * 1993-10-25 1995-03-14 Lsi Logic Corporation Management of channel buffer in video decoders
DE4408963A1 (de) 1994-03-16 1995-09-21 Inst Rundfunktechnik Gmbh Verfahren zum Verarbeiten eines seriellen, digitalen Datensignals
US5594504A (en) 1994-07-06 1997-01-14 Lucent Technologies Inc. Predictive video coding using a motion vector updating routine
DE19509418A1 (de) 1995-03-16 1996-09-19 Thomson Brandt Gmbh Verfahren und Schaltungsanordnung zur Unterabtastung bei Bewegungsschätzung
WO1996029679A1 (en) * 1995-03-22 1996-09-26 Idt International Digital Technologies Deutschland Gmbh Method and apparatus for coordination of motion determination over multiple frames
EP1274252A3 (en) * 1995-08-29 2005-10-05 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
GB9519923D0 (en) * 1995-09-29 1995-11-29 Philips Electronics Nv Motion estimation for predictive image coding
EP0856228B1 (en) * 1995-10-20 1999-07-28 Nokia Mobile Phones Ltd. Motion vector field coding
US5929940A (en) 1995-10-25 1999-07-27 U.S. Philips Corporation Method and device for estimating motion between images, system for encoding segmented images
US5778192A (en) 1995-10-26 1998-07-07 Motorola, Inc. Method and device for optimal bit allocation between different sources of information in digital video compression
KR100209793B1 (ko) * 1995-10-28 1999-07-15 전주범 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화 및 복호화하는 장치
US5682209A (en) 1995-11-13 1997-10-28 Tektronix, Inc. Motion estimation using limited-time early exit with prequalification matrices and a predicted search center
US5686963A (en) * 1995-12-26 1997-11-11 C-Cube Microsystems Method for performing rate control in a video encoder which provides a bit budget for each frame while employing virtual buffers and virtual buffer verifiers
ES2182972T3 (es) * 1996-04-19 2003-03-16 Nokia Corp Codificador y descodificador de video utilizando procedimientos de segmentacion y fusion de movimiento.
US5812199A (en) * 1996-07-11 1998-09-22 Apple Computer, Inc. System and method for estimating block motion in a video image sequence
JPH1079949A (ja) * 1996-09-04 1998-03-24 Oki Electric Ind Co Ltd 画像符号化装置、画像復号化装置及び画像伝送システム
FR2753330B1 (fr) * 1996-09-06 1998-11-27 Thomson Multimedia Sa Procede de quantification pour codage video
GB2317525B (en) 1996-09-20 2000-11-08 Nokia Mobile Phones Ltd A video coding system
US6005980A (en) 1997-03-07 1999-12-21 General Instrument Corporation Motion estimation and compensation of video object planes for interlaced digital video
AU711190B2 (en) * 1997-03-14 1999-10-07 Cselt-Centro Studi E Laboratori Telecomunicazioni S.P.A. Circuit for motion estimation in digitised video sequence encoders
JP3217987B2 (ja) * 1997-03-31 2001-10-15 松下電器産業株式会社 動画像信号の復号方法および符号化方法
JP3351705B2 (ja) 1997-04-25 2002-12-03 日本ビクター株式会社 動き補償符号化装置、動き補償符号化方法、及び記録媒体への記録方法
GB9712651D0 (en) * 1997-06-18 1997-08-20 Nds Ltd Improvements in or relating to encoding digital signals
KR19990005283A (ko) * 1997-06-30 1999-01-25 배순훈 웨이브렛 변환 영역에서의 계층적 움직임 추정 방법
WO1999007159A2 (en) 1997-07-29 1999-02-11 Koninklijke Philips Electronics N.V. Variable bitrate video coding method and corresponding video coder
US5978048A (en) 1997-09-25 1999-11-02 Daewoo Electronics Co., Inc. Method and apparatus for encoding a motion vector based on the number of valid reference motion vectors
US6895048B2 (en) * 1998-03-20 2005-05-17 International Business Machines Corporation Adaptive encoding of a sequence of still frames or partially still frames within motion video
US6081553A (en) * 1998-04-06 2000-06-27 Hewlett Packard Company Block-matching motion estimation technique for video compression of noisy source signals
US6128047A (en) 1998-05-20 2000-10-03 Sony Corporation Motion estimation process and system using sparse search block-matching and integral projection
US6130912A (en) 1998-06-09 2000-10-10 Sony Electronics, Inc. Hierarchical motion estimation process and system using block-matching and integral projection
EP1034660A2 (en) * 1998-07-10 2000-09-13 Koninklijke Philips Electronics N.V. Motion vector processing
AU717480B2 (en) * 1998-08-01 2000-03-30 Korea Advanced Institute Of Science And Technology Loop-filtering method for image data and apparatus therefor
JP4027513B2 (ja) * 1998-09-29 2007-12-26 株式会社ルネサステクノロジ 動き検出装置
GB2343319B (en) * 1998-10-27 2003-02-26 Nokia Mobile Phones Ltd Video coding
US6507616B1 (en) * 1998-10-28 2003-01-14 Lg Information & Communications, Ltd. Video signal coding method
US6418166B1 (en) * 1998-11-30 2002-07-09 Microsoft Corporation Motion estimation and block matching pattern
US6295089B1 (en) * 1999-03-30 2001-09-25 Sony Corporation Unsampled hd MPEG video and half-pel motion compensation
US6289052B1 (en) * 1999-06-07 2001-09-11 Lucent Technologies Inc. Methods and apparatus for motion estimation using causal templates
US6735249B1 (en) * 1999-08-11 2004-05-11 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
JP4596718B2 (ja) * 1999-08-11 2010-12-15 ノキア コーポレイション 適応動きベクトル場符号化
US6690728B1 (en) * 1999-12-28 2004-02-10 Sony Corporation Methods and apparatus for motion estimation in compressed domain
MXPA03001270A (es) 2000-08-11 2003-06-09 Nokia Corp Metodo y aparato para transferir imagen de video en un sistema de telecomunicacion.
JP4373702B2 (ja) * 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム

Also Published As

Publication number Publication date
US6735249B1 (en) 2004-05-11
CN1207916C (zh) 2005-06-22
DE60015566T2 (de) 2005-10-27
US6711209B1 (en) 2004-03-23
US7149251B2 (en) 2006-12-12
WO2001011891A1 (en) 2001-02-15
DE60015566C5 (de) 2017-08-10
AU6899200A (en) 2001-03-05
JP2003506978A (ja) 2003-02-18
AU6763100A (en) 2001-03-05
US8411757B2 (en) 2013-04-02
US20040165664A1 (en) 2004-08-26
US20070140342A1 (en) 2007-06-21
DE60015566D1 (de) 2004-12-09
US6782053B1 (en) 2004-08-24
EP1206881A1 (en) 2002-05-22
ATE281740T1 (de) 2004-11-15
CN1378750A (zh) 2002-11-06
EP1206881B1 (en) 2004-11-03

Similar Documents

Publication Publication Date Title
EP1206881B1 (en) Apparatus and method for compressing a motion vector field
AU2002324085B2 (en) Method for sub-pixel value interpolation
US6954502B2 (en) Method for encoding and decoding video information, a motion compensated video encoder and a corresponding decoder
JP4494789B2 (ja) 動的フィルタのコーディング
ES2562932T3 (es) Método para codificar movimiento en una secuencia de vídeo
US6738423B1 (en) Method for encoding and decoding video information, a motion compensated video encoder and a corresponding decoder
AU2002324085A1 (en) Method for sub-pixel value interpolation
KR100351568B1 (ko) 움직임 보상 예측 블록의 경계 방향성을 고려한 고압축장치 및 그 방법
Tzovaras et al. Optimization of quadtree segmentation and hybrid two-dimensional and three-dimensional motion estimation in a rate-distortion framework
Heising et al. Video coding using spatial extrapolation based motion field segmentation
AU2007237319B2 (en) Method for sub-pixel value interpolation
KR19990003316A (ko) 개선된 윤곽선 움직임 벡터 부호화 장치

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110609

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110909

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110914

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120405