JP2009509411A - ビデオ圧縮における適応的動きベクトルサンプリングのための多段リンク方法 - Google Patents

ビデオ圧縮における適応的動きベクトルサンプリングのための多段リンク方法 Download PDF

Info

Publication number
JP2009509411A
JP2009509411A JP2008531281A JP2008531281A JP2009509411A JP 2009509411 A JP2009509411 A JP 2009509411A JP 2008531281 A JP2008531281 A JP 2008531281A JP 2008531281 A JP2008531281 A JP 2008531281A JP 2009509411 A JP2009509411 A JP 2009509411A
Authority
JP
Japan
Prior art keywords
target image
motion vector
stage
image data
sampling pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008531281A
Other languages
English (en)
Other versions
JP5237814B2 (ja
Inventor
マルコ パニコーニ
ジェイムズ ジェイ キャリッグ
ズーロン ミアオ
Original Assignee
ソニー エレクトロニクス インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー エレクトロニクス インク filed Critical ソニー エレクトロニクス インク
Publication of JP2009509411A publication Critical patent/JP2009509411A/ja
Application granted granted Critical
Publication of JP5237814B2 publication Critical patent/JP5237814B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

画像をフィルタリングする方法は、ターゲット画像データを受け取るステップと、ターゲット画像データに多段階フィルタを適用するステップとを含む。フィルタ処理の各段階は、動きベクトルのサンプリングパターンを生成するステップと、ターゲット画像データと動きベクトルのサンプリングパターンとを利用してターゲット画像データの時間予測を生成するステップと、ターゲット画像データの時間予測を用いてターゲット画像データの時空間変換を生成するステップとを含む。
【選択図】図1

Description

本発明はビデオ圧縮の技術分野に関する。
ビデオ符号化において、圧縮処理には通常、空間フィルタリング用の残留フィルタと、時間予測フィルタとを必要とする。残留フィルタは、離散コサイン変換(DCT)、ウェーブレット、又はリフティング変換を用いることができる。時間予測フィルタは、(通常1又は2の)参照画像の集合からターゲット画像を予測することを可能にする。時間予測フィルタは、ターゲット画像内で参照画像に対して位置が変化した(すなわち移動した)物体を表す動きベクトルの集合と、動きベクトルデータに対して機能するフィルタとを利用する。時間予測に対する標準的な手法は、動きベクトルの規則的な又は均一なパターンを利用して、この動きベクトルにより表される各ブロックに対して単純な動き補償を実施する。
ターゲット画像においては、動きベクトルの不規則なパターンを用いる傾向がある。動きベクトルの不規則なパターンは、時間予測の改善を図る目的でターゲット画像内の動きベクトルの位置を適応させる(例えば、動いている物体の境界近くの動きベクトルをより多くし、背景領域の動きベクトルを少なくする)ことにより生じる。しかしながら、動きベクトルの不規則なパターンを生成することは、高度に複雑な処理手順である場合が多く、通常、時空間フィルタリングの作用とは無関係にターゲット画像上で実施される。時空間フィルタリングの作用と不規則な動きベクトルのサンプリングとの間でかなり重複する場合があるので、上記処理は望ましいものではない。
例えば、画像のある領域が複雑な動きを有する場合でも、空間相関性が非常に高いので、この領域を極めて容易にフィルタ処理することができる。従って、これらの領域は、動きベクトルの不規則な分布を必要としない。この理由は、動きベクトルの単純で均一なパターンを用いて、動きベクトルの不規則なパターンの生成に関する複雑さのコストを排除することができるためである。従来の手法では、動きベクトルの不規則なパターンの生成を時空間フィルタリングの結果とリンクさせることは不可能である。
画像をフィルタリングする方法は、ターゲット画像データを受け取るステップと、ターゲット画像データに多段階フィルタを適用するステップとを含む。各段階は、動きベクトルのサンプリングパターンを生成するステップと、ターゲット画像データと動きベクトルのサンプリングパターンとを利用してターゲット画像データの時間予測を生成するステップと、ターゲット画像データの時間予測を用いてターゲット画像データの時空間変換を生成するステップとを含む。
本発明は例証として説明され、添付図面と共に以下の説明を参照することにより十分に理解することができる。
以下の説明では、本明細書の一部を形成し、本発明を実施することができる特定の実施形態を例証として示している添付図面を参照する。他の実施形態を利用することも可能であり、本発明の範囲から逸脱することなく構造的変更を加えることができる点を理解されたい。例えば、様々な実施形態を説明するのに用いるフィールド、フレーム、又は画像といった用語は、一般的にビデオデータに関して用いられるときには同義であることは当業者には理解されるであろう。同様に、用語「動きベクトルの規則的な分布」と「動きベクトルの均一な分布」、及び用語「動きベクトルの不規則なパターン」と「動きベクトルの適応的なパターン」は、一般的にビデオデータに関して用いられるときには同義であることは当業者には理解されるであろう。
動きベクトルのパターン生成を時空間予測とリンクさせる方法では、多段階にわたるターゲット画像への時空間変換を適用する。この変換により、ターゲット画像から得られる空間データと、予測画像から得られる時間データとが処理される。本方法の最初の数段階では、ターゲット画像の空間データが高く相関付けられる。換言すれば、画像の一部からの空間データは通常、この画像の近接部分における空間データの正確な予測を提供する。従って、本方法の初期段階は、時間予測ではなく空間予測に依存する。例えば、初期段階では、生成された動きベクトルのパターンは、規則的なパターン又はほぼ規則的なパターンで分布する。動きベクトルがターゲット画像全体にわたって均一な間隔で均等に分布する場合、動きベクトルのパターンは規則的なものとなる。
本方法の後半の段階では、低域通過フィルタリングの作用により空間相関が低くなる。従って、後半の段階で生成される動きベクトルのパターンは、不規則になり、空間予測でなく時間予測に依存するようになる。空間データ及び動きベクトルの規則的なパターンを利用して最初にターゲット画像を予測することにより、ターゲット画像の圧縮形態が、動きベクトルの不規則なパターン及び時間データを利用した更なる圧縮に利用することができる。結果として、完全なターゲット画像に対して不規則なパターンを生成することよりも、部分的に圧縮された小さなサイズのターゲット画像に対する動きベクトルの不規則なパターンを生成することの方があまり複雑ではない。
多段階リンク法の1つの実施例を図1に示す。110で、エンコーダは、入力ターゲット画像と参照画像の1又はそれ以上の集合とを受け取る。各参照画像は、事前に復号化されたデータを含み、エンコーダ及びデコーダの両方がこれらの参照画像を利用できる。120で、エンコーダは、動きベクトルの第1のサンプリングパターンを生成し、これをターゲット画像に適用する。本実施例では、元のターゲット画像における空間相関性が強いので、サンプリングパターンは規則的なものである。130で、適応的時間予測フィルタは、ターゲット画像と、動きベクトルの規則的なパターンと、参照画像の集合とを利用して、ターゲット画像の第1の予測値を生成する。適応的時間予測フィルタの1つの実施例として、適応影響エリア(adaptive area of influence:AAOI)フィルタがあり、以下で説明する。140で、時空間変換の第1段階が、ターゲット画像及び第1の予測値に適用され、ターゲット画像の第1の変換値が生成される。幾つかの実施形態では、第1の変換値は、ターゲット画像の第1の低域通過データと第1の高域通過データとを含む。
150で、エンコーダは、動きベクトルの第2のパターンを生成してターゲット画像の第1の低域通過データに適用する。本実施例では、第1段階の変換の平均化処理の結果として第1の低域通過データにおいて一部の空間相関が失われるので、第2のサンプリングパターンは、第1のサンプリングパターンに比べると規則性が少ない。160で、適応的時間予測フィルタは、動きベクトルの不規則なサンプリングパターン、ターゲット画像の第1の低域通過データ、参照フィールドの集合、及び第1の予測値を利用して、ターゲット画像の第2の予測値を生成する。170で、時空間変換の第2段階がターゲット画像の第1の低域通過データ及び第2の予測値に適用され、ターゲット画像の第2の変換値を生成する。幾つかの実施形態では、第2の変換値は、ターゲット画像の第2の低域通過データと第2の高域通過データとを含む。
180で、第2段階の変換により生成されたターゲット画像の第2の低域通過データが与えられると、エンコーダは、動きベクトルの第3のパターンを生成する。本実施例では、第3のパターンは、第2段階の変換の平均化処理の結果としてより多くの空間相関性が失われるので、第2のパターンよりも更に不規則なものとなる。190で、適応的時間予測フィルタは、動きベクトルの第3の不規則なパターン、ターゲット画像の第2の低域通過データ、参照画像の集合、及び第2の予測値を利用して、第3の予測値を生成する。195で、時空間変換の第3段階が第3の予測値と第2の低域通過データとに適用されて、第3の低域通過データを含むターゲット画像の第3の変換値を生成する。197で、本実施例では最後の残りのデータである第3の低域通過データがエントロピー符号化され、符号化された係数がデコーダに送信される。図1は、3つの段階を有する多段階リンク法の実施例を示す図である。一般に、多段階リンク法は、あらゆる数の段階に適用することが可能であり、圧縮を最大にするために、各ターゲット画像に対して段階数を固定又は変更することが可能である。
図1の方法により生じた中間結果の実施例が3つの段階で図2に示されている。ブロック210は、エンコーダが受け取ったターゲット画像を示す。ターゲット画像は、フィルタ処理される前は高い空間相関性を有する。従って、ブロック220に示すように、動きベクトルの規則的なパターンがターゲット画像に適用され、適応的時間予測フィルタに入力して第1の予測値を生成する。時空間変換の第1段階は、第1の予測値及びターゲット画像を利用して、ブロック240に示すように第1の低域通過データL1及び第1の高域通過データH1を含む、第1の変換値を生成する。低域通過データの実施例は、平均化され又は圧縮されたデータであり、高域通過データの実施例は、元のターゲット画像からターゲット画像の予測を差し引いたものから取得される残留データである。
ブロック250に示すように、動きベクトルの不規則なパターンが生成され、ターゲット画像の第1の低域通過データL1に適用される。次いで、適応的時間予測フィルタは、第1の低域通過データ、第1の予測値、及び動きベクトルの不規則なパターンを利用して第2の予測値を生成する。ブロック260に示すように、時空間変換の第2段階は、第2の予測値及び第1の低域通過データを利用して、第2の低域通過データL2及び第2の高域通過データH2を含む、第2の変換を提供する。
第2の低域通過データの量は、ブロック210に示す元のターゲット画像データの量と比べるとより小さなものとなる。この結果、第2の低域通過データに対して動きベクトルの不規則なパターンを生成するステップは、元のターゲット画像に対して不規則なパターンを生成するステップよりも複雑でなくなる。また、第2の低域通過データの空間相関は、ターゲット画像210の空間相関よりも遙かに低いものとなる。従って、空間データよりも時間データに依存する場合、第2の低域通過データの予測がより正確なものとなる。従って、ブロック280に示すように、動きベクトルの不規則なパターンが生成され、第2の低域通過データに適用される。
適応的時間予測フィルタは、第2の低域通過データ、第2の予測値、及び動きベクトルの非均一なパターンを利用して、第3の予測値を生成する。ブロック295に示すように、時空間変換は、第3の予測値及び第2の低域通過データを利用して、第3の低域通過データL3を含む第3の変換値を生成する。図2に示す方法は、動きベクトルのパターンの生成を時空間フィルタリングとインタリーブさせる方法を示している。各段階において、動きベクトルのサンプリングパターンが、当該段階のターゲット画像データの空間相関に適応される。適応的サンプリングパターンは、移動物体領域においてより高密度の動きベクトルを提供し、背景領域には低密度の動きベクトルを提供する。空間相関は、一般に、初期段階では強く、後の段階では弱くなる。従って、図2の実施例は、(空間予測により依存する可能性がある)段階1における動きベクトルの規則的なパターンと、(時間予測により依存する可能性がある)より高次の段階におけるより複雑な動きベクトルパターンを示している。
図1の140をより詳細に参照し、時空間変換の1つの実施例が図3に示される。動きベクトルのパターン315がターゲット画像310に分布している。適応的時間予測フィルタは、動きベクトル及び参照画像320を利用して、時間予測値330を生成する。時間予測値及びターゲット画像に時空間変換が適用される。例えば、ターゲット画像からの画素340の行が低域通過フィルタによりフィルタ処理されて、低域通過データ350が生成される。この低域通過データと、時間予測値からの画素360とが高域通過予測フィルタにより利用されて、高域通過データ370が生成される。
図1の130、160及び190を更に詳細に参照し、適応的時間予測フィルタを実施する処理の実施例が図4に示される。適応的時間予測フィルタは、動きベクトルの規則的又は不規則的とすることができるパターンに適用されて、ターゲット画像の予測値を生成する。1つの実施形態では、不規則なパターンに対する適応的時間フィルタのタップ構造に関連して、動きベクトルの各推定値が求められる。推定は2段階で行われる。第1段階では、フィルタのタップ構造とは無関係の動きベクトルの最初の推定値が求められる。第2段階では、各動きベクトルの値の再推定中にタップ構造が利用される。特定の動きベクトルに適用されるタップ構造は、近接動きベクトルの局所的パターンから生成され、特定の動きベクトルの推定値内にそのタップ構造の作用を含めるようにする。ある実施形態では、適応的画素の影響エリアと適応的検索ウィンドウとを利用して、再推定処理の実施の複雑さを低減するようにする。適応的時間フィルタに関連して動きベクトルの値を推定する方法の実施例は、本出願と同時出願のMarco Paniconi他による、代理人整理番号50U7057「ADAPTIVE MOTION ESTIMATION FOR TEMPORAL PREDICTION FILTER OVER IRREGULAR MOTION VECTOR SAMPLES(不規則な動きベクトルのサンプルに関する時間予測フィルタに対する適応的動き推定)」と題する同時継続中の米国特許出願第XX/XXX,XXX号に記載されており、該出願は引用により本明細書に組み込まれる。
適応的時間フィルタリング手順の実施例を図4に示す。410で、画像に対する動きベクトルのサンプリングパターンが生成される。このようなパターン形成は、当業者には周知の方法を用いて様々な方法で行うことができる。
410で生成された動きベクトルのサンプリングパターンの実施例は、図5のブロック510に示される不規則なパターンである。画像510の白いドットは動きベクトルを表している。不規則又は適応的サンプリングパターンでは、動きベクトルは、参照画像からの予測が困難な領域(すなわち、移動境界に近い領域などのより複雑な動きを伴う画像領域)により多く集中している。画像の背景領域などの単純な動き領域には、より少数の動きベクトルが配置される。
図4に戻ると、420で画像は、影響エリアセル(AOIセル)と呼ばれる複数のセルに分割され、ここで各AOIセルは、そのノードとして1つの動きベクトルを有する。例えば、図5の画像510は、ブロック520に図示するようにAOIセルに分割される。各AOIセルは、画像内のいずれの他の動きベクトルよりもセル内部の動きベクトルにより大きく影響を受ける領域を表す。AOIセルは各動きベクトルに対して生成されるので、AOIセルのサイズは、境界領域などの画像内の物体の特徴に関連付けることができる。例えば、物体間の境界領域に近いAOIセルは、画像の背景領域のAOIセルよりも小さい可能性がある。また、AOIセルの形状を局所的に変更して、物体の境界の形状に適応させることができる。AOIセルの生成方法の1つの実施例は、最も距離が近い動きベクトルの分割方法である。ブロック法又は三角法などの他の分割方法を利用してもよい。
図4に戻ると、430で、各動きベクトルの初期値が決定される。435で、動きベクトルの不規則なパターン及び影響エリアセルを利用してターゲット画像内の画素を予測するために、適応的時間予測フィルタが生成される。予測フィルタは、動き補償信号に対して時間領域で動作する。詳細には、フィルタは、異なる動き補償信号の加重和を利用することによりターゲット画素を予測し、ここで各動き補償信号は、異なる動きベクトルを適用してターゲット画素を予測することにより取得される。フィルタ係数及びタップ構造は、動きベクトルの変動パターンに応じて各画素に対して変化する。また、フィルタのサポートは局所的である。このことは、ターゲット画素の補償に用いられる動きベクトルが、当該画素の局所的近傍から取得されることを意味する。
フィルタは以下の構造を有する。{vj}はN個の動きベクトルの集合を示し、I(x)は、参照画像(事前に復号化された画像)を示すものとする。S(x)は、画素xのロケーションを囲む動きベクトルの幾つかの集合を示すものとする。ターゲット画素xの予測値は、一般に次式で表すことができる。
Figure 2009509411
ここで、{fi}はフィルタ係数の集合であり、x+viは、動きベクトルviが画素xに適用されたときの動き補償画素である。フィルタのサポート又はタップは、集合S(x)で定義される。タップのサポートS(x)及びフィルタ係数{fi}は、一般に、画素位置x及び近接動きベクトルの関数である。すなわち、フィルタ係数は、動きベクトルの分布が画像全体で変動するので、各画素に対して変化することができる。従って、フィルタは、動きベクトルの変動パターンに局所的に適応する。
440で、予測フィルタがターゲット画像に適用されて、ターゲット画像に対する時間予測が実施される。このフィルタは、時間領域に適用され、動きベクトル値の集合及びサンプリングパターンをもたらすターゲット画像に対する予測結果を生成する。フィルタは、フィルタ・タップと、オーバラップする領域のエリアにより定義されるフィルタ係数とを用いて、予測されることになる画素に近接する動きベクトルの関連性を取得する。このクラスの予測フィルタの実施例は、本出願と同時出願されたMarco Paniconi他による、代理人整理番号50U6045の「ADAPTIVE AREA OF INFLUENCE FILTER(適応的影響エリアフィルタ)」と題された同時継続中の米国特許出願第XX/XXX,XXX号に開示された影響エリアフィルタであり、該出願は引用により本明細書に組み込まれる。
時間予測値を生成するためのフィルタ適用の実施例を図6に示す。参照画像602内の画素は、ターゲット画像604内の画素を予測するのに利用される。参照画素は参照画像602において実線で表され、予測されるターゲット画素は、ターゲット画像604において破線で表される。フィルタは、局所的な動きベクトルv1からv5までのタップ構造を利用することにより、ターゲット画像604における画素xに対する予測値を形成する。それぞれのAOIセルの各々が画素xのAOIセルの少なくとも一部と重なるので、動きベクトルは、画素xに対し局所的である。タップ構造における各動きベクトル{vi}は、参照画像602の画像データ{Ii}にマッピングされる。適応的時間予測フィルタは、フィルタ重み{fi}により参照データ{Ii}を調整して、画素xを予測する。
1つの実施形態では、予測フィルタは、タップ構造及びフィルタ重みを利用して、次式に従って予測値を生成する。
予測値=I1*f1+I2*f2+I3*f3+I4*f4+I5*f5
ここで、430でフィルタが生成されると、局所的な動きベクトルにより定義されるフィルタ・タップと、フィルタ係数{fi}とが求められる。
図4に戻ると、450で、フィルタにより生成された予測結果を利用して動きベクトルの値を再推定し、適応的フィルタの精度を改善する。460で、予測誤差を低減する必要がある場合には、本方法は440に戻る。そうでなければ、本方法は470で終了する。この結果、動きベクトルの全影響エリアにおける全ての画素に対する予測誤差が減少する。動きベクトルの全影響エリアを利用した動きベクトルの値を再推定する方法の実施例は、本出願と同時出願のMarco Paniconi他による、代理人整理番号50U7057の「ADAPTIVE MOITION ESTIMATION FOR TEMPORAL PREDICTION FILTER OVER IRREGULAR MOTION VECTOR SAMPLES(不規則な動きベクトルのサンプルに対する時間予測フィルタ用の適応的動き推定)」と題された同時継続中の米国特許出願第XX/XXX,XXX号に記載されており、該出願は引用により本明細書に組み込まれる。
図1の130及び160を更に詳細に参照し、適応的時間予測フィルタにより生成された中間結果の実施例を図7に示す。適応的時間予測フィルタが参照画像720とターゲット画像710内の動きベクトルの集合715とを利用して、予測画像730が生成される。適応的時間予測フィルタは、複数の動きベクトル{mi}にフィルタ係数{fi}を適用して、ターゲット画像内の画素xを予測する。予測フィルタは次式の形を有する。
Figure 2009509411
ここで、xは予測されることになる画素、iは特定の動きベクトルを示し、miは動きベクトルiに対する値、fiは動きベクトルiのフィルタ係数、集合S(x)はフィルタ・タップ、P1は第1の予測値である。
第1の予測値と、ターゲット画像の第1の低域通過データと、参照画像とを利用して第2の予測値を生成する。1つの実施形態では、第1の予測値及び参照画像を時空間変換の低域通過フィルタによりフィルタ処理して、第1の予測値760の低域通過データと参照画像750の低域通過データとを生成する。この動作により、予測フィルタに入力されたデータを共通形式とすることができる。動きベクトルの不規則なパターン745はターゲット画像の低域通過データ740に適用され、第2の予測値770が生成される。適応的時間予測フィルタは、750から得られる参照データと760から得られる第1の予測データとを利用して、ターゲット画像の第1の低域通過データ740における画素xを予測する。
第2の予測に利用される各動きベクトルは、値(mi)とモードマップ(pi)とを有する。このモードマップは、0から1までの値であり、pi∈[0,1]となり、ある実施形態では、piは0、1、又は1/2のいずれかである。このモードマップは、前回の予測の現在の予測に対する寄与度を示す。例えば、モードマップが0であれば、動きベクトルの値は、参照画像のデータだけによって決まる。モードマップが1であれば、動きベクトルの値は、前回の予測データだけによって決まる。モードマップが1/2であれば、動きベクトルの値は、前回の予測データと参照画像データとの平均値によって決まる。
適応的時間予測フィルタは、第1の予測値を利用して第2の予測値を生成するので、フィルタは以下の形を有する。
Figure 2009509411
この場合、p1は動きベクトルiのモードマップ値であり、L1 refは参照画像の低域通過データであり、L1 Pは第1の予測の低域通過データであり、P2は第2の予測値である。
図1の120、150及び180を更に詳細に参照し、動きベクトルのパターン選択の実施例を図8に示す。一般に、動きベクトルに割り当てられる総ビットバジェットと時空間変換の段階数は予め設定されている。幾つかの実施形態では、各段階で利用される動きベクトルの数もまた予め設定されている。各ブロックは1つの動きベクトルを有するので、利用することができる動きベクトルの様々なサンプリングパターンは、ブロックの個数及び種類により特徴付けられる。例えば、動きベクトルの規則的なパターンMV1は、16画素×16画素などの1つのブロック形状を用いて生成される。不規則なパターンMV2は、実施形態によっては、8×16、16×16、及び16×32の画素などの3つのブロック形状を用いて生成される。更に不規則なパターンMV3は、実施形態によっては8×8、8×16、16×16、16×32、32×32、及び32×64の画素などの6つのブロック形状を有する。極めて不規則なパターンMV4は、例えば10個などの更に多くのブロック形状を有する。
動きベクトルのこれらのサンプリングパターンMVi(iは特定のパターンを表わす)が与えられ、各段階において利用可能な動きベクトルの数が与えられると、エンコーダは、以下の動作を実施して、特定の段階nにおけるサンプリングパターンを決定する。810で、空間フィルタを利用して高域通過データが計算される。幾つかの実施形態では、この動作は、ターゲット画像を空間フィルタリングして、高域通過データの空間予測値を生成することにより実施される。815で、空間予測誤差が測定される。段階nにおけるこの高域通過データの空間予測誤差は、en spatialと表示される。820で、動きベクトルの候補サンプリングパターンMViを有する時空間フィルタを利用して、高域通過データが計算される。幾つかの実施形態では、この動作は、時空間フィルタと動きベクトルのパターンとをターゲット画像に適用して、時空間予測値を生成することにより実施される。825で、時空間予測誤差が測定される。段階nにおける高域通過データの空間予測誤差は、en spatial_temporalと表示される。第1の反復の間、iは1となり、よって規則的なサンプリングパターンMV1が用いられる。830で、空間予測誤差と時空間予測誤差との差が閾値の範囲内にあるかどうかが判定される。1つの実施形態では、この判定は次式を用いて行われる。
i-1<|en spatial−en spatial_temporal|<Ci
ここで、Ci-1とCiは、動きベクトルのサンプリングパターンにおける複雑さの程度を制御するのに用いられる予め設定された限界値である。例えば、i=1、C0=0、及び、
|en spatial−en spatial_temporal|<Ci
である場合、予測誤差は時間成分の追加に伴って実質的に低減されることはない。従って、規則的なパターンMV1の代わりに、動きベクトルの不規則なパターンを使用する必要はない。830で条件が満たされると、840で、候補パターンが使用され、本処理は845で終了する。条件が満たされない場合には、850でiが1だけ増分されて、候補パターンとして動きベクトルの次のパターンが選択され、この処理は820に戻る。
図9は、多段階リンク法を用いたシステムの実施例を示している。デジタルビデオカメラ910は電子的形式で画像を取り込み、圧縮及び符号化処理中にリンク法を用いる圧縮デバイス920を利用して画像を処理する。符号化された画像は、電子伝送媒体930を介してデジタル再生デバイス940に送られる。この画像は、復号化処理中に本方法を用いる復号化デバイス950により復号化される。カメラ910は、本発明の実施形態を含む種々の画像処理装置(例えば、他の画像取り込みデバイス、画像エディタ、画像プロセッサ、個人用及び商用のコンピューティングプラットフォーム、その他)を例証するものである。同様に、復号化デバイス950は、画像データを復号化する様々なデバイスを例示するものである。
本発明を特定のシステム環境における例示的な実施形態に関して説明したが、本発明は、添付の請求項の精神及び範囲内で他の異なるハードウェア及びソフトウェア環境において様々な方式で実施することができる点は当業者であれば理解されるであろう。
リンク法の一実施例を示す図である。 図1の方法により生成される中間結果の一実施例を示す図である。 図1の方法で用いられる時空間変換の一実施例を示す図である。 図1の方法で用いられる適応的時間フィルタリング手順の一実施例を示す図である。 図4の方法で用いられる動きベクトルのパターンの一実施例を示す図である。 図4の方法を用いて時間予測値を生成するステップの一実施例を示す図である。 図1の方法を用いて時間予測値を生成することにより提供される中間結果の一実施例を示す図である。 図1の方法により使用される動きベクトルのパターンを生成するステップの一実施例である。 図1のリンク法を用いるシステムの一実施例を示す図である。
符号の説明
110 ターゲット画像と参照画像の集合とを受け取る
120 動きベクトルの第1のパターンを生成する
130 ターゲット画像の第1の時間予測値を生成する
140 ターゲット画像の時空間変換の第1段階を適用する
150 動きベクトルの第2のパターンを生成する
160 ターゲット画像の第2の時間予測値を生成する
170 ターゲット画像の時空間変換の第2段階を適用する
180 動きベクトルの第3のパターンを生成する
190 第3の時間予測値を生成する
195 ターゲット画像の時空間変換の第3段階を適用する
197 残留データを符号化し、これをデコーダに送る

Claims (18)

  1. 電子データプロセッサにより実行される方法であって、
    ターゲット画像データを受け取るステップと、
    各々がフィルタ処理を含む多段階フィルタリングを前記ターゲット画像データに適用するステップと、
    を含み、前記フィルタ処理が、
    動きベクトルのサンプリングパターンを生成するステップと、
    前記ターゲット画像データと前記動きベクトルのサンプリングパターンとを利用して、前記ターゲット画像データの時間予測値を生成するステップと、
    前記ターゲット画像データの時間予測値を用いて、前記ターゲット画像データの時空間変換値を生成するステップと、
    を含む方法。
  2. 前記ターゲット画像データに前記多段階フィルタリングを適用するステップが、
    第1段階で、前記ターゲット画像に前記フィルタ処理を適用するステップと、
    次の段階で、前記ターゲット画像のフィルタ処理された低域通過データに前記フィルタ処理を適用するステップと、
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記動きベクトルのサンプリングパターンを生成するステップが、
    第1段階で、動きベクトルの規則的なサンプリングパターンを生成するステップと、
    次の段階で、動きベクトルの不規則なサンプリングパターンを生成するステップと、
    を含むことを特徴とする請求項1に記載の方法。
  4. 各段階における前記動きベクトルのサンプリングパターンが、当該段階で前記ターゲット画像データの空間相関に適応される、
    ことを特徴とする請求項1に記載の方法。
  5. 各段階において前記動きベクトルのサンプリングパターンを生成するステップが、
    前記ターゲット画像を空間フィルタ処理して、前記ターゲット画像の第1の予測値を生成するステップと、
    前記第1の予測値を用いて第1の予測誤差を求めるステップと、
    前記ターゲット画像に動きベクトルの候補パターンと時空間フィルタとを適用して、前記ターゲット画像の第2の予測値を生成するステップと、
    前記第2の予測値を用いて、第2の予測誤差を求めるステップと、
    前記第1の予測誤差と第2の予測誤差との間の差が予め設定された限界値の範囲内である場合、前記動きベクトルの候補パターンを前記動きベクトルのサンプリングパターンとして用いるステップと、
    を含むことを特徴とする請求項4に記載の方法。
  6. 前記動きベクトルのサンプリングパターンを用いて、前記多段階フィルタの第1段階で前記ターゲット画像の時間予測値を生成するステップが、
    次式を含む予測フィルタを適用するステップであることを特徴とする請求項1に記載の方法
    Figure 2009509411
    ここで、P1(x)は画素xの前記第1段階における時間予測値、S(x)は前記画素xをフィルタリングする動きベクトルの集合、fiは集合S(x)における動きベクトルiのフィルタ係数重み、miは動きベクトルiの値、Irefは参照画像である。
  7. 前記多段階フィルタ処理の第1段階の後の段階で、前記動きベクトルのサンプリングパターンを用いて前記ターゲット画像の時間予測値を生成するステップが、
    前記前の段階からの前記動きベクトルのサンプリングパターン、参照画像、及び前記時間予測を用いて予測フィルタを適用するステップを含む、
    ことを特徴とする請求項1に記載の方法。
  8. 前記予測フィルタが次式を含むことを特徴とする請求項7に記載の方法。
    Figure 2009509411
    ここで、Pn(x)は段階n及び画素xの時間予測、S(x)は画素xをフィルタリングする動きベクトルの集合、fiは集合S(x)における動きベクトルiの前記フィルタ係数重み、miは動きベクトルiの値、Ln-1 refは前記参照画像の低域通過フィルタ処理されたデータ、Ln-1 Pは前記前の段階からの前記時間予測の低域通過フィルタ処理されたデータ、piは、前記参照画像からの前記低域通過フィルタ処理されたデータと、前記前の段階からの前記時間予測値の低域通過フィルタ処理されたデータとによる寄与度を求めるためのモードマップ値である。
  9. 処理システムにより実行されたときに、前記システムに対して、
    ターゲット画像データを受け取るステップと、
    各々がフィルタ処理を含む多段階フィルタリングを前記ターゲット画像データに適用するステップと、
    を含み、前記フィルタ処理が、
    動きベクトルのサンプリングパターンを生成するステップと、
    前記ターゲット画像データと前記動きベクトルのサンプリングパターンとを利用して、前記ターゲット画像データの時間予測値を生成するステップと、
    前記ターゲット画像データの時間予測値を用いて、前記ターゲット画像データの時空間変換値を生成するステップと、
    を含む方法を実施させる命令のコンピュータプログラムを格納するコンピュータ可読媒体。
  10. 前記ターゲット画像データに前記多段階フィルタリングを適用するステップが、
    第1段階で、前記ターゲット画像に前記フィルタ処理を適用するステップと、
    次の段階で、前記ターゲット画像のフィルタ処理された低域通過データに前記フィルタ処理を適用するステップと、
    を含むことを特徴とする請求項9に記載のコンピュータ可読媒体。
  11. 前記動きベクトルのサンプリングパターンを生成するステップが、
    第1段階で、動きベクトルの規則的なサンプリングパターンを生成するステップと、
    次の段階で、動きベクトルの不規則なサンプリングパターンを生成するステップと、
    を含むことを特徴とする請求項9に記載のコンピュータ可読媒体。
  12. 各段階における前記動きベクトルのサンプリングパターンが、当該段階で前記ターゲット画像データの空間相関に適応される、
    ことを特徴とする請求項9に記載のコンピュータ可読媒体。
  13. 各段階において前記動きベクトルのサンプリングパターンを生成するステップが、
    前記ターゲット画像を空間フィルタ処理して、前記ターゲット画像の第1の予測値を生成するステップと、
    前記第1の予測値を用いて第1の予測誤差を求めるステップと、
    前記ターゲット画像に動きベクトルの候補パターンと時空間フィルタとを適用して、前記ターゲット画像の第2の予測値を生成するステップと、
    前記第2の予測値を用いて、第2の予測誤差を求めるステップと、
    前記第1の予測誤差と第2の予測誤差との間の差が予め設定された限界値の範囲内である場合、前記動きベクトルの候補パターンを前記動きベクトルのサンプリングパターンとして用いるステップと、
    を含むことを特徴とする請求項12に記載のコンピュータ可読媒体。
  14. ターゲット画像データを受信し、前記ターゲット画像データに多段階フィルタリングを適用するマイクロプロセッサを備えた装置であって、
    前記各段階が、
    動きベクトルのサンプリングパターンを生成するステップと、
    前記ターゲット画像データと前記動きベクトルのサンプリングパターンとを利用して、前記ターゲット画像データの時間予測値を生成するステップと、
    前記ターゲット画像データの時間予測値を用いて、前記ターゲット画像データの時空間変換値を生成するステップと、
    を有するフィルタ処理を含む、
    ことを特徴とする装置。
  15. 前記マイクロプロセッサが、
    第1段階で、前記ターゲット画像に前記フィルタ処理を適用するステップと、
    次の段階で、前記ターゲット画像のフィルタ処理された低域通過データに前記フィルタ処理を適用するステップと、
    によって前記ターゲット画像データに前記多段階フィルタリングを適用する、
    ことを特徴とする請求項14に記載の装置。
  16. 前記マイクロプロセッサが、
    第1段階で、動きベクトルの規則的なサンプリングパターンを生成するステップと、
    次の段階で、動きベクトルの不規則なサンプリングパターンを生成するステップと、
    によって前記動きベクトルのサンプリングパターンを生成する、
    ことを特徴とする請求項14に記載の装置。
  17. 各段階における前記動きベクトルのサンプリングパターンが、当該段階で前記ターゲット画像データの空間相関に適応される、
    ことを特徴とする請求項14に記載の装置。
  18. 前記マイクロプロセッサが、
    前記ターゲット画像を空間フィルタ処理して、前記ターゲット画像の第1の予測値を生成するステップと、
    前記第1の予測値を用いて第1の予測誤差を求めるステップと、
    前記ターゲット画像に動きベクトルの候補パターンと時空間フィルタとを適用して、前記ターゲット画像の第2の予測値を生成するステップと、
    前記第2の予測値を用いて、第2の予測誤差を求めるステップと、
    前記第1の予測誤差と第2の予測誤差との間の差が予め設定された限界値の範囲内である場合、前記動きベクトルの候補パターンを前記動きベクトルのサンプリングパターンとして用いるステップと、
    によって各段階において前記動きベクトルのサンプリングパターンを生成する、
    ことを特徴とする請求項17に記載の装置。
JP2008531281A 2005-09-16 2006-09-13 ビデオ圧縮における適応的動きベクトルサンプリングのための多段リンク方法 Active JP5237814B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/229,230 2005-09-16
US11/229,230 US7894527B2 (en) 2005-09-16 2005-09-16 Multi-stage linked process for adaptive motion vector sampling in video compression
PCT/US2006/035675 WO2007035362A2 (en) 2005-09-16 2006-09-13 Multi-staged linked process for adaptive motion vector sampling in video compression

Publications (2)

Publication Number Publication Date
JP2009509411A true JP2009509411A (ja) 2009-03-05
JP5237814B2 JP5237814B2 (ja) 2013-07-17

Family

ID=37884051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008531281A Active JP5237814B2 (ja) 2005-09-16 2006-09-13 ビデオ圧縮における適応的動きベクトルサンプリングのための多段リンク方法

Country Status (6)

Country Link
US (1) US7894527B2 (ja)
EP (1) EP1932098A4 (ja)
JP (1) JP5237814B2 (ja)
KR (1) KR101328795B1 (ja)
CN (1) CN101268477B (ja)
WO (1) WO2007035362A2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050123886A1 (en) * 2003-11-26 2005-06-09 Xian-Sheng Hua Systems and methods for personalized karaoke
DE102005051091A1 (de) * 2005-10-25 2007-04-26 Siemens Ag Verfahren und Vorrichtungen zur Bestimmung und Rekonstruktion eines prädizierten Bildbereichs
JP4569555B2 (ja) * 2005-12-14 2010-10-27 日本ビクター株式会社 電子機器
US8111750B2 (en) * 2007-03-20 2012-02-07 Himax Technologies Limited System and method for 3-D recursive search motion estimation
CN101878650B (zh) 2007-11-30 2013-07-10 杜比实验室特许公司 时间图像预测的方法和系统
US8059909B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive generation of irregular spatial sub-sampling for images
CN101567694B (zh) * 2009-04-30 2012-04-18 钱宇 一种基于连通子图的多级数据采样方法
JP2012151576A (ja) * 2011-01-18 2012-08-09 Hitachi Ltd 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004524730A (ja) * 2000-12-21 2004-08-12 ユニサーチ・リミテッド ビデオのスケーラブル圧縮方法および装置

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0309669B1 (de) 1987-09-30 1992-12-30 Siemens Aktiengesellschaft Verfahren zur szenenmodellgestützten Bilddatenreduktion für digitale Fernsehsignale
US5690934A (en) * 1987-12-31 1997-11-25 Tanox Biosystems, Inc. Peptides relating to the extracellular membrane-bound segment of human alpha chain
US5047850A (en) 1989-03-03 1991-09-10 Matsushita Electric Industrial Co., Ltd. Detector for detecting vector indicating motion of image
US5872866A (en) 1995-04-18 1999-02-16 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression by predetermination of IDCT results based on image characteristics
US5654771A (en) 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
JP3855286B2 (ja) * 1995-10-26 2006-12-06 ソニー株式会社 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、並びに記録媒体
WO1997040628A1 (en) 1996-04-19 1997-10-30 Nokia Mobile Phones Limited Video encoder and decoder using motion-based segmentation and merging
US6101276A (en) 1996-06-21 2000-08-08 Compaq Computer Corporation Method and apparatus for performing two pass quality video compression through pipelining and buffer management
JP3967405B2 (ja) 1996-10-09 2007-08-29 テキサス インスツルメンツ インコーポレイテツド 画像信号の符号化方法
JP4034380B2 (ja) 1996-10-31 2008-01-16 株式会社東芝 画像符号化/復号化方法及び装置
DE19648016A1 (de) 1996-11-20 1998-05-28 Philips Patentverwaltung Verfahren zur fraktalen Bildkodierung und Anordnung zur Durchführung des Verfahrens
EP0898427A4 (en) 1997-02-13 2004-04-28 Mitsubishi Electric Corp ANIMATED IMAGE ESTIMATION SYSTEM
KR19990005282A (ko) * 1997-06-30 1999-01-25 배순훈 웨이브렛 변환 영역에서의 패턴 분류를 이용한 계층적 움직임 추정 방법
US6178205B1 (en) 1997-12-12 2001-01-23 Vtel Corporation Video postfiltering with motion-compensated temporal filtering and/or spatial-adaptive filtering
US6208692B1 (en) 1997-12-31 2001-03-27 Sarnoff Corporation Apparatus and method for performing scalable hierarchical motion estimation
US6591015B1 (en) 1998-07-29 2003-07-08 Matsushita Electric Industrial Co., Ltd. Video coding method and apparatus with motion compensation and motion vector estimator
KR100301833B1 (ko) 1998-08-20 2001-09-06 구자홍 오류은폐방법
US6711278B1 (en) 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6466624B1 (en) 1998-10-28 2002-10-15 Pixonics, Llc Video decoder with bit stream based enhancements
JP2000308064A (ja) 1999-04-22 2000-11-02 Mitsubishi Electric Corp 動きベクトル検出装置
US6480615B1 (en) 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
JP3753578B2 (ja) 1999-12-07 2006-03-08 Necエレクトロニクス株式会社 動きベクトル探索装置および方法
US6864994B1 (en) 2000-01-19 2005-03-08 Xerox Corporation High-speed, high-quality descreening system and method
CN1205818C (zh) 2000-04-11 2005-06-08 皇家菲利浦电子有限公司 视频编码和解码方法
AU2002228884A1 (en) 2000-11-03 2002-05-15 Compression Science Video data compression system
US6782054B2 (en) 2001-04-20 2004-08-24 Koninklijke Philips Electronics, N.V. Method and apparatus for motion vector estimation
US7110455B2 (en) * 2001-08-14 2006-09-19 General Instrument Corporation Noise reduction pre-processor for digital video using previously generated motion vectors and adaptive spatial filtering
US6996186B2 (en) * 2002-02-22 2006-02-07 International Business Machines Corporation Programmable horizontal filter with noise reduction and image scaling for video encoding system
AU2003246987A1 (en) 2002-07-09 2004-01-23 Nokia Corporation Method and system for selecting interpolation filter type in video coding
US7068722B2 (en) 2002-09-25 2006-06-27 Lsi Logic Corporation Content adaptive video processor using motion compensation
US6898328B2 (en) * 2002-10-23 2005-05-24 Sony Corporation Method and apparatus for adaptive pixel estimation under high error rate conditions
JP4462823B2 (ja) 2002-11-20 2010-05-12 ソニー株式会社 画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラム
JP3997171B2 (ja) 2003-03-27 2007-10-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP2005167976A (ja) * 2003-11-14 2005-06-23 Victor Co Of Japan Ltd 動きベクトル検出装置及び動きベクトル検出プログラム
US7480334B2 (en) 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
KR20050075483A (ko) 2004-01-15 2005-07-21 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 및 이를 위한 장치
US8503530B2 (en) * 2004-05-27 2013-08-06 Zhourong Miao Temporal classified filtering for video compression
US20060140273A1 (en) * 2004-12-28 2006-06-29 Siu-Wai Wu Dual-pass HDTV encoder with noise reduction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004524730A (ja) * 2000-12-21 2004-08-12 ユニサーチ・リミテッド ビデオのスケーラブル圧縮方法および装置

Also Published As

Publication number Publication date
WO2007035362A2 (en) 2007-03-29
KR20080054399A (ko) 2008-06-17
WO2007035362A3 (en) 2007-10-11
CN101268477B (zh) 2012-08-15
EP1932098A4 (en) 2012-09-12
KR101328795B1 (ko) 2013-11-13
JP5237814B2 (ja) 2013-07-17
US7894527B2 (en) 2011-02-22
CN101268477A (zh) 2008-09-17
EP1932098A2 (en) 2008-06-18
US20070064806A1 (en) 2007-03-22

Similar Documents

Publication Publication Date Title
JP2801559B2 (ja) 動き大小に適応する動き補償符号化方法及びその装置
JP5281891B2 (ja) 適応的な動き検索範囲
JP5237814B2 (ja) ビデオ圧縮における適応的動きベクトルサンプリングのための多段リンク方法
KR100275694B1 (ko) 실시간 동영상 부호화를 위한 초고속 움직임 벡터 추정방법
US8005308B2 (en) Adaptive motion estimation for temporal prediction filter over irregular motion vector samples
KR101266638B1 (ko) 이동 객체 경계용 적응형 영향 영역 필터
KR100803611B1 (ko) 영상의 부호화, 복호화 방법 및 장치
CN110741640B (zh) 用于视频代码化中的运动补偿预测的光流估计
KR100739281B1 (ko) 움직임 추정 방법 및 장치
JP4988715B2 (ja) ビデオ符号化におけるノイズフィルタリング方法及び装置
JP2006313950A (ja) 画像符号化装置、及び画像符号化方法
JP2009509403A (ja) 統合時空間予測法
JPH07226937A (ja) 輝度信号適応動き評価方法
JP4494803B2 (ja) 動き補償に基づいた改善されたノイズ予測方法及びその装置とそれを使用した動画符号化方法及びその装置
US8059719B2 (en) Adaptive area of influence filter
JP2007049553A (ja) 動画像符号化方法、装置及びプログラム
JP2010239423A (ja) 撮影解像度予測型動画像符号化装置および復号装置
JP2007110409A (ja) 画像処理装置及び画像処理方法をコンピュータに実行させるためのプログラム
JP2008301270A (ja) 動画像符号化装置及び動画像符号化方法
KR101113862B1 (ko) 모션 추정 알고리즘의 최적화 방법
KR100859073B1 (ko) 움직임 추정 방법
JPH06165164A (ja) 動画像処理装置
JP2007221208A (ja) 動画像符号化方法および装置
JP2000350209A (ja) リアルタイム動映像符号化のための高速動き推定方法及びその装置
JP2005516501A (ja) Pbフレームモードでのビデオ画像の符号化

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120806

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121106

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130329

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5237814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250