JP2009509415A - 適応的影響エリアフィルタ - Google Patents

適応的影響エリアフィルタ Download PDF

Info

Publication number
JP2009509415A
JP2009509415A JP2008531350A JP2008531350A JP2009509415A JP 2009509415 A JP2009509415 A JP 2009509415A JP 2008531350 A JP2008531350 A JP 2008531350A JP 2008531350 A JP2008531350 A JP 2008531350A JP 2009509415 A JP2009509415 A JP 2009509415A
Authority
JP
Japan
Prior art keywords
motion vector
pixel
filter
cell
area cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008531350A
Other languages
English (en)
Inventor
マルコ パニコーニ
ジェイムズ ジェイ キャリッグ
ズーロン ミアオ
Original Assignee
ソニー エレクトロニクス インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー エレクトロニクス インク filed Critical ソニー エレクトロニクス インク
Publication of JP2009509415A publication Critical patent/JP2009509415A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

適応的時間フィルタを生成する方法は、ターゲット画像における複数の動きベクトルの各々の周りに動きベクトルエリアセルを構成するステップと、ターゲット画像内のピクセルを選択するステップと、選択されたピクセルの周りにピクセルエリアセルを構成するステップと、動きベクトルエリアセルとピクセルエリアセルとの間のオーバーラップエリアを決定するステップと、オーバーラップエリアからフィルタ重みを生成するステップと、記フィルタ重みを用いて、前記選択されたピクセルをフィルタリングするステップとによって実施される。
【選択図】図2

Description

本発明はビデオ圧縮の分野に関する。
前に復号化された参照画像の集合からターゲット画像を予測するビデオ圧縮処理において、時間予測フィルタが利用される。時間予測処理は、かなりの量の時間的冗長性を除去する際に有効であり、一般により高い符号化効率がもたらされる。予測処理は、動きベクトルの集合と動きベクトル上で機能するフィルタとを用いてターゲット画像を予測する。
例えば、この予測法は、図1に示すように参照画像110を複数の固定サイズのブロック120に分割する。各ブロックは、ターゲット画像に対してブロックの動きを記述する関連した動きベクトルを有する。動きベクトルは、画像110の白ドットで示されている。時間予測フィルタは、関連する動きベクトルを用いて、参照画像における各ブロックに対して単純な動き補償技術を実施し、ターゲット画像におけるブロックのロケーションを予測する。従って、ターゲット画像における各ブロックは、単一の動きベクトルを用いて参照画像内のブロックから推定される。しかしながら、この手法は、各動きベクトルを別個に処理するものであり、画像特徴に対して適応的ではない。
単一の動きベクトルを利用して関連するブロックのロケーションを予測し、又は動きベクトルの規則的なパターン向けに定義されたフィルタに依存する従来方式の時間フィルタは、時間予測を実施するために動きベクトルの規則的な分布を必要とする。従って、従来の時間フィルタは、予測処理を動きベクトルの不規則なパターンに適応させることはできない。そのため、フィルタのタップ及びフィルタ係数を動きベクトルの不規則なパターンの変動に局所的に適応させることが可能なフィルタに対する要望がある。物体境界及び空間テクスチャに適応する柔軟性を有する時間フィルタに対する要望もある。
適応的時間フィルタを生成する方法は、ターゲット画像における複数の動きベクトルの各々の周りに動きベクトルエリアセルを構成するステップと、ターゲット画像内のピクセルを選択するステップと、上記選択されたピクセルの周りにピクセルエリアセルを構成するステップと、動きベクトルエリアセルとピクセルエリアセルとの間のオーバーラップエリアを決定するステップと、該オーバーラップエリアからフィルタ重みを生成するステップと、フィルタ重みを用いて、選択されたピクセルをフィルタリングするステップとによって実施される。
本発明は例証として説明され、添付図面と共に以下の説明を参照することにより十分に理解することができる。
以下の説明では、本明細書の一部を形成し、本発明を実施することができる特定の実施形態を例証として示している添付図面を参照する。他の実施形態を利用することも可能であり、本発明の範囲から逸脱することなく構造的変更を加えることができる点を理解されたい。例えば、様々な実施形態を説明するのに用いるフィールド、フレーム、又は画像といった用語は、一般的にビデオデータに関して用いられるときには同義であることは当業者には理解されるであろう。
適応的影響エリア(AAOI)時間フィルタは、ターゲット画像を予測する時に、動きベクトルの不規則なパターン、物体の特徴、空間テクスチャに自動的に適応する。AAOIフィルタは、動き補償信号に対して時間領域で機能し、動きベクトルを直接フィルタリングしようと試みる他の方法(例えば、動きベクトル領域における三角フィルタリング)とは異なるものである。例えば、AAOIフィルタリング法は、時間領域で機能するので、物体及び空間テクスチャに対する適応が行いやすい。1つの実施形態では、AAOIフィルタは、ピクセルの予測中に2段階処理を行って、隣接する動きベクトルを結合する。第1段階では、動きベクトルの不規則なサンプリング・パターン、物体の形状、及び境界にフィルタを適応させる。第2段階では、フィルタを画像の空間テクスチャに適応させる。
適応的時間フィルタリング手順の一実施例を図2に示す。210で、画像に対して動きベクトルの不規則なサンプリング・パターンが生成される。このような不規則なパターン形成は、当業者には公知の方法を用いて様々な様態で行うことができる。動きベクトルの不規則なパターンの一実施例が、図3のブロック310に示されている。画像310の白ドットは動きベクトルを表す。この適応的サンプリング・パターンでは、動きベクトルは、参照画像からの予測が困難な領域(すなわち、動きのある境界近くの領域のようなより複雑な動きを伴う画像領域)により多く集中している。例えば、画像の背景領域のような単純な動きの領域には、より少数の動きベクトルが配置される。
図2に戻ると、220で画像は、影響エリアセル(AOIセル)と呼ばれる複数のセルに分割され、各AOIセルは、そのノードとして1つの動きベクトルを有する。AOIセルに分割された画像の一実施例を図3のブロック320に示す。各AOIセルは、画像内のいずれかの他の動きベクトルよりもセル内部の動きベクトルにより大きく影響を受ける領域を表す。AOIセルは各動きベクトルに対して生成されるので、AOIセルのサイズは、境界領域などの画像内の物体の特徴に関連付けることができる。例えば、物体間の境界領域に近いAOIセルは、画像の背景領域のAOIセルよりも小さい可能性がある。また、AOIセルの形状を局所的に変更して、物体の境界の形状に適応させることができる。AOIセルの生成方法の1つの実施例は、(ボロノイ・セルなどの)最も距離が近い動きベクトルの分割方法である。ブロック法又は三角法などの他の分割方法を利用してもよい。また、AOIセルを局所的に修正して、物体境界に適応させることもできる。
図2に戻ると、230で、初期の動き推定が実行され、各AOIセルにおける動きベクトルの初期値を決定する。初期の動き推定は、動きベクトルに関連するAOIセルを参照画像内の対応するセルにマップし、2つのセル間の変位を測定する。この変位により、各動きベクトルの初期値が与えられる。その結果、この初期値は、このセル対セルのマッピングと変位測定とによって決まるので、周囲の動きベクトルからのどのような影響も反映していない。従って、特定の動きベクトルについての初期値は、他の動きベクトルとは無関係である。
240で、適応的影響エリア(AAOI)フィルタが影響エリアセルに適用されて、ターゲット画像に対する時間予測を実施する。このフィルタは、時間領域で適用され、動きベクトルの値の集合及びサンプリング・パターンが与えられるターゲット画像に対して予測結果を生成する。このAAOIフィルタは、オーバーラップ領域のエリアにより定義されるフィルタ・タップ及びフィルタ係数を用いて、予測されることになるピクセルに隣接する動きベクトルの関連性を取得する。250で、フィルタにより生成された予測結果を用いて、動きベクトルの値を再推定し、適応的フィルタの精度を改善するようにする。実施形態によっては、260で、処理は240に戻り、適応的影響エリアフィルタにより生成された予測誤差を低減することができる。そうでなければ、プロセスは270で終了する。
図2に示された240を更に詳細に参照すると、適応的影響エリアフィルタが影響エリアセルに適用されて、参照画像及び動きベクトルの集合からターゲット画像の時間予測値が生成される。上記フィルタは以下の構造を有する。{vj}はN個の動きベクトルの集合を示し、I(x)は参照画像(事前に復号化された画像)を示すものとする。S(x)はピクセルxのロケーションを囲む動きベクトルの幾つかの集合を示すものとする。当該ターゲットピクセルxの予測値は、一般に次式で表すことができる。
Figure 2009509415
ここで、{fi}はフィルタ係数の集合であり、x+viは、動きベクトルviが画素xに適用されたときの動き補償画素である。フィルタのサポート又はタップは、集合S(x)で定義される。タップのサポートS(x)及びフィルタ係数{fi}は、一般に、画素位置x及び近接動きベクトルの関数である。すなわち、フィルタ係数は、動きベクトルの分布が画像全体で変動するので、各画素に対して変化することができる。従って、フィルタは、動きベクトルの変動パターンに局所的に適応する。
1つの実施形態では、フィルタ係数{fi}は図4Aにより示される方法を用いて計算される。第1段階では、自然なタップ構造とフィルタ重みとが定義され、第2段階では、フィルタが画像の空間テクスチャに適応される。第1段階では、物体の形状及び境界並びに不規則なサンプリング・パターンなどの特徴に適応することができるAAOIフィルタが生成される。第2段階では、ビデオ圧縮のための動きベクトルベースの時間予測処理中にAAOIフィルタが画像の空間テクスチャに適応することが可能となる。
第1段階は410から始まり、予測されることになるターゲットピクセルの近傍の動きベクトルを含む局所的な動きベクトルのサンプリング・パターンを受け取る。420で、各局所的な動きベクトルの周りに影響エリアセルが構成される。この結果、ターゲットピクセルの局所的エリアがAOIセルの集合に分割される。430で、ピクセルを補間するために、ピクセルは新たなノードと見なされ、ピクセルの周りにピクセル影響エリアセルが構成される。次いで、440で、ピクセルの影響エリアセルにオーバーラップする各隣接するAOIセルのエリアが決定される。このオーバーラップエリアは、自然なタップ構造とフィルタ重みとを定義する。換言すれば、タップ構造は、AOIセルがピクセルエリアセルとの非ゼロ値のオーバーラップエリアを有する各動きベクトルiにより定義される。タップ構造における各動きベクトルのフィルタ重みは、比率Ai/Aにより定義される。すなわち、幾つかのピクセルロケーションxでは、次式となる。
Figure 2009509415
Figure 2009509415
ここで、S(x)はピクセルxの近傍の局所的な動きベクトルの集合であり、Aiは集合S(x)及びピクセル影響セルにおける動きベクトルiのAOIセルのオーバーラップエリアであり、Aは、AOIセル及びピクセル影響セルの全オーバーラップエリアであり、fiはフィルタ重みである。
450で、フィルタは、例えば、移動している物体の物体境界などの画像特徴に適応される。幾つかの実施形態における影響エリアセルの形状は、移動している物体の境界に適応するように変化する。このエリアセルは、動きベクトルエリアセル及びピクセルエリアセルを同じ物体に属するピクセルだけを含むように制約することによって、画像内の物体境界に適応される。これにより、予測されることになるピクセルの周りに修正AOIセルが生成される。従って、1つの実施形態では、フィルタ・サポート及び係数は以下のように表される。
Figure 2009509415
Figure 2009509415
ここで、
Figure 2009509415
は物体境界に起因する動きベクトルiの修正AOIセルである。各修正AOIセルは、予測されるピクセルと同じ動きレイヤにおけるピクセルを含み、他の動きレイヤ内のピクセルを含まない。この第1段階の最後に、フィルタは、動きベクトルの不規則なパターンと、移動している物体の境界の両方に適応されている。
画像内の各ピクセルに対して予測値を生成した後、フィルタリング処理の第2段階が実施される。第2段階では、460で、フィルタが空間テクスチャに適応される。AAOIフィルタの第1段階から出力された予測値は規則的なパターンのサンプリング・データの形であるので、第2段階の幾つかの実施形態では、最小2乗(LS)トレーニングフィルタを利用して、フィルタを空間テクスチャに適応させる。別の実施形態では、空間適応処理により段階1のAOIセルを直接変更して、同様の空間テクスチャを有するピクセルのみを含むようにすることができる。
図4Aに示す適応的フィルタリング処理では、時間領域において定義されるエリアベースフィルタが生成され、該フィルタは、時間予測処理中に隣接する動きベクトルを結合する。フィルタは、動画像の動きベクトル、物体形状及び境界、並びに空間テクスチャの非均一又は不規則なサンプリング・パターンに必然的に適応する。
図4Aの処理の第1段階の間に生成された中間結果の一実施例が図4Bに示されている。417で、局所的なノードパターンを受け取る。この局所的なノードパターンは、ピクセルxの近傍に存在する、予測を必要とする動きベクトルの集合(円で表されている)を含む。動きベクトルには(1)から(6)までの番号が付けられている。427で、動きベクトルの周りに影響エリアセルが構成される。各破線は、AOIセル間の境界を表す。437で、実線で表される影響エリアセルが予測対象ピクセルxの周りに構成される。
447で、各動きベクトルのAOIセルとピクセルのAOIセルとの間のオーバーラップエリアが決定される。例えば、動きベクトル(1)のAOIセルは、オーバーラップエリアA1においてピクセルのAOIセルにオーバーラップしている。このオーバーラップエリアによりフィルタのタップ及びフィルタ重みが決まる。タップ構造は、AOIセルがピクセルエリアセルとの非ゼロ値のオーバーラップエリアAiを有する各動きベクトルiにより定義される。この実施例では、動きベクトル(4)のAOIセルは、ピクセルのAOIセルとはオーバーラップしていない。従って、ピクセルxのフィルタのタップ構造は、動きベクトル(1)、(2)、(3)、(5)及び(6)である。タップ構造における各動きベクトルのフィルタ重みは、比率Ai/Aにより定義される。例えば、このケースでは、f1=Ai/Aとなる。
457で、フィルタは、例えば、動いている物体の物体境界451などの画像特徴に適応される。動いている物体の物体境界451によって動きレイヤ453と455とに分離される。ピクセルxを補間するために、タップ構造は、ピクセルxと同じ動きレイヤにある動きベクトルを含むように修正される。ピクセルxは動きレイヤ455に存在するので、447から得られたタップ構造は、動きベクトル(3)及び(5)を除去し、動きベクトル(1)、(2)及び(6)をタップ構造として残すように修正される。
更に、457で、フィルタ重みが物体境界451の形状に適応される。この実施例では、物体境界451に沿った影響エリアセルの形状が、動いている物体の境界に適応するように変化する。物体境界451は動きベクトル(2)のAOIセルを分析する。動きレイヤ455に存在するピクセルxを補間するために、動きベクトル(2)のAOIセルは、動きレイヤ455がある元のセルのピクセルのみを含むように再定義される。これにより、動きベクトル(2)の周りに修正されたAOIセルが生成される。動きベクトル(6)のAOIセルの形状もまた、物体境界451に適応される。動きベクトル(6)のAOIセルと物体境界451との間のエリアは、動きレイヤ455に存在する。しかしながら、このエリアは、最初は動きベクトル(5)のAOIセルに含まれていたものである。動きベクトル(5)は、もはやフィルタのタップ構造の一部ではないので、現在ではこのエリアにおけるピクセルは、動きベクトル(6)のAOIセルの一部になっている。修正されたオーバーラップエリア
Figure 2009509415
及び
Figure 2009509415
並びにオーバーラップエリア
Figure 2009509415
を利用してフィルタ重みが生成される。
図4A及び図4Bに示す方法により生成されたフィルタを利用して、ターゲット画像内のピクセルを予測する。例えば、図2の240を再度更に詳細に参照し、図5に示すようにフィルタを利用してターゲット画像のピクセルxを予測する。参照画像510のピクセルを利用して、ターゲット画像520のピクセルを予測する。参照ピクセルは参照画像510における実線の円で表され、予測対象ターゲットピクセルは、ターゲット画像520において点線の円で表される。
フィルタは、局所的な動きベクトルv1からv5までのタップ構造を利用して、ターゲット画像520のピクセルxに対する予測値を形成する。動きベクトルのそれぞれのAOIセルの各々は、ピクセルxのAOIセルの少なくとも一部とオーバーラップするので、動きベクトルは、ピクセルxに対して局所的なものである。タップ構造における各動きベクトル{v1}は、参照画像510内の画像データ{Ii}にマッピングする。適応的時間予測フィルタは、フィルタ重み{fi}により参照データ{Ii}を調整しピクセルxを予測する。1つの実施形態では、予測フィルタは、タップ構造とフィルタ重みとを利用して、次式に従って予測値を生成する。
予測値=I1*f1+I2*f2+I3*f3+I4*f4+I5*f5
ここで、局所的な動きベクトルにより定義されるフィルタ・タップと、フィルタ係数{fi}とが図4A及び図4Bに示される方法により決定される。
初期予測後、本処理は、図2のブロック250に示すように動きベクトルの値を再推定しフィルタの精度を改善する。1つの実施形態では、この再推定は図6に示す方法を用いて行われる。610で、AAOIフィルタに対する最大予測誤差に寄与する動きベクトルが特定される。次いで、620で、AAOIフィルタの予測誤差が低減又は最小化されるまで、特定された動きベクトルの値を変化させる。次に、630で、動きベクトルの値が変化した値に更新される。640で、誤差の低減が飽和した場合、処理は終了する。飽和していない場合、処理は予測誤差の低減が飽和するまで610に戻る。その結果、実施形態によっては、画像内の全ての動きベクトルに対して図2の処理が繰り返される。
1つの実施形態では、AAOIフィルタは、図7に示すようにビデオデータの画像(又はフレームもしくはフィールド)を符号化するビデオ符号化システムが利用する。710で、エンコーダが入力ターゲット画像を受け取る(ターゲット画像に関連する復号画像データを含む参照画像の集合が、符号化処理中にエンコーダに利用可能であり、また、復号化処理中にはデコーダに利用可能である)。720で、エンコーダは、ターゲット画像に関連する動きベクトルのサンプリング又は分布を生成する。すなわち、動きベクトルの個数Nが与えられると、これらN個の動きベクトルはターゲット画像内に配置される。動きベクトルの位置は、一般に画像内容の動きのエリアに適応され、例えば、図3に示すような動きベクトルの不規則なパターンをもたらす。730で、サンプリング・パターン情報(例えば、パターンを表すためのビット)がデコーダに伝達される。多くの手法を利用して、適応的サンプリング・パターンを生成することができる。
740で、時間予測フィルタリング処理が、不規則な動きのサンプリング・パターンに適用される。この適応的フィルタリング処理は、動きベクトル、不規則なサンプリング・パターン、及び参照画像を利用して、ターゲット画像の予測値を生成する。750で、動きベクトルの値は符号化され、デコーダに送られる。760で、適応的フィルタリング処理から得られる予測誤差をターゲット画像から差し引いた実際のターゲット・データである残留データが生成される。770で、この残留データは符号化され、780でデコーダに送られる。
別の実施形態では、図8に示すようにビデオデータの画像(又はフレームもしくは画像)を復号化する際にAAOIフィルタが利用される。810で、符号化された残留データが受け取られる。820で、デコーダは受け取った符号化残留データを復号化する。830で、デコーダは、サンプル・パターン情報、参照画像、及び動きベクトル値を受け取る。次いで、840で、デコーダは、適応的時間フィルタ処理手順を適用して、時間予測値を生成する。850で、復号化残留データを時間予測値に加えることにより、復号化ターゲット画像が生成される。
図9は、適応的影響エリアフィルタを用いたシステムの実施例を示している。デジタルビデオカメラ910は電子形式で画像を取り込み、圧縮デバイス920を利用して画像を処理する。このデジタルビデオカメラ910は、圧縮処理及び符号化処理中に適応的影響エリアフィルタを利用する。符号化された画像は、電子伝送媒体930を介してデジタル再生デバイス940に送られる。この画像は、復号化処理中にフィルタを利用する復号化デバイス950により復号化される。カメラ910は、本発明の実施形態を含む種々の画像処理装置(例えば、他の画像取り込みデバイス、画像エディタ、画像プロセッサ、個人用及び商用のコンピューティングプラットフォーム、その他)を例証するものである。同様に、復号化デバイス950は、画像データを復号化する様々なデバイスを例示するものである。
本発明を特定のシステム環境における例示的な実施形態に関して説明したが、本発明は、添付の請求項の精神及び範囲内で他の異なるハードウェア及びソフトウェア環境において様々な方式で実施することができる点は当業者であれば理解されるであろう。
従来のブロックベースの時間フィルタの一実施例を示す図である。 適応的時間フィルタリング処理手順の一実施例を示す図である。 適応的時間フィルタリング処理手順で利用される動きベクトルの不規則なパターン及び影響エリアセルの実施例を示す図である。 適応的時間フィルタリング処理手順で利用される適応的時間フィルタを生成する方法の実施例を示す図である。 適応的時間フィルタリング処理手順で利用される適応的時間フィルタを生成する方法の実施例を示す図である。 適応的時間フィルタを用いて行われる予測の一実施例を示す図である。 適応的時間フィルタリング処理手順において利用することができる誤差低減の一実施例を示す図である。 適応的時間フィルタを利用するビデオ圧縮符号化処理の一実施例を示す図である。 適応的時間フィルタを利用する復号化処理の一実施例を示す図である。 適応的影響エリアフィルタを利用するシステムの一実施例を示す図である。
符号の説明
210 動きベクトルの不規則なサンプリング・パターンを生成する
220 画像を影響エリアセルに分割する
230 各AOIセルにおける動きベクトルの初期値を推定する
240 適応的影響エリアフィルタをAOIセルに適用する
250 動きベクトルの値を再推定する
260 予測誤差を減少させるか?
270 終了

Claims (27)

  1. 電子データプロセッサにおいて実施される方法であって、
    ターゲット画像における複数の動きベクトルの各々の周りに動きベクトルエリアセルを構成するステップと、
    前記ターゲット画像内のピクセルを選択するステップと、
    前記選択されたピクセルの周りにピクセルエリアセルを構成するステップと、
    前記動きベクトルエリアセルと前記ピクセルエリアセルとの間のオーバーラップエリアを決定するステップと、
    前記オーバーラップエリアからフィルタ重みを生成するステップと、
    前記フィルタ重みを用いて、前記選択されたピクセルをフィルタリングするステップと、
    を含む方法。
  2. 前記動きベクトルの値を修正することによりフィルタの予測誤差を低減するステップを更に含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記修正ステップが、
    フィルタの最大予測誤差に寄与する動きベクトルを特定するステップと、
    前記フィルタの予測誤差が低減されるまで前記特定された動きベクトルの値を変化させるステップと、
    を更に含む請求項2に記載の方法。
  4. 前記オーバーラップエリアを決定するステップが、
    前記選択されたピクセルと同じ物体に属するピクセルを含み且つ他のピクセルを除去するように前記動きベクトルエリアセル及びピクセルエリアセルを制約することにより、前記動きベクトルエリアセルを前記画像における物体境界に適応させるステップを更に含む、
    ことを特徴とする請求項1に記載の方法。
  5. 前記フィルタ重みを生成するステップが、
    前記ピクセルエリアセルとオーバーラップする各動きベクトルエリアセルについて次式を決定するステップを含むことを特徴とする請求項1に記載の方法。
    Figure 2009509415
    Figure 2009509415
    ここで、iは、前記ピクセルxの周りの局所的動きベクトルの集合S(x)における前記動きベクトル、Aiは、前記ピクセルエリアセルとの動きベクトルiにおけるセルのオーバーラップエリア、Aは、前記ピクセルエリアセルとの前記動きベクトルセルの全オーバーラップエリア、fiはフィルタ重みである。
  6. 前記フィルタリングするステップが、
    動きベクトルの不規則なパターンに対して、次式であるように前記ターゲットピクセルを予測するステップを含むことを特徴とする請求項1に記載の方法。
    Figure 2009509415
    ここで、xは予測されるピクセル、Ipred(x)はピクセルxの予測値、S(x)はピクセルxを囲む動きベクトルの集合、viは動きベクトル、fiは集合S(x)における動きベクトルに対するフィルタ重み、Iref(x)は参照画像における値、x+viは動きベクトルviがピクセルxに適用されたときの動き補償ピクセルである。
  7. 前記フィルタ処理されたピクセルを前記画像の空間テクスチャに適応させるステップを更に含むことを特徴とする請求項1に記載の方法。
  8. 前記オーバーラップエリアを決定するステップが、
    前記選択されたピクセルの空間テクスチャを有するピクセルを含み且つ他のピクセルを除去するように前記動きベクトルエリアセル及びピクセルエリアセルを制約することにより、前記動きベクトルエリアセルを前記空間テクスチャに適応させるステップを更に含む、
    ことを特徴とする請求項1に記載の方法。
  9. ターゲット画像における複数の動きベクトルの各々の周りに動きベクトルエリアセルを構成するステップが、最も近い隣接距離のションを適用するステップを含む、
    ことを特徴とする請求項1に記載の方法。
  10. ターゲット画像における複数の動きベクトルの各々の周りに動きベクトルエリアセルを構成する動きベクトルエリアセル構成器と、
    前記ターゲット画像においてフィルタリングするためのピクセルを選択する選択器と、
    前記選択されたピクセルの周りにピクセルエリアセルを構成するピクセルエリアセル構成器と、
    前記動きベクトルエリアセルと前記ピクセルエリアセルとの間のオーバーラップエリアを決定するオーバーラップエリア決定器と、
    前記オーバーラップエリアからフィルタ重みを生成するフィルタ重み生成器と、
    前記フィルタ重みを用いて前記選択されたピクセルをフィルタリングするフィルタと、
    を備える装置。
  11. 前記動きベクトルの値を修正してフィルタ予測誤差を低減する修正器を更に備えることを特徴とする請求項10に記載の装置。
  12. 前記修正器が、フィルタの最大予測誤差に寄与する動きベクトルを特定して、前記フィルタの予測誤差が低減されるまで前記動きベクトルの値を変化させることを特徴とする請求項11に記載の方法。
  13. 前記オーバーラップエリア決定器が、前記選択されたピクセルと同じ物体に属するピクセルを含み且つ他のピクセルを除去するように前記動きベクトルエリアセル及びピクセルエリアセルを制約することにより、前記動きベクトルエリアセルを前記画像の物体境界に適応させることを特徴とする請求項10に記載の装置。
  14. 前記フィルタ重み生成器が、
    前記ピクセルエリアセルとオーバーラップする各動きベクトルエリアセルについて次式を決定することを特徴とする請求項10に記載の装置。
    Figure 2009509415
    Figure 2009509415
    ここで、iは、前記ピクセルxの周りの局所的動きベクトルの集合S(x)における前記動きベクトル、Aiは、前記ピクセルエリアセルとの動きベクトルiにおけるセルのオーバーラップエリア、Aは、前記ピクセルエリアセルとの前記動きベクトルセルの全オーバーラップエリア、fiはフィルタ重みである。
  15. 前記フィルタが、
    動きベクトルの不規則なパターンに対して、次式であるように前記ターゲットピクセルを予測することを特徴とする請求項10に記載の装置。
    Figure 2009509415
    ここで、xは予測されるピクセル、Ipred(x)はピクセルxの予測値、S(x)はピクセルxを囲む動きベクトルの集合、viは動きベクトル、fiは集合S(x)における動きベクトルに対するフィルタ重み、Iref(x)は参照画像における値、x+viは動きベクトルviがピクセルxに適用されたときの動き補償ピクセルである。
  16. 前記フィルタが、前記ターゲットピクセルを前記画像の空間テクスチャに適応させる、
    ことを特徴とする請求項10に記載の装置。
  17. 前記オーバーラップエリアの決定器が、前記選択されたピクセルの空間テクスチャを有するピクセルを含み且つ他のピクセルを除去するように前記動きベクトルエリアセル及びピクセルエリアセルを制約することにより、前記動きベクトルエリアセルを前記空間テクスチャに適応させる、
    ことを特徴とする請求項10に記載の装置。
  18. 前記動きベクトルエリアセル構成器が最も近い隣接距離のパーティションを適用する、
    ことを特徴とする請求項10に記載の装置。
  19. 処理システムによって実行されたときに、前記システムに対して、
    ターゲット画像における複数の動きベクトルの各々の周りに動きベクトルエリアセルを構成するステップと、
    前記ターゲット画像内のフィルタリングするピクセルを選択するステップと、
    前記選択されたピクセルの周りにピクセルエリアセルを構成するステップと、
    前記動きベクトルエリアセルと前記ピクセルエリアセルとの間のオーバーラップエリアを決定するステップと、
    前記オーバーラップエリアからフィルタ重みを生成するステップと、
    前記フィルタ重みを用いて、前記選択されたピクセルをフィルタリングするステップと、
    を含む方法を実施させる命令プログラムを格納するコンピュータ可読媒体。
  20. 前記動きベクトルの値を修正することによりフィルタ予測誤差を低減させるステップを更に含む、
    ことを特徴とする請求項19に記載のコンピュータ可読媒体。
  21. 前記修正ステップが、
    フィルタの最大予測誤差に寄与する動きベクトルを特定するステップと、
    前記フィルタの予測誤差が低減されるまで前記特定された動きベクトルの値を変化させるステップと、
    を更に含む、
    ことを特徴とする請求項20に記載のコンピュータ可読媒体。
  22. 前記オーバーラップエリアを決定するステップが、
    前記選択されたピクセルと同じ物体に属するピクセルを含み且つ他のピクセルを除去するように前記動きベクトルエリアセル及びピクセルエリアセルを制約することにより、前記動きベクトルエリアセルを前記画像における物体境界に適応させるステップを更に含む、
    ことを特徴とする請求項19に記載のコンピュータ可読媒体。
  23. 前記フィルタ重みを生成するステップが、
    前記ピクセルエリアセルとオーバーラップする各動きベクトルエリアセルについて次式を決定するステップを含むことを特徴とする請求項19に記載のコンピュータ可読媒体。
    Figure 2009509415
    Figure 2009509415
    ここで、iは、前記ピクセルxの周りの局所的動きベクトルの集合S(x)における前記動きベクトル、Aiは、前記ピクセルエリアセルとの動きベクトルiにおけるセルのオーバーラップエリア、Aは、前記ピクセルエリアセルとの前記動きベクトルセルの全オーバーラップエリア、fiはフィルタ重みである。
  24. 前記フィルタリングするステップが、
    動きベクトルの不規則なパターンに対して、次式であるように前記ターゲットピクセルを予測するステップを含むことを特徴とする請求項19に記載のコンピュータ可読媒体。
    Figure 2009509415
    ここで、xは予測されるピクセル、Ipred(x)はピクセルxの予測値、S(x)はピクセルxを囲む動きベクトルの集合、viは動きベクトル、fiは集合S(x)における動きベクトルに対するフィルタ重み、Iref(x)は参照画像における値、x+viは動きベクトルviがピクセルxに適用されたときの動き補償ピクセルである。
  25. 前記フィルタ処理されたピクセルを前記画像の空間テクスチャに適応させるステップを更に含む、
    ことを特徴とする請求項19に記載のコンピュータ可読媒体。
  26. 前記オーバーラップエリアを決定するステップが、
    前記選択されたピクセルの空間テクスチャを有するピクセルを含み且つ他のピクセルを除去するように前記動きベクトルエリアセル及びピクセルエリアセルを制約することにより、前記動きベクトルエリアセルを前記空間テクスチャに適応させるステップを更に含む、
    ことを特徴とする請求項19に記載のコンピュータ可読媒体。
  27. ターゲット画像における複数の動きベクトルの各々の周りに動きベクトルエリアセルを構成するステップが、最も近い隣接距離のパーティションを適用するステップを含む、
    ことを特徴とする請求項19に記載のコンピュータ可読媒体。
JP2008531350A 2005-09-16 2006-09-12 適応的影響エリアフィルタ Pending JP2009509415A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/229,284 US8059719B2 (en) 2005-09-16 2005-09-16 Adaptive area of influence filter
PCT/US2006/035982 WO2007035465A2 (en) 2005-09-16 2006-09-12 Adaptive area of influence filter

Publications (1)

Publication Number Publication Date
JP2009509415A true JP2009509415A (ja) 2009-03-05

Family

ID=37884052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008531350A Pending JP2009509415A (ja) 2005-09-16 2006-09-12 適応的影響エリアフィルタ

Country Status (6)

Country Link
US (1) US8059719B2 (ja)
EP (1) EP1932247A4 (ja)
JP (1) JP2009509415A (ja)
KR (1) KR101276450B1 (ja)
CN (1) CN101263662A (ja)
WO (1) WO2007035465A2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7894522B2 (en) * 2005-09-16 2011-02-22 Sony Corporation Classified filtering for temporal prediction
WO2009073415A2 (en) 2007-11-30 2009-06-11 Dolby Laboratories Licensing Corporation Temporal image prediction
US8059908B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive area of influence filter for irregular spatial sub-sampled images
US8059909B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive generation of irregular spatial sub-sampling for images
JP2012151576A (ja) 2011-01-18 2012-08-09 Hitachi Ltd 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
US8908767B1 (en) * 2012-02-09 2014-12-09 Google Inc. Temporal motion vector prediction
US9544613B2 (en) * 2013-04-24 2017-01-10 Sony Corporation Local detection model (LDM) for recursive motion estimation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243401A (ja) * 1998-04-06 1998-09-11 Nec Corp 適応動きベクトル補間による動き補償フレーム間予測方法
WO2003003749A1 (en) * 2001-06-29 2003-01-09 Ntt Docomo, Inc. Image encoder, image decoder, image encoding method, and image decoding method

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3877105D1 (ja) * 1987-09-30 1993-02-11 Siemens Ag, 8000 Muenchen, De
US5690934A (en) * 1987-12-31 1997-11-25 Tanox Biosystems, Inc. Peptides relating to the extracellular membrane-bound segment of human alpha chain
US5047850A (en) * 1989-03-03 1991-09-10 Matsushita Electric Industrial Co., Ltd. Detector for detecting vector indicating motion of image
US5872866A (en) * 1995-04-18 1999-02-16 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression by predetermination of IDCT results based on image characteristics
DK0824828T3 (da) * 1995-05-02 1999-08-30 Innovision Ltd Bevægelseskompenseret filtrering
US5654771A (en) * 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
US5982438A (en) * 1996-03-22 1999-11-09 Microsoft Corporation Overlapped motion compensation for object coding
JP3790804B2 (ja) * 1996-04-19 2006-06-28 ノキア コーポレイション 動きに基づく分割及び合併を用いたビデオ・エンコーダ及びデコーダ
US6101276A (en) * 1996-06-21 2000-08-08 Compaq Computer Corporation Method and apparatus for performing two pass quality video compression through pipelining and buffer management
JP3967405B2 (ja) * 1996-10-09 2007-08-29 テキサス インスツルメンツ インコーポレイテツド 画像信号の符号化方法
JP4034380B2 (ja) * 1996-10-31 2008-01-16 株式会社東芝 画像符号化/復号化方法及び装置
DE19648016A1 (de) * 1996-11-20 1998-05-28 Philips Patentverwaltung Verfahren zur fraktalen Bildkodierung und Anordnung zur Durchführung des Verfahrens
WO1998036576A1 (en) * 1997-02-13 1998-08-20 Mitsubishi Denki Kabushiki Kaisha Moving picture prediction system
FI106071B (fi) * 1997-03-13 2000-11-15 Nokia Mobile Phones Ltd Mukautuva suodatin
SE511892C2 (sv) * 1997-06-18 1999-12-13 Abb Ab Ränninduktor och smältugn innefattande sådan ränninduktor
KR100243225B1 (ko) * 1997-07-16 2000-02-01 윤종용 블록화효과 및 링잉잡음 감소를 위한 신호적응필터링방법 및신호적응필터
US5978048A (en) 1997-09-25 1999-11-02 Daewoo Electronics Co., Inc. Method and apparatus for encoding a motion vector based on the number of valid reference motion vectors
US6178205B1 (en) * 1997-12-12 2001-01-23 Vtel Corporation Video postfiltering with motion-compensated temporal filtering and/or spatial-adaptive filtering
US6208692B1 (en) * 1997-12-31 2001-03-27 Sarnoff Corporation Apparatus and method for performing scalable hierarchical motion estimation
US6591015B1 (en) * 1998-07-29 2003-07-08 Matsushita Electric Industrial Co., Ltd. Video coding method and apparatus with motion compensation and motion vector estimator
US6456340B1 (en) * 1998-08-12 2002-09-24 Pixonics, Llc Apparatus and method for performing image transforms in a digital display system
KR100301833B1 (ko) 1998-08-20 2001-09-06 구자홍 오류은폐방법
US6711278B1 (en) 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6466624B1 (en) * 1998-10-28 2002-10-15 Pixonics, Llc Video decoder with bit stream based enhancements
EP1154864B1 (fr) 1999-01-29 2009-05-06 Airlessystems Distributeur de produit fluide a poche souple
JP2000308064A (ja) * 1999-04-22 2000-11-02 Mitsubishi Electric Corp 動きベクトル検出装置
US6480615B1 (en) * 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
JP3753578B2 (ja) * 1999-12-07 2006-03-08 Necエレクトロニクス株式会社 動きベクトル探索装置および方法
US6864994B1 (en) * 2000-01-19 2005-03-08 Xerox Corporation High-speed, high-quality descreening system and method
WO2001078402A1 (en) 2000-04-11 2001-10-18 Koninklijke Philips Electronics N.V. Video encoding and decoding method
AU2002228884A1 (en) 2000-11-03 2002-05-15 Compression Science Video data compression system
US6782054B2 (en) * 2001-04-20 2004-08-24 Koninklijke Philips Electronics, N.V. Method and apparatus for motion vector estimation
MXPA05000335A (es) * 2002-07-09 2005-03-31 Nokia Corp Metodo y sistema para seleccionar tipo de filtro de interpolacion en codificacion de video.
US7068722B2 (en) * 2002-09-25 2006-06-27 Lsi Logic Corporation Content adaptive video processor using motion compensation
JP4462823B2 (ja) 2002-11-20 2010-05-12 ソニー株式会社 画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラム
JP3997171B2 (ja) * 2003-03-27 2007-10-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
KR20050075483A (ko) 2004-01-15 2005-07-21 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 및 이를 위한 장치
WO2006109135A2 (en) * 2005-04-11 2006-10-19 Nokia Corporation Method and apparatus for update step in video coding based on motion compensated temporal filtering

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243401A (ja) * 1998-04-06 1998-09-11 Nec Corp 適応動きベクトル補間による動き補償フレーム間予測方法
WO2003003749A1 (en) * 2001-06-29 2003-01-09 Ntt Docomo, Inc. Image encoder, image decoder, image encoding method, and image decoding method

Also Published As

Publication number Publication date
WO2007035465A3 (en) 2007-07-05
US8059719B2 (en) 2011-11-15
KR20080048070A (ko) 2008-05-30
US20070064807A1 (en) 2007-03-22
WO2007035465A2 (en) 2007-03-29
EP1932247A4 (en) 2011-08-17
KR101276450B1 (ko) 2013-06-19
EP1932247A2 (en) 2008-06-18
CN101263662A (zh) 2008-09-10

Similar Documents

Publication Publication Date Title
JP4922302B2 (ja) 移動物体境界のための適応影響エリアフィルタ
JP2009509413A (ja) 不規則な動きベクトルのサンプルに対する時間予測フィルタのための適応動き推定
JP5134001B2 (ja) 下層のフィルタリングを備えたスケーラブルビデオ符号化
WO2014054267A1 (ja) 画像符号化装置及び画像符号化方法
JP5203379B2 (ja) ビデオ圧縮用の空間規約誘導時間予測
KR101342268B1 (ko) 모션 보상을 위한 자연 형상 영역
KR20080050491A (ko) 시간 예측을 위한 분류 필터링
RU2559839C1 (ru) Способ и устройство для компенсации движения с предсказанием
JP2009509415A (ja) 適応的影響エリアフィルタ
EP1925160A2 (en) Integrated spatial-temporal prediction
JP2009509406A (ja) 動きベクトルの選択
WO2008003220A1 (en) Motion vector estimation method
CN103430546B (zh) 视频编码装置、视频编码方法以及视频编码程序
JP5237814B2 (ja) ビデオ圧縮における適応的動きベクトルサンプリングのための多段リンク方法
JP2007214641A (ja) 符号化装置、復号化装置、画像処理装置及び画像処理方法をコンピュータに実行させるためのプログラム
JP2006005659A (ja) 画像符号化装置及びその方法
JP2007110409A (ja) 画像処理装置及び画像処理方法をコンピュータに実行させるためのプログラム
JPH04277982A (ja) 映像信号の高能率符号化装置
JP2008301085A (ja) 動きベクトル探索装置及びその制御方法、コンピュータプログラム
JP4264606B2 (ja) データ処理装置およびデータ処理方法
JP2009033266A (ja) 動きベクトル探索方法、動きベクトル探索装置、符号化装置及びコンピュータプログラム
JP4935771B2 (ja) 動きベクトル検出装置および動画像符号化装置
JP2009017107A (ja) 動画像符号化装置及び動画像符号化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120319

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120327

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120419

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120426

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120521

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140121

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140124