JP2009509413A - 不規則な動きベクトルのサンプルに対する時間予測フィルタのための適応動き推定 - Google Patents

不規則な動きベクトルのサンプルに対する時間予測フィルタのための適応動き推定 Download PDF

Info

Publication number
JP2009509413A
JP2009509413A JP2008531303A JP2008531303A JP2009509413A JP 2009509413 A JP2009509413 A JP 2009509413A JP 2008531303 A JP2008531303 A JP 2008531303A JP 2008531303 A JP2008531303 A JP 2008531303A JP 2009509413 A JP2009509413 A JP 2009509413A
Authority
JP
Japan
Prior art keywords
motion vector
value
search window
threshold
affected area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008531303A
Other languages
English (en)
Inventor
マルコ パニコーニ
ジェイムズ ジェイ キャリッグ
ズーロン ミアオ
Original Assignee
ソニー エレクトロニクス インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー エレクトロニクス インク filed Critical ソニー エレクトロニクス インク
Publication of JP2009509413A publication Critical patent/JP2009509413A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】ビデオ圧縮の技術を提供する。
【解決手段】目標画像に関する不規則パターンの動きベクトルを受信する段階、動きベクトルの各々に対して初期値を推定する段階、動きベクトルを用いて適応時間予測フィルタのためのタップ構造を発生させる段階、及びタップ構造を用いて各動きベクトルの値を再推定する段階を含む、動きベクトルの値を判断する方法。
【選択図】図2

Description

本発明は、ビデオ圧縮の分野に関する。
時間予測フィルタは、1組の予め復号された参照画像から目標画像を予測するためにビデオ圧縮処理において用いられる。時間予測処理は、有意な量の時間的冗長性を除去するのに有効であり、それによって一般的に高い符号化効率が得られる。予測処理は、1組の動きベクトルと動きベクトルに作用するフィルタとを用いて目標画像を予測する。
例えば、予測方法は、図1に示すように参照画像110を複数の固定サイズのブロック120に分割する。各ブロックは、目標画像に対するブロックの動きを表す関連の動きベクトルを有する。動きベクトルは、画像110内の白色の点で示している。時間予測フィルタは、関連の動きベクトルを用いて参照画像内の各ブロックに対して単純な動き補正技術を実施し、目標画像内のそのブロックの位置を予測する。すなわち、目標画像内の各ブロックは、単一の動きベクトルを用いて参照画像内のブロックから推定される。しかし、この手法は、各動きベクトルを独立に取り扱い、画像特徴に適応しない。
関連ブロックの位置を予測するのに単一の動きベクトルを用いるか、又は規則的な動きベクトルパターンに対して形成されたフィルタに依存する従来の時間フィルタは、時間予測を実施するのに動きベクトルの規則的な分布を必要とする。従って、それらは、動きベクトルの不規則パターンに対する予測処理に適応することができない。動きベクトルの不規則パターンの変動にタップ及びフィルタ係数を局所的に適応させることができ、かつ物体境界及び空間テクスチャに適応する柔軟性も有するフィルタへの必要性が存在する。また、近傍の動きベクトルの影響を考慮に入れることにより、時間フィルタを用いて各動きベクトル値を推定することができる効率的かつ有効な動き推定手順への必要性も存在する。
方法は、目標画像に関する不規則パターンの動きベクトルを受信する段階、動きベクトルの各々に対して初期値を推定する段階、動きベクトルを用いて適応時間予測フィルタのためのタップ構造を発生させる段階、及びタップ構造を用いて各動きベクトルの値を再推定する段階を含む。
本発明は、例示的に示しており、添付図面と共に以下の説明を参照することによってより良く理解することができる。
以下の説明では、本明細書の一部を形成し、本発明を実施することができる特定的な実施形態を具体例によって示す添付図面を参照する。他の実施形態を利用することもでき、本発明の範囲から逸脱することなく構造的変更を加えることができることを理解すべきである。例えば、様々な実施形態を説明するために用いるフィールド、フレーム、又は画像という用語は、一般的に、ビデオデータへの参照に用いられるものと互換的であることを当業者は理解するであろう。
適応時間予測フィルタは、不規則パターンの動きベクトルに適用されて目標画像の予測を生成する。一実施形態では、動きベクトルの各推定は、不規則パターンのための適応時間フィルタのタップ構造に対して判断される。推定は、2つの段階で行われる。第1段階では、フィルタのタップ構造とは独立した動きベクトルの初期推定を判断する。第2段階では、各動きベクトル値の再推定中にタップ構造を用いる。特定の動きベクトルに適用されるタップ構造は、近傍動きベクトルの局所パターンから発生させ、この特定の動きベクトルの推定にこれらの近傍動きベクトルの影響を含める。一部の実施形態では、適応ピクセル影響エリア及び適応検索窓を用いて、再推定処理を実施する複雑さを低減する。動きベクトル値の再推定は、非適応又は適応再推定手順を用いて実施することができる。非適応低速再推定は、固定範囲を有する検索窓内での特定の動きベクトル値の全検索を含む。予測誤差において最大の低減を生じる動きベクトルに関する値が、新しい値として選択される。
適応時間フィルタリング手順の例を図2に示している。210では、不規則なサンプリングパターンの動きベクトルを画像に対して発生させる。そのような不規則パターン化は、当業者に公知の方法を用いて様々な方式で行うことができる。不規則パターンの動きベクトルの例を、図3のブロック310に示している。画像310内の白色の点は、動きベクトルを表している。この適応サンプリングパターンによって、動きベクトルを参照画像から予測し難い領域(すなわち、移動境界の近くの領域のようなより複雑な動きを有する画像領域)内により集中させる。例えば、画像背景領域のような単純な動きの領域には、より少数の動きベクトルしか配置しない。
不規則パターンの動きベクトルの別の例を図4に示している。陰付きの円は、動きベクトルを表し、各×は、予測されるピクセルを表している。ピクセル420は、密に集中して不規則に分布する動きベクトルの局所近傍にあり、ピクセル410は、準規則的な分布を有する動きベクトルの局所近傍にあり、ピクセル430は、疎らな動きベクトルの局所近傍にある。
図2に戻ると、220において、画像は、各セルが1つの動きベクトルをノードとして有する影響エリアセル(AOIセル)と呼ぶ複数のセルに分割される。例えば、図3の画像310は、ブロック320に示すAOIセルに分割される。各AOIセルは、画像内のあらゆる他の動きベクトルよりもセルの内側の動きベクトルによって強く影響を受ける領域を表している。AOIセルは、各動きベクトルに対して発生させるので、AOIセルのサイズは、境界領域のような画像内の物体の特徴に関連付けることができる。例えば、物体間の境界領域の近くのAOIセルは、画像背景領域内のAOIセルよりも小さくすることができる。同様に、AOIセルの形状は、物体の境界の形状に適応するように局所的に修正することができる。AOIセルを発生させる方法の一実施形態は、距離最短動きベクトル分割法である。例えば、ブロック法又は三角法のような他の分割法を用いることができる。
図2に示すように、230において初期動き推定を実施し、各AOIセル内の動きベクトルに関する初期値を判断する。初期動き推定は、動きベクトルに関連付けられたAOIセルを参照画像内の対応するセルにマップし、2つのセルの間の変位を測定する。この変位は、各動きベクトルに対して初期値を与える。その結果、この初期値は、それがこのセル間のマッピング及び変位測定によって判断されるので、周囲の動きベクトルからのいかなる影響も反映しない。従って、特定の動きベクトルに関する初期値は、他の動きベクトルから独立している。
図2の235では、目標画像内のピクセルを予測するために、不規則パターンの動きベクトル及び影響エリアセルを用いて適応時間予測フィルタを発生させる。このフィルタは、以下の構造を有する。{vi}は、N個の動きベクトルの集合を表し、I(x)は、参照画像(予め復号された画像)を表すとする。S(x)は、ピクセルxの位置を取り囲む動きベクトルの何らかの集合を表すとする。この目標ピクセルxの予測は、一般的に次式で表現することができる。
Figure 2009509413
ここで、{fi}は、フィルタ係数の集合であり、x+viは、動きベクトルviをピクセルxに適用する時の動き補正ピクセルである。フィルタのサポート又はタップを集合S(x)によって定める。タップサポートS(x)及びフィルタ係数{fi}は、一般的に、ピクセル位置x及びその近傍動きベクトルの関数である。すなわち、動きベクトルの分布が画像にわたって変化するので、フィルタ係数は、各ピクセルにおいて変えることができる。従って、フィルタは、変化する動きベクトルのパターンに局所的に適応する。
240では、適応時間予測フィルタを目標画像に適用して、目標画像に関する時間予測を実施する。このフィルタは、時間ドメインにおいて適用され、動きベクトル値の集合及びサンプリングパターンが与えられると、目標画像に対する予測結果を発生させる。このフィルタは、重なり領域の面積によって定められるフィルタタップ及びフィルタ係数を用いて予測されるピクセルの近傍動きベクトルの関連性を捕捉する。この種類の予測フィルタの例は、本出願と同時に出願され、引用によって本明細書に組み込まれている、Marco Paniconi他による「適応影響エリアフィルタ」という名称の現在特許出願中の米国特許出願第XX/XXX、XXX号、代理人整理番号50U6045に開示されている影響エリアフィルタであり、別の例は、動き補正された信号に対する三角分割フィルタである。
このフィルタを適用して時間予測を発生させる例を図5Aに示している。参照画像502内のピクセルを用いて、目標画像504内のピクセルを予測する。参照ピクセルは、参照画像502内の実線の円で表しており、予測される目標ピクセルは、目標画像504内の破線の円で表している。このフィルタは、局所動きベクトルv1からv5のタップ構造を用いて、目標画像504内のピクセルxに関する予測を形成する。動きベクトルのそれぞれのAOIセルの各々は、ピクセルxに対するAOIセルの少なくとも一部分と重なるので、これらの動きベクトルは、ピクセルxに対して局所的である。タップ構造内の各動きベクトル{vi}は、参照画像502内の画像データ{Ii}にマップされる。適応時間予測フィルタは、フィルタ重み{fi}によって参照データ{Ii}を調節し、ピクセルxを予測する。
一実施形態では、この予測フィルタは、タップ構造及びフィルタ重みを用いて次式に従う予測を発生させる。
Figure 2009509413
ここで、局所動きベクトル及びフィルタ係数{fi}によって定められるフィルタタップは、フィルタを発生させる時に判断される。
図2に戻ると、250では、フィルタによって生じる予測結果を用いて動きベクトルの値を再推定し、適応フィルタの精度を改善する。260において、予測誤差を低減する必要がある場合には、方法は、240に戻る。そうでなければ、処理は、270で終了する。特定の動きベクトル値の再推定を実施し、この特定の動きベクトルに対する他の動きベクトルの影響を算入する。特定のAOIセルは、画像内のあらゆる他の動きベクトルよりもセルの内側の動きベクトルによって強く影響を受けるピクセル領域を表している。
しかし、近傍AOIセルの動きベクトルの影響は、この特定のAOIセルの部分内にも及んでいる。例えば、図5Bに示すように、目標画像510は、黒色の円によって示す不規則パターンの動きベクトル、及び白色の円で示す予測されるピクセルを有する。目標画像510をAOIセルに分割し、その境界をブロック520内の破線によって示している。ブロック530は、目標画像内のピクセルに対する動きベクトル532の全影響を示している。一般的に、特定の動きベクトルの全影響エリアは、この特定の動きベクトルのAOIセルを超えて、かつ近傍AOIセル内のピクセルに影響を与える。例えば、点線の円によって示す動きベクトル532の全影響エリアは、近傍動きベクトル531、533、534、535、536、537、及び538のAOIセル内のピクセルの一部に及んでいる。
動きベクトル532の初期値は、近傍動きベクトルの影響を考慮しないで判断されている。従って、関連のAOIセル内のピクセル値を予測するために、動きベクトル532の値を再推定し、この関連AOIセル内の近傍動きベクトルの影響を算入する。動きベクトルの再推定値は、目標画像内のピクセル値を予測するのに、適応時間予測フィルタによって用いられる。再推定の結果、動きベクトル532の影響エリアセル内の全てのピクセルに関する予測誤差が低減する。
例えば、図5Bのブロック540は、予測される目標ピクセル542を示している。動きベクトル532に対するAOIセルの内側に存在する目標ピクセル542は、動きベクトル532によって最も影響を受ける。この目標ピクセルは、近傍の動きベクトル534、536、及び538によっても部分的に影響を受ける。これらの4つの動きベクトルは、動きベクトルの周りの矩形によって表す適応時間予測フィルタのためのタップ構造を形成する。目標ピクセル542に対する近傍の動きベクトルの重なる影響を計算し、タップ構造内の動きベクトルに対するフィルタ係数を生成する。各フィルタ係数は、目標ピクセルに対する特定の動きベクトルの相対的な影響を表している。時間予測フィルタは、タップ構造及びフィルタ係数を用いて目標ピクセル542の予測を発生させる。
特定の動きベクトルを再推定するために、例えば、図5Bのブロック530に示すように、動きベクトルの全影響エリアを判断することにより、近傍のAOIセル内のピクセルに対する動きベクトルの重なる影響を考慮する。動きベクトルに関する影響エリアは、以下のように集合Ai Tとして定められる。
Figure 2009509413
すなわち、特定の動きベクトルiに対して、影響エリアは、閾値Tよりも大きなフィルタ係数を有する各ピクセル{xj}である。動きベクトルiに関する全ピクセル影響エリアは、Ai T=0として定められる。動きベクトルに関する支配的な影響エリアは、Ai T≒0.5のようなより大きな閾値を用いて定められる。
重なる影響エリアの別の例は、フィルタ係数及び予測誤差を用いるものである。この例では、重なる影響エリアは、次式になる。
Figure 2009509413
ここで、目標ピクセルxに関する予測誤差信号のマグニチュードは、次式になる。
Figure 2009509413
すなわち、特定の動きベクトルiに対して、その影響エリアは、フィルタ係数と閾値Tよりも大きい予測誤差マグニチュードとの積を有する各ピクセル{Xj}である。動きベクトルiに関する全ピクセル影響エリアは、Ai T=0として定められる。動きベクトルの支配的な影響エリアは、Ai T≒0.5のように、より大きな閾値を用いて定められる。
動きベクトルiの存在に起因する平均予測誤差は、この動きベクトルの影響エリア内の全てのピクセルの誤差を合算することによって判断され、これは、次式になる。
Figure 2009509413
ここで、Tは、上述のように、動きベクトルの影響エリアのサイズを制御する。
再推定手順の例を図6に示している。610では、動きベクトルの予測誤差に従って動きベクトルを仕分ける。リストの最上位にある動きベクトルは、予測される画像内で最も大きな誤差を生じ、612において再推定すべく選択する。615では、選択した動きベクトルに関する全影響エリアを計算して、Ai T=0を生成し、ここで、iは、選択した動きベクトルを表している。620では、集合Ai T=0内の全てのピクセルに関する予測誤差を計算して、ei T=0を生成する。
630では、{SW1、SW2}で表す検索窓の範囲を判断し、ここで、SW1は、動きベクトルのx成分における検索窓であり、SW2は、動きベクトルのy成分における検索窓である。一実施形態では、検索窓は、システムによって入力パラメータとして設定される固定範囲を有する。例えば、検索窓の範囲は、影響エリアと等しくすることができる。
640では、動きベクトルのx成分(vi x)及びy成分(vi y)は、以下のように検索窓の固定範囲内で変更される。
Figure 2009509413
650では、集合Ai T=0内のピクセルに対してei T=0を最小にする選択した動きベクトルに対する値を判断する。660では、動きベクトル値を650で判断した値で更新する。670において、別の動きベクトルを再推定する必要がある場合には、処理は610に戻る。そうでなければ、処理は680で終了する。
一部の実施形態では、図6の方法を、適応再推定を実施するように修正することができる。再推定処理における複雑さの大部分は、大きな影響エリアを有する動きベクトルに対して最適値を識別することから生じる。しかし、通常、動きベクトルに関する大きな影響エリアは、影響エリア内のかなり密着した動きに起因する。低密度の動きベクトルを有する画像領域(すなわち、大きなAOIセル)では、再推定処理は、(a)より小さな検索窓を用いる、(b)予測誤差を計算するのに用いる影響エリアを縮小する、(c)階層検索を用いる、又は(d)、(a)、(b)、及び(c)のいずれかの組合せを実施することにより、動きベクトルを再推定する複雑さを低減することができる。
高密度の動きベクトルを有する画像領域では、特定の動きベクトルにおける影響エリアは、一般的に小さく、通常は動きにまとまりがない。これらの領域では、各動きベクトル値は、再推定処理を実施する計算の複雑さの有意な増大なしに、関連影響エリアの全てではないにしても大部分を含む検索窓を用いて再推定することができる。
図6の再推定処理には、以下のように適応的な態様を含めることができる。615において、処理は、フィルタ係数及び予測誤差のマグニチュードを用いて適応影響エリアを計算し、影響エリアのサイズを縮小する。それによって処理の実行速度を高めることができる。例えば、動きベクトルに関する全影響面積AT=0は、大量のピクセルを含む可能性があり、その一部は、動きベクトル値が変化する時に予測誤差に対してさほど影響を与えない。複雑さを低減するために、閾値T≠0を用いて動きベクトルの影響エリアを縮小する。この閾値は、不規則な分布の動きベクトルにも適応する。例えば、大きな影響面積AT=0>C1を有する動きベクトルに対して、デフォルトの閾値T1≒0.1を設定することができ、この閾値は、T2≒0.25のような高い値へと増加させることができる。
別の実施形態では、615において、処理は、空間活動度を用いて適応影響エリアを計算する。空間活動度は、動きベクトルの初期値を用いて参照画像内で識別される補正されたピクセルの周囲で定義される。一般的に、参照画像内の低空間活動度領域にマップされるピクセルは、動きベクトル値に対して小さい影響を有する。高空間活動度領域は、動きベクトルに関する値の選択を左右する。この実施形態では、影響エリアAi T内の各ピクセルに対して、局所的な空間活動度の値を計算する。各動きベクトルの影響エリア及び従って再推定を実施する複雑さは、閾値Csaを超える局所的な空間活動度の値を有するピクセルを用いて低減することができる。
適応処理は、630において、影響エリア全体を検索窓として用いる代わりに、初期予測誤差に従って検索窓範囲を適応させることができる。例えば、小さな予測誤差を有する動きベクトルは、通常は、密着した動き及び疎らな動きベクトル密度を有する画像領域内に存在する。この種類の動きベクトルでは、動きベクトルに関する初期値は、既に最適値に近いので、広範囲にわたる検索窓は必要ではない。従って、検索窓のサイズは、係数αだけ縮小することができる。
代替的に、630において、処理は、初期の動きベクトルのマグニチュードに従って検索窓を適応させることができる。初期値が非常に小さい(例えば、
Figure 2009509413
)動きベクトルでは、動きベクトルの再推定値も小さいことが予想され(すなわち、Mよりも小さい)、ここで、Mは、閾値マグニチュードである。従って、検索窓は、予測性能において僅かな低下もなく係数βだけ縮小することができる。
一部の実施形態では、適応処理は、大きな影響エリアを有する動きベクトルの再推定値の粗−細検索を実施することができる。例えば、大きな影響エリアを有する動きベクトルは、通常は、大量の密着した動きを有する画像領域に対応する。この種類の動きベクトルでは、640で2段階検索手順を実施することができる。最初に、動きベクトルに関する値は、大きな値のTを用いて検索窓内で大まかに変更される。続いて、より小さいTを用いて、動きベクトル値を細かく変更する。この粗−細検索は、影響エリアのサイズが閾値C2よりも大きい時に適用することができる。
一部の実施形態では、再推定手順は、複数の参照画像と共に用いることができる。複数の参照画像では、動きベクトルは、動きベクトル値に加えて、図7に示すようにモードマップを有する。例えば、2つの参照画像を用いる場合には、モードマップpは、0、1、又は1/2である。pi=0の時、動きベクトルmは、目標画像730を予測するのに参照画像720を用いる。pi=1の時、動きベクトルmは、目標画像730を予測するのに参照画像710を用いる。pi=1/2の時、動きベクトルmは、各参照画像からの予測の平均を取る。参照画像710及び720に対する2組の動きベクトルは、それぞれ
Figure 2009509413
で表される。
この例では、図2の240を参照すると、式(1)の時間予測フィルタは、以下のように、2つの参照画像を含むように拡張される。
Figure 2009509413
同様に、pi={0、1}に対して、式(3)及び(4)それぞれから得られる各動きベクトルに関する2組の予測誤差{ei、0、ei、1}が存在する。図7に示す目標ピクセルを予測するためのフィルタは、次式になる。
Figure 2009509413
複数の参照画像を用いる時には、動きベクトル値を再推定する段階は、時間予測フィルタに対してモードマップを推定する段階、及び2つの動きベクトルの値を変更する段階を含む。一方の動きベクトルの最適値及びモードマップが判断される間は、他方の動きベクトル値を固定したままに保つ。以前に固定した値を変更し、以前に変更した値を固定してこの処理を繰り返す。いずれの値を最初に変更するかの選択は、動きベクトルの予測誤差を用いて判断される。大きな予測誤差を有する動きベクトルを最初に変更する。別の実施形態では、2組の動きベクトル及びモードマップを同時に最適化する。代替的に、複数の段階(2つだけではなく)で再推定処理を進めることができ、処理は、2組の動きベクトルの間で交互に行われ、これに応じて縮小される検索窓が同じ複雑さを維持する。
2つの参照画像を用いて動きベクトル値を再推定する方法の例を図8に示している。特定の動きベクトルに対して、810では、影響エリア内のピクセルに関する2組の予測誤差を計算し、誤差ei、0、ei、1が得られる。815では、いずれの誤差が大きいかを判断する。この例では、ei、0<ei、1と仮定する(ei、1<ei、0の場合は、{0、1}を逆にして同じ手順を辿る)。820では、大きい方の誤差を有する動きベクトル:
Figure 2009509413
のモードマップ及び値は、その動きベクトルの影響エリアにおける検索窓内で変更される。825では、
Figure 2009509413
に対する最適値及びその対応する最適モードマップpiを選択する。最適値は、式(5)を用いて予測する画像の予測誤差を最小にする。830では、他方の動きベクトル:
Figure 2009509413
のモードマップ及び値を変更する。835では、
Figure 2009509413
に対する最適値及びその対応する最適モードマップpiを選択する。840において別の動きベクトルを再推定する必要がある場合には、処理は810に戻り、そうでなければ、処理は850で終了する。一部の実施形態では、検索窓及び影響エリアは、上述のように、計算の複雑さを低減するように適応させることができる。
一実施形態では、適応時間予測フィルタは、図9に示すように、ビデオデータの画像(又はフレーム、又はフィールド)を符号化するためのビデオ符号化システムによって用いられる。910では、符号器は、入力目標画像を受信する。(目標画像に関連する復号された画像データを収容する参照画像の集合が、符号化処理中に符号器に対して利用可能であり、また、復号処理中には復号器に対しても利用可能である。)920では、符号器は、目標画像に関連の動きベクトルのサンプリング又は分布を発生させる。すなわち、数量N個の動きベクトルが与えられると、これらN個の動きベクトルを目標画像内に配置する。一般的に、動きベクトルの位置は、画像コンテンツ内の動きのエリアに適応させて、例えば、図3に示すような不規則パターンの動きベクトルが生じる。930では、サンプリングパターン情報(例えば、パターンを表すビット)を復号器に伝送する。適応サンプリングパターンを発生させるのに多くの手法を用いることができる。
940では、時間予測フィルタ処理を不規則な動きサンプリングパターンに適用する。この適応フィルタ処理は、動きベクトル、不規則なサンプリングパターン、及び参照画像を用いて目標画像の予測を発生させる。950では、動きベクトル値を符号化し、復号器に送信する。960では、目標画像の実際の目標データから適応フィルタリング処理からの予測誤差を差し引いた残差を発生させる。970では、残差を符号化し、980において復号器に送信する。
別の実施形態では、適応時間予測フィルタは、図10に示すようにビデオデータの画像(又はフレーム、又は画像)を復号するのに用いられる。1010では、符号化済み残差を受信する。1020では、復号器は、受信した符号化済み残差を復号する。1030では、復号器は、サンプリングパターン情報、参照画像、及び動きベクトル値を受信する。続いて1040において、復号器は、適応時間フィルタ手法を適用して時間予測を発生させる。1050では、復号済み残差を時間予測に加えることによって復号された目標画像を発生させる。
図11は、適応時間予測フィルタを用いるシステムの例を示している。デジタルビデオカメラ1110は、電子形式で画像を取り込み、圧縮及び符号化処理中に適応影響エリアフィルタを用いる圧縮デバイス1120を用いて画像を処理する。符号化された画像は、電子伝送媒体1130を通じてデジタル再生デバイス1140に送信される。画像は、復号処理中にフィルタを用いる復号デバイス1150によって復号される。カメラ1110は、本発明の実施形態を含む様々な画像処理装置(例えば、他の画像取り込みデバイス、画像エディタ、画像処理プロセッサ、パーソナル及び市販のコンピュータプラットフォーム等)を示している。同様に、復号デバイス1150は、画像データを復号する様々なデバイスを示している。
本発明を特定のシステム環境における実施形態に関して説明したが、本発明は、特許請求の精神及び範囲内の他の異なるハードウエア及びソフトウエア環境において修正を伴って実施することができることを当業者は認識するであろう。
従来のブロックベースの時間フィルタの例を示す図である。 適応時間フィルタリング手順の例を示す図である。 適応時間フィルタリング手順で用いられる不規則パターンの動きベクトル及び影響エリアセルの例を示す図である。 適応時間フィルタリング手順で用いられる不規則パターンの動きベクトル及び影響エリアセルの例を示す図である。 適応時間フィルタを用いて実施される予測の例を示す図である。 適応時間フィルタリング手順で用いられる動きベクトルの全影響エリアの例を示す図である。 適応時間フィルタリング手順で用いることができる誤差低減法の例を示す図である。 適応時間フィルタにおいて実施される複数の参照画像からの目標画像予測の例を示す図である。 適応時間フィルタリング手順で用いることができる誤差低減法の別の例を示す図である。 適応時間フィルタを用いる符号化システムの例である。 適応影響エリアフィルタを用いる復号システムの例を示す図である。 適応影響エリアフィルタを用いるデジタルカメラシステムの例を示す図である。
符号の説明
210 不規則なサンプリングパターンの動きベクトルを発生させる段階
220 画像を複数のセルに分割する段階
230 動きベクトルに関する初期値を判断する段階

Claims (30)

  1. 電子データプロセッサによって実施される方法であって、
    目標画像に対する不規則パターンの動きベクトルを受信する段階と、
    前記動きベクトルの各々に対して初期値を推定する段階と、
    前記動きベクトルを用いて適応時間予測フィルタのためのタップ構造を発生させる段階と、
    前記タップ構造を用いて各動きベクトルの前記値を再推定する段階と、
    を含むことを特徴とする方法。
  2. 前記動きベクトルの前記再推定された値を用いて、前記目標画像の予測を発生させる段階、
    を更に含むことを特徴とする請求項1に記載の方法。
  3. 前記動きベクトルの前記値を再推定する段階は、
    前記予測フィルタに対して前記動きベクトルの影響のエリアを判断する段階と、
    前記影響エリア内のピクセルの予測誤差を判断する段階と、
    前記動きベクトルに対して検索窓を判断する段階と、
    前記検索窓内で前記動きベクトルの前記値を変更し、前記予測誤差を低減する段階と、
    を更に含む、
    ことを特徴とする請求項1に記載の方法。
  4. 前記予測フィルタに対して前記動きベクトルの前記影響のエリアを判断する段階は、
    前記動きベクトルに対してゼロよりも大きいフィルタ係数を有する各ピクセルを選択することによって全影響エリアを判断する段階、
    を含む、
    ことを特徴とする請求項3に記載の方法。
  5. 前記動きベクトルの前記影響エリアを判断する段階は、
    前記動きベクトルの全影響エリアを判断する段階と、
    前記全影響エリア内の各ピクセルに対するフィルタ係数マグニチュード及び予測誤差マグニチュードを閾値と比較する段階と、
    前記フィルタ係数と予測誤差マグニチュードの積が前記閾値よりも大きい場合に前記影響エリアを縮小する段階と、
    を含む、
    ことを特徴とする請求項3に記載の方法。
  6. 前記検索窓を判断する段階は、
    前記検索窓の初期範囲を前記影響エリアの範囲に設定する段階と、
    前記予測誤差を閾値と比較する段階と、
    前記予測誤差が前記閾値よりも小さい場合に前記検索窓の前記範囲を縮小する段階と、
    を含む、
    ことを特徴とする請求項3に記載の方法。
  7. 前記検索窓を判断する段階は、
    前記検索窓の初期範囲を前記影響エリアの範囲に設定する段階と、
    前記動きベクトルの前記初期値のマグニチュードを閾値と比較する段階と、
    前記マグニチュードが前記閾値よりも小さい場合に前記検索窓の前記範囲を縮小する段階と、
    を含む、
    ことを特徴とする請求項3に記載の方法。
  8. 前記値を変更する段階は、
    前記影響エリアのサイズを閾値と比較する段階と、
    前記影響エリアの前記サイズが前記閾値よりも大きい場合に、前記検索窓内で前記動きベクトルの前記値を大まかに変更し、該値の第1の再推定値を生成する段階と、
    前記動きベクトルの前記値の前記第1の再推定値を細かく変更し、第2の再推定値を生成する段階と、
    を含む、
    ことを特徴とする請求項3に記載の方法。
  9. 再推定する段階が、
    複数の参照画像を用いる段階、
    を含む、
    ことを特徴とする請求項1に記載の方法。
  10. 各参照画像に対して、該参照画像に関連付けられた動きベクトルの値を変更し、かつモードマップを変更する段階、
    を更に含むことを特徴とする請求項9に記載の方法。
  11. 目標画像に対する不規則パターンの動きベクトルを受信する動きベクトル受信器と、
    前記動きベクトルの各々に対して初期値を推定する推定器と、
    前記動きベクトルを用いて適応時間予測フィルタのためのタップ構造を発生させるタップ構造発生器と、
    前記タップ構造を用いて各動きベクトルの前記値を再推定する再推定器と、
    を含むことを特徴とする装置。
  12. 前記動きベクトルの前記再推定された値を用いて前記目標画像の予測を発生させる予測器、
    を更に含むことを特徴とする請求項11に記載の装置。
  13. 前記再推定器は、
    前記動きベクトルの影響エリアを判断する影響エリアデバイスと、
    前記影響エリア内のピクセルの予測誤差を判断する誤差デバイスと、
    前記動きベクトルに対して検索窓を判断する検索窓デバイス段階と、
    前記検索窓内で前記動きベクトルの前記値を変更して前記予測誤差を低減する誤差低減デバイスと、
    を更に含む、
    ことを特徴とする請求項11に記載の装置。
  14. 前記影響エリアデバイスは、
    前記動きベクトルに対してゼロよりも大きいフィルタ係数を有する各ピクセルを選択することによって該動きベクトルの全影響エリアを判断する判断論理回路、
    を含む、
    ことを特徴とする請求項13に記載の装置。
  15. 前記影響エリアデバイスは、
    前記動きベクトルの全影響エリアを判断する判断論理回路と、
    前記全影響エリア内の各ピクセルに対するフィルタ係数マグニチュード及び予測誤差マグニチュードを閾値と比較する比較器と、
    前記フィルタ係数と予測誤差マグニチュードの積が前記閾値よりも大きい場合に前記影響エリアを縮小する縮小論理回路と、
    を含む、
    ことを特徴とする請求項13に記載の装置。
  16. 前記検索窓デバイスは、
    前記検索窓の初期範囲を前記影響エリアの範囲に設定する論理回路と、
    前記予測誤差を閾値と比較する論理回路と、
    前記予測誤差が前記閾値よりも小さい場合に前記検索窓の前記範囲を縮小する論理回路と、
    を含む、
    ことを特徴とする請求項13に記載の装置。
  17. 前記検索窓デバイスは、
    前記検索窓の初期範囲を前記影響エリアの範囲に設定する論理回路と、
    前記動きベクトルの前記初期値のマグニチュードを閾値と比較する論理回路と、
    前記マグニチュードが前記閾値よりも小さい場合に前記検索窓の前記範囲を縮小する論理回路と、
    を含む、
    ことを特徴とする請求項13に記載の装置。
  18. 前記誤差低減デバイスは、
    前記影響エリアのサイズを閾値と比較する論理回路と、
    前記サイズが前記閾値よりも大きい場合に、前記検索窓内で前記動きベクトルの前記値を大まかに変更して該値の第1の再推定値を生成し、かつ該動きベクトルの該値の該第1の再推定値を細かく変更して第2の再推定値を生成する論理回路と、
    を含む、
    ことを特徴とする請求項13に記載の装置。
  19. 前記再推定器は、
    複数の参照画像を用いる論理回路、
    を含む、
    ことを特徴とする請求項11に記載の装置。
  20. 前記複数の参照画像の各々に対して前記参照画像に関連付けられた動きベクトルの値を変更し、かつモードマップを変更する論理回路、
    を更に含むことを特徴とする請求項19に記載の装置。
  21. 処理システムによって実行された時に該システムに、
    目標画像に対する不規則パターンの動きベクトルを受信する段階と、
    前記動きベクトルの各々に対して初期値を推定する段階と、
    前記動きベクトルを用いて適応時間予測フィルタのためのタップ構造を発生させる段階と、
    前記タップ構造を用いて各動きベクトルの前記値を再推定する段階と、
    を含む方法を実施させる命令のプログラムを記憶するコンピュータ可読媒体。
  22. 前記動きベクトルの前記再推定された値を用いて、前記目標画像の予測を発生させる段階、
    を更に含むことを特徴とする請求項21に記載のコンピュータ可読媒体。
  23. 前記動きベクトルの前記値を再推定する段階は、
    前記動きベクトルの影響エリアを判断する段階と、
    前記影響エリア内のピクセルの予測誤差を判断する段階と、
    前記動きベクトルに対して検索窓を判断する段階と、
    前記検索窓内で前記動きベクトルの前記値を変更し、前記予測誤差を低減する段階と、
    を更に含む、
    ことを特徴とする請求項21に記載のコンピュータ可読媒体。
  24. 前記予測フィルタに対して前記動きベクトルの前記影響のエリアを判断する段階は、
    前記動きベクトルに対してゼロよりも大きいフィルタ係数を有する各ピクセルを選択することによって全影響エリアを判断する段階、
    を含む、
    ことを特徴とする請求項23に記載のコンピュータ可読媒体。
  25. 前記動きベクトルの前記影響エリアを判断する段階は、
    前記動きベクトルの全影響エリアを判断する段階と、
    前記全影響エリア内の各ピクセルに対するフィルタ係数マグニチュード及び予測誤差マグニチュードを閾値と比較する段階と、
    前記フィルタ係数と予測誤差マグニチュードの積が前記閾値よりも大きい場合に前記影響エリアを縮小する段階と、
    を含む、
    ことを特徴とする請求項23に記載のコンピュータ可読媒体。
  26. 前記検索窓を判断する段階は、
    前記検索窓の初期範囲を前記影響エリアの範囲に設定する段階と、
    前記予測誤差を閾値と比較する段階と、
    前記予測誤差が前記閾値よりも小さい場合に前記検索窓の前記範囲を縮小する段階と、
    を含む、
    ことを特徴とする請求項23に記載のコンピュータ可読媒体。
  27. 前記検索窓を判断する段階は、
    前記検索窓の初期範囲を前記影響エリアの範囲に設定する段階と、
    前記動きベクトルの前記初期値のマグニチュードを閾値と比較する段階と、
    前記マグニチュードが前記閾値よりも小さい場合に前記検索窓の前記範囲を縮小する段階と、
    を含む、
    ことを特徴とする請求項23に記載のコンピュータ可読媒体。
  28. 前記値を変更する段階は、
    前記影響エリアのサイズを閾値と比較する段階と、
    前記影響エリアの前記サイズが前記閾値よりも大きい場合に、前記検索窓内で前記動きベクトルの前記値を大まかに変更し、該値の第1の再推定値を生成する段階と、
    前記動きベクトルの前記値の前記第1の再推定値を細かく変更し、第2の再推定値を生成する段階と、
    を含む、
    ことを特徴とする請求項23に記載のコンピュータ可読媒体。
  29. 再推定する段階が、
    複数の参照画像を用いる段階、
    を含む、
    ことを特徴とする請求項21に記載のコンピュータ可読媒体。
  30. 各参照画像に対して、該参照画像に関連付けられた動きベクトルの値を変更し、かつモードマップを変更する段階、
    を更に含むことを特徴とする請求項29に記載のコンピュータ可読媒体。
JP2008531303A 2005-09-16 2006-09-12 不規則な動きベクトルのサンプルに対する時間予測フィルタのための適応動き推定 Pending JP2009509413A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/228,681 US8005308B2 (en) 2005-09-16 2005-09-16 Adaptive motion estimation for temporal prediction filter over irregular motion vector samples
PCT/US2006/035745 WO2007035387A2 (en) 2005-09-16 2006-09-12 Adaptive motion estimation for temporal prediction filter over irregular motion vector samples

Publications (1)

Publication Number Publication Date
JP2009509413A true JP2009509413A (ja) 2009-03-05

Family

ID=37884049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008531303A Pending JP2009509413A (ja) 2005-09-16 2006-09-12 不規則な動きベクトルのサンプルに対する時間予測フィルタのための適応動き推定

Country Status (6)

Country Link
US (1) US8005308B2 (ja)
EP (1) EP1925166A4 (ja)
JP (1) JP2009509413A (ja)
KR (1) KR20080048069A (ja)
CN (1) CN101268701B (ja)
WO (1) WO2007035387A2 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
US20080002772A1 (en) * 2006-06-28 2008-01-03 Hong Kong Applied Science and Technology Research Institute Company Limited Motion vector estimation method
BRPI0714233A2 (pt) * 2006-07-18 2013-01-15 Thomson Licensing mÉtodos e aparelho para filtragem de referÊncia adaptativa
US8085849B1 (en) * 2006-11-03 2011-12-27 Keystream Corporation Automated method and apparatus for estimating motion of an image segment using motion vectors from overlapping macroblocks
US20080240242A1 (en) * 2007-03-27 2008-10-02 Nokia Corporation Method and system for motion vector predictions
EP2266321B1 (en) 2008-04-23 2017-12-13 Telefonaktiebolaget LM Ericsson (publ) Template-based pixel block processing
US8059908B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive area of influence filter for irregular spatial sub-sampled images
US8059909B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive generation of irregular spatial sub-sampling for images
BRPI0915000A2 (pt) * 2008-06-12 2015-10-27 Thomson Licensing métodos e aparelho para filtragem localmente adaptativa para filtragem de interpolação de compensação de movimento e filtragem de imagem de referência
TWI471823B (zh) * 2008-07-31 2015-02-01 Pixart Imaging Inc 以移動向量在微小點陣圖上決定座標的方法
KR101680915B1 (ko) * 2008-11-25 2016-11-29 톰슨 라이센싱 비디오 인코딩 및 디코딩을 위한 희소성-기반 아티팩트 제거 필터링 방법 및 장치
TWI463878B (zh) * 2009-02-19 2014-12-01 Sony Corp Image processing apparatus and method
US9654792B2 (en) 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
US8917769B2 (en) * 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US20110002387A1 (en) * 2009-07-03 2011-01-06 Yi-Jen Chiu Techniques for motion estimation
US8462852B2 (en) 2009-10-20 2013-06-11 Intel Corporation Methods and apparatus for adaptively choosing a search range for motion estimation
US8682063B2 (en) * 2010-11-24 2014-03-25 Adobe Systems Incorporated Methods and apparatus for dynamic color flow modeling
KR101422422B1 (ko) 2010-12-21 2014-07-23 인텔 코오퍼레이션 Dmvd 처리 향상을 위한 시스템 및 방법
JP2012151576A (ja) 2011-01-18 2012-08-09 Hitachi Ltd 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
GB2493210B (en) * 2011-07-29 2014-04-23 Canon Kk Method and device for error concealment in motion estimation of video data
US9860530B2 (en) * 2011-10-14 2018-01-02 Hfi Innovation Inc. Method and apparatus for loop filtering
EP2769550A4 (en) * 2011-10-14 2016-03-09 Mediatek Inc METHOD AND APPARATUS FOR LOOP FILTRATION
EA201492098A1 (ru) * 2012-05-14 2015-04-30 Лука Россато Кодирование и декодирование на основании смешивания последовательностей выборок с течением времени
CN104104961B (zh) * 2013-04-10 2018-09-21 华为技术有限公司 一种视频编码方法、解码方法和装置
CN105874790A (zh) * 2014-01-01 2016-08-17 Lg电子株式会社 使用自适应预测过滤器编码、解码视频信号的方法和装置
US10645384B2 (en) * 2016-05-02 2020-05-05 Sony Corporation Encoding apparatus and encoding method as well as decoding apparatus and decoding method
JP6681467B2 (ja) * 2016-06-08 2020-04-15 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
CN106954065B (zh) * 2017-03-01 2020-01-07 西安电子科技大学 基于梯度方向直方图的递归预测图像压缩方法
GB2564133B (en) * 2017-07-04 2021-03-17 Canon Kk Method and apparatus for encoding or decoding video data with sub-pixel motion vector refinement
US10863190B2 (en) * 2018-06-14 2020-12-08 Tencent America LLC Techniques for memory bandwidth optimization in bi-predicted motion vector refinement
CN113779889B (zh) * 2021-09-26 2024-04-16 商汤集团有限公司 布局信息生成方法、装置、存储介质以及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08116541A (ja) * 1994-10-14 1996-05-07 Hitachi Ltd 画像符号化装置
JPH08237668A (ja) * 1995-02-27 1996-09-13 Kyocera Corp 動きベクトル検出方法
JPH09161072A (ja) * 1995-12-13 1997-06-20 Tsushin Hoso Kiko 映像信号の構造情報を抽出する映像処理装置
US20050078755A1 (en) * 2003-06-10 2005-04-14 Woods John W. Overlapped block motion compensation for variable size blocks in the context of MCTF scalable video coders
JP2005244542A (ja) * 2004-02-26 2005-09-08 Nec Corp 動画像符号化装置、動画像符号化方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0309669B1 (de) * 1987-09-30 1992-12-30 Siemens Aktiengesellschaft Verfahren zur szenenmodellgestützten Bilddatenreduktion für digitale Fernsehsignale
US5690934A (en) * 1987-12-31 1997-11-25 Tanox Biosystems, Inc. Peptides relating to the extracellular membrane-bound segment of human alpha chain
US5047850A (en) * 1989-03-03 1991-09-10 Matsushita Electric Industrial Co., Ltd. Detector for detecting vector indicating motion of image
US5872866A (en) 1995-04-18 1999-02-16 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression by predetermination of IDCT results based on image characteristics
US5654771A (en) * 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
AU5501296A (en) * 1996-04-19 1997-11-12 Nokia Mobile Phones Limited Video encoder and decoder using motion-based segmentation and merging
US6101276A (en) * 1996-06-21 2000-08-08 Compaq Computer Corporation Method and apparatus for performing two pass quality video compression through pipelining and buffer management
JP3967405B2 (ja) * 1996-10-09 2007-08-29 テキサス インスツルメンツ インコーポレイテツド 画像信号の符号化方法
JP4034380B2 (ja) * 1996-10-31 2008-01-16 株式会社東芝 画像符号化/復号化方法及び装置
DE19648016A1 (de) * 1996-11-20 1998-05-28 Philips Patentverwaltung Verfahren zur fraktalen Bildkodierung und Anordnung zur Durchführung des Verfahrens
EP2352300A1 (en) * 1997-02-13 2011-08-03 Mitsubishi Denki Kabushiki Kaisha Moving picture prediction system
US6178205B1 (en) * 1997-12-12 2001-01-23 Vtel Corporation Video postfiltering with motion-compensated temporal filtering and/or spatial-adaptive filtering
US6208692B1 (en) * 1997-12-31 2001-03-27 Sarnoff Corporation Apparatus and method for performing scalable hierarchical motion estimation
US6591015B1 (en) * 1998-07-29 2003-07-08 Matsushita Electric Industrial Co., Ltd. Video coding method and apparatus with motion compensation and motion vector estimator
KR100301833B1 (ko) 1998-08-20 2001-09-06 구자홍 오류은폐방법
US6711278B1 (en) 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6466624B1 (en) 1998-10-28 2002-10-15 Pixonics, Llc Video decoder with bit stream based enhancements
JP2000308064A (ja) * 1999-04-22 2000-11-02 Mitsubishi Electric Corp 動きベクトル検出装置
US6480615B1 (en) * 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
WO2001010135A1 (en) * 1999-07-29 2001-02-08 Mitsubishi Denki Kabushiki Kaisha Moving vector detecting method
JP3753578B2 (ja) * 1999-12-07 2006-03-08 Necエレクトロニクス株式会社 動きベクトル探索装置および方法
US6864994B1 (en) * 2000-01-19 2005-03-08 Xerox Corporation High-speed, high-quality descreening system and method
EP1277347A1 (en) 2000-04-11 2003-01-22 Koninklijke Philips Electronics N.V. Video encoding and decoding method
AU2002228884A1 (en) 2000-11-03 2002-05-15 Compression Science Video data compression system
US6782054B2 (en) * 2001-04-20 2004-08-24 Koninklijke Philips Electronics, N.V. Method and apparatus for motion vector estimation
US7110455B2 (en) * 2001-08-14 2006-09-19 General Instrument Corporation Noise reduction pre-processor for digital video using previously generated motion vectors and adaptive spatial filtering
EP1530829B1 (en) * 2002-07-09 2018-08-22 Nokia Technologies Oy Method and apparatus for selecting interpolation filter type in video coding
US7068722B2 (en) * 2002-09-25 2006-06-27 Lsi Logic Corporation Content adaptive video processor using motion compensation
JP4462823B2 (ja) 2002-11-20 2010-05-12 ソニー株式会社 画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラム
JP3997171B2 (ja) * 2003-03-27 2007-10-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
KR100560843B1 (ko) * 2003-04-10 2006-03-13 에스케이 텔레콤주식회사 비디오 부호기에서 적응 움직임 벡터의 탐색 영역을결정하는 방법 및 장치
DE10332134B4 (de) 2003-07-16 2006-04-27 PFÜLLER, Matthias Picknickgrill zum Zusammenstecken
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08116541A (ja) * 1994-10-14 1996-05-07 Hitachi Ltd 画像符号化装置
JPH08237668A (ja) * 1995-02-27 1996-09-13 Kyocera Corp 動きベクトル検出方法
JPH09161072A (ja) * 1995-12-13 1997-06-20 Tsushin Hoso Kiko 映像信号の構造情報を抽出する映像処理装置
US20050078755A1 (en) * 2003-06-10 2005-04-14 Woods John W. Overlapped block motion compensation for variable size blocks in the context of MCTF scalable video coders
JP2005244542A (ja) * 2004-02-26 2005-09-08 Nec Corp 動画像符号化装置、動画像符号化方法

Also Published As

Publication number Publication date
WO2007035387A3 (en) 2007-12-27
US20070064804A1 (en) 2007-03-22
US8005308B2 (en) 2011-08-23
EP1925166A2 (en) 2008-05-28
WO2007035387A2 (en) 2007-03-29
CN101268701A (zh) 2008-09-17
EP1925166A4 (en) 2010-06-30
KR20080048069A (ko) 2008-05-30
CN101268701B (zh) 2012-06-20

Similar Documents

Publication Publication Date Title
JP2009509413A (ja) 不規則な動きベクトルのサンプルに対する時間予測フィルタのための適応動き推定
JP4922302B2 (ja) 移動物体境界のための適応影響エリアフィルタ
JP5021494B2 (ja) ビデオ通信のための動作ベクトルの時間的推定
JP4988715B2 (ja) ビデオ符号化におけるノイズフィルタリング方法及び装置
US7894522B2 (en) Classified filtering for temporal prediction
JP5203379B2 (ja) ビデオ圧縮用の空間規約誘導時間予測
JP2009509406A (ja) 動きベクトルの選択
JP5237814B2 (ja) ビデオ圧縮における適応的動きベクトルサンプリングのための多段リンク方法
JP2003244707A (ja) 動きベクトル検索領域の適応的決定方法
KR101276450B1 (ko) 적응형 영향 영역 필터
JP2007110409A (ja) 画像処理装置及び画像処理方法をコンピュータに実行させるためのプログラム
JP2008301270A (ja) 動画像符号化装置及び動画像符号化方法
JP2000350209A (ja) リアルタイム動映像符号化のための高速動き推定方法及びその装置
JPH04277982A (ja) 映像信号の高能率符号化装置
JPH0646402A (ja) 動画像圧縮装置
JPH0927957A (ja) テレビジョン信号の予測符号化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120820

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121120

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121219

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121227

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130118

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130805