JP2009509418A - 時間予測のための分類フィルタリング - Google Patents

時間予測のための分類フィルタリング Download PDF

Info

Publication number
JP2009509418A
JP2009509418A JP2008531380A JP2008531380A JP2009509418A JP 2009509418 A JP2009509418 A JP 2009509418A JP 2008531380 A JP2008531380 A JP 2008531380A JP 2008531380 A JP2008531380 A JP 2008531380A JP 2009509418 A JP2009509418 A JP 2009509418A
Authority
JP
Japan
Prior art keywords
prediction
filter
target image
square
squares
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008531380A
Other languages
English (en)
Inventor
マルコ パニコーニ
ジェイムズ ジェイ キャリッグ
ズーロン ミアオ
Original Assignee
ソニー エレクトロニクス インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー エレクトロニクス インク filed Critical ソニー エレクトロニクス インク
Publication of JP2009509418A publication Critical patent/JP2009509418A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/66Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Processing (AREA)

Abstract

【課題】ビデオ圧縮の技術を提供する。
【解決手段】不規則なフィルタタップを使用して目標画像の予測を生成する段階、及び規則的フィルタタップを予測に適用して高められた予測を生成する段階を含む、時間予測を実施する方法。
【選択図】図2

Description

本発明は、ビデオ圧縮の分野に関する。
時間予測フィルタは、予め復号された参照の集合から目標画像を予測するためにビデオ圧縮処理において使用される。時間予測処理は、有意な量の時間的冗長性を除去する際に有効であり、これは、一般的により高い符号化効率をもたらす。予測処理は、動きベクトルの集合と動きベクトル上で作動するフィルタとを使用して目標画像を予測する。
例えば、予測方法は、図1に示すように参照画像110を複数の固定サイズのブロック120に分割する。各ブロックは、目標画像に対するブロックの動きを説明する関連の動きベクトルを有する。動きベクトルは、画像110内の白いドットで示されている。時間予測フィルタは、関連の動きベクトルを使用して参照画像内の各ブロック上で単純な動き補正技術を実行し、目標画像内のブロックの位置を予測する。従って、目標画像内の各ブロックは、単一の動きベクトルを使用して参照画面内のブロックから推定される。しかし、この手法は、各動きベクトルを独立に取り扱っており、画像の特徴に適応できない。
関連するブロックの位置を予測するために単一の動きベクトルを使用するか又は規則的な動きベクトルパターンに対して定義されたフィルタに依存する従来の時間フィルタは、時間予測を実行するために動きベクトルの規則的分布が必要である。従って、それらは、予測処理を動きベクトルの不規則パターンに適応させることができない。動きベクトルの不規則パターンの変動にタップ係数及びフィルタ係数を局所的に適応させることができるフィルタに対する必要性が存在する。物体境界及び空間的テクスチャに適応する柔軟性を有する時間フィルタに対する必要性も存在する。
時間予測を実施する方法は、不規則フィルタタップを使用して目標画像の予測を生成する段階、及び規則的フィルタタップを予測に適用して高い予測を生成する段階を含む。
本発明は、例示的に示されており、添付図面と共に以下の説明を参照することによってより良く理解することができる。
以下の説明においては、説明の一部を形成し、かつ本発明を実施することができる特定的な実施形態を例示的に示す添付図面を参照する。本発明の範囲を逸脱することなく他の実施形態を利用することができ、構造的変更を行うことができることは理解されるものとする。例えば、当業者は、様々な実施形態を説明するために使用される用語であるフィールド、又はフレーム、又は画像は、ビデオデータに関連して使用される時に一般的に互換的であることを理解するであろう。
最小2乗分類時間フィルタは、目標画像を予測する際に動きベクトルの不規則パターン、物体特徴、及び空間的テクスチャに自動的に適応する。最小2乗分類フィルタは、動き補正信号に対して時間ドメイン内で作用し、これは、動きベクトルを直接フィルタリングしようとする他の方法と異なる(例えば、動きベクトルドメイン内での三角フィルタリング)。例えば、最小2乗分類フィルタリング法は、時間ドメイン内で作用するので、それは、物体及び空間的テクスチャに対して適応しやすい。一実施形態では、最小2乗分類時間フィルタは、2段処理を実施する。第1段では、動きベクトルの不規則なサンプリングパターン、物体形状、及び物体境界に対してフィルタを適応させる。第2段では、画像の空間的テクスチャに対してフィルタを適応させる。
最小2乗分類時間フィルタリング手順の例を図2に示している。210において、動きベクトルの不規則サンプリングパターンを画像に対して発生させる。このような不規則パターン化は、当業者によって公知の方法を使用して様々な方法で行うことができる。動きベクトルの不規則パターンの例を図3のブロック310内に示している。画像310内の白いドットは、動きベクトルを表している。この適応サンプリングパターンを用いると、動きベクトルは、参照画像から予測することが困難な領域(すなわち、移動する境界に近い領域のようなより複雑な動きを有する画像領域)により集中する。例えば画像の背景領域のような単純な動きの領域には、少数の動きベクトルが置かれる。
動きベクトルの不規則パターンの別の例を図4に示している。陰影付けされた円は、動きベクトルを表し、各xは、予測されるピクセルを表している。ピクセル420は、密集して不規則に分布した動きベクトルの局所近傍にあり、ピクセル410は、準規則的に分布した動きベクトルの局所近傍にあり、ピクセル430は、まばらに存在する動きベクトルの局所近傍にある。予測されるピクセルが、動きベクトルの異なる局所近傍を有し、すなわち、各局所近傍は、動きベクトルの異なる分布を有するので、ピクセルを予測するために、変化する分布に適応するフィルタ構造が使用される。
図2に戻ると、220において、画像は、影響エリアセル(AOIセル)と呼ばれる複数のセルに分割され、各AOIセルは、その印しとして1つの動きベクトルを有する。例えば、図3の画像310は、ブロック320に示すようにAOIセルに分割される。各AOIセルは、画像内の全ての他の動きベクトルよりもセル内部の動きベクトルにより多く影響される領域を表している。AOIセルは、各動きベクトルに対して発生されるので、AOIセルの大きさは、境界領域のような画像内の物体の特徴に関連すると考えられる。例えば、物体間の境界領域に近いAOIセルは、画像の背景領域のAOIセルよりも小さいであろう。AOIセルの形状も、物体の境界の形状に適応するように局所的に変更することができる。AOIセルを発生させる方法の一実施形態は、最短距離動きベクトル分割法である。例えばブロック法又は三角法のような他の分割方法を使用することもできる。以下に説明するように、第2段の最小2乗フィルタ処理において、AOIセルは、自然画像セグメントとして使用され、それにわたって分類マップが定義される(すなわち、各AOIセルが、異なるフィルタを使用することができる)。
図2に戻ると、230において、第1段の適応時間予測フィルタは、動きベクトルの不規則パターン及び影響エリアセルを使用して、目標画像内のピクセルを予測するために発生される。フィルタ段予測フィルタは、動き補正信号に対して時間ドメイン内で作用する。特に、フィルタは、異なる動き補正信号の加重和を使用することによって目標ピクセルを予測し、ここで各動き補正信号は、目標ピクセルを予測する異なる動きベクトルを適用することによって得られる。フィルタ係数及びタップ構造は、動きベクトルの変化するパターンに従って各ピクセルに対して変化する。また、フィルタのサポートも局所的である。これは、目標ピクセルを補正するために使用される動きベクトルが、そのピクセルの局所近傍から得られることを意味する。
第1段フィルタは、以下の構造を有する。{vj}をN個の動きベクトルの集合とし、I(x)を参照画像(予め復号された画像)とする。S(x)をピクセルxの位置の周りの動きベクトルの何らかの集合とする。この目標ピクセルxの予測は、次式で表すように発生させることができる。
Figure 2009509418
ここで、{fi}は、フィルタ係数の集合であり、x+viは、動きベクトルviがピクセルxに適用された場合の動き補正されたピクセルである。フィルタのサポート又はタップは、集合S(x)で定義される。タップサポートS(x)及びフィルタ係数{fi}は、一般的に、ピクセル位置x及びその近傍動きベクトルの関数である。すなわち、動きベクトルの分布が画像の至るところで変化するので、フィルタ係数は、各ピクセルに対して変化する可能性がある。従って、フィルタは、変化する動きベクトルパターンに局所的に適応する。
240において、第1段の予測フィルタが、目標画像に適用され、目標画像に対する時間予測を実施する。フィルタは、時間ドメイン内で適用されて、動きベクトル値の集合及びサンプリングパターンが与えられると、目標画像に対する予測結果を発生させる。フィルタは、重なり合う領域の面積によって定められるフィルタタップ及びフィルタ係数を使用して、予測されるピクセルの近傍の動きベクトルの関連性を捕捉する。このクラスの予測フィルタの例は、本出願と同時に出願され、かつ引用により本明細書に組み込まれている、Marco Paniconi他による「適応影響エリアフィルタ」という名称の現在特許出願中の米国特許出願第XX/XXX、XXX号、代理人整理番号50U6045に開示された影響エリアフィルタであり、別の例は、動き補正信号のための三角形分割フィルタである。
時間予測を発生させるための第1段フィルタ適用の例を図5に示している。参照画像510内のピクセルは、目標画像520内のピクセルを予測するために使用される。参照ピクセルは、参照画像510内の実線円によって表現され、また予測される目標ピクセルは、目標画像520内の破線円によって表現されている。フィルタは、局所動きベクトルv1〜v5のタップ構造を使用して、目標画像520内のピクセルxに対する予測を形成する。動きベクトルのそれぞれのAOIセルのいずれも、ピクセルxに対するAOIセルの少なくとも一部分と重なり合うので、動きベクトルは、ピクセルxに対して局所的である。タップ構造内の各動きベクトル{vi}は、参照画像510内の画像データ{Ii}にマップされる。適応時間予測フィルタは、ピクセルxを予測するためにフィルタ重み{fi}により参照データ{Ii}を調節する。
一実施形態では、予測フィルタは、タップ構造及びフィルタ重みを使用して、次式により予測値を発生させる。
Figure 2009509418
ここで、局所動きベクトルによって定められるフィルタタップとフィルタ係数{fi}とは、フィルタが230において発生された時に判断される。
図2に戻ると、250において、第2段フィルタが発生され、第1段フィルタからの予測値に適用される。第1段フィルタからの出力である予測は、サンプリングされたデータの規則的パターンの形であるから、最小2乗(LS)学習フィルタがこの予測に適用されて、目標画像の予測の空間的テクスチャを強化する。260において、予測誤差を低減する必要がある場合、方法は240に戻る。そうでなければ、270において方法は終了する。
250をより詳細に参照すると、図6は、第2段フィルタを発生させる方法の例を示している。第1段フィルタは、動きベクトルの不規則パターンを処理して、全てのピクセルにおいて定められた予測画像P°を形成する。各動きベクトルは、影響エリアセル{Ai、i=1...S}に関連付けられている。ここで、Sは、影響エリアセルの合計数である。605において、第1段フィルタによって発生された予測は、第2段フィルタに入力される。
610において、最小2乗フィルタ係数の集合{fj°、j=1...N}は、目標画像上で最小2乗学習を実施することにより初期化され、ここで、Nは、第2段に使用されるフィルタクラスの数である。例えば、最小2乗学習は、図3に示されている目標画像上で実施することができる。
620において、分類マップ{C°(i)、i=1...S}が発生されて、各影響エリアセルを最小2乗フィルタ指標にマップする。最初に、分類は、全てのセルを各フィルタ指標にマップする。次に、最小2乗フィルタ係数の集合{fj t}が与えられると、分類マップが、以下のように発生される。各ノードセルAiに対して、セルAi内の予測誤差を最小にするフィルタを選択する。それによって新しい分類マップCt+1(i)が得られる。
各影響エリアセルを適切なフィルタにマップするために発生される分類マップの例を図7に示している。目標画像710は、動きベクトルの不規則な分布を有する。この例では、各動きベクトルは、720に示すように関連する矩形の影響エリアセルを有する。この例に対するフィルタは、4つのクラスを有しており、各影響エリアセルは、4つのクラスのうちの1つにマップされる。各フィルタクラスは、720で影響エリアセルの分類マップ内の特定の陰影により示されている。
図6に戻ると、630において、最小2乗フィルタ係数の新しい集合が発生される。これは、目標画像からのそのそれぞれの影響エリアセルを用いて最小2乗フィルタを再学習させるために、分類マップを使用することにより実施される。すなわち、最小2乗学習を使用して、各セルk=Ct+1(i)、i=1...Sに対して新フィルタ係数fk i+1を発生させる。この結果は、最小2乗フィルタ係数fk i+1、k=1...Nの新しい集合である。
640において、最小2乗フィルタ係数及び分類マップが、第1段P°により発生された予測画像に適用され、目標画像Pi+1の高められた予測を形成する。
650において、目標画像と高められた予測画像Pi+1の間の予測誤差が計算される。660において、方法は、最小2乗予測誤差が最大限に満たされたか否かを判断する。最大限に満たされていない場合、方法は、計数t=t+1に設定し、620に戻り、そこで分類マップが変更されて、フィルタ係数が再学習させられる。
最小2乗予測誤差が最大限に満たされた場合、方法は、670に継続し、全体的予測誤差が最大限に満たされたか否かを判断する。最大限に満たされていない場合は、高められた予測画像がフィードバックとして使用され、類似の空間的テクスチャを有するこれらのピクセルのみを含むようにAOIを変更する。次に、方法は605に戻る。そうでない場合、方法は、685において終了する。
図8は、目標画像を予測するための第1段及び第2段フィルタの例を示している。第1段フィルタ820は、各目標ピクセルxを予測する場合に、動きベクトルの不規則パターン及び参照画像810を使用して目標画像830の予測を発生させる。第1段フィルタ820は、不規則なフィルタタップ構造(820において四角で示される)を使用して予測を発生させる。第2段フィルタ840は、目標ピクセル上に集中した規則的フィルタタップ構造を使用して、予測される画像を高める。例えば、第2段フィルタ840は、最小2乗フィルタ842を使用して目標画像850内の目標ピクセルを予測し、かつ最小2乗フィルタ844を使用して目標画像850内の目標ピクセルzを予測し、補正画像860を形成する。
一実施形態では、最小2乗分類フィルタは、図9に示すように、ビデオデータの画像(又はフレーム、又はフィールド)を符号化するための時間予測フィルタリング処理で使用される。910において、符号化器は、入力の目標画像を受信する。(目標画像に対する復号された画像データを含む参照画像の集合が、符号化処理中に符号化器によって利用可能であり、復号処理中に復号器によっても利用可能である。)920において、符号化器は、目標画像に関連した動きベクトルのサンプリング又は分布を発生させる。すなわち、動きベクトルの数Nが与えられると、これらのN個の動きベクトルは、目標画像中に配置される。動きベクトルの位置は、一般的に画像内容における動きのエリアに適応され、図3に示すような動きベクトルの不規則パターンを生じる。930において、サンプリングパターン情報(例えば、パターンを表現するビット)が復号器に送信される。適応サンプリングパターンを発生させるために、多くの手法を使用することができる。
940において、時間予測フィルタリング処理は、不規則な動きサンプリングパターンに適用される。最小2乗分類学習を有するこの2段適応フィルタリング処理は、動きベクトル、不規則なサンプリングパターン、及び参照画像を使用して目標画像の予測を発生させる。950において、動きベクトル値は、符号化されて復号器に送られる。960において、目標画像の実際の目標データと適応フィルタリング処理からの予測誤差の差である残差が発生される。970において、残差が符号化され、980において復号器に送られる。
別の実施形態では、最小2乗分類フィルタは、図10に示すように、ビデオデータの画像(又はフレーム、又は画像)を復号するために使用される。1010において、符号化された残差が受信される。1020において、復号器は、受信した残差を復号する。1030において、復号器は、サンプルパターン情報、参照画像、及び動きベクトル値を受信する。次に、1040において、復号器は、2段適応時間予測フィルタ手順を適用して時間予測を発生させる。1050において、時間予測に対する復号された残差を加算することにより、復号された目標画像が発生される。
図11は、適応時間予測フィルタを使用するシステムの例を示している。デジタルビデオカメラ1110は、電子形式で画像を捕捉し、圧縮及び符号化処理中に適応時間予測フィルタリング処理を使用する圧縮デバイス1120を使用して画像を処理する。符号化された画像は、電子伝送媒体1130を通じてデジタル再生デバイス1140に送られる。画像は、復号処理中にフィルタを使用する復号デバイス1150により復号される。カメラ1110は、本発明の実施形態を含む様々な画像処理装置(他の画像捕捉デバイス、画像編集器、画像プロセッサ、個人用及び商用のコンピュータプラットフォームなど)を例示している。同様に、復号デバイス1150は、画像データを復号する様々なデバイスの例示である。
本発明を特定のシステム環境における実施形態に関して説明したが、本発明は、特許請求の精神及び範囲内の他の異なるハードウエア及びソフトウエア環境において修正を伴って実施することができることを当業者は認識するであろう。
従来のブロックベースの時間フィルタの例を示す図である。 2段適応時間フィルタリング手順の例を示す図である。 動きベクトルの不規則パターンの例及び適応時間フィルタリング手順に使用される影響エリアセルの例を示す図である。 異なる目標ピクセルに対して異なる局所近傍を形成し、かつ適応時間フィルタリング手順によって処理される不規則な動きベクトルパターンの例を示す図である。 適応時間フィルタにより実施される予測の例を示す図である。 最小2乗分類フィルタを発生させる方法の例を示す図である。 最小2乗分類フィルタリング処理によって生成された分類マップの例を示す図である。 目標画像を予測するための第1段フィルタ及び第2段フィルタの例を示す図である。 適応時間フィルタを使用するビデオ圧縮符号化処理の例を示す図である。 適応時間フィルタを使用する復号処理の例を示す図である。 適応時間フィルタを使用するシステムの例を示す図である。
符号の説明
210 動きベクトルの不規則サンプリングパターンを発生させる段階
220 画像を影響エリアセルと呼ばれる複数のセルに分割する段階
230 第1段の適応時間予測フィルタを発生させる段階

Claims (21)

  1. 電子データプロセッサにおいて実施される方法であって、
    不規則フィルタタップを使用して目標画像の予測を生成する段階と、
    規則的フィルタタップを前記予測に適用して高められた予測を生成する段階と、
    を含むことを特徴とする方法。
  2. 動きベクトルの不規則パターン及び影響エリアセルから前記不規則フィルタタップを発生させる段階、
    を更に含むことを特徴とする請求項1に記載の方法。
  3. 最小2乗手順を使用して前記規則的フィルタタップを発生させる段階、
    を更に含むことを特徴とする請求項1に記載の方法。
  4. 前記最小2乗手順は、
    前記目標画像の前記予測に対して最小2乗学習を実施し、最小2乗フィルタ係数の集合を生成する段階と、
    各影響エリアセルを最小2乗フィルタ指標に関連付ける分類マップを発生させる段階と、
    前記分類マップを使用して前記最小2乗フィルタ係数を再学習させる段階と、
    前記再学習させたフィルタ係数を使用して前記目標画像の前記予測を高める段階と、
    を含む、
    ことを特徴とする請求項3に記載の方法。
  5. 各影響エリアセルに対して最小予測誤差を有するフィルタを選択することにより前記分類マップを発生させる段階、
    を更に含むことを特徴とする請求項4に記載の方法。
  6. 最小2乗予測誤差が最大限に満たされるまで前記分類マップを再発生させ、かつ前記最小2乗フィルタ係数を再学習させる段階、
    を更に含むことを特徴とする請求項5に記載の方法。
  7. 前記高められた予測を使用して、類似の空間的テクスチャを有するピクセルを含むように前記影響エリアセルを修正する段階、
    を更に含むことを特徴とする請求項4に記載の方法。
  8. 目標画像の予測を生成する不規則フィルタタップと、
    高められた予測を生成するために前記予測に適用される規則的フィルタタップと、
    を含むことを特徴とする装置。
  9. 動きベクトルの不規則パターン及び影響エリアセルから前記不規則フィルタタップを発生させる不規則タップ発生器、
    を更に含むことを特徴とする請求項8に記載の装置。
  10. 最小2乗手順を使用して前記規則的フィルタタップを発生させる規則的タップ発生器、
    を更に含むことを特徴とする請求項8に記載の装置。
  11. 前記規則的タップ発生器は、
    前記目標画像の前記予測に対して最小2乗学習を実施し、最小2乗フィルタ係数の集合を生成する最小2乗学習器と、
    各影響エリアセルを最小2乗フィルタ指標に関連付ける分類マップを発生させるマップ発生器と、
    前記分類マップを使用して前記最小2乗フィルタ係数を再学習させる再学習器と、
    前記再学習させたフィルタ係数を使用して前記目標画像の前記予測を高める予測強化器と、
    を含む、
    ことを特徴とする請求項10に記載の装置。
  12. 前記再学習器は、
    最小2乗予測誤差が最大限に満たされるまで前記最小2乗フィルタ係数を再学習させる最小2乗誤差低減器、
    を更に含む、
    ことを特徴とする請求項11に記載の装置。
  13. 前記高められた予測を使用して、類似の空間的テクスチャを有するピクセルを含むように前記影響エリアセルを修正するセル修正器、
    を更に含むことを特徴とする請求項11に記載の装置。
  14. 前記修正された影響エリアセル及び前記不規則フィルタタップを使用して前記目標画像の前記予測の予測誤差を低減する予測誤差低減器、
    を更に含むことを特徴とする請求項13に記載の装置。
  15. 処理システムによって実行された時に該システムに、
    不規則フィルタタップを使用して目標画像の予測を生成する段階と、
    規則的フィルタタップを前記予測に適用して高められた予測を生成する段階と、
    を含む方法を実行させる命令のプログラムを記憶するコンピュータ可読媒体。
  16. 動きベクトルの不規則パターン及び影響エリアセルから前記不規則フィルタタップを発生させる段階、
    を更に含むことを特徴とする請求項15に記載のコンピュータ可読媒体。
  17. 最小2乗手順を使用して前記規則的フィルタタップを発生させる段階、
    を更に含むことを特徴とする請求項15に記載のコンピュータ可読媒体。
  18. 前記最小2乗手順は、
    前記目標画像の前記予測に対して最小2乗学習を実施し、最小2乗フィルタ係数の集合を生成する段階と、
    各影響エリアセルを最小2乗フィルタ指標に関連付ける分類マップを発生させる段階と、
    前記分類マップを使用して前記最小2乗フィルタ係数を再学習させる段階と、
    前記再学習させたフィルタ係数を使用して前記目標画像の前記予測を高める段階と、
    を含む、
    ことを特徴とする請求項17に記載のコンピュータ可読媒体。
  19. 最小2乗予測誤差が最大限に満たされるまで前記最小2乗フィルタ係数を再学習させる段階、
    を更に含むことを特徴とする請求項18に記載のコンピュータ可読媒体。
  20. 前記高められた予測を使用して、類似の空間的テクスチャを有するピクセルを含むように前記影響エリアセルを修正する段階、
    を更に含むことを特徴とする請求項18に記載のコンピュータ可読媒体。
  21. 前記修正された影響エリアセル及び前記不規則フィルタタップを使用して前記目標画像の前記予測の予測誤差を低減する段階、
    を更に含むことを特徴とする請求項20に記載のコンピュータ可読媒体。
JP2008531380A 2005-09-16 2006-09-14 時間予測のための分類フィルタリング Pending JP2009509418A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/229,286 US7894522B2 (en) 2005-09-16 2005-09-16 Classified filtering for temporal prediction
PCT/US2006/036122 WO2007035539A2 (en) 2005-09-16 2006-09-14 Classified filtering for temporal prediction

Publications (1)

Publication Number Publication Date
JP2009509418A true JP2009509418A (ja) 2009-03-05

Family

ID=37884044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008531380A Pending JP2009509418A (ja) 2005-09-16 2006-09-14 時間予測のための分類フィルタリング

Country Status (6)

Country Link
US (1) US7894522B2 (ja)
EP (1) EP1946245A4 (ja)
JP (1) JP2009509418A (ja)
KR (1) KR20080050491A (ja)
CN (1) CN101268475B (ja)
WO (1) WO2007035539A2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8041145B2 (en) * 2006-11-17 2011-10-18 The Invention Science Fund I, Llc Distortion compensated imaging
CN101878650B (zh) 2007-11-30 2013-07-10 杜比实验室特许公司 时间图像预测的方法和系统
KR101460608B1 (ko) * 2008-03-04 2014-11-14 삼성전자주식회사 필터링된 예측 블록을 이용한 영상 부호화, 복호화 방법 및장치
US8059909B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive generation of irregular spatial sub-sampling for images
US8059908B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive area of influence filter for irregular spatial sub-sampled images
CN102067600B (zh) * 2008-06-12 2015-05-20 汤姆森特许公司 将局部自适应滤波用于运动补偿内插和基准画面滤波的方法和装置
US10123050B2 (en) 2008-07-11 2018-11-06 Qualcomm Incorporated Filtering video data using a plurality of filters
KR101680915B1 (ko) * 2008-11-25 2016-11-29 톰슨 라이센싱 비디오 인코딩 및 디코딩을 위한 희소성-기반 아티팩트 제거 필터링 방법 및 장치
US9143803B2 (en) * 2009-01-15 2015-09-22 Qualcomm Incorporated Filter prediction based on activity metrics in video coding
KR101510108B1 (ko) 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP2012151576A (ja) 2011-01-18 2012-08-09 Hitachi Ltd 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
WO2012097749A1 (en) * 2011-01-19 2012-07-26 Mediatek Inc. Method and apparatus for parsing error robustness of temporal motion vector prediction
US8964853B2 (en) 2011-02-23 2015-02-24 Qualcomm Incorporated Multi-metric filtering
US10645384B2 (en) * 2016-05-02 2020-05-05 Sony Corporation Encoding apparatus and encoding method as well as decoding apparatus and decoding method

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787492A (ja) * 1993-06-30 1995-03-31 Toshiba Corp 画像の動き検出装置
JPH07203435A (ja) * 1993-12-16 1995-08-04 At & T Corp 歪んだ図形情報の強調方法及び装置
JPH08205176A (ja) * 1995-01-19 1996-08-09 Daewoo Electron Co Ltd 映像信号符号化装置及び映像信号符号化方法
JPH08275177A (ja) * 1995-03-20 1996-10-18 Daewoo Electron Co Ltd 映像処理システム
JPH09200770A (ja) * 1996-01-17 1997-07-31 Nec Corp 適応動きベクトル補間による動き補償フレーム間予測方法
US5654771A (en) * 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
JPH10243401A (ja) * 1998-04-06 1998-09-11 Nec Corp 適応動きベクトル補間による動き補償フレーム間予測方法
JP2000041223A (ja) * 1998-07-23 2000-02-08 Sony Corp 情報信号処理装置、画像情報変換装置および画像表示装置
JP2000508127A (ja) * 1996-04-19 2000-06-27 ノキア モービル フォーンズ リミティド 動きに基づく分割及び合併を用いたビデオ・エンコーダ及びデコーダ
US6178205B1 (en) * 1997-12-12 2001-01-23 Vtel Corporation Video postfiltering with motion-compensated temporal filtering and/or spatial-adaptive filtering
JP2001521343A (ja) * 1997-10-21 2001-11-06 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 動画像列の動き補償予測方法
JP2003323612A (ja) * 2002-05-08 2003-11-14 Sony Corp データ変換装置およびデータ変換方法、学習装置および学習方法、並びにプログラムおよび記録媒体
WO2003103178A1 (en) * 2002-05-29 2003-12-11 Pixonics, Inc. Video interpolation coding
US20040264576A1 (en) * 2003-06-10 2004-12-30 Woods John W. Method for processing I-blocks used with motion compensated temporal filtering
US6864994B1 (en) * 2000-01-19 2005-03-08 Xerox Corporation High-speed, high-quality descreening system and method
US20050078755A1 (en) * 2003-06-10 2005-04-14 Woods John W. Overlapped block motion compensation for variable size blocks in the context of MCTF scalable video coders

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3877105D1 (ja) * 1987-09-30 1993-02-11 Siemens Ag, 8000 Muenchen, De
US5690934A (en) * 1987-12-31 1997-11-25 Tanox Biosystems, Inc. Peptides relating to the extracellular membrane-bound segment of human alpha chain
US5047850A (en) * 1989-03-03 1991-09-10 Matsushita Electric Industrial Co., Ltd. Detector for detecting vector indicating motion of image
US5872866A (en) * 1995-04-18 1999-02-16 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression by predetermination of IDCT results based on image characteristics
US6101276A (en) * 1996-06-21 2000-08-08 Compaq Computer Corporation Method and apparatus for performing two pass quality video compression through pipelining and buffer management
JP3967405B2 (ja) * 1996-10-09 2007-08-29 テキサス インスツルメンツ インコーポレイテツド 画像信号の符号化方法
JP4034380B2 (ja) * 1996-10-31 2008-01-16 株式会社東芝 画像符号化/復号化方法及び装置
DE19648016A1 (de) * 1996-11-20 1998-05-28 Philips Patentverwaltung Verfahren zur fraktalen Bildkodierung und Anordnung zur Durchführung des Verfahrens
EP2357829A1 (en) * 1997-02-13 2011-08-17 Mitsubishi Denki Kabushiki Kaisha Moving picture prediction system
US6208692B1 (en) * 1997-12-31 2001-03-27 Sarnoff Corporation Apparatus and method for performing scalable hierarchical motion estimation
US6298144B1 (en) * 1998-05-20 2001-10-02 The United States Of America As Represented By The National Security Agency Device for and method of detecting motion in an image
US6591015B1 (en) * 1998-07-29 2003-07-08 Matsushita Electric Industrial Co., Ltd. Video coding method and apparatus with motion compensation and motion vector estimator
KR100301833B1 (ko) 1998-08-20 2001-09-06 구자홍 오류은폐방법
US6711278B1 (en) 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6466624B1 (en) * 1998-10-28 2002-10-15 Pixonics, Llc Video decoder with bit stream based enhancements
JP2000308064A (ja) * 1999-04-22 2000-11-02 Mitsubishi Electric Corp 動きベクトル検出装置
US6480615B1 (en) * 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
JP3753578B2 (ja) * 1999-12-07 2006-03-08 Necエレクトロニクス株式会社 動きベクトル探索装置および方法
WO2001078402A1 (en) 2000-04-11 2001-10-18 Koninklijke Philips Electronics N.V. Video encoding and decoding method
US6813313B2 (en) * 2000-07-06 2004-11-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for high-level structure analysis and event detection in domain specific videos
WO2002037859A2 (en) 2000-11-03 2002-05-10 Compression Science Video data compression system
US6782054B2 (en) * 2001-04-20 2004-08-24 Koninklijke Philips Electronics, N.V. Method and apparatus for motion vector estimation
EP2458865A3 (en) 2001-06-29 2014-10-01 NTT DoCoMo, Inc. Apparatuses for image coding and decoding
US7609767B2 (en) * 2002-05-03 2009-10-27 Microsoft Corporation Signaling for fading compensation
AU2003246987A1 (en) * 2002-07-09 2004-01-23 Nokia Corporation Method and system for selecting interpolation filter type in video coding
US7068722B2 (en) * 2002-09-25 2006-06-27 Lsi Logic Corporation Content adaptive video processor using motion compensation
JP4462823B2 (ja) 2002-11-20 2010-05-12 ソニー株式会社 画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラム
JP3997171B2 (ja) * 2003-03-27 2007-10-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
CN101296377B (zh) * 2003-12-23 2012-01-04 塔米拉斯珀私人有限责任公司 时间运动矢量滤波
KR20050075483A (ko) 2004-01-15 2005-07-21 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 및 이를 위한 장치
KR100955161B1 (ko) * 2004-05-04 2010-04-28 콸콤 인코포레이티드 모션 보상된 프레임 레이트 상향 변환을 위한 방법 및 장치
US7957466B2 (en) * 2005-09-16 2011-06-07 Sony Corporation Adaptive area of influence filter for moving object boundaries
US8059719B2 (en) * 2005-09-16 2011-11-15 Sony Corporation Adaptive area of influence filter

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787492A (ja) * 1993-06-30 1995-03-31 Toshiba Corp 画像の動き検出装置
JPH07203435A (ja) * 1993-12-16 1995-08-04 At & T Corp 歪んだ図形情報の強調方法及び装置
JPH08205176A (ja) * 1995-01-19 1996-08-09 Daewoo Electron Co Ltd 映像信号符号化装置及び映像信号符号化方法
JPH08275177A (ja) * 1995-03-20 1996-10-18 Daewoo Electron Co Ltd 映像処理システム
US5654771A (en) * 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
JPH09200770A (ja) * 1996-01-17 1997-07-31 Nec Corp 適応動きベクトル補間による動き補償フレーム間予測方法
JP2000508127A (ja) * 1996-04-19 2000-06-27 ノキア モービル フォーンズ リミティド 動きに基づく分割及び合併を用いたビデオ・エンコーダ及びデコーダ
JP2001521343A (ja) * 1997-10-21 2001-11-06 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 動画像列の動き補償予測方法
US6178205B1 (en) * 1997-12-12 2001-01-23 Vtel Corporation Video postfiltering with motion-compensated temporal filtering and/or spatial-adaptive filtering
JPH10243401A (ja) * 1998-04-06 1998-09-11 Nec Corp 適応動きベクトル補間による動き補償フレーム間予測方法
JP2000041223A (ja) * 1998-07-23 2000-02-08 Sony Corp 情報信号処理装置、画像情報変換装置および画像表示装置
US6864994B1 (en) * 2000-01-19 2005-03-08 Xerox Corporation High-speed, high-quality descreening system and method
JP2003323612A (ja) * 2002-05-08 2003-11-14 Sony Corp データ変換装置およびデータ変換方法、学習装置および学習方法、並びにプログラムおよび記録媒体
WO2003103178A1 (en) * 2002-05-29 2003-12-11 Pixonics, Inc. Video interpolation coding
US20040264576A1 (en) * 2003-06-10 2004-12-30 Woods John W. Method for processing I-blocks used with motion compensated temporal filtering
US20050078755A1 (en) * 2003-06-10 2005-04-14 Woods John W. Overlapped block motion compensation for variable size blocks in the context of MCTF scalable video coders

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6011059457; Yucel Altunbasak and A. Murat Takalp: 'Occlusion-Adaptive, Content-Based Mesh Design and Forward Tracking' IEEE Transactions on Image Processing Vol.6, No.9, 199709, p.1270-1280, IEEE *

Also Published As

Publication number Publication date
KR20080050491A (ko) 2008-06-05
EP1946245A2 (en) 2008-07-23
US7894522B2 (en) 2011-02-22
EP1946245A4 (en) 2012-08-29
CN101268475B (zh) 2012-02-08
WO2007035539A3 (en) 2007-06-21
WO2007035539A2 (en) 2007-03-29
CN101268475A (zh) 2008-09-17
US20070064798A1 (en) 2007-03-22

Similar Documents

Publication Publication Date Title
JP2009509418A (ja) 時間予測のための分類フィルタリング
KR101266638B1 (ko) 이동 객체 경계용 적응형 영향 영역 필터
JP2009509413A (ja) 不規則な動きベクトルのサンプルに対する時間予測フィルタのための適応動き推定
JP2023532397A (ja) ポストフィルタリングのためのコンテンツ適応型オンライン訓練方法、装置およびコンピュータプログラム
JP2010154264A (ja) 画像復号装置及び画像符号化装置
CN116681584A (zh) 一种多级扩散图像超分辨算法
CN109891894A (zh) 使用域变换递归滤波器的视频编译恢复
JP5237814B2 (ja) ビデオ圧縮における適応的動きベクトルサンプリングのための多段リンク方法
JP6065613B2 (ja) 動画像符号化装置
KR101276450B1 (ko) 적응형 영향 영역 필터
Niu et al. Edge-based perceptual image coding
JP2007067552A (ja) 階層間予測処理方法,階層間予測処理装置,階層間予測処理プログラムおよびその記録媒体
CN101841701B (zh) 基于宏块对的编解码方法及装置
JP2007049594A (ja) 画像データの処理方法
JPH08298599A (ja) 画像符号化方法及びその装置
JP2007251690A (ja) 画像処理装置および方法、学習装置および方法、並びにプログラム
JP3075049B2 (ja) 画像符号化装置
CN113326722B (zh) 基于序列模式的图像模糊检测方法及设备
JPH11103463A (ja) 画像符号化方法及び記憶媒体
CN117255205A (zh) 视频编解码方法及相应的设备
CN116600114A (zh) 全景视频编码方法、装置、设备及可读存储介质
JP3988712B2 (ja) 前景の形状マスク抽出方法、及びその装置
JP2005057674A (ja) 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,それらのプログラムおよびそれらのプログラム記録媒体
JPH08317401A (ja) 画像処理装置及び方法
JPH09307911A (ja) 画像符号化装置及び画像復号化装置とその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111114

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120214

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130422

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130430

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130722