JP5419897B2 - 空間処理及び時間処理を用いた、ビデオシーケンス中の雑音及びちらつきの少なくとも一方の低減 - Google Patents

空間処理及び時間処理を用いた、ビデオシーケンス中の雑音及びちらつきの少なくとも一方の低減 Download PDF

Info

Publication number
JP5419897B2
JP5419897B2 JP2010545258A JP2010545258A JP5419897B2 JP 5419897 B2 JP5419897 B2 JP 5419897B2 JP 2010545258 A JP2010545258 A JP 2010545258A JP 2010545258 A JP2010545258 A JP 2010545258A JP 5419897 B2 JP5419897 B2 JP 5419897B2
Authority
JP
Japan
Prior art keywords
subframe
frame
transform
spatial
coefficients
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010545258A
Other languages
English (en)
Other versions
JP2011512086A (ja
Inventor
サンディープ カヌムリ,
オヌール, ジー. グラリュズ,
エム., レハ シヴァンラー,
暁 藤林
チョン, エス. ブン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2011512086A publication Critical patent/JP2011512086A/ja
Application granted granted Critical
Publication of JP5419897B2 publication Critical patent/JP5419897B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/147Discrete orthonormal transforms, e.g. discrete cosine transform, discrete sine transform, and variations therefrom, e.g. modified discrete cosine transform, integer transforms approximating the discrete cosine transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/145Square transforms, e.g. Hadamard, Walsh, Haar, Hough, Slant transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/649Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding the transform being applied to non rectangular image segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20052Discrete cosine transform [DCT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Complex Calculations (AREA)
  • Picture Signal Circuits (AREA)

Description

[0003]本発明は一般に、ビデオシーケンスの処理に関する。より詳細には、本発明は、ビデオシーケンス中の雑音及びちらつきの少なくとも一方を低減することに関する。
[0001]本特許出願は、2008年2月5日に出願された、「Flicker Reduction in Video Sequences Using Temporal Processing」という名称の、対応する仮特許出願第61/026,453号の優先権を主張し、この仮特許出願を参照により組み込む。
[0002]本出願は、本発明の法人譲受人に譲渡された、2008年6月17日に出願された「Image/Video Quality Enhancement and Super−Resolution Using Sparse Transformations」という名称の同時係属出願、米国特許出願第12/140,829号に関係する。
[0004]カメラ制限のせいで、獲得中にモスキート雑音及び時間的ちらつきが引き起こされる。圧縮、ダウンサンプリング、及びアップサンプリングなど、ビデオ処理パイプライン中のモジュールは、アーチファクト、エイリアシング、リンギング、及び時間的ちらつきを阻止することにつながる。今日、多くの適用例で、画像及びビデオ信号処理が広く使用されている。これらの技法のいくつかを使用して、雑音及び時間的ちらつきが低減されてきた。
本明細書では、ビデオシーケンス中の雑音及びちらつきの少なくとも一方を低減するための方法及び装置を開示する。一実施形態では、本方法は、入力ビデオを受け取るステップと、空間処理及び時間処理を使用して、入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための操作を実施するステップと、を含む。
[0005]本発明は、以下に提供する詳細な説明、及び本発明の様々な実施形態に関する添付の図面から、より完全に理解されるであろう。しかし、図面は、本発明を特定の実施形態に限定するものと考えるべきではなく、説明及び理解のためのものに過ぎない。
入力ビデオ中の雑音及びちらつきの少なくとも一方を低減するための、雑音ちらつき低減モジュールの一実施形態を示す図である。 入力ビデオ中の雑音及びちらつきの少なくとも一方を低減するための、雑音ちらつき低減モジュールの一実施形態を示す図である。 ビデオシーケンスに対して画像処理を実施するプロセスの一実施形態の流れ図である。 サブフレームタイプのライブラリに対応するマスクの例を示す図である。 ピクセルにラスタ走査順に番号が付けられたときの、ピクセルiにおける例示的なサブフレームを示す図である。 サブフレームタイプ選択プロセスの一実施形態の流れ図である。 過去の出力フレームからのサブフレーム形成プロセスの一実施形態の流れ図である。 空間変換選択プロセスの一実施形態の流れ図である。 時間変換選択プロセスの一実施形態の流れ図である。 変換係数をしきい値処理するしきい値処理プロセスの一実施形態の流れ図である。 サブフレームを結合してフレームを生み出すプロセスの一実施形態の流れ図である。 単調減少階段関数を示す図である。 ビデオシーケンスに対して画像処理を実施するプロセスの別の実施形態の流れ図である。 選択されたピクセルの例示的なサブセットを示す図である。 コンピュータシステムの一実施形態のブロック図である。
[0006]圧縮/非圧縮ビデオシーケンス中の雑音及びちらつきの少なくとも一方低減のための方法及び装置について述べる。本明細書においてビデオシーケンスは、順番に配置された、本明細書でフレームと呼ぶ複数の画像からなる。
[0007]一実施形態では、本明細書に開示する技法は、入力ビデオの現在フレームからいくつかのピクセルにおけるサブフレームを選択し、出力ビデオの過去フレームから基準を満たす別のサブフレームを見つけること、ピクセル適応性のワープ空間変換を選択し、サブフレームを空間変換領域に変換すること、ディテール保存性の適応しきい値を導出し、ハードしきい値処理(変換係数の大きさがしきい値未満の場合は0に設定する)、又はソフトしきい値処理など他のしきい値処理技法を使用して、現在フレーム及び過去フレームからのサブフレームの変換係数をしきい値処理すること、時間変換を使用して空間変換係数をさらに変換し、時間変換係数の選択されたサブセットをしきい値処理すること、時間変換係数をまず時間的に、次いで空間的に逆変換して、現在フレームと過去フレームの両方に属する処理済みサブフレームを得ること、並びに、入力ビデオからの現在フレームに属する処理済みサブフレームを結合して、出力ビデオのための現在フレームを得ることを含むが、これらに限定されない。これらの操作を、入力ビデオの全てのフレームについて繰り返すことができる。
[0008]以下の記述では、本発明のより完全な説明を提供するために多くの詳細を示す。しかし、これらの具体的詳細なしでも本発明を実施することができることは、当業者には明らかであろう。他の場合では、本発明を曖昧にするのを避けるために、周知の構造及びデバイスについては詳細に示すのではなくブロック図の形で示す。
[0009]後続の詳細な説明のいくつかの部分は、コンピュータメモリ内のデータビットに対する操作の、アルゴリズム及び象徴表現の点から提示する。これらのアルゴリズム的記述及び表現は、データ処理分野の当業者が他の当業者に自身の作業の実質を最も効果的に伝えるために使用される手段である。アルゴリズムは、ここでは、また一般的には、所望の結果につながる首尾一貫した一連のステップであると考えられる。これらのステップは、物理量の物理的操作を必要とするステップである。必ずしもそうとは限らないが通常は、これらの量は、記憶、転送、結合、比較、及び他の方法で操作することのできる電気的又は磁気的信号の形をとる。主に一般的な慣例の理由で、これらの信号をビット、値、要素、記号、文字、用語、数字などとして言及するのが時として好都合であることが証明されている。
[0010]しかし、これら及び類似の用語は全て、適切な物理量に関連付けられるべきであって単にこれらの量に適用される好都合なラベルに過ぎないことを念頭に置くべきである。特に指定がない限り、以下の考察から明らかなように、この記述全体を通して、「処理する」又は「計算する」又は「算出する」又は「決定する」又は「表示する」などの用語を利用した考察は、コンピュータシステムのレジスタ及びメモリ内の物理的(電子的)量として表されるデータを操作して、コンピュータシステムメモリ又はレジスタ又は他のそのような情報記憶、伝送、若しくは表示デバイス内で同様に物理量として表される他のデータに変換するコンピュータシステム又は類似の電子コンピューティングデバイスの、アクション及びプロセスを指すことを理解されたい。
[0011]本発明はまた、本明細書の操作を実施するための装置に関する。本装置は、必要とされる目的に向けて特に構築されたものであってもよく、或いは、コンピュータに記憶されたコンピュータプログラムによって選択的にアクティブ化又は再構成される汎用コンピュータを含んでもよい。このようなコンピュータプログラムは、コンピュータ可読記憶媒体に記憶することができ、コンピュータ可読記憶媒体は、フレキシブルディスクや光学ディスクやCD−ROMや光磁気ディスクを含めた任意のタイプのディスク、読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気若しくは光学カード、又は、電子的命令を記憶するのに適した任意のタイプの媒体など(ただしこれらに限定されない)であり、これらはそれぞれコンピュータシステムバスに結合される。
[0012]本明細書に提示するアルゴリズム及び表示は、どんな特定のコンピュータ又は他の装置にも本質的に関係しない。本明細書の教示に従ったプログラムと共に様々な汎用システムを使用することもでき、或いは、必要とされる方法ステップを実施するためのより特殊化された装置を構築するのが好都合であることが判明する場合もある。これらの様々なシステムに必要とされる構造は、以下の記述から明らかになるであろう。加えて、本発明は、どんな特定のプログラミング言語に関して述べるものでもない。様々なプログラミング言語を使用して、本明細書に述べる本発明の教示を実施することができることは、理解されるであろう。
[0013]機械可読媒体は、マシン(例えばコンピュータ)によって読取り可能な形で情報を記憶又は伝送するための任意の機構を含む。例えば、機械可読媒体は、読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイス、電気的、光学的、音響、又は他の形の伝搬信号(例えば搬送波、赤外線信号、ディジタル信号など)等を含む。
概観
[0014]図1Aに、入力ビデオ中の雑音及びちらつきの少なくとも一方を低減するための、雑音ちらつき低減モジュールの一実施形態を示す。図1Aを参照すると、雑音ちらつき低減ブロック101が、入力ビデオ100を受け取る。入力ビデオ100は、雑音及びちらつきの少なくとも一方を含む。雑音ちらつき低減ブロック101はまた、本明細書でOPと呼ぶオプショナルパラメータのベクトルと、しきい値パラメータ

も受け取る。これらの入力に応答して、雑音ちらつき低減ブロック101は、雑音及びちらつきが低減された出力ビデオ102を生成する。
[0015]図1Bに、ビデオシーケンスに対して画像処理を実施するプロセスの一実施形態の流れ図を示す。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0016]図1Bを参照すると、プロセスは、処理ロジックが入力ビデオを受け取ることで開始する(処理ブロック111)。
[0017]入力ビデオを受け取るのに応答して、処理ロジックは、空間及び時間処理を使用して入力ビデオ中の雑音とちらつきの一方又は両方を低減するための操作を実施する(処理ブロック112)。一実施形態では、これらの操作は、係数の適応しきい値処理を伴う空間変換及び時間変換を適用することを含む。一実施形態では、空間変換及び時間変換を適用することは、少なくとも1つのワープ変換をサブフレームに適用して変換係数を生み出すことを含む。
[0018]図2に、ビデオシーケンスに対して画像処理を実施するプロセスの一実施形態のより詳細な流れ図を示す。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0019]以下に述べるプロセスでは、xは、本明細書に述べる技法によって処理されている入力ビデオシーケンスからの現在フレームを示し、

は、本明細書に述べる技法を使用した後で出力される過去フレームを示し、

は、画像処理プロセスによって使用されるしきい値パラメータを示す。さらに、他のオプショナルパラメータを含む、OPで示されるベクトルを供給することができる。ユーザ又はアルゴリズムは、主観的/客観的品質の最適化を使用して、又はモデルベースの技法を使用して、又は他の方法を使用して、最も望ましいパラメータを決定することができる。較正アルゴリズムを使用することもできる。このようなアルゴリズムはまた、ビデオ処理パイプラインと入力ビデオのいずれか又は両方に関する部分的/完全な知識を利用することができる。一実施形態では、ピクセルをラスタ走査順に構成することによって全てのビデオフレームがベクトルで表され、Nは各ビデオフレーム中のピクセルの数を表す。
[0020]フレームxが得られた後、図2の処理ブロック202のサブフレーム選択プロセスが開始する。サブフレームタイプSが、M×1整数値ベクトルとして定義される。本明細書において、Mは、0よりも大きい任意の整数とすることができる。{S,S,S,...}は、サブフレームタイプのライブラリである。ピクセルにラスタ走査順に番号が付けられた場合に、フレームxからの選択されたピクセルのセット中の各ピクセルiにつき、サブフレームタイプsがライブラリから選択され、ベクトルp

として形成され、ここで、

は、全ての要素が1に等しいM×1ベクトルである。一実施形態では、選択されないピクセルの場合、pは0のベクトルである。選択されたピクセルのセットは、所定とすることもでき、或いはベクトルOP内で信号伝達することもできる。この実施形態では、画像中の各ピクセルにつき、サブフレームが形成され処理される。すなわち、選択されたピクセルのセットは、フレーム中のピクセルのセット全体である。しかし、別の実施形態では、画像中の全てのピクセルに対してではなく、ピクセルの選択されたサブセットのみに対して処理が実施されてもよい。サブセットは、所定とすることもでき、或いはサイド情報の一部として信号伝達することもできる。図13に、このようなサブセットの例を示す。本明細書に述べる教示により他のサブセットを使用してもよい。サブフレームと呼ばれるM×1ベクトルzが、pの要素に対応する位置におけるフレームxのピクセル値を用いて形成される。ピクセルiは、サブフレームzに対するピボットと呼ばれる。図4に、ピクセルにラスタ走査順に番号が付けられたときの、ピクセルiにおける例示的なサブフレームzを示す。図4を参照すると、ピクセルのラスタ走査順序付けは、この順序で「1」からピクセルに番号を付けることによって行われる。サブフレームがピクセルiでピボットされるのが示されている。サブフレームは、ワープ行と呼ばれるM個のベクトルに編成される。第1のワープ行は、この順序でサブフレーム要素1〜Mを有し、第2のワープ行は、要素(M+1)〜2Mを有し、以下同様である。
[0021]一実施形態では、Mは4に等しく、サブフレームタイプのライブラリは、図3に示すマスクのセットに対応する。図3を参照すると、このサブフレームライブラリでは、マスクは、矢印で示されるような種々の方向に対応する。図3の(A)のマスクは、通常の水平又は垂直方向に対応するので、本明細書ではこれを通常マスクと呼ぶ。他のマスクは、非自明な方向に対応するので、有向マスクと呼ぶ。マスク中のピクセル(「a」〜「p」)の差分位置(Ω)は、Ω=C+W×Cとして定義され、ここで、Wはフレームyの幅である。Cは、当該の現在ピクセルの列に達するためにピクセル「a」の列から右に水平に移動させる必要のある列の数である。Cは、当該の現在ピクセルの行に達するためにピクセル「a」の行から下に垂直に移動させる必要のある行の数である。例えば、図3の(H)のマスクの場合、ピクセル「c」は、C=−1及びC=2を有する。あるマスクに対応するサブフレームタイプは、「a」から「p」まで順序付けられたそのマスク中のピクセルの差分位置を含むベクトルである。
[0022]一実施形態では、ピクセルに対するサブフレームタイプの選択は、常に通常マスクに対応するサブフレームタイプを選択することによって行われる。別の実施形態では、ピクセルに対するサブフレームタイプの選択は、選択された各ピクセルにつき、(1)形成されたサブフレームにわたる2次元DCTをサブフレームタイプごとに評価することによって、且つ(2)所与のしきい値Tについて、Tよりも大きい0でない変換係数の数を最小限にするサブフレームタイプを選択することによって、行われる。さらに別の実施形態では、ピクセルに対するサブフレームタイプの選択は、選択された各ピクセルにつき、全てのワープ行にわたって平均されたピクセル値のワープ行分散を最小限にするサブフレームタイプを選択することによって行われる。さらに別の実施形態では、ピクセルに対するサブフレームタイプの選択は、K×Lピクセルのブロックに対して、サブフレームタイプに対する各ピクセル票(vote)(全てのワープ行にわたって平均されたピクセル値のワープ行分散を最小限にするサブフレームタイプに基づく)を有することによって、且つ、K×Lブロック中の全てのピクセルについて票が最も多いサブフレームタイプを選択することによって行われ、ここで、K及びLは、0よりも大きい任意の整数とすることができる。一実施形態では、K及びLは、全て4に設定される。さらに別の実施形態では、ピクセルに対するサブフレームタイプの選択は、各ピクセルにつき、K×Lピクセルのブロックを形成し、このブロックに対して上記投票方式を使用してサブフレームタイプを選択することによって行われる。各ケースで、選択されたサブフレームタイプは、現在ピクセルに使用される。したがって、各マスクに対するこれらの測定された統計のうちの1つを使用して、サブフレームの選択が実施される。
[0023]図3に示すマスク以外のマスクを使用してもよいことに留意されたい。
[0024]図5は、サブフレーム選択処理の一実施形態の流れ図である。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0025]図5を参照すると、プロセスは、処理ロジックが、フレームxを受け取り、サブフレームがピクセル適応であるかどうか判定することによって開始する(処理ブロック501)。サブフレームがピクセル適応でない場合は、処理ロジックは、全てのピクセルに対して通常サブフレームタイプを選択する(処理ブロック502)。フレームxのサブフレームがピクセル適応である場合は、処理ロジックは、各ピクセルにつき、ワープ行分散を最小限にするサブフレームタイプをマークする(処理ブロック503)。これは、前述のようにサブフレームタイプのライブラリ(510)を使用して行われる。したがって、各ピクセルにつき、サブフレームタイプのライブラリのうち、ワープ行分散を最小限にするサブフレームタイプがマークされる。
[0026]次に、処理ロジックは、選択がブロックベースであるかどうか判定する(処理ブロック504)。選択がブロックベースであると処理ロジックが判定した場合は、処理ロジックは、各ブロック中で、各サブフレームタイプをマークしたピクセルの数をカウントし(処理ブロック506)、ブロック中の全てのピクセルに対して、そのブロック中で最も多くのピクセルによってマークされたサブフレームタイプを選択する(処理ブロック507)。言い換えれば、選択がブロックベースの場合、ブロック中の最も多くのピクセルによってマークされたサブフレームタイプが、そのブロック中の全てのピクセルに対して選択される。選択がブロックベースでないと処理ロジックが判定した場合は、処理ロジックは、各ピクセルに対して、そのピクセルによってマークされたサブフレームタイプを選択する(処理ブロック505)。言い換えれば、各ピクセルは、それ自体によってマークされたサブフレームタイプを選択する。
[0027]各ピクセルに対するサブフレームタイプの選択は、ベクトルOP内で信号伝達することができる。
[0028]サブフレームタイプsを使用してベクトル

が形成され、ここで、mは整数であり、

は、全ての要素が1に等しいM×1ベクトルである。処理ロジックはまた、

の要素に対応する位置における過去の出力フレーム

のピクセル値を用いて、

(やはりサブフレームである)で示されるM×1ベクトルも形成する(処理ブロック203)。
[0029]mの選択は、いくつかの異なる方式で行うことができる。代替実施形態では、mの選択は、以下の方法のうちの1つで実施される。
i.m=i
ii.全ての可能な値から、z

との間のp−ノルム(p≧0)である

が最小限になるようなmを選択する。
iii.上記「ii」に基づいてmを選択するが、探索セットを{j:j=i+j+W×j}に制限し、ここで、Wはフレーム

の幅であり、j,j∈{−J,−(J−1),...,−1,0,1,...,J−1,J}である。Jは、0以上の任意の整数である。一実施形態では、オプション「iii」が使用されるときは、Jの値は2に設定され、2−ノルムが使用される。
iv.上記「iii」に基づいてmを計算し、値k=k+W×kをmに加える。ここで、Wはフレーム

の幅であり、k,kは、セット{−K,−(K−1),...,−1,0,1,...,K−1,K}からのランダム生成された値である。Kは、0以上の任意の整数である。
の選択は、ベクトルOP内で信号伝達することができる。
[0030]別の実施形態では、強度補償や非線形予測フィルタなど(ただしこれらに限定されない)の技法を使用して過去の出力フレーム

が処理されて、例えば輝度変化や場面フェードなどの問題が補償された後で、サブフレーム

が形成される。
[0031]図6は、過去の出力フレームからのサブフレーム形成プロセスの一実施形態の流れ図である。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0032]図6を参照すると、プロセスは、処理ロジックが探索セット{m,m,...}を使用することによって開始し、各値mにつき、以下の式に従って

を計算する(処理ブロック601)。

[0033]次に、処理ロジックは、

を使用して、フレーム

からサブフレーム

を形成する(処理ブロック602)。次いで処理ロジックは、各jにつき、p−ノルム

を計算する(処理ブロック603)。
[0034]p−ノルムを計算した後、処理ロジックは、最小のp−ノルムを与えるようなmを選択する。mをmに等しく設定し、式

に従って

を設定し、

を使用してサブフレーム

を形成する(処理ブロック604)。
空間変換の選択及び適用
[0035]図2の処理ブロック204の一部として、処理ロジックはまた、空間変換の選択及び適用を実施する。より具体的には、処理ロジックは、ピクセル適応ワープ空間変換Hを使用して、サブフレームz及び

を、e及び

にそれぞれ変換する。この変換は「ワープ」と呼ばれる。その理由は、変換基底のサポートが、サブフレーム形状に合致するようにワープしたからである。この変換はピクセル適応と呼ばれる。その理由は、サブフレームタイプの選択がピクセルごとに異なることに加えて、異なるピクセルにおいてピボットされるサブフレームが、異なる変換を使用することができるからである。変換Hは、分離DCT、非分離DCT、2次元ガボールウェーブレット、ステアラブル(Steerable)ピラミッド、2次元有向ウェーブレット、カーブレット(Curvelet)、及びコンタレット(Contourlet)などの、変換のライブラリから選択することができる。一実施形態では、使用される空間変換は、非適応方式の正規直交分離2次元DCTである。別の実施形態では、使用される空間変換は、非適応方式の正規直交分離2次元アダマール変換である。
[0036]分離変換は、ワープされた後で非分離になることに留意されたい。変換の選択は、アプリオリに固定されていてもよく、或いは、異なるピクセルにおいてピボットされる異なるサブフレームに対して適応的であってもよい。適応の場合、選択される変換は、絶対値がマスタしきい値

よりも大きいe中の係数の数が最も少ない変換である。
[0037]図7に、サブフレームに対する空間変換選択プロセスの一実施形態の流れ図を示す。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0038]図7を参照すると、プロセスは、変換がピクセル適応であるかどうかを処理ロジックがテストすることによって開始する(処理ブロック701)。このテストは、リストを参照することによって実施することができる。一実施形態では、リストは、変換が非適応であるようなリストとすることができる。別の実施形態では、リストは、ベクトルOP内で信号伝達することができる。変換がピクセル適応でないと処理ロジックが判定した場合は、処理ロジックは、変換Hとして使用するための2次元正規直交分離DCTを選択し、変換をサブフレームzに適用することによって変換係数eを生成し、変換をサブフレーム

に適用することによって変換係数

を生成する(処理ブロック702)。
[0039]変換がピクセル適応であると処理ロジックが判定した場合は、処理ロジックは、変換のライブラリ{H,H,....}(処理ブロック704)中の各変換Hにつき、以下の式
=H×z
を使用して変換係数eを計算する(処理ブロック703)。変換係数eは、変換Hに対応する。
[0040]次に、処理ロジックは、各jにつき、絶対値がしきい値

よりも大きいe中の係数の数をカウントし(処理ブロック705)、最少カウントの変換Hを変換のライブラリから選択し、変換Hを、最少カウントに対応する変換(H)に等しく設定し、次いで、係数eを変換係数eに等しく設定し、変換Hをサブフレーム

に適用することによって変換係数

を生成する(処理ブロック706)。
[0041]空間変換の選択は、ベクトルOP内で信号伝達することができる。
しきい値処理
[0042]図2の処理ブロック204の一部として、処理ロジックはまた、しきい値処理を実施する。より具体的には、処理ロジックは、eの選択された要素に適応しきい値

を適用してaを得る。一実施形態では、eの全ての要素が選択される。別の実施形態では、第1の要素(通常はDC要素)を除いた全ての要素が選択される。さらに別の実施形態では、どの要素も選択されない。変換係数eはまた、マスタしきい値

を使用してしきい値処理されて、

が得られる。しきい値処理操作は、例えばハードしきい値処理及びソフトしきい値処理など、様々な方法で行うことができる。ハードしきい値処理操作は、

として定義され、ここで、Tは、使用されるしきい値である。同様に、Tをしきい値とするソフトしきい値処理操作は、以下のように定義される。

代替実施形態では、しきい値

が、以下の方法のうちの1つで計算される。

ここで、f( )は関数を表す。

ここで、f( )は関数を表す。

関数f( )は、図11に示すような単調減少階段関数である。一実施形態では、関数のステップ位置(f,f,...,f及びE,E,...,E)が訓練セットに対して調整されて、再構築画像/ビデオ品質における局所最適が達成される。一実施形態では、このしきい値計算は、ハードしきい値処理で使用される。
(6)

の可能な値に対して探索を実施して、

であるようなa中の0でない要素の数を最小限にする。Elocalはサイド情報の一部とすることができ、或いはデフォルト値を使用してもよい。これは、アルゴリズムに関する設定と見なすことができる。一実施形態では、デフォルト値は、訓練セットに対して調整して、再構築画像/ビデオ品質における局所最適を達成する値を選択することによって、得ることができる。
(7)

の可能な値に対してジョイント探索を実施して、

であるような、全てのk∈{1,2,...,N}にわたって合計されたa中の0でない要素の総数を最小限にする。Eglobalはサイド情報の一部とすることができ、或いはデフォルト値を使用してもよい。これは、アルゴリズムに関する設定と見なすことができる。一実施形態では、デフォルト値は、訓練セットに対して調整して、再構築画像/ビデオ品質における局所最適を達成する値を選択することによって、得ることができる。

の値は、ベクトルOP内で信号伝達することができる。別の実施形態では、

を計算するのに使用されるオプションの選択を、ベクトルOP内で信号伝達することができる。
[0043]

の選択された要素に適応しきい値

が適用されて、

が得られる。一実施形態では、

の全ての要素が選択される。別の実施形態では、第1の要素(通常はDC要素)を除いた全ての要素が選択される。さらに別の実施形態では、どの要素も選択されない。変換係数

はまた、マスタしきい値

を使用してしきい値処理されて、

が得られる。しきい値処理操作は、前述のハードしきい値処理及びソフトしきい値処理など、様々な方法で行うことができる。
[0044]代替実施形態では、しきい値

は、以下の方法のうちの1つで計算される。

ここで、f( )は関数を表す。

ここで、f( )は関数を表す。

関数f( )は、図11に示すような単調減少階段関数である。関数のステップ位置(f,f,...,f及びE,E,...,E)が訓練セットに対して調整されて、局所最適が達成される。一実施形態では、このしきい値計算が使用され、ハードしきい値処理がしきい値処理操作に使用される。
(6)

の可能な値に対して探索を実施して、

であるような

中の0でない要素の数を最小限にする。Elocalはサイド情報の一部とすることができ、或いはデフォルト値を使用してもよい。これは、アルゴリズムに関する設定と見なすことができる。一実施形態では、デフォルト値は、訓練セットに対して調整して、再構築画像/ビデオ品質における局所最適を達成する値を選択することによって、得ることができる。
(7)

の可能な値に対してジョイント探索を実施して、

であるような、全てのk∈{1,2,...,N}にわたって合計された

中の0でない要素の総数を最小限にする。Eglobalはサイド情報の一部とすることができ、或いはデフォルト値を使用してもよい。これは、アルゴリズムに関する設定と見なすことができる。一実施形態では、デフォルト値は、訓練セットに対して調整して、再構築画像/ビデオ品質における局所最適を達成する値を選択することによって、得ることができる。
一実施形態では、

の値は、ベクトルOP内で信号伝達される。別の実施形態では、

を計算するのに使用されるオプションの選択が、ベクトルOP内で信号伝達される。
時間変換の選択及び適用
[0045]処理ブロック205で、処理ロジックは、しきい値処理の結果、すなわちベクトルa及び

を使用して、M×2行列

を形成する。本明細書において、関数h( )は、輝度変化に合致するための、

の全ての要素の恒等関数若しくは単純な線形スケーリング、又は、フェードなどのより複雑な場面特性を取り込むためのより一般的な関数とすることができる。処理ロジックは、ピクセル適応時間変換Gを使用して、

をbに変換する。

変換Gは、変換のライブラリから選択することができる。変換は、ピクセル適応と呼ばれる。その理由は、異なるピクセルにおいてピボットされるサブフレームが、異なる変換を使用することができるからである。適応の場合、選択される変換は、絶対値がマスタしきい値

よりも大きいb中の係数の数が最も少ない変換である。
[0046]図8は、時間変換選択プロセスの一実施形態の流れ図である。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0047]図8を参照すると、プロセスは、変換がピクセル適応であるかどうかを処理ロジックがテストすることによって開始する(処理ブロック801)。このテストは、リストを参照することによって実施することができる。一実施形態では、リストは、変換が非適応であるようなリストとすることができる。別の実施形態では、リストは、ベクトルOP内で信号伝達することができる。変換がピクセル適応でないと処理ロジックが判定した場合は、処理ロジックは、デフォルト時間変換に基づいて変換Gを選択し、変換Gを行列

に適用することによって変換係数bを生成する(処理ブロック802)。一実施形態では、使用されるデフォルト時間変換はハール変換、すなわち

である。時間変換の選択は、ベクトルOP内で信号伝達することができる。
[0048]変換がピクセル適応であると処理ロジックが判定した場合は、処理ロジックは、変換のライブラリ{G,G,....}(処理ブロック804)中の各変換Gにつき、式

を使用して変換係数bを計算する(処理ブロック803)。
変換係数bは、変換Gに対応する。
[0049]次に、処理ロジックは、各jにつき、絶対値がマスタしきい値

よりも大きいb中の係数の数をカウントし(処理ブロック805)、次いで、最少カウントの変換Gを変換のライブラリから選択し、変換Gを、最少カウントに対応する変換(G)に等しく設定し、次いで、係数bを変換係数bに等しく設定する(処理ブロック806)。
時間変換後のしきい値処理
[0050]変換係数bを生成した後、

を使用して変換係数bがしきい値処理されて、cが得られる(図2の処理ブロック206)。しきい値処理操作は、前述のように、ハードしきい値処理及びソフトしきい値処理など、様々な方法で行うことができる。しきい値処理の選択は、ベクトルOP内で信号伝達することができる。
[0051]一実施形態では、図9に示すようにハードしきい値処理が使用される。図9を参照すると、このハードしきい値処理は、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0052]このハードしきい値処理は、マスタしきい値

及び係数bを入力として使用して、処理ロジックが、各要素bij∈bにつき、以下の式

に従って対応する要素cij∈cを計算することによって開始する(処理ブロック901)。このようにして、処理ロジックは、絶対値がマスタしきい値

よりも小さい全ての係数を0に設定し、これらの係数はcとして記憶される。
[0053]一実施形態では、アプリオリに選択されたbのいくつかの要素は、しきい値処理されず、c中のそれぞれの位置に直接コピーされる。特定の一実施形態では、bの第1の列中の要素はしきい値処理されない。しきい値処理されない要素のセットの選択は、ベクトルOP内で信号伝達することができる。
[0054]一実施形態では、任意選択で、式cij=cij*αj0+αj1を使用して要素cij∈cを向上させ、ここで、パラメータαj0、αj1は訓練セットに対して調整されて、再構築画像/ビデオ品質における局所最適が達成される。このような操作は、図2の処理ブロック206の後に行われることに留意されたい。一実施形態では、これらのパラメータはベクトルOP内で信号伝達することができる。
逆変換
[0055]しきい値処理の後、処理ロジックは、

を使用して係数を逆変換して(時間変換により)、

を得る(処理ブロック207)。処理ロジックはまた、dに逆変換(空間)

を適用して、処理済みサブフレーム

を得る(処理ブロック208)。
[0056]一実施形態では、前の反復によって出力された過去フレームを使用せずに、現在フレームが処理される。この実施形態では、ベクトル

及び、行列

は計算されない。ベクトルdは、d=aとして得られ、dに逆変換(空間)

が適用されて、処理済みサブフレーム

が得られる。
[0057]別の実施形態では、単に直前の過去出力フレーム

を使用するのではなく、画像処理の結果として出力された過去フレームのセット

を使用することができる。NPFが、セット中の過去フレームの数を示すものとする。この場合、セット中の各過去フレームは、前述と同様にして、

の1つの列に貢献する。出力フレーム

は、

の形で第2の列に貢献し、出力フレーム

は、

の形で第3の列に貢献し、以下同様である。一実施形態では、

、b、c、及びdは、サイズM×(NPF+1)であり、Gは、サイズ(NPF+1)×(NPF+1)である。
サブフレームの結合
[0058]しきい値処理された係数に逆変換を適用した後、全ての処理済みサブフレームが重み付き方式で結合されて、フレームyが形成される。一実施形態では、各処理済みサブフレーム

につき、重みwが計算される。代替実施形態では、e及びaに基づく重みが、以下の方法のうちの1つで計算される。
(1) w=1
(2) w=f(e,a) ここで、f( )は関数を表す。
(3) MSEオプション1:

ここで、eminは定数である。
(4) L−pノルム(p≧0)オプション1:

ここで、nminは定数である。
(5) 調整重みオプション1:

ここで、f( )は、セット{1,2,...,M}(

の可能な値のセット)から[0,1]へのマッピングを表す。シミュレーテッドアニーリングなどの最適化アルゴリズムを使用してf( )が調整されて、訓練ビデオのセットに対する最良の性能(PSNRなどのメトリクスを使用して、又は主観的スコアを使用して測定される)が得られる。
(6) 他の実施形態では、b及びcに基づく重み付けのための重みを、以下の方法のうちの1つで計算することができる。
(7) w=f(b,c) ここで、f( )は関数を表す。
(8) MSEオプション2:

ここで、eminは定数である。
(9) L−pノルム(p≧0)オプション2:

ここで、nminは定数である。
(10) 調整重みオプション2:

ここで、f( )は、セット{1,2,...,2M}(

の可能な値のセット)から[0,1]へのマッピングを表す。シミュレーテッドアニーリングなどの最適化アルゴリズムを使用してf( )が調整されて、訓練ビデオのセットに対する最良の性能(PSNRなどのメトリクスを使用して、又は主観的スコアを使用して測定される)が得られる。
マッピングf( )及び計算された重みのうち少なくとも一方は、ベクトルOP内で信号伝達することができる。
[0059]重み付き方式で、処理済みサブフレーム

(全てのピクセルに対応する)が共に結合されてyが形成される。このプロセスの一実施形態を、j番目のピクセルの値であるyについて述べる。
1.y=0及びn=0に設定する。ここで、nは、j番目のピクセルに対する正規化係数である。
2.各処理済みサブフレーム

につき、
a.ピクセルjがpの一部である場合、
i)k=p中のピクセルjのインデックス
ii)

ここで、

は、処理済みサブフレーム

中のピクセルjの値である。
iii)n=n+w
3.
[0060]図10は、全ての処理済みサブフレームを結合してフレームyを形成するプロセスの一実施形態の流れ図である。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0061]図10を参照すると、プロセスは、フレームy中の各ピクセルm=1:Nにつき、その値y及びその正規化因子nを0に設定することによって開始する(処理ブロック1001)。次に、処理ロジックは、ピクセルインデックスj及びサブフレームインデックスiを1に初期化する(処理ブロック1002)。
[0062]初期化の後、処理ロジックは、ピクセルj∈pであるかどうか判定する(処理ブロック1003)。そうである場合は、プロセスは処理ブロック1004に移行する。そうでない場合は、プロセスは処理ブロック1005に移行する。
[0063]処理ブロック1004で、一実施形態では、処理ロジックは、

中のピクセルjの値である

を使用して、且つ前述のように重みwを使用して、y及びnを更新する。一実施形態では、重みは、以下に従って計算される。

[0064]処理ブロック1004で、kは、p中のピクセルjのインデックスに等しい。一実施形態では、処理ロジックは、以下の式に基づいてy及びnを更新する。

=n+w
処理ロジックがy及びnを更新した後、プロセスは処理ブロック1005に移行する。
[0065]処理ブロック1005で、処理ロジックは、インデックスi=N、すなわちフレーム中のピクセルの総数であるかどうかチェックする。そうである場合は、プロセスは処理ブロック1007に移行する。そうでない場合は、プロセスは処理ブロック1006に移行する。処理ブロック1006で、インデックスが1つインクリメントされ、プロセスは処理ブロック1003に移行する。
[0066]処理ブロック1007で、処理ロジックは、以下の式に従ってyを更新する。

[0067]yを更新した後、処理ロジックは、インデックスiを1に等しく設定し(処理ブロック1008)、インデックスjがNに等しいかどうかチェックする(処理ブロック1009)。そうである場合は、プロセスは終了する。そうでない場合は、プロセスは処理ブロック1010に移行し、インデックスjが1つインクリメントされる。インデックスjを1つインクリメントした後、プロセスは処理ブロック1003に移行する。
[0068]フレームyは、現在の入力フレームxに対応する出力である。処理すべきフレームがまだある場合、処理ロジックは、現在の入力フレームxを更新し、yを

にコピーし、図2に示すようにプロセスを繰り返す(処理ブロック212)。
[0069]一実施形態では、フレームyは、ピクセル領域又は変換領域においてさらに画像/ビデオ処理を経る。一実施形態では、アンシャープマスキングをフレームyに対して実施して、高周波数ディテールを向上させる。別の実施形態では、サイズP×Pピクセルの複数のブロックがフレームyから形成され、ここでPは整数であり、各P×Pブロックfは、2次元DCTや2次元アダマールなどのブロック変換を経て、別のP×Pブロックhが生成される。P×Pブロックhの要素であるh(i,j)(0≦i,j≦P−1)が処理されて、h(i,j)=h(i,j)*α(i,j)であるような向上P×Pブロック

が形成される。代替実施形態では、以下の方法のうちの1つで向上因子α(i,j)を計算することができる。
a.α(i,j)=α*(i+j)β+α
b.α(i,j)=α*iβ*jδ+α
ここで、パラメータ(α、α、β、及びδ)は訓練セットに対して調整されて、再構築画像/ビデオ品質における局所最適が達成される。一実施形態では、これらのパラメータはベクトルOP内で信号伝達することができる。上記操作は、図2の処理ブロック210の後に行われることに留意されたい。向上P×Pブロックは、逆変換され結合されて、フレームyの向上バージョンが形成される。
代替画像処理実施形態
[0070]代替の一実施形態では、図2に述べたプロセスを修正して、より複雑度の低いアルゴリズムを得ることができ、以下、このアルゴリズムを低複雑度(lower−complexity)技法と呼ぶ。図12に、低複雑度技法をフローチャートによって示す。この実施形態では、フレームyは、現在の入力フレームxに対応する低複雑度技法の出力であり、処理すべきフレームがまだある場合は、現在の入力フレームxを更新し、yを

にコピーし、図12に示すようにプロセスを繰り返す。
[0071]図12を参照すると、プロセスは、処理ロジックが、

であるように、現在の入力フレームx及び過去の出力フレーム

を使用してフレーム

を形成することによって開始し、ここで、w、wは実数であり、mは整数である(処理ブロック1201)。本明細書において、表記(j)は、当該フレーム中のピクセルj(ラスタ走査順に番号が付けられた)の値を示す。例えば、

は、フレーム

の5番目のピクセルの値を表す。一実施形態では、w=0.5であり、w=0.5である。一実施形態では、値w及びwはベクトルOP内で信号伝達される。
[0072]代替実施形態では、mの選択は、以下の方法のうちの1つで行うことができる。
i) m=0
ii) 全ての可能な値から、

のp−ノルム(p≧0)である

が最小限になるようなmを選択する。
iii) 上記「ii」に基づいてmを選択するが、探索セットを{j:j=j+W×j}に制限する。ここで、Wはフレームxの幅であり、j、j∈{−J,−(J−1),...,−1,0,1,...,J−1,J}である。Jは、0以上の任意の整数である。
一実施形態では、mの選択は、ベクトルOP内で信号伝達することができる。
[0073]別の実施形態では、

の代わりに、

の処理済みバージョンを使用して輝度変化や場面フェードなどの問題が補償されて、フレーム

が形成される。この場合、処理は、強度補償及び非線形予測フィルタなどの技法を含むが、これらに限定されない。
[0074]処理ロジックは、pの要素に対応する位置におけるフレームxのピクセル値を用いて、サブフレームと呼ばれるM×1ベクトルzを形成する。ピクセルiは、サブフレームzに対するピボットと呼ばれる(処理ブロック1202)。pの要素に対応する位置におけるフレーム

のピクセル値を用いて、

で示されるM×1ベクトル(やはりサブフレームである)が形成される(処理ブロック1202)。
[0075]処理ロジックは、空間変換Hを選択し、この空間変換をサブフレームz及び

に適用して、ベクトルe及び

をそれぞれ得る(処理ブロック1203)。
[0076]処理ロジックは、前述と同じプロセスを使用して、

から適応しきい値

を計算し、eの選択された要素に適応しきい値

を適用してaを得る(処理ブロック1203)。一実施形態では、eの全ての要素が選択される。別の実施形態では、第1の要素(通常はDC要素)を除いた全ての要素が選択される。しきい値処理操作は、前述のように、ハードしきい値処理及びソフトしきい値処理など、様々な方法で行うことができる。
[0077]eの選択された要素に適応しきい値

を適用した後、処理ロジックは、a、e

を使用して、且つ、しきい値

を使用して、ベクトルdを形成する(処理ブロック1204)。aij、eij

、及びdijが、それぞれベクトルa、e

及びd中のj番目の要素を表すものとし、ここで、j∈{1,2,...,M}である。代替実施形態では、値dijは、以下の方法のうちの1つで計算される。

一実施形態では、dijを計算するのに使用されるオプションの選択が、ベクトルOP内で信号伝達される。
[0078]その後、処理ロジックは、ベクトルdに逆空間変換を適用してサブフレーム

を生成し(処理ブロック1205)、処理ブロックの残り1206、1207、1208、及び1209は、図2中のそれぞれの相当ブロック209、210、211、及び212として作用して、プロセスは完了する。
[0079]前述の各実施形態では、オプショナルパラメータベクトルOP又はその一部を、コーデック、カメラ、超解像度プロセッサなどを含めた(ただしこれらに限定されない)任意のモジュールによって信号伝達することができる。パラメータベクトルを構築するための単純な方法の1つは、次のとおりである。各選択が、ベクトル中の2つの要素を使用して信号伝達される。n番目の選択の場合、OP(2*n)=0で、選択は信号伝達されない、または、OP(2*n)=1で、選択は信号伝達される。このとき、OP(2*n)=選択を表す値、である。OP(2*n)は、OP(2*n−1)=1のときにのみ、設定される必要があり、使用される。
[0080]本明細書に述べた技法を使用して、RGB、YUV、YCbCr、YCoCg、及びCMYKを含めた(ただしこれらに限定されない)任意の色表現のビデオシーケンスを処理することができる。これらの技法は、色表現における、色チャネルの任意のサブセット(空集合又は全てのチャネル集合を含む)に適用することができる。一実施形態では、本明細書に述べた技法を使用して、YUV色表現における「Y」チャネルのみが処理される。U及びVチャネルは、2次元ローパスフィルタ(例えばルガル(Le Gall)5/3ウェーブレットのLL帯域フィルタ)を使用してフィルタリングされる。
[0081]本明細書に述べた技法を使用して、ビデオシーケンス中のフレームの事前選択済みセットのみを処理することができる。一実施形態では、1つおきのフレームが処理される。別の実施形態では、ビデオシーケンスの1つ又は複数の区分に属する全てのフレームが処理される。処理のために選択されたフレームのセットは、OP内で信号伝達することができる。
[0082]本明細書に述べた技法を圧縮/非圧縮ビデオシーケンスに適用することに加えて、これらの技法はまた、非線形雑音除去フィルタなどの事後処理を経た圧縮ビデオシーケンスに適用することもできる。さらに、これらの技法は、低解像度の圧縮/非圧縮ビデオシーケンスを超解像することによって得られるビデオシーケンスに適用することもできる。これらの技法はまた、フレームレート変換モジュールによってすでに処理されたか又はこれから処理されることになるビデオシーケンスに適用することもできる。
コンピュータシステムの例
[0083]図14は、本明細書に述べた操作の1つ又は複数を実施することのできる例示的なコンピュータシステムのブロック図である。図14を参照すると、コンピュータシステム1400は、例示的なクライアント又はサーバコンピュータシステムを含むことができる。コンピュータシステム1400は、情報を通信するための通信機構又はバス1411と、情報を処理するための、バス1411に結合されたプロセッサ1412とを備える。プロセッサ1412は、マイクロプロセッサに限定されないが、例えばペンティアム(登録商標)(Pentium(登録商標))、パワーPC(登録商標)(PowerPC(登録商標))、アルファ(登録商標)(Alpha(登録商標))などのマイクロプロセッサを含む。
[0084]システム1400はさらに、情報、及びプロセッサ1412によって実行される命令を記憶するための、バス1411に結合されたランダムアクセスメモリ(RAM)又は他の動的記憶デバイス1404(メインメモリと呼ばれる)を備える。メインメモリ1404は、プロセッサ1412による命令の実行中に一時変数又は他の中間情報を記憶するのに使用することもできる。
[0085]コンピュータシステム1400は、また、プロセッサ1412のための静的情報及び命令を記憶するための、バス1411に結合された読取専用メモリ(ROM)及び他の静的記憶デバイスの少なくとも一方を含む静的記憶デバイス1406と、磁気ディスク又は光学ディスク及びそれに対応するディスクドライブなどのデータ記憶デバイス1407とを備える。データ記憶デバイス1407は、情報及び命令を記憶するためにバス1411に結合される。
[0086]コンピュータシステム1400はさらに、情報をコンピュータユーザに対して表示するための、バス1411に結合された陰極線管(CRT)や液晶表示装置(LCD)などの表示デバイス1421に結合させることができる。情報及びコマンド選択をプロセッサ1412に通信するために、文字数字キー及び他のキーを備える文字数字入力デバイス1422をバス1411に結合させることもできる。追加のユーザ入力デバイスは、方向情報及びコマンド選択をプロセッサ1412に通信するため、及び表示装置1421上のカーソル移動を制御するための、バス1411に結合されたマウス、トラックボール、トラックパッド、スタイラス、又はカーソル方向キーなどのカーソルコントロール1423である。
[0087]バス1411に結合させることのできる別のデバイスは、ハードコピーデバイス1424であり、これは、紙、フィルム、又は類似のタイプの媒体上に情報を記すのに使用することができる。バス1411に結合させることのできる別のデバイスは、電話機又はハンドヘルドパームデバイスへの通信のための、有線/ワイヤレス通信機能1425である。
[0088]本発明では、システム1400のいずれか又は全てのコンポーネント、及び関連するハードウェアを使用することができることに留意されたい。しかし、コンピュータシステムの他の構成がこれらのデバイスのいくつか又は全てを含むこともできることを理解することができる。
[0089]以上の記述を読んだ後には、本発明の多くの改変及び修正が当業者にはおそらく明らかになるであろうが、例示として図示及び記述したどんな特定の実施形態も、決して限定と見なされるべきものとはしないことを理解されたい。したがって、様々な実施形態の詳細への言及は、特許請求の範囲を限定するものとはせず、特許請求の範囲自体が、本発明に必須であると考えられる特徴のみを列挙する。

Claims (29)

  1. 入力ビデオを受け取るステップと、
    空間処理及び時間処理を使用して前記入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための操作を実施するステップと、
    を含み、
    空間処理及び時間処理を使用して前記入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための前記操作を実施するステップは、
    サブフレームごとの空間変換を使用して現在フレーム及び過去フレームのサブフレームを変換するサブステップと、
    各変換済みサブフレームに対する空間変換係数を適応しきい値によってしきい値処理するサブステップと、
    時間変換を使用して、しきい値処理された空間変換済み係数を変換するサブステップと、
    各変換済みサブフレームに対する時間変換係数をしきい値によってしきい値処理して、しきい値処理された時間変換済み係数を生み出すサブステップと、
    前記しきい値処理された時間変換係数を逆変換して、ピクセル領域における処理済みサブフレームを形成するサブステップと、
    前記処理済みサブフレームを結合して、新しいフレームを生み出すサブステップと、
    を含む方法。
  2. 前記空間変換がワープ変換である、請求項に記載の方法。
  3. 各変換済みサブフレームに対する空間変換係数を適応しきい値によってしきい値処理する前記サブステップは、
    第1のしきい値を使用して、前記現在フレームの前記サブフレームから生成された係数に対するしきい値処理を実施すること、及び、
    第2のしきい値を使用して、前記過去フレームの前記サブフレームから生成された係数に対するしきい値処理を実施することを含み、
    前記第2のしきい値は、前記第1のしきい値から独立して計算される、請求項に記載の方法。
  4. 前記方法は、1つ又は複数の適応しきい値を計算するステップをさらに含み、
    各変換済みサブフレームに対する変換係数を適応しきい値によってしきい値処理する前記サブステップは、前記1つ又は複数の適応しきい値のうちの1つによって、各変換済みサブフレームに対する変換係数をしきい値処理することを含む、請求項に記載の方法。
  5. 前記方法は、
    前記新しいフレームに少なくとも1つの順方向変換を適用して、前記新しいフレームのデータを変換領域における係数に変換するステップと、
    前記係数に対して少なくとも1つのデータ処理を実施するステップと、
    データ処理後の前記係数に対して少なくとも1つの逆変換を適用するステップと、
    をさらに含む、請求項に記載の方法。
  6. 前記少なくとも1つのデータ処理は、
    前記係数に対しアンシャープマスキングを施すことと、前記係数に向上因子を適用することと、からなるグループの1つ又は複数を含む、請求項に記載の方法。
  7. 入力ビデオを受け取るステップと、
    空間処理及び時間処理を使用して前記入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための操作を実施するステップと、
    を含み、
    前記操作は、
    入力ビデオの現在フレームから幾つかのピクセルにおけるサブフレームを選択し、出力ビデオの過去フレームから別のサブフレームを見つけること、
    ワープ空間変換を選択し、前記サブフレームを空間変換領域に変換すること、
    適応しきい値を導出し、前記現在フレームから選択したサブフレームの空間変換係数及び前記過去フレームから見つけたサブフレームの空間変換係数をしきい値処理すること、
    しきい値処理された空間変換係数に時間変換を適用し、時間変換係数の選択されたサブセットをしきい値処理すること、
    時間変換係数を、まず時間的に逆変換し、次いで空間的に逆変換して、処理済みサブフレームを得ること、並びに、
    現在フレームに属するサブフレームであって以前に処理されたサブフレームと、前記処理済みサブフレームとを結合して、出力ビデオの新しいフレームを生み出すこと、
    を含む方法。
  8. 前記ワープ空間変換がピクセル適応性であり、前記適応しきい値がディテール保存性である、請求項に記載の方法。
  9. 前記過去フレームの前記サブフレームは、基準を満たすことに基づいて、突き止められる、請求項に記載の方法。
  10. 前記基準は、
    前記ピクセルの数と、
    前記現在フレームの前記選択されたサブフレームと前記過去フレームの前記見つけられたサブフレームとの間のp−ノルムの全ての値のうちの最小値と、
    前記現在フレームの前記選択されたサブフレームと前記過去フレームの前記見つけられたサブフレームとの間のp−ノルムの、前記過去フレームの幅と垂直及び水平オフセットとによって限定される範囲内の値のうちの最小値と、
    前記現在フレームの前記選択されたサブフレームと前記過去フレームの前記見つけられたサブフレームとの間のp−ノルムの、前記過去フレームの幅とランダムに選択された水平及び垂直オフセットとによって限定される範囲内の値のうちの最小値と、
    からなるグループ、のうちの1つに基づく、請求項に記載の方法。
  11. 適応しきい値を導出し、前記現在フレームから選択したサブフレームの空間変換係数及び前記過去フレームから見つけたサブフレームの空間変換係数をしきい値処理することは、
    変換係数の大きさがしきい値未満の場合は係数が0に設定されるハードしきい値処理を使用することを含む、請求項に記載の方法。
  12. 適応しきい値を導出し、前記現在フレームから選択したサブフレームの空間変換係数及び前記過去フレームから見つけたサブフレームの空間変換係数をしきい値処理することは、ソフトしきい値処理を使用することを含む、請求項に記載の方法。
  13. 前記方法は、
    前記入力ビデオからの別のフレームに最もよく合致する、前記出力ビデオの出力ビデオフレームを選択するステップと、
    前記出力ビデオフレームを前記過去フレームとして使用して前記操作を実施するステップと、
    をさらに含む、請求項に記載の方法。
  14. 前記方法は、
    前記サブフレームがあらゆるピクセルにおいて規則的であるように当該サブフレームを設定するステップ、をさらに含む、請求項に記載の方法。
  15. 前記方法は、
    変換をサブフレームごとに適応的に選択するステップ、をさらに含む、請求項に記載の方法。
  16. 前記方法は、
    サブフレームを各ピクセルにおいて適応的に選択するステップ、をさらに含む、請求項に記載の方法。
  17. 前記方法は、
    1つ又は複数の適応しきい値を計算するステップをさらに含み、
    各変換済みサブフレームに対する変換係数を適応しきい値によってしきい値処理することは、前記1つ又は複数の適応しきい値のうちの1つによって、各変換済みサブフレームに対する変換係数をしきい値処理することを含む、請求項に記載の方法。
  18. 前記方法は、
    各ピクセルにおいて選択されたサブフレームに対して前記変換を適応的に選択するステップ、をさらに含む、請求項17に記載の方法。
  19. 前記方法は、
    操作パラメータのベクトルを送るステップ、をさらに含む、請求項に記載の方法。
  20. しきい値処理された空間変換係数に時間変換を適用し、時間変換係数の選択されたサブセットをしきい値処理することは、
    前記現在フレーム及び前記過去フレームからの前記サブフレームのしきい値処理された空間変換係数から第1の行列/ベクトルを形成することと、
    前記第1の行列/ベクトル中の係数の選択されたサブセットにしきい値処理を適用して、第2の行列/ベクトルを生み出すことと、
    を含み、
    時間変換係数を、まず時間的に逆変換し、次いで空間的に逆変換して、処理済みサブフレームを得ることは、
    前記第2の行列/ベクトルに逆時間変換を適用して、第3の行列/ベクトルを生成することと、
    前記第3の行列/ベクトルに逆空間変換を適用して、前記処理済みサブフレームを作成することと、
    を含む、請求項に記載の方法。
  21. 入力ビデオを受け取るステップと、
    空間処理及び時間処理を使用して前記入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための操作を実施するステップと、
    を含み、
    空間処理及び時間処理を使用して前記入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための前記操作を実施するステップは、
    サブフレームごとの空間変換を使用して、現在フレームのサブフレーム及び過去フレームのサブフレームを変換するサブステップと、
    時間変換を使用して、空間変換済み係数を変換するサブステップと、
    各変換済みサブフレームに対する時間変換係数をしきい値によってしきい値処理して、しきい値処理された時間変換済み係数を生み出すサブステップと、
    前記しきい値処理された時間変換済み係数を逆変換して、ピクセル領域における処理済みサブフレームを形成するステップと、
    前記処理済みサブフレームを結合して新しいフレームを生み出すサブステップと、
    を含む方法。
  22. 入力ビデオを受け取るステップと、
    空間処理及び時間処理を使用して前記入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための操作を実施するステップと、
    を含み、
    前記操作は、
    入力ビデオの現在フレーム及び出力ビデオの過去フレームから新しいフレームを形成すること、および、
    前記新しいフレームのサブフレーム及び前記現在フレームのサブフレームを処理することと、
    を含み、
    前記新しいフレームのサブフレーム及び前記現在フレームのサブフレームを処理することは、
    前記現在フレーム及び前記新しいフレームからのピクセルを使用して第1及び第2のサブフレームをそれぞれ生成し、ピクセルごとのサブフレームタイプに基づいて、前記第1及び第2のサブフレーム中の各ピクセルからそれぞれ形成されたベクトルを使用することと、
    ワープ空間変換を選択し、前記第1及び第2のサブフレームを空間変換領域に変換することと、
    適応しきい値を導出し、前記第1のサブフレームの変換係数をしきい値処理することと、
    しきい値処理された変換係数と前記第2のサブフレームから生成された係数とを使用して行列/ベクトルを生成することと、
    前記行列/ベクトル中の係数を逆変換して処理済みサブフレームを作成することと、
    現在フレームに属し且つ前に処理されたサブフレームと前記処理済みサブフレームとを結合して、出力ビデオの新しいフレームを生み出すことと、
    を含む方法。
  23. 前記現在フレーム及び前記過去フレームが、多次元色表現の全てのチャネルのサブセットのみについて前記フレームのチャネル情報を含む、請求項22に記載の方法。
  24. 入力ビデオを受け取るステップと、
    空間処理及び時間処理を使用して前記入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための操作を実施するステップと、
    を含み、
    前記操作は、
    入力ビデオの現在フレームからいくつかのピクセルにおけるサブフレームを選択すること、
    ワープ空間変換を選択し、前記サブフレームを空間変換領域に変換すること、
    適応しきい値を導出し、前記現在フレームからのサブフレームの空間変換係数をしきい値処理すること、
    空間変換係数を逆変換して処理済みサブフレームを得ること、及び、
    現在フレームに属し且つ前に処理されたサブフレームと前記処理済みサブフレームとを結合して、出力ビデオの新しいフレームを生み出すこと、
    を含む方法。
  25. コンピュータに、
    請求項に記載の方法が含む各ステップを実行させるためのプログラム、
    を記憶したコンピュータ読み取り可能な記憶媒体。
  26. 請求項1に記載の方法における前記空間変換がワープ変換である、請求項25に記載のコンピュータ読み取り可能な記憶媒体。
  27. コンピュータに、
    請求項に記載の方法が含む各ステップを実行させるためのプログラム、
    を記憶したコンピュータ読み取り可能な記憶媒体。
  28. コンピュータに、
    請求項に記載の方法が含む各ステップを実行させるためのプログラム、
    を記憶したコンピュータ読み取り可能な記憶媒体。
  29. 請求項7に記載の方法における前記ワープ空間変換がピクセル適応性であり、前記適応しきい値がディテール保存性である、請求項28に記載のコンピュータ読み取り可能な記憶媒体。
JP2010545258A 2008-02-05 2009-02-02 空間処理及び時間処理を用いた、ビデオシーケンス中の雑音及びちらつきの少なくとも一方の低減 Active JP5419897B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US2645308P 2008-02-05 2008-02-05
US61/026,453 2008-02-05
US12/233,468 2008-09-18
US12/233,468 US8731062B2 (en) 2008-02-05 2008-09-18 Noise and/or flicker reduction in video sequences using spatial and temporal processing
PCT/US2009/032888 WO2009100032A1 (en) 2008-02-05 2009-02-02 Noise and/or flicker reduction in video sequences using spatial and temporal processing

Publications (2)

Publication Number Publication Date
JP2011512086A JP2011512086A (ja) 2011-04-14
JP5419897B2 true JP5419897B2 (ja) 2014-02-19

Family

ID=40931208

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2010545259A Active JP5517954B2 (ja) 2008-02-05 2009-02-02 変換の高速でメモリ効率の良い実施のための方法
JP2010545258A Active JP5419897B2 (ja) 2008-02-05 2009-02-02 空間処理及び時間処理を用いた、ビデオシーケンス中の雑音及びちらつきの少なくとも一方の低減
JP2014018738A Active JP5734475B2 (ja) 2008-02-05 2014-02-03 変換の高速でメモリ効率の良い実施のための方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010545259A Active JP5517954B2 (ja) 2008-02-05 2009-02-02 変換の高速でメモリ効率の良い実施のための方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2014018738A Active JP5734475B2 (ja) 2008-02-05 2014-02-03 変換の高速でメモリ効率の良い実施のための方法

Country Status (6)

Country Link
US (2) US8731062B2 (ja)
EP (2) EP2240869B1 (ja)
JP (3) JP5517954B2 (ja)
KR (2) KR101291869B1 (ja)
CN (2) CN102378978B (ja)
WO (2) WO2009100034A2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311088B2 (en) * 2005-02-07 2012-11-13 Broadcom Corporation Method and system for image processing in a microprocessor for portable video communication devices
US8305497B2 (en) * 2007-07-27 2012-11-06 Lsi Corporation Joint mosquito and aliasing noise reduction in video signals
US8731062B2 (en) * 2008-02-05 2014-05-20 Ntt Docomo, Inc. Noise and/or flicker reduction in video sequences using spatial and temporal processing
JP4801186B2 (ja) * 2009-04-23 2011-10-26 株式会社エヌ・ティ・ティ・ドコモ 画像処理装置、画像処理方法および画像処理プログラム
KR101682147B1 (ko) 2010-04-05 2016-12-05 삼성전자주식회사 변환 및 역변환에 기초한 보간 방법 및 장치
EP2442567A1 (en) * 2010-10-14 2012-04-18 Morpho Inc. Image Processing Device, Image Processing Method and Image Processing Program
FR2978273B1 (fr) * 2011-07-22 2013-08-09 Thales Sa Procede de reduction du bruit dans une sequence d'images fluoroscopiques par filtrage temporel et spatial
EA017302B1 (ru) * 2011-10-07 2012-11-30 Закрытое Акционерное Общество "Импульс" Способ подавления шума серий цифровых рентгенограмм
US9924200B2 (en) * 2013-01-24 2018-03-20 Microsoft Technology Licensing, Llc Adaptive noise reduction engine for streaming video
US9357236B2 (en) * 2014-03-13 2016-05-31 Intel Corporation Color compression using a selective color transform
US9939253B2 (en) * 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US10102613B2 (en) * 2014-09-25 2018-10-16 Google Llc Frequency-domain denoising
CN106028014B (zh) * 2016-05-27 2017-12-08 京东方科技集团股份有限公司 一种校正视频闪烁的方法及设备
WO2018108126A1 (zh) * 2016-12-14 2018-06-21 上海寒武纪信息科技有限公司 神经网络卷积运算装置及方法
TWI748035B (zh) * 2017-01-20 2021-12-01 日商半導體能源硏究所股份有限公司 顯示系統及電子裝置
CN106791283B (zh) * 2017-01-25 2019-11-19 京东方科技集团股份有限公司 一种校正视频闪烁的方法、装置及视频设备
US11134272B2 (en) * 2017-06-29 2021-09-28 Qualcomm Incorporated Memory reduction for non-separable transforms
KR102444054B1 (ko) 2017-09-14 2022-09-19 삼성전자주식회사 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
EP4274207A4 (en) 2021-04-13 2024-07-10 Samsung Electronics Co Ltd ELECTRONIC DEVICE AND ITS CONTROL METHOD
CN114020211B (zh) * 2021-10-12 2024-03-15 深圳市广和通无线股份有限公司 存储空间管理方法、装置、设备及存储介质

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4447886A (en) 1981-07-31 1984-05-08 Meeker G William Triangle and pyramid signal transforms and apparatus
US4442454A (en) 1982-11-15 1984-04-10 Eastman Kodak Company Image processing method using a block overlap transformation procedure
JP2637978B2 (ja) * 1987-04-16 1997-08-06 日本ビクター株式会社 動き適応形画質改善装置
JPH01201773A (ja) * 1988-02-05 1989-08-14 Matsushita Electric Ind Co Ltd ディジタル信号処理装置
JPH0379182A (ja) 1989-08-23 1991-04-04 Fujitsu Ltd 画像符号化制御方式
JP3302731B2 (ja) 1992-06-02 2002-07-15 大日本印刷株式会社 画像拡大方法
JP3222273B2 (ja) * 1993-07-09 2001-10-22 株式会社日立製作所 核磁気共鳴診断装置における動画像の画質改善方法
JP3392946B2 (ja) 1993-07-15 2003-03-31 ペンタックス株式会社 電子スチルカメラ及び画像再生装置
US5666163A (en) 1994-07-12 1997-09-09 Sony Corporation Electronic image resolution enhancement by frequency-domain extrapolation
JPH08294001A (ja) 1995-04-20 1996-11-05 Seiko Epson Corp 画像処理方法および画像処理装置
JP3378167B2 (ja) 1997-03-21 2003-02-17 シャープ株式会社 画像処理方法
US5859788A (en) 1997-08-15 1999-01-12 The Aerospace Corporation Modulated lapped transform method
US6438275B1 (en) 1999-04-21 2002-08-20 Intel Corporation Method for motion compensated frame rate upsampling based on piecewise affine warping
AUPQ156299A0 (en) * 1999-07-12 1999-08-05 Canon Kabushiki Kaisha Method and apparatus for discrete wavelet transforms and compressed bitstream ordering for block entropy coding of subband image data
KR100327385B1 (en) 2000-07-18 2002-03-13 Lg Electronics Inc Spatio-temporal three-dimensional noise filter
EP1209624A1 (en) * 2000-11-27 2002-05-29 Sony International (Europe) GmbH Method for compressed imaging artefact reduction
US6898323B2 (en) * 2001-02-15 2005-05-24 Ricoh Company, Ltd. Memory usage scheme for performing wavelet processing
JP3887178B2 (ja) * 2001-04-09 2007-02-28 株式会社エヌ・ティ・ティ・ドコモ 信号符号化方法及び装置並びに復号方法及び装置
US7206459B2 (en) 2001-07-31 2007-04-17 Ricoh Co., Ltd. Enhancement of compressed images
JP2003134352A (ja) * 2001-10-26 2003-05-09 Konica Corp 画像処理方法及び装置並びにプログラム
US7120308B2 (en) * 2001-11-26 2006-10-10 Seiko Epson Corporation Iterated de-noising for image recovery
JP2005523615A (ja) * 2002-04-19 2005-08-04 ドロップレット テクノロジー インコーポレイテッド ウェーブレット変換システム、方法、及びコンピュータプログラム製品
US7940844B2 (en) * 2002-06-18 2011-05-10 Qualcomm Incorporated Video encoding and decoding techniques
JP3902990B2 (ja) 2002-07-02 2007-04-11 キヤノン株式会社 アダマール変換処理方法及びその装置
CN1823336A (zh) 2003-05-07 2006-08-23 Dvip多媒体股份有限公司 消除传感器电平图像失真的方法和装置
US7352909B2 (en) * 2003-06-02 2008-04-01 Seiko Epson Corporation Weighted overcomplete de-noising
US20050105817A1 (en) 2003-11-17 2005-05-19 Guleryuz Onur G. Inter and intra band prediction of singularity coefficients using estimates based on nonlinear approximants
KR100564592B1 (ko) 2003-12-11 2006-03-28 삼성전자주식회사 동영상 데이터 잡음제거방법
GB2415876B (en) * 2004-06-30 2007-12-05 Voxar Ltd Imaging volume data
WO2006010276A1 (en) * 2004-07-30 2006-02-02 Algolith Inc Apparatus and method for adaptive 3d artifact reducing for encoded image signal
CN101027679B (zh) * 2004-09-09 2010-04-21 奥普提克斯晶硅有限公司 表达通用的二维空间变换的系统和方法
US7554611B2 (en) * 2005-04-19 2009-06-30 Samsung Electronics Co., Ltd. Method and apparatus of bidirectional temporal noise reduction
US8050331B2 (en) 2005-05-20 2011-11-01 Ntt Docomo, Inc. Method and apparatus for noise filtering in video coding
US20060288065A1 (en) * 2005-06-17 2006-12-21 Docomo Communications Laboratories Usa, Inc. Method and apparatus for lapped transform coding and decoding
JP4699117B2 (ja) * 2005-07-11 2011-06-08 株式会社エヌ・ティ・ティ・ドコモ 信号符号化装置、信号復号化装置、信号符号化方法、及び信号復号化方法。
JP4743604B2 (ja) * 2005-07-15 2011-08-10 株式会社リコー 画像処理装置、画像処理方法、プログラム及び情報記録媒体
US20070074251A1 (en) * 2005-09-27 2007-03-29 Oguz Seyfullah H Method and apparatus for using random field models to improve picture and video compression and frame rate up conversion
BRPI0707346A2 (pt) 2006-01-31 2011-05-03 Thomson Licensing métodos e aparelho para filtração espaço-temporal baseada em borda
JP4760552B2 (ja) * 2006-06-06 2011-08-31 ソニー株式会社 動きベクトル復号化方法および復号化装置
US20080007649A1 (en) * 2006-06-23 2008-01-10 Broadcom Corporation, A California Corporation Adaptive video processing using sub-frame metadata
US8606023B2 (en) 2006-06-26 2013-12-10 Qualcomm Incorporated Reduction of errors during computation of inverse discrete cosine transform
CN100454972C (zh) 2006-12-28 2009-01-21 上海广电(集团)有限公司中央研究院 一种视频图像3d降噪方法
US8743963B2 (en) 2007-08-13 2014-06-03 Ntt Docomo, Inc. Image/video quality enhancement and super-resolution using sparse transformations
US20090060368A1 (en) 2007-08-27 2009-03-05 David Drezner Method and System for an Adaptive HVS Filter
US8731062B2 (en) * 2008-02-05 2014-05-20 Ntt Docomo, Inc. Noise and/or flicker reduction in video sequences using spatial and temporal processing

Also Published As

Publication number Publication date
KR20100112162A (ko) 2010-10-18
CN101933330A (zh) 2010-12-29
EP2243298A1 (en) 2010-10-27
KR101291869B1 (ko) 2013-07-31
CN102378978B (zh) 2015-10-21
US8837579B2 (en) 2014-09-16
WO2009100034A2 (en) 2009-08-13
CN102378978A (zh) 2012-03-14
JP5734475B2 (ja) 2015-06-17
EP2243298B1 (en) 2021-10-06
EP2240869B1 (en) 2019-08-07
JP2014112414A (ja) 2014-06-19
JP5517954B2 (ja) 2014-06-11
JP2011512086A (ja) 2011-04-14
KR20100114068A (ko) 2010-10-22
US8731062B2 (en) 2014-05-20
US20090195535A1 (en) 2009-08-06
EP2240869A2 (en) 2010-10-20
JP2011527033A (ja) 2011-10-20
KR101137753B1 (ko) 2012-04-24
WO2009100032A1 (en) 2009-08-13
US20090195697A1 (en) 2009-08-06
WO2009100034A3 (en) 2012-11-01
CN101933330B (zh) 2013-03-13

Similar Documents

Publication Publication Date Title
JP5419897B2 (ja) 空間処理及び時間処理を用いた、ビデオシーケンス中の雑音及びちらつきの少なくとも一方の低減
Heckel et al. Deep decoder: Concise image representations from untrained non-convolutional networks
US8743963B2 (en) Image/video quality enhancement and super-resolution using sparse transformations
CN102142137B (zh) 基于高分辨率字典的稀疏表征图像超分辨重建方法
CN101959008B (zh) 用于图像和视频处理的方法和装置
CN103871041B (zh) 基于认知正则化参数构建的图像超分辨率重构方法
CN111866521B (zh) 一种视频图像压缩伪影去除方法
JP5331486B2 (ja) デジタル画像の解像度向上方法及び装置
JP5174238B2 (ja) スパース変換を使用する画像/ビデオ品質向上及び超解像
JP2008527932A (ja) ハイブリッドビデオ圧縮の量子化雑音除去用の非線形ループ内デノイズフィルタ
US20090185078A1 (en) Systems and methods for video processing based on motion-aligned spatio-temporal steering kernel regression
CN106254720B (zh) 一种基于联合正则化的视频超分辨率重建方法
CN112270646B (zh) 基于残差密集跳跃网络的超分辨增强方法
CN114820352A (zh) 一种高光谱图像去噪方法、装置及存储介质
CN114339030A (zh) 一种基于自适应可分离卷积的网络直播视频稳像方法
CN115809966A (zh) 一种低照度图像的增强方法和系统
CN115082296B (zh) 一种基于小波域图像生成框架的图像生成方法
Sadaka et al. Efficient super-resolution driven by saliency selectivity
Krishna et al. A Trained CNN based Resolution Enhancement of Digital Images
Ramsook et al. A differentiable VMAF proxy as a loss function for video noise reduction
Chen et al. A new framework based on spatio-temporal information for enhancing compressed video
WO2023044653A1 (zh) 一种显示设备系统及自适应增强画质的方法
Koh et al. 60‐2: Self‐supervised Perceptual Motion Deblurring using a Conditional Generative Neural Network Guided by Optical Flow
Jagdale et al. Video resolution enhancement and quality assessment strategy
Shen et al. Robust video denoising by low-rank decomposition and modeling noises with mixture of Gaussian

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131119

R150 Certificate of patent or registration of utility model

Ref document number: 5419897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250