JP2011512086A - 空間処理及び時間処理を用いた、ビデオシーケンス中の雑音及びちらつきの少なくとも一方の低減 - Google Patents

空間処理及び時間処理を用いた、ビデオシーケンス中の雑音及びちらつきの少なくとも一方の低減 Download PDF

Info

Publication number
JP2011512086A
JP2011512086A JP2010545258A JP2010545258A JP2011512086A JP 2011512086 A JP2011512086 A JP 2011512086A JP 2010545258 A JP2010545258 A JP 2010545258A JP 2010545258 A JP2010545258 A JP 2010545258A JP 2011512086 A JP2011512086 A JP 2011512086A
Authority
JP
Japan
Prior art keywords
processing
pixel
frame
subframe
processing logic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010545258A
Other languages
English (en)
Other versions
JP5419897B2 (ja
Inventor
サンディープ カヌムリ,
オヌール, ジー. グラリュズ,
エム., レハ シヴァンラー,
暁 藤林
チョン, エス. ブン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2011512086A publication Critical patent/JP2011512086A/ja
Application granted granted Critical
Publication of JP5419897B2 publication Critical patent/JP5419897B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/147Discrete orthonormal transforms, e.g. discrete cosine transform, discrete sine transform, and variations therefrom, e.g. modified discrete cosine transform, integer transforms approximating the discrete cosine transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/145Square transforms, e.g. Hadamard, Walsh, Haar, Hough, Slant transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/649Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding the transform being applied to non rectangular image segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20052Discrete cosine transform [DCT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Discrete Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Complex Calculations (AREA)
  • Picture Signal Circuits (AREA)

Abstract

【課題】ビデオシーケンス中のちらつきと雑音の両方の少なくとも一方を低減するための優れた方法及び装置を提供する。
【解決手段】本明細書では、ビデオシーケンス中のちらつきと雑音の両方の少なくとも一方を低減するための方法及び装置を開示する。一実施形態では、本方法は、入力ビデオを受け取るステップと、空間処理及び時間処理を使用して入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための操作を実施するステップと、を含む。
【選択図】図1B

Description

[0003]本発明は一般に、ビデオシーケンスの処理に関する。より詳細には、本発明は、ビデオシーケンス中の雑音及びちらつきの少なくとも一方を低減することに関する。
[0001]本特許出願は、2008年2月5日に出願された、「Flicker Reduction in Video Sequences Using Temporal Processing」という名称の、対応する仮特許出願第61/026,453号の優先権を主張し、この仮特許出願を参照により組み込む。
[0002]本出願は、本発明の法人譲受人に譲渡された、2008年6月17日に出願された「Image/Video Quality Enhancement and Super−Resolution Using Sparse Transformations」という名称の同時係属出願、米国特許出願第12/140,829号に関係する。
[0004]カメラ制限のせいで、獲得中にモスキート雑音及び時間的ちらつきが引き起こされる。圧縮、ダウンサンプリング、及びアップサンプリングなど、ビデオ処理パイプライン中のモジュールは、アーチファクト、エイリアシング、リンギング、及び時間的ちらつきを阻止することにつながる。今日、多くの適用例で、画像及びビデオ信号処理が広く使用されている。これらの技法のいくつかを使用して、雑音及び時間的ちらつきが低減されてきた。
本明細書では、ビデオシーケンス中の雑音及びちらつきの少なくとも一方を低減するための方法及び装置を開示する。一実施形態では、本方法は、入力ビデオを受け取るステップと、空間処理及び時間処理を使用して、入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための操作を実施するステップと、を含む。
[0005]本発明は、以下に提供する詳細な説明、及び本発明の様々な実施形態に関する添付の図面から、より完全に理解されるであろう。しかし、図面は、本発明を特定の実施形態に限定するものと考えるべきではなく、説明及び理解のためのものに過ぎない。
入力ビデオ中の雑音及びちらつきの少なくとも一方を低減するための、雑音ちらつき低減モジュールの一実施形態を示す図である。 入力ビデオ中の雑音及びちらつきの少なくとも一方を低減するための、雑音ちらつき低減モジュールの一実施形態を示す図である。 ビデオシーケンスに対して画像処理を実施するプロセスの一実施形態の流れ図である。 サブフレームタイプのライブラリに対応するマスクの例を示す図である。 ピクセルにラスタ走査順に番号が付けられたときの、ピクセルiにおける例示的なサブフレームを示す図である。 サブフレームタイプ選択プロセスの一実施形態の流れ図である。 過去の出力フレームからのサブフレーム形成プロセスの一実施形態の流れ図である。 空間変換選択プロセスの一実施形態の流れ図である。 時間変換選択プロセスの一実施形態の流れ図である。 変換係数をしきい値処理するしきい値処理プロセスの一実施形態の流れ図である。 サブフレームを結合してフレームを生み出すプロセスの一実施形態の流れ図である。 単調減少階段関数を示す図である。 ビデオシーケンスに対して画像処理を実施するプロセスの別の実施形態の流れ図である。 選択されたピクセルの例示的なサブセットを示す図である。 コンピュータシステムの一実施形態のブロック図である。
[0006]圧縮/非圧縮ビデオシーケンス中の雑音及びちらつきの少なくとも一方低減のための方法及び装置について述べる。本明細書においてビデオシーケンスは、順番に配置された、本明細書でフレームと呼ぶ複数の画像からなる。
[0007]一実施形態では、本明細書に開示する技法は、入力ビデオの現在フレームからいくつかのピクセルにおけるサブフレームを選択し、出力ビデオの過去フレームから基準を満たす別のサブフレームを見つけること、ピクセル適応性のワープ空間変換を選択し、サブフレームを空間変換領域に変換すること、ディテール保存性の適応しきい値を導出し、ハードしきい値処理(変換係数の大きさがしきい値未満の場合は0に設定する)、又はソフトしきい値処理など他のしきい値処理技法を使用して、現在フレーム及び過去フレームからのサブフレームの変換係数をしきい値処理すること、時間変換を使用して空間変換係数をさらに変換し、時間変換係数の選択されたサブセットをしきい値処理すること、時間変換係数をまず時間的に、次いで空間的に逆変換して、現在フレームと過去フレームの両方に属する処理済みサブフレームを得ること、並びに、入力ビデオからの現在フレームに属する処理済みサブフレームを結合して、出力ビデオのための現在フレームを得ることを含むが、これらに限定されない。これらの操作を、入力ビデオの全てのフレームについて繰り返すことができる。
[0008]以下の記述では、本発明のより完全な説明を提供するために多くの詳細を示す。しかし、これらの具体的詳細なしでも本発明を実施することができることは、当業者には明らかであろう。他の場合では、本発明を曖昧にするのを避けるために、周知の構造及びデバイスについては詳細に示すのではなくブロック図の形で示す。
[0009]後続の詳細な説明のいくつかの部分は、コンピュータメモリ内のデータビットに対する操作の、アルゴリズム及び象徴表現の点から提示する。これらのアルゴリズム的記述及び表現は、データ処理分野の当業者が他の当業者に自身の作業の実質を最も効果的に伝えるために使用される手段である。アルゴリズムは、ここでは、また一般的には、所望の結果につながる首尾一貫した一連のステップであると考えられる。これらのステップは、物理量の物理的操作を必要とするステップである。必ずしもそうとは限らないが通常は、これらの量は、記憶、転送、結合、比較、及び他の方法で操作することのできる電気的又は磁気的信号の形をとる。主に一般的な慣例の理由で、これらの信号をビット、値、要素、記号、文字、用語、数字などとして言及するのが時として好都合であることが証明されている。
[0010]しかし、これら及び類似の用語は全て、適切な物理量に関連付けられるべきであって単にこれらの量に適用される好都合なラベルに過ぎないことを念頭に置くべきである。特に指定がない限り、以下の考察から明らかなように、この記述全体を通して、「処理する」又は「計算する」又は「算出する」又は「決定する」又は「表示する」などの用語を利用した考察は、コンピュータシステムのレジスタ及びメモリ内の物理的(電子的)量として表されるデータを操作して、コンピュータシステムメモリ又はレジスタ又は他のそのような情報記憶、伝送、若しくは表示デバイス内で同様に物理量として表される他のデータに変換するコンピュータシステム又は類似の電子コンピューティングデバイスの、アクション及びプロセスを指すことを理解されたい。
[0011]本発明はまた、本明細書の操作を実施するための装置に関する。本装置は、必要とされる目的に向けて特に構築されたものであってもよく、或いは、コンピュータに記憶されたコンピュータプログラムによって選択的にアクティブ化又は再構成される汎用コンピュータを含んでもよい。このようなコンピュータプログラムは、コンピュータ可読記憶媒体に記憶することができ、コンピュータ可読記憶媒体は、フレキシブルディスクや光学ディスクやCD−ROMや光磁気ディスクを含めた任意のタイプのディスク、読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気若しくは光学カード、又は、電子的命令を記憶するのに適した任意のタイプの媒体など(ただしこれらに限定されない)であり、これらはそれぞれコンピュータシステムバスに結合される。
[0012]本明細書に提示するアルゴリズム及び表示は、どんな特定のコンピュータ又は他の装置にも本質的に関係しない。本明細書の教示に従ったプログラムと共に様々な汎用システムを使用することもでき、或いは、必要とされる方法ステップを実施するためのより特殊化された装置を構築するのが好都合であることが判明する場合もある。これらの様々なシステムに必要とされる構造は、以下の記述から明らかになるであろう。加えて、本発明は、どんな特定のプログラミング言語に関して述べるものでもない。様々なプログラミング言語を使用して、本明細書に述べる本発明の教示を実施することができることは、理解されるであろう。
[0013]機械可読媒体は、マシン(例えばコンピュータ)によって読取り可能な形で情報を記憶又は伝送するための任意の機構を含む。例えば、機械可読媒体は、読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイス、電気的、光学的、音響、又は他の形の伝搬信号(例えば搬送波、赤外線信号、ディジタル信号など)等を含む。
概観
[0014]図1Aに、入力ビデオ中の雑音及びちらつきの少なくとも一方を低減するための、雑音ちらつき低減モジュールの一実施形態を示す。図1Aを参照すると、雑音ちらつき低減ブロック101が、入力ビデオ100を受け取る。入力ビデオ100は、雑音及びちらつきの少なくとも一方を含む。雑音ちらつき低減ブロック101はまた、本明細書でOPと呼ぶオプショナルパラメータのベクトルと、しきい値パラメータ

も受け取る。これらの入力に応答して、雑音ちらつき低減ブロック101は、雑音及びちらつきが低減された出力ビデオ102を生成する。
[0015]図1Bに、ビデオシーケンスに対して画像処理を実施するプロセスの一実施形態の流れ図を示す。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0016]図1Bを参照すると、プロセスは、処理ロジックが入力ビデオを受け取ることで開始する(処理ブロック111)。
[0017]入力ビデオを受け取るのに応答して、処理ロジックは、空間及び時間処理を使用して入力ビデオ中の雑音とちらつきの一方又は両方を低減するための操作を実施する(処理ブロック112)。一実施形態では、これらの操作は、係数の適応しきい値処理を伴う空間変換及び時間変換を適用することを含む。一実施形態では、空間変換及び時間変換を適用することは、少なくとも1つのワープ変換をサブフレームに適用して変換係数を生み出すことを含む。
[0018]図2に、ビデオシーケンスに対して画像処理を実施するプロセスの一実施形態のより詳細な流れ図を示す。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0019]以下に述べるプロセスでは、xは、本明細書に述べる技法によって処理されている入力ビデオシーケンスからの現在フレームを示し、

は、本明細書に述べる技法を使用した後で出力される過去フレームを示し、

は、画像処理プロセスによって使用されるしきい値パラメータを示す。さらに、他のオプショナルパラメータを含む、OPで示されるベクトルを供給することができる。ユーザ又はアルゴリズムは、主観的/客観的品質の最適化を使用して、又はモデルベースの技法を使用して、又は他の方法を使用して、最も望ましいパラメータを決定することができる。較正アルゴリズムを使用することもできる。このようなアルゴリズムはまた、ビデオ処理パイプラインと入力ビデオのいずれか又は両方に関する部分的/完全な知識を利用することができる。一実施形態では、ピクセルをラスタ走査順に構成することによって全てのビデオフレームがベクトルで表され、Nは各ビデオフレーム中のピクセルの数を表す。
[0020]フレームxが得られた後、図2の処理ブロック202のサブフレーム選択プロセスが開始する。サブフレームタイプSが、M×1整数値ベクトルとして定義される。本明細書において、Mは、0よりも大きい任意の整数とすることができる。{S,S,S,...}は、サブフレームタイプのライブラリである。ピクセルにラスタ走査順に番号が付けられた場合に、フレームxからの選択されたピクセルのセット中の各ピクセルiにつき、サブフレームタイプsがライブラリから選択され、ベクトルp

として形成され、ここで、

は、全ての要素が1に等しいM×1ベクトルである。一実施形態では、選択されないピクセルの場合、pは0のベクトルである。選択されたピクセルのセットは、所定とすることもでき、或いはベクトルOP内で信号伝達することもできる。この実施形態では、画像中の各ピクセルにつき、サブフレームが形成され処理される。すなわち、選択されたピクセルのセットは、フレーム中のピクセルのセット全体である。しかし、別の実施形態では、画像中の全てのピクセルに対してではなく、ピクセルの選択されたサブセットのみに対して処理が実施されてもよい。サブセットは、所定とすることもでき、或いはサイド情報の一部として信号伝達することもできる。図13に、このようなサブセットの例を示す。本明細書に述べる教示により他のサブセットを使用してもよい。サブフレームと呼ばれるM×1ベクトルzが、pの要素に対応する位置におけるフレームxのピクセル値を用いて形成される。ピクセルiは、サブフレームzに対するピボットと呼ばれる。図4に、ピクセルにラスタ走査順に番号が付けられたときの、ピクセルiにおける例示的なサブフレームzを示す。図4を参照すると、ピクセルのラスタ走査順序付けは、この順序で「1」からピクセルに番号を付けることによって行われる。サブフレームがピクセルiでピボットされるのが示されている。サブフレームは、ワープ行と呼ばれるM個のベクトルに編成される。第1のワープ行は、この順序でサブフレーム要素1〜Mを有し、第2のワープ行は、要素(M+1)〜2Mを有し、以下同様である。
[0021]一実施形態では、Mは4に等しく、サブフレームタイプのライブラリは、図3に示すマスクのセットに対応する。図3を参照すると、このサブフレームライブラリでは、マスクは、矢印で示されるような種々の方向に対応する。図3の(A)のマスクは、通常の水平又は垂直方向に対応するので、本明細書ではこれを通常マスクと呼ぶ。他のマスクは、非自明な方向に対応するので、有向マスクと呼ぶ。マスク中のピクセル(「a」〜「p」)の差分位置(Ω)は、Ω=C+W×Cとして定義され、ここで、Wはフレームyの幅である。Cは、当該の現在ピクセルの列に達するためにピクセル「a」の列から右に水平に移動させる必要のある列の数である。Cは、当該の現在ピクセルの行に達するためにピクセル「a」の行から下に垂直に移動させる必要のある行の数である。例えば、図3の(H)のマスクの場合、ピクセル「c」は、C=−1及びC=2を有する。あるマスクに対応するサブフレームタイプは、「a」から「p」まで順序付けられたそのマスク中のピクセルの差分位置を含むベクトルである。
[0022]一実施形態では、ピクセルに対するサブフレームタイプの選択は、常に通常マスクに対応するサブフレームタイプを選択することによって行われる。別の実施形態では、ピクセルに対するサブフレームタイプの選択は、選択された各ピクセルにつき、(1)形成されたサブフレームにわたる2次元DCTをサブフレームタイプごとに評価することによって、且つ(2)所与のしきい値Tについて、Tよりも大きい0でない変換係数の数を最小限にするサブフレームタイプを選択することによって、行われる。さらに別の実施形態では、ピクセルに対するサブフレームタイプの選択は、選択された各ピクセルにつき、全てのワープ行にわたって平均されたピクセル値のワープ行分散を最小限にするサブフレームタイプを選択することによって行われる。さらに別の実施形態では、ピクセルに対するサブフレームタイプの選択は、K×Lピクセルのブロックに対して、サブフレームタイプに対する各ピクセル票(vote)(全てのワープ行にわたって平均されたピクセル値のワープ行分散を最小限にするサブフレームタイプに基づく)を有することによって、且つ、K×Lブロック中の全てのピクセルについて票が最も多いサブフレームタイプを選択することによって行われ、ここで、K及びLは、0よりも大きい任意の整数とすることができる。一実施形態では、K及びLは、全て4に設定される。さらに別の実施形態では、ピクセルに対するサブフレームタイプの選択は、各ピクセルにつき、K×Lピクセルのブロックを形成し、このブロックに対して上記投票方式を使用してサブフレームタイプを選択することによって行われる。各ケースで、選択されたサブフレームタイプは、現在ピクセルに使用される。したがって、各マスクに対するこれらの測定された統計のうちの1つを使用して、サブフレームの選択が実施される。
[0023]図3に示すマスク以外のマスクを使用してもよいことに留意されたい。
[0024]図5は、サブフレーム選択処理の一実施形態の流れ図である。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0025]図5を参照すると、プロセスは、処理ロジックが、フレームxを受け取り、サブフレームがピクセル適応であるかどうか判定することによって開始する(処理ブロック501)。サブフレームがピクセル適応でない場合は、処理ロジックは、全てのピクセルに対して通常サブフレームタイプを選択する(処理ブロック502)。フレームxのサブフレームがピクセル適応である場合は、処理ロジックは、各ピクセルにつき、ワープ行分散を最小限にするサブフレームタイプをマークする(処理ブロック503)。これは、前述のようにサブフレームタイプのライブラリ(510)を使用して行われる。したがって、各ピクセルにつき、サブフレームタイプのライブラリのうち、ワープ行分散を最小限にするサブフレームタイプがマークされる。
[0026]次に、処理ロジックは、選択がブロックベースであるかどうか判定する(処理ブロック504)。選択がブロックベースであると処理ロジックが判定した場合は、処理ロジックは、各ブロック中で、各サブフレームタイプをマークしたピクセルの数をカウントし(処理ブロック506)、ブロック中の全てのピクセルに対して、そのブロック中で最も多くのピクセルによってマークされたサブフレームタイプを選択する(処理ブロック507)。言い換えれば、選択がブロックベースの場合、ブロック中の最も多くのピクセルによってマークされたサブフレームタイプが、そのブロック中の全てのピクセルに対して選択される。選択がブロックベースでないと処理ロジックが判定した場合は、処理ロジックは、各ピクセルに対して、そのピクセルによってマークされたサブフレームタイプを選択する(処理ブロック505)。言い換えれば、各ピクセルは、それ自体によってマークされたサブフレームタイプを選択する。
[0027]各ピクセルに対するサブフレームタイプの選択は、ベクトルOP内で信号伝達することができる。
[0028]サブフレームタイプsを使用してベクトル

が形成され、ここで、mは整数であり、

は、全ての要素が1に等しいM×1ベクトルである。処理ロジックはまた、

の要素に対応する位置における過去の出力フレーム

のピクセル値を用いて、

(やはりサブフレームである)で示されるM×1ベクトルも形成する(処理ブロック203)。
[0029]mの選択は、いくつかの異なる方式で行うことができる。代替実施形態では、mの選択は、以下の方法のうちの1つで実施される。
i.m=i
ii.全ての可能な値から、z

との間のp−ノルム(p≧0)である

が最小限になるようなmを選択する。
iii.上記「ii」に基づいてmを選択するが、探索セットを{j:j=i+j+W×j}に制限し、ここで、Wはフレーム

の幅であり、j,j∈{−J,−(J−1),...,−1,0,1,...,J−1,J}である。Jは、0以上の任意の整数である。一実施形態では、オプション「iii」が使用されるときは、Jの値は2に設定され、2−ノルムが使用される。
iv.上記「iii」に基づいてmを計算し、値k=k+W×kをmに加える。ここで、Wはフレーム

の幅であり、k,kは、セット{−K,−(K−1),...,−1,0,1,...,K−1,K}からのランダム生成された値である。Kは、0以上の任意の整数である。
の選択は、ベクトルOP内で信号伝達することができる。
[0030]別の実施形態では、強度補償や非線形予測フィルタなど(ただしこれらに限定されない)の技法を使用して過去の出力フレーム

が処理されて、例えば輝度変化や場面フェードなどの問題が補償された後で、サブフレーム

が形成される。
[0031]図6は、過去の出力フレームからのサブフレーム形成プロセスの一実施形態の流れ図である。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0032]図6を参照すると、プロセスは、処理ロジックが探索セット{m,m,...}を使用することによって開始し、各値mにつき、以下の式に従って

を計算する(処理ブロック601)。

[0033]次に、処理ロジックは、

を使用して、フレーム

からサブフレーム

を形成する(処理ブロック602)。次いで処理ロジックは、各jにつき、p−ノルム

を計算する(処理ブロック603)。
[0034]p−ノルムを計算した後、処理ロジックは、最小のp−ノルムを与えるようなmを選択する。mをmに等しく設定し、式

に従って

を設定し、

を使用してサブフレーム

を形成する(処理ブロック604)。
空間変換の選択及び適用
[0035]図2の処理ブロック204の一部として、処理ロジックはまた、空間変換の選択及び適用を実施する。より具体的には、処理ロジックは、ピクセル適応ワープ空間変換Hを使用して、サブフレームz及び

を、e及び

にそれぞれ変換する。この変換は「ワープ」と呼ばれる。その理由は、変換基底のサポートが、サブフレーム形状に合致するようにワープしたからである。この変換はピクセル適応と呼ばれる。その理由は、サブフレームタイプの選択がピクセルごとに異なることに加えて、異なるピクセルにおいてピボットされるサブフレームが、異なる変換を使用することができるからである。変換Hは、分離DCT、非分離DCT、2次元ガボールウェーブレット、ステアラブル(Steerable)ピラミッド、2次元有向ウェーブレット、カーブレット(Curvelet)、及びコンタレット(Contourlet)などの、変換のライブラリから選択することができる。一実施形態では、使用される空間変換は、非適応方式の正規直交分離2次元DCTである。別の実施形態では、使用される空間変換は、非適応方式の正規直交分離2次元アダマール変換である。
[0036]分離変換は、ワープされた後で非分離になることに留意されたい。変換の選択は、アプリオリに固定されていてもよく、或いは、異なるピクセルにおいてピボットされる異なるサブフレームに対して適応的であってもよい。適応の場合、選択される変換は、絶対値がマスタしきい値

よりも大きいe中の係数の数が最も少ない変換である。
[0037]図7に、サブフレームに対する空間変換選択プロセスの一実施形態の流れ図を示す。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0038]図7を参照すると、プロセスは、変換がピクセル適応であるかどうかを処理ロジックがテストすることによって開始する(処理ブロック701)。このテストは、リストを参照することによって実施することができる。一実施形態では、リストは、変換が非適応であるようなリストとすることができる。別の実施形態では、リストは、ベクトルOP内で信号伝達することができる。変換がピクセル適応でないと処理ロジックが判定した場合は、処理ロジックは、変換Hとして使用するための2次元正規直交分離DCTを選択し、変換をサブフレームzに適用することによって変換係数eを生成し、変換をサブフレーム

に適用することによって変換係数

を生成する(処理ブロック702)。
[0039]変換がピクセル適応であると処理ロジックが判定した場合は、処理ロジックは、変換のライブラリ{H,H,....}(処理ブロック704)中の各変換Hにつき、以下の式
=H×z
を使用して変換係数eを計算する(処理ブロック703)。変換係数eは、変換Hに対応する。
[0040]次に、処理ロジックは、各jにつき、絶対値がしきい値

よりも大きいe中の係数の数をカウントし(処理ブロック705)、最少カウントの変換Hを変換のライブラリから選択し、変換Hを、最少カウントに対応する変換(H)に等しく設定し、次いで、係数eを変換係数eに等しく設定し、変換Hをサブフレーム

に適用することによって変換係数

を生成する(処理ブロック706)。
[0041]空間変換の選択は、ベクトルOP内で信号伝達することができる。
しきい値処理
[0042]図2の処理ブロック204の一部として、処理ロジックはまた、しきい値処理を実施する。より具体的には、処理ロジックは、eの選択された要素に適応しきい値

を適用してaを得る。一実施形態では、eの全ての要素が選択される。別の実施形態では、第1の要素(通常はDC要素)を除いた全ての要素が選択される。さらに別の実施形態では、どの要素も選択されない。変換係数eはまた、マスタしきい値

を使用してしきい値処理されて、

が得られる。しきい値処理操作は、例えばハードしきい値処理及びソフトしきい値処理など、様々な方法で行うことができる。ハードしきい値処理操作は、

として定義され、ここで、Tは、使用されるしきい値である。同様に、Tをしきい値とするソフトしきい値処理操作は、以下のように定義される。

代替実施形態では、しきい値

が、以下の方法のうちの1つで計算される。

ここで、f( )は関数を表す。

ここで、f( )は関数を表す。

関数f( )は、図11に示すような単調減少階段関数である。一実施形態では、関数のステップ位置(f,f,...,f及びE,E,...,E)が訓練セットに対して調整されて、再構築画像/ビデオ品質における局所最適が達成される。一実施形態では、このしきい値計算は、ハードしきい値処理で使用される。
(6)

の可能な値に対して探索を実施して、

であるようなa中の0でない要素の数を最小限にする。Elocalはサイド情報の一部とすることができ、或いはデフォルト値を使用してもよい。これは、アルゴリズムに関する設定と見なすことができる。一実施形態では、デフォルト値は、訓練セットに対して調整して、再構築画像/ビデオ品質における局所最適を達成する値を選択することによって、得ることができる。
(7)

の可能な値に対してジョイント探索を実施して、

であるような、全てのk∈{1,2,...,N}にわたって合計されたa中の0でない要素の総数を最小限にする。Eglobalはサイド情報の一部とすることができ、或いはデフォルト値を使用してもよい。これは、アルゴリズムに関する設定と見なすことができる。一実施形態では、デフォルト値は、訓練セットに対して調整して、再構築画像/ビデオ品質における局所最適を達成する値を選択することによって、得ることができる。

の値は、ベクトルOP内で信号伝達することができる。別の実施形態では、

を計算するのに使用されるオプションの選択を、ベクトルOP内で信号伝達することができる。
[0043]

の選択された要素に適応しきい値

が適用されて、

が得られる。一実施形態では、

の全ての要素が選択される。別の実施形態では、第1の要素(通常はDC要素)を除いた全ての要素が選択される。さらに別の実施形態では、どの要素も選択されない。変換係数

はまた、マスタしきい値

を使用してしきい値処理されて、

が得られる。しきい値処理操作は、前述のハードしきい値処理及びソフトしきい値処理など、様々な方法で行うことができる。
[0044]代替実施形態では、しきい値

は、以下の方法のうちの1つで計算される。

ここで、f( )は関数を表す。

ここで、f( )は関数を表す。

関数f( )は、図11に示すような単調減少階段関数である。関数のステップ位置(f,f,...,f及びE,E,...,E)が訓練セットに対して調整されて、局所最適が達成される。一実施形態では、このしきい値計算が使用され、ハードしきい値処理がしきい値処理操作に使用される。
(6)

の可能な値に対して探索を実施して、

であるような

中の0でない要素の数を最小限にする。Elocalはサイド情報の一部とすることができ、或いはデフォルト値を使用してもよい。これは、アルゴリズムに関する設定と見なすことができる。一実施形態では、デフォルト値は、訓練セットに対して調整して、再構築画像/ビデオ品質における局所最適を達成する値を選択することによって、得ることができる。
(7)

の可能な値に対してジョイント探索を実施して、

であるような、全てのk∈{1,2,...,N}にわたって合計された

中の0でない要素の総数を最小限にする。Eglobalはサイド情報の一部とすることができ、或いはデフォルト値を使用してもよい。これは、アルゴリズムに関する設定と見なすことができる。一実施形態では、デフォルト値は、訓練セットに対して調整して、再構築画像/ビデオ品質における局所最適を達成する値を選択することによって、得ることができる。
一実施形態では、

の値は、ベクトルOP内で信号伝達される。別の実施形態では、

を計算するのに使用されるオプションの選択が、ベクトルOP内で信号伝達される。
時間変換の選択及び適用
[0045]処理ブロック205で、処理ロジックは、しきい値処理の結果、すなわちベクトルa及び

を使用して、M×2行列

を形成する。本明細書において、関数h( )は、輝度変化に合致するための、

の全ての要素の恒等関数若しくは単純な線形スケーリング、又は、フェードなどのより複雑な場面特性を取り込むためのより一般的な関数とすることができる。処理ロジックは、ピクセル適応時間変換Gを使用して、

をbに変換する。

変換Gは、変換のライブラリから選択することができる。変換は、ピクセル適応と呼ばれる。その理由は、異なるピクセルにおいてピボットされるサブフレームが、異なる変換を使用することができるからである。適応の場合、選択される変換は、絶対値がマスタしきい値

よりも大きいb中の係数の数が最も少ない変換である。
[0046]図8は、時間変換選択プロセスの一実施形態の流れ図である。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0047]図8を参照すると、プロセスは、変換がピクセル適応であるかどうかを処理ロジックがテストすることによって開始する(処理ブロック801)。このテストは、リストを参照することによって実施することができる。一実施形態では、リストは、変換が非適応であるようなリストとすることができる。別の実施形態では、リストは、ベクトルOP内で信号伝達することができる。変換がピクセル適応でないと処理ロジックが判定した場合は、処理ロジックは、デフォルト時間変換に基づいて変換Gを選択し、変換Gを行列

に適用することによって変換係数bを生成する(処理ブロック802)。一実施形態では、使用されるデフォルト時間変換はハール変換、すなわち

である。時間変換の選択は、ベクトルOP内で信号伝達することができる。
[0048]変換がピクセル適応であると処理ロジックが判定した場合は、処理ロジックは、変換のライブラリ{G,G,....}(処理ブロック804)中の各変換Gにつき、式

を使用して変換係数bを計算する(処理ブロック803)。
変換係数bは、変換Gに対応する。
[0049]次に、処理ロジックは、各jにつき、絶対値がマスタしきい値

よりも大きいb中の係数の数をカウントし(処理ブロック805)、次いで、最少カウントの変換Gを変換のライブラリから選択し、変換Gを、最少カウントに対応する変換(G)に等しく設定し、次いで、係数bを変換係数bに等しく設定する(処理ブロック806)。
時間変換後のしきい値処理
[0050]変換係数bを生成した後、

を使用して変換係数bがしきい値処理されて、cが得られる(図2の処理ブロック206)。しきい値処理操作は、前述のように、ハードしきい値処理及びソフトしきい値処理など、様々な方法で行うことができる。しきい値処理の選択は、ベクトルOP内で信号伝達することができる。
[0051]一実施形態では、図9に示すようにハードしきい値処理が使用される。図9を参照すると、このハードしきい値処理は、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0052]このハードしきい値処理は、マスタしきい値

及び係数bを入力として使用して、処理ロジックが、各要素bij∈bにつき、以下の式

に従って対応する要素cij∈cを計算することによって開始する(処理ブロック901)。このようにして、処理ロジックは、絶対値がマスタしきい値

よりも小さい全ての係数を0に設定し、これらの係数はcとして記憶される。
[0053]一実施形態では、アプリオリに選択されたbのいくつかの要素は、しきい値処理されず、c中のそれぞれの位置に直接コピーされる。特定の一実施形態では、bの第1の列中の要素はしきい値処理されない。しきい値処理されない要素のセットの選択は、ベクトルOP内で信号伝達することができる。
[0054]一実施形態では、任意選択で、式cij=cij*αj0+αj1を使用して要素cij∈cを向上させ、ここで、パラメータαj0、αj1は訓練セットに対して調整されて、再構築画像/ビデオ品質における局所最適が達成される。このような操作は、図2の処理ブロック206の後に行われることに留意されたい。一実施形態では、これらのパラメータはベクトルOP内で信号伝達することができる。
逆変換
[0055]しきい値処理の後、処理ロジックは、

を使用して係数を逆変換して(時間変換により)、

を得る(処理ブロック207)。処理ロジックはまた、dに逆変換(空間)

を適用して、処理済みサブフレーム

を得る(処理ブロック208)。
[0056]一実施形態では、前の反復によって出力された過去フレームを使用せずに、現在フレームが処理される。この実施形態では、ベクトル

及び、行列

は計算されない。ベクトルdは、d=aとして得られ、dに逆変換(空間)

が適用されて、処理済みサブフレーム

が得られる。
[0057]別の実施形態では、単に直前の過去出力フレーム

を使用するのではなく、画像処理の結果として出力された過去フレームのセット

を使用することができる。NPFが、セット中の過去フレームの数を示すものとする。この場合、セット中の各過去フレームは、前述と同様にして、

の1つの列に貢献する。出力フレーム

は、

の形で第2の列に貢献し、出力フレーム

は、

の形で第3の列に貢献し、以下同様である。一実施形態では、

、b、c、及びdは、サイズM×(NPF+1)であり、Gは、サイズ(NPF+1)×(NPF+1)である。
サブフレームの結合
[0058]しきい値処理された係数に逆変換を適用した後、全ての処理済みサブフレームが重み付き方式で結合されて、フレームyが形成される。一実施形態では、各処理済みサブフレーム

につき、重みwが計算される。代替実施形態では、e及びaに基づく重みが、以下の方法のうちの1つで計算される。
(1) w=1
(2) w=f(e,a) ここで、f( )は関数を表す。
(3) MSEオプション1:

ここで、eminは定数である。
(4) L−pノルム(p≧0)オプション1:

ここで、nminは定数である。
(5) 調整重みオプション1:

ここで、f( )は、セット{1,2,...,M}(

の可能な値のセット)から[0,1]へのマッピングを表す。シミュレーテッドアニーリングなどの最適化アルゴリズムを使用してf( )が調整されて、訓練ビデオのセットに対する最良の性能(PSNRなどのメトリクスを使用して、又は主観的スコアを使用して測定される)が得られる。
(6) 他の実施形態では、b及びcに基づく重み付けのための重みを、以下の方法のうちの1つで計算することができる。
(7) w=f(b,c) ここで、f( )は関数を表す。
(8) MSEオプション2:

ここで、eminは定数である。
(9) L−pノルム(p≧0)オプション2:

ここで、nminは定数である。
(10) 調整重みオプション2:

ここで、f( )は、セット{1,2,...,2M}(

の可能な値のセット)から[0,1]へのマッピングを表す。シミュレーテッドアニーリングなどの最適化アルゴリズムを使用してf( )が調整されて、訓練ビデオのセットに対する最良の性能(PSNRなどのメトリクスを使用して、又は主観的スコアを使用して測定される)が得られる。
マッピングf( )及び計算された重みのうち少なくとも一方は、ベクトルOP内で信号伝達することができる。
[0059]重み付き方式で、処理済みサブフレーム

(全てのピクセルに対応する)が共に結合されてyが形成される。このプロセスの一実施形態を、j番目のピクセルの値であるyについて述べる。
1.y=0及びn=0に設定する。ここで、nは、j番目のピクセルに対する正規化係数である。
2.各処理済みサブフレーム

につき、
a.ピクセルjがpの一部である場合、
i)k=p中のピクセルjのインデックス
ii)

ここで、

は、処理済みサブフレーム

中のピクセルjの値である。
iii)n=n+w
3.
[0060]図10は、全ての処理済みサブフレームを結合してフレームyを形成するプロセスの一実施形態の流れ図である。このプロセスは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム上若しくは専用マシン上で実行されるものなど)、又はこれらの組合せを含むことのできる、処理ロジックによって実施される。
[0061]図10を参照すると、プロセスは、フレームy中の各ピクセルm=1:Nにつき、その値y及びその正規化因子nを0に設定することによって開始する(処理ブロック1001)。次に、処理ロジックは、ピクセルインデックスj及びサブフレームインデックスiを1に初期化する(処理ブロック1002)。
[0062]初期化の後、処理ロジックは、ピクセルj∈pであるかどうか判定する(処理ブロック1003)。そうである場合は、プロセスは処理ブロック1004に移行する。そうでない場合は、プロセスは処理ブロック1005に移行する。
[0063]処理ブロック1004で、一実施形態では、処理ロジックは、

中のピクセルjの値である

を使用して、且つ前述のように重みwを使用して、y及びnを更新する。一実施形態では、重みは、以下に従って計算される。

[0064]処理ブロック1004で、kは、p中のピクセルjのインデックスに等しい。一実施形態では、処理ロジックは、以下の式に基づいてy及びnを更新する。

=n+w
処理ロジックがy及びnを更新した後、プロセスは処理ブロック1005に移行する。
[0065]処理ブロック1005で、処理ロジックは、インデックスi=N、すなわちフレーム中のピクセルの総数であるかどうかチェックする。そうである場合は、プロセスは処理ブロック1007に移行する。そうでない場合は、プロセスは処理ブロック1006に移行する。処理ブロック1006で、インデックスが1つインクリメントされ、プロセスは処理ブロック1003に移行する。
[0066]処理ブロック1007で、処理ロジックは、以下の式に従ってyを更新する。

[0067]yを更新した後、処理ロジックは、インデックスiを1に等しく設定し(処理ブロック1008)、インデックスjがNに等しいかどうかチェックする(処理ブロック1009)。そうである場合は、プロセスは終了する。そうでない場合は、プロセスは処理ブロック1010に移行し、インデックスjが1つインクリメントされる。インデックスjを1つインクリメントした後、プロセスは処理ブロック1003に移行する。
[0068]フレームyは、現在の入力フレームxに対応する出力である。処理すべきフレームがまだある場合、処理ロジックは、現在の入力フレームxを更新し、yを

にコピーし、図2に示すようにプロセスを繰り返す(処理ブロック212)。
[0069]一実施形態では、フレームyは、ピクセル領域又は変換領域においてさらに画像/ビデオ処理を経る。一実施形態では、アンシャープマスキングをフレームyに対して実施して、高周波数ディテールを向上させる。別の実施形態では、サイズP×Pピクセルの複数のブロックがフレームyから形成され、ここでPは整数であり、各P×Pブロックfは、2次元DCTや2次元アダマールなどのブロック変換を経て、別のP×Pブロックhが生成される。P×Pブロックhの要素であるh(i,j)(0≦i,j≦P−1)が処理されて、h(i,j)=h(i,j)*α(i,j)であるような向上P×Pブロック

が形成される。代替実施形態では、以下の方法のうちの1つで向上因子α(i,j)を計算することができる。
a.α(i,j)=α*(i+j)β+α
b.α(i,j)=α*iβ*jδ+α
ここで、パラメータ(α、α、β、及びδ)は訓練セットに対して調整されて、再構築画像/ビデオ品質における局所最適が達成される。一実施形態では、これらのパラメータはベクトルOP内で信号伝達することができる。上記操作は、図2の処理ブロック210の後に行われることに留意されたい。向上P×Pブロックは、逆変換され結合されて、フレームyの向上バージョンが形成される。
代替画像処理実施形態
[0070]代替の一実施形態では、図2に述べたプロセスを修正して、より複雑度の低いアルゴリズムを得ることができ、以下、このアルゴリズムを低複雑度(lower−complexity)技法と呼ぶ。図12に、低複雑度技法をフローチャートによって示す。この実施形態では、フレームyは、現在の入力フレームxに対応する低複雑度技法の出力であり、処理すべきフレームがまだある場合は、現在の入力フレームxを更新し、yを

にコピーし、図12に示すようにプロセスを繰り返す。
[0071]図12を参照すると、プロセスは、処理ロジックが、

であるように、現在の入力フレームx及び過去の出力フレーム

を使用してフレーム

を形成することによって開始し、ここで、w、wは実数であり、mは整数である(処理ブロック1201)。本明細書において、表記(j)は、当該フレーム中のピクセルj(ラスタ走査順に番号が付けられた)の値を示す。例えば、

は、フレーム

の5番目のピクセルの値を表す。一実施形態では、w=0.5であり、w=0.5である。一実施形態では、値w及びwはベクトルOP内で信号伝達される。
[0072]代替実施形態では、mの選択は、以下の方法のうちの1つで行うことができる。
i) m=0
ii) 全ての可能な値から、

のp−ノルム(p≧0)である

が最小限になるようなmを選択する。
iii) 上記「ii」に基づいてmを選択するが、探索セットを{j:j=j+W×j}に制限する。ここで、Wはフレームxの幅であり、j、j∈{−J,−(J−1),...,−1,0,1,...,J−1,J}である。Jは、0以上の任意の整数である。
一実施形態では、mの選択は、ベクトルOP内で信号伝達することができる。
[0073]別の実施形態では、

の代わりに、

の処理済みバージョンを使用して輝度変化や場面フェードなどの問題が補償されて、フレーム

が形成される。この場合、処理は、強度補償及び非線形予測フィルタなどの技法を含むが、これらに限定されない。
[0074]処理ロジックは、pの要素に対応する位置におけるフレームxのピクセル値を用いて、サブフレームと呼ばれるM×1ベクトルzを形成する。ピクセルiは、サブフレームzに対するピボットと呼ばれる(処理ブロック1202)。pの要素に対応する位置におけるフレーム

のピクセル値を用いて、

で示されるM×1ベクトル(やはりサブフレームである)が形成される(処理ブロック1202)。
[0075]処理ロジックは、空間変換Hを選択し、この空間変換をサブフレームz及び

に適用して、ベクトルe及び

をそれぞれ得る(処理ブロック1203)。
[0076]処理ロジックは、前述と同じプロセスを使用して、

から適応しきい値

を計算し、eの選択された要素に適応しきい値

を適用してaを得る(処理ブロック1203)。一実施形態では、eの全ての要素が選択される。別の実施形態では、第1の要素(通常はDC要素)を除いた全ての要素が選択される。しきい値処理操作は、前述のように、ハードしきい値処理及びソフトしきい値処理など、様々な方法で行うことができる。
[0077]eの選択された要素に適応しきい値

を適用した後、処理ロジックは、a、e

を使用して、且つ、しきい値

を使用して、ベクトルdを形成する(処理ブロック1204)。aij、eij

、及びdijが、それぞれベクトルa、e

及びd中のj番目の要素を表すものとし、ここで、j∈{1,2,...,M}である。代替実施形態では、値dijは、以下の方法のうちの1つで計算される。

一実施形態では、dijを計算するのに使用されるオプションの選択が、ベクトルOP内で信号伝達される。
[0078]その後、処理ロジックは、ベクトルdに逆空間変換を適用してサブフレーム

を生成し(処理ブロック1205)、処理ブロックの残り1206、1207、1208、及び1209は、図2中のそれぞれの相当ブロック209、210、211、及び212として作用して、プロセスは完了する。
[0079]前述の各実施形態では、オプショナルパラメータベクトルOP又はその一部を、コーデック、カメラ、超解像度プロセッサなどを含めた(ただしこれらに限定されない)任意のモジュールによって信号伝達することができる。パラメータベクトルを構築するための単純な方法の1つは、次のとおりである。各選択が、ベクトル中の2つの要素を使用して信号伝達される。n番目の選択の場合、OP(2*n)=0で、選択は信号伝達されない、または、OP(2*n)=1で、選択は信号伝達される。このとき、OP(2*n)=選択を表す値、である。OP(2*n)は、OP(2*n−1)=1のときにのみ、設定される必要があり、使用される。
[0080]本明細書に述べた技法を使用して、RGB、YUV、YCbCr、YCoCg、及びCMYKを含めた(ただしこれらに限定されない)任意の色表現のビデオシーケンスを処理することができる。これらの技法は、色表現における、色チャネルの任意のサブセット(空集合又は全てのチャネル集合を含む)に適用することができる。一実施形態では、本明細書に述べた技法を使用して、YUV色表現における「Y」チャネルのみが処理される。U及びVチャネルは、2次元ローパスフィルタ(例えばルガル(Le Gall)5/3ウェーブレットのLL帯域フィルタ)を使用してフィルタリングされる。
[0081]本明細書に述べた技法を使用して、ビデオシーケンス中のフレームの事前選択済みセットのみを処理することができる。一実施形態では、1つおきのフレームが処理される。別の実施形態では、ビデオシーケンスの1つ又は複数の区分に属する全てのフレームが処理される。処理のために選択されたフレームのセットは、OP内で信号伝達することができる。
[0082]本明細書に述べた技法を圧縮/非圧縮ビデオシーケンスに適用することに加えて、これらの技法はまた、非線形雑音除去フィルタなどの事後処理を経た圧縮ビデオシーケンスに適用することもできる。さらに、これらの技法は、低解像度の圧縮/非圧縮ビデオシーケンスを超解像することによって得られるビデオシーケンスに適用することもできる。これらの技法はまた、フレームレート変換モジュールによってすでに処理されたか又はこれから処理されることになるビデオシーケンスに適用することもできる。
コンピュータシステムの例
[0083]図14は、本明細書に述べた操作の1つ又は複数を実施することのできる例示的なコンピュータシステムのブロック図である。図14を参照すると、コンピュータシステム1400は、例示的なクライアント又はサーバコンピュータシステムを含むことができる。コンピュータシステム1400は、情報を通信するための通信機構又はバス1411と、情報を処理するための、バス1411に結合されたプロセッサ1412とを備える。プロセッサ1412は、マイクロプロセッサに限定されないが、例えばペンティアム(登録商標)(Pentium(登録商標))、パワーPC(登録商標)(PowerPC(登録商標))、アルファ(登録商標)(Alpha(登録商標))などのマイクロプロセッサを含む。
[0084]システム1400はさらに、情報、及びプロセッサ1412によって実行される命令を記憶するための、バス1411に結合されたランダムアクセスメモリ(RAM)又は他の動的記憶デバイス1404(メインメモリと呼ばれる)を備える。メインメモリ1404は、プロセッサ1412による命令の実行中に一時変数又は他の中間情報を記憶するのに使用することもできる。
[0085]コンピュータシステム1400は、また、プロセッサ1412のための静的情報及び命令を記憶するための、バス1411に結合された読取専用メモリ(ROM)及び他の静的記憶デバイスの少なくとも一方を含む静的記憶デバイス1406と、磁気ディスク又は光学ディスク及びそれに対応するディスクドライブなどのデータ記憶デバイス1407とを備える。データ記憶デバイス1407は、情報及び命令を記憶するためにバス1411に結合される。
[0086]コンピュータシステム1400はさらに、情報をコンピュータユーザに対して表示するための、バス1411に結合された陰極線管(CRT)や液晶表示装置(LCD)などの表示デバイス1421に結合させることができる。情報及びコマンド選択をプロセッサ1412に通信するために、文字数字キー及び他のキーを備える文字数字入力デバイス1422をバス1411に結合させることもできる。追加のユーザ入力デバイスは、方向情報及びコマンド選択をプロセッサ1412に通信するため、及び表示装置1421上のカーソル移動を制御するための、バス1411に結合されたマウス、トラックボール、トラックパッド、スタイラス、又はカーソル方向キーなどのカーソルコントロール1423である。
[0087]バス1411に結合させることのできる別のデバイスは、ハードコピーデバイス1424であり、これは、紙、フィルム、又は類似のタイプの媒体上に情報を記すのに使用することができる。バス1411に結合させることのできる別のデバイスは、電話機又はハンドヘルドパームデバイスへの通信のための、有線/ワイヤレス通信機能1425である。
[0088]本発明では、システム1400のいずれか又は全てのコンポーネント、及び関連するハードウェアを使用することができることに留意されたい。しかし、コンピュータシステムの他の構成がこれらのデバイスのいくつか又は全てを含むこともできることを理解することができる。
[0089]以上の記述を読んだ後には、本発明の多くの改変及び修正が当業者にはおそらく明らかになるであろうが、例示として図示及び記述したどんな特定の実施形態も、決して限定と見なされるべきものとはしないことを理解されたい。したがって、様々な実施形態の詳細への言及は、特許請求の範囲を限定するものとはせず、特許請求の範囲自体が、本発明に必須であると考えられる特徴のみを列挙する。

Claims (2)

  1. 入力ビデオを受け取るステップと、
    空間処理及び時間処理を使用して前記入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための操作を実施するステップと、
    を含む方法。
  2. 命令を記憶した1つ又は複数のコンピュータ読み取り可能な記憶媒体、を有する製造品であって、
    前記命令は、システムによって当該命令が実行されたとき、
    入力ビデオを受け取るステップと、
    空間処理及び時間処理を使用して前記入力ビデオ内の雑音とちらつきのうち一方又は両方を低減するための操作を実施するステップと、
    を含む方法を、前記システムに実行させる、製造品。
JP2010545258A 2008-02-05 2009-02-02 空間処理及び時間処理を用いた、ビデオシーケンス中の雑音及びちらつきの少なくとも一方の低減 Active JP5419897B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US2645308P 2008-02-05 2008-02-05
US61/026,453 2008-02-05
US12/233,468 US8731062B2 (en) 2008-02-05 2008-09-18 Noise and/or flicker reduction in video sequences using spatial and temporal processing
US12/233,468 2008-09-18
PCT/US2009/032888 WO2009100032A1 (en) 2008-02-05 2009-02-02 Noise and/or flicker reduction in video sequences using spatial and temporal processing

Publications (2)

Publication Number Publication Date
JP2011512086A true JP2011512086A (ja) 2011-04-14
JP5419897B2 JP5419897B2 (ja) 2014-02-19

Family

ID=40931208

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2010545259A Active JP5517954B2 (ja) 2008-02-05 2009-02-02 変換の高速でメモリ効率の良い実施のための方法
JP2010545258A Active JP5419897B2 (ja) 2008-02-05 2009-02-02 空間処理及び時間処理を用いた、ビデオシーケンス中の雑音及びちらつきの少なくとも一方の低減
JP2014018738A Active JP5734475B2 (ja) 2008-02-05 2014-02-03 変換の高速でメモリ効率の良い実施のための方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010545259A Active JP5517954B2 (ja) 2008-02-05 2009-02-02 変換の高速でメモリ効率の良い実施のための方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2014018738A Active JP5734475B2 (ja) 2008-02-05 2014-02-03 変換の高速でメモリ効率の良い実施のための方法

Country Status (6)

Country Link
US (2) US8731062B2 (ja)
EP (2) EP2243298B1 (ja)
JP (3) JP5517954B2 (ja)
KR (2) KR101291869B1 (ja)
CN (2) CN102378978B (ja)
WO (2) WO2009100034A2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311088B2 (en) * 2005-02-07 2012-11-13 Broadcom Corporation Method and system for image processing in a microprocessor for portable video communication devices
US8305497B2 (en) * 2007-07-27 2012-11-06 Lsi Corporation Joint mosquito and aliasing noise reduction in video signals
US8731062B2 (en) 2008-02-05 2014-05-20 Ntt Docomo, Inc. Noise and/or flicker reduction in video sequences using spatial and temporal processing
JP4801186B2 (ja) * 2009-04-23 2011-10-26 株式会社エヌ・ティ・ティ・ドコモ 画像処理装置、画像処理方法および画像処理プログラム
KR101682147B1 (ko) * 2010-04-05 2016-12-05 삼성전자주식회사 변환 및 역변환에 기초한 보간 방법 및 장치
EP2442567A1 (en) * 2010-10-14 2012-04-18 Morpho Inc. Image Processing Device, Image Processing Method and Image Processing Program
FR2978273B1 (fr) * 2011-07-22 2013-08-09 Thales Sa Procede de reduction du bruit dans une sequence d'images fluoroscopiques par filtrage temporel et spatial
EA017302B1 (ru) * 2011-10-07 2012-11-30 Закрытое Акционерное Общество "Импульс" Способ подавления шума серий цифровых рентгенограмм
US9924200B2 (en) 2013-01-24 2018-03-20 Microsoft Technology Licensing, Llc Adaptive noise reduction engine for streaming video
US9357236B2 (en) * 2014-03-13 2016-05-31 Intel Corporation Color compression using a selective color transform
US9939253B2 (en) * 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US10102613B2 (en) * 2014-09-25 2018-10-16 Google Llc Frequency-domain denoising
CN106028014B (zh) * 2016-05-27 2017-12-08 京东方科技集团股份有限公司 一种校正视频闪烁的方法及设备
EP3557484B1 (en) * 2016-12-14 2021-11-17 Shanghai Cambricon Information Technology Co., Ltd Neural network convolution operation device and method
TWI748035B (zh) * 2017-01-20 2021-12-01 日商半導體能源硏究所股份有限公司 顯示系統及電子裝置
CN106791283B (zh) * 2017-01-25 2019-11-19 京东方科技集团股份有限公司 一种校正视频闪烁的方法、装置及视频设备
US11134272B2 (en) * 2017-06-29 2021-09-28 Qualcomm Incorporated Memory reduction for non-separable transforms
KR102444054B1 (ko) 2017-09-14 2022-09-19 삼성전자주식회사 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
EP4274207A4 (en) 2021-04-13 2024-07-10 Samsung Electronics Co Ltd ELECTRONIC DEVICE AND ITS CONTROL METHOD
CN114020211B (zh) * 2021-10-12 2024-03-15 深圳市广和通无线股份有限公司 存储空间管理方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63260277A (ja) * 1987-04-16 1988-10-27 Victor Co Of Japan Ltd 動き適応形画質改善装置
JPH0723926A (ja) * 1993-07-09 1995-01-27 Hitachi Ltd 動画像の画質改善方法
JP2002238049A (ja) * 2000-11-27 2002-08-23 Sony Internatl Europ Gmbh 符号化歪み低減方法
JP2003134352A (ja) * 2001-10-26 2003-05-09 Konica Corp 画像処理方法及び装置並びにプログラム
WO2006031214A1 (en) * 2004-09-09 2006-03-23 Silicon Optix Inc. System and method for representing a general two dimensional spatial transformation
JP2007017905A (ja) * 2005-07-11 2007-01-25 Ntt Docomo Inc 信号符号化装置、信号復号化装置、信号符号化方法、及び信号復号化方法。
JP2007049664A (ja) * 2005-07-15 2007-02-22 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラム及び情報記録媒体
JP2007329528A (ja) * 2006-06-06 2007-12-20 Sony Corp 動きベクトル復号化方法および復号化装置

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4447886A (en) * 1981-07-31 1984-05-08 Meeker G William Triangle and pyramid signal transforms and apparatus
US4442454A (en) * 1982-11-15 1984-04-10 Eastman Kodak Company Image processing method using a block overlap transformation procedure
JPH01201773A (ja) * 1988-02-05 1989-08-14 Matsushita Electric Ind Co Ltd ディジタル信号処理装置
JPH0379182A (ja) * 1989-08-23 1991-04-04 Fujitsu Ltd 画像符号化制御方式
JP3302731B2 (ja) 1992-06-02 2002-07-15 大日本印刷株式会社 画像拡大方法
JP3392946B2 (ja) * 1993-07-15 2003-03-31 ペンタックス株式会社 電子スチルカメラ及び画像再生装置
US5666163A (en) * 1994-07-12 1997-09-09 Sony Corporation Electronic image resolution enhancement by frequency-domain extrapolation
JPH08294001A (ja) 1995-04-20 1996-11-05 Seiko Epson Corp 画像処理方法および画像処理装置
JP3378167B2 (ja) 1997-03-21 2003-02-17 シャープ株式会社 画像処理方法
US5859788A (en) * 1997-08-15 1999-01-12 The Aerospace Corporation Modulated lapped transform method
US6438275B1 (en) * 1999-04-21 2002-08-20 Intel Corporation Method for motion compensated frame rate upsampling based on piecewise affine warping
AUPQ156299A0 (en) * 1999-07-12 1999-08-05 Canon Kabushiki Kaisha Method and apparatus for discrete wavelet transforms and compressed bitstream ordering for block entropy coding of subband image data
KR100327385B1 (en) 2000-07-18 2002-03-13 Lg Electronics Inc Spatio-temporal three-dimensional noise filter
US6898323B2 (en) * 2001-02-15 2005-05-24 Ricoh Company, Ltd. Memory usage scheme for performing wavelet processing
JP3887178B2 (ja) * 2001-04-09 2007-02-28 株式会社エヌ・ティ・ティ・ドコモ 信号符号化方法及び装置並びに復号方法及び装置
US7206459B2 (en) * 2001-07-31 2007-04-17 Ricoh Co., Ltd. Enhancement of compressed images
US7120308B2 (en) * 2001-11-26 2006-10-10 Seiko Epson Corporation Iterated de-noising for image recovery
WO2003090028A2 (en) * 2002-04-19 2003-10-30 Droplet Technology, Inc. Wavelet transform system, method and computer program product
US7940844B2 (en) * 2002-06-18 2011-05-10 Qualcomm Incorporated Video encoding and decoding techniques
JP3902990B2 (ja) * 2002-07-02 2007-04-11 キヤノン株式会社 アダマール変換処理方法及びその装置
US20050030393A1 (en) * 2003-05-07 2005-02-10 Tull Damon L. Method and device for sensor level image distortion abatement
US7352909B2 (en) * 2003-06-02 2008-04-01 Seiko Epson Corporation Weighted overcomplete de-noising
US20050105817A1 (en) 2003-11-17 2005-05-19 Guleryuz Onur G. Inter and intra band prediction of singularity coefficients using estimates based on nonlinear approximants
KR100564592B1 (ko) 2003-12-11 2006-03-28 삼성전자주식회사 동영상 데이터 잡음제거방법
GB2415876B (en) * 2004-06-30 2007-12-05 Voxar Ltd Imaging volume data
WO2006010276A1 (en) * 2004-07-30 2006-02-02 Algolith Inc Apparatus and method for adaptive 3d artifact reducing for encoded image signal
US7554611B2 (en) * 2005-04-19 2009-06-30 Samsung Electronics Co., Ltd. Method and apparatus of bidirectional temporal noise reduction
US8050331B2 (en) 2005-05-20 2011-11-01 Ntt Docomo, Inc. Method and apparatus for noise filtering in video coding
US20060288065A1 (en) * 2005-06-17 2006-12-21 Docomo Communications Laboratories Usa, Inc. Method and apparatus for lapped transform coding and decoding
US20070074251A1 (en) * 2005-09-27 2007-03-29 Oguz Seyfullah H Method and apparatus for using random field models to improve picture and video compression and frame rate up conversion
US8135234B2 (en) 2006-01-31 2012-03-13 Thomson Licensing Method and apparatus for edge-based spatio-temporal filtering
US20080007649A1 (en) * 2006-06-23 2008-01-10 Broadcom Corporation, A California Corporation Adaptive video processing using sub-frame metadata
US8385424B2 (en) * 2006-06-26 2013-02-26 Qualcomm Incorporated Reduction of errors during computation of inverse discrete cosine transform
CN100454972C (zh) 2006-12-28 2009-01-21 上海广电(集团)有限公司中央研究院 一种视频图像3d降噪方法
US8743963B2 (en) * 2007-08-13 2014-06-03 Ntt Docomo, Inc. Image/video quality enhancement and super-resolution using sparse transformations
US20090060368A1 (en) * 2007-08-27 2009-03-05 David Drezner Method and System for an Adaptive HVS Filter
US8731062B2 (en) 2008-02-05 2014-05-20 Ntt Docomo, Inc. Noise and/or flicker reduction in video sequences using spatial and temporal processing

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63260277A (ja) * 1987-04-16 1988-10-27 Victor Co Of Japan Ltd 動き適応形画質改善装置
JPH0723926A (ja) * 1993-07-09 1995-01-27 Hitachi Ltd 動画像の画質改善方法
JP2002238049A (ja) * 2000-11-27 2002-08-23 Sony Internatl Europ Gmbh 符号化歪み低減方法
JP2003134352A (ja) * 2001-10-26 2003-05-09 Konica Corp 画像処理方法及び装置並びにプログラム
WO2006031214A1 (en) * 2004-09-09 2006-03-23 Silicon Optix Inc. System and method for representing a general two dimensional spatial transformation
JP2007017905A (ja) * 2005-07-11 2007-01-25 Ntt Docomo Inc 信号符号化装置、信号復号化装置、信号符号化方法、及び信号復号化方法。
JP2007049664A (ja) * 2005-07-15 2007-02-22 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラム及び情報記録媒体
JP2007329528A (ja) * 2006-06-06 2007-12-20 Sony Corp 動きベクトル復号化方法および復号化装置

Also Published As

Publication number Publication date
JP5517954B2 (ja) 2014-06-11
EP2243298B1 (en) 2021-10-06
EP2240869B1 (en) 2019-08-07
KR20100114068A (ko) 2010-10-22
WO2009100034A3 (en) 2012-11-01
KR101291869B1 (ko) 2013-07-31
CN101933330B (zh) 2013-03-13
KR101137753B1 (ko) 2012-04-24
JP5419897B2 (ja) 2014-02-19
JP2014112414A (ja) 2014-06-19
JP5734475B2 (ja) 2015-06-17
WO2009100034A2 (en) 2009-08-13
EP2243298A1 (en) 2010-10-27
US8837579B2 (en) 2014-09-16
CN101933330A (zh) 2010-12-29
CN102378978B (zh) 2015-10-21
JP2011527033A (ja) 2011-10-20
CN102378978A (zh) 2012-03-14
KR20100112162A (ko) 2010-10-18
WO2009100032A1 (en) 2009-08-13
US20090195697A1 (en) 2009-08-06
US8731062B2 (en) 2014-05-20
EP2240869A2 (en) 2010-10-20
US20090195535A1 (en) 2009-08-06

Similar Documents

Publication Publication Date Title
JP5419897B2 (ja) 空間処理及び時間処理を用いた、ビデオシーケンス中の雑音及びちらつきの少なくとも一方の低減
CN114140353B (zh) 一种基于通道注意力的Swin-Transformer图像去噪方法及系统
Heckel et al. Deep decoder: Concise image representations from untrained non-convolutional networks
Yu et al. A unified learning framework for single image super-resolution
US8743963B2 (en) Image/video quality enhancement and super-resolution using sparse transformations
JP4920599B2 (ja) ハイブリッドビデオ圧縮の量子化雑音除去用の非線形ループ内デノイズフィルタ
CN101959008B (zh) 用于图像和视频处理的方法和装置
JP5331486B2 (ja) デジタル画像の解像度向上方法及び装置
US20090185078A1 (en) Systems and methods for video processing based on motion-aligned spatio-temporal steering kernel regression
CN111866521A (zh) 一种运动补偿和生成式对抗网络结合的视频图像压缩伪影去除方法
CN108765330B (zh) 基于全局和局部先验联合约束的图像去噪方法和装置
CN111369466B (zh) 基于可变形卷积的卷积神经网络的图像畸变矫正增强方法
JP2011524714A (ja) スパース変換を使用する画像/ビデオ品質向上及び超解像
CN112270646B (zh) 基于残差密集跳跃网络的超分辨增强方法
CN114820352A (zh) 一种高光谱图像去噪方法、装置及存储介质
CN115809966A (zh) 一种低照度图像的增强方法和系统
CN115082296B (zh) 一种基于小波域图像生成框架的图像生成方法
Sadaka et al. Efficient super-resolution driven by saliency selectivity
Krishna et al. A Trained CNN based Resolution Enhancement of Digital Images
Ramsook et al. A differentiable VMAF proxy as a loss function for video noise reduction
CN114998138B (zh) 一种基于注意力机制的高动态范围图像去伪影方法
WO2023044653A1 (zh) 一种显示设备系统及自适应增强画质的方法
Chen et al. A new framework based on spatio-temporal information for enhancing compressed video
Koh et al. 60‐2: Self‐supervised Perceptual Motion Deblurring using a Conditional Generative Neural Network Guided by Optical Flow
Jagdale et al. Video resolution enhancement and quality assessment strategy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131119

R150 Certificate of patent or registration of utility model

Ref document number: 5419897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250