JP2001527305A - 画像中ノイズの周波数依存度およびグレーレベル依存度の推定 - Google Patents

画像中ノイズの周波数依存度およびグレーレベル依存度の推定

Info

Publication number
JP2001527305A
JP2001527305A JP2000525858A JP2000525858A JP2001527305A JP 2001527305 A JP2001527305 A JP 2001527305A JP 2000525858 A JP2000525858 A JP 2000525858A JP 2000525858 A JP2000525858 A JP 2000525858A JP 2001527305 A JP2001527305 A JP 2001527305A
Authority
JP
Japan
Prior art keywords
noise
image
spatial
replacement data
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000525858A
Other languages
English (en)
Inventor
スティーブン アール. リューマン,
Original Assignee
ポラロイド コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=25543338&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2001527305(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ポラロイド コーポレイション filed Critical ポラロイド コーポレイション
Publication of JP2001527305A publication Critical patent/JP2001527305A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 未知のデジタル画像取得デバイスから取得される画像に関連する空間ノイズ特性を推定することが、未知のデジタル画像取得デバイスの所定のデフォルト空間ノイズ特性情報を供給し、未知のデジタル画像取得デバイスの空間ノイズ特性に関連するユーザ情報を収集し、取得された画像から未知のデジタル画像取得デバイスの空間ノイズ特性に関連する画像データを収集し、ユーザ情報および画像データに応答して置換データを生成し、置換データで所定のデフォルト空間ノイズ特性情報を更新する、方法またはシステムにより達成される。

Description

【発明の詳細な説明】
【0001】 (発明の背景) 本発明は、一般に画像送り側デバイスによってもたらされるノイズの周波数依
存度およびグレーレベル依存度を推定するための、より詳細には、送り側デバイ
スによってもたらされたノイズを示す空間デバイスプロフィルを生成するための
デジタル画像処理システムおよび方法に関する。
【0002】 本明細書中において、入力「デバイス」とは、スキャナまたはカメラなどの個
々のハードウェアであり得るが、画像を受信し、ノイズを発生または伝播する恐
れのある何らかの方法でその画像を変換し、そしてその画像を出力するものであ
ればいずれの抽象的な入力デバイスでもよい。そのような抽象的なデバイスはい
ずれも、色特性−デバイス中で起こる入力値(例えば、rgb三原色)の点変換
−および空間特性−出力画像中の各値が入力画像中の隣接点の近傍に依存し得る
デバイス変換、を有する。
【0003】デバイス色特性 色特性情報を特定のデバイスと関連づけるため一般的な技術の1つは、色プロ
フィルを使用して行われる。デバイス色プロフィルは、Internation
al Color Consortium(ICC)・Profile For
mat Specification、第3.3版、1996年11月11日、
101頁における「a digital representaion of
the relation between device coordina
tes and a device‐independent specifi
cation of color」として、規格化および定義される。上記参考
文献は全体にわたり、本発明の用途を理解する際に不可欠ではないが役に立つ補
足的な背景情報となるよう本明細書中において参考として援用される。
【0004】 ICCは、色プロフィルの5つの大きなクラスを定義する:デバイスプロフィ
ル、デバイスリンクプロフィル、カラー空間変換プロフィル、抽象プロフィル、
および指定色プロフィルである。デバイスプロフィルは、さらに入力プロフィル
、出力プロフィル、およびディスプレイプロフィルに分けられる。ICCプロフ
ィルは、タグ付きファイル構造であり、3つの主要部分:ヘッダ、タグテーブル
およびタグ付き要素データを含む。色管理システム(CMS)は、プロフィルヘ
ッダから一般デバイス情報、ファイル情報、およびプロフィル情報を取得し、そ
して処理する。
【0005】デバイス空間特性 画像処理システムの要素の空間特性は、ノイズを示す空間特性関数および対象
デバイスの画像信号変換特性によって表される。実際には、これらの画像変換特
性は、中間階調ウィーナーノイズスペクトル(WNS)、中間階調グレーレベル
において測定された小規模信号変調伝達関数(MTF)、およびノイズの分散が
グレーレベルの関数としてどのように変化するかを示すLUTSによって表され
る。WNSは、ノイズパワーが1次元の空間周波数関数としてどのように変化す
るかを示す1次元ベクトルとして、またはノイズパワーが2次元の空間周波数関
数としてどのように変化するかを示す2次元行列として表され得る。2次元ノイ
ズパワー行列は、本出願において「ノイズマスク」と称され得る。1995年5
月15日付け出願の米国特許出願第08/440、639号は、ピラミッド画像
においてウィーナー変形フィルタを使用したノイズ低減に関する。上記参考文献
は全体にわたり、本発明の用途を理解する際に不可欠ではないが役に立つ補足的
な背景情報となるよう本明細書中において参考として援用される。
【0006】 プロフィル中に非色空間情報を含めることが、Hultgrenらによる19
96年9月6日付け出願の米国特許出願第08/709、487号において開示
される。上記参考文献は全体にわたり、背景情報となるよう本明細書中において
参考として援用される。例えば、空間情報は、ICCが推奨するプライベート空
間タグによって表され得る。空間タグは、特定の特性関数がどのクラスに属する
か、すなわち、変調伝達関数、1次元ノイズパワースペクトル、2次元ノイズパ
ワースペクトル(本出願において「ノイズマスク」と称す)、または1次元ノイ
ズ分散グレーレベル依存度LUTのいずれに属するか、という情報を含むべきで
ある。スキャナの場合、画像取得中にスキャンされる1インチ当たりのドット数
(DPI)を示すタグが含まれるべきである。タグ付けされたフォーマットはま
た、特性関数の、空間周波数の関連単位および次元をともに識別するための十分
な情報を含むべきである。特性関数の伝播は、モデルの基づく画像処理に関する
範囲内で計算される。
【0007】 本発明のための対象の空間タグは、ノイズのグレーレベル依存度を示す1次元
ノイズ分散LUT、およびノイズの2次元周波数依存度を示す2次元ノイズマス
クを含む。これらの特性関数、およびそれらの空間デバイスプロフィルにおける
空間タグとしてのフォーマットされた対応物は、ノイズ低減画像処理システムの
一部として使用され得る。これは、例えば、前記米国特許出願第08/440、
639号およびWoberらによる1997年11月7日付け出願、米国特許出
願第08/966、140号において記載される。上記参考文献の両方は全体に
わたり、本発明の用途を理解する際に不可欠ではないが役に立つ補足的な背景情
報となるよう本明細書中において参考として援用される。
【0008】 出願第‘639号は、画像信号によって表される画像からノイズを除去するた
めの処理およびシステムを開示する。そのノイズ除去は、画像信号送り側を1次
ノイズモデリングして各チャネル内においてノイズマスクおよびノイズのルック
アップテーブル値特性の両方を生成し、そしてノイズマスクおよびLUT値をノ
イズ除去のために画像信号に適用することによってなされる。画像は、まず画像
信号送り側によって電子的な画像信号としてキャプチャされ、そしてピラミッド
画像表現によって表現される。ピラミッド画像表現によると、1つ前のレベルの
直流(DC)値から各次のレベルのピラミッドが構成され、そして各レベルのピ
ラミッドは、画像信号の異なる周波数帯域に対応する。DCT変換を使用するウ
ィーナー変形フィルタを使用して、各レベルのDCT係数をフィルタリングする
。画像は、DC値を次のレベルの逆離散コサイン変換(IDCT)係数に置換し
、そしてその結果にIDCTを実行することによってノイズを低減して復元され
る。
【0009】 出願第‘140号は、ピクセルの元のアレイに対応する画像を前向き離散偶コ
サイン変換ピラミッドとして構成するための方法およびシステムを開示する。前
向き離散偶コサイン変換ピラミッドは、所定の数のレベルを有し、各レベルは異
なるDCT周波数帯域に関連づけられる。上記方法およびシステムはそれぞれ、
元のアレイを重複するピクセルのブロックに分割する工程または機能;重複する
ピクセルの各ブロックのDCTをとり、DCTピラミッドの第1レベルを形成す
る第1レベルDCT係数のブロックを生成する工程または機能;DCTピラミッ
ドの第1レベルを格納する工程または機能;第1レベルDCT係数の各ブロック
の少なくとも1つの第1レベルDCT係数を第1の一時的アレイに格納する工程
または機能;第1の一時的アレイを重複する係数のブロックに分割する工程また
は機能;および第1の一時的アレイの重複する係数の各ブロックのDCTをとり
、DCTピラミッドの第2レベルを形成する第2レベルDCT係数のブロックを
生成する工程または機能、を含む。前回の工程を繰り返すことによってさらなる
レベルが生成され得る。
【0010】 デジタル処理システムによって画像が格納され得るが、そのデバイスの空間特
性を示すデバイスプロフィルが利用可能でないことがある。画像が通過した送り
側デバイスが不明であったり、またはデバイスプロフィルが利用可能でない場合
、プリンタなどの受け側デバイスへの画像の正確な再生は確実ではない。再生さ
れた画像が元の画像からなるべく変化し得ないように、不明なまたは不完全な空
間情報に対する値を推定しなければならない。
【0011】 (発明の要旨) 本発明の主目的は、入力デバイスのノイズに関連した空間特性、すなわち、そ
のデバイスによってもたらされたノイズが空間周波数およびグレーレベルに対し
てどのように変化するか、の測定があらかじめ構成されたデバイスプロフィルに
おいて利用可能でない場合に、その空間特性を推定することである。本発明のこ
の目的および他の目的は、以下の詳細な説明を添付の図面および付属のクレーム
と併せて読めば当業者に明らかとなり得る。
【0012】 空間ノイズ特性が不明であるデジタル画像取得デバイスから得られた画像に関
連する空間ノイズ特性の推定を、デジタル画像取得デバイスの所定のデフォルト
空間ノイズ特性情報を提供し;デジタル画像取得デバイスの空間ノイズ特性に関
連するユーザ情報を収集し;得られた画像からデジタル画像取得デバイスの空間
ノイズ特性に関連する画像データを収集し;ユーザ情報および画像データに応答
して置換データを生成し;そして所定のデフォルト空間ノイズ特性情報を置換デ
ータで更新する、方法またはシステムによって達成する。
【0013】 (好適な実施形態の詳細な説明) 本発明の前記局面および他の構成は、添付の図面と併せて詳細に記載される。
図面において、同様の要素を示すために同様の参照符号が全体的に使用される。
【0014】 本発明の第1の好適な実施形態は、画像の様々なルミナンスおよびクロミナン
スバンドの特定のグレーレベルで起こるノイズ分散値(すなわち、浮動小数点値
の1次元ベクトル)のルックアップテーブルの生成を含み、次にそれらのLUT
を主題画像を生成した未知の取得デバイスのノイズ分散のグレーレベル依存を概
算する適切な空間プロフィルタグに挿入する。本発明の第2の好適な実施形態は
、1組の空間的な周波数で、画像のノイズブロックの平均パワーに対応するノイ
ズマスク(すなわち、値の2次元のマトリクス)の生成を含み、次にそのノイズ
マスクを主題画像を生成した未知の画像取得デバイスのノイズパワーの周波数依
存性を概算する適切な空間的プロフィルタグに挿入する。
【0015】 本発明は、利用可能な画像からのデバイスの「未知の」または不完全の空間的
ノイズ特性を推定することに向けられる。本明細書の「未知の」という言葉は、
画像処理システムに既知でない(ユーザに既知でないというよりも)ものとして
定義されている。例えば、新しいスキャナは、ある画像を画像処理システムにス
キャンするであろうユーザに届けられ得る。しかしながら、特定のブランドまた
はモデルのスキャナは、非常に新しいので、その画像処理システムは、スキャナ
によって示されたノイズを説明するいずれの空間的プロフィルもまだ有し得ない
、すなわち、スキャナのブランドおよび/またはモデルは、ユーザには既知であ
るが、その特性は、画像処理システムには「未知」のままである。
【0016】 デバイスの空間的ノイズ特性を書き込む方法の1つとして、そして、これらの
空間的ノイズ特性を、画像処理システム全体に伝えるために空間的プロフィルを
用いることは、例示的および限定的ではない、すなわち、推定されたノイズ情報
は、任意の公知の方法またはデバイスによって、画像処理システムのコンポーネ
ント間で伝えられる。また、本発明は、利用可能な画像から、上流側のデバイス
の空間的ノイズ特性の推定に向けられるが、同じ原理が、当業者によって、変調
伝達関数、スキャナDPIデータおよび色変換等(これらのみに限定されない)
の他のデバイス特性に容易に適用される。
【0017】 図1に示されるデバイスによって出力されるデジタル画像からのデバイスノイ
ズの未知のグレーレベル依存性を推定するための発明的方法の3つの部分は、(
1)画像内のノイズに関する統計値を収集すること、(2)ノイズのグレーレベ
ル依存性を、グレーレベルに特有の最小分散間で関数Fを補間することにより推
定すること、および(3)画像内のノイズ分布の幅に合わせて関数Fを修正する
ことである。
【0018】 上記の方法は、デバイスによるデジタル画像出力からのデバイスノイズの未知
の周波数依存性を推定するために拡張されるときに、(4)「ノイズのみの」す
べてのブロック(または、図2Bまたは2Cの非ブロック指向の方法が用いられ
る場合、領域)を、上記(3)で計算された関数Fを用いて画像から選択するこ
と、および(5)これらのブロック(または領域)の2次元のパワースペクトル
を、ノイズの2次元のパワースペクトルの推定値を得るために共に平均すること
を含む。
【0019】LUTの生成 図1のボックス2は、画像の空間的なデバイスプロフィルの選択されたタグに
関連する十分な知識が利用可能かを問い合わせる。十分な知識とは、選択された
空間的プロフィルタグの完全な情報として定義され、この場合は、1以上のピラ
ミッドレベルのノイズタグおよび周波数領域パワースペクトルタグを含む。
【0020】 もし、画像に対応する空間的デバイスプロフィルタグの十分な知識がボックス
2で問い合わせられたときに、利用可能であれば、処理はボックス14で終了す
る。しかしながら、もし、選択された空間的タグのいずれの情報も不完全または
、欠けているのであれば、デフォルトの空間的デバイスプロフィルタグは、ボッ
クス4で置換される。デフォルトタグは、望ましくは所定であり、メモリからア
クセスされるが、デフォルトタグ情報は、考えられるところではオペレータによ
り提供される。これらのデフォルトタグは、選択されたタグのいずれに対しても
知識が利用できずに、デフォルトタグがいずれのタイプの画像取得デバイスをも
近似するために用いられ得る値を表すという最悪の場合のシナリオに関する。例
えば、すべてのクラスからの多数の画像取得デバイス(例えば、スキャナ、デジ
タルカメラ、その他)のノイズの周波数領域パワースペクトルの平均は、未知の
画像取得デバイスから取得される画像内のノイズの周波数領域スペクトルのデフ
ォルト値として用いられ得る。
【0021】 ユーザ情報(すなわち、選択された空間的プロフィルタグに影響するユーザに
既知の情報。)が、図5のシステムにより示されるモニタ306、キーボード3
16、およびマウス308等の周辺機器の利用を通してボックス6で集められる
。特に、ユーザがモニタ306上で、選択された空間的プロフィルタグに影響す
るようなその人の知識に関して問い合わせされる。例えば、そのユーザは、ソー
スデバイスはスキャナであって、デジタルスチールカメラまたはビデオカメラで
はなかったということを知り得ている。ユーザ情報の他の例には、画像が以前に
圧縮および解凍された、画像が以前にシャープニングされた、画像が以前にリサ
イズされた(補間拡大または補間縮小された)ということが含まれる。この情報
のすべてが、将来の利用のために記憶される。
【0022】 ボックス8で、選択された空間的プロフィルタグに影響する画像上に埋め込ま
れたデータが、識別され、且つメモリに記憶されもする。ボックス10で、コン
ピュータ300は、ボックス6でユーザが提供した情報、およびボックス8で集
められた画像データを、選択された空間的プロフィルタグと互換性があるフォー
マットに処理する。最後に、ボックス12で、デフォルトの空間的プロフィルタ
グは、ボックス10からのフォーマット済みのタグ情報でアップデートされるこ
とにより、主題の画像を生成した画像取得デバイスの、既知の推定された空間的
特性に、最も密接に適合するアップデートされた空間的デバイスプロフィルを生
成することができる。この例では、アップデートされたタグは、特定のグレーレ
ベルにおけるノイズ分散値に関するノイズLUT情報および/またはノイズの空
間周波数依存性に関するノイズパワースペクトル値を含む2次元行列を含む。
【0023】 この例は、1つのルミナンス(Y)および2つのクロミナンス(U、V)チャ
ネルを有するYUVデバイス独立の色空間における画像信号のために空間的デバ
イスプロフィルタグデータを処理する。このアルゴリズムは、あらゆる色空間で
実現され、あらゆる数のバンドまたはチャネルを含むことができる。空間的情報
のみが、各チャネルで分析、処理および推定されていることが理解される。特に
、図2Aは、ルミナンスチャネルYに対応する選択された空間的タグを生成する
処理を概説し、図2Bは、第1のクロミナンスチャネルUに対応する、選択され
た空間的タグを生成する処理を概説し、そして図2Cは、第2のクロミナンスチ
ャネルVに対応する選択された空間的タグを生成する処理を概説する。
【0024】 デジタル画像は、0≦x≦(xdim−1)および0≦y≦(ydim−1)
である矩形の軸上に位置するピクセルに対して、I(x,y)で空間的に表わさ
れる。量xdimが、画像内の列の数と定義されているのに対し、量ydimは
、画像内の行の数と定義される。図2Aで、ルミナンスチャネルYの処理は、ボ
ックス20の画像I(x,y)をYUVのデバイス非依存の色空間に変換するこ
とにより、容易にされる。チャネルYは、ボックス22で処理するために選択さ
れ、ローカル画像の統計値のアレイMY(x,y)およびSY(x,y)は、ボッ
クス24で計算される。MY(x,y)は、平均のルミナンス値μのアレイであ り、SY(x,y)は、ルミナンス分散値σ2のアレイである。1つの好適な実施
形態で、平均および分散値のそれぞれが、Nが整数である、画像I(x,y)の
異なるN×Nピクセルブロックに対応する。ボックス24のMY(x,y)およ びSY(x,y)を計算するための3つの異なる別の実施形態が、図3A、3B および3Cの例によって図示されている。図3Aは、画像をN×Nピクセルブロ
ックにセグメント化することを含み、図3Bは、画像に一対の直交する直交求積
法ミラーフィルタ(1つのローパスと1つのハイパス)をたたみ込むことを含み
、図3Cは、画像に一対の汎用の(直交である必要はない)ハイパスおよびロー
パスフィルタをたたみ込むことを含む。
【0025】 図3Aのボックス150で、画像I(x,y)は、重なっているか、または重
なっていないかのどちらかであるピクセルのN×Nブロックにセグメント化され
る。隣り合うピクセルブロックをN/2の因子で重ねることが望ましい。ルミナ
ンス平均μが、各ブロックのすべてのピクセルの平均を取ることによって、ボッ
クス152の画像の各ピクセルブロックに対して計算される。例えば、N=8で
あれば、所与の8×8ピクセルブロックに対する平均のルミナンス値μは、ブロ
ック内の64ピクセルのそれぞれのルミナンス値を加えて、次にその合計を64
で割ることにより決定される。ボックス156で、平均のルミナンス値μのアレ
イが生成され、各μの値が、画像I(x,y)の個別の8×8ブロックに対する
平均を表わす。平均のルミナンス値のアレイは、ルミナンスチャネルYに対して
はMY(x,y)、第1のクロミナンスチャネルUに対してはMU(x,y)、そ
して、第2のクロミナンスチャネルVに対してはMV(x,y)である。ボック ス154では、各ピクセルブロックに対するルミナンス分散σ2は、ブロックの 各ピクセルの値とブロック平均値μとの間の自乗された差を合計し、その合計を
ブロック内のピクセルの数で割ることによって決定される。次に、ボックス15
8では、分散値σ2のアレイが生成され、各σ2の値が画像I(x,y)の個別の
8×8ブロックに対する分散を表わす。ルミナンスの分散値のアレイは、ルミナ
ンスチャネルYに対してはSY(x,y)、第1のクロミナンスチャネルUに対 してはSU(x,y)、そして、第2のクロミナンスチャネルVに対してはSV
x,y)である。すべてのアレイMおよびSは、I(x,y)よりも低解像度(
より小さい)であることに留意されたい。I(x,y)のN×N個のピクセルそ
れぞれについてMおよびS内に1つのピクセルがある。
【0026】 図3Bで、画像は、離散ウェーブレット変換の第1段階によって、ボックス1
70で変換され、そのアルゴリズムは、2つのマトリックス乗算または、1次元
の直交求積法ミラーフィルタ(1つのローパスと1つのハイパス)での4つのた
たみ込みと同等であり、続いて2分の1だけ間引かれる(Numerical
Recipes in C,Second Edition,Cambridg
e University Press,1992年、592頁〜595頁参照
)。R×Rのピクセル画像について、この手順の結果、4つのR/2×R/2の
象限、LL、HH、HL、およびLHからなる、新しいR×R画像が生じる。ボ
ックス172で、LL(低−低)象限が抽出され、且つ平均ルミナンスアレイと
して記憶される。平均のルミナンス値のアレイは、ルミナンスチャネルYに対し
てはMY(x,y)、第1のクロミナンスチャネルUに対してはMU(x,y)、
そして、第2のクロミナンスチャネルVに対してはMV(x,y)である。HH (高−高)象限がボックス174で抽出され、且つ自乗され、そして分散アレイ
として記憶される。ルミナンスの分散値は、ルミナンスチャネルYに対してはS Y (x,y)、第1のクロミナンスチャネルUに対してはSU(x,y)、そして
、第2のクロミナンスチャネルVに対してはSV(x,y)である。
【0027】 図3Cで、ローパスおよびハイパスフィルタは、それらが直交である必要がな
いという意味においてより一般的である。画像I(x,y)は、ボックス190
でローパスフィルタでたたみ込まれ、平均ルミナンス平均値μのルミナンス平均
アレイを産出する。平均のルミナンス値のアレイは、ルミナンスチャネルYに対
してはMY(x,y)、第1のクロミナンスチャネルUに対してはMU(x,y)
、そして、第2のクロミナンスチャネルVに対してはMV(x,y)である。画 像I(x,y)はまた、ボックス192でハイパスフィルタでたたみ込まれ、結
果生じる値は、ルミナンス分散値σ2のアレイを産出するために自乗される。ル ミナンスの分散値のアレイは、ルミナンスチャネルYに対してはSY(x,y) 、第1のクロミナンスチャネルUに対してはSU(x,y)、そして、第2のク ロミナンスチャネルVに対してはSV(x,y)である。画像処理のたたみ込み は、空間領域の2つの離散信号が点毎に乗算され、その積が適切な範囲内にわた
って合計されるフィルタリング手順として知られている。画像のローパスフィル
タリングは、平滑化と呼ばれ、画像のルミナンスに何らかの変化があるエッジを
軟化させる一方で、高周波の構成要素を減少させる処理として定義される。シャ
ープニングは、ハイパスフィルタリングから生じ、特にエッジを際だたせる高周
波の構成要素を強調することによって、不鮮明な画像を向上する処理として定義
される。
【0028】 図3A、3Bまたは3Cの3つのサブルーチンのうちの1つは、図2Aのボッ
クス24で完成される後、MY(x,y)の値が、ボックス26で、YminとYma x との間(下記で定義されるとおり)にあたる許容できるグレーレベルの範囲内 で選ばれる。言い換えれば、平均ルミナンス値の部分集合AYが下記条件を満た すように生成され、 Ymin≦MY(AY)≦Ymax (1) 上記式で、 Ymin=Y1+3σ1; Ymax=Y2−3σ2; Y1=Yの値は、(0,0,0)デバイス空間三つ組(すなわち、黒)を、デバ イス非依存のYUV色空間に変換する色から得られ; Y2=Yの値は、(255,255,255)デバイス空間三つ組(すなわち、 白)を、デバイス非依存のYUV色空間に変換する色から得られ; σ1=低グレーレベルで予想される最大のノイズ標準偏差で; σ2=高グレーレベルで予想される最大のノイズ標準偏差である。 なお、平均ルミナンスアレイM(x,y)で表わされる2次元の画像は、ベクト
ルへのインデックスAがy*xdim+xで定義される、ベクトル\M(A)と して記述される。ベクトル\Mは、式(1)の所定の条件を満たす画像の点の部
分集合のみを含み得る。例えば、その点の集合MY(AY)は、閾値Yminおよび Ymaxが限度を超える画像I(x,y)の部分に対応する値を除く。閾値化の制 限が、クリッピングの統計的推定値への影響を減少させる。
【0029】 ボックス27では、2つのヒストグラムが計算される。第1のヒストグラムH 1 は、MY(AY)のヒストグラムで、ここで各度数幅は1グレーレベル幅である ので、インデックスはグレーレベルと等しい。このヒストグラムは、各グレーレ
ベルでMY(AY)の要素の数を記録する。第2のヒストグラムH2は、H1の各グ
レーレベルまでのMY(AY)の値を累積した累積数を座標上に取る。言い換えれ
ば、H2についてグレーレベル50でのピクセルの数は、50以下のグレーレベ ルを有するすべてのピクセルの総ピクセル数に等しい。累積ヒストグラムH2は 、ボックス28でスライスに分けられ、それによって各スライスは、MY(AY
のピクセルと等しい数を含む。この例では、H2は、H2のkbおよびkt百分位数
によりスライスiの左右の境界を定めることにより、20のグレーレベル特定ス
ライスに分割され、ここで、i=1について、kb=0およびkt=5(五番目の
百分位数を表わす)である。各スライスiに対応する画像の位置は、下記のイン
デックスの集合として記録される。
【0030】 ボックス30では、MY(AY)におけるインデックスまたは位置が、20個の
部分集合Ai Yのそれぞれに対して記録され、ここでi=1,2,..20である
。20個すべての部分集合の和は、集合AYである。部分集合Ai Yは、各グレー レベルスライスiの位置を定義する。インデックスAi Yが計算され、よって、 (Ymin+b)≦M(Ai Y)<(Ymin+t) (2) と定義され、ここで、bおよびtが、グレーレベルスライスiのkbおよびkt
境界に対応するH2の(1のグレーレベルの幅の)度数幅で、Yminは、上記で式
(1)に対して定義されたとおりである。スライスiは、グレーレベル(Ymin +b)および百分位数kbにより下側を境界づけられ、且つ、グレーレベル(Ym in +t)および百分位数ktにより上側を境界づけられる。この処理は、i=i +1、b=t、kb=kt、kt=kt+5に設定し、tを百分位数ktに対応する H2の新たなインデックスに等くすることにより継続する。これは、kt=100
まで、各スライスに対して繰り返される。
【0031】 ボックス32では、整数Ai Yの集合は、ルミナンス分散アレイSY(x,y) に適用され、それにより、1≦i≦20に対するSY(Ai Y)は、MY(Ai Y)よ
り得られる、平均のグレーレベル値を有するピクセルブロックからのグレーレベ
ル依存の分散の集合を表わす。ボックス34で、以下の統計値が計算され、20
スライス(i=1,2...20)のそれぞれに対して、 TY1 i=min{SY(Ai Y)>0} (3) TY2 i=meanMY(Ai Y) (4) ここで、TY1 iおよびTY2 iは、次に構築されるグレーレベル依存のノイズLUT
の基本を形成する。
【0032】 LUT LYとして実現される関数は、グレーレベル依存の最小値TY1 iの間で
補間することにより、ボックス36で生成される。これは、入力空間対し適切な
曲線の関数式にTY1 iおよびTY2 i(i=1..20)の最小自乗フィッティング
を行うことにより達成される。例えば、もし、この式が、最小自乗の線形フィッ
ティングよりも低い自乗エラーを取得するなら、式
【0033】
【数1】 (ここで、a0≧0、a1≦0で、a2は拘束条件なしである)が用いられる。結 果生じるLYの最小値および最大値は、すべてのiに対するTY1 iの最小値および
最大値にそれぞれ制限される。
【0034】 LYは、ノイズのグレーレベル依存を推定するが、望まれるとおりには、各グ レーレベルでのノイズの分布の平均値を通過しないで、各グレーレベル(最小分
散の点)でのノイズ分布の最小値を通過する。次に、新たなLUT LY’が、 各グレーレベルでのノイズ分布の平均値のできるだけ近くを通過するLYから派 生する。LY’が、LYの一次関数であると定義され: LY’=b0(LY−min(LY))+min(LY)+b1 (5) ここで、一次関数の係数b0およびb1は、集合BY=(b0,b1)により示され る。デフォルトでは、BYは、Yバンドに対して(1.3,1.54)に設定さ れる。これらは、データが利用できるすべての画像取得デバイスから判定される
平均値を表す。図2Aのボックス38は、デバイスクラスが既知であるか否かを
判定する。入力デバイスクラスが既知である場合(例えば、ユーザがシステムに
、デバイスがカメラクラス対スキャナクラスであることを伝えた)、ボックス4
0において、適切なデバイスクラスに対する平均値としてデフォルトBYが設定 される。将来のデバイスのノイズがデフォルトサンプルに平均化されたデバイス
に密接に従う場合、デフォルトBYは適切であり得る。そうでない場合、BYは、
ボックス42および44において推定される。ボックス42は、ノイズのみしか
含まないピクセルブロックGbを、信号も含むピクセルブロックから区別し、次 にボックス44が、ノイズのみのピクセルブロックGbの分布の中心に対してL UT LYの最良の線形変換で表されるBYを見出だすことにより、BYを推定す る。
【0035】 ボックス42では、入力画像I(x,y)にエッジ検出器が適用され、周囲に
かなりのルミナンスの動きがある点を識別する。エッジ検出器の出力はバイナリ
化される。エッジ点から少なくとも5ピクセル離れた点Pを(ゼロ化された画像
バッファI2(x,y)において)1に設定し、さらに各点Pから4ピクセル以 内のすべての点Qをさらに1に設定することにより、画像I(x,y)の広い均
一領域に対象を限定する。この時点で、エッジではないすべての点において、I 2 (x,y)は1に等しい。
【0036】 MY(x,y)と同じサイズのゼロ化されたバッファM3(x,y)において、
すべての対応するN2個の点がI2(x,y)において1に等しいピクセルブロッ
クはすべて1に設定される。このステップは、ノイズ点位置バッファの解像度を
完全解像度から低(ブロック)解像度に低減する。
【0037】 次に、グレーレベル依存の効果をSY(x,y)から以下のように減算してグ レーレベルの非依存(gli)のアレイを形成する。
【0038】 Sy,gli(x,y)=Sy(x,y)−LY(My(x,y)) (6) ここで、表記LY(My(x,y))は、LUT LYを画像My(x,y)の各点
に適用し、新しい画像を生成することを意味する。ノイズブロックGbは以下の 条件、Ymin<MY(x,y)<Ymax,M3(x,y)=1およびSy,gli(x, y)<TH(所与の閾値)の位置(x,y)に対応するインデックスの集合とし て定義される。ボックス44では、加算項b1は集合Sy,gli(Gb)のすべての 点のメジアンに等しい集合である。
【0039】 Gb lowは、Ymin<My(x,y)<median(My(x,y))に対する Gbの部分集合を定義する。所望の出力LUT LY’に分散の集合SY(Gb low )のメジアンを通過させる乗法因数b0は、最小化、 E=|n/z−0.5| (7) により定義され、ここで、nは、条件Sy(Gb low)<LY’{My(Gb low)} が成り立つときの、ベクトル\X(Gb lowの部分集合である)における要素の数
であり、zはGb lowの要素の数である。
【0040】 この時点で、一次関数の係数(b0,b1)が有効となり、LYからLY’を生成
する。Y1からY2までのすべてのy(グレーレベル)に対してLY’(y)=b0 (LY(y)−min(LY))+min(LY)+b1を設定することにより生成
が達成される(式(1)において定義される)。
【0041】 ルミナンスチャネルYにおいて処理が完了したあと、第1のクロミナンスチャ
ネルUが、図2Bのステップに従い、まずボックス48においてチャネルUを選
択することにより、処理される。ローカル画像統計値のアレイMU(x,y)お よびSU(x,y)は、ボックス50において計算される。MU(x,y)は、平
均ルミナンス値μのアレイであり、SU(x,y)はルミナンス分散値σ2のアレ
イであり、好適な実施形態では、平均および分散値のそれぞれは、画像I(x,
y)の異なるN×Nピクセルブロックに対応し、ここでNは整数である。ボック
ス50でのMU(x,y)およびSU(x,y)の計算には、図3A、3B、およ
び3Cの例により示し、図2Aを参照してルミナンスチャネルYの処理について
上述したように、いくつかの異なる処理がある。図3Aは、画像をN×Nブロッ
クにセグメント化することを含む。図3Bは、直交するハイパスおよびローパス
フィルタ対により画像をたたみ込むことを含み、図3Cは、汎用の(必ずしも直
交するわけではない)ハイパスおよびローパスフィルタにより画像をたたみ込む
ことを含む。
【0042】 図3A、3B、または3Cの3つのサブルーチンの1つが、図2Bのボックス
50において完了した後で、ボックス52においてMU(x,y)の値が、Ymin からYmaxの間に位置し条件を満たすグレーレベル範囲内から選択される。すな わち、平均ルミナンス値の部分集合AUが生成され、以下の条件、 Ymin≦MY(AU)≦Ymax および Umin≦MU(AU)≦Umax (8) を満たし、ここで、 Ymin=Y1+3σ1であり; Ymax=Y2−3σ2であり; Umin=−30*2J-8であり、 Vmax=+30*2J-8であり、 Y1=(0,0,0)のデバイス空間の三つ組(すなわち黒)を、デバイス非依 存YUV空間へ色変換することから取得されたYの値であり; Y2=(255,255,255)デバイス空間の三つ組(すなわち白)を、デ バイス非依存YUV空間へ変換することから取得されたYの値であり; σ1=低グレーレベルにおいて予測される最大ノイズ標準偏差であり、 σ2=高グレーレベルにおいて予測される最大ノイズ標準偏差であり、 J=デバイス非依存カラー空間におけるYのダイナミックレンジでのビット数で
ある。
【0043】 なお、平均ルミナンスアレイMU(x,y)により表わされる2次元の画像が ベクトル\M(A)で記述され得、ここで、ベクトルへのインデックスAは、y
*xdim+xにより定義される。ベクトル\Mは、式(8)の所定の条件を満
たす画像における点の部分集合のみを含み得る。例えば、点の集合MU(AU)は
、画像I(x,y)の部分に関連する値で、閾値Ymin、Ymax、Umin、または Umaxを超える値を排除する。この閾値制限は、統計的推定に対するクリッピン グの影響を減少する。
【0044】 ボックス54では、2つのヒストグラムが計算される。第1のヒストグラムH U1 はMY(AU)のヒストグラムであり、ここで各度数幅は1グレーレベル幅であ
るので、インデックスはグレーレベルに等しい。このヒストグラムは、各グレー
レベルでのMY(AU)の要素の数を記録する。第2のヒストグラムHU2は、HU1 の各グレーレベルまでの値を累積したMY(AU)の値の累積数をプロットする。
換言すれば、HU2に対しては、グレーレベル50でのピクセルの数は、50より
少ないか、または等しいグレーレベルを有するすべてのピクセルの総ピクセルカ
ウントに等しい。次に、累積ヒストグラムHU2は、各スライスが等しい数のピク
セルを含むようにボックス54においてスライスに分割される。この例では、H U2 は、HU2のkbおよびktの百分位数によりスライスiの左右の境界を定めるこ
とにより、20のグレーレベル特定スライスに分割され、ここで、i=1につい
てkb=0、およびkt=5(五番目の百分位数を表す)である。
【0045】 ボックス56では、MY(AU)におけるインデックスまたは位置が、20個の
部分集合Ai Uのそれぞれに対して記録され、ここでi=1、2...20である
。部分集合Ai Uは、AUの部分集合であり、各グレーレベルスライスiにおける 位置を定義する。インデックスAi Uが、 (Ymin+b)≦MY(Ai U)<(Ymin+t) (9) となるように計算され、ここでbおよびtは、グレーレベルスライスiのkbお よびktの境界に対応するHU2の(1グレーレベル幅)度数幅であり、Yminは、
式(8)について先に定義されたのと同様である。スライスiは、グレーレベル
(Ymin+b)および百分位数kbにより下側を境界付けられ、グレーレベル(Y min +t)および百分位数ktにより上側を境界付けられる。このプロセスは、i
=i+1、b=t、kb=kt、kt=kt+5およびtを百分位数ktに対応する HU2の新しいインデックスに等しくすることにより継続される。これは、kt= 100になるまで、それぞれのスライスに対して繰り返される。
【0046】 ボックス58では、インデックスAi Uの集合がルミナンス分散アレイSu(x
,y)に適用され、これにより、1≦i≦20に対するSU(Ai U)が、MY(A i U )により与えられる平均グレーレベル値を有するピクセルブロックからのグレ
ーレベル依存分散の集合を表す。20のスライス(i=1、2…20)のそれぞ
れに対して以下の統計値、 TU1 i=min{SU(Ai U)>0} (10) TU2 i=mean MY(Ai U) (11) が集められ、ここで、TU1 iおよびTU2 iは次に構成されるグレーレベル依存ノイ
ズLUTの基底を形成する。
【0047】 ボックス62では、LUT LUとして実行される関数が、グレーレベル依存 の最小値TU1 iの間を補間することにより生成される。これは、入力空間に対し 適切なカーブの関数式にTU1 iおよびTU2 iの最小自乗フィッティングを行うこと
により達成される。例えば、この式が最小自乗の線形フィッティングよりも低い
自乗誤差を取得する場合、式
【0048】
【数2】 (ここで、a0≧0,a1≦0であり、a2は拘束条件なしである)が用いられる 。生成されたLUの最小値および最大値は、すべてのiに対するTU1 iの最小値お
よび最大値にそれぞれ制限される。
【0049】 LUは、(ゼロUにおける)Uクロミナンスノイズのグレーレベル依存を推定 するが、望ましい各グレーレベルでのUクロミナンスノイズ分布の平均を通過す
るよりもむしろ、各グレーレベル(最小分散の点)でのUクロミナンスノイズ分
布の最小値を通過する。次に、新しいLUT LU’が、各グレーレベルでのノ イズ分布の平均に可能な限り近くを通過するLUから導かれる。LU’は、LUの 一次関数、 LU’=b0(LU−min(LU))+min(LU)+b1 (12) となるように定義され、ここで、一次関数b0およびb1の係数は、集合BU=( b0,b1)により示される。デフォルトでは、BU=(b0,b1)は、Uまたは Vバンドに対して(1.5,0)に設定される。これらは、データが利用できる
すべての画像取得デバイスから判定される平均値を表す。図2Bのボックス64
は、デバイスクラスが既知であるか否かを判定する。入力デバイスクラスが既知
である場合(例えば、ユーザによりシステムに与えられたカメラクラス対スキャ
ナクラス)、ボックス66において、適切なデバイスクラスに対する平均値とし
てデフォルトBUが設定される。将来のデバイスのノイズがデフォルトサンプル に平均化されたデバイスに密接に従う場合、デフォルトBUは適切であり得る。 そうでない場合、BUは、ボックス68および70において推定される。ボック ス68は、ノイズのみしか含まないピクセルブロックGbを、信号も含むピクセ ルブロックから区別し、次にボックス70が、ノイズのみのピクセルブロックG b の分布の中心に最も近いLUT L’Uを位置づけるLUの線形変換を見出だす ことにより、BUを推定する。
【0050】 ボックス68では、入力画像I(x,y)にエッジ検出器が適用され、周囲に
かなりのルミナンスの動きがある点を識別する。エッジ検出器のパワーはバイナ
リ化される。エッジ点から少なくとも5ピクセル離れた点Pを(ゼロ化された画
像バッファI2(x,y)において)1に設定し、さらに各点Pから4ピクセル 以内のすべての点Qをさらに1に設定することにより、画像I(x,y)の広い
均一領域に対象を限定する。MU(x,y)と同じサイズのゼロ化されたバッフ ァM3(x,y)において、すべての対応するN2個の点がI2(x,y)におい て1に等しいピクセルブロックはすべて1に設定される。このステップは、ノイ
ズ点位置バッファI2(x,y)の解像度を完全解像度から低解像度に低減する 。
【0051】 次に、グレーレベル依存の効果をSU(x,y)から以下のように減算してグ レーレベル非依存のアレイを形成する。
【0052】 SU,gli(x,y)=SU(x,y)−LU(MY(x,y)) (13) ここで、表記LU(MY(x,y))は、LUT LUを画像MY(x,y)の各点
に適用し、新しい画像を生成することを意味する。ノイズブロックGbは以下の 条件、Ymin<MY(Gb)<Ymax、M3(Gb)=1およびSU,gli(Gb)<TH (所与の閾値)であることを満たすインデックスの集合として定義される。ボッ
クス70では、加算項b1は集合SU,gli(Gb)のすべての点のメジアンに等し い集合である。
【0053】 Gb lowは、Ymin<MY(x,y)<median(MY(x,y))に対する Gbの部分集合を定義する。LU’にこれらのブロックの集合SU(Gb low)のメ ジアンを通過させる乗法因数b0は、最小化、 E=|n/z−0.5| (14) により定義され、ここで、nは、条件SU(Gb low)<LU’{MY(Gb low)} が成り立つときの、ベクトル\X(Gb lowの部分集合である)における要素の数
であり、zはGb lowの要素の数である。
【0054】 この時点で、一次関数の係数(b0,b1)が有効(available)とな
り、LUからLU’を生成する。ボックス72で、Y1からY2までのすべてのy(
グレーレベル)に対してLU’(y)=b0(LU(y)−min(LU))+mi
n(LU)+b1を設定することにより生成が達成される(式(1)において定義
される)。
【0055】 第1のクロミナンスチャネルUにおいて処理が完了したあと、第2のクロミナ
ンスチャネルVが、図2Cのステップに従い、まずボックス74においてチャネ
ルVを選択することにより、処理される。ローカル画像統計値のアレイMV(x ,y)およびSV(x,y)は、ボックス76において計算される。MV(x,y
)は、平均ルミナンス値μのアレイであり、SV(x,y)はルミナンス分散値( 2 のアレイであり、好適な実施形態では、平均および分散値のそれぞれは、画像 I(x,y)の異なるN×Nピクセルブロックに対応し、ここでNは整数である
。ボックス76でのMV(x,y)およびSV(x,y)の計算には、図3A、3
B、および3Cの例により示し、図2Aを参照してルミナンスチャネルYの処理
について上述したように、いくつかの異なる処理がある。図3Aは、画像をN×
Nブロックにセグメント化することを含む。図3Bは、直交するフィルタ対(ハ
イパスおよびローパス)により画像をたたみ込むことを含み、図3Cは、1つの
ハイパスと1つのローパスであるが必ずしも直交するわけではないフィルタ対に
より画像をたたみ込むことを含む。
【0056】 図3A、3B、または3Cの3つのサブルーチンの1つが、図2Cのボックス
76において完了した後で、ボックス78においてMY(x,y)の値が、Ymin からYmaxの間に位置し条件を満たすグレーレベル範囲、およびVminからVmax の間に位置し条件を満たすVクロミナンス範囲内から選択される。すなわち、平
均ルミナンス値の部分集合AVが生成され、以下の条件、 Ymin≦MY(AV)≦YmaxおよびVmin≦MV(AV)≦Vmax (15) を満たし、ここで、 Ymin=Y1+3(1であり、 Ymax=Y2−3(2であり、 Vmin=−30*2J-8であり、 Vmax=+30*2J-8であり、 Y1=(0,0,0,)のデバイス空間三つ組(すなわち黒)から取得されたY の値であり、 Y2=(255,255,255)デバイス空間三つ組(すなわち白)から取得 されたYの値であり、 (1=低グレーレベルにおいて予測される最大ノイズ標準偏差であり、 (2=高グレーレベルにおいて予測される最大ノイズ標準偏差であり、 J=デバイス非依存カラー空間におけるYのダイナミックレンジでのビット数で
ある。
【0057】 なお、平均ルミナンスアレイMV(x,y)で表される2次元画像は、ベクト ル\M(A)で記述され得、ここで、ベクトルへのインデックスAは、y*xd
im+xにより定義される。ベクトル\Mは、式(15)の所定の条件を満たす
画像における点の部分集合のみを含み得る。例えば、点の集合MV(AV)は、画
像I(x,y)の部分に関連する値で閾値Ymin、Ymax、Vmin、またはVmax
超える値を排除する。この閾値制限は、統計的推定に対するクリッピングの影響
を減少する。
【0058】 ボックス80では、2つのヒストグラムが計算される。第1のヒストグラムH V1 はMY(AV)のヒストグラムであり、ここで各度数幅は1グレーレベル幅であ
るので、インデックスはグレーレベルに等しい。このヒストグラムは、各グレー
レベルでのMY(AV)の要素の数を記録する。MY(AV)の第2のヒストグラム
V2は、HV1の各グレーレベルまでの値を累積した累積数を座標上に取る。換言
すれば、HV2に対しては、グレーレベル50でのピクセルの数は、50より少な
いか、または等しいグレーレベルを有するすべてのピクセルの総ピクセルカウン
トに等しい。次に、累積ヒストグラムHV2は、各スライスが等しい数のピクセル
を含むようにボックス80においてスライスに分割される。この例では、HV2
、HV2のkbおよびkt百分位数によりスライスiの左右の境界を定めることによ
り、20のグレーレベル特定スライスに分割され、ここで、i=1についてkb =0、およびkt=5(五番目の百分位数を表す)である。
【0059】 ボックス82では、MY(AV)におけるインデックスまたは位置が、20個の
部分集合Ai Vのそれぞれに対して記録され、ここでi=1、2...20である
。部分集合Ai Vは、AVの部分集合であり、各グレーレベルスライスiにおける 位置を定義する。インデックスAi Vが、 (Ymin+b)≦MY(Ai V)<(Ymin+t) (16) となるように計算され、ここでbおよびtは、グレーレベルスライスiのkbお よびkt境界に対応するHV2の(1グレーレベル幅)度数幅であり、Yminは、式
(15)に対し先に定義されたのと同様である。スライスiは、グレーレベル(
min+b)および百分位数にkbにより下側を境界付けられ、グレーレベル(Y min +t)および百分位数ktにより上側を境界付けられる。このプロセスは、i
=i+1、b=t、kb=kt、kt=kt+5およびtを百分位数ktに対応する HV2の新しいインデックスに等しくすることにより継続される。これは、kt= 100になるまで、それぞれのスライスに対して繰り返される。
【0060】 ボックス84では、インデックスAi Vがルミナンス分散アレイSV(x,y) に適用され、これにより、1≦i≦20に対するSV(Ai V)が、MY(Ai V)に
より与えられた平均グレーレベル値を有するピクセルブロックからのグレーレベ
ル依存分散の集合を表す。ボックス60では、以下の統計値、 TV1 i=min{SV(Ai V)>0} (17) TV2 i=mean MY(Ai V) (18) が20のスライス(i=1,2...20)のそれぞれに対して計算される。こ
こで、TV1 iおよびTV2 iは、次に構成されるグレーレベル依存ノイズLUTの基
底を形成する。
【0061】 ボックス88では、LUT LVとして実行される関数が、グレーレベル依存 最小値TV1 iの間を補完することにより生成される。これは、入力空間に対し適 切なカーブの関数式にTV1 iおよびTV2 iの最小自乗フィッティングを行うことに
より達成される。例えば、この式が最小自乗の線形フィッティングよりも低い自
乗誤差を取得する場合、式
【0062】
【数3】 (ここで、a0≧0、a1≦0であり、a2は拘束条件なしである)が用いられる 。生成されたLVの最小値および最大値は、すべてのiに対するTV1 iの最小値お
よび最大値にそれぞれ制限される。
【0063】 LVは、(ゼロVにおいて)Vクロミナンスノイズのグレーレベル依存を推定 するが、望ましい各グレーレベルにおけるVノイズ分布の平均を通過するよりも
むしろ、各グレーレベル(最小分散の点)でのVノイズ分布の最小値を通過する
。次に、新しいLUT LV’が、各グレーレベルでのノイズ分布の平均に可能 な限り近くを通過するLVから導かれる。LV’は、LVの一次関数、 LV’=b0(LV−min(LV))+min(LV)+b1 (19) となるように定義され、ここで、変数b0およびb1は、集合BV=(b0,b1) で示される。デフォルトでは、BV=(b0,b1)は、Vバンドに対して(1. 5,0)に設定される。これらは、データが利用できるすべての画像取得デバイ
スから判定される平均値を表す。図2Cのボックス90は、デバイスクラスが既
知であるか否かを判定する。入力デバイスクラスが既知である場合(例えば、ユ
ーザによりシステムに与えられたカメラクラス対スキャナクラス)、ボックス9
2において、適切なデバイスクラスに対する平均値としてデフォルトBVが設定 される。将来のデバイスのノイズがデフォルトサンプルにおいて平均化されたデ
バイスに密接に従う場合、デフォルトBVは適切であり得る。そうでない場合、 BVは、ボックス94および96において推定される。ボックス94は、ノイズ のみしか含まないピクセルブロックGbを、信号も含むピクセルブロックから区 別し、次にボックス96が、ノイズのみのピクセルブロックGbの分布の中心に 最も近くにL’Vを位置づけるLUT LVの線形変換を見出だすことにより、B V を推定する。
【0064】 ボックス94では、入力画像I(x,y)にエッジ検出器が適用され、周囲に
かなりのルミナンスの動きがある点を識別する。エッジ検出器のパワーはバイナ
リ化される。エッジ点から少なくとも5ピクセル離れた点Pを(ゼロ化された画
像バッファI2(x,y)において)1に設定し、各点Pから4ピクセル以内の すべての点Qをさらにマークすることにより、画像I(x,y)の広い均一領域
に対象を限定する。MY(x,y)と同じサイズのバッファM3(x,y)におい
て、すべての対応するN2個の点がI2(x,y)において1に設定されたピクセ
ルブロックはすべてマークされる。このステップは、ノイズ点位置バッファI2 (x,y)の解像度を完全解像度から低解像度に低減する。
【0065】 次に、グレーレベル依存の効果をSV(x,y)から以下のように減算してグ レーレベルの独自アレイを形成する。
【0066】 SV,gli(x,y)=SV(x,y)−LV(MY(x,y)) (20) ここで、表記LV(MY(x,y))は、LUT LVを画像MY(x,y)の各点
に適用し、新しい画像を生成することを意味する。ノイズブロックGbはYmin
Y(x,y)<Ymax、M3(x,y)=1およびSV,gli(x,y)<TH(所 与の閾値)であることを満たすインデックスの集合として定義される。ボックス
96では、加算項b1はSgli(Gb)のすべての点のメジアンに等しい集合であ る。
【0067】 Gb lowは、Ymin<MY(x,y)<median(MY(x,y))に対する Gbの部分集合を定義する。LV’にこれらのブロックの集合SV(Gb low)のメ ジアンを通過させる乗法因数b0は、最小化、 E=|n/z−0.5| (21) により定義され、ここで、nは、条件SV(Gb low)<LV’{MY(Gb low)} が成り立つときの、ベクトル\X(Gb lowの部分集合)における要素の数であり
、zはGb lowの要素の数である。
【0068】 LVからLV’を生成するためには、一次関数の係数(b0,b1)が使用される
。ボックス98で、Y1からY2までのすべてのy(グレーレベル)に対してLV ’(y)=b0(LV(y)−min(LV))+min(LV)+b1を設定する ことにより生成が達成される(式(15)において定義される)。
【0069】 この時点で、この例における3チャネルのそれぞれに対してLUTが生成され
ており、これにより、各テーブルのi番目のエントリは、対応するチャネルにお
けるグレーレベルiでの画像I(x,y)におけるノイズレベルの推定である。
具体的には、LY’は、ルミナンスチャネルYに対して決定されており、LU’は
第1のクロミナンスチャネルUに対して決定されており、LV’は第2のクロミ ナンスチャネルVに対して決定されている。前述した好適な実施形態では、LY ’、LU’、およびLV’は、それぞれ未知の画像取得デバイスに関連するノイズ
特性の空間図におけるデフォルト値を置換する。
【0070】 上記のアルゴリズムは、特定のグレーレベルに対するノイズ特性LUTを生成
する1つの好適な方法を説明したにすぎない。他の公知のLUT生成方法もまた
、本発明の原理に従って使用され得る。
【0071】ノイズマスク生成 図4は、未知の発生源の画像に対するノイズマスク(ノイズの周波数依存を記
述する値の2次元マトリクス)を生成するための好適な方法を示すフローチャー
トである。この方法は、分散値SY(x,y)、SU(x,y)、SV(x,y) および平均値MY(x,y)、MU(x,y)、MV(x,y)から上記のように 生成された各チャネルに対するノイズLUTを使用する。(以下の好適な例とし
て画像統計値を生成するブロック指向方法が用いられるが、前述したように、S
およびMはコンボルーションおよびウェーブレットのような非ブロック指向方法
を用いても生成し得る)。ボックス200ではルミナンスチャネルYが選択され
、ノイズのみの画像ブロックは、それらのブロック位置が(x,y)が、 LY’(Ymax)≦SY(x,y)≦LY’(MY(x,y)) (22) および Ymin<MY(x,y)<Ymax (23) を満たすブロックとして、ボックス202において識別される。式(22)およ
び(23)の条件を満たす画像I(x,y)のすべての位置(x,y)に対し、
ノイズ領域(x,y)の周波数領域パワーCY x,y(fi,fj)が、ボックス20
4において、 CY x,y(fi,fj)=F(D)2 (24) として計算され、ここで、N×Nブロックに対してはfi,fj=0〜N−1であ
り、関数Fは離散コサイン、フーリエまたはウェーブレット変換であり、Dは点
(x,y)でのノイズを含む画像ブロックを表すN×Nアレイである。式(22
)および(23)の拘束条件は、a)ノイズ以外のパワーを含み得る画像ブロッ
ク、b)クリッピングにより人為的に均一であり得る画像ブロック、およびc)
特に低い信号ノイズ比を有し、従って信号コンタミネーションの可能性を示す画
像ブロック、の使用を避けるために適用される。ボックス206では、ノイズブ
ロックのパワーCY x,yが、各周波数領域係数(fi,fj)に対するすべての点(
x,y)を点別に加算することにより平均化され、これによりPY(fi,fj) =ΣΣCY x,y(fi,fj)/Wとなり、ここで加算の範囲は上記の(22)およ
び(23)を満たすすべての点(x,y)に広がり、Wは加算に用いられるノイ
ズブロックの数である。すべてのチャネルが処理されているのでない場合、次の
チャネル、例えば第1のクロミナンスチャネルU、が選択され、ステップ202
およびステップ208が反復され、ここで、LYはLUに置換され、LY’はLU
に置換されて、SY(x,y)はSU(x,y)に置換され、MY(x,y)はMY (x,y)のまま維持され、Uチャネルの位置(x,y)でのノイズブロックの
パワーCU x,y(fi,fj)は、他の位置(x,y)でのノイズブロックのすべて
のパワーと平均化され、これにより、PU(fi,fj)=ΣΣCU x,y(fi,fj )/Wとなる。同様に、第2のクロミナンスチャネルが選択されると、ステップ
202〜208が繰り返され、LYはLVに置換され、LY’はLV’に置換され、
Y(x,y)はSV(x,y)に置換され、MY(x,y)はMY(x,y)のま
ま維持され、Vチャネルの位置(x,y)でのノイズブロックのパワーCV x,y
i,fj)は、他の位置(x,y)でのノイズブロックのすべてのパワーと平均
化され、これにより、PV(fi,fj)=ΣΣCV x,y(fi,fj)/Wとなる。 この時点で、好適な実施形態では、ノイズパワーのデフォルト空間タグが、PY 、PUおよびPVの値で置換される。
【0072】 上記説明した実施形態は、単に本発明の例示であり、本発明の原理の用途を提
供し得る特定の可能な実施形態を限定数だけ表したにすぎない。他の多数かつ広
範な方法は、請求項に記載される発明の精神および範囲から逸脱することなく、
当業者によりこれらの原理に従って容易に考案され得る。
【図面の簡単な説明】
【図1】 本発明の原理によって動作する好ましい方法のフローチャート図。
【図2A】 画像データおよびユーザ知識を使用して、画像のルミナンスバンド中の特定の
グレーレベルに対応するノイズ分散値のルックアップテーブル(LUT)を生成
するための図1の好ましいサブルーチンのフローチャート図。
【図2B】 画像データおよびユーザ知識を使用して、画像の第1クロミナンスバンド中の
特定のグレーレベルに対応するノイズ分散値のLUTを生成するための図1の好
ましいサブルーチンのフローチャート図。
【図2C】 画像データおよびユーザ知識を使用して、画像の第2クロミナンスバンド中の
特定のグレーレベルに対応するノイズ分散値のLUTを生成するための図1の好
ましいサブルーチンのフローチャート図。
【図3A】 画像が空間領域において表される場合に、任意に与えられたチャネルに対して
平均ルミナンス値のアレイおよびルミナンス分散値のアレイの両方を図2A、図
2B、および図2Cにおいて生成するために使用される工程のフローチャート図
【図3B】 画像をウェーブレット領域に変換することによって、任意に与えられたチャネ
ルに対して平均ルミナンス値のアレイおよびルミナンス分散値のアレイの両方を
図2A、図2B、および図2Cにおいて生成するために使用される工程のフロー
チャート図。
【図3C】 画像をローパスおよびハイパスフィルタを用いてたたみ込むことによって、任
意に与えられたチャネルに対して平均ルミナンス値のアレイおよびルミナンス分
散値のアレイの両方を図2A、図2B、および図2Cにおいて生成するために使
用される工程のフローチャート図。
【図4】 図3A、図3B、および図3Cと同様に、画像のノイズブロックのパワーの平
均に対応するノイズマスクを生成し、続いてLUTを生成するための好ましい方
法のフローチャート図。
【図5】 本発明の原理によって動作するシステムの図。
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 BA23 BA30 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE02 CE06 CE18 CH07 CH08 CH18 DA17 DC23 5C077 LL02 MP08 PP02 PP04 PP34 PP43 PP46 PP48 PP49 PP68 PQ19 PQ23 RR11 SS05

Claims (28)

    【特許請求の範囲】
  1. 【請求項1】 未知の空間ノイズ特性を有するデジタル画像取得デバイスか
    ら取得された画像に関連する空間ノイズ特性を推定する方法であって、該方法が
    、 該デジタル画像取得デバイスの該空間ノイズ特性に対する所定のデフォルト値
    を供給するステップと、 該デジタル画像取得デバイスの該空間ノイズ特性に関する情報を収集するステ
    ップと、 該収集された情報に応答して置換データを生成するステップと、 該デジタル画像取得デバイスに関連する該所定のデフォルト空間ノイズ特性を
    該置換データで更新するステップと、 を含む、方法。
  2. 【請求項2】 前記情報を収集するステップが、前記デジタル画像取得デバ
    イスの前記空間ノイズ特性に関連するユーザ情報を収集するステップを含む、請
    求項1に記載の方法。
  3. 【請求項3】 前記情報を収集するステップが、前記デジタル画像取得デバ
    イスの前記空間ノイズ特性に関連する画像データを前記取得された画像から収集
    するステップを含む、請求項1に記載の方法。
  4. 【請求項4】 前記置換データを生成するステップが、前記取得された画像
    のそれぞれのルミナンスおよびクロミナンスバンドにおける所定のグレーレベル
    において発生するルミナンス分散値として該置換データを生成するステップを含
    む、請求項1に記載の方法。
  5. 【請求項5】 前記ルミナンス分散値がルックアップテーブルで表される、
    請求項4に記載の方法。
  6. 【請求項6】 前記置換データを生成するステップが、前記取得された画像
    におけるノイズブロックの平均パワーとして置換データを生成するステップを含
    む、請求項1に記載の方法。
  7. 【請求項7】 前記ノイズブロックの前記平均パワーが、周波数領域におい
    てノイズマスクとして表される、請求項6に記載の方法。
  8. 【請求項8】 前記所定のデフォルト値が、複数の画像取得デバイスからの
    空間ノイズ特性情報を平均化することにより確立される、請求項1に記載の方法
  9. 【請求項9】 前記ユーザ情報が、圧縮、解凍、シャープニング、補間、入
    力デバイスクラス、入力デバイス解像度、スキャン時の1インチあたりのドット
    数、および概算のノイズレベルに関連する、請求項2に記載の方法。
  10. 【請求項10】 前記画像データが、圧縮、解凍、シャープニング、補間、
    入力デバイスクラス、入力デバイス解像度、スキャン時の1インチあたりのドッ
    ト数、および概算のノイズレベルに関連する、請求項3に記載の方法。
  11. 【請求項11】 画像処理システムにおいて、画像取得デバイスの空間プロ
    フィルのノイズタグを生成するための方法であって、該方法が、 該ノイズタグのデフォルト値を生成するステップと、 該ノイズタグに関連する空間ノイズ特性のユーザ知識を収集するステップと、 該画像取得デバイスにより取得された画像から、該ノイズタグに関連する該空
    間ノイズ特性に関する画像データを収集するステップと、 該ユーザ知識および該画像データに応答して、置換データを生成するステップ
    と、 該画像取得デバイスに関連する該ノイズタグの該デフォルト値を該置換データ
    で更新するステップと、 を含む方法。
  12. 【請求項12】 前記置換データを生成するステップが、前記取得された画
    像のそれぞれのルミナンスおよびクロミナンスバンドにおける所定のグレーレベ
    ルにおいて発生するルミナンス分散値として該置換データを生成するステップを
    含む、請求項11に記載の方法。
  13. 【請求項13】 前記ルミナンス分散値がルックアップテーブルで表される
    、請求項12に記載の方法。
  14. 【請求項14】 前記置換データを生成するステップが、前記取得された画
    像におけるノイズブロックの平均周波数領域パワーとして該置換データを生成す
    るステップを含む、請求項11に記載の方法。
  15. 【請求項15】 前記ノイズブロックの前記平均周波数領域パワーがノイズ
    マスクとして表される、請求項14に記載の方法。
  16. 【請求項16】 前記ノイズタグの前記デフォルト値が、複数の画像取得デ
    バイスからの空間ノイズ特性情報を平均化することにより確立される、請求項1
    1に記載の方法。
  17. 【請求項17】 前記ユーザ情報が、圧縮、解凍、シャープニング、補間、
    入力デバイスクラス、入力デバイス解像度、スキャン時の1インチあたりのドッ
    ト数、および概算のノイズレベルに関連する、請求項11に記載の方法。
  18. 【請求項18】 前記画像データが、圧縮、解凍、シャープニング、補間、
    入力デバイスクラス、入力デバイス解像度、スキャン時の1インチあたりのドッ
    ト数、および概算のノイズレベルに関連する、請求項11に記載の方法。
  19. 【請求項19】 未知の空間ノイズ特性を有するデジタル画像取得デバイス
    から取得された画像に関連する空間ノイズ特性を推定するシステムであって、該
    システムが、 該デジタル画像取得デバイスの該空間ノイズ特性に対する所定のデフォルト値
    を供給する手段と、 該デジタル画像取得デバイスの該空間ノイズ特性に関する情報を収集する手段
    と、 該収集された情報に応答して置換データを生成する手段と、 該デジタル画像取得デバイスに関連する該所定のデフォルト空間ノイズ特性を
    該置換データで更新する手段と、 を含む、システム。
  20. 【請求項20】 前記情報を収集する手段が、前記デジタル画像取得デバイ
    スの前記空間ノイズ特性に関連するユーザ情報を収集するための手段を含む、請
    求項19に記載のシステム。
  21. 【請求項21】 前記情報を取得する手段が、前記デジタル画像取得デバイ
    スの前記空間ノイズ特性に関連する画像データを前記取得された画像から収集す
    るための手段を含む、請求項19に記載のシステム。
  22. 【請求項22】 前記置換データを生成する手段が、前記取得された画像の
    それぞれのルミナンスおよびクロミナンスバンドにおける所定のグレーレベルに
    おいて発生するルミナンス分散として該置換データを生成するための手段を含む
    、請求項19に記載のシステム。
  23. 【請求項23】 前記ルミナンス分散値がルックアップテーブルで表される
    、請求項22に記載のシステム。
  24. 【請求項24】 前記置換データを生成する手段が、前記取得された画像に
    おけるノイズブロックの平均パワーとして該置換データを生成する手段を含む、
    請求項19に記載のシステム。
  25. 【請求項25】 前記ノイズブロックの前記平均パワーが、周波数領域にお
    いてノイズマスクとして表される、請求項24に記載のシステム。
  26. 【請求項26】 前記所定のデフォルト値が、複数の画像取得デバイスから
    の空間ノイズ特性情報を平均化することにより確立される、請求項19に記載の
    システム。
  27. 【請求項27】 前記ユーザ情報が、圧縮、解凍、シャープニング、補間、
    入力デバイスクラス、入力デバイス解像度、スキャン時の1インチあたりのドッ
    ト数、および概算のノイズレベルに関連する、請求項20に記載のシステム。
  28. 【請求項28】 前記画像データが、圧縮、解凍、シャープニング、補間、
    入力デバイスクラス、入力デバイス解像度、スキャン時の1インチあたりのドッ
    ト数、および概算のノイズレベルに関連する、請求項21に記載のシステム。
JP2000525858A 1997-12-23 1998-12-07 画像中ノイズの周波数依存度およびグレーレベル依存度の推定 Withdrawn JP2001527305A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/996,810 1997-12-23
US08/996,810 US6069982A (en) 1997-12-23 1997-12-23 Estimation of frequency dependence and grey-level dependence of noise in an image
PCT/US1998/025942 WO1999033023A1 (en) 1997-12-23 1998-12-07 Estimation of frequency dependence and grey-level dependence of noise in an image

Publications (1)

Publication Number Publication Date
JP2001527305A true JP2001527305A (ja) 2001-12-25

Family

ID=25543338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000525858A Withdrawn JP2001527305A (ja) 1997-12-23 1998-12-07 画像中ノイズの周波数依存度およびグレーレベル依存度の推定

Country Status (4)

Country Link
US (1) US6069982A (ja)
EP (1) EP1042733A1 (ja)
JP (1) JP2001527305A (ja)
WO (1) WO1999033023A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541357A (ja) * 2007-09-28 2010-12-24 オセ−テクノロジーズ・ベー・ヴエー Mtfの適応可能な補正のための方法、装置、およびコンピュータプログラム

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6525845B1 (en) * 1999-01-19 2003-02-25 Xerox Corporation Methods and apparatus for modifying image data based on identification of marking process
US6690488B1 (en) * 1999-09-30 2004-02-10 Polaroid Corporation Method and apparatus for estimating the spatial frequency response of a digital image acquisition system from the images it produces
US6489973B1 (en) * 1999-10-04 2002-12-03 Canon Kabushiki Kaisha Image acquisition architecture
US6718068B1 (en) * 2000-03-10 2004-04-06 Eastman Kodak Company Noise reduction method utilizing statistical weighting, apparatus, and program for digital image processing
US6741739B1 (en) * 2000-05-03 2004-05-25 Itt Manufacturing Enterprises Method and apparatus for improving signal to noise ratio using wavelet decomposition and frequency thresholding
CA2309002A1 (en) * 2000-05-23 2001-11-23 Jonathan Martin Shekter Digital film grain reduction
US7054501B1 (en) 2000-11-14 2006-05-30 Eastman Kodak Company Estimating noise for a digital image utilizing updated statistics
US20020126910A1 (en) * 2001-01-02 2002-09-12 Eastman Kodak Company Method of calculating noise from multiple digital images utilizing common noise characteristics
US6999202B2 (en) 2001-03-27 2006-02-14 Polaroid Corporation Method for generating a halftone of a source image
US20030002744A1 (en) * 2001-04-06 2003-01-02 Eastman Kodak Company Method for producing an image noise table having statistics for use by image processing algorithms
KR100706673B1 (ko) * 2001-05-30 2007-04-13 센신 캐피탈, 엘엘씨 고속 사진인쇄장치
US6842186B2 (en) * 2001-05-30 2005-01-11 Polaroid Corporation High speed photo-printing apparatus
US6937365B2 (en) 2001-05-30 2005-08-30 Polaroid Corporation Rendering images utilizing adaptive error diffusion
US7062108B2 (en) * 2001-06-12 2006-06-13 Eastman Kodak Company Method for estimating the appearance of noise in images
ATE447216T1 (de) * 2001-07-12 2009-11-15 Do Labs Verfahren und system zur verringerung der aktualisierungs-häufigkeit
US6906736B2 (en) * 2002-02-19 2005-06-14 Polaroid Corporation Technique for printing a color image
US6965702B2 (en) * 2002-02-27 2005-11-15 Eastman Kodak Company Method for sharpening a digital image with signal to noise estimation
WO2003107274A2 (en) * 2002-06-12 2003-12-24 Silicon Optix Inc. System and method for electronic correction of optical anomalies
US6754300B2 (en) * 2002-06-20 2004-06-22 Ge Medical Systems Global Technology Company, Llc Methods and apparatus for operating a radiation source
KR100612835B1 (ko) * 2002-12-12 2006-08-18 삼성전자주식회사 영상의 색 특성에 관한 사용자 선호성 데이터 생성 방법및 장치와 이를 이용한 영상 색선호특성 변환 방법 및 장치
US7283666B2 (en) 2003-02-27 2007-10-16 Saquib Suhail S Digital image exposure correction
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7606417B2 (en) * 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US7453604B2 (en) * 2003-06-30 2008-11-18 Xerox Corporation Systems and methods for estimating an image marking process using scanned image attributes
US8773685B2 (en) 2003-07-01 2014-07-08 Intellectual Ventures I Llc High-speed digital image printing system
US7336401B2 (en) * 2003-12-19 2008-02-26 Xerox Corporation Systems and methods for estimating an image marking process using event mapping of scanned image attributes
JP2006025591A (ja) * 2004-06-08 2006-01-26 Toshiba Corp 車両用電源装置
US20060092440A1 (en) * 2004-11-01 2006-05-04 Bagai Farhan A Human visual system based design of color signal transformation in a color imaging system
US7889943B1 (en) 2005-04-18 2011-02-15 Picture Code Method and system for characterizing noise
US8059905B1 (en) 2005-06-21 2011-11-15 Picture Code Method and system for thresholding
US20070153135A1 (en) * 2005-12-19 2007-07-05 Samsung Electro-Mechanics Co., Ltd. Device for reducing power consumption in display system using diffractive optical modulator
US7692696B2 (en) * 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
IES20060558A2 (en) * 2006-02-14 2006-11-01 Fotonation Vision Ltd Image blurring
US7469071B2 (en) * 2006-02-14 2008-12-23 Fotonation Vision Limited Image blurring
US20070223839A1 (en) * 2006-03-22 2007-09-27 Pavel Kisilev Signal noise estimation
IES20060564A2 (en) * 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
US7986834B2 (en) * 2006-11-08 2011-07-26 Zoran Corporation Method and apparatus for color image correction
JP4859632B2 (ja) * 2006-11-15 2012-01-25 富士通セミコンダクター株式会社 画像処理装置及び画像処理方法
KR100791391B1 (ko) * 2007-01-30 2008-01-07 삼성전자주식회사 노이즈 저감 방법 및 장치
US8189110B2 (en) * 2007-04-11 2012-05-29 Ultimate Corporation Equalization of noise characteristics of the components of a composite image without degrading subject image quality
JP4389977B2 (ja) * 2007-06-29 2009-12-24 ブラザー工業株式会社 画像印刷装置、画像印刷方法、画像印刷プログラム
JP5272219B2 (ja) * 2008-03-04 2013-08-28 オリンパス株式会社 画像処理装置及び画像処理プログラム
MX360669B (es) * 2014-03-06 2018-11-13 Samsung Electronics Co Ltd Método de decodificación de imágenes y dispositivo para el mismo, y método de codificación de imágenes y dispositivo para el mismo.

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5440366A (en) * 1994-07-22 1995-08-08 Polaroid Corporation Multi-pad film processing
JP3550203B2 (ja) * 1995-01-10 2004-08-04 富士写真フイルム株式会社 画像解析装置
GB9600293D0 (en) * 1996-01-08 1996-03-13 Digi Media Vision Ltd Improvements in or relating to noise reduction
US5809178A (en) * 1996-06-11 1998-09-15 Apple Computer, Inc. Elimination of visible quantizing artifacts in a digital image utilizing a critical noise/quantizing factor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541357A (ja) * 2007-09-28 2010-12-24 オセ−テクノロジーズ・ベー・ヴエー Mtfの適応可能な補正のための方法、装置、およびコンピュータプログラム

Also Published As

Publication number Publication date
WO1999033023A1 (en) 1999-07-01
US6069982A (en) 2000-05-30
EP1042733A1 (en) 2000-10-11

Similar Documents

Publication Publication Date Title
JP2001527305A (ja) 画像中ノイズの周波数依存度およびグレーレベル依存度の推定
EP1063611B1 (en) Method for modification of non-image data in an image processing chain
US7856150B2 (en) Denoise method on image pyramid
US6681054B1 (en) Noise reduction method utilizing probabilistic weighting, apparatus, and program for digital image processing
US7181086B2 (en) Multiresolution method of spatially filtering a digital image
US6931160B2 (en) Method of spatially filtering digital image for noise removal, noise estimation or digital image enhancement
US6625325B2 (en) Noise cleaning and interpolating sparsely populated color digital image using a variable noise cleaning kernel
US6754398B1 (en) Method of and system for image processing and recording medium for carrying out the method
US6718068B1 (en) Noise reduction method utilizing statistical weighting, apparatus, and program for digital image processing
US7751641B2 (en) Method and system for digital image enhancement
US6741753B1 (en) Method and system of local color correction using background liminance masking
JP2004005694A (ja) 画像処理方法、デジタル画像プロセッサ、デジタルカメラ、デジタル写真仕上げシステム及びプログラム
JP2004005675A (ja) 勾配解析を利用したデジタル画像のノイズ予測方法
US7570831B2 (en) System and method for estimating image noise
US6804393B2 (en) Method of calculating noise from a digital image utilizing color cross correlation statistics
US8482625B2 (en) Image noise estimation based on color correlation
JP2002216127A (ja) 最新の統計に利用するデジタルイメージのためのノイズ推定
US20030179944A1 (en) Calculating noise from multiple digital images having a common noise source
US7430334B2 (en) Digital imaging systems, articles of manufacture, and digital image processing methods
US6801339B1 (en) Image processing method and apparatus
Paranjape Fundamental enhancement techniques
US6633411B1 (en) Method and apparatus for repurposing binary images
Perry Image and video noise: an industry perspective
JP4202395B2 (ja) 画像変換方法、変換画像生成方法、および画像補正装置
JP2002288651A (ja) コモンノイズ特性を利用した複数のデジタル画像からの雑音を計算する方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060207