JP4017312B2 - Image processing method, image processing apparatus, and recording medium - Google Patents

Image processing method, image processing apparatus, and recording medium Download PDF

Info

Publication number
JP4017312B2
JP4017312B2 JP2000098922A JP2000098922A JP4017312B2 JP 4017312 B2 JP4017312 B2 JP 4017312B2 JP 2000098922 A JP2000098922 A JP 2000098922A JP 2000098922 A JP2000098922 A JP 2000098922A JP 4017312 B2 JP4017312 B2 JP 4017312B2
Authority
JP
Japan
Prior art keywords
noise
image data
image
noise suppression
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000098922A
Other languages
Japanese (ja)
Other versions
JP2001285641A (en
Inventor
公俊 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2000098922A priority Critical patent/JP4017312B2/en
Publication of JP2001285641A publication Critical patent/JP2001285641A/en
Application granted granted Critical
Publication of JP4017312B2 publication Critical patent/JP4017312B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、デジタル画像の粒状等をはじめとするノイズ(雑音)成分を抑制し、かつシャープネス強調するデジタル画像の画像処理方法、装置および記録媒体に関する。
【0002】
【従来の技術】
銀塩写真の画像を画像入力スキャナで走査して収録したデジタル画像や、デジタルスチルカメラ等で撮影したデジタル画像を画像処理し、画像出力プリンタで出力するようなシステムでは、出力された画像はスキャナやカメラとプリンタによる大幅なシャープネス劣化があり、それを回復するために従来からラプラシアンフィルタやアンシャープマスク(USM)によるシャープネス強調が行われている。しかし、画像のシャープネスが向上すると共に粒状などのノイズ(雑音)が悪化する副作用があるため、粒状などのノイズのある画像においては粒状悪化が許容される範囲内で控え目なシャープネス強調しか行えず、原稿画像以上に画質を向上させることが困難であった。
【0003】
デジタル画像において、ノイズとなる粒状を除去しシャープネスを強調する画像処理法としては幾つか提案されているが、粒状を除去する方法として平均化したり、ぼかす方法を用いているため、ぼけた粒状パターンが視覚的には不快に感じられたり、微小な被写体構造が不自然に消されたりする等の問題点があり、写真のような審美的な画像には適さない。
【0004】
写真、印刷、テレビジョン、各種複写機等の画像において、カメラ等の光学系による鮮鋭度劣化、写真感光材料に固有の粒状や鮮鋭度劣化、もしくは写真や印刷等の原稿画像を画像入力装置でデジタル化する際に付加されるノイズ(雑音)や鮮鋭度劣化を回復するため、ノイズを抑制したり、シャープネスを強調する画像処理法として種々の方法が考案されている。たとえば、従来の画像処理方法では、粒状除去処理方法としては平滑化やコアリングという方法が用いられ、シャープネス強調処理法としてはアンシャープマスク(USM;Unsharp Masking)やラプラシアン、あるいはハイパスフィルタによる処理が用いられている。しかし、これらの従来の粒状除去処理方法では粒状を抑制すると不自然な違和感のあるアーチィファクトが生じたり、本来は抑制してはならない画像の微細構造を粒状と共に抑制してしまう等の望ましくない欠点を有していた。
【0005】
たとえば、特表昭57−500311号公報、同57−500354号公報および「アンシャープで粒状の目立つ写真画像のデジタル強調方法」、電子画像処理国際会議録、1982年7月、第179〜183頁(P.G.Powell and B.E.Bayer, ``A Method for the Digital Enhancement of Unsharp,Grainy Photographic Images'' ,Proceedingus of the International Conference on Electronic Image Processing,Jul.26-28,1982,pp.179-183)に開示されたポーウェルおよびバイヤーらの処理法では、粒状抑制方法として平滑化処理法(ローパスフィルタ)を用い、シャープネス強調方法としてアンシャープマスク(ハイパスフィルタ)による処理法を用いている。平滑化処理はn×n画素の信号値にGaussian型等の重み付けを乗じて信号を平滑化することによって、粒状を抑制する処理である。シャープネス強調処理は、先ずm×m画素の画像信号を用いて、中心画素から周囲画素の方向の微分値を求め、その値が設定した閾値より小さい場合は粒状や雑音と見做してコアリング処理で除去し、残った閾値より大きい微分値の和をとり、1.0以上の定数を乗じて上記の平滑化信号に加算することによりシャープネス強調を行う。
【0006】
この処理法では、粒状パターンをぼかしているので、粒状パターンの濃淡コントラストは低下するが、粒状を構成する粒子の大きな集落(粒状モトル)からなる大きいむらパターンが視覚的には目立つようになったりするため、不快な粒状として見えるという欠点がある。また設定した閾値で粒状と画像の識別を行っている(コアリング処理)ので、コントラストの低い画像信号が粒状誤認され、粒状と共に抑制あるいは除去されてしまったり、除去した信号と強調した画像信号との境界で不連続性が生じ、画像に不自然なアーティファクトが見られるという欠点がある。特に、芝生や絨毯等の微細な画像、および布地等のテクスチャが描写されている画像においてこの欠点が現れ、視覚的には極めて不自然で望ましくないアーティファクトとなる。
【0007】
【発明が解決しようとする課題】
ところで、上述した従来の粒状抑制・シャープネス強調画像処理方法では、シャープネスはアンシャープマスクで強調し、粒状はぼかしたり、平滑化によって抑制する手法を用い、原画像から粒状(ノイズ)信号と輪郭信号を信号レベルで分離して、輪郭信号はシャープネス強調し、平滑領域は粒状抑制することにより、小さい信号を粒状と見做して処理するので、粒状の信号レベルと近い画像細部信号、すなわち衣類のテクスチャや頭髪等の画像信号が粒状と共に抑制され、画像処理のアーティファクトとして視覚的に不快な画像となる欠点があるという問題があった。すなわち、このような従来法では、粒状抑制の方法として平均化を用いて画像をぼかしており、ぼけた粒状パターン(「ぼけ粒状」)は、画像における濃度の揺らぎとしては小さくなって粒状が良くなったかのように見えるが、逆に濃度揺らぎ量は小さいがぼけて広がった粒状パターンが視覚的には不快なパターンと認識され、特に、ポートレート写真等の顔や肌、あるいは壁や空等の一様な被写体で目立つという問題があった。
【0008】
また、原画像から粒状(雑音、ノイズ)領域と輪郭領域を信号レベルで分離する従来法では、原画像とぼけ画像の差分信号から輪郭領域と平坦領域を識別し、それぞれの領域に対してアンシャープマスクやラプラシアン等の異なる係数を用いて処理することによって、平坦領域では粒状を抑制しつつ、輪郭領域ではシャープネスを強調してエッジをぼかすことなく粒状抑制をしているが、輪郭領域と粒状領域の認識・分離が閾値となる信号レベルで一律に行われるため、その境界で不連続性が生じるという問題があった。
さらに、このような従来法では、エッジ強調あるいはシャープネス強調方法としてアンシャープマスクやラプラシアンが用いられているが、画像の輪郭・エッジ部にマッキーラインのような縁取りが発生し易く、視覚的に不自然な印象を与えるという問題があった。
このような粒状などのノイズの抑制とシャープネス強調に関する問題は、銀塩写真に特有の問題でなく、デジタルスチルカメラ等で画像を撮影する際にも、ショットノイズや電気的なノイズをはじめとする種々のノイズの抑制とシャープネス強調の問題として発生する。
【0009】
本発明は、上記従来技術の現状を鑑みてなされたものであって、銀塩写真、デジタルスチルカメラ画像、印刷、テレビジョン、各種複写機等の画像において、カメラによるぼけ、写真感光材料の粒状やぼけ等の原稿画像に固有のノイズ(雑音)と鮮鋭度劣化、もしくはその原稿画像を画像入力装置でデジタル化する際に付加されるノイズやデジタルスチルカメラで撮影する際のショットノイズと鮮鋭度劣化を回復する処理を行う際に、上記従来技術の問題点、すなわち、平滑化によるノイズの抑制を行うとノイズがぼけて大きいむらが視覚的に不快に見えるという問題点、コントラストの低い画像信号が粒状、あるいはノイズと誤認され、抑制あるいは除去される問題点、ノイズ除去領域とシャープネス強調領域の境界が不連続になり画像に不自然なアーティファクトが見られるという問題点を生じさせずに、ノイズを抑制し、画像のシャープネス強調を行うデジタル画像の画像処理方法およびこれを実施する画像処理装置およびこの方法を実施するコンピュータが読み取り可能な記録媒体を提供することを目的とする。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明は、原画像データにシャープネス強調処理を行い、画像と共にこの画像中に含まれるノイズを鮮鋭化したシャープネス強調画像データを作成し、
前記原画像データに平滑化処理を行って、平滑化画像データを作成し、
前記シャープネス強調画像データから前記平滑化画像データを減算して、シャープネス強調された被写体画像のエッジとシャープネス強調されたノイズとが混在する混在画像データを作成し、
前記原画像データからエッジ検出を行って被写体エッジ領域とノイズ領域を識別するためのエッジ強度データを求め、
このエッジ強度データからノイズ領域の度合いを示すノイズ領域の重み付け係数を求め、
前記混在画像データに、前記ノイズ領域の重み付け係数を乗じて、ノイズデータを求め、
前記原画像データにおけるノイズ抑制の広がりを表すノイズ抑制分布関数を設定し、前記ノイズデータとこのノイズ抑制分布関数との畳み込み積分を行ってノイズ抑制分布を求め、
前記ノイズデータに前記ノイズ抑制分布を乗算することによって、ノイズ抑制成分画像データを算出し、
前記シャープネス強調画像データから前記ノイズ抑制成分画像データを変倍して減算することによって、原画像のノイズ領域におけるノイズ成分を選択的に抑制した画像を作成することを特徴とするデジタル画像のノイズ抑制のための画像処理方法を提供するものである。
【0011】
ここで、前記ノイズ抑制分布関数は、原画像の画素における、ノイズ抑制の広がりの中心位置において値が最大であり、この中心位置から離れるに従って値が小さくなる単調減少関数であるのが好ましく、あるいは、前記ノイズ抑制分布関数は、原画像の画素におけるノイズ抑制を及ぼす範囲において一定の値を持つ矩形関数であるのが好ましい。
【0012】
また、前記ノイズ抑制分布関数の、原画像の画素における前記ノイズ抑制を及ぼす範囲は、画素数で1以上15以下の範囲の領域であるのが好ましく、また、前記ノイズ抑制分布関数は、原画像の画素におけるノイズ抑制を及ぼす範囲の境界の位置とこの位置での値を定めることによって設定されるのが好ましい。
【0013】
前記ノイズ抑制分布関数は、rを原画像の画素におけるノイズ抑制の広がりの中心位置からの距離、aを原画像の画素におけるノイズ抑制の広がりの範囲を定める抑制範囲定数とするとき、下記式(1)で表される関数s(r)であるのが好ましく、
s(r)= exp(−r/a) (1)
s(r)= exp(−r2 /a2 ) (2)
s(r)= rect(r/a) (3)
ここで、式(3)のrect(r/a)は、値が1の矩形関数である。
【0014】
さらに、上記目的を達成するために、本発明は、原画像データにシャープネス強調処理を行い、画像と共にこの画像中に含まれるノイズを鮮鋭化したシャープネス強調画像データを作成するシャープネス強調処理部と、
前記原画像データに平滑化処理を行って、平滑化画像データを作成する平滑化処理部と、
前記シャープネス強調画像データから前記平滑化処理部で作成した前記平滑化画像データを減算して、シャープネス強調された被写体画像のエッジとシャープネス強調されたノイズとが混在する混在画像データを作成するエッジ・ノイズ混在成分抽出部と、
前記原画像データからエッジ検出を行って被写体エッジ領域とノイズ領域を識別するためのエッジ強度データを求めるエッジ検出部と、
このエッジ検出部で求めたエッジ強度データからノイズ領域の度合いを示すノイズ領域の重み付け係数を求めるノイズ領域重み係数演算部と、
前記エッジ・ノイズ混在成分抽出部で作成した前記混在画像データに、前記ノイズ領域重み係数演算部で求めた前記ノイズ領域の重み付け係数を乗じて、ノイズデータを求めるノイズ成分識別分離部と、
前記原画像データにおけるノイズ抑制の広がりを表すノイズ抑制分布関数を設定するノイズ抑制分布関数設定部と、
前記ノイズ成分識別分離部で求めた前記ノイズデータと前記ノイズ抑制分布関数設定部で設定した前記ノイズ抑制分布関数との畳み込み積分を行ってノイズ抑制分布を求めるノイズ抑制分布演算部と、
このノイズ抑制分布演算部において求められた前記ノイズ抑制分布を前記ノイズ成分識別分離部で求めた前記ノイズデータに乗算することによって、ノイズ抑制成分画像データを算出するノイズ抑制成分演算部と、
前記シャープネス強調画像データから前記ノイズ抑制成分演算部で算出した前記ノイズ抑制成分画像データを変倍して減算して処理画像データを求めるノイズ抑制演算処理部とを有することを特徴とするデジタル画像のノイズ抑制のための画像処理装置を提供するものである。
【0015】
また、上記目的を達成するために、本発明は、
原画像データにシャープネス強調処理を行い、画像と共にこの画像中に含まれるノイズを鮮鋭化したシャープネス強調画像データを作成する手順と、
前記原画像データに平滑化処理を行って、平滑化画像データを作成する手順と、
前記シャープネス強調画像データから前記平滑化画像データを減算して、シャープネス強調された被写体画像のエッジとシャープネス強調されたノイズとが混在する混在画像データを作成する手順と、
前記原画像データからエッジ検出を行って被写体エッジ領域とノイズ領域を識別するためのエッジ強度データを求める手順と、
前記エッジ強度データからノイズ領域の度合いを示すノイズ領域の重み付け係数を求める手順と、
前記混在画像データに、前記ノイズ領域の重み付け係数を乗じて、ノイズデータを求める手順と、
前記原画像データにおけるノイズ抑制の広がりを表すノイズ抑制分布関数を設定し、前記ノイズデータとこのノイズ抑制分布関数との畳み込み積分を行ってノイズ抑制分布を求める手順と、
前記ノイズデータに前記ノイズ抑制分布を乗算することによって、ノイズ抑制成分画像データを算出する手順と、
前記シャープネス強調画像データから、前記ノイズ抑制成分画像データを変倍して減算する手順をコンピュータに実行させて、原画像のノイズ領域におけるノイズ成分を選択的に抑制した画像を作成することを特徴とするプログラムを記録したコンピュータが読み取り可能な記録媒体を提供するものである。
【0016】
ここで、上記ノイズとは、銀塩感光材料を用いた写真用フィルム等をフィルムスキャナを用いて読み取って得られる画像データに含まれる、感光材の粒子に起因する粒状のみならず、銀塩感光材料を用いることなくディジタルスチルカメラ等のCCDやMOS等の撮像素子および種々の撮像管を用いて得られる画像データに含まれるノイズも広く含む。
【0017】
上記発明は、
・原画像からエッジを検出し、エッジ強度を求め、エッジ強度の弱い領域はノイズ領域と見做し、ノイズ領域をエッジ領域から分割するためのノイズ領域の重み付け係数を算出し、
・原画像からシャープネス強調画像および平滑化画像を作成し、シャープネス強調画像から平滑化画像を減算することにより、シャープネス強調されたエッジとシャープネス強調されたノイズの混在成分を求め、
・ノイズ領域の重み付け係数をエッジとノイズの混在成分に乗算して求めたノイズ成分から、ノイズ抑制分布関数を用いてノイズ抑制分布を求め、このノイズ抑制分布と上記ノイズ成分とからノイズ抑制成分を求め、
・シャープネス強調画像からノイズ抑制成分を減算することによって、
例えば、原画像データが銀塩感光材料を用いた写真用フィルム等からフィルムスキャナを用いて読み取られた場合、感光材料の粒子の大きな集落であり、ノイズ成分を形成する粒状モトルがより大きい(粒状が粗い)部分では粒状を強く抑制し、粒状モトルの小さい部分では粒状を弱く抑制するか、あるいは抑制する。
これによって、粒状等のノイズの揺らぎを抑制、均一化することができ、画像のノイズ領域において粒状モトル等の空間的に大きく揺らぐ部分が選択的に抑制された画質の良い画像を得ることができる。
原画像データがデジタルスチルカメラ等の撮像素子を用いて撮影されて得られた場合、入射光のフォトン揺らぎや、撮像素子中の1個1個の光センサの固有のノイズ、あるいは電気回路で発生する熱雑音(ノイズ)、量子化ノイズ等の種々のノイズが画像中で画素単位の信号、あるいは濃度揺らぎとなって現れるが、ノイズ揺らぎが空間的には疎の部分や密の部分が生じ、銀塩感光材料の粒状モトルと同様に、ノイズモトルを形成しているので、ノイズモトルの大きいところは強く抑制し、ノイズモトルの小さいところは弱く抑制することによって、ノイズを均一化することができ、画質の良い画像を得ることができる。
【0018】
すなわち、本発明のノイズ抑制の画像処理方法では、ノイズ成分を識別し、そのノイズ成分中のノイズモトル等のように大きく粗いノイズをより強く抑制し、ノイズの小さいものを弱く抑制するか抑制しないような処理を行うことによって、ノイズによる画像濃度の変動を小さく均一にする(揺らぎの大きさのばらつきを小さくする)処理を行う。ノイズ成分が粒状成分である場合、粒状パターンを、従来のように平滑化処理を行うものでなく、大きな粒状モトルを目立たなくするので、銀塩写真感材で微粒子乳剤を用いた時に得られるような細かい粒状(空間的に細かく、かつ振幅も小さく粒状)にすることができる。
【0019】
【発明の実施の形態】
以下、本発明の画像処理方法を実施する画像処理装置について、添付の図面に示される好適実施例を基に詳細に説明する。
本発明における「ノイズ」は、上述したように雑音全般を指す。また、「ノイズ」は、デジタルスチルカメラ等の電子的撮像系では単にノイズと言うが、銀塩写真感光材料においてはノイズというより、粒状と言うのが一般的である。従って、以降の説明で、特に銀塩写真感光材料を例として説明する場合、「ノイズ」に替えて「粒状」を用いる。また、後述する「ノイズモトル」は、デジタルスチルカメラ等の電子的撮像系においてノイズ揺らぎが空間的に密な部分を形成するノイズモトルの他、銀塩写真感光材料における粒状モトルも含む。
【0020】
図1は、本発明に係る画像処理装置を組み込んだシステムであって、カラー画像を読み取り、本発明の画像処理方法を行い、カラー画像を出力するカラー画像再生システムのブロック図である。図2は、本発明に係る画像処理方法を実施する画像処理装置の一実施例のブロック図である。図3は、本発明の画像処理方法の処理アルゴリズムの一例を示すフローチャートである。以下の説明では、デジタル画像として銀塩カラー写真画像から得られる画像データを代表例として説明する。
【0021】
図1に示すように、カラー画像再生システム10は、カラー写真画像(カラーネガフィルム、カラーリバーサルフィルムなどのフィルム画像などやデジタルカメラ等の撮影画像)などのカラー画像を読み取ってデジタル入力画像データを得る画像入力装置12と、画像入力装置12から入力される入力画像データに所要の画像処理とともに本発明のデジタル画像のノイズ抑制およびシャープネス強調のための画像処理を施して、処理画像データI1 を得る画像処理装置14と、画像処理装置14から出力される処理画像データI1 に基づいてプリント画像などのカラー画像を出力する画像出力装置16とを備える。
【0022】
画像入力装置12は、デジタルカラー画像データを作成して、画像処理装置14への入力画像データとして出力するためのもので、例えば、カラー(またはモノクロ)ネガフィルムやカラー(またはモノクロ)リバーサルフィルムなどのカラーフィルム画像を読み取ってデジタル画像データを作成するフィルムスキャナ装置、印刷物や反射プリント画像などのカラー反射原稿画像を読み取ってデジタル画像データを作成する反射原稿用スキャナ装置が挙げられる。なお、本発明においては、被写体を直接撮影してデジタル画像データを作成するデジタルカメラや電子スチルカメラやビデオカメラ、もしくは、これらで作成されたデジタル画像データを格納した記録媒体、例えば、スマートメディア、メモリーステック、PCカードなどの半導体メモリーやFD、Zipなどの磁気記録媒体やMO、MDなどの光磁気記録媒体やCD−ROM、Photo−CDなどの光記録媒体などをドライブしてデジタル画像データとして読み出すドライバ、これらのデジタル画像データを読み込んでソフトコピー画像を表示するCRTモニタ、液晶モニタなどの表示装置、および読み込んだもしくは表示されたデジタル画像データを全体的にもしくは部分的に画像処理する画像処理用PC、WSなどのコンピュータなどであってもよい。
【0023】
画像出力装置16は、最終処理画像データとして画像処理装置14から出力される処理画像データI1 に基づいて、カラー写真画像などのカラー入力画像が再現されたカラー画像を出力するためのもので、反射プリント画像や反射原稿画像などのカラーハードコピー画像を出力するデジタルフォトプリンタや複写機や電子写真、レーザプリンタ、インクジェット、熱昇華型、TAなどの種々の方式のデジタルカラープリンタなどの画像出力装置、ソフトコピー画像として表示するTV、CRTモニタ、液晶モニタ等の表示装置やPCやWSなどのコンピュータなどを挙げることができる。
【0024】
画像処理装置14は、画像入力装置12からの入力画像データの色および調子(階調)を画像出力装置16に所望の色および調子再現で出力するために調整処理して原画像データIO を作成する色・調子処理部18と、この色・調子処理部18によって処理された原画像データIO に本発明の最も特徴とする部分であって、本発明のデジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法を実施して処理画像データI1 を作成するノイズ抑制・シャープネス強調画像処理部20と、色および調子再現性が調整された画像データに基づいて再生画像を表示する画像モニタおよび種々の所要の画像処理や本発明の画像処理を行うためのパラメータを設定する画像処理パラメータ設定部からなる画像モニタ・画像処理パラメータ設定部22とを有する。
【0025】
ここで、色・調子処理部18は、画像入力装置12から入力される入力画像データの色および調子(階調)の再現性を画像出力装置16において適正に再現されるように色変換または色補正(階調変換または補正も含む)を行って、本発明の画像処理方法を実施するための原画像データIO を作成するものであり、ここで行われる処理としては、例えば、色(グレイ)変換や補正、階調補正、濃度(明るさ)補正、彩度補正、倍率変換、濃度ダイナミックレンジの圧縮・伸長などの種々の処理を挙げることができる。
【0026】
画像モニタ・画像処理パラメータ設定部22は、画像モニタおよび画像処理パラメータ設定部からなり、画像モニタに画像入力装置12から入力された入力画像データに基づいて入力画像を表示するとともに、この画像モニタを用いて(例えばGUIなどによって)入力画像データに色・調子処理部18および本発明の画像処理方法を実施するためのノイズ抑制画像処理部20で行う各種の画像処理のパラメータを図示しないマウスやキーボードなどのデータ入力機によって設定するためのものである。ここで、設定されるパラメータは、上述した各種の処理に用いられる補正係数、変換係数、倍率などや後に詳細に説明する本発明の画像処理方法を実施する上で必要となる様々な係数や定数などを挙げることができる。
【0027】
本発明の画像処理方法を実施するノイズ抑制画像処理部(以下、単に本画像処理部という)20は、色・調子処理部18で作成された原画像データIO に本発明の特徴とするノイズ抑制とシャープネス強調の画像処理を行って、画像出力装置16に出力するための最終処理画像データである処理画像データI1 を作成するためのものである。
【0028】
ここで、本画像処理部20は、図2に示すように、原画像データIO にシャープネス強調処理を行って、画像とともにこの画像中に含まれる粒状をはじめとするノイズ(雑音)をも鮮鋭化したシャープネス強調画像データIS を作成するシャープネス強調処理部24と、原画像データIO に平滑化処理を行って、平滑化画像データIAVを作成する平滑化処理部26と、原画像データI0 から平滑化画像データIAVを減算して、被写体画像のエッジとノイズとが混在する混在画像データΔIEGを作成するエッジ・ノイズ混在成分抽出部28と、原画像データIO から被写体画像のエッジ検出を行って、被写体エッジ領域とノイズ領域とを識別するためのエッジ強度データEO を求めるエッジ検出部30と、このエッジ強度データEO からノイズ領域の重み付け係数WG を求めるノイズ領域重み係数演算部32と、エッジ・ノイズ混在成分抽出部28で得られた混在画像データΔIEGにノイズ重み係数演算部32で求められたノイズ領域の重み付け係数WG を乗じて、ノイズ領域のノイズデータG0 を求めるノイズ成分識別分離部34と、原画像データIO におけるノイズ抑制の広がりを表すノイズ抑制分布関数s1 を演算して設定するノイズ抑制分布関数設定部36と、ノイズ成分識別分離部34で求めたノイズデータG0 とノイズ抑制分布関数設定部36で設定したノイズ抑制分布関数s1 との畳み込み積分を行ってノイズモトル抑制分布(本発明におけるノイズ抑制分布に相当)Mを演算して求めるノイズモトル抑制分布演算部(本発明におけるノイズ抑制分布演算部に相当)38と、ノイズモトル抑制分布演算部38で求められたノイズモトル抑制分布Mをノイズ成分識別分離部34で求めたノイズデータG0 に乗算することによって、ノイズ抑制成分画像データG1 を算出するノイズ抑制成分演算部40と、ノイズ抑制成分演算部40で算出されたノイズ抑制成分画像データG1 を変倍してシャープネス強調処理部24で求められたシャープネス強調画像データIS から減算し、画像出力装置16に適した処理画像データI1 に変換するノイズ抑制演算処理部42とを有する。
【0029】
図2に示すノイズ抑制・シャープネス強調画像処理部20は、基本的に以上のように構成される。
次に、図3に示す本発明の画像処理方法の処理アルゴリズムを示すフローチャートを参照しながら、本処理部20の作用に基づいて、本発明の画像処理方法を概説する。
【0030】
本実施例においては、図3に示すように、画素毎に先ず、原画像データIO から、シャープネス強調処理部24においてシャープネス強調処理を行い(ステップ100)、シャープネス強調画像データIS を得、平滑化処理部26において平滑化処理を行い(ステップ102)、平滑化画像データIAVを得、エッジ・ノイズ混在成分抽出部28においてシャープネス強調され鮮鋭化されたエッジとノイズとの混在した混在画像データΔIEGを抽出する(ステップ104)。
【0031】
一方、エッジ検出部30において原画像データIO から被写体エッジ領域とノイズ領域とを識別するためのエッジ強度データEO を求めてエッジ検出を行い(ステップ106)、ノイズ領域重み係数演算部32において、ノイズ領域の重み付け係数WG を計算して求める(ステップ108)。
さらに、ノイズ成分識別分離部34において、ノイズデータの識別・分離を行う(ステップ110)。すなわち、混在画像データΔIEGに、ノイズ重み係数演算部32で求められたノイズ領域の重み付け係数WG を乗じて、ノイズデータG0 を求める。
【0032】
次に、ノイズ抑制分布関数設定部36において、原画像データI0 におけるノイズ抑制の広がりを表すノイズ抑制分布関s1 を設定し、ノイズモトル抑制分布演算部38において、ノイズデータG0 とこのノイズ抑制分布関数s1 との畳み込み積分を行ってノイズモトル抑制分布Mを求め(ステップ112)、ノイズ抑制成分演算部40において、ノイズモトル抑制分布MをノイズデータG0 に乗算することによって、ノイズ抑制成分画像データG1 を演算して算出し(ノイズモトル抑制分布の演算を行い)(ステップ114)、ノイズ抑制演算処理部42において、シャープネス強調処理部24で得られたシャープネス強調画像データIS から先に算出したノイズ抑制成分画像データG1 を変倍して減算し(ノイズ抑制画像の演算を行い)、さらに、必要に応じて、画像出力装置16に適した画像データに変換することによって処理画像データI1 を得る(ステップ116)。
【0033】
次に、本発明の画像処理方法の上述した各工程について詳細に説明する。
まず、シャープネス強調工程(ステップ100)について説明する。
ここで、画像のシャープネスを強調する方法としては、アンシャープマスク(Unsharp masking, USM)またはラプラシアン(Laplacian) が良く知られている。本発明においても、これらを用いることにより、画像のシャープネス劣化が軽度なものであれば、画像のシャープネスを強調することができる。
【0034】
アンシャープマスクは、次式のように原画像データI0(x,y)(注目する画素位置を、x およびy とする) から、I0(x,y)を平均化あるいはぼかした画像Iav x,y)を引いて求めたエッジ強調成分I0(x,y)−Iav(x,y) に係数aを掛けて原画像データI0 (x,y) に加算することによって、下記式(4)のように、シャープネス強調画像IS (x,y) を求める方法である。
S (x,y) =I0(x,y)+a〔I0(x,y)−Iav x,y)〕 (4)
ここで、aはシャープネス強調の程度を調節する定数である。
ラプラシアンは、原画像データI0(x,y)の二次微分(ラプラシアン)▽2 0(x,y)を原画像データI0(x,y)から引くことによって、シャープネス強調する方法で、次式で表される。
S (x,y) =I0(x,y)−▽2 0(x,y) (5)
ラプラシアンによるシャープネス強調の具体的な例としては、下記式(6)のような3×3の係数配列が良く用いられる。

Figure 0004017312
【0035】
この係数配列では、特に強いシャープネス強調を掛けたときに、画像のエッジに不自然な輪郭が発生し易い。そこで、そのような欠点を少なくするために、本発明では式(7)に示したような正規分布型(Gaussian)のぼけ関数を用いたアンシャープマスクを用いるのが好ましい。
G(x,y)=(1/2πσ2)exp[−(x2 + y2)/2σ2] (7)
ここで、σ2 は正規分布関数の広がりを表すパラメータであり、マスクの端x=x1 における値とマスクの中心x=0における値の比、
G(x1,0)/G(0,0)=exp[−x1 2/2σ2] (8)
が0.1〜1.0となるように調節することによって、3×3のアンシャープマスクのシャープさを所望のものとすることができる。式(8)の値を1.0に近い値にすると、式(5)の中央のラプラシアンフィルタとほぼ同じマスクを作ることができる。
マスクのシャープさを変更するには、この他にマスクの大きさを変更する方法があり、たとえば5×5、7×7、9×9等のマスクを用いることによって、シャープネス強調された画像の空間周波数を大幅に変更することができる。
【0036】
また、マスクの関数形としても、上記の正規分布型以外のもの、たとえば、下記式(9)のような指数関数型のマスクを用いることができる。
E(x,y)=exp[−(x2 + y2)1/2/a] (9)
ここで、aは式(8)のσ2 と同様にアンシャープマスクの広がりを表すパラメータであり、マスクの端の値とマスクの中心値の比、
E(x1,0)/E(0,0)=exp[−x1/a] (10)
が0.1〜1.0となるように調節することによって、3×3のアンシャープマスクのシャープさを所望のものとすることができる。式(10)に、E(x1,0)/E(0,0)=0.3としたときの式(9)の指数関数のマスクの数値例を示す。
0.18 0.30 0.18
0.30 1.00 0.30 (11)
0.18 0.30 0.18
このマスクから、アンシャープマスクの1例を計算すると、次式(12)のようになる。
−0.12 −0.22 −0.12
−0.21 2.32 −0.21 (12)
−0.12 −0.21 −0.12
【0037】
このようなアンシャープマスクを用いて、原画像データI0(x,y)からシャープネス強調画像データIS (x,y)を求めることができる。なお、本発明に用いられるアンシャープマスクおよびシャープネス強調方法は、上述したものに限定されるわけではなく、この他の従来公知のアンシャープマスクや空間周波数フィルタリング等によるシャープネス強調方法を適用可能なことはもちろんである。
図4(a)には、エッジ成分が支配的な領域E1 および領域E2 と、ノイズモトルのある領域Aや領域Bや領域Cを含むノイズ領域とを有する原画像データI0 の一次元プロファイル波形の一例が示され、このプロファイル波形に対してシャープネス強調を施すことによって、図4(b)に示すように、領域E1 および領域E2 のようにエッジ成分の強い領域においてエッジの信号が強調されるとともに、領域A、領域Bおよび領域Cを含むノイズ領域についてもノイズ成分が強調されるのが判る。
【0038】
次に、平滑化工程(ステップ102)について説明する。
平滑化を行う方法としては、実空間領域の処理と空間周波数領域の処理を挙げることができる。実空間領域処理では、隣接する画素全体の和を求め平均値を計算してその値に置き換える方法、各画素に重み係数、たとえば正規分布型の関数を掛けて平均値を求める方法、メディアンフィルタのような非線型な処理を行う方法等の種々の方法がある。一方、空間周波数領域の処理では、ローパスフィルタを掛ける方法がある。たとえば、重み係数を用いる平均化の方法では下記式(13)を挙げることができる。なお、ここで、(x,y) 等は、画像内の注目画素の位置座標を表す。
【数1】
Figure 0004017312
【0039】
ただし、nは平均化のマスクサイズ、w(x,y) は重み係数である。w(x,y) =1.0とすると、単純平均となる。
本発明では、実空間領域処理の中で、正規分布型の重み係数を掛けて平均値を求める方法を用いるが、これに限定されない。この時、処理のマスクとしては、下記のようなn×n画素のマスクを用いるのが好ましい。具体的には3×3から5×5、7×7、9×9程度のものを用いるのが好ましい。
Figure 0004017312
【0040】
9×9画素のマスクの一例を示す。この式(15)では中心の値を1.0に正規化した値で示しているが、実際の処理ではマスク全体の和が1.0になるようにする。
0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09
0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15
0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22
0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28
0.30 0.51 0.74 0.93 1.00 0.93 0.74 0.51 0.30 (15)
0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28
0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22
0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15
0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09
【0041】
このようなマスクを用いて、原画像データI0(x,y)から平滑化画像データIAV(x,y)を求めることができる。なお、本発明に用いられる平滑化方法としては、上述した種々の方法に限定されるわけではなく、従来公知の平滑化方法はいずれも適用可能なことはいうまでもない。
図4(c)には、図4(a)に示されるプロファイル波形が、平滑化処理によって処理された結果が示され、ノイズモトルのある領域Aや領域Bや領域Cを含むノイズ領域のノイズ成分が抑制され滑らかになるとともに、エッジ成分が支配的な領域E1 および領域E2 についても、エッジ信号が抑制され滑らかなプロファイル波形となっていることが判る。
【0042】
次いで、エッジ・ノイズ混在成分の抽出工程(ステップ104)について説明する。
平滑化工程(ステップ102)で得られた平滑画像データIAV(x,y) を、下記式(16)に従って、シャープネス強調工程(ステップ100)で得られたシャープネス強調画像データIS から減算し、シャープネス強調されたエッジとノイズの混在する微細構造データである混在成分ΔIEG(x,y) を抽出する。
ΔIEG(x,y)=I0 (x,y) −IAV(x,y) (16)
図4(d)には、図4(b)および(c)で示されるプロファイル波形を用いてエッジ・ノイズ混在成分の抽出工程によって得られる混在成分ΔIEG(x,y) のプロファイル波形が抽出されている。
【0043】
次に、エッジ検出工程(ステップ106)について説明する。
ここでは、一例として局所分散方式によるエッジ検出を代表例として説明するが、本発明はこれに限定される訳ではない。
【0044】
エッジ検出を行う際に先ず、以下のような前処理による濃度変換を行う。このような前処理を行うのは、カラー画像データを構成するR画像データとG画像データとB画像データで相関のないノイズを減少させ以降で行うエッジ検出の際の精度を向上するためである。すなわち、式(17)に示したように、原画像データI0(x,y)のR,G,Bの3色の濃度値DR ,DG ,DB に重み係数r,g,bを掛けて視覚濃度(Visual density)DV に変換する。
V =(rDR +gDG +bDB )/(r+g+b) (17)
重み係数としては、例えば、r:g:b=4:5:1のような値を用いる。この変換を行うのは、R,G,Bで相関の無いノイズを減少させ、エッジ検出の精度を向上させるためである。前処理の配列の大きさの範囲は5×5、あるいは7×7画素程度のものを用いるのがよいが、それは、後述する所定の配列内の画像濃度の変動を、配列内で小さい配列、例えば、3×3程度の配列を用いて、移動しながら計算するためである。
【0045】
なお、エッジ検出における重み係数r,g,bは以下のようにして求めることができる。
重み係数については、視覚で観察したときに目立つ(これは、分光的な視感度分布に対応するという見方もあるが)、すなわち寄与の大きい色の画像データの重み係数が大きいという考えに基づいて最適な値に設定するのが好ましい。一般には、視覚評価実験等に基づいて経験的な重み係数が求められており、下記のような値が一般的な知見として知られている(公知文献としては、野口高史、「心理対応の良い粒状評価法)、日本写真学会誌,57(6),415(1994)があり、色によって異なるが、下記の比に近い数値が示されている)。
r:g:b=3:6:1
r:g:b=4:5:1 (18)
r:g:b=2:7:1
ここで、係数の比r:g:bとして好ましい値の範囲を規定するとすれば、r +g+b=10.0でbを1.0としたときに、gの値として、
g=5.0〜7.0
の範囲の値が好ましい。ただし、r=10.0−b−gである。
【0046】
次ぎに、エッジ検出工程(ステップ106)の局所分散によるエッジ検出について説明する。
エッジの検出は、上記視覚濃度DV の画像データからnE ×nE 画素の配列を移動しつつ、配列内の画像濃度変動を式(19)を用いて、その位置毎の局所的な標準偏差である局所分散σを順次注目画素(x,y) ごとに計算することによって、画像中の被写体エッジの検出を行う。画素配列の大きさ(nE ×nE )は、検出精度および計算負荷を考慮して適宜決めればよいが、例えば3×3、あるいは5×5程度の大きさを用いるのが好ましい。
【0047】
【数2】
Figure 0004017312
ただし、注目画素位置をx 、y とし、DV (x+i-nE /2 -1/2, y+j-nE /2-1/2) は局所分散σ(x,y)を計算するnE ×nE の画素配列の濃度で、< DV (x,y) > はその配列の平均濃度で、
【数3】
Figure 0004017312
である。
【0048】
原画像データIO (x,y)から、上記式(19)に示した局所分散σ(x,y) を計算し、被写体画像のエッジ強度EO (x,y) を求めるには、下記式(21)のような指数関数で表した式を用いる。
O (x,y) =1− exp [−σ(x,y)/aE ] (21)
ただし、aE は局所分散σ(x,y)の値をエッジ強度に変換する際の係数であって、エッジ強度EO =0.5に割り付ける局所分散σ(x,y)の閾値σT とすると、
E =−σT / loge (0.5) (22)
である。σT の値は、ノイズと被写体輪郭の信号の大きさによって適切な値にする必要があるが、各色8bit(256階調)のカラー画像では、10〜100の範囲の値が好ましい。この変換は、ルックアップテーブルとして作成しておくと、変換に要する計算時間を短縮することができる。
【0049】
エッジ強度EO (x,y) を求める変換式としては、上記式に限定されるものではなく、他の式を用いることもできる。たとえば、下記式のようなガウシャン型の関数を用いてもよい。
O (x,y) =1− exp{− [σ(x,y)]2 /aE1 2 } (23)
ただし、aE1はσ(x,y) からEO (x,y) に変換する際の係数で、EO (x,y) =0.5に割り付ける局所分散σ(x,y) の閾値をσT とすると、
E1 2 =−σT 2 / loge (0.5) (24)
である。σT の値は、各色8bit(256階調)のカラー画像では、10〜100の範囲の値が好ましい。
【0050】
また、このエッジ強度データEO (x,y) は、以下に示す式(25)のように、最大の局所分散データσMax で正規化され、0以上1以下の正規化されたエッジ強度データEO (x,y) を得てもよい。
0 (x,y) = σ(x,y) /σMax (25)
ここで、σmax は、局所分散データσ (x,y)の最大値で、σ (x,y)を正規化するための定数である。σMax の決定方法は、式(19)で求めた画像全体の局所分散データσ (x,y)から下記式(26)のように最大値を求める。
σMax =Max{σ (x,y)} (26)
【0051】
また、画像全体から求まる最大値を用いず、画像の一部分、例えば画像の重要被写体のある確率の高い画像の中央部分の特定範囲、あるいは全画像から間引いた画像データ(原画像データの1/4〜1/10程度)から上記式(25)や(26)を用いて最大値σMax を求めてもよい。この場合、画像中央部分の特定範囲の画像データや間引いた画像データは、画像処理を施して処理画像データを得る前に予め粗い画素密度で得ることのできる各種処理条件調整用原画像データ(プレスキャン画像データ)を用いてもよいし、原画像データから抜き出してもよい。
より好ましくは、σMax は、局所分散データσ (x,y)を大きい値から順番に並べた際の上位5〜10%以内に含まれる値の平均値,例えば上位10%以内に含まれる値の平均値<σ (x,y)>Max10%をσMax とし、σ (x,y)がこのσMax を超える場合、すべてσMax に置き換える。この場合、平均値は、画像全体の平均値でも、重要被写体が撮影される場合の多い中央部分の所定の範囲の平均値でも、あるいは、間引いた画像データの平均値であってもよい。
【0052】
ところで、本発明におけるエッジ検出法としては、上記局所分散方式のエッジ検出法に限定されるわけではなく、他のエッジ検出法も利用可能である。上記局所分散方式以外のエッジ検出法には、一次微分や二次微分に基づく方法があり、それぞれに、更に幾つかの方法がある。
まず、空間的な一次微分に基づく方法としては、下記の2つのオペレータがある。
差分型エッジ抽出オペレータとして、 Prewittのオペレータ、 Sobelのオペレータ、 Robertsのオペレータなどがある。 Robertsのオペレータは下記式で表わすことができる。
g(i,j)={[f(i,j) - f(i+l,j+l)]2+[f(i+l,j) - f(i,j+l)]21/2
テンプレート型オペレータとして、8方向のエッジパターンに相当する3×3テンプレートを用いる Robinson のオペレータや Kirshのオペレータがある。
次に、空間的な二次微分に基づく方法としては、ラプラシアンを用いた方法がある。この場合、雑音を強調してしまうので、先ず正規分布型のぼかし処理をしてからエッジ検出する方法が良く用いられる。
【0053】
図4(e)には、図4(a)に示す原画像データI0 からエッジ検出工程で求められたエッジ強度データE0 の波形を示している。図4(a)に示すエッジ強度データE0 において、領域E1 およびE2 の付近でエッジ強度データE0 の値が大きくなっていることがわかる。
【0054】
次に、ノイズ領域重付け係数の計算工程(ステップ108)を説明する。
エッジ検出工程(ステップ106)で得られるエッジ強度データEO (x,y) を用いて、下記式(27)に従って、エッジ領域の重み付け係数WE (x,y) を求めた後、ノイズ領域の重み付け係数WG (x,y) を、下記式(28)に従って求める。
E (x,y) =1−αE +αE 0 (x,y) (27)
G (x,y) =1−WE (x,y) (28)
【0055】
ここで、αE はエッジ領域とノイズ領域の重み付けを設定する定数であり、オペレータが0以上1以下の任意の値を設定することができる。
エッジ領域の重み付け係数WE (x,y) は、1−αE 以上1以下の値となり、WE (x,y) が大きいほど、その画素位置で被写体のエッジ領域である確率が高いと判断され、WE (x,y) が小さいほど、その画素位置でノイズ領域である確率が高いと判断される。正規化されたエッジ強度データE0 (x,y) の値が1.0に近いエッジ領域では、αE の値にかかわらずエッジ領域の重み付け係数WE (x,y) が1.0に近い大きい値となり、ノイズ領域の重み付け係数WG (x,y) は最も小さくなる。一方、正規化されたエッジ強度データE0 (x,y) が1.0より小さくなるに連れ、エッジ領域の重み付け係数WE (x,y) は最小値1−αE に近づき、ノイズ領域の重み付けデータWG (x,y) は最大値αE に近づく。このようなαE は一定の値にデフォルト値として予め設定しておき、オペレータがこのデフォルト値によって画像処理された処理画像を見ながらαE の値を必要に応じて調整するようにしてもよい。
なお、αE が1の場合、正規化されたエッジ強度データEO (x,y) 自身がエッジ領域の重み付け係数WE (x,y) となり、1.0−EO (x,y) がノイズ領域の重み付け係数WG (x,y) となる。
【0056】
図4(f)には、図4(e)で示されるエッジ強度データから求まるノイズ領域の重み付け係数WG (x,y) の波形を示している。領域E1 およびE2 の付近でノイズ領域の重み付け係数WG (x,y) の値が小さくなっている。なお、領域E1 およびE2 の付近におけるノイズ領域の重み付け係数WG (x,y) の値は上記式(27)で設定されるエッジ領域とノイズ領域の重み付けを設定する定数αE によって定まる。
【0057】
次に、ノイズデータの識別・分離工程工程(ステップ110)について説明する。エッジ・ノイズ混在成分の抽出工程(ステップ104)で得られたシャープネス強調されたエッジ成分およびノイズ成分の混在する混在成分ΔIEG(x,y) に、下記式(29)で示されるように、ノイズ重付け係数計算工程(ステップ108)で得られたノイズ領域の重み付け係数WG (x,y) を乗算して、ノイズデータG0 (x,y) を求める。
0 (x,y) =ΔIEG(x,y) × WG (x,y) (29)
図4(g)には、図4(d)に示される混在成分ΔIEG(x,y) と図4(f)に示されるノイズ領域の重み付け係数WG (x,y) を乗算して得られるノイズデータG0 (x,y) のプロファイル波形が示され、エッジ成分が支配的な領域E1 や領域E2 のエッジの信号成分が除去されていることがわかる。
【0058】
次に、ノイズモトル抑制分布演算工程(ステップ112)について説明する。まず、原画像のノイズ領域の画素におけるノイズ抑制の広がりを表すノイズ抑制分布関数s(r)を式(1)のように設定する。ここでrは、点Pをノイズ抑制の広がりの中心位置(原点)とする座標(x,y) に位置する注目画素の原点Pからの距離である。
s(r)= exp(−r/a) (1)
すなわち、s(x,y) = exp(−(x2 +y2 (1/2) /a) と表される。
【0059】
ここで、上式(1)中のaは、原画像の画素におけるノイズ抑制の広がりの範囲を調整する抑制範囲定数であり、予め与えられ、あるいは入力により設定される。抑制範囲定数aが入力により設定される場合、ノイズ抑制を及ぼす範囲の境界の位置、すなわち抑制距離rs とこの位置での値smin を定めることによって設定される。すなわち、抑制距離rs での値smin から下記式(30)によって抑制範囲定数aを計算して求める。
a = −rs /log(smin ) (30)
【0060】
ここで、smin の値は0.1以上0.5以下であるのが好ましく、抑制距離rs の値は1以上15以下の範囲の値であることが好ましい。特に、フィルムに記録された画像をスキャナ等で読み込んで原画像データを得る場合、抑制距離rs の値の設定は、フィルムフォーマット(フィルムの1コマの画像サイズ)やフィルムの種類や感度によって異なるフィルムの粒状(粒状モトル)の粗さ、およびフィルムを走査してディジタル画像データを得るスキャナの走査アパーチャサイズに応じて適宜変更することが好ましい。すなわち、粗い粒状(粒状モトルも大きい)の場合、抑制距離rs の値を大きくし、逆に細かい粒状の場合、抑制距離rs の値を小さくする。また、スキャナの走査アパーチャサイズに応じて適宜変更するのは、同じフィルムであっても、スキャナの走査アパーチャが15μm□の場合と10μm□とした場合、抑制範囲定数aの値が同じでも、実際の画像密度が1.5倍、10μm□の方の画像の画素密度が高くなり、粒状の粗さが変化するからである。
【0061】
また、この抑制距離rs は、平滑化工程(ステップ102)における平均化のマスクサイズを大きくするとステップ110で得られるノイズデータG0 に含まれるノイズモトルの成分も大きくぼけて広がるため、このノイズモトルの成分を抑制するために抑制距離rs を大きくする必要がある。それゆえ、平滑化工程(ステップ102)における平均化のためのマスクサイズに応じて、抑制距離rs も適宜変更するとよい。
平滑化工程における平均化のためのマスクサイズは、3画素×3画素程度を最小マスクサイズとし、11画素×11画素程度を最大マスクサイズとするが、抑制範囲定数aは、このマスクサイズより1.5倍〜2倍程度大きめの値とし、例えば、マスクサイズが3×3の場合、抑制距離rs の値を5程度とするのが好ましい。
【0062】
このようなノイズ抑制分布関数s(r)として式(2)のような関数を設定してもよい。
s(r)= exp(−r2 /a2 ) (2)
ここで、rは、ノイズ抑制の広がりの中心位置からの距離である。
この場合、抑制範囲定数aは、抑制距離rs とその位置での値smin を用いて下記式(31)によって求める。
a = rs /[−log(Smin )](1/2) (31)
あるいは、ノイズ抑制分布関数s(r)として下記式(3)のような関数を設定してもよい。
s(r)= rect(r/a) (3)
ここで、rect(r/a)は、値が1の矩形関数でであり、rは、ノイズ抑制の広がりの中心位置からの距離である。
この場合、抑制範囲定数aは、設定する抑制距離rs とする。また式(2)や式(3)においてsmin =1とすることで式(1)と同一のノイズ抑制分布関数s(r)を得ることができる。
【0063】
このようなノイズ抑制分布関数s(r)は、下記式(32)に従って、0以上1以下のノイズ抑制分布関数s1 (x,y) に正規化される。
1 (x,y) = s(x,y) /S (32)
ここで、Sは、下記式(33)によって求まる積分値である。
【数4】
Figure 0004017312
図4(h)には、式(1)を用いて得られるノイズ抑制分布関数s(x,y) を式(33)に従って正規化したノイズ抑制分布関数s1 (x,y) の一例が示される。
【0064】
次に、この正規化されたノイズ抑制分布関数s1(x,y)とノイズデータG0 (x,y) とを用い、下記式(34)のようにノイズ抑制の及ぼす範囲において畳み込み積分を行い、ノイズモトル抑制分布M(x,y) を算出する。
【数5】
Figure 0004017312
ここで算出するノイズモトル抑制分布M(x,y) は、ある注目画素位置(x,y) におけるノイズの、他の画素から受ける抑制の程度を畳み込み積分によって求めるものであって、原画像データI0 がフィルム画像からスキャナ等で読み取られた画像データである場合の、フィルム感光層中のハロゲン化銀粒子の現像時に生成される現像抑制物質の拡散分布に相当するもので、ノイズデータG0 の変動を感光材料の粒子の分布と見なして、原画像データI0 に含まれる、感光材料の銀粒子を中心にして生成される現像抑制物質の拡散分布に相当するノイズモトル抑制分布M(x,y) を求めるものである。
【0065】
図4に示す例で説明すると、図4(g)に示されるノイズデータG0 と図4(h)に示されるノイズ抑制分布関数s1(x,y)を用い、式(34)に従って算出することで、図4(i)に示されるようなノイズモトル抑制分布M(x,y) を得る。図4(i)では、図中領域Aや領域Bや領域Cに示される部分でノイズモトル抑制分布の値が大きくなり、この領域A、領域Bおよび領域Cの部分では、銀塩感光材料にの場合、銀塩感光材料で生成される現像抑制物質の濃度が高くなっていることを意味するものである。
このようにしてノイズモトル抑制分布M(x,y) が算出される。
【0066】
次に、ノイズモトル抑制成分演算工程(ステップ114)を説明する。
ノイズモトル抑制成分演算工程では、ステップ112で演算されて算出されたノイズモトル抑制分布M(x,y) を下記式(35)で示すように、ステップ110で求めたノイズデータG0 に乗算することで、ノイズ抑制成分画像データG1 (x,y) を演算する。
1 (x,y) = G0(x,y) × M(x,y) (35)
【0067】
ノイズモトル抑制分布M(x,y) をノイズデータG0 に乗算するのは、銀塩感光材料の場合、銀塩感光材料中で生成される現像抑制物質と銀粒子の作用に応じて抑制することを考慮するためである。図4に示す例では、図4(j)にノイズ抑制成分画像データG1 (x,y) が示される。図4(j)に示されるノイズ抑制成分画像データG1 (x,y) を図4(g)に示されるノイズデータG0 と比較すると、領域Aや領域Bや領域Cでは、それ以外の領域、例えば領域E1 や領域E2 に対して、値が相対的に大きくなっていることがわかる。
【0068】
最後に、ノイズ抑制画像演算工程(ステップ116)について説明する。
ノイズ抑制画像演算工程では、ステップ114で求めたノイズ抑制成分画像データG1 (x,y) を、下記式(36)で示すように、ノイズ抑制係数αを用いて変倍した後、ステップ100で求めたシャープネス強調画像データIS から減算し処理画像データI1 ’を求める。
1'(x,y) = I0(x,y) − α×G1(x,y) (36)
ここで、ノイズ抑制係数αは、ノイズ抑制の程度を制御する設定可能なパラメータであり、適宜設定入力される。あるいは、予めデフォルト設定値を設け、必要に応じて変更するものであってもよい。
その後、画像出力装置16に適した画像データの変換を行って処理画像データI1 ’から処理画像データI1 を得る。
【0069】
図4に示す例では、図4(k)に示すような処理画像データI1 ' のプロファイル波形を得ることができ、領域Aや領域Bや領域C等のノイズモトルの領域ではノイズが大きく除去され、それ以外のノイズ領域でもノイズが適切に除去されていることがわかる。しかも、図4(a)に示される原画像データI0 と比較して、領域E1 や領域E2 のエッジ領域はシャープネス強調されている。
【0070】
上記画像処理方法は、写真感光材料等における粒状成分のように、粒状成分が一定の画素領域に影響を及ぼす、すなわち、粒状成分が他の画素の粒状成分に影響を及ぼす場合、粒状抑制のための画像処理として有効であるが、また、上記画像処理法は、他の画素のノイズ成分の影響を受けないCCDやMOS撮像素子等を利用するデジタルカメラ等においても、他の画素の画像データを利用して傷欠陥補正等を行うことから、効果的に適用することができる。CCD撮像素子としては、特開平10−136391号に記載のハニカム配列のものにも適用される。
【0071】
なお、ノイズ抑制のための画像処理方法として、特開平11−250246号公報では、画像のエッジ強度から求めた圧縮係数をノイズ成分に乗じてノイズを抑制する方法が提案されているが、ノイズ領域では一定の圧縮係数が掛かるのでノイズの振幅が比例的に圧縮される。また、ノイズの振幅が大きくなる程圧縮率が高くなる圧縮係数を採用することで、すなわち、ノイズの揺らぎの大きさ(振幅)に非線形変換を施すことで、ノイズの揺らぎを上記公報に記載される画像処理方法より均一な方向にすることもできる。しかし、本発明の画像処理方法は、上記2つの方法のようにノイズの振幅に対して抑制処理を施すのと異なり、ノイズモトルのようにノイズ成分の揺らぎが空間的に大きく形成されるノイズ領域、例えば図4(a)で示される領域Aや領域Bや領域Cに対してノイズ抑制を施す処理であり、ノイズの揺らぎが大きい場所でより大きく抑制し、ノイズの揺らぎを均一化することができる。
【0072】
本発明の画像処理方法は以上のように説明される。
このような画像処理方法は、回路やハードウェアから成る上述した画像処理装置として構成してもよいし、あるいは、ソフトウェアとしてコンピュータの中で機能を発揮するようなプログラムであってもよく、この場合、上記方法を実行するためのプログラムを記録したコンピュータが読み取り可能な記録媒体、CD=ROM等として提供するものであってもよい。
【0073】
このような本発明の画像処理方法を、銀塩カラー写真、例えば35mmカラーネガフィルムに撮影した写真画像に適用したところ、粒状とシャープネスともに、一見して判る程の顕著な改善効果を得ることができた。
特に、粒状について感光材料の微粒子化による粒状改良に匹敵する処理効果を持つため、従来の平均化や揺らぎの減少に基づく各種の粒状除去処理法の欠点であった「ぼけ粒状」的な不自然さや違和感がなくなった。また、シャープネスについては、上記粒状抑制と組み合わせることにより、粒状を悪化させずに、従来のアンシャープネスマスクやラプラシアンフィルタより大幅な強調効果が得られた。
また、デジタルスチルカメラで撮影した画像にも適用したところ、上記銀塩カラー写真によるカラー画像と同様に顕著な画質向上効果が得られた。
【0074】
以上、本発明の画像処理方法、画像処理装置および記録媒体について詳細に説明したが、本発明は上記実施例に限定はされず、本発明の要旨を逸脱しない範囲において、各種の改良および変更を行ってもよいのはもちろんである。
【0075】
【発明の効果】
以上、詳細に説明したように、本発明によれば、先ず原画像をシャープネス強調することによって、被写体画像とノイズの双方を鮮鋭化しておき、その画像から被写体輪郭とノイズ成分を抽出し、ノイズ成分を選択的に除去するので、ノイズがぼけて視覚的に不快に見える大きなむらを形成せず、コントラストの低い画像信号をノイズと誤認することもなく、ノイズ除去領域とシャープネス強調領域の境界に不自然なアーチファクトも形成しない。さらに、ノイズ成分の濃度揺らぎが空間的に粗い領域を抽出し選択的に大きく除去することによってノイズ成分を抑制しているので、ノイズモトル等のような大きく粗いノイズ成分を処理画像が含むことも少なく(濃度揺らぎが小さい)、従って、濃度揺らぎが均一化され、空間的にも細かいノイズにすることができ、視覚的にも自然なノイズの抑制を実現することができる。
【0076】
また、本発明によると、ノイズが粒状である場合、粒状はシャープネス強調され、かつ、空間的に揺らぎの大きい粒状モトル等の粒状成分が除去・抑制され、粒状パターンが微細化、均一化されるので、銀塩写真の感光材料では微粒子乳剤を用いた時に得られるような細かい粒状となり、平滑化を用いた従来法の欠点であるぼけ粒状のような視覚的な違和感や不快感の無い自然な粒状抑制効果が得られる。また、本発明の画像処理法を銀塩カラー写真感光材料に適用することにより、従来の粒状抑制処理方法の欠点であった、いわゆる「ぼけ粒状」的な不自然さや違和感がなく、粒状が改善され、極めて顕著な改善効果を得ることができ、産業上大きな効果が得られる。
【図面の簡単な説明】
【図1】 本発明に係る画像処理装置を組み込んだ、カラー写真画像を読み取り、ノイズ抑制とシャープネス強調の画像処理を行い、出力装置でカラー画像を出力するシステムの一実施例を示すブロック図である。
【図2】 本発明に係る画像処理装置の、ノイズ抑制とシャープネス強調の画像処理を行う画像処理部の一実施例を示すブロック図である。
【図3】 本発明の画像処理方法の一実施例を示すブロック図である。
【図4】 (a)〜(k)は、本発明の画像処理方法によって画像データが処理される一例を示す図である。
【符号の説明】
10 カラー画像再生システム
12 画像入力装置
14 画像処理装置
16 画像出力装置
18 色・調子処理部
20 ノイズ抑制画像処理部
22 画像モニタ・画像処理パラメータ設定部
26 平滑化処理部
28 エッジ・ノイズ混在成分抽出部
30 エッジ検出部
32 ノイズ領域重み係数演算部
34 ノイズ成分識別分離部
36 ノイズ抑制分布関数設定部
38 ノイズモトル抑制分布演算部
40 ノイズ抑制成分演算部
42 ノイズ抑制演算処理部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method, apparatus, and recording medium for digital images that suppress noise components such as graininess of digital images and enhance sharpness.
[0002]
[Prior art]
In a system where a digital image obtained by scanning a silver halide photograph with an image input scanner or a digital image taken with a digital still camera is processed and output by an image output printer, the output image is scanned by a scanner. In order to recover from this, sharpness enhancement by a Laplacian filter or an unsharp mask (USM) has been conventionally performed. However, since there is a side effect that noise (noise) such as granularity deteriorates while improving the sharpness of the image, in a noisy image such as granularity, only modest sharpness enhancement can be performed within a range where granular deterioration is allowed, It was difficult to improve the image quality over the original image.
[0003]
Several digital image processing methods have been proposed to remove noise graininess and enhance sharpness in digital images. However, since a method of averaging or blurring is used as a method of removing graininess, a blurred grain pattern However, it is not suitable for an aesthetic image such as a photograph.
[0004]
In images from photographs, prints, televisions, various copying machines, etc., sharpness deterioration due to optical systems such as cameras, graininess and sharpness deterioration inherent to photographic photosensitive materials, or original images such as photographs and prints can be input with an image input device. Various methods have been devised as image processing methods for suppressing noise or enhancing sharpness in order to recover noise (noise) and sharpness degradation added in digitization. For example, in the conventional image processing method, smoothing or coring is used as the granular removal processing method, and unsharp masking (USM), Laplacian, or high-pass filter processing is used as the sharpness enhancement processing method. It is used. However, in these conventional grain removal processing methods, it is not desirable that suppressing the grain causes unnatural discomfort artifacts or suppresses the fine structure of the image that should not be suppressed together with the grain. Had drawbacks.
[0005]
For example, Japanese Patent Publication Nos. 57-500311 and 57-500334 and “Digital Sharpening Method of Unsharp and Grainy Photo Images”, International Conference on Electronic Image Processing, July 1982, pp. 179-183 (PG Powell and BEBayer, `` A Method for the Digital Enhancement of Unsharp, Grainy Photographic Images '', Proceedingus of the International Conference on Electronic Image Processing, Jul. 26-28, 1982, pp. 179-183) In the Powell and Bayer et al. Processing method, a smoothing processing method (low-pass filter) is used as a graininess suppression method, and a processing method using an unsharp mask (high-pass filter) is used as a sharpness enhancement method. The smoothing process is a process for suppressing grain by smoothing a signal by multiplying a signal value of n × n pixels by a weight such as a Gaussian type. In the sharpness enhancement processing, first, a differential value in the direction from the center pixel to the surrounding pixels is obtained using an image signal of m × m pixels, and if the value is smaller than a set threshold value, it is regarded as grain or noise and coring is performed. The sharpness enhancement is performed by taking the sum of the differential values larger than the remaining threshold value after removal by processing, multiplying by a constant of 1.0 or more, and adding to the smoothed signal.
[0006]
In this processing method, since the granular pattern is blurred, the contrast of the granular pattern is lowered, but a large uneven pattern composed of large settlements (granular mottle) of particles constituting the granularity becomes visually noticeable. Therefore, there is a drawback that it looks like an unpleasant granularity. In addition, since the granularity and the image are identified with the set threshold (coring processing), the low-contrast image signal is erroneously recognized as granular and is suppressed or removed together with the granularity. Discontinuity occurs at the boundary of the image, and unnatural artifacts are seen in the image. In particular, this defect appears in a fine image such as a lawn and a carpet, and an image in which a texture such as a fabric is depicted, and this is a visually unnatural and undesirable artifact.
[0007]
[Problems to be solved by the invention]
By the way, in the conventional grain suppression / sharpness enhancement image processing method described above, sharpness is enhanced with an unsharp mask, grain is blurred or smoothed, and a method of suppressing graininess (noise) signal and contour signal from the original image is used. Are processed at the signal level, the contour signal is sharpened and the smooth area is suppressed by granularity, so that small signals are processed as granular. There is a problem in that image signals such as texture and hair are suppressed together with graininess, resulting in a visually unpleasant image as an image processing artifact. That is, in such a conventional method, the image is blurred by using averaging as a method of suppressing graininess, and the blurred granular pattern (“blurred granularity”) becomes smaller as the fluctuation of the density in the image and the graininess is better. On the other hand, a granular pattern with a small amount of density fluctuation but blurred but spread is visually recognized as an unpleasant pattern, especially for portraits and other faces and skin, walls and sky There was a problem of being conspicuous with a uniform subject.
[0008]
In the conventional method of separating the granular (noise, noise) area and the outline area from the original image at the signal level, the outline area and the flat area are identified from the difference signal between the original image and the blurred image, and each area is unsharp. By processing using different coefficients such as mask and Laplacian, graininess is suppressed in the flat area while graininess is suppressed in the outline area without enhancing the sharpness and blurring the edges. There is a problem that discontinuity occurs at the boundary because recognition / separation is uniformly performed at a signal level that is a threshold value.
Furthermore, in such a conventional method, an unsharp mask or Laplacian is used as an edge enhancement or sharpness enhancement method. However, a border such as a McKee line is likely to occur at the contour / edge portion of the image, which is visually inconvenient. There was a problem of giving a natural impression.
These problems related to noise suppression and sharpness enhancement are not unique to silver halide photography, but also include shot noise and electrical noise when shooting images with a digital still camera. It occurs as a problem of various noise suppression and sharpness enhancement.
[0009]
The present invention has been made in view of the current state of the prior art described above. In images of silver salt photographs, digital still camera images, printing, televisions, various copying machines, etc., blur due to cameras, granularity of photographic photosensitive materials. Noise (sharpness) and sharpness degradation inherent in original images such as blurring, noise added when digitizing the original image with an image input device, and shot noise and sharpness when shooting with a digital still camera When performing processing to recover the degradation, the above-mentioned problems of the prior art, that is, the noise is blurred and large unevenness appears visually unpleasant, and the image signal has a low contrast. Is grainy or misidentified as noise, and is suppressed or removed, and the boundary between the noise removal area and sharpness enhancement area becomes discontinuous, resulting in an image Digital image processing method that suppresses noise and enhances image sharpness without causing a problem that natural artifacts can be seen, an image processing apparatus that performs the image processing method, and a computer that executes the method are readable It is an object to provide a simple recording medium.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the present invention performs sharpness enhancement processing on original image data, and creates sharpness enhanced image data in which noise included in the image is sharpened together with the image,
Smoothing the original image data to create smoothed image data;
Subtracting the smoothed image data from the sharpness-enhanced image data to create mixed image data in which the sharpness-enhanced subject image edge and the sharpness-enhanced noise are mixed,
Obtaining edge strength data for performing edge detection from the original image data to identify a subject edge region and a noise region;
From this edge strength data, the noise area weighting coefficient indicating the degree of the noise area is obtained,
Multiplying the mixed image data by the weighting coefficient of the noise region to obtain noise data,
Set a noise suppression distribution function representing the spread of noise suppression in the original image data, perform a convolution integration of the noise data and this noise suppression distribution function to obtain a noise suppression distribution,
By multiplying the noise data by the noise suppression distribution, noise suppression component image data is calculated,
Noise suppression of a digital image, wherein the noise suppression component image data is scaled and subtracted from the sharpness-enhanced image data to create an image that selectively suppresses noise components in the noise region of the original image An image processing method is provided.
[0011]
Here, the noise suppression distribution function is preferably a monotonically decreasing function that has a maximum value at the center position of the noise suppression spread in the pixels of the original image and decreases as the distance from the center position decreases. The noise suppression distribution function is preferably a rectangular function having a constant value in a range in which noise suppression is performed in pixels of the original image.
[0012]
The range of the noise suppression distribution function that exerts the noise suppression in the pixels of the original image is preferably a region in the range of 1 to 15 in terms of the number of pixels, and the noise suppression distribution function is the original image. It is preferable to set this by determining the position of the boundary of the range in which noise suppression is performed in this pixel and the value at this position.
[0013]
When r is a distance from the center position of the noise suppression spread in the pixels of the original image and a is a suppression range constant that determines the range of the noise suppression spread in the pixels of the original image, The function s (r) represented by 1) is preferable,
s (r) = exp (−r / a) (1)
s (r) = exp (−r2/ A2(2)
s (r) = rect (r / a) (3)
Here, rect (r / a) in equation (3) is a rectangular function having a value of 1.
[0014]
Furthermore, in order to achieve the above object, the present invention includes a sharpness enhancement processing unit that performs sharpness enhancement processing on original image data and creates sharpness enhanced image data in which noise included in the image is sharpened together with the image,
Performing a smoothing process on the original image data to create a smoothed image data; and
Subtracting the smoothed image data created by the smoothing processing unit from the sharpness-enhanced image data to create mixed image data in which sharpness-enhanced subject image edges and sharpness-enhanced noise are mixed A noise mixed component extraction unit;
An edge detection unit for performing edge detection from the original image data to obtain edge intensity data for identifying a subject edge region and a noise region;
A noise region weighting factor calculation unit for obtaining a weighting factor of a noise region indicating the degree of the noise region from the edge intensity data obtained by the edge detection unit;
A noise component identification / separation unit that obtains noise data by multiplying the mixed image data created by the edge / noise mixed component extraction unit by a weighting coefficient of the noise region obtained by the noise region weighting factor calculation unit;
A noise suppression distribution function setting unit for setting a noise suppression distribution function representing a spread of noise suppression in the original image data;
A noise suppression distribution calculation unit that obtains a noise suppression distribution by performing convolution integration of the noise data determined by the noise component identification separation unit and the noise suppression distribution function set by the noise suppression distribution function setting unit;
A noise suppression component calculation unit that calculates noise suppression component image data by multiplying the noise suppression distribution determined in the noise suppression distribution calculation unit by the noise data calculated by the noise component identification separation unit;
A noise suppression calculation processing unit that obtains processed image data by scaling and subtracting the noise suppression component image data calculated by the noise suppression component calculation unit from the sharpness-enhanced image data. An image processing apparatus for noise suppression is provided.
[0015]
In order to achieve the above object, the present invention provides:
A procedure for performing sharpness enhancement processing on the original image data and creating sharpness enhancement image data in which noise included in the image is sharpened together with the image,
A procedure for performing smoothing processing on the original image data to create smoothed image data;
Subtracting the smoothed image data from the sharpness-enhanced image data to create mixed image data in which the edge of the sharpened image and the noise of the subject image are enhanced.
A procedure for performing edge detection from the original image data to obtain edge intensity data for identifying a subject edge region and a noise region;
A procedure for obtaining a weighting coefficient of a noise region indicating a degree of the noise region from the edge strength data,
A procedure for obtaining noise data by multiplying the mixed image data by a weighting coefficient of the noise region;
Setting a noise suppression distribution function representing the spread of noise suppression in the original image data, obtaining a noise suppression distribution by performing convolution integration of the noise data and the noise suppression distribution function;
Calculating noise suppression component image data by multiplying the noise data by the noise suppression distribution;
A method for causing a computer to execute a procedure for scaling and subtracting the noise suppression component image data from the sharpness-enhanced image data to create an image in which a noise component in a noise region of an original image is selectively suppressed. A computer-readable recording medium recording a program to be recorded is provided.
[0016]
Here, the noise is not only the grain attributed to the particles of the photosensitive material contained in the image data obtained by reading a photographic film using a silver salt photosensitive material with a film scanner, but also silver salt photosensitive. It also includes a wide range of noise included in image data obtained using various image pickup tubes and image pickup elements such as CCD and MOS such as digital still cameras without using materials.
[0017]
The above invention
-Detect edges from the original image, obtain edge strength, consider areas with low edge strength as noise areas, calculate noise area weighting coefficients to divide the noise area from edge areas,
-Create a sharpness-enhanced image and a smoothed image from the original image, and subtract the smoothed image from the sharpness-enhanced image to obtain a mixed component of sharpness-enhanced edges and sharpness-enhanced noise,
・ From the noise component obtained by multiplying the noise area weighting coefficient by the edge and noise mixture component, obtain the noise suppression distribution using the noise suppression distribution function, and calculate the noise suppression component from this noise suppression distribution and the above noise component. Seeking
-By subtracting the noise suppression component from the sharpness-enhanced image,
For example, when the original image data is read from a photographic film using a silver salt photosensitive material using a film scanner, it is a large colony of photosensitive material particles, and the granular mottle that forms noise components is larger (granularity). The grain is strongly suppressed in a portion where the grain is coarse, and the grain is weakly suppressed or suppressed in a portion where the granular mottle is small.
As a result, noise fluctuations such as graininess can be suppressed and uniformed, and a high-quality image can be obtained in which a spatially fluctuating part such as a granular mottle is selectively suppressed in the noise region of the image. .
When the original image data is obtained using an image sensor such as a digital still camera, it is generated by photon fluctuations of incident light, noise inherent to each photosensor in the image sensor, or an electric circuit. Various noises such as thermal noise (noise), quantization noise, etc. appear as pixel unit signals or density fluctuations in the image, but noise fluctuations are spatially sparse or dense, Since the noise motor is formed in the same way as the granular motor of the silver halide photosensitive material, the noise can be made uniform by suppressing strongly where the noise motor is large and weakly suppressing where the noise motor is small. A good image can be obtained.
[0018]
That is, in the noise suppression image processing method of the present invention, noise components are identified, large and rough noises such as noise motors in the noise components are suppressed more strongly, and those with less noise are suppressed or not suppressed. By performing this process, a process of making the fluctuation of the image density due to noise small and uniform (a variation in fluctuation magnitude is reduced) is performed. When the noise component is a granular component, the granular pattern is not subjected to smoothing processing as in the past, and the large granular mottle is not noticeable, so that it can be obtained when a fine grain emulsion is used in a silver salt photographic material. It can be made into fine granularity (spatially fine and granular with small amplitude).
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing apparatus that performs an image processing method of the present invention will be described in detail based on a preferred embodiment shown in the accompanying drawings.
“Noise” in the present invention refers to noise in general as described above. In addition, “noise” is simply referred to as noise in an electronic imaging system such as a digital still camera, but in silver halide photographic light-sensitive materials, it is generally referred to as granular rather than noise. Therefore, in the following description, when describing a silver salt photographic light-sensitive material as an example, “grain” is used instead of “noise”. The “noise motor” described later includes a granular motor in a silver halide photographic material as well as a noise motor in which noise fluctuation forms a spatially dense portion in an electronic imaging system such as a digital still camera.
[0020]
FIG. 1 is a block diagram of a color image reproduction system that incorporates an image processing apparatus according to the present invention, reads a color image, performs the image processing method of the present invention, and outputs a color image. FIG. 2 is a block diagram of an embodiment of an image processing apparatus for performing the image processing method according to the present invention. FIG. 3 is a flowchart showing an example of the processing algorithm of the image processing method of the present invention. In the following description, image data obtained from a silver salt color photographic image as a digital image will be described as a representative example.
[0021]
As shown in FIG. 1, the color image reproduction system 10 obtains digital input image data by reading a color image such as a color photographic image (a film image such as a color negative film or a color reversal film or a photographed image such as a digital camera). The image input device 12 and the input image data input from the image input device 12 are subjected to the required image processing and the image processing for noise suppression and sharpness enhancement of the digital image of the present invention to obtain processed image data I1Image processing apparatus 14 for obtaining the processed image data I output from the image processing apparatus 141And an image output device 16 for outputting a color image such as a print image.
[0022]
The image input device 12 is for creating digital color image data and outputting it as input image data to the image processing device 14. For example, a color (or monochrome) negative film or a color (or monochrome) reversal film is used. A film scanner device that reads digital color film images to create digital image data, and a reflective document scanner device that reads digital color reflection document images such as printed matter and reflection print images to create digital image data. In the present invention, a digital camera, an electronic still camera, a video camera that directly shoots a subject to create digital image data, or a recording medium that stores digital image data created by these, such as smart media, Digital image data by driving semiconductor memory such as Memory Stick, PC card, magnetic recording media such as FD and Zip, magneto-optical recording media such as MO and MD, and optical recording media such as CD-ROM and Photo-CD A driver for reading, a display device such as a CRT monitor and a liquid crystal monitor for reading these digital image data and displaying a soft copy image, and an image processing for processing all or part of the read or displayed digital image data PC, WS, etc. It may be.
[0023]
The image output device 16 processes the processed image data I output from the image processing device 14 as final processed image data.1Digital photo printers, copiers, and electronic devices that output color hard copy images such as reflection print images and reflection original images. Image output devices such as digital color printers of various systems such as photographs, laser printers, ink jets, thermal sublimation types, TAs, display devices such as TVs, CRT monitors, and liquid crystal monitors that display as soft copy images, PCs, WSs, etc. A computer etc. can be mentioned.
[0024]
The image processing device 14 adjusts the color and tone (gradation) of the input image data from the image input device 12 to output the desired color and tone to the image output device 16 to perform original image data IOA color / tone processing unit 18 for generating the original image data I processed by the color / tone processing unit 18OThe most characteristic part of the present invention is the processing of image data I by implementing the image processing method for noise suppression and sharpness enhancement of the digital image of the present invention.1A noise suppression / sharpness-enhanced image processing unit 20 for generating the image, an image monitor for displaying a reproduced image based on the image data whose color and tone reproducibility are adjusted, and various required image processing and image processing of the present invention. An image monitor / image processing parameter setting unit 22 including an image processing parameter setting unit for setting parameters for the purpose.
[0025]
Here, the color / tone processing unit 18 performs color conversion or color so that the reproducibility of the color and tone (gradation) of the input image data input from the image input device 12 is properly reproduced in the image output device 16. Original image data I for performing the image processing method of the present invention by performing correction (including gradation conversion or correction).OThe processing performed here includes, for example, color (gray) conversion and correction, gradation correction, density (brightness) correction, saturation correction, magnification conversion, density dynamic range compression / expansion And various other processes.
[0026]
The image monitor / image processing parameter setting unit 22 includes an image monitor and an image processing parameter setting unit. The image monitor / image processing parameter setting unit 22 displays an input image on the image monitor based on the input image data input from the image input device 12. A mouse or a keyboard (not shown) used for various image processing parameters used by the color / tone processing unit 18 and the noise suppression image processing unit 20 for performing the image processing method of the present invention on the input image data (for example, by GUI) For setting by a data input device such as Here, the parameters to be set include correction coefficients, conversion coefficients, magnifications, and the like used in the various processes described above, and various coefficients and constants necessary for carrying out the image processing method of the present invention described in detail later. And so on.
[0027]
A noise suppression image processing unit (hereinafter simply referred to as a main image processing unit) 20 that implements the image processing method of the present invention includes original image data I created by the color / tone processing unit 18.OIn addition, processed image data I, which is final processed image data for performing image processing for noise suppression and sharpness enhancement, which is a feature of the present invention, and outputting the processed image data to the image output device 16 is performed.1Is for creating.
[0028]
Here, the main image processing unit 20, as shown in FIG.OSharpness-enhanced image data I obtained by performing sharpness-enhancement processing and sharpening noise (noise) including graininess included in the image.SSharpness enhancement processing unit 24 for creating image data I and original image data IOSmoothed image data IAVA smoothing processing unit 26 for generating the original image data I0To smoothed image data IAVThe mixed image data ΔI in which the edge and noise of the subject image are mixedEGEdge / noise mixed component extraction unit 28 for generating the original image data IOEdge strength data E for detecting the edge of the subject image from the image and identifying the subject edge region and the noise regionOEdge detecting unit 30 for obtaining the edge strength data EOTo noise area weighting factor WGThe mixed image data ΔI obtained by the noise region weighting coefficient calculation unit 32 and the edge / noise mixed component extraction unit 28.EGThe noise weighting coefficient W obtained by the noise weighting coefficient calculator 32GIs multiplied by the noise data G in the noise area0Noise component identification / separation unit 34 for obtaining the original image data IONoise suppression distribution function s representing the spread of noise suppression in1The noise data G obtained by the noise suppression distribution function setting unit 36 for calculating and setting0And the noise suppression distribution function s set by the noise suppression distribution function setting unit 361And a noise motor suppression distribution calculation unit (equivalent to the noise suppression distribution calculation unit in the present invention) 38 obtained by calculating a noise motor suppression distribution (corresponding to the noise suppression distribution in the present invention) M by performing convolution integration with Noise data G obtained by the noise component identification / separation unit 34 based on the noise motor suppression distribution M obtained by the unit 380Is multiplied by the noise suppression component image data G1The noise suppression component calculation unit 40 for calculating the noise suppression component image data G calculated by the noise suppression component calculation unit 401And the sharpness enhancement image data I obtained by the sharpness enhancement processing unit 24SProcessed image data I suitable for the image output device 161And a noise suppression calculation processing unit 42 for converting to.
[0029]
The noise suppression / sharpness enhancement image processing unit 20 shown in FIG. 2 is basically configured as described above.
Next, the image processing method of the present invention will be outlined based on the operation of the processing unit 20 with reference to the flowchart showing the processing algorithm of the image processing method of the present invention shown in FIG.
[0030]
In this embodiment, as shown in FIG. 3, first, for each pixel, original image data IOThen, sharpness enhancement processing unit 24 performs sharpness enhancement processing (step 100), and sharpness enhancement image data ISIs smoothed by the smoothing processing unit 26 (step 102), and the smoothed image data IAVAnd the mixed image data ΔI in which the edge and noise are sharpened and sharpened in the edge / noise mixed component extraction unit 28.EGIs extracted (step 104).
[0031]
On the other hand, in the edge detection unit 30, the original image data IOEdge strength data E for identifying a subject edge area and a noise area fromOEdge detection is performed (step 106), and the noise area weighting coefficient calculation unit 32 performs noise area weighting coefficient W.GIs calculated and obtained (step 108).
Further, the noise component identification / separation unit 34 identifies and separates noise data (step 110). That is, the mixed image data ΔIEGThe noise weighting coefficient W obtained by the noise weighting coefficient calculator 32GMultiplied by the noise data G0Ask for.
[0032]
Next, in the noise suppression distribution function setting unit 36, the original image data I0Noise suppression distribution function representing the spread of noise suppression in1In the noise motor suppression distribution calculation unit 38, the noise data G0And this noise suppression distribution function s1The noise motor suppression distribution M is obtained by performing convolution integration with (step 112), and the noise suppression component calculation unit 40 converts the noise motor suppression distribution M into the noise data G.0Is multiplied by the noise suppression component image data G1Is calculated (the noise motor suppression distribution is calculated) (step 114). In the noise suppression calculation processing unit 42, the sharpness enhancement image data I obtained by the sharpness enhancement processing unit 24 is calculated.SNoise suppression component image data G calculated previously from1Is scaled and subtracted (a noise-suppressed image is calculated), and further, if necessary, converted into image data suitable for the image output device 16 to process image data I1Is obtained (step 116).
[0033]
Next, each process described above of the image processing method of the present invention will be described in detail.
First, the sharpness enhancement step (step 100) will be described.
Here, as a method of enhancing the sharpness of an image, unsharp masking (USM) or Laplacian is well known. Also in the present invention, by using these, the sharpness of the image can be enhanced if the sharpness degradation of the image is slight.
[0034]
The unsharp mask is the original image data I0From (x, y) (assuming the pixel position of interest is x and y), I0Image I averaged or blurred (x, y)av  Edge enhancement component I obtained by subtracting x, y)0(x, y) -Iav(x, y) is multiplied by a coefficient a to obtain original image data I0By adding to (x, y), the sharpness-enhanced image I is given by the following equation (4).SThis is a method for obtaining (x, y).
IS(x, y) = I0(x, y) + a [I0(x, y) -Iav  x, y)] (4)
Here, a is a constant for adjusting the degree of sharpness enhancement.
Laplacian is the original image data I0Second derivative of (x, y) (Laplacian) ▽2I0(x, y) is the original image data I0A method of enhancing sharpness by subtracting from (x, y), and is expressed by the following equation.
IS(x, y) = I0(x, y) − ▽2I0(x, y) (5)
As a specific example of sharpness enhancement by Laplacian, a 3 × 3 coefficient array such as the following formula (6) is often used.
Figure 0004017312
[0035]
In this coefficient arrangement, an unnatural contour is likely to occur at the edge of the image when particularly strong sharpness enhancement is applied. Therefore, in order to reduce such a drawback, in the present invention, it is preferable to use an unsharp mask using a normal distribution type (Gaussian) blur function as shown in Expression (7).
G (x, y) = (1 / 2πσ2) exp [− (x2+ y2) / 2σ2] (7)
Where σ2Is a parameter representing the spread of the normal distribution function, and the edge x = x of the mask1The ratio of the value at x to the value at the mask center x = 0,
G (x1, 0) / G (0,0) = exp [−x1 2/ 2σ2] (8)
Is adjusted to 0.1 to 1.0, the desired sharpness of the 3 × 3 unsharp mask can be obtained. When the value of Expression (8) is set to a value close to 1.0, a mask substantially the same as the Laplacian filter at the center of Expression (5) can be made.
In order to change the sharpness of the mask, there is another method of changing the size of the mask. For example, by using a mask of 5 × 5, 7 × 7, 9 × 9, etc., the sharpness-enhanced image can be changed. The spatial frequency can be changed significantly.
[0036]
Also, as a function form of the mask, other than the above normal distribution type, for example, an exponential function type mask such as the following formula (9) can be used.
E (x, y) = exp [− (x2+ y2)1/2/ A] (9)
Where a is σ in equation (8)2Is a parameter that represents the spread of the unsharp mask, as well as the ratio of the mask edge value to the mask center value,
E (x1, 0) / E (0,0) = exp [−x1/ A] (10)
Is adjusted to 0.1 to 1.0, the desired sharpness of the 3 × 3 unsharp mask can be obtained. In equation (10), E (x1, 0) / E (0,0) = 0.3, an example of a numerical value of the mask of the exponential function of equation (9) is shown.
0.18 0.30 0.18
0.30 1.00 0.30 (11)
0.18 0.30 0.18
When an example of an unsharp mask is calculated from this mask, the following equation (12) is obtained.
−0.12 −0.22 −0.12
−0.21 2.32 −0.21 (12)
−0.12 −0.21 −0.12
[0037]
Using such an unsharp mask, the original image data I0Sharpness weighted image data I from (x, y)S(x, y) can be obtained. The unsharp mask and sharpness enhancement method used in the present invention are not limited to those described above, and other conventionally known unsharp masks and sharpness enhancement methods such as spatial frequency filtering can be applied. Of course.
FIG. 4A shows a region E where the edge component is dominant.1And region E2And original image data I having a noise region including a region A, a region B, and a region C having a noise motor0An example of a one-dimensional profile waveform is shown. By applying sharpness enhancement to the profile waveform, as shown in FIG.1And region E2It can be seen that the edge signal is emphasized in a region having a strong edge component, and the noise component is also enhanced in the noise region including the regions A, B, and C.
[0038]
Next, the smoothing step (step 102) will be described.
Examples of the smoothing method include real space domain processing and spatial frequency domain processing. In real space region processing, the sum of all adjacent pixels is calculated and the average value is calculated and replaced with that value. The average value is calculated by multiplying each pixel by a weighting coefficient, for example, a normal distribution type function. There are various methods such as a method of performing such non-linear processing. On the other hand, in processing in the spatial frequency domain, there is a method of applying a low-pass filter. For example, in the averaging method using the weighting coefficient, the following equation (13) can be given. Here, (x, y) etc. represent the position coordinates of the target pixel in the image.
[Expression 1]
Figure 0004017312
[0039]
Here, n is an averaging mask size, and w (x, y) is a weighting factor. When w (x, y) = 1.0, a simple average is obtained.
In the present invention, a method of obtaining an average value by multiplying a normal distribution type weighting coefficient in real space region processing is used, but the present invention is not limited to this. At this time, it is preferable to use a mask of n × n pixels as described below as a processing mask. Specifically, it is preferable to use those of about 3 × 3 to 5 × 5, 7 × 7, 9 × 9.
Figure 0004017312
[0040]
An example of a 9 × 9 pixel mask is shown. In this equation (15), the center value is shown as a value normalized to 1.0, but in the actual processing, the sum of the entire mask is set to 1.0.
0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09
0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15
0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22
0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28
0.30 0.51 0.74 0.93 1.00 0.93 0.74 0.51 0.30 (15)
0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28
0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22
0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15
0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09
[0041]
Using such a mask, the original image data I0Smoothed image data I from (x, y)AV(X, y) can be obtained. It should be noted that the smoothing method used in the present invention is not limited to the various methods described above, and it goes without saying that any of the conventionally known smoothing methods can be applied.
FIG. 4C shows the result of the profile waveform shown in FIG. 4A processed by the smoothing process, and the noise component of the noise region including the region A, the region B, and the region C having the noise motor. Is suppressed and smoothed, and the region E where the edge component is dominant1And region E2Also, it can be seen that the edge signal is suppressed and the profile waveform is smooth.
[0042]
Next, the extraction process (step 104) of the edge / noise mixed component will be described.
Smooth image data I obtained in the smoothing step (step 102)AV(x, y) is the sharpness-enhanced image data I obtained in the sharpness enhancement step (step 100) according to the following equation (16)SMixed component ΔI which is fine structure data in which edges and noise are mixed by subtracting from sharpened edgesEGExtract (x, y).
ΔIEG(x, y) = I0(x, y) −IAV(x, y) (16)
FIG. 4D shows a mixed component ΔI obtained by the edge / noise mixed component extraction process using the profile waveforms shown in FIGS. 4B and 4C.EGA profile waveform of (x, y) is extracted.
[0043]
Next, the edge detection process (step 106) will be described.
Here, edge detection by the local dispersion method is described as a representative example as an example, but the present invention is not limited to this.
[0044]
When performing edge detection, first, density conversion is performed by the following preprocessing. Such pre-processing is performed in order to improve the accuracy of edge detection performed thereafter by reducing uncorrelated noise in the R image data, G image data, and B image data constituting the color image data. . That is, as shown in the equation (17), the original image data I0Density value D of three colors of R, G, B of (x, y)R, DG, DBIs multiplied by weighting factors r, g, and b to create a visual density DVConvert to
DV= (RDR+ GDG+ BDB) / (R + g + b) (17)
For example, a value such as r: g: b = 4: 5: 1 is used as the weighting coefficient. This conversion is performed in order to reduce uncorrelated noise in R, G, and B and improve the accuracy of edge detection. The range of the size of the preprocessing array is preferably about 5 × 5 or 7 × 7 pixels. This is because the variation in image density in the predetermined array described later is a small array in the array, For example, the calculation is performed while moving using an array of about 3 × 3.
[0045]
Note that the weighting factors r, g, and b in edge detection can be obtained as follows.
The weighting factor is conspicuous when visually observed (although this may correspond to a spectral luminous intensity distribution), that is, based on the idea that the weighting factor of image data with a large contribution is large. It is preferable to set an optimal value. In general, empirical weighting factors are obtained based on visual evaluation experiments and the like, and the following values are known as general knowledge (as well-known literature, Takashi Noguchi, “Good psychological response” Granular evaluation method), Journal of the Japan Photography Society, 57 (6), 415 (1994), which differs depending on the color, but shows a numerical value close to the following ratio).
r: g: b = 3: 6: 1
r: g: b = 4: 5: 1 (18)
r: g: b = 2: 7: 1
Here, if a preferable range of values is defined as the ratio r: g: b of the coefficient, when r + g + b = 10.0 and b is 1.0,
g = 5.0 to 7.0
A value in the range of is preferred. However, r = 10.0−b−g.
[0046]
Next, edge detection by local dispersion in the edge detection step (step 106) will be described.
Edge detection is performed using the visual density D described above.VN from the image data ofE× nEWhile moving the pixel array, the local variance σ, which is the local standard deviation for each position, is calculated for each pixel of interest (x, y) sequentially using the equation (19). Thus, the subject edge in the image is detected. Pixel array size (nE× nE) May be appropriately determined in consideration of detection accuracy and calculation load, but it is preferable to use a size of about 3 × 3 or 5 × 5, for example.
[0047]
[Expression 2]
Figure 0004017312
However, the target pixel position is x, y, and DV(x + i-nE/ 2 -1/2, y + j-nE/ 2-1 / 2) is n to calculate the local variance σ (x, y)E× nE<DV(x, y)> is the average concentration of the sequence,
[Equation 3]
Figure 0004017312
It is.
[0048]
Original image data IOFrom (x, y), the local variance σ (x, y) shown in the above equation (19) is calculated, and the edge intensity E of the subject image is calculated.OIn order to obtain (x, y), an expression represented by an exponential function such as the following expression (21) is used.
EO(x, y) = 1−exp [−σ (x, y) / aE] (21)
However, aEIs a coefficient for converting the value of the local variance σ (x, y) into edge strength, and the edge strength EO= Threshold of local variance σ (x, y) to be assigned to 0.5TThen,
aE= −σT/ Loge(0.5) (22)
It is. σTThe value needs to be an appropriate value depending on the noise and the signal level of the subject outline. However, a value in the range of 10 to 100 is preferable for a color image of 8 bits (256 gradations). If this conversion is created as a lookup table, the calculation time required for the conversion can be shortened.
[0049]
Edge strength EOThe conversion equation for obtaining (x, y) is not limited to the above equation, and other equations can also be used. For example, a Gaussian function such as the following equation may be used.
EO(x, y) = 1−exp {− [σ (x, y)]2/ AE1 2} (23)
However, aE1Is E from σ (x, y)OCoefficient for conversion to (x, y), EOThe threshold of local variance σ (x, y) assigned to (x, y) = 0.5 is σTThen,
aE1 2= −σT 2/ Loge(0.5) (24)
It is. σTThe value of is preferably in the range of 10 to 100 in a color image of 8 bits (256 gradations) for each color.
[0050]
The edge strength data EO(x, y) is the maximum local variance data σ as shown in the following equation (25).MaxNormalized edge intensity data E normalized by 0 and 1 or less and 1 or lessO(x, y) may be obtained.
E0(x, y) = σ (x, y) / σMax                      (25)
Where σmaxIs a constant for normalizing σ (x, y) with the maximum value of the local variance data σ (x, y). σMaxIs determined from the local dispersion data σ (x, y) of the entire image obtained by the equation (19) as in the following equation (26).
σMax= Max {σ (x, y)} (26)
[0051]
Further, without using the maximum value obtained from the entire image, a part of the image, for example, a specific range of the central part of the image with a high probability of having an important subject of the image, or image data thinned out from the entire image (1/4 of the original image data). ˜1 / 10) to the maximum value σ using the above formulas (25) and (26)MaxYou may ask for. In this case, the image data of a specific range in the central portion of the image or the thinned image data is subjected to various processing condition adjustment original image data (pressed) that can be obtained in advance with a coarse pixel density before image processing is performed to obtain processed image data. Can image data) or may be extracted from the original image data.
More preferably, σMaxIs the average value of the values included in the top 5-10% when the local variance data σ (x, y) are arranged in order from the largest value, for example, the average value of the values included in the top 10% <σ ( x, y)>Max10%ΣMaxΣ (x, y) is this σMax, All σMaxReplace with In this case, the average value may be an average value of the entire image, an average value of a predetermined range in a central portion where an important subject is often photographed, or an average value of thinned image data.
[0052]
By the way, the edge detection method in the present invention is not limited to the above-described local dispersion type edge detection method, and other edge detection methods can also be used. As edge detection methods other than the local dispersion method, there are methods based on primary differentiation and secondary differentiation, and there are several methods for each.
First, there are the following two operators as a method based on the spatial first derivative.
Examples of differential edge extraction operators include Prewitt operator, Sobel operator, and Roberts operator. The Roberts operator can be expressed as:
g (i, j) = {[f (i, j)-f (i + l, j + l)]2+ [F (i + l, j)-f (i, j + l)]2}1/2
As template type operators, there are Robinson operators and Kirsh operators that use 3 × 3 templates corresponding to edge patterns in 8 directions.
Next, as a method based on a spatial second derivative, there is a method using Laplacian. In this case, since noise is emphasized, a method of performing edge distribution after first performing a normal distribution type blurring process is often used.
[0053]
FIG. 4E shows the original image data I shown in FIG.0Edge strength data E obtained from the edge detection process0The waveform is shown. Edge strength data E shown in FIG.0In region E1And E2Edge strength data E near0It can be seen that the value of increases.
[0054]
Next, the noise area weighting coefficient calculation step (step 108) will be described.
Edge strength data E obtained in the edge detection step (step 106)O(x, y) is used to weight the edge region weighting factor W according to the following equation (27).EAfter obtaining (x, y), the noise weighting factor WG(x, y) is determined according to the following equation (28).
WE(x, y) = 1-αE+ ΑEE0(x, y) (27)
WG(x, y) = 1-WE(x, y) (28)
[0055]
Where αEIs a constant for setting the weighting of the edge area and the noise area, and an operator can set an arbitrary value between 0 and 1.
Edge area weighting factor WE(x, y) is 1-αEThe value is 1 or less and WEAs (x, y) is larger, it is determined that the probability of being the edge region of the subject at that pixel position is higher, and WEIt is determined that the smaller the (x, y), the higher the probability of being a noise region at that pixel position. Normalized edge strength data E0In the edge region where the value of (x, y) is close to 1.0, αEThe edge area weighting factor W regardless of the value ofE(x, y) is a large value close to 1.0, and the noise region weighting coefficient WG(x, y) is the smallest. On the other hand, normalized edge strength data E0As (x, y) becomes smaller than 1.0, the edge region weighting coefficient WE(x, y) is the minimum value 1-αEWeighting data W for the noise areaG(x, y) is the maximum value αEGet closer to. Such αEIs preset to a constant value as a default value, and the operator sees the processed image that has been image-processed with this default value.EYou may make it adjust the value of as needed.
ΑEIs 1, normalized edge strength data EO(x, y) is the edge area weighting factor WE(x, y) and 1.0-EO(x, y) is the noise domain weighting factor WG(x, y)
[0056]
In FIG. 4F, the weighting coefficient W of the noise region obtained from the edge intensity data shown in FIG.GThe waveform of (x, y) is shown. Region E1And E2The weighting factor W of the noise area nearGThe value of (x, y) is small. Region E1And E2Weighting factor W of the noise region in the vicinity ofGThe value of (x, y) is a constant α that sets the weighting of the edge region and the noise region set by the above equation (27).EIt depends on.
[0057]
Next, the noise data identification / separation process (step 110) will be described. The mixed component ΔI in which the sharpness-enhanced edge component and the noise component mixed in the extraction step of the edge / noise mixed component (step 104) are mixed.EGIn (x, y), as shown by the following equation (29), the weighting factor W of the noise region obtained in the noise weighting factor calculation step (step 108).GMultiply (x, y) to obtain noise data G0Find (x, y).
G0(x, y) = ΔIEG(x, y) × WG(x, y) (29)
FIG. 4G shows the mixed component ΔI shown in FIG.EG(x, y) and the noise region weighting coefficient W shown in FIG.GNoise data G obtained by multiplying (x, y)0Region E where the profile waveform of (x, y) is shown and the edge component is dominant1And region E2It can be seen that the signal component of the edge of the signal is removed.
[0058]
Next, the noise motor suppression distribution calculation step (step 112) will be described. First, a noise suppression distribution function s (r) representing the spread of noise suppression in the pixels in the noise area of the original image is set as in Expression (1). Here, r is the distance from the origin P of the pixel of interest located at the coordinates (x, y) with the point P as the center position (origin) of the noise suppression spread.
s (r) = exp (−r / a) (1)
That is, s (x, y) = exp (− (x2+ Y2)(1/2)/ A).
[0059]
Here, a in the above equation (1) is a suppression range constant for adjusting the range of noise suppression spread in the pixels of the original image, and is given in advance or set by input. When the suppression range constant a is set by input, the position of the boundary of the range that exerts noise suppression, that is, the suppression distance rsAnd the value s at this positionminIt is set by determining. That is, the suppression distance rsValue atminFrom the following equation (30), the suppression range constant a is calculated and obtained.
a = −rs/ Log (smin(30)
[0060]
Where sminIs preferably 0.1 or more and 0.5 or less, and the suppression distance r issIs preferably in the range of 1 to 15. In particular, when the original image data is obtained by reading an image recorded on a film with a scanner or the like, the suppression distance rsThe value of is set by the film format (image size of one frame of film), the roughness of the film grain (granular motor), which varies depending on the type and sensitivity of the film, and the scanning of the scanner that scans the film to obtain digital image data. It is preferable to change appropriately according to the aperture size. That is, in the case of coarse granularity (the granular mottle is also large), the suppression distance rsIn the case of fine particles, the suppression distance r is increased.sReduce the value of. In addition, even if the same film is used, the scanning aperture size of the scanner is changed to 15 μm □ and 10 μm □ when the scanning aperture size of the scanner is 10 μm □. This is because the pixel density of the image of 1.5 μm is 10 times larger and the pixel density of the 10 μm square is higher, and the graininess changes.
[0061]
Moreover, this suppression distance rsThe noise data G obtained in step 110 when the mask size for averaging in the smoothing step (step 102) is increased.0Since the noise motor component included in is greatly blurred and spreads, the suppression distance r is suppressed in order to suppress the noise motor component.sNeed to be larger. Therefore, the suppression distance r depends on the mask size for averaging in the smoothing step (step 102).sMay be changed as appropriate.
The mask size for averaging in the smoothing step is about 3 pixels × 3 pixels as the minimum mask size and about 11 pixels × 11 pixels as the maximum mask size, but the suppression range constant a is 1 from this mask size. For example, when the mask size is 3 × 3, the suppression distance r is about 5 to 2 times larger.sThe value of is preferably about 5.
[0062]
A function like Formula (2) may be set as such a noise suppression distribution function s (r).
s (r) = exp (−r2/ A2(2)
Here, r is the distance from the center position of the noise suppression spread.
In this case, the suppression range constant a is the suppression distance r.sAnd the value s at that positionminUsing the following equation (31).
a = rs/ [-Log (Smin]](1/2)              (31)
Or you may set a function like following formula (3) as noise suppression distribution function s (r).
s (r) = rect (r / a) (3)
Here, rect (r / a) is a rectangular function having a value of 1, and r is a distance from the center position of the noise suppression spread.
In this case, the suppression range constant a is the suppression distance r to be set.sAnd Further, in the equations (2) and (3), sminBy setting = 1, the same noise suppression distribution function s (r) as in the expression (1) can be obtained.
[0063]
Such a noise suppression distribution function s (r) is a noise suppression distribution function s of 0 to 1 in accordance with the following equation (32).1Normalized to (x, y).
s1(x, y) = s (x, y) / S (32)
Here, S is an integral value obtained by the following equation (33).
[Expression 4]
Figure 0004017312
FIG. 4 (h) shows a noise suppression distribution function s obtained by normalizing the noise suppression distribution function s (x, y) obtained using the equation (1) according to the equation (33).1An example of (x, y) is shown.
[0064]
Next, this normalized noise suppression distribution function s1(x, y) and noise data G0Using (x, y), convolution integration is performed in a range where noise suppression is effected as in the following equation (34) to calculate a noise motor suppression distribution M (x, y).
[Equation 5]
Figure 0004017312
The noise motor suppression distribution M (x, y) calculated here is for determining the degree of suppression received from other pixels of noise at a certain target pixel position (x, y) by convolution integration.0Corresponds to the diffusion distribution of the development inhibiting substance generated during the development of the silver halide grains in the film photosensitive layer when the image data is read from the film image by a scanner or the like, and the noise data G0Is regarded as the particle distribution of the photosensitive material, and the original image data I0The noise motor suppression distribution M (x, y) corresponding to the diffusion distribution of the development suppressing substance generated around the silver particles of the photosensitive material is obtained.
[0065]
In the example shown in FIG. 4, the noise data G shown in FIG.0And the noise suppression distribution function s shown in FIG.1By using (x, y) and calculating according to the equation (34), a noise motor suppression distribution M (x, y) as shown in FIG. 4I is obtained. In FIG. 4 (i), the value of the noise motor suppression distribution becomes large in the portions indicated by region A, region B, and region C in the drawing, and in the regions A, B, and C, the silver salt photosensitive material In this case, it means that the concentration of the development inhibiting substance produced by the silver salt photosensitive material is high.
In this way, the noise motor suppression distribution M (x, y) is calculated.
[0066]
Next, the noise motor suppression component calculation step (step 114) will be described.
In the noise motor suppression component calculation step, the noise data G calculated in step 110 is calculated by calculating the noise motor suppression distribution M (x, y) calculated in step 112 by the following equation (35).0Is multiplied by the noise suppression component image data G1Calculate (x, y).
G1(x, y) = G0(x, y) x M (x, y) (35)
[0067]
Noise motor suppression distribution M (x, y)0In the case of a silver salt light-sensitive material, the multiplication is performed in consideration of the suppression in accordance with the action of the development inhibitor and silver particles produced in the silver salt light-sensitive material. In the example shown in FIG. 4, the noise suppression component image data G is shown in FIG.1(x, y) is shown. Noise suppression component image data G shown in FIG.1(x, y) is the noise data G shown in FIG.0As compared with the region A, the region B, and the region C, other regions, for example, the region E1And region E2It can be seen that the value is relatively large.
[0068]
Finally, the noise suppression image calculation step (step 116) will be described.
In the noise suppression image calculation process, the noise suppression component image data G obtained in step 114 is displayed.1(x, y) is scaled using the noise suppression coefficient α as shown by the following formula (36), and then the sharpness weighted image data I obtained in step 100 is obtained.SProcessed image data I subtracted from1'
I1'(x, y) = I0(x, y) − α × G1(x, y) (36)
Here, the noise suppression coefficient α is a settable parameter for controlling the degree of noise suppression, and is appropriately set and input. Alternatively, a default setting value may be provided in advance and changed as necessary.
Thereafter, image data conversion suitable for the image output device 16 is performed to process the image data I1'To processed image data I1Get.
[0069]
In the example shown in FIG. 4, the processed image data I as shown in FIG.1 'It can be seen that noise is largely removed in the area of the noise motor such as the area A, the area B, and the area C, and noise is appropriately removed in other noise areas. Moreover, the original image data I shown in FIG.0Compared to region E1And region E2The edge region is emphasized with sharpness.
[0070]
The above image processing method is used to suppress granularity when the granular component affects a certain pixel area, such as a granular component in a photographic photosensitive material, that is, when the granular component affects the granular component of another pixel. However, the above image processing method is also useful for image data of other pixels even in a digital camera or the like using a CCD or MOS image sensor that is not affected by noise components of other pixels. Since it is used to perform defect correction and the like, it can be effectively applied. The CCD image pickup device is also applied to a honeycomb array described in JP-A-10-136391.
[0071]
As an image processing method for suppressing noise, Japanese Patent Application Laid-Open No. 11-250246 proposes a method for suppressing noise by multiplying a noise component by a compression coefficient obtained from the edge strength of an image. Since a certain compression coefficient is applied, the noise amplitude is proportionally compressed. In addition, by adopting a compression coefficient that increases the compression ratio as the noise amplitude increases, that is, by applying non-linear transformation to the magnitude (amplitude) of the noise fluctuation, the noise fluctuation is described in the above publication. The direction can be more uniform than the image processing method. However, unlike the two methods described above, the image processing method of the present invention is different from performing suppression processing on the amplitude of noise, unlike a noise motor, a noise region in which noise component fluctuations are spatially formed, For example, it is a process of performing noise suppression on the region A, the region B, and the region C shown in FIG. 4A, and can be more greatly suppressed at a place where the noise fluctuation is large, and the noise fluctuation can be made uniform. .
[0072]
The image processing method of the present invention is described as above.
Such an image processing method may be configured as the above-described image processing apparatus including a circuit or hardware, or may be a program that performs functions in a computer as software. A computer-readable recording medium recording a program for executing the above method may be provided as a CD = ROM or the like.
[0073]
When the image processing method of the present invention is applied to a silver salt color photograph, for example, a photographic image taken on a 35 mm color negative film, it is possible to obtain a remarkable improvement effect that can be seen at a glance both in graininess and sharpness. It was.
In particular, it has a processing effect comparable to the granular improvement by making the photosensitive material finer with respect to the granularity, so that the “blurred granular” unnaturalness that was a drawback of various granular removal processing methods based on the conventional averaging and reduction of fluctuations The feeling of discomfort disappeared. In addition, with regard to sharpness, by combining with the above-described granular suppression, a significant enhancement effect was obtained compared to conventional unsharpness masks and Laplacian filters without deteriorating the granularity.
In addition, when applied to an image taken with a digital still camera, a remarkable image quality improvement effect was obtained as in the case of a color image by the silver salt color photograph.
[0074]
The image processing method, the image processing apparatus, and the recording medium of the present invention have been described in detail above. However, the present invention is not limited to the above embodiments, and various improvements and modifications can be made without departing from the gist of the present invention. Of course you can go.
[0075]
【The invention's effect】
As described above in detail, according to the present invention, the original image is first sharpened to sharpen both the subject image and noise, and the subject contour and noise components are extracted from the image, and the noise is extracted. Since the components are selectively removed, the noise is blurred and there is no large unevenness that appears visually unpleasant, and the low-contrast image signal is not mistaken for noise. It also does not form unnatural artifacts. Furthermore, since the noise component is suppressed by extracting and selectively removing a spatially rough area where the density fluctuation of the noise component is large, the processed image rarely includes a large and rough noise component such as a noise motor. (The density fluctuation is small). Therefore, the density fluctuation can be made uniform, the noise can be made fine in space, and the natural noise suppression can be realized visually.
[0076]
In addition, according to the present invention, when noise is granular, the granularity is sharpened and granular components such as a granular mottle with a large spatial fluctuation are removed and suppressed, and the granular pattern is made finer and uniform. Therefore, the silver halide photographic light-sensitive material has a fine granularity as obtained when using a fine-grain emulsion, and has no natural discomfort and unpleasant feeling like the blurred granularity, which is a disadvantage of the conventional method using smoothing. Grain suppression effect is obtained. In addition, by applying the image processing method of the present invention to a silver salt color photographic light-sensitive material, there is no so-called “blurred grain” unnaturalness and uncomfortable feeling, which is a disadvantage of the conventional graininess suppression processing method, and the graininess is improved. Therefore, an extremely remarkable improvement effect can be obtained, and a large industrial effect can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of a system that incorporates an image processing apparatus according to the present invention, reads a color photographic image, performs image processing for noise suppression and sharpness enhancement, and outputs a color image with an output device. is there.
FIG. 2 is a block diagram illustrating an embodiment of an image processing unit that performs image processing for noise suppression and sharpness enhancement in the image processing apparatus according to the present invention.
FIG. 3 is a block diagram showing an embodiment of an image processing method of the present invention.
4A to 4K are diagrams illustrating an example in which image data is processed by the image processing method of the present invention. FIG.
[Explanation of symbols]
10 Color image playback system
12 Image input device
14 Image processing device
16 Image output device
18 color / tone processing section
20 Noise suppression image processing unit
22 Image Monitor / Image Processing Parameter Setting Unit
26 Smoothing processor
28 Edge / Noise Mixed Component Extraction Unit
30 Edge detector
32 Noise area weighting factor calculator
34 Noise component identification and separation unit
36 Noise suppression distribution function setting section
38 Noise motor suppression distribution calculator
40 Noise suppression component calculation unit
42 Noise suppression calculation processing unit

Claims (8)

原画像データにシャープネス強調処理を行い、画像と共にこの画像中に含まれるノイズを鮮鋭化したシャープネス強調画像データを作成し、
前記原画像データに平滑化処理を行って、平滑化画像データを作成し、
前記シャープネス強調画像データから前記平滑化画像データを減算して、シャープネス強調された被写体画像のエッジとシャープネス強調されたノイズとが混在する混在画像データを作成し、
前記原画像データからエッジ検出を行って被写体エッジ領域とノイズ領域を識別するためのエッジ強度データを求め、
このエッジ強度データからノイズ領域の度合いを示すノイズ領域の重み付け係数を求め、
前記混在画像データに、前記ノイズ領域の重み付け係数を乗じて、ノイズデータを求め、
前記原画像データにおけるノイズ抑制の広がりを表すノイズ抑制分布関数を設定し、前記ノイズデータとこのノイズ抑制分布関数との畳み込み積分を行ってノイズ抑制分布を求め、
前記ノイズデータに前記ノイズ抑制分布を乗算することによって、ノイズ抑制成分画像データを算出し、
前記シャープネス強調画像データから前記ノイズ抑制成分画像データを変倍して減算することによって、原画像のノイズ領域におけるノイズ成分を選択的に抑制した画像を作成することを特徴とするデジタル画像のノイズ抑制のための画像処理方法。
Sharpness enhancement processing is performed on the original image data, and sharpness-enhanced image data that sharpens the noise contained in the image is created together with the image.
Smoothing the original image data to create smoothed image data;
Subtracting the smoothed image data from the sharpness-enhanced image data to create mixed image data in which the edge of the sharpened image and subject noise are mixed,
Obtaining edge strength data for performing edge detection from the original image data to identify a subject edge region and a noise region;
From this edge strength data, the noise area weighting coefficient indicating the degree of the noise area is obtained,
Multiplying the mixed image data by the weighting coefficient of the noise region to obtain noise data,
Set a noise suppression distribution function representing the spread of noise suppression in the original image data, perform a convolution integration of the noise data and this noise suppression distribution function to obtain a noise suppression distribution,
By multiplying the noise data by the noise suppression distribution, noise suppression component image data is calculated,
Noise suppression of a digital image, wherein the noise suppression component image data is scaled and subtracted from the sharpness-enhanced image data to create an image that selectively suppresses noise components in the noise region of the original image Image processing method for.
前記ノイズ抑制分布関数は、原画像の画素における、ノイズ抑制の広がりの中心位置において値が最大であり、この中心位置から離れるに従って値が小さくなる単調減少関数である請求項1に記載の画像処理方法。2. The image processing according to claim 1, wherein the noise suppression distribution function is a monotonously decreasing function that has a maximum value at a center position of a noise suppression spread in a pixel of an original image and decreases as the distance from the center position increases. Method. 前記ノイズ抑制分布関数は、原画像の画素におけるノイズ抑制を及ぼす範囲において一定の値を持つ矩形関数である請求項1に記載の画像処理方法。The image processing method according to claim 1, wherein the noise suppression distribution function is a rectangular function having a constant value in a range in which noise suppression is performed in pixels of an original image. 前記ノイズ抑制分布関数の、原画像の画素における前記ノイズ抑制を及ぼす範囲は、画素数で1以上15以下の範囲の領域である請求項2または3に記載の画像処理方法。4. The image processing method according to claim 2, wherein a range in which the noise suppression distribution function exerts the noise suppression in pixels of the original image is an area having a number of pixels in a range of 1 to 15. 5. 前記ノイズ抑制分布関数は、原画像の画素におけるノイズ抑制を及ぼす範囲の境界の位置とこの位置での値を定めることによって設定される請求項2〜4のいずれかに記載の画像処理方法。The image processing method according to claim 2, wherein the noise suppression distribution function is set by determining a position of a boundary of a range in which noise suppression is performed in pixels of the original image and a value at this position. 前記ノイズ抑制分布関数は、rを原画像の画素におけるノイズ抑制の広がりの中心位置からの距離、aを原画像の画素におけるノイズ抑制の広がりの範囲を定める抑制範囲定数とするとき、下記式(1)〜(3)のいずれかで表される関数s(r)である請求項5に記載の画像処理方法。
s(r)= exp(−r/a) (1)
s(r)= exp(−r2 /a2 ) (2)
s(r)= rect(r/a) (3)
ここで、式(3)のrect(r/a)は、値が1の矩形関数である。
When r is a distance from the center position of the noise suppression spread in the pixels of the original image and a is a suppression range constant that determines the range of the noise suppression spread in the pixels of the original image, The image processing method according to claim 5, which is a function s (r) represented by any one of 1) to (3).
s (r) = exp (−r / a) (1)
s (r) = exp (−r 2 / a 2 ) (2)
s (r) = rect (r / a) (3)
Here, rect (r / a) in equation (3) is a rectangular function having a value of 1.
原画像データにシャープネス強調処理を行い、画像と共にこの画像中に含まれるノイズを鮮鋭化したシャープネス強調画像データを作成するシャープネス強調処理部と、
前記原画像データに平滑化処理を行って、平滑化画像データを作成する平滑化処理部と、
前記シャープネス強調画像データから前記平滑化処理部で作成した前記平滑化画像データを減算して、シャープネス強調された被写体画像のエッジとシャープネス強調されたノイズとが混在する混在画像データを作成するエッジ・ノイズ混在成分抽出部と、
前記原画像データからエッジ検出を行って被写体エッジ領域とノイズ領域を識別するためのエッジ強度データを求めるエッジ検出部と、
このエッジ検出部で求めたエッジ強度データからノイズ領域の度合いを示すノイズ領域の重み付け係数を求めるノイズ領域重み係数演算部と、
前記エッジ・ノイズ混在成分抽出部で作成した前記混在画像データに、前記ノイズ領域重み係数演算部で求めた前記ノイズ領域の重み付け係数を乗じて、ノイズデータを求めるノイズ成分識別分離部と、
前記原画像データにおけるノイズ抑制の広がりを表すノイズ抑制分布関数を設定するノイズ抑制分布関数設定部と、
前記ノイズ成分識別分離部で求めた前記ノイズデータと前記ノイズ抑制分布関数設定部で設定した前記ノイズ抑制分布関数との畳み込み積分を行ってノイズ抑制分布を求めるノイズ抑制分布演算部と、
このノイズ抑制分布演算部において求められた前記ノイズ抑制分布を前記ノイズ成分識別分離部で求めた前記ノイズデータに乗算することによって、ノイズ抑制成分画像データを算出するノイズ抑制成分演算部と、
前記シャープネス強調画像データから前記ノイズ抑制成分演算部で算出した前記ノイズ抑制成分画像データを変倍して減算して処理画像データを求めるノイズ抑制演算処理部とを有することを特徴とするデジタル画像のノイズ抑制のための画像処理装置。
A sharpness enhancement processing unit that performs sharpness enhancement processing on the original image data and creates sharpness enhancement image data in which noise included in the image is sharpened together with the image;
Performing a smoothing process on the original image data to create a smoothed image data; and
Edge / A noise mixed component extraction unit;
An edge detection unit for performing edge detection from the original image data to obtain edge intensity data for identifying a subject edge region and a noise region;
A noise region weighting factor calculation unit for obtaining a weighting factor of a noise region indicating the degree of the noise region from the edge intensity data obtained by the edge detection unit;
A noise component identification / separation unit that obtains noise data by multiplying the mixed image data created by the edge / noise mixed component extraction unit by a weighting coefficient of the noise region obtained by the noise region weighting factor calculation unit;
A noise suppression distribution function setting unit for setting a noise suppression distribution function representing a spread of noise suppression in the original image data;
A noise suppression distribution calculation unit that obtains a noise suppression distribution by performing convolution integration of the noise data determined by the noise component identification separation unit and the noise suppression distribution function set by the noise suppression distribution function setting unit;
A noise suppression component calculation unit that calculates noise suppression component image data by multiplying the noise suppression distribution determined in the noise suppression distribution calculation unit by the noise data calculated by the noise component identification separation unit;
A noise suppression calculation processing unit that obtains processed image data by scaling and subtracting the noise suppression component image data calculated by the noise suppression component calculation unit from the sharpness-enhanced image data. An image processing device for noise suppression.
原画像データにシャープネス強調処理を行い、画像と共にこの画像中に含まれるノイズを鮮鋭化したシャープネス強調画像データを作成する手順と、
前記原画像データに平滑化処理を行って、平滑化画像データを作成する手順と、
前記シャープネス強調画像データから前記平滑化画像データを減算して、シャープネス強調された被写体画像のエッジとシャープネス強調されたノイズとが混在する混在画像データを作成する手順と、
前記原画像データからエッジ検出を行って被写体エッジ領域とノイズ領域を識別するためのエッジ強度データを求める手順と、
前記エッジ強度データからノイズ領域の度合いを示すノイズ領域の重み付け係数を求める手順と、
前記混在画像データに、前記ノイズ領域の重み付け係数を乗じて、ノイズデータを求める手順と、
前記原画像データにおけるノイズ抑制の広がりを表すノイズ抑制分布関数を設定し、前記ノイズデータとこのノイズ抑制分布関数との畳み込み積分を行ってノイズ抑制分布を求める手順と、
前記ノイズデータに前記ノイズ抑制分布を乗算することによって、ノイズ抑制成分画像データを算出する手順と、
前記シャープネス強調画像データから、前記ノイズ抑制成分画像データを変倍して減算する手順をコンピュータに実行させて、原画像のノイズ領域におけるノイズ成分を選択的に抑制した画像を作成することを特徴とするプログラムを記録したコンピュータが読み取り可能な記録媒体。
A procedure for performing sharpness enhancement processing on the original image data and creating sharpness enhancement image data in which noise included in the image is sharpened together with the image,
A procedure for performing smoothing processing on the original image data to create smoothed image data;
Subtracting the smoothed image data from the sharpness-enhanced image data to create mixed image data in which the edge of the sharpened image and the noise of the subject image are enhanced.
A procedure for performing edge detection from the original image data to obtain edge intensity data for identifying a subject edge region and a noise region;
A procedure for obtaining a weighting coefficient of a noise region indicating a degree of the noise region from the edge strength data,
A procedure for obtaining noise data by multiplying the mixed image data by a weighting coefficient of the noise region;
Setting a noise suppression distribution function representing the spread of noise suppression in the original image data, obtaining a noise suppression distribution by performing convolution integration of the noise data and the noise suppression distribution function;
Calculating noise suppression component image data by multiplying the noise data by the noise suppression distribution;
A method for causing a computer to execute a procedure for scaling and subtracting the noise suppression component image data from the sharpness-enhanced image data to create an image in which a noise component in a noise region of an original image is selectively suppressed. A computer-readable recording medium on which a program to be recorded is recorded.
JP2000098922A 2000-03-31 2000-03-31 Image processing method, image processing apparatus, and recording medium Expired - Lifetime JP4017312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000098922A JP4017312B2 (en) 2000-03-31 2000-03-31 Image processing method, image processing apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000098922A JP4017312B2 (en) 2000-03-31 2000-03-31 Image processing method, image processing apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2001285641A JP2001285641A (en) 2001-10-12
JP4017312B2 true JP4017312B2 (en) 2007-12-05

Family

ID=18613344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000098922A Expired - Lifetime JP4017312B2 (en) 2000-03-31 2000-03-31 Image processing method, image processing apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP4017312B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3888456B2 (en) 2002-09-10 2007-03-07 ソニー株式会社 Digital still camera
CN101489488B (en) 2006-07-20 2011-11-23 株式会社日立医药 Ultrasonographic device
KR101303660B1 (en) 2007-10-01 2013-09-04 삼성전자주식회사 Method and apparatus for noise considering detail enhancement and noise weight calculatiing method and apparatus
JP5359646B2 (en) * 2008-08-01 2013-12-04 株式会社ニコン Image processing method
WO2011036777A1 (en) * 2009-09-25 2011-03-31 株式会社 東芝 Image processing device
KR102056686B1 (en) 2013-02-18 2019-12-18 삼성디스플레이 주식회사 Image processing part, display apparatus having the same and method of processing image using the same
CN108765330B (en) * 2018-05-21 2022-05-27 西北大学 Image denoising method and device based on global and local prior joint constraint
CN112308082B (en) * 2020-11-05 2023-04-07 湖南科技大学 Dynamic video image segmentation method based on dual-channel convolution kernel and multi-frame feature fusion
CN112580554B (en) * 2020-12-25 2024-01-05 北京环境特性研究所 Classification recognition method for MSTAR data noise intensity control based on CNN

Also Published As

Publication number Publication date
JP2001285641A (en) 2001-10-12

Similar Documents

Publication Publication Date Title
US6667815B1 (en) Method and apparatus for processing images
US6373992B1 (en) Method and apparatus for image processing
JP4053185B2 (en) Image processing method and apparatus
US6055340A (en) Method and apparatus for processing digital images to suppress their noise and enhancing their sharpness
JP4139760B2 (en) Image processing method and apparatus, and image processing program
JP3726653B2 (en) Image processing method, image processing apparatus, and recording medium on which program for executing image processing method is recorded
JP3584389B2 (en) Image processing method and image processing apparatus
JPH0922460A (en) Image processing method and device therefor
JP2004318423A (en) Image processing method, image processor, and image processing program
JP2006011685A (en) Photographic image processing method and its device
JP2002300402A (en) Image processor, processing method and recording medium
JP4017312B2 (en) Image processing method, image processing apparatus, and recording medium
JP4137015B2 (en) Image processing apparatus and method
JP2005141477A (en) Image sharpening process and image processor implementing this process
JP4766702B2 (en) Image processing apparatus and method
JP4064031B2 (en) Image processing method
JP3729118B2 (en) Image processing method, image processing apparatus, image processing program, and computer-readable recording medium recording the same
JP3804880B2 (en) Image processing method for noise suppression and sharpness enhancement of digital images
JPH11339035A (en) Method for deciding image processing parameter and device therefor
JP2001008038A (en) Image processing method, image processor and multi-band color photographing system
JP2000175046A (en) Image processing method and image processor
JP2000040154A (en) Method and device for image processing
JPH10243239A (en) Image-processing method for noise suppression and sharpness emphasis for digital image
JP2001285640A (en) Image processing method, image processing apparatus and recording medium
JP2001076134A (en) Picture processing method and picture processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050912

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070918

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4017312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110928

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130928

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term