JP3804880B2 - Image processing method for noise suppression and sharpness enhancement of digital images - Google Patents

Image processing method for noise suppression and sharpness enhancement of digital images Download PDF

Info

Publication number
JP3804880B2
JP3804880B2 JP06210197A JP6210197A JP3804880B2 JP 3804880 B2 JP3804880 B2 JP 3804880B2 JP 06210197 A JP06210197 A JP 06210197A JP 6210197 A JP6210197 A JP 6210197A JP 3804880 B2 JP3804880 B2 JP 3804880B2
Authority
JP
Japan
Prior art keywords
image
edge
noise
sharpness
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP06210197A
Other languages
Japanese (ja)
Other versions
JPH10243238A (en
Inventor
尾 公 俊 長
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP06210197A priority Critical patent/JP3804880B2/en
Priority to US09/032,112 priority patent/US6055340A/en
Publication of JPH10243238A publication Critical patent/JPH10243238A/en
Application granted granted Critical
Publication of JP3804880B2 publication Critical patent/JP3804880B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の技術分野】
本発明は、ディジタル画像の粒状などのノイズ(雑音)を抑制し、かつディジタル画像のシャープネスを強調するディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法に関する。
【0002】
【従来の技術】
写真等の画像を画像入力スキャナで収録し、画像出力プリンタで出力するようなディジタル画像では、スキャナとプリンタによる大幅なシャープネス劣化があり、それを回復するために従来からラプラシアンフィルタやアンシャープマスク(USM)によるシャープネス強調が行われている。しかし、画像のシャープネスが向上すると共に粒状などのノイズ(雑音)が悪化する副作用があるため、粒状のある画像においては粒状悪化が許容される範囲内で控え目なシャープネス強調しか行えず、原稿画像以上に画質を向上させることが困難であった。
【0003】
ディジタル画像において、ノイズとなる粒状を除去しシャープネスを強調する画像処理法としては幾つか提案されているが、粒状を除去する方法として平均化したり、ぼかす方法を用いているため、ぼけた粒状パターンが視覚的には不快に感じられたり、微小な被写体構造が不自然に消されたりする等の問題点があり、写真のような審美的な画像には適さない。
【0004】
写真、印刷、テレビジョン、各種複写機等の画像において、カメラ等の光学系による鮮鋭度劣化、写真感光材料に固有の粒状や鮮鋭度劣化、もしくは写真や印刷等の原稿画像を画像入力装置でディジタル化する際に付加されるノイズ(雑音)や鮮鋭度劣化を回復するため、ノイズを抑制したり、シャープネスを強調する画像処理法として種々の方法が考案されている。たとえば、従来の画像処理方法では、粒状除去処理方法としては平滑化やコアリングという方法が用いられ、シャープネス強調処理法としてはアンシャープマスク(USM;Unsharpness Mask)やラプラシアン、あるいはハイパスフィルタによる処理が用いられている。しかし、これらの従来の粒状除去処理方法では粒状を抑制すると不自然な違和感のあるアーチィファクトが生じたり、本来は抑制してはならない画像の微細構造を粒状と共に抑制してしまう等の望ましくない欠点を有していた。
【0005】
たとえば、特表昭57−500311号公報、同57−500354号公報および「アンシャープで粒状の目立つ写真画像のディジタル強調方法」、電子画像処理国際会議録、1982年7月、第179〜183頁(P.G.Powell and B.E.Bayer, “A Method for the Digital Enhancement of Unsharp,Grainy Photographic Images” , Proceedings of the International Conference on Electronic Image Processing,Jul.26-28,1982,pp.179-183)に開示されたポーウェルおよびバイヤーらの処理法では、粒状抑制方法として平滑化処理法(ローパスフィルタ)を用い、シャープネス強調方法としてアンシャープマスク(ハイパスフィルタ)による処理法を用いている。平滑化処理はn×n画素の信号値にGaussian型等の重み付けを乗じて信号を平滑化することによって、粒状を抑制する処理である。シャープネス強調処理は、先ずm×m画素の画像信号を用いて、中心画素から周囲画素の方向の微分値を求め、その値が設定した閾値より小さい場合は粒状や雑音と見做してコアリング処理で除去し、残った閾値より大きい微分値の和をとり、1.0以上の定数を乗じて上記の平滑化信号に加算することによりシャープネス強調を行う。
【0006】
この処理法では、粒状パターンをぼかしているので、粒状パターンの濃淡コントラストは低下するが、粒状を構成する粒子の集落(モトル)からなる大きいむらパターンが視覚的には目立つようになったりするため、不快な粒状として見えるという欠点がある。また設定した閾値で粒状と画像の識別を行っている(コアリング処理)ので、コントラストの低い画像信号が粒状誤認され、粒状と共に抑制あるいは除去されてしまったり、除去した信号と強調した画像信号との境界で不連続性が生じ、画像に不自然なアーティファクトが見られるという欠点がある。特に、芝生や絨毯等の微細な画像、および布地等のテクスチャが描写されている画像においてこの欠点が現れ、視覚的には極めて不自然で望ましくないアーティファクトとなる。
【0007】
【発明が解決しようとする課題】
ところで、上述した従来の粒状抑制・シャープネス強調画像処理方法では、シャープネスはアンシャープマスクで強調し、粒状はぼかしたり、平滑化によって抑制する手法を用い、原画像から粒状(ノイズ)信号と輪郭信号を信号レベルで分離して、輪郭信号はシャープネス強調し、平滑領域は粒状抑制することにより、小さい信号を粒状と見做して処理するので、粒状の信号レベルと近い画像細部信号、すなわち衣類のテクスチャや頭髪等の画像信号が粒状と共に抑制され、画像処理のアーティファクトとして視覚的に不快な画像となる欠点があるという問題があった。すなわち、このような従来法では、粒状抑制の方法としてぼけや平均化を用いており、ぼけた粒状パターンは濃度の揺らぎとしては小さくなって粒状が良くなったかのように見えるが、逆に濃度揺らぎ量は小さいがぼけて広がった粒状パターンが視覚的には不快なパターンと認識され、特に、ポートレート写真等の顔や肌、あるいは壁や空等の一様な被写体で目立つという問題があった。
【0008】
また、原画像から粒状(雑音)領域と輪郭領域を信号レベルで分離する従来法では、原画像とぼけ画像の差分信号から輪郭領域と平坦領域を識別し、それぞれの領域に対してアンシャープマスクやラプラシアン等の異なる係数を用いて処理することによって、平坦領域では粒状を抑制しつつ、輪郭領域ではシャープネスを強調してエッジをぼかすことなく粒状抑制をしているが、輪郭領域と粒状領域の認識・分離が閾値となる信号レベルで一律に行われるため、その境界で不連続性が生じるという問題があった。
さらに、このような従来法では、エッジ強調あるいはシャープネス強調方法としてアンシャープマスクやラプラシアンが用いられているが、画像の輪郭・エッジ部にマッキーラインのような縁取りが発生し易く、視覚的に不自然な印象を与えるという問題があった。
【0009】
本発明は、上記従来技術の現状を鑑みてなされたものであって、写真、印刷、テレビジョン、電子スチル写真、各種複写機等の画像において、カメラによるぼけ、写真感光材料の粒状やぼけ等の原稿画像に固有のノイズ(雑音)と鮮鋭度劣化、もしくはその原稿画像を画像入力装置でディジタル化する際に付加されるノイズと鮮鋭度劣化を回復する処理を行う際に、上記従来技術の問題点、すなわち、平滑化による粒状抑制を行うと粒状がぼけて大きいむらが視覚的に不快に見えるという問題点、コントラストの低い画像信号が粒状と誤認され、抑制あるいは除去される問題点、粒状除去領域とシャープネス強調領域の境界が不連続になり画像に不自然なアーティファクトが見られるという問題点を生じさせずに、粒状を抑制し、かつ画像シャープネスを強調する処理を行うディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明は、原画像データにシャープネス強調処理を行ってシャープネス強調画像データを作成し、
前記原画像データに平滑化処理を行って平滑化画像データを作成し、
前記シャープネス強調画像データからこの平滑化画像データを減算してエッジとノイズとの混在成分を抽出するとともに、前記原画像データからエッジ検出を行ってエッジ領域およびノイズ領域の重み付けデータを求め、
前記エッジとノイズとの混在分成分にこのノイズ領域の重み付けデータを用いて重み付けを行った後に非線形変換を行ってノイズ成分を分離し、
得られたノイズ成分に細分化処理を行って、細分化ノイズ成分を得るとともに、
前記エッジとノイズとの混在成分に前記エッジ領域の重み付けデータを用いて重み付けを行ってエッジ強調成分を得、
前記シャープネス強調画像データから前記細分化ノイズ成分を変倍して除くとともに前記エッジ強調成分を変倍して付加して処理画像データを得ることを特徴とするディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法を提供するものである。
【0011】
ここで、前記シャープネス強調処理が、ガウシャン型アンシャープマスク処理であるのが好ましく、前記平滑化処理が、ガウシャン型ぼけマスク処理であるのが好ましい。また、前記ノイズ成分を分離するための非線型変換は、ノイズの濃度変動の閾値より前記濃度変動が大きくなるにつれて連続的にガウシャン関数的に減少する関数によって行われるのが好ましい。また、前記細分化処理が、ノイズモトルの細分化処理であるのが好ましい。
【0012】
また、前記細分化処理が、前記ノイズ成分に乱数を乗算する処理であるのが好ましい。また、前記重み付けデータを求めるためのエッジ検出は、局所分散方式によるものであるのが好ましい。
【0013】
【作用】
本発明のディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法は、処理前の原画像にシャープネス強調の処理を行い、画像を鮮鋭化すると共に画像中に含まれている粒状・ノイズ(雑音)を共に鮮鋭化しておき、画像のエッジ部と平坦部を領域分割し、平坦部を粒状領域と見做して粒状の信号を検出し、その粒状を細分化して選択的に除去するものである。本発明法では、こうすることにより、エッジ部ではシャープネス強調画像、粒状領域では粒状が抑制された画質の良い画像を得ることができる。
また、本発明の粒状抑制法では、シャープネス強調された粒状成分を識別し、その粒状成分にさらにランダムな変調を掛けた微細化粒状成分を前記シャープネス強調画像から差し引く方法で粒状を抑制することにより、元の粒状より空間的に細かく且つ濃淡変化の小さい粒状を実現することができる。粒状をシャープネス強調し、且つ空間的に微細化するので、銀塩写真感材で微粒子乳剤を用いた時に得られるような細かい粒状にすることができる。
【0014】
【発明の実施の形態】
本発明に係るディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法を添付の図面に示す好適実施例に基づいて詳細に説明する。
【0015】
図1は、本発明の画像処理方法の処理アルゴリズムの一例を示すフローチャートである。以下の説明では、ディジタル画像のノイズとして粒状を代表例として説明する。
本発明においては、図1に示すように、各画素毎に先ず、原画像I0 からシャープネス強調画像IS と平滑化画像IAVを作成し、エッジと粒状(ノイズ)との混在成分を抽出する、すなわちエッジ・粒状混在の微細画像データΔIEGを作成する。一方、原画像から直接原画像中の被写体エッジE0 の検出を行い、エッジ領域と粒状領域の重み付けデータWE とWG を求める。
【0016】
この後、これらの重み付けデータWE とWG を用いて、先に求めたエッジ・粒状混在の微細画像データΔIEGから非線形変換(NLG)によりエッジと粒状を分離する。すなわち、エッジ・粒状混在成分ΔIEGに粒状領域の重み付けデータWG を乗算して重み付けをして粒状領域のエッジ情報を含む粒状成分G0 を求め、この粒状成分G0 をモトル細分化処理で微粒子化して、細分化粒状成分、すなわち粒状抑制成分G1 を作成する。一方、エッジ成分の方は、エッジ・粒状混在成分ΔIEGにエッジ領域の重み付けデータWE を乗算して重み付けしてエッジ領域のエッジ強調成分E1 を作成する。
最後に、はじめに求めたシャープネス強調画像IS からこうして作成された粒状抑制成分G1 を定数倍、例えばα倍して減算して除くとともに、エッジ強調成分E1 を定数倍、例えばβ倍して加算して付加することにより、画像のエッジ領域がシャープネス強調され、平坦領域が粒状抑制された処理画像I1 が作成される。
【0017】
本発明法の特徴は、粒状を微粒子化手法で抑制し、画像エッジ(輪郭)と粒状の領域を非線形変換で識別することにより、粒状抑制処理とシャープネス強調処理をファジー(Fuzzy)に配分した点である。すなわち、粒状領域とエッジ領域の境界はon/off的なものではなく、両領域がオーバーラップしていて、その比率が徐々に変わっていくようなものなので、境界が不自然に目立つことなく、極めて自然なものとなる。本発明法において、粒状抑制の程度を決めるパラメータは、粒状・エッジ成分の濃度変動ΔDの平方自乗平均(RMS)に基づいて自動設定することもできる。
また、粒状・雑音を抑制し、かつシャープネスを強調する本発明法のアルゴリズムを、ディジタル化された画像データに対して、コンピュータあるいは専用処理装置を使用して処理することができる。
【0018】
次に、本発明の画像処理方法の各工程について図1を参照して簡単に説明する。
1)シャープネス強調工程
ガウシアン型アンシャープマスク(Gaussian USM)を用いて、原画像I0 に画像入出力系のぼけ回復と共に、光学プリントを凌ぐためにかなり大幅なシャープネス強調を行い、シャープネス強調画像IS を作成する。
2)平滑化工程およびエッジ・粒状混在成分の抽出工程、
例えば、平均化やぼけマスクを用いて原画像I0 の平滑化画像IAVを作成し、シャープネス強調画像IS から下記式(1)によってエッジ・粒状混在の微細画像データΔIEGを作成する。
ΔIEG = IS − IAV (1)
【0019】
3)エッジ領域と粒状領域の重み付け係数の算出工程、
原画像I0 から直接、例えば局所分散方式によって原画像I0 中の被写体エッジE0 を検出し、このエッジE0 を用いて、エッジ領域と粒状領域の重み付け関数(データ)WE とWG を求める。ここでWE +WG =1.0であるので、粒状領域の重み付けデータWG のみを求め、エッジ領域の重み付けデータは1.0−WG を用いるようにしてもよいし、また、逆を行ってもよい。
4)エッジと粒状の識別・分離工程、
粒状領域の重み付けデータWG とエッジ領域の重み付けデータWE とを用いて、エッジ・粒状混在微細画像データΔIEGから非線形変換関数(NLG)によりエッジと粒状を分離する。粒状成分G0 およびエッジ成分E1 は下記式(2)および(3)によって求められることができるが、エッジ成分E1 は、エッジ強調成分E1 として求められる。
0 = NLG(ΔIEG×WG ) (2)
1 = ΔIEG×WE (3)
【0020】
5)粒状モトル細分化工程、
粒状成分G0 は、下記式(4)によって示されるガウシアン(Gaussian)乱数RG を用いたモトル細分化処理で微粒子化されて、粒状抑制成分G1 が作成される。
1 = Φ(G0 , G ) (4)
6)粒状抑制およびエッジ強調(シャープネス強調)工程(最終処理画像の算出工程)、
先に求められたシャープネス強調画像IS と、ここで求められた粒状抑制成分G1 とエッジ強調成分E1 から下記式によって、原画像I0 のエッジ領域がシャープネス強調され、粒状領域などの平坦領域は粒状抑制された処理画像I1 を得ることができる。ここで、α、βは、処理の強さを調節するパラメータである。
1 = IS −αG1 +βE1 (5)
【0021】
ところで、上述した例では、4)エッジと粒状の識別・分離工程で粒状成分G0 とエッジ強調成分E1 を作成しているが、本発明はこれに限定されず、この識別・分離工程では粒状成分G0 のみを作成し、エッジ強調成分E1 は終段の6)エッジ強調工程で作成するようにしてもよい。
また、上述した例では、最終の粒状抑制およびエッジ強調工程で粒状抑制成分G1 とエッジ強調成分E1 とをシャープネス強調画像IS に対して同時に演算しているけれども、本発明はこれに限定されず、別々にそれぞれ減算および加算を行うようにしてもよい。
【0022】
本発明の画像処理方法において対象とする画像としては、特に制限的ではないが、写真、印刷、電子スチル写真、各種複写機等のハードコピー画像のみならず、テレビジョン、コンピュータのCRT、液晶などの表示装置に表示されるソフトコピー画像であってもよい。
また、以上の説明では、これらの画像において抑制すべきノイズとして粒状を代表例として説明しているが、本発明はこれに限定されず、カメラによるボケ、写真感光材料の粒状やぼけ等に起因する原稿画像に固有のノイズ、もしくはこれらの原稿画像をスキャナ等の画像入力装置で読み取ってディジタル画像化する際に付加されるノイズ、あるいはビデオカメラや電子スチルカメラやディジタルカメラで撮影してディジタル画像化する時に混入するノイズなど、画像再現においてざらついて見える抑制の対象となるノイズであればどのようなものでもよい。
【0023】
次に、本発明の画像処理方法の各工程について詳細に説明する。
1)まず、シャープネス強調工程について説明する。
ここで、画像のシャープネスを強調する方法としては、アンシャープマスク(Unsharp mask, USM) またはラプラシアン(Laplacian) が良く知られている。本発明においても、これらを用いることにより、画像のシャープネス劣化が軽度なものであれば、画像のシャープネスを強調することができる。
アンシャープマスクは、次式のように原画像I0(x,y)から、I0(x,y)を平均化あるいはぼかした画像<I0(x,y)>を引いて求めたエッジ強調成分I0(x,y)−<I0(x,y)>に係数aを掛けて原画像I0(x,y)に加算することによって、シャープネス強調画像IS (x,y) を求める方法である。
S (x,y) =I0(x,y)+a〔I0(x,y)−<I0(x,y)>〕 (6)
ここで、aはシャープネス強調の程度を調節する定数であり、x,yは、画像中の注目画素の位置を示す。
ラプラシアンは、画像I0(x,y)の二次微分(ラプラシアン)▽2 0(x,y)を原画像から引くことによって、シャープネス強調する方法で、次式で表される。
S (x,y) =I0(x,y)−▽2 0(x,y) (7)
ラプラシアンによるシャープネス強調の具体的な例としては、下記のような3×3の係数配列が良く用いられる。

Figure 0003804880
【0024】
この係数配列では、特に強いシャープネス強調を掛けたときに、画像のエッジに不自然な輪郭が発生し易い。そこで、そのような欠点を少なくするために、本発明では式(9)に示したような正規分布型(Gaussian)のぼけ関数を用いたアンシャープマスクを用いるのが好ましい。
G(x,y)=(1/2πσ2)exp[−(x2 + y2)/2σ2] (9)
ここで、σ2 は正規分布関数の広がりを表すパラメータであり、マスクの端x=x1 における値とマスクの中心x=0における値の比、
G(x1,0)/G(0,0)=exp[−x1 2/2σ2] (10)
が0.1〜1.0となるように調節することによって、3×3のアンシャープマスクのシャープさを所望のものとすることができる。式(10)の値を1.0に近い値にすると、式(8)の中央のラプラシアンフィルタとほぼ同じマスクを作ることができる。
マスクのシャープさを変更するには、この他にマスクの大きさを変更する方法があり、たとえば5×5、7×7、9×9等のマスクを用いることによって、シャープネス強調の空間周波数域の大幅な変更が可能となる。
【0025】
また、マスクの関数形としても、上記の正規分布型以外のもの、たとえば、下記式(11)のような指数関数型のマスクを用いることができる。
E(x,y)=exp[−(x2 + y2)1/2/a] (11)
ここで、aは式(9)のσ2 と同様にアンシャープマスクの広がりを表すパラメータであり、マスクの端の値とマスクの中心値の比、
E(x1,0)/E(0,0)=exp[−x1/a] (12)
が0.1〜1.0となるように調節することによって、3×3のアンシャープマスクのシャープさを所望のものとすることができる。式(13)に、E(x1,0)/E(0,0)=0.3としたときの式(11)の指数関数のマスクの数値例を示す。
0.18 0.30 0.18
0.30 1.00 0.30 (13)
0.18 0.30 0.18
このマスクから、アンシャープマスクの1例を計算すると、次式(14)のようになる。
−0.12 −0.22 −0.12
−0.21 2.32 −0.21 (14)
−0.12 −0.21 −0.12
【0026】
このようなアンシャープマスクを用いて、原画像I0(x,y)からシャープネス強調画像IS (x,y)を求めることができる。なお、本発明に用いられるアンシャープマスクおよびシャープネス強調方法は、上述したものに限定されるわけではなく、この他の従来公知のアンシャープマスクや空間周波数フィルタリング等によるシャープネス強調方法を適用可能なことはもちろんである。
【0027】
2)次に平滑化工程について説明する。
平滑化を行う方法としては、実空間領域の処理と空間周波数領域の処理を挙げることができる。実空間領域処理では、隣接する画素全体の和を求め平均値を計算してその値に置き換える方法、各画素に重み係数、たとえば正規分布型の関数を掛けて平均値を求める方法、メディアンフィルタのような非線型な処理を行う方法等の種々の方法がある。一方、空間周波数領域の処理では、ローパスフィルタを掛ける方法がある。たとえば、重み係数を用いる平均化の方法では下記式(15)を挙げることができる。
【0028】
【数1】
Figure 0003804880
【0029】
ただし、nは平均化のマスクサイズ、wは重み係数である。w=1.0とすると、単純平均となる。
本発明では、実空間領域処理の中で、正規分布型の重み係数を掛けて平均値を求める方法を用いることにするが、これに限定されない。この時、処理のマスクとしては、下記のようなn×n画素のマスクを用いるのが好ましい。具体的には3×3から5×5、7×7、9×9程度のものを用いるのが好ましい。
Figure 0003804880
【0030】
式(17)に9×9画素のマスクの一例を示す。この式(17)では中心の値を1.0に正規化した値で示しているが、実際の処理ではマスク全体の和が1.0になるようにする。
0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09
0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15
0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22
0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28
0.30 0.51 0.74 0.93 1.00 0.93 0.74 0.51 0.30 (17)
0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28
0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22
0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15
0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09
【0031】
このようなマスクを用いて、原画像I0(x,y)から平滑化画像IAV(x,y)を求めることができる。なお、本発明に用いられる平滑化方法としては、上述した種々の方法に限定されるわけではなく、従来公知の平滑化方法はいずれも適用可能なことはいうまでもない。
【0032】
3)次いで、粒状とエッジの混在成分の抽出工程について説明する。
こうして得られたシャープネス強調画像IS (x,y)と平滑画像IAV(x,y) から、両者の差を計算し粒状とエッジとの混在成分ΔIEG(x,y) として抽出する。
ΔIEG(x,y)=IS (x,y) −IAV(x,y) (18)
【0033】
4)エッジ検出およびエッジ領域と粒状領域の重み付け係数の算出工程について説明する。ここでは、一例として局所分散方式によるエッジ検出を代表例として説明するが、本発明はこれに限定されるわけではない。
【0034】
▲1▼前処理:濃度変換、
エッジ検出を行う際に先ず、式(19)に示したように、原画像I0(x,y)のR,G,Bの3色の濃度値DR ,DG ,DB に重み係数r,g,bを掛けて視覚濃度(Visual density)DV に変換する。
V =(rDR +gDG +bDB )/(r+g+b) (19)
重み係数としては、例えば、r:g:b=4:5:1のような値を用いる。この変換を行うのは、R,G,Bで相関の無い粒状やノイズを減少させ、エッジ検出の精度を向上させるためである。前処理の配列の大きさは範囲は5×5、あるいは7×7画素程度のものを用いるのがよいが、それは、次の処理▲2▼で配列内の画像濃度の変動を、配列内で小さい配列、例えば、図2に示すように、3×3程度の配列を用いて、移動しながら計算するためである。
【0035】
なお、エッジ検出における重み係数r,g,bは以下のようにして求めることができる。
重み係数については、視覚で観察したときに目立つ(これは、分光的な視感度分布に対応するという見方もあるが)、すなわち寄与の大きい色の画像データの重み係数が大きいという考えに基づいて最適な値に設定するのが好ましい。一般には、視覚評価実験等に基づいて経験的な重み係数が求められており、下記のような値が一般的な知見として知られている(公知文献としては、野口高史、「心理対応の良い粒状評価法)、日本写真学会誌,57(6),415(1994)があり、色によって異なるが、下記の比に近い数値が示されている)。
r:g:b=3:6:1
r:g:b=4:5:1
r:g:b=2:7:1
ここで、係数の比r:g:bとして好ましい値の範囲を規定するとすれば、r +g+b=10.0でbを1.0としたときに、gの値として、
g=5.0〜7.0
の範囲の値が好ましい。ただし、r=10.0−b−gである。
【0036】
▲2▼局所分散によるエッジ検出、
エッジの検出は、図2に示すように、上記視覚濃度DV の画像データからnE ×nE 画素の配列を移動しつつ、配列内の画像濃度変動を式(20)を用いて、その位置毎の局所的な標準偏差σを順次局所分散として計算することによって、画像中の被写体エッジの検出を行う。画素配列の大きさ(nE ×nE )は、検出精度および計算負荷を考慮して適宜決めればよいが、例えば3×3、あるいは5×5程度の大きさを用いるのが好ましい。
【0037】
【数2】
Figure 0003804880
ただし、Dijは局所分散を計算するnE ×nE の画素配列の濃度で、<D>はその配列の平均濃度で、
【数3】
Figure 0003804880
である。
【0038】
▲3▼エッジ領域と粒状領域の重み付け係数の算出、
上記式(20)および(21)に示す局所分散σ(x,y) から、エッジ領域の重み付けWE (x,y) と粒状領域の重み付けWG (x,y) を求めるために下記のような指数関数を用いた式(22)および(23)を用いた。
E (x,y) =1− exp [−σ(x,y)/aE ] (22)
G (x,y) =1−WE (x,y) (23)
ただし、aE は局所分散σ(x,y)の値を重み付けWE (x,y) に変換する際の係数で、WE =0.5に割り付けるσ(x,y)の閾値σT とすると、
E =−σT / loge (0.5)
である。σT の値は、粒状と被写体輪郭の信号の大きさによって適切な値にする必要があるが、各色8bit(256階調)のカラー画像では10〜100の範囲の値が好ましい。この変換は、LUT(Look up table)として作成しておくと、変換に要する計算時間を短縮することができる。
【0039】
エッジ領域の重み付けWE (x,y) を求める変換式としては、上記式に限定されるものではなく、他の式を用いることもできる。たとえば、下記のようなガウシャン型の関数を用いても良い。
E (x,y) =1− exp{− [σ(x,y)]2 /aE1 2
ただし、aE1はσ(x,y) からWE (x,y) に変換する際の係数で、WE =0.5に割り付けるσ(x,y) の閾値をσT とすると、
E1 2 =−σT 2 / loge (0.5)
である。σT の値は、各色8bit(256階調)のカラー画像では10〜100の範囲の値が好ましい。
【0040】
ところで、本発明においてエッジ検出法としては、上記局所分散方式のエッジ検出法に限定されるわけではなく、他のエッジ検出法も利用可能である。上記局所分散方式以外のエッジ検出法には、一次微分や二次微分に基づく方法があり、それぞれに、更に幾つかの方法がある。
まず、空間的な一次微分に基づく方法としては、下記の2つのオペレータがある。
差分型エッジ抽出オペレータとして、 Prewittのオペレータ、 Sobelのオペレータ、 Robertsのオペレータなどがある。 Robertsのオペレータは下記式で表わすことができる。
g(i,j)={[f(i,j) - f(i+l,j+l)]2+[f(i+l,j) - f(i,j+l)]21/2
テンプレート型オペレータとして、8方向のエッジパターンに相当する3×3テンプレートを用いる Robinson のオペレータや Kirshのオペレータがある。
次に、空間的な二次微分に基づく方法としては、ラプラシアンを用いた方法がある。この場合、雑音を強調してしまうので、先ず正規分布型のぼかし処理をしてからエッジ検出する方法が良く用いられる。
【0041】
5)次に、エッジと粒状の識別・分離工程における粒状とエッジの重み付けについて説明する
ここでは、粒状成分とエッジ成分を識別し、分離するには、粒状とエッジの特徴を利用する。先ず、空間的な領域では、粒状はフィルム全体すなわち画像全体にあるが、被写体の輪郭やエッジの部分よりも平坦な部分で目立つ。一方、エッジは画像中の主として被写体の輪郭部分と被写体表面の微細構造のある部分にある。また、濃度領域では、図3に示すように、粒状は主として撮影に用いた写真感光材料の粒状で構成されているので、図中点線で示されるように、濃度差は小さいものが多いが、エッジは被写体のコントラストに依存しており、画像によって大きく異なるが図中実線で示されるように、濃度差は微小なものから非常に大きいものまで変化に富んだものとなっている。
【0042】
6)次に、粒状とエッジの識別・分離工程について説明する。
粒状とエッジを識別・分離するために、先ず両者の空間的な特徴を利用して、粒状とエッジの領域分割を行う。原画像から検出した被写体のエッジを用いて求めた粒状領域の重み付けWG (x,y) を、粒状とエッジの混在濃度値ΔIEG(x,y) に掛けることによって、エッジ情報を減少させ、粒状情報の比率の高い信号ΔIG (x,y) にすることができる。
ΔIG (x,y) =WG (x,y) ×ΔIEG(x,y) (24)
【0043】
次に、濃度領域での特徴を利用して、粒状とエッジの画像情報の分離を行う。図3に示したように、濃度差の小さい信号は主として粒状成分で、エッジ信号も幾分混在し、濃度差の大きい信号は主としてエッジ成分で、濃度差の大きめの粒状成分が混在しているので、濃度差の大小を用いて粒状とエッジの分離を行うことができる。粒状成分G(x,y) の分離は、下記の式(25)で表す非線形変換のLUTを用いて行う。粒状成分の分離に用いられる非線形変換LUTの一例を図4に示す。
G(x,y) =LUT (ΔD(x,y)) (25)
ただし、LUTは
LUT (ΔD)=ΔD× exp [−(ΔD)2/aG 2] (26)
で、aG 2 は粒状の濃度変動の閾値GT から決まる定数で、
G 2 =−GT 2/ loge (1/2) (27)
である。
【0044】
ここで、粒状の濃度変動の閾値GT は、粒状とエッジの混在濃度変動ΔIEG(x,y) の中で、この値以下の濃度変動は粒状であると見做すものであるが、式(26)と図4から容易に判るように、この閾値を境にon/off的に分離するのではなく、濃度変動が大きくなるにつれて徐々に小さくなるLUT形状に従って、分離する粒状が減少していくようにしている。従って、粒状と共にエッジも混入するが、その割合も徐々に減少する。
このような非線型変換LUTを非線型変換関数NLGとして表わし、エッジ・粒状混在成分をΔIEG(x,y)で表わすと、粒状成分G0(x,y)は、上記式(24)および(25)より、
0(x,y)=NLG{ΔIEG(x,y) ×WG (x,y) } (28)
として表わすことができる。こうして粒状成分G0(x,y)を求めることができる。
なお、本工程で行なうエッジ成分の算出は後述する。
【0045】
ところで、粒状の識別閾値GT の値は、処理する画像の粒状やノイズの大きさとシャープネス強調処理の程度によって、最適な値を選択するのが好ましい。粒状の識別は、シャープネス強調処理を行った画像で行うので、その粒状は元の画像の粒状がシャープネス強調処理でシャープになり、かつ濃度変動が大きくなった粒状である。したがって、粒状抑制処理を行う際に、周辺のn×n画素の濃度変動を参照して、シャープネス強調処理後の粒状の大きさをRMS粒状度σ等の物理値で表し、それに基づいて粒状の識別閾値GT を決めることになる。以下に、その決定方法について説明する。
【0046】
カラー写真感光材料の粒状は、通常、マイクロデンシトメータを用いて、48μφの測定開口を用いてRMS粒状度で測定されており、一般的あるいは典型的なカラーネガフィルム、例えばSuper G ACE 100, 200, 400, 800(いずれも富士写真フイルム社製)などでは4〜5の値(RMS粒状度σ48を1000倍した値で表示したもの)となっている。このフィルムを開口面積Aでスキャニングすることによってディジタル化すると、その開口面積でのフィルムの粒状度σscは、良く知られたSelwynの粒状度の式S=σ√Aを用いて、上記48μφの開口で測定したRMS粒状度σ48から次式(29)で換算することができる。
σsc=σ48√A48/√Asc (29)
ここで、A48は48μφの開口の面積である。たとえば、フィルムの粒状度が4で、ディジタル化のスキャニング開口を12μφ(開口面積はA12)とすると、
σsc=σ48√A48/√A12=0.016 (30)
となる。ただし、いずれの場合も光学系とスキャニング開口によるぼけは同じとする。
【0047】
シャープネス強調を行ったときに粒状度σscがp倍に大きくなったとすると、
σsc’=pσsc (31)
となる。
粒状の識別閾値GT の値は、処理すべき画像の粒状度に比例する値、すなわちGT =kG σsc’が好ましい。ただし、kG は定数で、1.0〜3.0の値が好ましい。GT の値をσより大きくすればするほど粒状はより完全に識別できるようになる反面、粒状の濃度変動に近い低コントラストの被写体情報が粒状として誤認される確率が高まる。逆にσより小さくすると被写体情報は誤認されにくくなるが、粒状の中で濃度変動の大きい粒状が捕らえられなくなってしまい、画像の中に粗い粒状が残ることになる。
【0048】
7)次に、粒状モトルの細分化工程について説明する。
粒状パターンは画像中で細かい濃度変動から成っているが、その濃度変動は濃度値の振幅の変動と空間的な変動の大きさに分けて考えることができる。粒状抑制の画像処理の目的は、この粒状を視覚的に目立たないようにすることである。そのためには、上記の濃度振幅と空間的な大きさの両方を小さくすると粒状を抑制することができるが、振幅も大きさもある程度以下に小さくなると視覚的な改良効果が認識できなくなる。しかし、ディジタル画像では、空間的には画素の大きさが最小単位となり、濃度振幅ではデータの濃度分解能(たとえば、8bit の画像データならば、1bit の濃度差)が最小単位となるので、物理的にこれ以下にはできない。
【0049】
粒状モトルは空間的に大きいものから小さいものまであり、小さいモトルでは画素単位で細かく信号や濃度が変動するが、大きいモトルでは周辺の幾つかの画素に跨がって信号や濃度が変動する。画素単位で変動する信号については、それ以上細かくすることはできないが、複数の画素に跨がる大きい粒状モトルについては、小さくすることによって視覚的に目立たないようにできる。
粒状モトルを小さくする処理は、先ず粒状G0(x,y)を検出し、その粒状G0(x,y)に細分化するための乱数や格子等の細かいパターンから成る細分化マスクR(x,y) を掛けて、粒状抑制成分、
1(x,y)=R(x,y) ×G0(x,y) (32)
を求める。次に、粒状を抑制したい画像IS (x,y) から、下記式(33)のように引くことによって、粒状を抑制することができる。
10(x,y) =Is (x,y) −αG1(x,y) (33)
【0050】
以上の粒状抑制処理の工程は、以下のように、粒状細分化マスクの生成工程と粒状の細分化工程の二段階に分けることができる。
▲1▼粒状細分化マスクの生成工程、
マスクとしては、乱数パターンの他に網点状パターン(通常の二次元の網点、一次元の万線スクリーン、FMスクリーン等)や誤差拡散のようなパターンでも良いがモアレ等のアーティファクトの無い乱数パターンが好ましい。
乱数も一様乱数、正規乱数、Poisson 乱数、二項乱数等があるが、自然界の揺らぎ現象に近い正規乱数が好ましい。また、自然界の揺らぎを最も良く表していると言われている1/f揺らぎもこの目的に適している。
【0051】
乱数の生成は、次式のように、画像の各画素に対して一個の乱数を発生させる。
R(x,y) =Ran(i) (34)
ただし、Ran(i) は乱数、i=1,2,..., Nで、Nは処理する画像の総画素数である。正規乱数の確率密度分布は、下記式(35)のようになり、平均値μのとき分散がσ2 となる。粒状の細分化マスクの特性は、この乱数の平均値μの値を調節することによって、粒状の細分化の程度、特にマスクの振幅の変動量を制御することができる。μの値としては10〜1000程度の範囲のものが好ましい。
【0052】
【数4】
Figure 0003804880
【0053】
▲2▼粒状の濃度変動パターンの細分化
検出した粒状データG0(x,y)に上記の乱数R(x,y) を掛けて、細分化粒状データ(粒状抑制成分)、G1(x,y)を計算する。なお、ここで、RG (x,y) は正規乱数を表わす。
G1(x,y)= RG (x,y) × G0(x,y) (36)
こうして、細分化粒状成分G1(x,y)を求めることができる。
【0054】
8)次に、最後の粒状抑制およびエッジ強調工程における粒状の抑制・除去工程について説明する。
シャープネス強調した画像IS (x,y) から、次式(37)のように式(36)で得られた細分化粒状成分G1(x,y)を引くことによって、粒状を抑制する。
10(x,y) =Is (x,y) −αG1(x,y) (37)
ただし、αは粒状抑制の程度を調節する係数である。この処理により、シャープネス強調によって悪化した粒状を抑制することができる。ここでの粒状抑制は粒状モトルのような粗いパターンが除去され、細分化されたパターンのみが残り、視覚的には微細化、あるいは微粒子化されたような粒状となる。
【0055】
9)最後に、エッジ強調工程について説明する。
エッジ・粒状混在成分の抽出工程において得られた式(18)で示した粒状成分とエッジ成分の混在成分ΔIEG(x,y) にエッジ領域の重み付けWE (x,y)を乗じて、エッジ強調成分E1(x,y)を計算する。
1(x,y)=WE (x,y) ×ΔIEG(x,y) (38)
こうして得られたエッジ強調成分E1(x,y)を上記式(37)で得られた粒状抑制画像I10(x,y)に加えることにより、最終的な処理画像I1(x,y)を求める。ただし、βはエッジ強調成分を付加する程度を調節する係数である。
1(x,y)= I10(x,y)+βE1(x,y) (39)
シャープネス強調は式(9)で行う処理でほぼ目的を達しているが、このエッジ強調を行う意味は、粒状抑制処理によって粒状と共に若干抑制されるエッジ成分を修復するために行うものであり、通常は僅かな量で良い。
【0056】
こうして、原画像I0(x,y)から粒状などのノイズが抑制されかつ十分にシャープネスが強調された最終処理画像I1(x,y)を得ることができる。なお、エッジ強調工程で求めたエッジ強調成分E1(x,y)を先の工程で求めておき、粒状抑制とエッジ強調とを同時に行ってもよい。この場合には、式(37)および(39)から、下記式(40)として表わすことができる。
1(x,y)=IS (x,y) −αG1(x,y)+βE1(x,y) (40)
本発明の画像処理方法は基本的に以上のように構成される。
【0057】
【実施例】
本発明のディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法を実施例に基づいて具体的に説明する。
35mmカラーネガフィルム FUJICOLOR SUPER G ACE 400 (富士写真フィルム社製)に撮影された写真画像をスキャナ SCANNER & IMAGE PROCESSOR SP-1000(画素数:2760×1840、富士写真フイルム社製)で読み取って、R,G,B各色8bitでディジタル化した画像を原画像として、図1に示すフローに従って本発明の画像処理方法を行った。
【0058】
ここで、シャープネス強調処理は、式(9)で示されるガウシアン型アンシャープマスキングを行ない、アンシャープマスクとしては、下記式のような3×3のマスクを用いた。
−0.50 −0.82 −0.50
−0.82 6.27 −0.82
−0.50 −0.82 −0.50
【0059】
平滑化処理は、正規分布型の関数を掛けて平均値を求める方法を用い、処理マスクとしては上記式(17)で表わされる9×9画素のマスクをマスク全体の和が1.0になるようにして用い、ローパスフィルタ処理と同様の効果を得た。
エッジ検出は図2に示す3×3画素の配列を用い、上記式(20)による局所分散方式で行い、エッジ領域の重み付け係数WE (x,y) は上記式(22)を用いて非線形変換を行った。WE を計算する際のエッジ局所分散の閾値σT の値は30とした。
【0060】
粒状とエッジの識別・分離処理では、図4に示す非線形変換LUTを用い、粒状の識別閾値GT の値は50(8bitの0〜255の階調ステップ単位で、濃度値の約100倍)とした。粒状モトル細分化処理では、ガウシアン乱数を用いた。また、最終処理画像を得るための上記式(40)のパラメータαおよびβの値は、それぞれα=0.7およびβ=0.3とした。
【0061】
このように本発明の画像処理方法が適用された画像の3次元濃度プロファイルを原画像I0 から最終処理画像I1 までにわたって1つのシーンについて図5(a)〜図9(b)に示す。図5(a)は原画像I0 、図5(b)は被写体エッジE0 の検出画像、図6(a)はシャープネス強調画像IS 、図6(b)は平滑化画像IAV、図7(a)は粒状・エッジ混在成分ΔIEG、図7(b)は粒状領域の重み付けデータWG 、図8(a)は粒状・エッジ混在成分から分離された粒状成分G0 、図8(b)は細分化粒状成分G1 、図9(a)はエッジ領域の重み付けデータWE 、図9(b)は最終処理画像I1 の3次元濃度プロファイルを示す。
【0062】
これらの図から明らかなように、図9(b)に示す最終処理画像I1 は、図5(a)に示す原画像I0 に比べ、エッジ部が図6(a)に示すシャープネス強調画像IS とほぼ同程度にシャープに強調されているにもかかわらず、粒状はシャープネス強調画像IS に比べ格段に原画像I0 とほぼ同程度まで抑制されていることがわかる。すなわち、本発明の画像処理方法が、粒状のみを抑制し、エッジ部のみをシャープネス強調した高品質な画像であることがわかる。
【0063】
また、本発明の画像処理方法を主な銀塩カラー写真感光材料、すなわち、カラーフィルムおよび黒白フィルムに撮影した写真画像(35mm、新写真システムAPS(アドバンスフォトシステム)、LFパノラマ、インスタント)等に適用したところ、粒状とシャープネス共に一見して判る程の顕著な改善効果を得ることができた。
特に粒状については感材の微粒子化による粒状改良に匹敵する処理効果を持つため、従来の平均化や揺らぎの減少に基づく各種の粒状除去処理法の欠点であった「ぼけ粒状」的な不自然さや違和感はなかった。また、シャープネスについては、上記の粒状抑制と組み合わせることにより、従来のアンシャープマスクやラプラシアンフィルタよりかなり大幅な強調効果が得られた。
【0064】
本発明に係るディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法について実施例を挙げて詳細に説明したが、本発明はこれに限定されず、本発明の要旨を逸脱しない範囲において、種々の改良および設計の変更を行ってよいことはもちろんである。
【0065】
【発明の効果】
以上詳述したように、本発明によれば、原画像からシャープネス強調して得られたシャープネス強調画像のシャープネス強調された粒状成分を識別し、その粒状成分にさらにランダムな変調もしくは微細規則パターンによる変調を掛けた微細化粒状成分をシャープネス強調画像から差し引く方法で粒状を抑制しているので、元の粒状より空間的に細かく且つ濃淡変化の小さい、視覚的にも自然な粒状抑制を実現することができる。また、本発明によれば、粒状はシャープネス強調され、且つ空間的に微細化されるので、銀塩写真感材では微粒子乳剤を用いた時に得られるような細かい粒状となり、平滑化を用いた従来法の欠点であるぼけ粒状のような視覚的な違和感や不快感の無い自然な粒状抑制効果が得られる。
また、本発明法を銀塩カラー写真感光材料へ適用することにより、従来の粒状抑制シャープネス強調処理法の欠点であった、いわゆる「ぼけ粒状」的な不自然さや違和感がなく、粒状抑制とシャープネス強調とが同時に改善され、極めて顕著な改善効果を得ることができ、産業上大きな効果を奏する。
【図面の簡単な説明】
【図1】 本発明に係るディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法の一実施例を示すフローチャートである。
【図2】 本発明の画像処理方法の局所分散方式によるエッジ検出における正方画素配列の移動の一例を説明する説明図である。
【図3】 本発明の画像処理方法の粒状とエッジの識別・分離を説明するのに用いられる粒状とエッジの濃度差成分の頻度分布の特徴の一例を示す説明図である。
【図4】 本発明の画像処理方法において粒状成分の分離に用いられるルックアップテーブル(LUT)関数の一例を示す説明図である。
【図5】 (a)および(b)は、それぞれ本発明の実施例で得られたあるシーンの原画像およびエッジ検出画像の3次元濃度プロファイルの一例を示す図である。
【図6】 (a)および(b)は、それぞれ本発明の実施例で得られたあるシーンのシャープネス強調画像および平滑化画像の3次元濃度プロファイルの一例を示す図である。
【図7】 (a)および(b)は、それぞれ本発明の実施例で得られたあるシーンの粒状・エッジ混在成分および粒状領域の重み付けデータの3次元濃度プロファイルの一例を示す図である。
【図8】 (a)および(b)は、それぞれ本発明の実施例で得られたあるシーンの粒状成分および細分化粒状成分の3次元濃度プロファイルの一例を示す図である。
【図9】 (a)および(b)は、それぞれ本発明の実施例で得られたシーンのエッジ領域の重み付けデータおよび最終処理画像の3次元濃度プロファイルの一例を示す図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing method for suppressing noise and sharpness enhancement of a digital image that suppresses noise (noise) such as graininess of the digital image and enhances the sharpness of the digital image.
[0002]
[Prior art]
Digital images, such as photos recorded by an image input scanner and output by an image output printer, have significant sharpness degradation due to the scanner and printer. To recover from this, a Laplacian filter or unsharp mask ( USM) sharpness enhancement is performed. However, since the sharpness of the image is improved and there is a side effect that noise such as granularity is deteriorated, in a granular image, only moderate sharpness enhancement can be performed within a range where granular deterioration is allowed, which is higher than that of the original image. It was difficult to improve the image quality.
[0003]
Several digital image processing methods have been proposed for removing noise graininess and enhancing sharpness in digital images. However, since a method of averaging or blurring is used as a method for removing graininess, a blurred grain pattern is used. However, it is not suitable for an aesthetic image such as a photograph.
[0004]
In images from photographs, prints, televisions, various copying machines, etc., sharpness deterioration due to optical systems such as cameras, graininess and sharpness deterioration inherent to photographic photosensitive materials, or original images such as photographs and prints can be input with an image input device. Various methods have been devised as image processing methods for suppressing noise or enhancing sharpness in order to recover noise (noise) and sharpness degradation added when digitizing. For example, in the conventional image processing method, smoothing and coring methods are used as the granular removal processing method, and unsharp mask (USM), Laplacian, or high-pass filter processing is used as the sharpness enhancement processing method. It is used. However, in these conventional grain removal processing methods, it is not desirable that suppressing the grain causes unnatural discomfort artifacts or suppresses the fine structure of the image that should not be suppressed together with the grain. Had drawbacks.
[0005]
  For example, Japanese Patent Publication Nos. 57-500311 and 57-500334 and “Digital Sharpening Method of Unsharp and Grainy Photo Images”, International Conference on Electronic Image Processing, July 1982, pp. 179-183 (PG Powell and BEBayer, “A Method for the Digital Enhancement of Unsharp, Grainy Photographic Images”,Proceedings The processing method of Powell and Buyer et al. disclosed in the International Conference on Electronic Image Processing, Jul. 26-28, 1982, pp. 179-183) uses a smoothing method (low-pass filter) as a granular suppression method. As a sharpness enhancement method, a processing method using an unsharp mask (high-pass filter) is used. The smoothing process is a process for suppressing grain by smoothing a signal by multiplying a signal value of n × n pixels by a weight such as a Gaussian type. In the sharpness enhancement process, first, a differential value in the direction from the center pixel to the surrounding pixels is obtained using an image signal of m × m pixels. The sharpness enhancement is performed by taking the sum of the differential values larger than the remaining threshold value after removal by processing, multiplying by a constant of 1.0 or more, and adding to the smoothed signal.
[0006]
In this processing method, since the granular pattern is blurred, the contrast of the granular pattern is lowered, but a large uneven pattern made up of particles (mottle) of particles constituting the granularity becomes visually noticeable. , Has the disadvantage of appearing as an unpleasant grain. In addition, since the granularity and the image are identified with the set threshold (coring processing), the low-contrast image signal is erroneously recognized as granular and is suppressed or removed together with the granularity. Discontinuity occurs at the boundary of the image, and unnatural artifacts are seen in the image. In particular, this defect appears in a fine image such as a lawn and a carpet, and an image in which a texture such as a fabric is depicted, and this is a visually unnatural and undesirable artifact.
[0007]
[Problems to be solved by the invention]
By the way, in the conventional grain suppression / sharpness enhancement image processing method described above, sharpness is enhanced with an unsharp mask, grain is blurred or smoothed, and a method of suppressing graininess (noise) signal and contour signal from the original image is used. Are processed at the signal level, the contour signal is sharpened and the smooth area is suppressed by granularity, so that small signals are processed as granular. There is a problem in that image signals such as texture and hair are suppressed together with graininess, resulting in a visually unpleasant image as an image processing artifact. That is, in such a conventional method, blurring or averaging is used as a granularity suppression method, and the blurred granular pattern appears as if the density fluctuation has become smaller and the graininess has improved, but conversely the density fluctuation. Although the amount is small, the blurred and widened granular pattern is visually recognized as an unpleasant pattern, and in particular, there is a problem that it stands out on the face and skin of portrait pictures and uniform subjects such as walls and sky .
[0008]
  In the conventional method of separating the granular (noise) region and the contour region from the original image at the signal level, the contour region and the flat region are identified from the difference signal between the original image and the blurred image, and an unsharp mask or By processing using different coefficients such as Laplacian, grain is suppressed in the flat area, while sharpness is emphasized in the outline area to suppress grain without blurring the edge. There is a problem that discontinuity occurs at the boundary because separation is performed uniformly at a signal level that becomes a threshold value.
  Furthermore, in such a conventional method, as an edge enhancement or sharpness enhancement method, an unsharp mask orLaplacianIs used, but the Mackey line is applied to the contour and edge of the image.The border likeThere is a problem that it tends to occur and gives a visually unnatural impression.
[0009]
The present invention has been made in view of the current state of the prior art described above. In an image of a photograph, printing, television, electronic still photograph, various copying machines, etc., a camera blur, a photographic photosensitive material grain or blur, etc. When performing processing for recovering noise and sharpness degradation inherent in the original image, or noise and sharpness degradation added when the original image is digitized by the image input device, Problems, that is, when grain suppression by smoothing is performed, graininess is blurred and large unevenness looks visually unpleasant, image signals with low contrast are mistakenly recognized as grain, and are suppressed or removed The boundary between the removal area and the sharpness enhancement area becomes discontinuous and the image is not unnatural. And an object thereof is to provide an image processing method for noise suppression and sharpness enhancement of a digital image for performing processing for emphasizing Punesu.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the present invention performs sharpness enhancement processing on original image data to create sharpness enhancement image data,
Smoothing the original image data to create smoothed image data;
Subtracting this smoothed image data from the sharpness-enhanced image data to extract a mixed component of edges and noise, and performing edge detection from the original image data to obtain weighted data of edge regions and noise regions,
After performing weighting using the weighting data of this noise region to the mixed component of the edge and noise, the noise component is separated by performing nonlinear transformation,
The obtained noise component is subdivided to obtain a subdivided noise component,
The edge enhancement component is obtained by performing weighting using the weighting data of the edge region to the mixed component of the edge and noise,
In order to suppress noise and enhance sharpness in a digital image, the processed image data is obtained by scaling and removing the subdivided noise component from the sharpness weighted image data and scaling and adding the edge weighted component. An image processing method is provided.
[0011]
Here, the sharpness enhancement processing is preferably Gaussian unsharp mask processing, and the smoothing processing is preferably Gaussian blur mask processing. The non-linear conversion for separating the noise component is preferably performed by a function that continuously decreases as a Gaussian function as the density fluctuation becomes larger than a threshold value of noise density fluctuation. Further, it is preferable that the subdividing process is a noise motor subdividing process.
[0012]
Further, it is preferable that the subdividing process is a process of multiplying the noise component by a random number. Moreover, it is preferable that the edge detection for obtaining the weighted data is based on a local dispersion method.
[0013]
[Action]
An image processing method for noise suppression and sharpness enhancement of a digital image according to the present invention performs sharpness enhancement processing on an original image before processing, sharpens the image, and includes granular / noise (noise) contained in the image. ) Are both sharpened, the edge and flat part of the image are divided into areas, the flat part is regarded as a granular area, a granular signal is detected, and the granularity is subdivided and selectively removed. is there. In this way, according to the present invention, it is possible to obtain a sharpness-enhanced image at the edge portion and a high-quality image in which the granularity is suppressed in the granular region.
Further, in the granularity suppression method of the present invention, a granular component with sharpness enhancement is identified, and the granularity is suppressed by a method of subtracting a finer granular component obtained by further applying random modulation to the granular component from the sharpness enhancement image. Thus, it is possible to realize a grain that is spatially finer than the original grain and has a small change in shading. Since the grain is sharply emphasized and spatially refined, the grain can be made as fine as obtained when a fine grain emulsion is used in a silver salt photographic material.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
An image processing method for noise suppression and sharpness enhancement of a digital image according to the present invention will be described in detail based on a preferred embodiment shown in the accompanying drawings.
[0015]
FIG. 1 is a flowchart showing an example of a processing algorithm of the image processing method of the present invention. In the following description, granularity will be described as a representative example of noise of a digital image.
In the present invention, as shown in FIG.0To sharpness-enhanced image ISAnd smoothed image IAVTo extract a mixed component of edge and grain (noise), that is, fine image data ΔI of edge / grain mixedEGCreate On the other hand, the subject edge E in the original image directly from the original image0And weighting data W of the edge area and the granular areaEAnd WGAsk for.
[0016]
Thereafter, these weighting data WEAnd WGIs used to obtain the fine image data ΔI of the edge / grain mixture previously obtained.EGTo separate edges and grain by non-linear transformation (NLG). That is, the edge / grain mixed component ΔIEGGranular area weighting data WGAnd weighting by multiplying by the granular component G including the edge information of the granular region0This granular component G0Is refined into fine particles by a mottle subdivision process, and the subdivided granular component, that is, the granular suppression component G1Create On the other hand, the edge component is an edge / grain mixed component ΔI.EGEdge region weighting data WEAnd weighting the edge enhancement component E of the edge region1Create
Finally, the sharpness-enhanced image I obtained firstSGranular suppression component G prepared in this way1Is subtracted by a constant multiple, for example, α, and the edge enhancement component E is removed.1Is added by multiplying by a constant multiple, for example, β times, to thereby add sharpness to the edge region of the image and process image I in which the flat region is grain-suppressed.1Is created.
[0017]
The feature of the method of the present invention is that the granularity suppression process and the sharpness enhancement process are distributed to the fuzzy by suppressing the granularity by the micronization method and identifying the image edge (contour) and the granular area by non-linear transformation. It is. That is, the boundary between the granular area and the edge area is not on / off, and both areas overlap and the ratio gradually changes, so the boundary does not stand out unnaturally, It will be very natural. In the method of the present invention, the parameter for determining the degree of granular suppression can be automatically set based on the root mean square (RMS) of the granularity / edge component density fluctuation ΔD.
Further, the algorithm of the present invention that suppresses granularity / noise and enhances the sharpness can be processed on digitized image data using a computer or a dedicated processing device.
[0018]
Next, each step of the image processing method of the present invention will be briefly described with reference to FIG.
1) Sharpness enhancement process
Using Gaussian unsharp mask (Gaussian USM), the original image I0In addition to the recovery of blur in the image input / output system, the sharpness enhancement image ISCreate
2) Smoothing process and edge / grain mixed component extraction process,
For example, the original image I using averaging or a blur mask0Smoothed image IAVCreate sharpness-enhanced image ISFrom the following formula (1), fine image data ΔI mixed with edge and grainEGCreate
ΔIEG  = IS  -IAV                  (1)
[0019]
3) a step of calculating a weighting coefficient between the edge region and the granular region;
Original image I0Directly from the original image I, for example by local dispersion0Inside subject edge E0And this edge E0Is used to weight the edge area and the granular area (data) WEAnd WGAsk for. Where WE+ WG= 1.0, so the granular area weighting data WGThe edge area weighting data is 1.0-W.GMay be used or vice versa.
4) Edge / grain identification / separation process,
Granular area weighting data WGAnd edge area weighting data WEAnd the edge / grain mixed fine image data ΔIEGTo separate edges and grain by a non-linear transformation function (NLG). Granular component G0And edge component E1Can be obtained by the following equations (2) and (3), but the edge component E1Is the edge enhancement component E1As required.
G0= NLG (ΔIEG× WG(2)
E1= ΔIEG× WE                          (3)
[0020]
5) Granular mottle subdivision process,
Granular component G0Is a Gaussian random number R expressed by the following equation (4):GThe fine particles are refined by the mottle subdivision process using1Is created.
G1= Φ (G0,RG(4)
6) Grain suppression and edge enhancement (sharpness enhancement) step (final processing image calculation step),
Sharpness-weighted image I obtained earlierSAnd the granular suppression component G obtained here1And edge enhancement component E1To the original image I0Processed image I with sharpness emphasis on the edge area of the image, and granular area and other flat areas with graininess suppressed.1Can be obtained. Here, α and β are parameters for adjusting the strength of processing.
I1= IS-ΑG1+ ΒE1                    (5)
[0021]
By the way, in the above-described example, 4) the granular component G in the edge and granular identification / separation step0And edge enhancement component E1However, the present invention is not limited to this, and in this identification / separation step, the particulate component G0Edge enhancement component E1May be created in the final 6) edge enhancement step.
In the above-described example, the granular suppression component G is used in the final granular suppression and edge enhancement process.1And edge enhancement component E1And the sharpness-enhanced image ISHowever, the present invention is not limited to this, and subtraction and addition may be performed separately.
[0022]
The target image in the image processing method of the present invention is not particularly limited, but includes not only hard copy images such as photographs, prints, electronic still photographs, and various copying machines, but also televisions, computer CRTs, liquid crystals, and the like. It may be a soft copy image displayed on the display device.
In the above description, the granularity is described as a representative example of noise to be suppressed in these images. However, the present invention is not limited to this, and is caused by blurring by a camera, granularity or blurring of a photographic photosensitive material, and the like. Noise inherent to the original image to be read, or noise added when these original images are read by an image input device such as a scanner and converted into a digital image, or a digital image shot with a video camera, electronic still camera or digital camera Any noise may be used as long as it is a noise to be suppressed, such as noise mixed when the image is converted.
[0023]
Next, each step of the image processing method of the present invention will be described in detail.
1) First, the sharpness enhancement step will be described.
Here, as a method for enhancing the sharpness of an image, an unsharp mask (Unsharp mask, USM) or a Laplacian is well known. Also in the present invention, by using these, the sharpness of the image can be enhanced if the sharpness degradation of the image is slight.
The unsharp mask is the original image I0From (x, y), I0(x, y) averaged or blurred image <I0Edge enhancement component I obtained by subtracting (x, y)>0(x, y)-<I0(x, y)> multiplied by coefficient a0By adding to (x, y), the sharpness enhanced image ISThis is a method for obtaining (x, y).
IS(x, y) = I0(x, y) + a [I0(x, y)-<I0(x, y)>] (6)
Here, a is a constant for adjusting the degree of sharpness enhancement, and x and y indicate the position of the target pixel in the image.
Laplacian is the image I0Second derivative of (x, y) (Laplacian) ▽2I0A method of enhancing sharpness by subtracting (x, y) from the original image, and is expressed by the following equation.
IS(x, y) = I0(x, y) − ▽2I0(x, y) (7)
As a specific example of sharpness enhancement by Laplacian, the following 3 × 3 coefficient array is often used.
Figure 0003804880
[0024]
In this coefficient arrangement, an unnatural contour is likely to occur at the edge of the image when particularly strong sharpness enhancement is applied. Therefore, in order to reduce such a drawback, in the present invention, it is preferable to use an unsharp mask using a normal distribution type (Gaussian) blur function as shown in Equation (9).
G (x, y) = (1 / 2πσ2) exp [− (x2+ y2) / 2σ2] (9)
Where σ2Is a parameter representing the spread of the normal distribution function, and the edge x = x of the mask1The ratio of the value at x to the value at the mask center x = 0,
G (x1, 0) / G (0,0) = exp [−x1 2/ 2σ2] (10)
Is adjusted to 0.1 to 1.0, the desired sharpness of the 3 × 3 unsharp mask can be obtained. When the value of Expression (10) is set to a value close to 1.0, a mask almost the same as the Laplacian filter at the center of Expression (8) can be made.
In order to change the sharpness of the mask, there is another method of changing the size of the mask. For example, by using a mask of 5 × 5, 7 × 7, 9 × 9, etc., a spatial frequency region for sharpness enhancement. Can be changed drastically.
[0025]
Further, as the function form of the mask, other than the above normal distribution type, for example, an exponential function type mask as shown in the following formula (11) can be used.
E (x, y) = exp [− (x2 + y2)1/2/ A] (11)
Where a is σ in equation (9)2Is a parameter that represents the spread of the unsharp mask, as well as the ratio of the mask edge value to the mask center value,
E (x1, 0) / E (0,0) = exp [−x1/ A] (12)
Is adjusted to 0.1 to 1.0, the desired sharpness of the 3 × 3 unsharp mask can be obtained. In Equation (13), E (x1, 0) / E (0,0) = 0.3 shows an example of the numerical value of the mask of the exponential function of equation (11).
0.18 0.30 0.18
0.30 1.00 0.30 (13)
0.18 0.30 0.18
When an example of an unsharp mask is calculated from this mask, the following equation (14) is obtained.
−0.12 −0.22 −0.12
−0.21 2.32 −0.21 (14)
−0.12 −0.21 −0.12
[0026]
Using such an unsharp mask, the original image I0Sharpness-enhanced image I from (x, y)S(x, y) can be obtained. The unsharp mask and sharpness enhancement method used in the present invention are not limited to those described above, and other conventionally known unsharp masks and sharpness enhancement methods such as spatial frequency filtering can be applied. Of course.
[0027]
2) Next, the smoothing process will be described.
Examples of the smoothing method include real space domain processing and spatial frequency domain processing. In real space region processing, the sum of all adjacent pixels is calculated and the average value is calculated and replaced with that value. The average value is calculated by multiplying each pixel by a weighting coefficient, for example, a normal distribution type function. There are various methods such as a method of performing such non-linear processing. On the other hand, in processing in the spatial frequency domain, there is a method of applying a low-pass filter. For example, in the averaging method using the weighting coefficient, the following equation (15) can be given.
[0028]
[Expression 1]
Figure 0003804880
[0029]
Here, n is an averaging mask size, and w is a weighting factor. When w = 1.0, a simple average is obtained.
In the present invention, a method of obtaining an average value by multiplying a normal distribution type weighting coefficient in real space region processing is used, but the present invention is not limited to this. At this time, it is preferable to use a mask of n × n pixels as described below as a processing mask. Specifically, it is preferable to use those of about 3 × 3 to 5 × 5, 7 × 7, 9 × 9.
Figure 0003804880
[0030]
Expression (17) shows an example of a 9 × 9 pixel mask. In this equation (17), the center value is shown as a value normalized to 1.0, but in the actual processing, the sum of the entire mask is set to 1.0.
0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09
0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15
0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22
0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28
0.30 0.51 0.74 0.93 1.00 0.93 0.74 0.51 0.30 (17)
0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28
0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22
0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15
0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09
[0031]
Using such a mask, the original image I0Smoothed image I from (x, y)AV(X, y) can be obtained. It should be noted that the smoothing method used in the present invention is not limited to the various methods described above, and it goes without saying that any of the conventionally known smoothing methods can be applied.
[0032]
3) Next, the extraction process of the mixed component of grain and edge will be described.
Sharpness-enhanced image I thus obtainedS(x, y) and smooth image IAVFrom (x, y), the difference between the two is calculated and the mixed component ΔI between the grain and the edgeEGExtract as (x, y).
ΔIEG(x, y) = IS(x, y) −IAV(x, y) (18)
[0033]
4) The process of calculating the edge detection and the weighting coefficient of the edge area and the granular area will be described. Here, edge detection by the local dispersion method is described as a representative example as an example, but the present invention is not limited to this.
[0034]
(1) Pretreatment: density conversion,
When performing edge detection, first, as shown in Equation (19), the original image I0Density value D of three colors of R, G, B of (x, y)R, DG, DBIs multiplied by weighting factors r, g, and b to create a visual density DVConvert to
DV= (RDR+ GDG+ BDB) / (R + g + b) (19)
For example, a value such as r: g: b = 4: 5: 1 is used as the weighting coefficient. This conversion is performed in order to reduce grain and noise having no correlation in R, G, and B, and improve the accuracy of edge detection. The size of the pre-processing array is preferably about 5 × 5 or 7 × 7 pixels. However, in the next process (2), the variation in image density in the array This is because the calculation is performed while moving using a small array, for example, an array of about 3 × 3 as shown in FIG.
[0035]
Note that the weighting factors r, g, and b in edge detection can be obtained as follows.
The weighting factor is conspicuous when visually observed (although this may correspond to the spectral visibility distribution), that is, based on the idea that the weighting factor of image data with a large contribution is large. It is preferable to set an optimal value. In general, empirical weighting factors are obtained based on visual evaluation experiments and the like, and the following values are known as general knowledge (as well-known literature, Takashi Noguchi, “Good psychological response” Grain evaluation method), Journal of the Japan Photography Society, 57 (6), 415 (1994), which differs depending on the color, but shows a numerical value close to the following ratio).
r: g: b = 3: 6: 1
r: g: b = 4: 5: 1
r: g: b = 2: 7: 1
Here, if a preferable range of values is specified as the ratio r: g: b of the coefficient, when r + g + b = 10.0 and b is 1.0,
g = 5.0 to 7.0
A value in the range of is preferred. However, r = 10.0−b−g.
[0036]
(2) Edge detection by local dispersion,
As shown in FIG. 2, the edge is detected by the visual density D.VN from the image data ofE× nEDetection of the subject edge in the image by moving the pixel array and calculating the local standard deviation σ for each position as local variance sequentially using the equation (20) for the image density variation in the array. I do. Pixel array size (nE× nE) May be appropriately determined in consideration of detection accuracy and calculation load, but it is preferable to use a size of about 3 × 3 or 5 × 5, for example.
[0037]
[Expression 2]
Figure 0003804880
However, DijN computes the local varianceE× nE<D> is the average density of the array,
[Equation 3]
Figure 0003804880
It is.
[0038]
(3) Calculation of weighting coefficients for edge area and granular area,
From the local variance σ (x, y) shown in the above equations (20) and (21), the weight W of the edge regionE(x, y) and granular area weight WGIn order to obtain (x, y), the following equations (22) and (23) using an exponential function were used.
WE(x, y) = 1−exp [−σ (x, y) / aE] (22)
WG(x, y) = 1-WE(x, y) (23)
However, aEIs the weighting W of the local variance σ (x, y)ECoefficient for conversion to (x, y), WE= Σ (x, y) threshold σ assigned to 0.5TThen,
aE= −σT/ Loge(0.5)
It is. σTThe value needs to be an appropriate value depending on the size of the granularity and the signal of the subject outline, but a value in the range of 10 to 100 is preferable for a color image of 8 bits (256 gradations). If this conversion is created as a LUT (Look up table), the calculation time required for the conversion can be shortened.
[0039]
Edge area weighting WEThe conversion equation for obtaining (x, y) is not limited to the above equation, and other equations can also be used. For example, the following Gaussian function may be used.
WE(x, y) = 1−exp {− [σ (x, y)]2/ AE1 2}
However, aE1Is W from σ (x, y)ECoefficient for conversion to (x, y), WE= Σ (x, y) threshold assigned to 0.5TThen,
aE1 2= −σT 2/ Loge(0.5)
It is. σTThe value is preferably in the range of 10 to 100 for each color image of 8 bits (256 gradations).
[0040]
By the way, in the present invention, the edge detection method is not limited to the above-described local dispersion type edge detection method, and other edge detection methods can also be used. As edge detection methods other than the local dispersion method, there are methods based on primary differentiation and secondary differentiation, and there are several methods for each.
First, there are the following two operators as a method based on the spatial first derivative.
Examples of differential edge extraction operators include Prewitt operator, Sobel operator, and Roberts operator. The Roberts operator can be expressed as:
g (i, j) = {[f (i, j)-f (i + l, j + l)]2+ [F (i + l, j)-f (i, j + l)]2}1/2
As template type operators, there are Robinson operators and Kirsh operators that use 3 × 3 templates corresponding to edge patterns in 8 directions.
Next, as a method based on a spatial second derivative, there is a method using Laplacian. In this case, since noise is emphasized, a method of first performing a normal distribution type blurring process and then detecting an edge is often used.
[0041]
5) Next, the weighting of the grain and the edge in the edge and grain identification / separation process will be described..
  Here, the granular and edge features are used to identify and separate the granular and edge components. First, in the spatial region, the graininess is present in the entire film, that is, the entire image, but is conspicuous in a portion flatter than the contour or edge portion of the subject. On the other hand, the edge is mainly in the contour portion of the subject and the fine portion of the subject surface in the image. Further, in the density region, as shown in FIG. 3, since the grain is mainly composed of the grain of the photographic photosensitive material used for photographing, the density difference is often small as shown by the dotted line in the figure. The edge depends on the contrast of the subject and varies greatly depending on the image. However, as shown by the solid line in the figure, the density difference varies from a very small one to a very large one.
[0042]
6) Next, the grain / edge identification / separation process will be described.
In order to identify and separate the grain and the edge, first, using the spatial characteristics of both, the grain and edge are divided into regions. The weight W of the granular area obtained by using the edge of the subject detected from the original imageG(x, y) is the mixed density value ΔI of grain and edgeEGBy multiplying by (x, y), the edge information is reduced, and the signal ΔI with a high ratio of granular informationGcan be (x, y).
ΔIG(x, y) = WG(x, y) × ΔIEG(x, y) (24)
[0043]
Next, the image information of the grain and the edge is separated using the feature in the density region. As shown in FIG. 3, signals with small density differences are mainly granular components, and edge signals are also mixed somewhat, signals with large density differences are mainly edge components, and granular components with larger density differences are mixed. Therefore, the granularity and the edge can be separated using the magnitude of the density difference. Separation of the granular component G (x, y) is performed using a non-linear transformation LUT expressed by the following equation (25). An example of the non-linear transformation LUT used for separating the granular components is shown in FIG.
G (x, y) = LUT (ΔD (x, y)) (25)
However, the LUT is
LUT (ΔD) = ΔD × exp [− (ΔD)2/ AG 2] (26)
And aG 2Is the threshold G of the granular density fluctuationTIs a constant determined from
aG 2= -GT 2/ loge(1/2) (27)
It is.
[0044]
Here, the threshold G of granular density fluctuationTIs the mixed density variation ΔI between the grain and the edgeEGIn (x, y), the density fluctuation below this value is considered to be granular, but as is easily understood from Equation (26) and FIG. In this case, the granularity to be separated decreases according to the LUT shape that gradually decreases as the density fluctuation increases. Therefore, the edges are mixed together with the grain, but the ratio gradually decreases.
Such a non-linear conversion LUT is expressed as a non-linear conversion function NLG, and an edge / grain mixed component is represented by ΔI.EGExpressed by (x, y), the granular component G0(x, y) is obtained from the above equations (24) and (25).
G0(x, y) = NLG {ΔIEG(x, y) × WG(x, y)} (28)
Can be expressed as Thus, the granular component G0(x, y) can be obtained.
The calculation of the edge component performed in this step will be described later.
[0045]
By the way, granular discrimination threshold GTIt is preferable to select an optimal value depending on the granularity of the image to be processed, the size of noise, and the degree of sharpness enhancement processing. Grain identification is performed on an image that has been subjected to sharpness enhancement processing. Therefore, the granularity is that in which the granularity of the original image has been sharpened by sharpness enhancement processing and the density fluctuation has increased. Therefore, when performing the granularity suppression processing, the density variation of the surrounding n × n pixels is referred to, and the size of the granularity after the sharpness enhancement processing is expressed by a physical value such as RMS granularity σ, and the granularity is Identification threshold GTWill be decided. The determination method will be described below.
[0046]
The granularity of a color photographic light-sensitive material is usually measured with an RMS granularity using a micro-densitometer and a measurement aperture of 48 μφ, and a general or typical color negative film such as Super G ACE 100, 200 is used. , 400, 800 (both manufactured by Fuji Photo Film Co., Ltd.), etc., values between 4 and 5 (RMS granularity σ48Is displayed with a value multiplied by 1000). When this film is digitized by scanning with an opening area A, the granularity σ of the film at the opening areascIs the RMS granularity σ measured at the 48 μφ aperture using the well-known Selwyn granularity equation S = σ√A.48Can be converted by the following equation (29).
σsc= Σ48√A48/ √Asc                            (29)
Where A48Is the area of the opening of 48 μφ. For example, the granularity of the film is 4, and the digitized scanning aperture is 12 μφ (the aperture area is A12)
σsc= Σ48√A48/ √A12= 0.016 (30)
It becomes. In either case, the blur caused by the optical system and the scanning aperture is the same.
[0047]
Granularity σ when sharpness enhancement is performedscSuppose that is p times larger
σsc′ = Pσsc                                      (31)
It becomes.
Granular discrimination threshold GTIs a value proportional to the granularity of the image to be processed, ie GT= KGσsc'Is preferred. Where kGIs a constant, and a value of 1.0 to 3.0 is preferred. GTThe larger the value of σ is, the more the granularity can be identified. On the other hand, the probability that the low-contrast subject information close to the granular density fluctuation is misidentified as a granularity increases. On the other hand, if it is smaller than σ, subject information is less likely to be misidentified, but particles having a large density fluctuation cannot be captured in the particles, and coarse particles remain in the image.
[0048]
7) Next, the subdivision process of the granular mottle will be described.
The granular pattern is composed of fine density fluctuations in the image. The density fluctuations can be considered by dividing them into the amplitude fluctuation of the density value and the magnitude of the spatial fluctuation. The purpose of image processing for grain suppression is to make this grain visually inconspicuous. To that end, if both the density amplitude and the spatial size are reduced, the graininess can be suppressed. However, if the amplitude and size are reduced to a certain extent, the visual improvement effect cannot be recognized. However, in a digital image, the pixel size is the smallest unit spatially, and the density resolution (for example, 1-bit density difference for 8-bit image data) is the smallest unit for density amplitude. No less than this.
[0049]
The granular mottles are spatially large to small, and in small mottles, the signal and density fluctuate finely in units of pixels, but in large mottles, the signal and density fluctuate across several neighboring pixels. A signal that varies in units of pixels cannot be made finer, but a large granular motor that spans a plurality of pixels can be made visually inconspicuous by making it small.
The process to make the granular mottle smaller is first the granular G0(x, y) is detected and its granular G0Multiplying a subdivision mask R (x, y) consisting of fine patterns such as random numbers and lattices to subdivide into (x, y)
G1(x, y) = R (x, y) x G0(x, y) (32)
Ask for. Next, I want to suppress grain ISBy subtracting from (x, y) as shown in the following formula (33), graininess can be suppressed.
ITen(x, y) = Is(x, y) -αG1(x, y) (33)
[0050]
The process of the above granular suppression process can be divided into two stages, a granular subdivision mask generation process and a granular subdivision process, as follows.
(1) Granule segmentation mask generation process,
As a mask, in addition to a random number pattern, a halftone dot pattern (a normal two-dimensional halftone dot, a one-dimensional line screen, an FM screen, etc.) or a pattern such as error diffusion may be used. A pattern is preferred.
There are uniform random numbers, normal random numbers, Poisson random numbers, binomial random numbers, and the like, but normal random numbers close to the natural fluctuation phenomenon are preferable. Further, 1 / f fluctuation, which is said to best represent the fluctuation in the natural world, is also suitable for this purpose.
[0051]
The random number is generated by generating one random number for each pixel of the image as shown in the following equation.
R (x, y) = Ran (i) (34)
Here, Ran (i) is a random number, i = 1, 2,..., N, and N is the total number of pixels of the image to be processed. The probability density distribution of normal random numbers is as shown in the following formula (35), and the variance is σ when the average value μ is2It becomes. As the characteristics of the granular subdivision mask, the degree of granular subdivision, in particular, the amount of variation in the amplitude of the mask can be controlled by adjusting the average value μ of the random numbers. The value of μ is preferably in the range of about 10 to 1000.
[0052]
[Expression 4]
Figure 0003804880
[0053]
(2) Subdivision of granular density fluctuation pattern
Detected granular data G0Multiply (x, y) by the above random number R (x, y) to obtain subdivided granular data (granular suppression component), G1Calculate (x, y). Here, RG(x, y) represents a normal random number.
G1(x, y) = RG(x, y) × G0(x, y) (36)
Thus, the finely divided granular component G1(x, y) can be obtained.
[0054]
8) Next, the grain suppression / removal process in the final grain suppression and edge enhancement process will be described.
Sharpness-enhanced image ISFrom (x, y), the subdivided granular component G obtained by the equation (36) as the following equation (37):1Grain is suppressed by subtracting (x, y).
ITen(x, y) = Is(x, y) -αG1(x, y) (37)
Here, α is a coefficient for adjusting the degree of granular suppression. By this processing, the graininess deteriorated by sharpness enhancement can be suppressed. In the grain suppression, a coarse pattern such as a granular mottle is removed, and only the subdivided pattern remains, and the grain is visually refined or finely grained.
[0055]
9) Finally, the edge enhancement process will be described.
The mixed component ΔI of the granular component and the edge component represented by the equation (18) obtained in the extraction step of the edge / grain mixed componentEG(x, y) is the edge area weight WEMultiply by (x, y) to obtain edge enhancement component E1Calculate (x, y).
E1(x, y) = WE(x, y) × ΔIEG(x, y) (38)
Edge enhancement component E thus obtained1(x, y) is the granularity suppression image I obtained by the above equation (37).TenBy adding to (x, y), the final processed image I1Find (x, y). Here, β is a coefficient that adjusts the degree to which the edge enhancement component is added.
I1(x, y) = ITen(x, y) + βE1(x, y) (39)
Sharpness enhancement is almost achieved by the processing performed by equation (9). The meaning of performing edge enhancement is to repair edge components that are slightly suppressed together with the granularity by the granularity suppression processing. A small amount is sufficient.
[0056]
Thus, the original image I0Final processed image I in which noise such as graininess is suppressed from (x, y) and sharpness is sufficiently enhanced1(x, y) can be obtained. The edge enhancement component E obtained in the edge enhancement step1(x, y) may be obtained in the previous step, and grain suppression and edge enhancement may be performed simultaneously. In this case, from the equations (37) and (39), it can be expressed as the following equation (40).
I1(x, y) = IS(x, y) -αG1(x, y) + βE1(x, y) (40)
The image processing method of the present invention is basically configured as described above.
[0057]
【Example】
An image processing method for noise suppression and sharpness enhancement of a digital image according to the present invention will be specifically described based on examples.
A photographic image taken on a 35 mm color negative film FUJICOLOR SUPER G ACE 400 (manufactured by Fuji Photo Film Co., Ltd.) is read with a scanner SCANNER & IMAGE PROCESSOR SP-1000 (pixel number: 2760 × 1840, manufactured by Fuji Photo Film Co., Ltd.). The image processing method of the present invention was performed according to the flow shown in FIG. 1 using an image digitized with 8 bits for each color of G and B as an original image.
[0058]
Here, the sharpness enhancement processing performed Gaussian unsharp masking represented by Expression (9), and a 3 × 3 mask represented by the following expression was used as the unsharp mask.
-0.50 -0.82 -0.50
-0.82 6.27 -0.82
-0.50 -0.82 -0.50
[0059]
The smoothing process uses a method of obtaining an average value by multiplying a normal distribution type function. As a process mask, a 9 × 9 pixel mask represented by the above equation (17) is set to 1.0. Thus, the same effect as the low-pass filter processing was obtained.
Edge detection is performed using the 3 × 3 pixel array shown in FIG. 2 by the local dispersion method according to the above equation (20).E(x, y) was nonlinearly transformed using the above equation (22). WEThreshold of edge local variance when calculatingTThe value of was 30.
[0060]
In the granularity / edge identification / separation process, the granularity discrimination threshold G is used using the nonlinear transformation LUT shown in FIG.TThe value was set to 50 (8-bit gradation step unit of 0 to 255, about 100 times the density value). Gaussian random numbers were used in the granular mottle subdivision process. In addition, the values of the parameters α and β in the above equation (40) for obtaining the final processed image are α = 0.7 and β = 0.3, respectively.
[0061]
Thus, the three-dimensional density profile of the image to which the image processing method of the present invention is applied is the original image I.0To final processed image I1One scene is shown in FIGS. 5A to 9B. FIG. 5A shows the original image I.0FIG. 5B shows the subject edge E.0FIG. 6A shows a sharpness-enhanced image I.SFIG. 6B shows a smoothed image I.AVFIG. 7A shows a grain / edge mixed component ΔI.EGFIG. 7B shows the weighted data W of the granular area.GFIG. 8A shows the granular component G separated from the granular / edge mixed component.0FIG. 8B shows the subdivided granular component G.1FIG. 9A shows the weighting data W of the edge region.EFIG. 9B shows the final processed image I.13 shows a three-dimensional concentration profile.
[0062]
As is clear from these figures, the final processed image I shown in FIG.1Is the original image I shown in FIG.0The sharpness-enhanced image I shown in FIG.SThe graininess is sharpness-enhanced image I in spite of being sharply enhanced almost as much asSCompared to the original image I0It can be seen that the level is suppressed to approximately the same level. That is, it can be seen that the image processing method of the present invention is a high-quality image in which only the grain is suppressed and only the edge portion is sharpened.
[0063]
In addition, the image processing method of the present invention is applied to main silver salt color photographic light-sensitive materials, that is, photographic images (35 mm, new photographic system APS (advanced photo system), LF panorama, instant) taken on color films and black-and-white films. As a result, it was possible to obtain a remarkable improvement effect that can be understood at a glance in terms of both graininess and sharpness.
In particular, the granularity has a processing effect comparable to the granular improvement by making the photosensitive material finer, so it is a “blurred granular” unnaturalness that has been a drawback of various granular removal processing methods based on conventional averaging and reduction of fluctuations. There was no sense of incongruity. In addition, with regard to sharpness, when combined with the above-described granular suppression, a considerably greater emphasis effect was obtained than conventional unsharp masks and Laplacian filters.
[0064]
The image processing method for noise suppression and sharpness enhancement of a digital image according to the present invention has been described in detail with reference to examples, but the present invention is not limited thereto, and various modifications can be made without departing from the spirit of the present invention. Of course, improvements and design changes may be made.
[0065]
【The invention's effect】
As described above in detail, according to the present invention, a sharpness-enhanced granular component of the sharpness-enhanced image obtained by enhancing the sharpness from the original image is identified, and the granular component is further subjected to random modulation or a fine regular pattern. Since granularity is suppressed by subtracting the modulated granular component from the sharpness-enhanced image, it is possible to realize visually natural granularity suppression that is spatially finer than the original granularity and that has less variation in shading. Can do. In addition, according to the present invention, the grain is sharpened and spatially refined, so the silver salt photographic material has a fine grain as obtained when a fine grain emulsion is used, and the conventional smoothing is used. A natural grain suppression effect without visual discomfort and discomfort such as blurred grain, which is a drawback of the law, can be obtained.
In addition, by applying the method of the present invention to a silver salt color photographic light-sensitive material, there is no so-called “blurred grain” unnaturalness and uncomfortable feeling, which is a disadvantage of the conventional grain-suppressed sharpness enhancement processing method. The emphasis is improved at the same time, and an extremely remarkable improvement effect can be obtained, which has a large industrial effect.
[Brief description of the drawings]
FIG. 1 is a flowchart showing an embodiment of an image processing method for noise suppression and sharpness enhancement of a digital image according to the present invention.
FIG. 2 is an explanatory diagram for explaining an example of movement of a square pixel array in edge detection by the local dispersion method of the image processing method of the present invention.
FIG. 3 is an explanatory diagram showing an example of characteristics of a frequency distribution of density difference components between a grain and an edge used for explaining identification / separation of the grain and an edge in the image processing method of the present invention.
FIG. 4 is an explanatory diagram showing an example of a look-up table (LUT) function used for separation of granular components in the image processing method of the present invention.
FIGS. 5A and 5B are diagrams showing examples of a three-dimensional density profile of an original image and an edge detection image of a certain scene obtained in an example of the present invention, respectively.
FIGS. 6A and 6B are diagrams showing examples of a three-dimensional density profile of a sharpness-enhanced image and a smoothed image of a scene obtained in an example of the present invention, respectively.
FIGS. 7A and 7B are diagrams showing an example of a three-dimensional density profile of a granular / edge mixed component of a scene and weighted data of a granular region obtained in an example of the present invention, respectively.
FIGS. 8A and 8B are diagrams showing examples of three-dimensional density profiles of a granular component and a subdivided granular component of a scene obtained in an example of the present invention, respectively.
FIGS. 9A and 9B are diagrams showing an example of the weight data of the edge region of the scene and the three-dimensional density profile of the final processed image obtained in the example of the present invention, respectively.

Claims (3)

原画像データにシャープネス強調処理を行ってシャープネス強調画像データを作成し、
前記原画像データに平滑化処理を行って平滑化画像データを作成し、
前記シャープネス強調画像データからこの平滑化画像データを減算してエッジとノイズとの混在成分を抽出するとともに、
前記原画像データからエッジ検出を行ってエッジ領域およびノイズ領域の重み付けデータを求め、
前記エッジとノイズとの混在分成分にこのノイズ領域の重み付けデータを用いて重み付けを行った後に非線形変換を行ってノイズ成分を分離し、
得られたノイズ成分に細分化処理を行って、細分化ノイズ成分を得るとともに、
前記エッジとノイズとの混在成分に前記エッジ領域の重み付けデータを用いて重み付けを行ってエッジ強調成分を得、
前記シャープネス強調画像データから前記細分化ノイズ成分を変倍して除くとともに前記エッジ強調成分を変倍して付加して処理画像データを得ることを特徴とするディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法。
Create sharpness-enhanced image data by performing sharpness-enhancement processing on the original image data,
Smoothing the original image data to create smoothed image data;
Subtracting this smoothed image data from the sharpness-enhanced image data to extract a mixed component of edges and noise,
Perform edge detection from the original image data to obtain weighted data of the edge area and noise area,
After performing weighting using the weighting data of this noise area to the mixed component of the edge and noise, the noise component is separated by performing nonlinear transformation,
The obtained noise component is subdivided to obtain a subdivided noise component,
The edge enhancement component is obtained by performing weighting using the weighting data of the edge region to the mixed component of the edge and noise,
In order to suppress noise and enhance sharpness in a digital image, the processed image data is obtained by scaling and removing the subdivided noise component from the sharpness weighted image data and scaling and adding the edge weighted component. Image processing method.
前記ノイズ成分を分離するための非線型変換は、ノイズの濃度変動の閾値より前記濃度変動が大きくなるにつれて連続的に指数関数的に減少する関数によって行われる請求項1に記載のディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法。2. The digital image noise according to claim 1, wherein the non-linear conversion for separating the noise component is performed by a function that continuously decreases exponentially as the density fluctuation becomes larger than a threshold value of noise density fluctuation. Image processing method for suppression and sharpness enhancement. 前記細分化処理が、前記ノイズ成分に乱数を乗算する処理である請求項1または2に記載のディジタル画像のノイズ抑制およびシャープネス強調のための画像処理方法。The image processing method for noise suppression and sharpness enhancement of a digital image according to claim 1, wherein the subdividing process is a process of multiplying the noise component by a random number.
JP06210197A 1997-02-28 1997-02-28 Image processing method for noise suppression and sharpness enhancement of digital images Expired - Lifetime JP3804880B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP06210197A JP3804880B2 (en) 1997-02-28 1997-02-28 Image processing method for noise suppression and sharpness enhancement of digital images
US09/032,112 US6055340A (en) 1997-02-28 1998-02-27 Method and apparatus for processing digital images to suppress their noise and enhancing their sharpness

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06210197A JP3804880B2 (en) 1997-02-28 1997-02-28 Image processing method for noise suppression and sharpness enhancement of digital images

Publications (2)

Publication Number Publication Date
JPH10243238A JPH10243238A (en) 1998-09-11
JP3804880B2 true JP3804880B2 (en) 2006-08-02

Family

ID=13190329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06210197A Expired - Lifetime JP3804880B2 (en) 1997-02-28 1997-02-28 Image processing method for noise suppression and sharpness enhancement of digital images

Country Status (1)

Country Link
JP (1) JP3804880B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8600188B2 (en) 2010-09-15 2013-12-03 Sharp Laboratories Of America, Inc. Methods and systems for noise reduction and image enhancement
US8588535B2 (en) 2010-09-15 2013-11-19 Sharp Laboratories Of America, Inc. Methods and systems for estimation of compression noise
US8532429B2 (en) * 2010-09-28 2013-09-10 Sharp Laboratories Of America, Inc. Methods and systems for noise reduction and image enhancement involving selection of noise-control parameter
CN113724145B (en) * 2021-07-13 2024-04-26 西姆高新技术(江苏)有限公司 X-ray image processing method and device

Also Published As

Publication number Publication date
JPH10243238A (en) 1998-09-11

Similar Documents

Publication Publication Date Title
US6055340A (en) Method and apparatus for processing digital images to suppress their noise and enhancing their sharpness
US6667815B1 (en) Method and apparatus for processing images
US6373992B1 (en) Method and apparatus for image processing
JP4053185B2 (en) Image processing method and apparatus
US5978519A (en) Automatic image cropping
US7308152B2 (en) Image processing method, apparatus, and program
JP3726653B2 (en) Image processing method, image processing apparatus, and recording medium on which program for executing image processing method is recorded
JP3584389B2 (en) Image processing method and image processing apparatus
JPH0922460A (en) Image processing method and device therefor
JP2002262094A (en) Image processing method and image processor
JP3913356B2 (en) Image processing method
JP4017312B2 (en) Image processing method, image processing apparatus, and recording medium
JP2005141477A (en) Image sharpening process and image processor implementing this process
JP3804880B2 (en) Image processing method for noise suppression and sharpness enhancement of digital images
JP3729118B2 (en) Image processing method, image processing apparatus, image processing program, and computer-readable recording medium recording the same
JPH11339035A (en) Method for deciding image processing parameter and device therefor
JPH1185955A (en) Method and device for image processing
JP2001008038A (en) Image processing method, image processor and multi-band color photographing system
JPH10243239A (en) Image-processing method for noise suppression and sharpness emphasis for digital image
JP2000175046A (en) Image processing method and image processor
RU2383924C2 (en) Method for adaptive increase of sharpness of digital photographs during printing
JP3939428B2 (en) Image processing method and apparatus
JP2001076134A (en) Picture processing method and picture processor
JP2000331153A (en) Image processing method and device
JP2001285640A (en) Image processing method, image processing apparatus and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060508

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140519

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term