JP2001076134A - Picture processing method and picture processor - Google Patents

Picture processing method and picture processor

Info

Publication number
JP2001076134A
JP2001076134A JP24525399A JP24525399A JP2001076134A JP 2001076134 A JP2001076134 A JP 2001076134A JP 24525399 A JP24525399 A JP 24525399A JP 24525399 A JP24525399 A JP 24525399A JP 2001076134 A JP2001076134 A JP 2001076134A
Authority
JP
Japan
Prior art keywords
noise
data
edge
image
sharpness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP24525399A
Other languages
Japanese (ja)
Inventor
Kimitoshi Nagao
公俊 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP24525399A priority Critical patent/JP2001076134A/en
Publication of JP2001076134A publication Critical patent/JP2001076134A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To suppress granular shapes and to emphasize sharpness by sharpening an object picture and noise by emphasizing sharpness and extracting an object edge component and a noise component from the picture. SOLUTION: A sharpness emphasis processing is executed from original picture data I0 in a sharpness emphasis processing part 24, a picture is sharpened and noise with granular shapes contained in original picture data is sharpened. Then, an edge and noise are area-divided. A smoothing processing part 26 generates a smoothed picture from an original picture and operates them from a picture where sharpness is emphasized. Thus, the coexisting component of the edge and noise is obtained. In an edge area, sharpness is emphasized and noise is selectively suppressed in a noise area. A noise component where sharpness is emphasized is especially identified. When the amplitude of the noise component is large, non-linear amplitude suppressing amplitude is compressed/ converted in a case that amplitude is small.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル画像の粒
状などのノイズ(雑音)を抑制し、かつデジタル画像の
シャープネスを強調するデジタル画像のノイズ抑制およ
びシャープネス強調のための画像処理方法および画像処
理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and image processing for suppressing digital image noise and enhancing sharpness, which suppress noise such as graininess of a digital image and enhance the sharpness of the digital image. Related to the device.

【0002】[0002]

【従来の技術】銀塩写真の画像を画像入力スキャナで走
査して収録したデジタル画像や、デジタルスチルカメラ
等で撮影したデジタル画像を画像処理し、画像出力プリ
ンタで出力するようなシステムでは、出力された画像は
スキャナやカメラとプリンタによる大幅なシャープネス
劣化があり、それを回復するために従来からラプラシア
ンフィルタやアンシャープマスク(USM)によるシャ
ープネス強調が行われている。しかし、画像のシャープ
ネスが向上すると共に粒状などのノイズ(雑音)が悪化
する副作用があるため、粒状などのノイズのある画像に
おいては粒状悪化が許容される範囲内で控え目なシャー
プネス強調しか行えず、原稿画像以上に画質を向上させ
ることが困難であった。
2. Description of the Related Art In a system in which a digital image obtained by scanning an image of a silver halide photograph by an image input scanner or a digital image photographed by a digital still camera or the like is processed and output by an image output printer, an output method is used. The sharpened image is greatly deteriorated by a scanner, a camera and a printer, and in order to recover the sharpness, sharpness enhancement has conventionally been performed by a Laplacian filter or an unsharp mask (USM). However, since the sharpness of the image is improved and the noise (noise) such as graininess is adversely affected, in an image having noise such as graininess, only a modest sharpness enhancement can be performed within a range where the graininess is allowed. It has been difficult to improve the image quality more than the original image.

【0003】デジタル画像において、ノイズとなる粒状
を除去しシャープネスを強調する画像処理法としては幾
つか提案されているが、粒状を除去する方法として平均
化したり、ぼかす方法を用いているため、ぼけた粒状パ
ターンが視覚的には不快に感じられたり、微小な被写体
構造が不自然に消されたりする等の問題点があり、写真
のような審美的な画像には適さない。
Some digital image processing methods have been proposed as image processing methods for removing graininess as noise and enhancing sharpness. However, since an averaging or blurring method is used as a method for removing graininess, blurring occurs. There is a problem that the granular pattern is visually uncomfortable or a minute subject structure is unnaturally erased, and is not suitable for an aesthetic image such as a photograph.

【0004】写真、印刷、テレビジョン、各種複写機等
の画像において、カメラ等の光学系による鮮鋭度劣化、
写真感光材料に固有の粒状や鮮鋭度劣化、もしくは写真
や印刷等の原稿画像を画像入力装置でデジタル化する際
に付加されるノイズ(雑音)や鮮鋭度劣化を回復するた
め、ノイズを抑制したり、シャープネスを強調する画像
処理法として種々の方法が考案されている。たとえば、
従来の画像処理方法では、粒状除去処理方法としては平
滑化やコアリングという方法が用いられ、シャープネス
強調処理法としてはアンシャープマスク(USM;Unsh
arp Masking)やラプラシアン、あるいはハイパスフィル
タによる処理が用いられている。しかし、これらの従来
の粒状除去処理方法では粒状を抑制すると不自然な違和
感のあるアーチィファクトが生じたり、本来は抑制して
はならない画像の微細構造を粒状と共に抑制してしまう
等の望ましくない欠点を有していた。
[0004] Degradation of sharpness due to an optical system such as a camera in images of photographs, prints, televisions, various copying machines, etc.
Noise is suppressed to recover the granularity and sharpness deterioration inherent in photographic photosensitive materials, or noise (noise) and sharpness deterioration added when digitizing original images such as photographs and prints with an image input device. And various methods have been devised as image processing methods for enhancing sharpness. For example,
In the conventional image processing method, a method called smoothing or coring is used as a grain removal processing method, and an unsharp mask (USM; Unsh
arp Masking), Laplacian, or high-pass filter processing. However, with these conventional grain removal processing methods, when graininess is suppressed, unnatural artifacts occur, or undesirable microstructures of the image that should not be suppressed are suppressed together with the graininess. Had disadvantages.

【0005】たとえば、特表昭57−500311号公
報、同57−500354号公報および「アンシャープ
で粒状の目立つ写真画像のデジタル強調方法」、電子画
像処理国際会議録、1982年7月、第179〜183
頁(P.G.Powell and B.E.Bayer, ''A Method for the D
igital Enhancement of Unsharp,Grainy Photographic
Images'' ,Proceedingus of the International Confer
ence on Electronic Image Processing,Jul.26-28,198
2,pp.179-183)に開示されたポーウェルおよびバイヤー
らの処理法では、粒状抑制方法として平滑化処理法(ロ
ーパスフィルタ)を用い、シャープネス強調方法として
アンシャープマスク(ハイパスフィルタ)による処理法
を用いている。平滑化処理はn×n画素の信号値にGaus
sian型等の重み付けを乗じて信号を平滑化することによ
って、粒状を抑制する処理である。シャープネス強調処
理は、先ずm×m画素の画像信号を用いて、中心画素か
ら周囲画素の方向の微分値を求め、その値が設定した閾
値より小さい場合は粒状や雑音と見做してコアリング処
理で除去し、残った閾値より大きい微分値の和をとり、
1.0以上の定数を乗じて上記の平滑化信号に加算する
ことによりシャープネス強調を行う。
For example, JP-T-57-500131 and JP-A-57-500354 and "Digital Enhancement Method of Unsharp, Granular, and Conspicuous Photographic Image", International Conference on Electronic Image Processing, July 1982, No. 179. ~ 183
Page (PG Powell and BEBayer, '' A Method for the D
igital Enhancement of Unsharp, Grainy Photographic
Images '', Proceedingus of the International Confer
ence on Electronic Image Processing, Jul. 26-28,198
2, pp. 179-183), a processing method using a smoothing processing method (low-pass filter) as a graininess suppression method and an unsharp mask (high-pass filter) as a sharpness enhancement method. Is used. The smoothing process is performed by applying Gauss to the signal value of n × n pixels
This is a process of suppressing granularity by smoothing the signal by multiplying by a sian-type weight or the like. In the sharpness enhancement processing, first, a differential value in the direction from the center pixel to the surrounding pixels is obtained using an image signal of m × m pixels, and if the value is smaller than a set threshold, it is regarded as granular or noise and coring is performed. Removed by processing, take the sum of the differential value larger than the remaining threshold,
Sharpness enhancement is performed by multiplying the smoothed signal by a constant of 1.0 or more.

【0006】この処理法では、粒状パターンをぼかして
いるので、粒状パターンの濃淡コントラストは低下する
が、粒状を構成する粒子の集落(モトル)からなる大き
いむらパターンが視覚的には目立つようになったりする
ため、不快な粒状として見えるという欠点がある。また
設定した閾値で粒状と画像の識別を行っている(コアリ
ング処理)ので、コントラストの低い画像信号が粒状誤
認され、粒状と共に抑制あるいは除去されてしまった
り、除去した信号と強調した画像信号との境界で不連続
性が生じ、画像に不自然なアーティファクトが見られる
という欠点がある。特に、芝生や絨毯等の微細な画像、
および布地等のテクスチャが描写されている画像におい
てこの欠点が現れ、視覚的には極めて不自然で望ましく
ないアーティファクトとなる。
[0006] In this processing method, since the granular pattern is blurred, the contrast of density of the granular pattern is reduced, but a large uneven pattern made up of mottles of particles constituting the granular pattern is visually noticeable. Or it has the disadvantage of appearing as unpleasant granules. Further, since the image is discriminated from the image with the set threshold value (coring processing), an image signal having a low contrast is misidentified as an image signal, and is suppressed or removed together with the image particle. Has the disadvantage that discontinuities occur at the boundary of the image and unnatural artifacts are seen in the image. In particular, fine images of grass and carpets,
This drawback appears in textures and in images depicting textures such as fabrics, which are visually very unnatural and undesirable artifacts.

【0007】[0007]

【発明が解決しようとする課題】ところで、上述した従
来の粒状抑制・シャープネス強調画像処理方法では、シ
ャープネスはアンシャープマスクで強調し、粒状はぼか
したり、平滑化によって抑制する手法を用い、原画像か
ら粒状(ノイズ)信号と輪郭信号を信号レベルで分離し
て、輪郭信号はシャープネス強調し、平滑領域は粒状抑
制することにより、小さい信号を粒状と見做して処理す
るので、粒状の信号レベルと近い画像細部信号、すなわ
ち衣類のテクスチャや頭髪等の画像信号が粒状と共に抑
制され、画像処理のアーティファクトとして視覚的に不
快な画像となる欠点があるという問題があった。すなわ
ち、このような従来法では、粒状抑制の方法としてぼけ
や平均化を用いており、ぼけた粒状パターンは濃度の揺
らぎとしては小さくなって粒状が良くなったかのように
見えるが、逆に濃度揺らぎ量は小さいがぼけて広がった
粒状パターンが視覚的には不快なパターンと認識され、
特に、ポートレート写真等の顔や肌、あるいは壁や空等
の一様な被写体で目立つという問題があった。
By the way, in the above-mentioned conventional grain suppression / sharpness-enhanced image processing method, sharpness is enhanced by an unsharp mask, and graininess is blurred or reduced by smoothing. By separating the granular signal (noise) signal from the contour signal at the signal level, sharpening the contour signal and suppressing the graininess in the smooth region, the small signal is regarded as grainy and processed. However, there is a problem that image detail signals similar to the above, that is, image signals of clothing texture, hair, etc. are suppressed together with graininess, and there is a disadvantage that an image is visually uncomfortable as an image processing artifact. In other words, in such a conventional method, blurring and averaging are used as a method of suppressing graininess, and the blurred grain pattern becomes smaller as density fluctuation and looks as if graininess has improved. Small, but blurred and spread granular patterns are visually perceived as offensive patterns,
In particular, there has been a problem that a uniform subject such as a face or skin such as a portrait photograph or a wall or the sky stands out.

【0008】また、原画像から粒状(雑音)領域と輪郭
領域を信号レベルで分離する従来法では、原画像とぼけ
画像の差分信号から輪郭領域と平坦領域を識別し、それ
ぞれの領域に対してアンシャープマスクやラプラシアン
等の異なる係数を用いて処理することによって、平坦領
域では粒状を抑制しつつ、輪郭領域ではシャープネスを
強調してエッジをぼかすことなく粒状抑制をしている
が、輪郭領域と粒状領域の認識・分離が閾値となる信号
レベルで一律に行われるため、その境界で不連続性が生
じるという問題があった。さらに、このような従来法で
は、エッジ強調あるいはシャープネス強調方法としてア
ンシャープマスクやラプラシアンが用いられているが、
画像の輪郭・エッジ部にマッキーラインのような縁取り
が発生し易く、視覚的に不自然な印象を与えるという問
題があった。このような粒状などのノイズの抑制の問題
とシャープネス強調の問題は、銀塩写真に特有の問題で
なく、デジタルカメラ等で撮影する際にも、ショットノ
イズや電気的なノイズをはじめとする種々のノイズの抑
制とシャープネス強調の問題として発生する。
In a conventional method of separating a granular (noise) region and a contour region from an original image at a signal level, a contour region and a flat region are identified from a difference signal between the original image and the blurred image, and an undecided state is applied to each region. By processing using different coefficients such as a sharp mask and Laplacian, the graininess is suppressed in the flat area, and the sharpness is enhanced in the outline area to suppress the graininess without blurring the edges. Since the recognition and separation of regions are uniformly performed at a signal level that is a threshold, there is a problem that discontinuity occurs at the boundary. Further, in such a conventional method, an unsharp mask or a Laplacian is used as an edge enhancement or sharpness enhancement method.
There is a problem that a border such as a Mackey line is easily generated at the contour / edge portion of the image, giving a visually unnatural impression. The problem of suppressing noise such as graininess and the problem of sharpness enhancement are not problems unique to silver halide photography, and various problems such as shot noise and electrical noise are also observed when shooting with a digital camera or the like. This occurs as a problem of suppressing noise and enhancing sharpness.

【0009】本発明は、上記従来技術の現状を鑑みてな
されたものであって、銀塩写真、デジタルスチルカメラ
画像、印刷、テレビジョン、各種複写機等の画像におい
て、カメラによるぼけ、写真感光材料の粒状やぼけ等の
原稿画像に固有のノイズ(雑音)と鮮鋭度劣化、もしく
はその原稿画像を画像入力装置でデジタル化する際に付
加されるノイズやデジタルスチルカメラで撮影する際の
ショットノイズと鮮鋭度劣化を回復する処理を行う際
に、上記従来技術の問題点、すなわち、平滑化によるノ
イズの抑制を行うとノイズがぼけて大きいむらが視覚的
に不快に見えるという問題点、コントラストの低い画像
信号がノイズと誤認され、抑制あるいは除去される問題
点、ノイズ除去領域とシャープネス強調領域の境界が不
連続になり画像に不自然なアーティファクトが見られる
という問題点を生じさせずに、粒状を抑制し、かつ画像
シャープネスを強調する処理を行うデジタル画像のノイ
ズ抑制およびシャープネス強調のための画像処理方法お
よびこれを実施する画像処理装置を提供することを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned state of the art, and it has been proposed that blurs caused by a camera, photographic light-sensitive images, images of silver halide photographs, digital still camera images, printing, television, various copying machines, and the like can be obtained. Noise (noise) and sharpness degradation inherent in the original image such as graininess or blur of the material, or noise added when the original image is digitized by the image input device, or shot noise when photographing with a digital still camera When performing processing for recovering the sharpness degradation, the problem of the above-described conventional technology, that is, the problem that noise is suppressed by performing smoothing and large unevenness appears visually uncomfortable, The problem that low image signals are erroneously recognized as noise and are suppressed or removed, and the boundary between the noise removal area and the sharpness enhancement area becomes discontinuous, causing IMAGE PROCESSING METHOD FOR DIGITAL IMAGE NOISE SUPPRESSION AND SHARPNESS ENHANCEMENT PERFORMING PROCESSES FOR REDUCING GRAIN AND IMPROVING IMAGE SHARPNESS WITHOUT PRODUCING PROBLEM OF REALIZING ARTIFACTS AND IMAGE PROCESSING IMPLEMENTING THE SAME It is intended to provide a device.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、原画像データにシャープネス強調処理を
行い、画像と共にこの画像中に含まれるノイズを鮮鋭化
したシャープネス強調画像データを作成し、前記原画像
データに平滑化処理を行って、平滑化画像データを作成
し、前記シャープネス強調画像データから前記平滑化画
像データを減算して、シャープネス強調された被写体画
像のエッジと、同じくシャープネス強調されたノイズと
が混在する混在画像データを作成し、前記原画像データ
からエッジ検出を行って被写体エッジ領域とノイズ領域
を識別するためのエッジ強度データを求め、前記エッジ
強度データからエッジ領域の重み付け係数とノイズ領域
の重み付け係数を求め、前記混在画像データに、前記ノ
イズ領域の重み付け係数を乗じて、ノイズ領域のノイズ
データを求め、このノイズデータに、ノイズデータの振
幅の大小関係が逆転することなくノイズデータを圧縮す
る圧縮変換であって、前記ノイズデータの振幅が大きく
なるにつれて圧縮率が滑らかに大きくなる振幅非線型圧
縮変換を施して、ノイズ振幅抑制データを作成し、一
方、前記混在画像データに、前記エッジ領域の重み付け
係数を乗じて、エッジ領域のエッジ強調データを求め、
前記平滑化画像データに前記ノイズ振幅抑制データと前
記エッジ強調データを加算して処理画像データを得るこ
とによって、原画像のノイズ領域におけるノイズ成分を
選択的に抑制し、原画像のエッジ領域におけるシャープ
ネスを強調した処理画像を作成することを特徴とする画
像処理方法を提供するものである。
In order to achieve the above-mentioned object, the present invention provides a sharpness-enhanced image data in which original image data is subjected to sharpness enhancement processing and an image is sharpened with noise contained in the image. Then, a smoothing process is performed on the original image data to create smoothed image data, and the smoothed image data is subtracted from the sharpness-enhanced image data to obtain a sharpness-enhanced edge of the subject image and the same sharpness. Create mixed image data in which the emphasized noise is mixed, obtain edge intensity data for identifying a subject edge region and a noise region by performing edge detection from the original image data, and obtain an edge region of the edge region from the edge intensity data. A weighting coefficient and a weighting coefficient for the noise area are obtained, and the weight of the noise area is assigned to the mixed image data. Multiplying by a coefficient to obtain noise data in a noise region, and performing a compression conversion of compressing the noise data without inverting the magnitude relationship of the amplitude of the noise data to the noise data, and as the amplitude of the noise data increases, The compression rate is smoothly increased to perform amplitude non-linear compression conversion to generate noise amplitude suppression data.On the other hand, the mixed image data is multiplied by a weighting coefficient for the edge area to obtain edge enhancement data for the edge area. ,
By adding the noise amplitude suppression data and the edge emphasis data to the smoothed image data to obtain processed image data, a noise component in a noise region of the original image is selectively suppressed, and a sharpness in an edge region of the original image is obtained. And an image processing method characterized by creating a processed image emphasizing.

【0011】ここで、前記振幅非線型圧縮変換は、ノイ
ズデータをGi とするとき、下記式(1)で表されるの
が好ましい。 LGC(Gi )= Gmax ・{1− exp[−(loge 2)・Gi /GT ]} (1) ここで、GT は、振幅非線型圧縮変換の特性を調整する
ノイズ圧縮閾値であり、Gmax は圧縮振幅レベルを指定
する振幅調整定数である。その際、前記ノイズ圧縮閾値
は、前記ノイズデータの標準偏差または平均値に基づい
て決定されるのが好ましい。また、前記振幅非線型圧縮
変換は、ノイズデータに対するノイズ振幅抑制データを
予め求めた振幅非線型圧縮変換の変換データをルックア
ップテーブルとして用いて行われるのが好ましい。
[0011] Here, the amplitude non-linear compression transformation, when the noise data and G i, preferably represented by the following formula (1). L GC (G i) = G max · {1- exp [- (log e 2) · G i / G T]} (1) where, G T, the noise of adjusting the characteristics of the amplitude non-linear compression transformation Gmax is a compression threshold, and Gmax is an amplitude adjustment constant that specifies a compression amplitude level. At this time, it is preferable that the noise compression threshold is determined based on a standard deviation or an average value of the noise data. Preferably, the amplitude non-linear compression conversion is performed using conversion data of the amplitude non-linear compression conversion in which noise amplitude suppression data for noise data is obtained in advance as a look-up table.

【0012】また、本発明は、原画像データにシャープ
ネス強調処理を行い、画像と共にこの画像中に含まれる
ノイズを鮮鋭化したシャープネス強調画像データを作成
するシャープネス強調処理部と、前記原画像データに平
滑化処理を行って、平滑化画像データを作成する平滑化
処理部と、前記原画像データからエッジ検出を行って被
写体エッジ領域とノイズ領域を識別するためのエッジ強
度データを求めるエッジ検出部と、前記シャープネス強
調処理部で作成された前記シャープネス強調画像データ
から前記平滑化処理部で作成された平滑化画像データを
減算して、シャープネス強調された被写体画像のエッジ
と、同じくシャープネス強調されたノイズとが混在する
混在画像データを作成するエッジ・ノイズ混在成分抽出
部と、前記エッジ検出部で求められた前記エッジ強度デ
ータからエッジ領域の重み付け係数とノイズ領域の重み
付け係数を求めるエッジ・ノイズ重み係数演算部と、前
記エッジ・ノイズ混在成分抽出部で作成された前記混在
画像データに、前記エッジ・ノイズ重み係数演算部で求
められた前記ノイズ領域の重み付け係数を乗じて、ノイ
ズ領域のノイズデータを求め、さらに、前記混在画像デ
ータに、前記エッジ・ノイズ重み係数演算部で求められ
た前記エッジ領域の重み付け係数を乗じて、エッジ領域
のエッジ強調データを求めるエッジ・ノイズ成分識別・
分離部と、前記ノイズデータの振幅の大小関係が逆転す
ることなく前記ノイズデータの振幅を圧縮する圧縮変換
であって、前記ノイズデータの振幅が大きくなるにつれ
て滑らかに圧縮率が大きくなる振幅非線型圧縮変換の変
換データを予め求めてルックアップテーブルを作成する
ノイズ非線形圧縮LUT演算部と、このノイズ非線形圧
縮LUT演算部で作成されたルックアップテーブルを用
いて前記エッジ・ノイズ成分識別・分離部で求められた
ノイズデータの非線形圧縮処理を行いノイズ振幅抑制デ
ータを求めるノイズ成分圧縮処理部と、前記平滑化処理
部で作成された平滑化画像データに、前記ノイズ成分圧
縮処理部で求められたノイズ振幅抑制データと、前記エ
ッジ・ノイズ成分識別・分離部で求められたエッジ強調
データを加算して処理画像データを出力する出力画像演
算部とを備え、原画像のノイズ領域におけるノイズ成分
を選択的に抑制し、原画像のエッジ領域におけるシャー
プネスを強調した処理画像データを作成することを特徴
とする画像処理装置を提供するものである。
Further, the present invention provides a sharpness enhancement processing section for performing sharpness enhancement processing on original image data to create sharpness enhanced image data in which noise included in the image is sharpened together with the image; Performing a smoothing process, a smoothing processing unit that creates smoothed image data, and an edge detection unit that performs edge detection from the original image data to obtain edge intensity data for identifying a subject edge region and a noise region. Subtracting the smoothed image data created by the smoothing processing unit from the sharpness enhanced image data created by the sharpness enhancing unit, and sharpening the edges of the subject image and noise that has also been sharpened. An edge / noise mixed component extraction unit for creating mixed image data in which An edge / noise weighting factor calculation unit for calculating a weighting factor for an edge region and a weighting factor for a noise region from the edge strength data obtained at the output unit; and the mixed image data created by the mixed edge / noise component extraction unit. Multiplying the noise area weighting coefficient calculated by the edge noise weight coefficient calculating section to obtain noise data of the noise area; further, the mixed image data is calculated by the edge noise weight coefficient calculating section. Multiplying the edge area weighting coefficient to obtain edge enhancement data of the edge area;
Separation unit, a compression conversion for compressing the amplitude of the noise data without reversing the magnitude relationship of the amplitude of the noise data, wherein the amplitude non-linearity in which the compression rate smoothly increases as the amplitude of the noise data increases A noise non-linear compression LUT calculation unit that obtains conversion data of the compression conversion in advance to create a look-up table; and the edge / noise component identification / separation unit uses the look-up table generated by the noise non-linear compression LUT calculation unit. A noise component compression processing unit for performing a non-linear compression process on the obtained noise data to obtain noise amplitude suppression data; and a noise component obtained by the noise component compression processing unit on the smoothed image data created by the smoothing processing unit. By adding the amplitude suppression data and the edge emphasis data obtained by the edge / noise component identification / separation unit, An output image calculation unit that outputs the physical image data, wherein noise image components in a noise region of the original image are selectively suppressed, and processed image data in which sharpness in an edge region of the original image is enhanced is created. An image processing device is provided.

【0013】[0013]

【発明の実施の形態】以下、本発明の画像処理方法およ
び画像処理装置について、添付の図面に示される好適実
施例を基に詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing method and an image processing apparatus according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.

【0014】図1は、本発明に係る画像処理装置を組み
込んだシステムであって、カラー画像を読み取り、本発
明の画像処理方法を行い、カラー画像を出力するカラー
画像再生システムのブロック図である。図2は、本発明
に係る画像処理方法を実施する画像処理装置の一実施例
のブロック図である。図3は、本発明の画像処理方法の
処理アルゴリズムの一例を示すフローチャートである。
以下の説明では、デジタル画像としてカラー写真画像を
代表例として説明する。
FIG. 1 is a block diagram of a color image reproducing system that incorporates an image processing apparatus according to the present invention, reads a color image, performs the image processing method of the present invention, and outputs a color image. . FIG. 2 is a block diagram of an embodiment of an image processing apparatus that performs the image processing method according to the present invention. FIG. 3 is a flowchart illustrating an example of a processing algorithm of the image processing method according to the present invention.
In the following description, a color photographic image will be described as a representative example as a digital image.

【0015】図1に示すように、カラー画像再生システ
ム10は、カラー写真画像(カラーネガフィルム、カラ
ーリバーサルフィルムなどのフィルム画像などやデジタ
ルカメラ等の撮影画像)などのカラー画像を読み取って
デジタル入力画像データを得る画像入力装置12と、画
像入力装置12から入力される入力画像データに所要の
画像処理とともに本発明のデジタル画像のノイズ抑制お
よびシャープネス強調のための画像処理を施して、処理
画像データI1 を得る画像処理装置14と、画像処理装
置14から出力される処理画像データI1 に基づいてプ
リント画像などのカラー画像を出力する画像出力装置1
6とを備える。
As shown in FIG. 1, a color image reproducing system 10 reads a color image such as a color photographic image (a film image of a color negative film, a color reversal film or the like, or a photographed image of a digital camera or the like) and reads a digital input image. An image input device 12 for obtaining data, and input image data input from the image input device 12 are subjected to image processing for noise suppression and sharpness enhancement of a digital image according to the present invention together with required image processing to obtain processed image data I. And an image output device 1 that outputs a color image such as a print image based on the processed image data I 1 output from the image processing device 14.
6 is provided.

【0016】画像入力装置12は、デジタルカラー画像
データを作成して、画像処理装置14への入力画像デー
タとして出力するためのもので、例えば、カラー(また
はモノクロ)ネガフィルムやカラー(またはモノクロ)
リバーサルフィルムなどのカラーフィルム画像を読み取
ってデジタル画像データを作成するフィルムスキャナ装
置、印刷物や反射プリント画像などのカラー反射原稿画
像を読み取ってデジタル画像データを作成する反射原稿
用スキャナ装置、被写体を直接撮影してデジタル画像デ
ータを作成するデジタルカメラや電子スチルカメラやビ
デオカメラ、もしくは、これらで作成されたデジタル画
像データを格納した記録媒体、例えば、スマートメディ
ア、PCカードなどの半導体メモリーやFD、Zipな
どの磁気記録媒体やMO、MDなどの光磁気記録媒体や
CD−ROM、Photo−CDなどの光記録媒体など
をドライブしてデジタル画像データとして読み出すドラ
イバ、これらのデジタル画像データを読み込んでソフト
コピー画像を表示するCRTモニタ、液晶モニタなどの
表示装置、および読み込んだもしくは表示されたデジタ
ル画像データを全体的にもしくは部分的に画像処理する
画像処理用PC、WSなどのコンピュータなどを挙げる
ことができる。
The image input device 12 creates digital color image data and outputs it as input image data to the image processing device 14. For example, a color (or monochrome) negative film or a color (or monochrome)
A film scanner that reads color film images such as reversal film to create digital image data, a scanner device that scans color reflective original images such as printed matter and reflection print images to create digital image data, and a scanner that directly scans subjects Digital camera, electronic still camera, video camera, or a recording medium storing digital image data created by them, such as smart media, semiconductor memory such as PC card, FD, Zip, etc. Driver for reading magnetic image recording media such as MO and MD, and optical recording media such as CD-ROM, Photo-CD, etc., and reading them as digital image data. Show CRT monitor, can be cited a display device such as a liquid crystal monitor, and read or display digital image data wholly or partially the image processing to the image processing PC, and the like computer such as WS that.

【0017】画像出力装置16は、最終処理画像データ
として画像処理装置14から出力される処理画像データ
1 に基づいて、カラー写真画像などのカラー入力画像
が再現されたカラー画像を出力するためのもので、反射
プリント画像や反射原稿画像などのカラーハードコピー
画像を出力するデジタルフォトプリンタや複写機や電子
写真、レーザプリンタ、インクジェット、熱昇華型、T
Aなどの種々の方式のデジタルカラープリンタなどの画
像出力装置、ソフトコピー画像として表示するTV、C
RTモニタ、液晶モニタ等の表示装置やPCやWSなど
のコンピュータなどを挙げることができる。
The image output device 16 outputs a color image in which a color input image such as a color photographic image is reproduced, based on the processed image data I 1 output from the image processing device 14 as final processed image data. Digital photo printers, copiers, electrophotographs, laser printers, inkjets, thermal sublimation type, T
Image output devices such as digital color printers of various types such as A, TV and C for displaying as soft copy images
Display devices such as an RT monitor and a liquid crystal monitor, and computers such as a PC and a WS can be used.

【0018】画像処理装置14は、画像入力装置12か
らの入力画像データの色および調子(階調)を画像出力
装置16に所望の色および調子再現で出力するために調
整処理して原画像データIO を作成する色・調子処理部
18と、この色・調子処理部18によって処理された原
画像データIO に本発明の最も特徴とする部分であっ
て、本発明のデジタル画像のノイズ抑制およびシャープ
ネス強調のための画像処理方法を実施して処理画像デー
タI1 を作成するノイズ抑制・シャープネス強調画像処
理部20と、色および調子再現性が調整された画像デー
タに基づいて再生画像を表示する画像モニタおよび種々
の所要の画像処理や本発明の画像処理を行うためのパラ
メータを設定する画像処理パラメータ設定部からなる画
像モニタ・画像処理パラメータ設定部22とを有する。
The image processing device 14 adjusts the color and tone (gradation) of the input image data from the image input device 12 to output it to the image output device 16 in a desired color and tone reproduction, The color / tone processing unit 18 for creating IO and the original image data IO processed by the color / tone processing unit 18 are the most characteristic part of the present invention, and are the noise suppression of the digital image of the present invention. display and noise suppression, sharpness enhancement image processing unit 20 to create an image processing method implemented processed image data I 1 for sharpness enhancement, the reproduced image based on the image data color and tone reproducibility is adjusted Image monitor and image processing unit comprising an image processing parameter setting unit for setting parameters for performing various required image processing and image processing of the present invention. And a meter setting section 22.

【0019】ここで、色・調子処理部18は、画像入力
装置12から入力される入力画像データの色および調子
(階調)の再現性を画像出力装置16において適正に再
現されるように色変換または色補正(階調変換または補
正も含む)を行って、本発明の画像処理方法を実施する
ための原画像データIO を作成するものであり、ここで
行われる処理としては、例えば、色(グレイ)変換や補
正、階調補正、濃度(明るさ)補正、彩度補正、倍率変
換、濃度ダイナミックレンジの圧縮・伸長などの種々の
処理を挙げることができる。
Here, the color / tone processing section 18 performs color reproduction so that the reproducibility of the color and tone (gradation) of the input image data input from the image input device 12 is properly reproduced in the image output device 16. Conversion or color correction (including gradation conversion or correction) is performed to create original image data I O for performing the image processing method of the present invention. Examples of processing performed here include, for example, Examples include various processes such as color (gray) conversion and correction, gradation correction, density (brightness) correction, saturation correction, magnification conversion, and compression / expansion of a density dynamic range.

【0020】画像モニタ・画像処理パラメータ設定部2
2は、画像モニタおよび画像処理パラメータ設定部から
なり、画像モニタに画像入力装置12から入力された入
力画像データに基づいて入力画像を表示するとともに、
この画像モニタを用いて(例えばGUIなどによって)
入力画像データに色・調子処理部18および本発明の画
像処理方法を実施するためのノイズ抑制・シャープネス
強調画像処理部20で行う各種の画像処理のパラメータ
を図示しないマウスやキーボードなどのデータ入力機に
よって設定するためのものである。ここで、設定される
パラメータは、上述した各種の処理に用いられる補正係
数、変換係数、倍率などや後に詳細に説明する本発明の
画像処理方法を実施する上で必要となる様な係数や定数
などを挙げることができる。
Image monitor / image processing parameter setting unit 2
2 includes an image monitor and an image processing parameter setting unit, and displays an input image on the image monitor based on input image data input from the image input device 12,
Using this image monitor (for example, by GUI)
A data input device such as a mouse or a keyboard (not shown) for input image data, which includes parameters of various image processing performed by the color / tone processing unit 18 and the noise suppression / sharpness enhanced image processing unit 20 for implementing the image processing method of the present invention. It is for setting by. Here, parameters to be set include correction coefficients, conversion coefficients, magnifications, and the like used in the above-described various processes, and coefficients and constants necessary for implementing the image processing method of the present invention described in detail later. And the like.

【0021】本発明の画像処理方法を実施するノイズ抑
制・シャープネス強調画像処理部(以下、単に本画像処
理部という)20は、色・調子処理部18で作成された
原画像データIO に本発明の特徴とするノイズ抑制・シ
ャープネス強調画像処理を行って、画像出力装置16に
出力するための最終処理画像データである処理画像デー
タI1 を作成するためのものである。
A noise suppression / sharpness-enhanced image processing unit (hereinafter simply referred to as “main image processing unit”) 20 that implements the image processing method of the present invention includes a main image data I O created by the color / tone processing unit 18. This is for creating processed image data I 1 , which is final processed image data to be output to the image output device 16, by performing the noise suppression / sharpness enhanced image processing which is a feature of the present invention.

【0022】ここで、本画像処理部20は、図2に示す
ように、原画像データIO にシャープネス強調処理を行
って、画像とともにこの画像中に含まれる粒状をはじめ
とするノイズ(雑音)をも鮮鋭化したシャープネス強調
画像データIS を作成するシャープネス強調処理部24
と、原画像データIO に平滑化処理を行って、平滑化画
像データIAVを作成する平滑化処理部26と、シャープ
ネス強調画像データI S から平滑化画像データIAVを減
算して、シャープネス強調された被写体画像のエッジと
ノイズとが混在する被写体画像エッジとノイズとの混在
画像データΔI EGを作成するエッジ・ノイズ混在成分抽
出部28と、原画像データIO から被写体画像のエッジ
検出を行って、被写体エッジ領域とノイズ領域とを識別
するためのエッジ強度データEO を求めるエッジ検出部
30と、このエッジ強度データE O からエッジ領域の重
み付け係数WE とノイズ領域の重み付け係数WG を求め
るエッジ・ノイズ重み係数演算部32と、エッジ・ノイ
ズ混在成分抽出部28で得られた混在画像データΔIEG
にエッジ・ノイズ重み係数演算部32で求められたノイ
ズ領域の重み付け係数WG を乗じて、ノイズ領域のノイ
ズデータG0 を求め、さらに、混在画像データΔI
EGに、エッジ・ノイズ重み係数演算部32で求められた
エッジ領域の重み付け係数WE を乗じて、エッジ領域の
エッジ強調データE1 を求めるエッジ・ノイズ成分識別
・分離部34と、エッジ・ノイズ成分識別・分離部34
で求められたノイズデータG0 の振幅を圧縮する圧縮変
換であって、ノイズデータG0 の振幅が大きくなるにつ
れて圧縮率が滑らかに大きくなる振幅非線型圧縮変換の
変換データを予め求めてルックアップテーブルLGCを作
成するノイズ非線形圧縮LUT演算部36と、ノイズ非
線形圧縮LUT演算部36で作成されたルックアップテ
ーブルLGCを用いてエッジ・ノイズ成分識別・分離部3
4で求められたノイズデータG0 の非線形圧縮処理を行
いノイズ振幅抑制データG1 を求めるノイズ成分圧縮処
理部38と、平滑化処理部26で作成された平滑化画像
データIAVに、ノイズ成分圧縮処理部38で求められた
ノイズ振幅抑制データG1 と、エッジ・ノイズ成分識別
・分離部34で求められたエッジ強調データE1 を加算
して処理画像データI1 を得、この処理画像データI1
を出力する出力画像演算部40とを有する。
Here, the image processing section 20 is shown in FIG.
Thus, the original image data IOSharpness enhancement processing
And the granularity contained in this image along with the image
Sharpness enhancement that sharpens noise (noise)
Image data ISSharpness enhancement processing unit 24 for creating
And the original image data IOTo the smoothed image.
Image data IAVAnd a smoothing processing unit 26 for generating
Nest emphasized image data I SFrom the smoothed image data IAVReduced
The edge of the subject image with sharpness enhanced
Subject image edge mixed with noise Mixed with noise
Image data ΔI EGEdge / noise mixed component extraction
Output unit 28 and original image data IOFrom the edge of the subject image
Performs detection to identify subject edge areas and noise areas
Strength data E forOEdge detector that calculates
30 and the edge strength data E OTo edge area weight
Finding coefficient WEAnd noise area weighting coefficient WGAsk for
Edge noise weighting coefficient calculation unit 32, and edge noise
Image data ΔI obtained by the mixed component extraction unit 28EG
Is the noise calculated by the edge / noise weighting coefficient calculator 32.
Weighting factor WGMultiplied by
Data G0, And the mixed image data ΔI
EGThe edge noise weight coefficient calculation unit 32 calculates
Edge area weighting coefficient WEMultiplied by
Edge emphasis data E1Edge and noise component identification
Separation unit 34 and edge / noise component identification / separation unit 34
Noise data G obtained by0Compression to compress the amplitude of
In other words, the noise data G0As the amplitude of
Of the non-linear compression conversion, which increases the compression ratio smoothly.
Look up conversion data in advance and look up table LGCMake
The noise non-linear compression LUT calculation unit 36 that generates
The lookup table created by the linear compression LUT operation unit 36
Table LGCEdge / noise component identification / separation unit 3 using
Noise data G obtained in 40Perform nonlinear compression processing of
Noise amplitude suppression data G1Noise component compression
Processing unit 38 and the smoothed image created by the smoothing processing unit 26
Data IAVThe noise component compression processing unit 38
Noise amplitude suppression data G1And edge noise component identification
The edge emphasis data E obtained by the separation unit 341Add
Processed image data I1And the processed image data I1
And an output image calculation unit 40 that outputs

【0023】図2に示すノイズ抑制・シャープネス強調
画像処理部20は、基本的に以上のように構成される。
次に、図3に示す本発明の画像処理方法の処理アルゴリ
ズムを示すフローチャートを参照しながら、本処理部2
0の作用および本発明の画像処理方法について概説す
る。
The noise suppression / sharpness enhanced image processing section 20 shown in FIG. 2 is basically configured as described above.
Next, referring to the flowchart shown in FIG. 3 showing the processing algorithm of the image processing method of the present invention,
The operation of the image processing method and the image processing method of the present invention will be outlined.

【0024】本発明においては、図2および図3に示す
ように、各画素毎に先ず、原画像データIO から、シャ
ープネス強調処理部24においてシャープネス強調処理
を行い(ステップ100)、シャープネス強調画像デー
タIS を得、平滑化処理部26において平滑化処理を行
い(ステップ102)、平滑化画像データIAVを得、エ
ッジ・ノイズ混在成分抽出部28においてエッジと粒状
をはじめとするノイズが混在したエッジ・ノイズ混在成
分の抽出を行って(ステップ104)、エッジ・ノイズ
の混在画像データΔIEGを抽出する。
In the present invention, as shown in FIGS. 2 and 3, for each pixel, a sharpness enhancement process is first performed on the original image data I O in the sharpness enhancement processing section 24 (step 100). The data IS is obtained, a smoothing process is performed in the smoothing processing unit 26 (step 102), the smoothed image data I AV is obtained, and the edge and noise mixed noise is mixed in the edge / noise mixed component extraction unit 28. The extracted edge / noise mixed component is extracted (step 104), and the edge / noise mixed image data ΔI EG is extracted.

【0025】一方、エッジ検出部30において原画像デ
ータIO から被写体エッジ領域とノイズ領域とを識別す
るためのエッジ強度データEO を求めてエッジ検出を行
い(ステップ106)、エッジ・ノイズ重み係数演算部
32において、エッジ領域の重み付け係数WE とノイズ
領域の重み付け係数WG を計算して求める(ステップ1
08)。さらに、エッジ・ノイズ成分識別・分離部34
において、エッジ・ノイズの識別・分離を行う(ステッ
プ110)。すなわち、混在画像データΔIEGに、エッ
ジ・ノイズ重み係数演算部32で求められたエッジ領域
の重み付け係数WE を乗じて、エッジ領域のエッジ強調
データE1 を求め、混在画像データΔIEGに、エッジ・
ノイズ重み係数演算部32で求められたノイズ領域の重
み付け係数WG を乗じて、ノイズ領域のノイズデータG
0 を求める。
On the other hand, the edge detection unit 30 obtains edge strength data E O for discriminating a subject edge area and a noise area from the original image data I O and performs edge detection (step 106). the computing section 32, determined by calculating a weighting coefficient W G of the weighting factors W E and the noise region of the edge region (step 1
08). Further, the edge / noise component identification / separation unit 34
In step (1), edge noise is identified and separated (step 110). That is, the mixed image data [Delta] I EG, multiplied by the weighting coefficient W E of the edge region determined by the edge noise weighting factor calculation unit 32, an edge enhancement data E 1 of the edge regions determined, the mixed image data [Delta] I EG, Edge
Multiplied by the weighting coefficient W G of the noise region determined by the noise weighting factor calculation unit 32, noise data G of the noise region
Find 0 .

【0026】次に、ノイズ非線形圧縮LUT演算部36
において、エッジ・ノイズ成分識別・分離部34で求め
られたノイズデータG0 の振幅を圧縮する圧縮変換であ
って、ノイズデータG0 の振幅の大小関係が逆転するこ
となく、ノイズデータG0 の振幅が大きくなるにつれて
圧縮率が滑らかに大きくなる振幅非線型圧縮変換の変換
データをルックアップテーブルLGCとして作成する(ス
テップ112)。この場合、振幅非線型圧縮変換データ
は、後述する式(29)で表されるノイズデータの標準
偏差σG (x,y) を用いて決定するのが好ましい。この作
成されたルックアップテーブルLGCを用いて、ノイズ領
域のノイズデータG0 に対して、ノイズ成分の非線形圧
縮処理を行い(ステップ114)、ノイズ振幅抑制デー
タG1 を求める。最後に、平滑化処理部26で作成され
た平滑化画像データIAVに、ノイズ成分圧縮処理部38
で求められたノイズ振幅抑制データG1 と、エッジ・ノ
イズ成分識別・分離部34で求められたエッジ強調デー
タE1 を加算するノイズ抑制・シャープネス強調演算を
行って(ステップ116)、処理画像データI1 を得
る。
Next, the noise non-linear compression LUT calculation unit 36
In, a compression conversion for compressing the amplitude of the noise data G 0 obtained by the edge noise component identifying and separating portion 34, without the amplitude magnitude of the noise data G 0 is reversed, the noise data G 0 The conversion data of the amplitude non-linear compression conversion in which the compression ratio smoothly increases as the amplitude increases is created as a look-up table LGC (step 112). In this case, it is preferable that the amplitude non-linear compression conversion data is determined using a standard deviation σ G (x, y) of noise data expressed by the following equation (29). Using the created look-up table L GC , the noise data G 0 in the noise area is subjected to a non-linear compression process of the noise component (step 114), and the noise amplitude suppression data G 1 is obtained. Finally, the noise component compression processing unit 38 is added to the smoothed image data I AV created by the smoothing processing unit 26.
In the noise amplitude suppression data G 1 obtained by performing noise suppression, sharpness enhancement operation for adding the edge enhancement data E 1 obtained at the edge noise component identifying and separating unit 34 (step 116), processing the image data get the I 1.

【0027】すなわち、本発明は、 ・原画像データにシャープネス強調の処理を行い、画像
を鮮鋭化すると共に原画像データに含まれている粒状を
はじめとするノイズ(雑音)を共に鮮鋭化しておき、 ・原画像から画像中のエッジを検出し、エッジ強度を求
めエッジ強度の大きい領域は被写体輪郭情報が多い被写
体エッジ領域とみなし、一方エッジ強度の弱い領域は、
ノイズ領域と見なし領域分割を行い、 ・原画像から平滑化画像を作成し、シャープネス強調画
像から演算することにより、エッジとノイズの混在成分
を求め、 ・エッジ領域では、シャープネス強調を行い、ノイズ領
域ではノイズを選択的に抑制するものである。特に、シ
ャープネス強調されたノイズ成分を識別し、ノイズ成分
の振幅が大きい場合、振幅の小さい場合に比べて振幅を
強く抑制する非線形な振幅の圧縮変換を行うものであ
る。そのため、画像の被写体のエッジ領域では、シャー
プネス強調され、ノイズ領域では、ノイズが抑制された
画質の良い画像を得ることができる。特に、ステップ1
12およびステップ114で行われるノイズ成分の非線
形圧縮処理によって、シャープネス強調されたノイズ成
分を、振幅の大きなノイズ成分はより強く抑制し、振幅
の小さなノイズ成分は弱く抑制するように振幅の圧縮に
関して非線形な圧縮処理を行うことによって、ノイズの
濃度変動を小さくすることができる。このように、ノイ
ズ成分によってできるパターンをシャープネス強調する
とともにノイズ成分の振幅を圧縮するので、銀塩写真感
材で微粒子乳剤を用いた時に得られるような、細かい粒
状、すなわち空間的に細かくかつ振幅も小さくすること
ができる。
That is, the present invention provides: a sharpness enhancement process for original image data to sharpen the image and sharpen both noises and other noises included in the original image data; An edge in the image is detected from the original image, an edge strength is obtained, a region having a large edge strength is regarded as a subject edge region having a large amount of subject contour information, and a region having a weak edge strength is determined as follows.
A region is divided assuming a noise region, and a smoothed image is created from the original image, and a mixed component of edges and noise is obtained by calculating from the sharpness enhanced image. Then, the noise is selectively suppressed. In particular, a noise component in which sharpness is emphasized is identified, and a non-linear amplitude compression conversion for suppressing the amplitude more strongly when the amplitude of the noise component is large than when the amplitude is small is performed. Therefore, in the edge region of the subject of the image, sharpness is enhanced, and in the noise region, a high-quality image in which noise is suppressed can be obtained. In particular, step 1
By the nonlinear compression processing of the noise component performed in step 12 and step 114, the noise component that has been subjected to sharpness emphasis is more strongly suppressed for the noise component having a large amplitude, and the noise component having a small amplitude is nonlinearly suppressed so that the noise component having a small amplitude is weakly suppressed. By performing a proper compression process, it is possible to reduce the noise density fluctuation. As described above, since the pattern formed by the noise component is emphasized with sharpness and the amplitude of the noise component is compressed, the fine granularity, that is, the spatially fine and the amplitude, which can be obtained when a fine grain emulsion is used in a silver halide photographic material, is used. Can also be reduced.

【0028】次に、本発明の画像処理方法の上述した各
工程について詳細に説明する。まず、シャープネス強調
工程(ステップ100)について説明する。ここで、画
像のシャープネスを強調する方法としては、アンシャー
プマスク(Unsharp masking, USM)またはラプラシアン(L
aplacian) が良く知られている。本発明においても、こ
れらを用いることにより、画像のシャープネス劣化が軽
度なものであれば、画像のシャープネスを強調すること
ができる。アンシャープマスクは、次式のように原画像
データI0(x,y)(注目する画素位置を、x およびy とす
る) から、I0(x,y)を平均化あるいはぼかした画像<I
0(x,y)>を引いて求めたエッジ強調成分I0(x,y)−<I
0(x,y)>に係数aを掛けて原画像データI0 (x,y) に加
算することによって、シャープネス強調画像IS (x,y)
を求める方法である。 IS (x,y) =I0(x,y)+a〔I0(x,y)−<I0(x,y)>〕 (2) ここで、aはシャープネス強調の程度を調節する定数で
ある。ラプラシアンは、原画像データI0(x,y)の二次微
分(ラプラシアン)▽2 0(x,y)を原画像データI0(x,
y)から引くことによって、シャープネス強調する方法
で、次式で表される。 IS (x,y) =I0(x,y)−▽2 0(x,y) (3) ラプラシアンによるシャープネス強調の具体的な例とし
ては、下記のような3×3の係数配列が良く用いられ
る。 0 −1 0 −1 −1 −1 1 −2 1 −1 5 −1 −1 9 −1 −2 5 −2 (4) 0 −1 0 −1 −1 −1 1 −2 1
Next, each of the above-described steps of the image processing method of the present invention will be described in detail. First, the sharpness enhancement step (step 100) will be described. Here, as a method of enhancing the sharpness of the image, an unsharp masking (USM) or a Laplacian (L
aplacian) is well known. Also in the present invention, by using these, the sharpness of the image can be enhanced if the sharpness of the image is slightly degraded. An unsharp mask is obtained by averaging or blurring I 0 (x, y) from original image data I 0 (x, y) (pixel positions of interest are assumed to be x and y) as shown in the following equation. I
0 (x, y)> and the edge enhancement component I 0 (x, y) − <I
0 (x, y)> is multiplied by a coefficient a and added to the original image data I 0 (x, y) to obtain a sharpness enhanced image I S (x, y).
It is a method of seeking. I S (x, y) = I 0 (x, y) + a [I 0 (x, y) − <I 0 (x, y)>] (2) where a adjusts the degree of sharpness enhancement. Is a constant. Laplacian, the original image data I 0 (x, y) second derivative of (Laplacian) ▽ 2 I 0 (x, y) of the original image data I 0 (x,
A method of emphasizing sharpness by subtracting from y) is expressed by the following equation. I S (x, y) = I 0 (x, y) − ▽ 2 I 0 (x, y) (3) As a specific example of sharpness enhancement by Laplacian, a 3 × 3 coefficient array as follows: Is often used. 0 -1 0 -1 -1 -1 1 -2 1 -1 5-1 -1 9-1 -1 -2 5 -2 (4) 0 -1 0 -1 -1 -1 1 -2 1

【0029】この係数配列では、特に強いシャープネス
強調を掛けたときに、画像のエッジに不自然な輪郭が発
生し易い。そこで、そのような欠点を少なくするため
に、本発明では式(5)に示したような正規分布型(Gau
ssian)のぼけ関数を用いたアンシャープマスクを用いる
のが好ましい。 G(x,y)=(1/2πσ2)exp[−(x2 + y2)/2σ2] (5) ここで、σ2 は正規分布関数の広がりを表すパラメータ
であり、マスクの端x=x1 における値とマスクの中心
x=0における値の比、 G(x1,0)/G(0,0)=exp[−x1 2/2σ2] (6) が0.1〜1.0となるように調節することによって、
3×3のアンシャープマスクのシャープさを所望のもの
とすることができる。式(6)の値を1.0に近い値に
すると、式(4)の中央のラプラシアンフィルタとほぼ
同じマスクを作ることができる。マスクのシャープさを
変更するには、この他にマスクの大きさを変更する方法
があり、たとえば5×5、7×7、9×9等のマスクを
用いることによって、シャープネス強調された画像の空
間周波数を大幅に変更することができる。
In this coefficient array, an unnatural contour is likely to occur at the edge of an image when particularly strong sharpness enhancement is applied. Therefore, in order to reduce such a drawback, in the present invention, the normal distribution type (Gau
It is preferable to use an unsharp mask using an ssian) blur function. G (x, y) = (1 / 2πσ 2 ) exp [− (x 2 + y 2 ) / 2σ 2 ] (5) where σ 2 is a parameter representing the spread of the normal distribution function, and the ratio of the values at the center x = 0 of the value and the mask in the x = x 1, G (x 1, 0) / G (0,0) = exp [-x 1 2 / 2σ 2] (6) 0.1 By adjusting to be ~ 1.0,
The sharpness of the 3 × 3 unsharp mask can be made desired. If the value of the expression (6) is set to a value close to 1.0, a mask substantially the same as the central Laplacian filter of the expression (4) can be produced. In order to change the sharpness of the mask, there is another method of changing the size of the mask. For example, by using a mask such as 5 × 5, 7 × 7, 9 × 9, etc. The spatial frequency can be changed significantly.

【0030】また、マスクの関数形としても、上記の正
規分布型以外のもの、たとえば、下記式(7)のような
指数関数型のマスクを用いることができる。 E(x,y)=exp[−(x2 + y2)1/2/a] (7) ここで、aは式(5)のσ2 と同様にアンシャープマス
クの広がりを表すパラメータであり、マスクの端の値と
マスクの中心値の比、 E(x1,0)/E(0,0)=exp[−x1/a] (8) が0.1〜1.0となるように調節することによって、
3×3のアンシャープマスクのシャープさを所望のもの
とすることができる。式(9)に、E(x1,0)/E(0,0)=
0.3としたときの式(7)の指数関数のマスクの数値例
を示す。 0.18 0.30 0.18 0.30 1.00 0.30 (9) 0.18 0.30 0.18 このマスクから、アンシャープマスクの1例を計算する
と、次式(10)のようになる。 −0.12 −0.22 −0.12 −0.21 2.32 −0.21 (10) −0.12 −0.21 −0.12
Further, as the function form of the mask, a mask other than the above normal distribution type, for example, an exponential function type mask as shown in the following equation (7) can be used. E (x, y) = exp [− (x 2 + y 2 ) 1/2 / a] (7) Here, a is a parameter representing the spread of the unsharp mask as in σ 2 in equation (5). And the ratio of the edge value of the mask to the center value of the mask, E (x 1 , 0) / E (0,0) = exp [−x 1 / a] (8): 0.1 to 1.0 By adjusting to become
The sharpness of the 3 × 3 unsharp mask can be made desired. In equation (9), E (x 1 , 0) / E (0,0) =
A numerical example of the mask of the exponential function of Expression (7) when 0.3 is set is shown. 0.18 0.30 0.18 0.30 1.00 0.30 (9) 0.18 0.30 0.18 When this mask is used to calculate an example of an unsharp mask, the following equation (10) is obtained. −0.12 −0.22 −0.12 −0.21 2.32 −0.21 (10) −0.12 −0.21 −0.12

【0031】このようなアンシャープマスクを用いて、
原画像データI0(x,y)からシャープネス強調画像データ
S (x,y)を求めることができる。なお、本発明に用い
られるアンシャープマスクおよびシャープネス強調方法
は、上述したものに限定されるわけではなく、この他の
従来公知のアンシャープマスクや空間周波数フィルタリ
ング等によるシャープネス強調方法を適用可能なことは
もちろんである。
Using such an unsharp mask,
The sharpness-enhanced image data I S (x, y) can be obtained from the original image data I 0 (x, y). The unsharp mask and the sharpness enhancement method used in the present invention are not limited to those described above, and other conventionally known unsharp masks and sharpness enhancement methods using spatial frequency filtering or the like can be applied. Of course.

【0032】次に平滑化工程(ステップ102)につい
て説明する。平滑化を行う方法としては、実空間領域の
処理と空間周波数領域の処理を挙げることができる。実
空間領域処理では、隣接する画素全体の和を求め平均値
を計算してその値に置き換える方法、各画素に重み係
数、たとえば正規分布型の関数を掛けて平均値を求める
方法、メディアンフィルタのような非線型な処理を行う
方法等の種々の方法がある。一方、空間周波数領域の処
理では、ローパスフィルタを掛ける方法がある。たとえ
ば、重み係数を用いる平均化の方法では下記式(11)
を挙げることができる。
Next, the smoothing step (step 102) will be described. Examples of the method of performing the smoothing include processing in the real space domain and processing in the spatial frequency domain. In the real space area processing, a method of calculating the average value by calculating the sum of all adjacent pixels and replacing the average value with the calculated value, a method of multiplying each pixel by a weighting factor, for example, a function of a normal distribution type to obtain an average value, a method of median filter There are various methods such as a method for performing such non-linear processing. On the other hand, in the processing in the spatial frequency domain, there is a method of applying a low-pass filter. For example, in the averaging method using the weight coefficient, the following equation (11) is used.
Can be mentioned.

【数1】 (Equation 1)

【0033】ただし、nは平均化のマスクサイズ、w
(x,y) は重み係数である。w(x,y) =1.0とすると、
単純平均となる。本発明では、実空間領域処理の中で、
正規分布型の重み係数を掛けて平均値を求める方法を用
いるが、これに限定されない。この時、処理のマスクと
しては、下記のようなn×n画素のマスクを用いるのが
好ましい。具体的には3×3から5×5、7×7、9×
9程度のものを用いるのが好ましい。 w11 w12 w13・・・・・ w1n w21 w22 w23・・・・・ w2n w31 w32 w33・・・・・ w3n ・ ・ ・ ・ (12) ・ ・ ・ ・ wn1 wn2 wn3・・・・・ wnn
Where n is the mask size for averaging, w
(x, y) is a weight coefficient. If w (x, y) = 1.0,
Simple average. In the present invention, in the real space domain processing,
A method of multiplying a normal distribution type weighting factor to obtain an average value is used, but the present invention is not limited to this. At this time, it is preferable to use a mask of the following n × n pixels as a processing mask. Specifically, 3 × 3 to 5 × 5, 7 × 7, 9 ×
It is preferable to use about nine. w 11 w 12 w 13・ ・ ・ ・ ・ w 1n w 21 w 22 w 23・ ・ ・ ・ ・ ・ ・ w 2n w 31 w 32 w 33・ ・ ・ ・ ・ w 3n・ ・ ・ ・ (12) ・ ・ ・ ・w n1 w n2 w n3 ... w nn

【0034】式(13 )に9×9画素のマスクの一例を
示す。この式(13)では中心の値を1.0に正規化し
た値で示しているが、実際の処理ではマスク全体の和が
1.0になるようにする。 0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09 0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15 0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22 0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28 0.30 0.51 0.74 0.93 1.00 0.93 0.74 0.51 0.30 (13) 0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28 0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22 0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15 0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09
Equation (13) shows an example of a mask of 9 × 9 pixels. In this equation (13), the center value is represented by a value normalized to 1.0, but in actual processing, the sum of the entire mask is set to 1.0. 0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09 0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15 0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22 0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28 0.30 0.51 0.74 0.93 1.00 0.93 0.74 0.51 0.30 (13) 0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28 0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22 0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15 0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09

【0035】このようなマスクを用いて、原画像データ
0(x,y)から平滑化画像データIAV(x,y)を求めること
ができる。なお、本発明に用いられる平滑化方法として
は、上述した種々の方法に限定されるわけではなく、従
来公知の平滑化方法はいずれも適用可能なことはいうま
でもない。
Using such a mask, the smoothed image data I AV (x, y) can be obtained from the original image data I 0 (x, y). Note that the smoothing method used in the present invention is not limited to the various methods described above, and it goes without saying that any conventionally known smoothing methods can be applied.

【0036】次いで、エッジ・ノイズ混在成分の抽出工
程(ステップ104)について説明する。シャープネス
工程(ステップ100)および平滑化工程(ステップ1
02)で得られたシャープネス強調画像データIS (x,
y)と平滑画像データIAV(x,y) から、下記式(14)
に従って、両者の差を計算し、シャープネス強調された
ノイズとエッジとの混在する微細構造データであるエッ
ジ・ノイズ混在成分ΔIEG(x,y) を抽出する。 ΔIEG(x,y)=IS (x,y) −IAV(x,y) (14)
Next, the step of extracting edge / noise mixed components (step 104) will be described. Sharpness step (step 100) and smoothing step (step 1)
02) obtained in the sharpness enhanced image data I S (x,
y) and the smoothed image data I AV (x, y), the following equation (14)
, The edge / noise mixed component ΔI EG (x, y), which is the fine structure data in which the noise and the edge in which the sharpness is emphasized are mixed, is extracted. ΔI EG (x, y) = I S (x, y) −I AV (x, y) (14)

【0037】次に、エッジ検出工程(ステップ106)
について説明する。ここでは、一例として局所分散方式
によるエッジ検出を代表例として説明するが、本発明は
これに限定される訳ではない。
Next, an edge detection step (step 106)
Will be described. Here, edge detection by a local distribution method will be described as a typical example, but the present invention is not limited to this.

【0038】エッジ検出を行う際に先ず、以下のような
前処理による濃度変換を行う。このような前処理を行う
のは、カラー画像データを構成するR画像データとG画
像データとB画像データで相関のない粒状をはじめとす
るノイズ成分を減少させ以降で行うエッジ検出の際の精
度を向上するためである。すなわち、式(15)に示し
たように、原画像データI0(x,y)のR,G,Bの3色の
濃度値DR ,DG ,DB に重み係数r,g,bを掛けて
視覚濃度(Visualdensity)DV に変換する。 DV =(rDR +gDG +bDB )/(r+g+b) (15) 重み係数としては、例えば、r:g:b=4:5:1の
ような値を用いる。この変換を行うのは、R,G,Bで
相関の無い粒状やノイズを減少させ、エッジ検出の精度
を向上させるためである。前処理の配列の大きさは範囲
は5×5、あるいは7×7画素程度のものを用いるのが
よいが、それは、後述する所定の配列内の画像濃度の変
動を、配列内で小さい配列、例えば、3×3程度の配列
を用いて、移動しながら計算するためである。
When performing edge detection, first, density conversion is performed by the following preprocessing. Such pre-processing is performed by reducing noise components such as granularity having no correlation between the R image data, the G image data, and the B image data constituting the color image data, and reducing the accuracy in edge detection performed thereafter. It is for improving. That is, as shown in equation (15), the original image data I 0 (x, y) R a, G, 3-color density values D R of B, D G, weighting coefficient r in D B, g, b the over into a visual density (Visualdensity) D V. The D V = (rD R + gD G + bD B) / (r + g + b) (15) weighting coefficients, for example, r: g: b = 4 : 5: using a value such as 1. This conversion is performed to reduce graininess and noise that have no correlation between R, G, and B, and to improve the accuracy of edge detection. The size of the array of the pre-processing is preferably set to a range of about 5 × 5 or about 7 × 7 pixels. For example, the calculation is performed while moving using an array of about 3 × 3.

【0039】なお、エッジ検出における重み係数r,
g,bは以下のようにして求めることができる。重み係
数については、視覚で観察したときに目立つ(これは、
分光的な視感度分布に対応するという見方もあるが)、
すなわち寄与の大きい色の画像データの重み係数が大き
いという考えに基づいて最適な値に設定するのが好まし
い。一般には、視覚評価実験等に基づいて経験的な重み
係数が求められており、下記のような値が一般的な知見
として知られている(公知文献としては、野口高史、
「心理対応の良い粒状評価法)、日本写真学会誌,57
(6),415(1994)があり、色によって異なる
が、下記の比に近い数値が示されている)。 r:g:b=3:6:1 r:g:b=4:5:1 r:g:b=2:7:1 (16) ここで、係数の比r:g:bとして好ましい値の範囲を
規定するとすれば、r+g+b=10.0でbを1.0
としたときに、gの値として、 g=5.0〜7.0 の範囲の値が好ましい。ただし、r=10.0−b−g
である。
Note that the weight coefficients r,
g and b can be obtained as follows. The weighting factor is noticeable when observed visually (this is because
There is a view that it corresponds to the spectral visibility distribution),
That is, it is preferable to set the optimum value based on the idea that the weight coefficient of the image data of the color having a large contribution is large. Generally, an empirical weighting factor is obtained based on a visual evaluation experiment or the like, and the following values are known as general knowledge (known literature includes Takashi Noguchi,
"Good granularity evaluation method for psychological response", Journal of the Photographic Society of Japan, 57
(6), 415 (1994), which vary depending on the color, but indicate values close to the following ratios). r: g: b = 3: 6: 1 r: g: b = 4: 5: 1 r: g: b = 2: 7: 1 (16) Here, a preferable value of the coefficient ratio r: g: b If the range is defined as follows, r + g + b = 10.0 and b is 1.0
In this case, the value of g is preferably in the range of g = 5.0 to 7.0. Where r = 10.0−b−g
It is.

【0040】次ぎに、エッジ検出工程(ステップ10
6)の局所分散によるエッジ検出について説明する。エ
ッジの検出は、上記視覚濃度DV の画像データからnE
×nE 画素の配列を移動しつつ、配列内の画像濃度変動
を式(17)を用いて、その位置毎の局所的な標準偏差
である局所分散σを順次注目画素(x,y) ごとに計算する
ことによって、画像中の被写体エッジの検出を行う。画
素配列の大きさ(nE ×nE )は、検出精度および計算
負荷を考慮して適宜決めればよいが、例えば3×3、あ
るいは5×5程度の大きさを用いるのが好ましい。
Next, an edge detecting step (step 10)
Edge detection by local variance of 6) will be described. Detection of edges, n E from the image data of the visual density D V
While moving the array of × n E pixels, the image density variation in the array is calculated using Equation (17), and the local variance σ, which is the local standard deviation for each position, is sequentially determined for each pixel of interest (x, y). , The edge of the subject in the image is detected. The size (n E × n E ) of the pixel array may be determined as appropriate in consideration of the detection accuracy and the calculation load. For example, it is preferable to use a size of about 3 × 3 or 5 × 5.

【0041】[0041]

【数2】 ただし、注目画素位置をx 、y とし、DV (x+i-n/2 -1/
2, y+j-n/2-1/2) は局所分散σ(x,y)を計算するnE ×
E の画素配列の濃度で、< DV (x,y) > はその配列の
平均濃度で、
(Equation 2) However, let the target pixel position be x, y, and DV (x + in / 2 -1 /
(2, y + jn / 2-1 / 2) is n E × which calculates local variance σ (x, y).
at a concentration of pixel array of n E, <D V (x , y)> is the average concentration of the array,

【数3】 である。(Equation 3) It is.

【0042】原画像データIO (x,y)から、上記式
(17)に示した局所分散σ(x,y)を計算し、被写体画
像のエッジ強度EO (x,y) を求めるには、下記式(1
9)のような指数関数で表した式を用いる。 EO (x,y) =1− exp [−σ(x,y)/aE ] (19) ただし、aE は局所分散σ(x,y)の値をエッジ強度に変
換する際の係数であって、エッジ強度EO =0.5に割
り付ける局所分散σ(x,y)の閾値σT とすると、 aE =−σT / loge (0.5) (20) である。σT の値は、粒状と被写体輪郭の信号の大きさ
によって適切な値にする必要があるが、各色8bit
(256階調)のカラー画像では、10〜100の範囲
の値が好ましい。この変換は、ルックアップテーブルと
して作成しておくと、変換に要する計算時間を短縮する
ことができる。
From the original image data I O (x, y), the local variance σ (x, y) shown in the above equation (17) is calculated to obtain the edge strength E O (x, y) of the subject image. Is given by the following equation (1)
An expression expressed by an exponential function such as 9) is used. E O (x, y) = 1−exp [−σ (x, y) / a E ] (19) where a E is a coefficient for converting the value of the local variance σ (x, y) into edge strength. Where a threshold σ T of the local variance σ (x, y) allocated to the edge strength E O = 0.5, a E = −σ T / log e (0.5) (20) The value of σ T needs to be an appropriate value depending on the size of the signal of the granularity and the contour of the subject.
For a (256 gradation) color image, a value in the range of 10 to 100 is preferable. If this conversion is created as a look-up table, the calculation time required for the conversion can be reduced.

【0043】エッジ強度EO (x,y) を求める変換式とし
ては、上記式に限定されるものではなく、他の式を用い
ることもできる。たとえば、下記式のようなガウシャン
型の関数を用いてもよい。 EO (x,y) =1− exp{− [σ(x,y)]2 /aE1 2 } (21) ただし、aE1はσ(x,y) からEO (x,y) に変換する際の
係数で、EO (x,y) =0.5に割り付ける局所分散σ
(x,y) の閾値をσT とすると、 aE1 2 =−σT 2 / loge (0.5) (22) である。σT の値は、各色8bit(256階調)のカ
ラー画像では、10〜100の範囲の値が好ましい。
The conversion equation for obtaining the edge strength E O (x, y) is not limited to the above equation, and another equation can be used. For example, a Gaussian function such as the following equation may be used. E O (x, y) = 1−exp {− [σ (x, y)] 2 / a E1 2 } (21) where a E1 is converted from σ (x, y) to E O (x, y). Local variance σ to be assigned to E O (x, y) = 0.5
(x, y) when the threshold value of the sigma T, which is a E1 2 = -σ T 2 / log e (0.5) (22). The value of σ T is preferably in the range of 10 to 100 for a color image of 8 bits (256 gradations) for each color.

【0044】また、このエッジ強度データEO (x,y)
は、以下に示す式(23)のように、最大の局所分散デ
ータσMax で正規化され、0以上1以下の正規化された
エッジ強度データEO (x,y) を得てもよい。 E0 (x,y) = σ(x,y) /σMax (23) ここで、σmax は、局所分散データσ (x,y)の最大値
で、σ (x,y)を正規化するための定数である。σMax
決定方法は、式(23)で求めた画像全体の局所分散デ
ータσ (x,y)から下記式(24)のように最大値を求め
る。 σMax =Max{σ (x,y)} (24)
The edge strength data E O (x, y)
May be normalized with the maximum local variance data σ Max to obtain normalized edge strength data E O (x, y) of 0 or more and 1 or less as shown in the following Expression (23). E 0 (x, y) = σ (x, y) / σ Max (23) where σ max is the maximum value of the local variance data σ (x, y), and σ (x, y) is normalized. Is a constant for The method for determining σ Max is to obtain the maximum value from the local variance data σ (x, y) of the entire image obtained by Expression (23) as in Expression (24) below. σ Max = Max {σ (x, y)} (24)

【0045】また、画像全体からの最大値を用いず、画
像データの一部分、例えば画像の重要被写体のある確率
の高い中央部分の特定範囲、あるいは全画像から間引い
た画像データ(原画像データの1/4〜1/10程度)
から上記式(23)や(24)を用いて最大値σMax
求めてもよい。この場合、画像中央部分の特定範囲の画
像データや間引いた画像データは、画像処理を施して処
理画像データを得る前に予め粗い画素密度で得ることの
できる各種処理条件調整用原画像データ(プレスキャン
画像データ)を用いてもよいし、原画像データから抜き
出してもよい。より好ましくは、σMax は、局所分散デ
ータσ (x,y)を大きい値から順番に並べた際の上位5〜
10%以内に位置する値の平均値,例えば上位10%以
内に位置する値の平均値<σ (x,y)>Max10%をσMax
し、σ (x,y)がこのσMax を超える場合、すべてσMax
に置き換える。この場合、平均値は、画像全体の平均値
でも、重要被写体が撮影される場合の多い中央部分の所
定の範囲の平均値でも、あるいは、間引いた画像データ
の平均値であってもよい。
Further, instead of using the maximum value from the entire image, a part of the image data, for example, a specific range of a central portion where an important subject of the image has a high probability, or image data thinned from the entire image (1 of the original image data). / 4 to 1/10)
May be used to determine the maximum value σ Max using the above equations (23) and (24). In this case, the image data of a specific range in the central portion of the image or the thinned image data is obtained by various processing condition adjustment original image data (press image data) which can be obtained in advance at a coarse pixel density before obtaining the processed image data by performing image processing. (Can image data) or may be extracted from the original image data. More preferably, σ Max is the top 5 when local variance data σ (x, y) is arranged in descending order.
Average of values located within 10%, for example the mean value of the values located within the upper 10% <σ (x, y)> a MAX 10% and σ Max, σ (x, y ) exceeds this sigma Max Σ Max
Replace with In this case, the average value may be an average value of the entire image, an average value of a predetermined range in a central portion where an important subject is often photographed, or an average value of thinned image data.

【0046】ところで、本発明におけるエッジ検出法と
しては、上記局所分散方式のエッジ検出法に限定される
わけではなく、他のエッジ検出法も利用可能である。上
記局所分散方式以外のエッジ検出法には、一次微分や二
次微分に基づく方法があり、それぞれに、更に幾つかの
方法がある。まず、空間的な一次微分に基づく方法とし
ては、下記の2つのオペレータがある。差分型エッジ抽
出オペレータとして、 Prewittのオペレータ、 Sobelの
オペレータ、 Robertsのオペレータなどがある。 Rober
tsのオペレータは下記式で表わすことができる。 g(i,j)={[f(i,j) - f(i+l,j+l)]2+[f(i+l,j) - f(i,
j+l)]21/2 テンプレート型オペレータとして、8方向のエッジパタ
ーンに相当する3×3テンプレートを用いる Robinson
のオペレータや Kirshのオペレータがある。次に、空間
的な二次微分に基づく方法としては、ラプラシアンを用
いた方法がある。この場合、雑音を強調してしまうの
で、先ず正規分布型のぼかし処理をしてからエッジ検出
する方法が良く用いられる。
Incidentally, the edge detection method in the present invention is not limited to the above-described edge detection method of the local distribution method, and other edge detection methods can also be used. Edge detection methods other than the above-described local dispersion method include methods based on first-order differentiation and second-order differentiation, and there are some more methods for each. First, as a method based on the spatial first derivative, there are the following two operators. There are Prewitt operators, Sobel operators, and Roberts operators as differential edge extraction operators. Rober
The operator of ts can be expressed by the following equation. g (i, j) = {[f (i, j)-f (i + l, j + l)] 2 + [f (i + l, j)-f (i,
j + l)] As a 21/2 template type operator, use a 3 × 3 template corresponding to an edge pattern in eight directions Robinson
Operators and Kirsh operators. Next, as a method based on the spatial second derivative, there is a method using Laplacian. In this case, noise is emphasized. Therefore, a method of first performing normal distribution type blur processing and then detecting edges is often used.

【0047】次に、エッジ・ノイズ重み付け係数の計算
工程(ステップ108)を説明する。エッジ検出工程
(ステップ106)で得られるエッジ強度データE
O (x,y) を用いて、下記式(25)に従って、エッジ領
域の重み付け係数WE (x,y) を求める。 WE (x,y) =1−αE +αE 0 (x,y) (25) さらに、ノイズ領域の重み付け係数WG (x,y) を、下記
式(26)に従って求める。 WG (x,y) =1−WE (x,y) (26) ここで、αE はエッジ領域とノイズ領域の重み付けを設
定する定数であり、オペレータが0以上1以下の任意の
値を設定することができる。エッジ領域の重み付け係数
E (x,y) は、1−αE 以上1以下の値となり、W
E (x,y) が大きいほど、その画素位置で被写体のエッジ
領域である確率が高いと判断され、WE (x,y) が小さい
ほど、その画素位置でノイズ領域である確率が高いと判
断される。正規化されたエッジ強度データE0 (x,y) が
1.0に近い値となるエッジ領域では、αE の値にかか
わらずエッジ領域の重み付け係数WE (x,y) が1.0に
近い大きい値となり、ノイズ領域の重み付け係数W
G (x,y) は最も小さくなる。一方、正規化されたエッジ
強度データE0 (x,y) が1.0より小さくなるに連れ、
エッジ領域の重み付け係数WE (x,y) は最小値1−αE
に近づき、ノイズ領域の重み付けデータWG (x,y) は最
大値αE に近づく。このようなα E は一定の値にデフォ
ルト値として予め設定しておき、オペレータがこのデフ
ォルト値によって画像処理された処理画像を見ながらα
E の値を必要に応じて調整するようにしてもよい。な
お、αE が1の場合、正規化されたエッジ強度データE
O (x,y) 自身がエッジ領域の重み付け係数WE (x,y) と
なり、1.0−EO (x,y) がノイズ領域の重み付け係数
G (x,y) となる。
Next, calculation of the edge noise weighting coefficient
The process (step 108) will be described. Edge detection process
Edge strength data E obtained in (Step 106)
OUsing (x, y), the edge area is calculated according to the following equation (25).
Area weighting factor WEFind (x, y). WE(x, y) = 1−αE+ ΑEE0(x, y) (25) Further, the weighting coefficient W of the noise regionG(x, y)
It is determined according to equation (26). WG(x, y) = 1-WE(x, y) (26) where αESets the weight of the edge region and the noise region.
This is a constant that is specified by the operator.
You can set a value. Edge area weighting factor
WE(x, y) is 1-αEAnd the value is 1 or less, and W
EThe larger (x, y) is, the more
It is determined that the region is highly probable, and WE(x, y) is small
The higher the probability of being a noise area at that pixel position.
Refused. Normalized edge strength data E0(x, y) is
In an edge region having a value close to 1.0, αEThe value of
The weight coefficient W of the edge regionE(x, y) increased to 1.0
A close large value, and the weighting coefficient W of the noise region
G(x, y) is the smallest. On the other hand, the normalized edge
Strength data E0As (x, y) becomes smaller than 1.0,
Edge area weighting coefficient WE(x, y) is the minimum value 1-αE
, And the weighted data W of the noise regionG(x, y) is
Large value αEApproach. Such α EDefaults to a constant value.
The default value is set in advance, and the operator
While looking at the processed image processed by the default value, α
EMay be adjusted as needed. What
Contact, αEIs 1, the normalized edge intensity data E
O(x, y) itself is the weight coefficient W of the edge region.E(x, y) and
1.0-EO(x, y) is the noise area weighting factor
WG(x, y).

【0048】次に、エッジ・ノイズの識別・分離工程
(ステップ110)について説明する。エッジ・ノイズ
混在成分の抽出工程(ステップ104)で得られたシャ
ープネス強調されたエッジ・ノイズ混在成分ΔIEG(x,
y) に、下記式(27)および(28)で示されるよう
に、エッジ・ノイズ重み付け係数計算工程(ステップ1
08)で得られたエッジ領域の重み付け係数WE (x,y)
とノイズ領域の重み付け係数WG (x,y) とをそれぞれ乗
算して、シャープネス強調されたエッジ強調データE1
(x,y) とシャープネス強調処理の施されたノイズデータ
0 (x,y) を求める。 E1 (x,y) =ΔIEG(x,y) × WE (x,y) (27) G0 (x,y) =ΔIEG(x,y) × WG (x,y) (28 )
Next, the step of identifying and separating edge noise (step 110) will be described. Edge / noise mixed component ΔI EG (x,
y), as shown in the following equations (27) and (28), an edge noise weighting coefficient calculating step (step 1)
08) weighting coefficient W E (x, y) of the edge region obtained in step 08)
And the noise area weighting coefficient W G (x, y), respectively, to obtain sharpened edge-enhanced data E 1.
(x, y) and noise data G 0 (x, y) subjected to sharpness enhancement processing are obtained. E 1 (x, y) = ΔI EG (x, y) × W E (x, y) (27) G 0 (x, y) = ΔI EG (x, y) × W G (x, y) ( 28)

【0049】次に、ノイズ圧縮LUT作成工程(ステッ
プ112)について説明する。ノイズ圧縮LUT作成工
程は、エッジ・ノイズの識別・分離工程(ステップ11
0)において求められたシャープネス強調処理の施され
たノイズデータG0 (x,y) の振幅を、非線形に抑制する
ルックアップテーブルLGCを予め作成する。すなわち、
シャープネス強調処理が施されてノイズの強調されたノ
イズデータG0 (x,y) の振幅を、ノイズデータG0 の大
小関係が逆転することなく圧縮する圧縮率が、この振幅
が大きくなるにつれて滑らかに大きくなるように、式
(1)に従って、振幅非線型圧縮変換のルックアップテ
ーブルLGCを作成する。すなわち、式(1)に示される
i に対するLGC(Gi )をグラフ化すると、図4に示
されるように、Gi に対して単調増加であり、一定の値
max に収束する曲線Pで表すことができる。ここでG
i は、後述するようにルックアップテーブルLGCを用い
て振幅の抑制されたノイズ振幅抑制データG1 (x,y) を
得るための入力値であり、ノイズの強調されたノイズデ
ータG0 (x,y) を入力値とするため、LGC(Gi )をグ
ラフ化した曲線PはノイズデータG0 の振幅の圧縮の程
度を示す。すなわち、曲線Pは、Gi が0に近い小さな
値の場合、原点を通る勾配が一定の直線Qに近接し、す
なわち変換による圧縮率がほぼ一定であるが、Giが大
きくなると、曲線Pの勾配が徐々に小さくなり、変換に
よる圧縮率が大きくなる。
Next, the noise compression LUT creation step (step 112) will be described. The noise compression LUT creation process includes an edge / noise identification / separation process (step 11).
A look-up table LGC for nonlinearly suppressing the amplitude of the noise data G 0 (x, y) subjected to the sharpness enhancement process obtained in step 0) is created in advance. That is,
The compression rate for compressing the amplitude of the noise data G 0 (x, y) to which the sharpness enhancement processing has been performed and the noise is enhanced without reversing the magnitude relationship of the noise data G 0 becomes smoother as the amplitude increases. The lookup table LGC of the amplitude non-linear compression conversion is created according to the equation (1) so as to be larger. That is, when L GC (G i ) for G i shown in the equation (1) is graphed, as shown in FIG. 4, the curve is monotonically increasing for G i and converges to a constant value G max. It can be represented by P. Where G
i is an input value for obtaining noise amplitude suppression data G 1 (x, y) whose amplitude is suppressed using the look-up table L GC as described later, and the noise data G 0 ( Since x, y) is an input value, a curve P obtained by graphing L GC (G i ) indicates the degree of compression of the amplitude of the noise data G 0 . That is, the curve P in the case of small value close to G i is 0, the slope passing through the origin is close to the constant linear Q, that is, the compression ratio by the conversion is substantially constant, the G i increases, the curve P Gradually decreases, and the compression ratio by the conversion increases.

【0050】また、GT は、ルックアップテーブルLGC
の非線形圧縮の特徴を規定する振幅非線型圧縮定数で、
画像に含まれるノイズの大きさやシャープネス強調の強
さに応じて適切な値を入力することができる。例えば、
まず、原画像領域全体でのノイズデータG0 の変動、す
ばわちノイズ標準偏差σG を下記式(29)によって求
める。
G T is a lookup table L GC
Is an amplitude nonlinear compression constant that defines the characteristics of nonlinear compression of
An appropriate value can be input according to the size of noise included in the image or the strength of sharpness enhancement. For example,
First, the fluctuation of the noise data G 0 in the entire original image area, that is, the noise standard deviation σ G is obtained by the following equation (29).

【数4】 ここで、Nx およびNy は、原画像の縦方向および横方
向の画素数であり、N G は、下記式(30)によって定
まるノイズ領域の重み付け係数WG (x,y) の原画像領域
全体の総和である。
(Equation 4)Where NxAnd NyIs the vertical and horizontal direction of the original image
The number of pixels in the direction GIs determined by the following equation (30).
Weighting coefficient W of the entire noise regionG(x, y) original image area
It is the total sum of all.

【数5】 (Equation 5)

【0051】次に、式(29)で得られたノイズ標準偏
差σG に、下記式(31)のように一定の調整係数を掛
けてノイズ圧縮閾値GT を求める。 GT = kG ・σG (31) ここで、調整係数kG は、0.5〜2.0の範囲の値が
好ましい。ここで、ノイズ圧縮閾値GT を求めるノイズ
標準偏差σG は、原画像の全領域、すなわち全画素につ
いての標準偏差であるが、必ずしも全画素である必要は
なく、原画像の画像データの一部分、例えば画像の重要
被写体のある可能性の高い中央部分の特定の領域のノイ
ズデータG0 の標準偏差や、原画像の画像データから間
引いた原画像の画像データの1/4〜1/10程度のノ
イズデータG0 の標準偏差を用い、式(31)よりノイ
ズ圧縮閾値GT を求めてもよい。
Next, the noise standard deviation sigma G obtained in equation (29), we obtain the noise reduction threshold G T multiplied by a constant adjustment factor by the following equation (31). G T = k G · σ G (31) Here, the adjustment coefficient k G is preferably a value in the range of 0.5 to 2.0. Here, the noise standard deviation sigma G seeking noise reduction threshold G T, the total area of the original image, i.e. the standard deviation for all pixels need not necessarily be all the pixels, a portion of the image data of the original image , for example, the standard deviation of the noise data G 0 specific area of the high probability of a principal object central portion of the image, about 1 / 4-1 / 10 of the image data of the original image obtained by thinning the image data of the original image using the standard deviation of the noise data G 0, it may be determined noise threshold of compression G T from the formula (31).

【0052】また、ノイズ圧縮閾値GT を求める方法と
して、上記方法の他に、下記式(32)で示されるよう
に、ノイズゆらぎ成分であるノイズデータG0 の絶対値
の原画像の領域の全画素の平均値<|G0 |>を求め、
これを式(31)のノイズ標準偏差σG の替わりに用い
て、ノイズ圧縮閾値GT を定めてもよい。
[0052] Further, as a method of obtaining the noise reduction threshold G T, in addition to the above methods, as represented by the following formula (32), the original image of the absolute value of the noise data G 0 is the noise fluctuation component region of The average value <| G 0 |> of all pixels is obtained,
This was used in place of the noise standard deviation sigma G of formula (31) may be determined noise threshold of compression G T.

【数6】 この場合、ノイズ標準偏差σG を求める場合と同様に、
原画像の画像データの一部分、例えば画像の重要被写体
のある可能性の高い中央部分の特定の領域のノイズデー
タG0 の平均値や、原画像の画像データから間引いた原
画像の画像データの1/4〜1/10程度のノイズデー
タG0 の平均値であってもよい。このようなノイズ圧縮
閾値GT を用いることで、Gi がノイズ圧縮閾値GT
値と等しい場合、 LGC(Gi )の値は、Gmax の半分
の値となる。
(Equation 6) In this case, as in the case of calculating the noise standard deviation σ G ,
Portion of the image data of the original image, for example, the average value and the noise data G 0 for a specific region of the high middle part possibly a principal object of the image, the image data of the original image obtained by thinning the image data of the original image 1 The average value of the noise data G 0 of about 4 to 1/10 may be used. By using such a noise compression threshold G T , when G i is equal to the value of the noise compression threshold G T , the value of L GC (G i ) is half of G max .

【0053】また、式(1)に示すGmax は、ノイズ振
幅抑制データG1 (x,y) の振幅の圧縮レベルを調整する
振幅調整定数であり、所定の値に定めることができる。
例えば、原画像データ各色ともに8ビットのカラー画像
データの場合、1〜50程度の値が好ましく、より好ま
しくは1〜20の範囲の値が好ましい。この振幅圧縮定
数Gmax が処理画像のノイズの大きさを定め、この値を
小さくするとノイズの振幅は小さく画像は滑らかにな
り、この値を大きくするとノイズは目立つようになる。
G max shown in equation (1) is an amplitude adjustment constant for adjusting the compression level of the amplitude of the noise amplitude suppression data G 1 (x, y), and can be set to a predetermined value.
For example, in the case of 8-bit color image data for each color of the original image data, a value of about 1 to 50 is preferable, and a value of 1 to 20 is more preferable. The amplitude compression constant Gmax determines the magnitude of the noise of the processed image. When this value is reduced, the noise amplitude is small and the image is smooth, and when this value is increased, the noise becomes conspicuous.

【0054】本発明の画像処理方法および画像処理装置
の振幅非線型圧縮変換は、本実施例で用いられる式
(1)に示す指数関数を用いた変換に限られず、ノイズ
データG 0 (x,y) の圧縮変換による振幅の大小関係が逆
転することなく、ノイズデータG 0 (x,y) の振幅を圧縮
する圧縮率が、振幅が大きくなるにつれて滑らかに大き
くなる振幅非線型圧縮変換であれば、特に制限されな
い。従来のように、画像処理によって、ノイズ領域に不
自然な境界を生じさせることがなく、自然な形でノイズ
抑制が達成されるからである。すなわち、シャープネス
強調されて振幅の強調されたノイズ成分を、ノイズ領域
の重み付け係数WG (x,y) によって選択的に識別して、
ノイズの振幅の大きな部分を自然な形で大きく圧縮する
ことができるからである。
Image processing method and image processing apparatus of the present invention
The amplitude non-linear compression conversion of the equation
Not only the conversion using the exponential function shown in (1) but also noise
Data G 0The magnitude relation of the amplitude by the compression conversion of (x, y) is reversed
Noise data G without turning 0Compress the amplitude of (x, y)
Compression ratio increases smoothly as the amplitude increases.
There is no particular limitation on the amplitude non-linear compression conversion.
No. As in the past, image processing allowed
Noise in natural form without creating natural boundaries
This is because suppression is achieved. That is, sharpness
The noise component whose amplitude has been emphasized and
Weighting coefficient WGselectively identified by (x, y)
Naturally compress large portions of noise with large amounts
Because you can do it.

【0055】次に、ノイズ成分の圧縮工程(ステップ1
14)について説明する。エッジ・ノイズの識別・分離
工程(ステップ110)において求めたノイズデータG
0 (x,y) から、このノイズデータG0 (x,y) の振幅を非
線形圧縮するために上記ノイズ圧縮LUT作成工程(ス
テップ112)で作成したルックアップテーブルL
GC(Gi )を用いて、下記式(33)にしたがって、ノ
イズデータG0(x,y) の振幅を圧縮し変動の小さい抑制
ノイズデータG1 (x,y) を求める。 G1 (x,y) = LGC(G0 (x,y)) (33) なお、予め作成された非線形変換のルックアップテーブ
ルにおいて、対応する入力値がない場合、所定の内挿補
間等を行ってノイズ振幅抑制データGi (x,y)を求め
る。
Next, a noise component compression step (step 1)
14) will be described. Noise data G obtained in the edge / noise identification / separation step (step 110)
0 (x, y), the lookup table L created in the noise compression LUT creation step (step 112) to nonlinearly compress the amplitude of the noise data G 0 (x, y).
Using GC (G i ), the amplitude of the noise data G 0 (x, y) is compressed according to the following equation (33) to obtain suppressed noise data G 1 (x, y) with small fluctuation. G 1 (x, y) = L GC (G 0 (x, y)) (33) If there is no corresponding input value in the look-up table of the non-linear conversion created in advance, a predetermined interpolation or the like is performed. To obtain the noise amplitude suppression data G i (x, y).

【0056】このようにノイズデータG0 (x,y) に施す
圧縮率が非線形な圧縮変換は、一定の圧縮率で圧縮する
線型な圧縮変換と比べ、同じノイズ領域でもノイズデー
タG 0 (x,y) の振幅に応じて圧縮率が変化するので、す
なわち小さな振幅では圧縮率が小さく、振幅が大きくな
るにつれて滑らかに圧縮率が大きくなるので、粒状をは
じめとするノイズによるゆらぎの振幅を、線型な圧縮変
換に比べてより均一にすることができる。
As described above, the noise data G0apply to (x, y)
Non-linear compression conversion compresses at a fixed compression rate
Compared to linear compression conversion, noise data is
TA G 0Since the compression ratio changes according to the amplitude of (x, y),
In other words, the compression ratio is small and the amplitude is
As the compression ratio increases smoothly as the
The amplitude of fluctuations caused by noisy noise is reduced by linear compression
It can be made more uniform as compared with the replacement.

【0057】最後に、ノイズ抑制・シャープネス強調演
算工程(ステップ116)について説明する。平滑化工
程(ステップ102)で作成された平滑化画像データI
AV(x,y)に、下記式(34)に示されるように、ノイズ
成分の圧縮工程(ステップ114)で求められたノイズ
振幅抑制データG1 (x,y)と、エッジ・ノイズの識別・
分離工程(ステップ110)で求められたエッジ強調デ
ータE1 (x,y)を加算して、ノイズ領域ではノイズを抑
制し、エッジ領域ではシャープネス強調した処理画像デ
ータI1 (x,y)を得る。 I1 (x,y) =IAV(x,y) + E1 (x,y) + G1 (x,y) (34)
Finally, the noise suppression / sharpness enhancement calculation step (step 116) will be described. Smoothed image data I created in the smoothing step (step 102)
As shown in the following equation (34), the noise amplitude suppression data G 1 (x, y) obtained in the noise component compression step (step 114) is distinguished from AV (x, y) by edge noise.・
The edge-emphasized data E 1 (x, y) obtained in the separation step (step 110) is added to suppress the noise in the noise region, and the processed image data I 1 (x, y) in which the sharpness is enhanced in the edge region. obtain. I 1 (x, y) = I AV (x, y) + E 1 (x, y) + G 1 (x, y) (34)

【0058】このような本発明の画像処理方法および装
置は、銀塩カラー写真、例えば35mmカラーネガフィ
ルムに撮影した写真画像に適用することができ、エッジ
領域はシャープネス強調し、ノイズ領域は、ノイズデー
タの振幅の大小関係が逆転することなく、ノイズデータ
を圧縮する圧縮率が、振幅が大きくなるにつれて滑らか
に大きくなる振幅非線型圧縮変換を施すので、平滑化に
よる粒状抑制を行って粒状がぼけて大きいむらが視覚的
に不快に見えることがなく、コントラストの低い画像デ
ータが粒状と誤認されて抑制あるいは除去されることも
なく、さらに粒状除去する領域とシャープネス強調する
領域の境界が不連続になり画像に不自然なアーティファ
クトが見られることもなく、ノイズとシャープネスに関
し一見して明らかな程度に顕著な画質の向上を得ること
ができる。特に、粒状については、銀塩カラー写真のネ
ガフィルムの感光材料の微粒子化に粒状改良に匹敵する
処理効果を持つため、従来の平均化やゆらぎの減少に基
づく各種の粒状除去処理の欠点であった「ぼけ粒状」の
ような不自然さや違和感を生じさせない。さらに、シャ
ープネスについては、粒状抑制と組み合わせることによ
り、従来のアンシャープマスクやラプラシアンフィルタ
より大幅なシャープネス強調効果が得られる。また、デ
ジタルスチルカメラで撮影した画像に適用しても、上記
カラーフィルムによる画像と同様に、視覚的に自然な形
でノイズを抑制しつつ、エッジを強調した画像が得ら
れ、顕著な画質向上が得られる。
The image processing method and apparatus of the present invention can be applied to silver halide color photographs, for example, photographic images photographed on a 35 mm color negative film, in which edge areas are sharpened and noise areas are noise data. The compression ratio for compressing the noise data is increased without increasing the magnitude relationship of the amplitude, and the amplitude non-linear compression conversion is performed so that it increases smoothly as the amplitude increases.Therefore, the granularity is suppressed by smoothing and the granularity is blurred. Large irregularities do not appear visually uncomfortable, low-contrast image data is not mistakenly recognized as granular, and is not suppressed or removed.In addition, the boundary between the area to be removed and the area to be sharpened is discontinuous. At-a-glance clarity in noise and sharpness without unnatural artifacts in the image It can be obtained to improve the remarkable picture quality to an extent. In particular, with regard to the granularity, since it has a processing effect comparable to the improvement of the granularity in making the photosensitive material of a silver halide color photographic negative film into fine particles, it is a drawback of various types of granular removal processing based on the conventional averaging and reduction of fluctuation. It does not cause unnaturalness or discomfort such as "blurred grain". Further, with regard to sharpness, by combining with graininess suppression, a sharpness emphasis effect that is greater than that of a conventional unsharp mask or Laplacian filter can be obtained. Also, when applied to images taken with a digital still camera, similar to the above-described color film images, an image with emphasized edges is obtained while suppressing noise in a visually natural manner, and a remarkable improvement in image quality is obtained. Is obtained.

【0059】以上、本発明の画像処理方法および画像処
理装置について詳細に説明したが、本発明は上記実施例
に限定はされず、本発明の要旨を逸脱しない範囲におい
て、各種の改良および変更を行ってもよいのはもちろん
である。
The image processing method and the image processing apparatus of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be made without departing from the gist of the present invention. Of course you can do it.

【0060】[0060]

【発明の効果】以上、詳細に説明したように、本発明の
画像処理方法および画像処理装置によれば、先ず画像を
シャープネス強調することによって、被写体画像と粒状
をはじめとするノイズの双方を鮮鋭化しておき、その画
像から被写体エッジ成分とノイズ成分を抽出し、ノイズ
領域における粒状の濃度揺らぎの振幅を非線形に圧縮す
ることによってノイズを抑制しているので、元のノイズ
より空間的に細かく且つ濃淡揺らぎが小さく、視覚的に
も自然なノイズ抑制を実現することができる。従って、
本発明によれば、シャープネス強調され、且つ空間的に
微細化されるので、銀塩写真の際の粒状は、銀塩写真感
光材料の微粒子乳剤を用いた時に得られるような細かい
粒状となり、平滑化を用いた従来法の欠点であるぼけ粒
状のような視覚的な違和感や不快感の無い自然な粒状抑
制効果を得ることができる。また、本発明の画像処理法
を銀塩カラー写真感光材料に適用することにより、従来
の粒状抑制・シャープネス強調処理法の欠点であった、
いわゆる「ぼけ粒状」的な不自然さや違和感がなく、粒
状とシャープネスとが同時に改善され、極めて顕著な改
善効果を得ることができ、産業上大きな効果を得ること
ができる。
As described in detail above, according to the image processing method and the image processing apparatus of the present invention, first, the sharpness of the image is emphasized to sharpen both the subject image and the noise including the granularity. The noise is suppressed by extracting the subject edge component and the noise component from the image, and compressing the amplitude of the granular density fluctuation in the noise region nonlinearly, so that the noise is spatially finer than the original noise. It is possible to realize visually-natural noise suppression with small shading. Therefore,
According to the present invention, since sharpness is enhanced and spatially refined, the granularity in silver halide photography becomes fine granularity as obtained when a fine grain emulsion of a silver halide photographic material is used, and is smooth. And a natural graininess suppressing effect without visual discomfort or discomfort such as blurred graininess, which is a drawback of the conventional method using image formation. Further, by applying the image processing method of the present invention to a silver halide color photographic light-sensitive material, there was a drawback of the conventional granular suppression / sharpness enhancement processing method.
There is no so-called "blurred grain" unnaturalness or unnatural feeling, the graininess and sharpness are improved at the same time, an extremely remarkable improvement effect can be obtained, and a great industrial effect can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る画像処理装置を組み込んだ、カ
ラー写真画像を読み取り、シャープネス強調・ノイズ抑
制の画像処理を行い、出力装置でカラー画像を出力する
システムの一実施例を示すブロック図である。
FIG. 1 is a block diagram showing an embodiment of a system that incorporates an image processing device according to the present invention, reads a color photographic image, performs image processing for sharpness enhancement / noise suppression, and outputs a color image on an output device. is there.

【図2】 本発明に係る画像処理装置の、シャープネス
強調・ノイズ抑制の画像処理を行う画像処理部の一実施
例を示すブロック図である。
FIG. 2 is a block diagram illustrating an embodiment of an image processing unit that performs image processing for sharpness enhancement and noise suppression in the image processing apparatus according to the present invention.

【図3】 本発明の画像処理方法の一実施例を示すブロ
ック図である。
FIG. 3 is a block diagram showing one embodiment of the image processing method of the present invention.

【図4】 本発明の画像処理方法で行う振幅非線型圧縮
変換の一例を説明する図である。
FIG. 4 is a diagram illustrating an example of amplitude non-linear compression conversion performed by the image processing method of the present invention.

【符号の説明】[Explanation of symbols]

10 カラー画像再生システム 12 画像入力装置 14 画像処理装置 16 画像出力装置 18 色・調子処理部 20 ノイズ抑制・シャープネス強調画像処理部 22 画像モニタ・画像処理パラメータ設定部 24 シャープネス強調処理部 26 平滑化処理部 28 エッジ・ノイズ混在成分抽出部 30 エッジ検出部 32 エッジ・ノイズ重み係数演算部 34 エッジ・ノイズ成分識別・分離部 36 ノイズ非線形圧縮LUT演算部 38 ノイズ成分圧縮処理部 40 出力画像演算部 Reference Signs List 10 color image reproduction system 12 image input device 14 image processing device 16 image output device 18 color / tone processing unit 20 noise suppression / sharpness enhanced image processing unit 22 image monitor / image processing parameter setting unit 24 sharpness enhancement processing unit 26 smoothing process Unit 28 edge / noise mixed component extraction unit 30 edge detection unit 32 edge / noise weight coefficient calculation unit 34 edge / noise component identification / separation unit 36 noise non-linear compression LUT calculation unit 38 noise component compression processing unit 40 output image calculation unit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】原画像データにシャープネス強調処理を行
い、画像と共にこの画像中に含まれるノイズを鮮鋭化し
たシャープネス強調画像データを作成し、 前記原画像データに平滑化処理を行って、平滑化画像デ
ータを作成し、 前記シャープネス強調画像データから前記平滑化画像デ
ータを減算して、シャープネス強調された被写体画像の
エッジと、同じくシャープネス強調されたノイズとが混
在する混在画像データを作成し、 前記原画像データからエッジ検出を行って被写体エッジ
領域とノイズ領域を識別するためのエッジ強度データを
求め、 前記エッジ強度データからエッジ領域の重み付け係数と
ノイズ領域の重み付け係数を求め、 前記混在画像データに、前記ノイズ領域の重み付け係数
を乗じて、ノイズ領域のノイズデータを求め、 このノイズデータに、ノイズデータの振幅の大小関係が
逆転することなくノイズデータを圧縮する圧縮変換であ
って、前記ノイズデータの振幅が大きくなるにつれて圧
縮率が滑らかに大きくなる振幅非線型圧縮変換を施し
て、ノイズ振幅抑制データを作成し、 一方、前記混在画像データに、前記エッジ領域の重み付
け係数を乗じて、エッジ領域のエッジ強調データを求
め、 前記平滑化画像データに前記ノイズ振幅抑制データと前
記エッジ強調データを加算して処理画像データを得るこ
とによって、 原画像のノイズ領域におけるノイズ成分を選択的に抑制
し、原画像のエッジ領域におけるシャープネスを強調し
た処理画像を作成することを特徴とする画像処理方法。
1. An original image data is subjected to sharpness enhancement processing, and sharpness-enhanced image data in which noise included in the image is sharpened together with the image is created. A smoothing process is performed on the original image data to perform smoothing. Creating image data, subtracting the smoothed image data from the sharpness-enhanced image data, creating mixed image data in which the edges of the sharpness-enhanced subject image and the noise that is also sharpness-enhanced are mixed, Edge detection is performed from the original image data to determine edge intensity data for identifying a subject edge region and a noise region.From the edge intensity data, a weighting factor for an edge region and a weighting factor for a noise region are determined. Multiplying the noise area weighting coefficient to obtain noise data of the noise area, In the noise data, a compression conversion for compressing the noise data without reversing the magnitude relationship of the amplitude of the noise data, and an amplitude non-linear compression conversion in which the compression ratio smoothly increases as the amplitude of the noise data increases. To generate noise amplitude suppression data.On the other hand, the mixed image data is multiplied by a weighting coefficient of the edge region to obtain edge enhancement data of the edge region. Adding the edge emphasis data to obtain processed image data, thereby selectively suppressing a noise component in a noise region of the original image and creating a processed image in which sharpness in an edge region of the original image is enhanced. Image processing method.
【請求項2】前記振幅非線型圧縮変換は、ノイズデータ
をGi とするとき、下記式(1)で表される請求項1に
記載の画像処理方法。 LGC(Gi ) = Gmax ・{1− exp[−(loge 2)・Gi /GT ]} (1) ここで、GT は、振幅非線型圧縮変換の特性を調整する
ノイズ圧縮閾値であり、Gmax は圧縮振幅レベルを指定
する振幅調整定数である。
Wherein said amplitude non-linear compression transformation, when the noise data and G i, the image processing method according to claim 1 represented by the following formula (1). L GC (G i) = G max · {1- exp [- (log e 2) · G i / G T]} (1) where, G T, the noise of adjusting the characteristics of the amplitude non-linear compression transformation Gmax is a compression threshold, and Gmax is an amplitude adjustment constant that specifies a compression amplitude level.
【請求項3】前記ノイズ圧縮閾値は、前記ノイズデータ
の標準偏差または平均値に基づいて決定される請求項2
に記載の画像処理方法。
3. The noise compression threshold value is determined based on a standard deviation or an average value of the noise data.
The image processing method according to 1.
【請求項4】前記振幅非線型圧縮変換は、ノイズデータ
に対するノイズ振幅抑制データを予め求めた振幅非線型
圧縮変換の変換データをルックアップテーブルとして用
いて行われる請求項1〜3のいずれかに記載の画像処理
方法。
4. The amplitude non-linear compression conversion is performed by using conversion data of the amplitude non-linear compression conversion in which noise amplitude suppression data for noise data is obtained in advance as a look-up table. The image processing method described in the above.
【請求項5】原画像データにシャープネス強調処理を行
い、画像と共にこの画像中に含まれるノイズを鮮鋭化し
たシャープネス強調画像データを作成するシャープネス
強調処理部と、 前記原画像データに平滑化処理を行って、平滑化画像デ
ータを作成する平滑化処理部と、 前記原画像データからエッジ検出を行って被写体エッジ
領域とノイズ領域を識別するためのエッジ強度データを
求めるエッジ検出部と、 前記シャープネス強調処理部で作成された前記シャープ
ネス強調画像データから前記平滑化処理部で作成された
平滑化画像データを減算して、シャープネス強調された
被写体画像のエッジと、同じくシャープネス強調された
ノイズとが混在する混在画像データを作成するエッジ・
ノイズ混在成分抽出部と、 前記エッジ検出部で求められた前記エッジ強度データか
らエッジ領域の重み付け係数とノイズ領域の重み付け係
数を求めるエッジ・ノイズ重み係数演算部と、 前記エッジ・ノイズ混在成分抽出部で作成された前記混
在画像データに、前記エッジ・ノイズ重み係数演算部で
求められた前記ノイズ領域の重み付け係数を乗じて、ノ
イズ領域のノイズデータを求め、さらに、前記混在画像
データに、前記エッジ・ノイズ重み係数演算部で求めら
れた前記エッジ領域の重み付け係数を乗じて、エッジ領
域のエッジ強調データを求めるエッジ・ノイズ成分識別
・分離部と、 前記ノイズデータの振幅の大小関係が逆転することなく
前記ノイズデータの振幅を圧縮する圧縮変換であって、
前記ノイズデータの振幅が大きくなるにつれて滑らかに
圧縮率が大きくなる振幅非線型圧縮変換の変換データを
予め求めてルックアップテーブルを作成するノイズ非線
形圧縮LUT演算部と、 このノイズ非線形圧縮LUT演算部で作成されたルック
アップテーブルを用いて前記エッジ・ノイズ成分識別・
分離部で求められたノイズデータの非線形圧縮処理を行
いノイズ振幅抑制データを求めるノイズ成分圧縮処理部
と、 前記平滑化処理部で作成された平滑化画像データに、前
記ノイズ成分圧縮処理部で求められたノイズ振幅抑制デ
ータと、前記エッジ・ノイズ成分識別・分離部で求めら
れたエッジ強調データを加算して処理画像データを出力
する出力画像演算部とを備え、 原画像のノイズ領域におけるノイズ成分を選択的に抑制
し、原画像のエッジ領域におけるシャープネスを強調し
た処理画像データを作成することを特徴とする画像処理
装置。
5. A sharpness enhancement processing section for performing sharpness enhancement processing on original image data to create sharpness enhanced image data in which noise included in the image is sharpened together with the image; and performing a smoothing processing on the original image data. A smoothing processing unit for generating smoothed image data; an edge detecting unit for performing edge detection from the original image data to obtain edge intensity data for identifying a subject edge region and a noise region; and the sharpness enhancement. The smoothed image data created by the smoothing processing unit is subtracted from the sharpness enhanced image data created by the processing unit, and the edges of the subject image subjected to sharpness enhancement and noise sharpened by the sharpness are mixed. Edge for creating mixed image data
A noise mixed component extracting unit; an edge / noise weighting factor calculating unit that obtains a weighting factor for an edge region and a weighting factor for a noise region from the edge strength data obtained by the edge detecting unit; and the edge / noise mixed component extracting unit. Multiplying the mixed image data created in the above by the weighting coefficient of the noise region obtained by the edge / noise weighting coefficient calculation unit to obtain noise data of the noise region; An edge-noise component identification / separation unit for multiplying the edge area weighting coefficient obtained by the noise weight coefficient calculation unit to obtain edge-enhanced data of the edge area; and the magnitude relationship of the amplitude of the noise data is reversed. Compression compression for compressing the amplitude of the noise data,
A noise non-linear compression LUT calculation unit that obtains conversion data of amplitude non-linear compression conversion in which the compression ratio smoothly increases as the amplitude of the noise data increases and creates a look-up table; The edge / noise component identification /
A noise component compression processing unit that performs a non-linear compression process on the noise data obtained by the separation unit to obtain noise amplitude suppression data; and a noise component compression processing unit that obtains smoothed image data created by the smoothing processing unit. And an output image calculation unit that adds processed edge amplitude data obtained by the edge / noise component identification / separation unit and outputs processed image data, and outputs a noise component in a noise region of the original image. An image processing apparatus that selectively generates image data that enhances sharpness in an edge region of an original image.
JP24525399A 1999-08-31 1999-08-31 Picture processing method and picture processor Withdrawn JP2001076134A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24525399A JP2001076134A (en) 1999-08-31 1999-08-31 Picture processing method and picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24525399A JP2001076134A (en) 1999-08-31 1999-08-31 Picture processing method and picture processor

Publications (1)

Publication Number Publication Date
JP2001076134A true JP2001076134A (en) 2001-03-23

Family

ID=17130940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24525399A Withdrawn JP2001076134A (en) 1999-08-31 1999-08-31 Picture processing method and picture processor

Country Status (1)

Country Link
JP (1) JP2001076134A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008137056A1 (en) * 2007-04-30 2008-11-13 Hewlett-Packard Development Company, L.P. Automatic image enhancement
US7616240B2 (en) 2001-06-07 2009-11-10 Seiko Epson Corporation Image processing method, image processing program, image processing apparatus, and digital still camera using the image processing apparatus
KR101038690B1 (en) 2003-08-11 2011-06-02 소니 주식회사 Image processing apparatus and image processing method, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7616240B2 (en) 2001-06-07 2009-11-10 Seiko Epson Corporation Image processing method, image processing program, image processing apparatus, and digital still camera using the image processing apparatus
KR101038690B1 (en) 2003-08-11 2011-06-02 소니 주식회사 Image processing apparatus and image processing method, and recording medium
WO2008137056A1 (en) * 2007-04-30 2008-11-13 Hewlett-Packard Development Company, L.P. Automatic image enhancement

Similar Documents

Publication Publication Date Title
JP4053185B2 (en) Image processing method and apparatus
US6055340A (en) Method and apparatus for processing digital images to suppress their noise and enhancing their sharpness
US6667815B1 (en) Method and apparatus for processing images
US6373992B1 (en) Method and apparatus for image processing
JP3359390B2 (en) Spatial filter device
JP4112362B2 (en) System and method for enhancing scanned document images for color printing
US5978519A (en) Automatic image cropping
JP4210577B2 (en) Method for enhancing gradation and spatial characteristics of digital images using selective spatial filters
JP4139760B2 (en) Image processing method and apparatus, and image processing program
JP2003134352A (en) Image processing method and apparatus, and program therefor
JP2002044473A (en) Image-processing method, image-processing device, and record medium with program for executing image- processing method stored thereon
JP2001216512A (en) Method for improving digital picture having noise- dependent control of texture
JP2004318423A (en) Image processing method, image processor, and image processing program
JP2001014460A (en) Method for emphasizing edge contrast of digital picture
JP2001216511A (en) Method for improving edge contrast of digital picture independently of texture
JP4017312B2 (en) Image processing method, image processing apparatus, and recording medium
US6323855B1 (en) Sharpening edge features in digital image providing high frequency edge enhancement
JP2777202B2 (en) Image processing device
JP2001076134A (en) Picture processing method and picture processor
JP3804880B2 (en) Image processing method for noise suppression and sharpness enhancement of digital images
JP2790604B2 (en) Image processing device
RU2383924C2 (en) Method for adaptive increase of sharpness of digital photographs during printing
JPH10243239A (en) Image-processing method for noise suppression and sharpness emphasis for digital image
JP3932470B2 (en) Image processing method and apparatus
JP2003132352A (en) Image processing method, image processor, image processing program and computer-readable recording medium recording it

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107