JP5359646B2 - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP5359646B2
JP5359646B2 JP2009172975A JP2009172975A JP5359646B2 JP 5359646 B2 JP5359646 B2 JP 5359646B2 JP 2009172975 A JP2009172975 A JP 2009172975A JP 2009172975 A JP2009172975 A JP 2009172975A JP 5359646 B2 JP5359646 B2 JP 5359646B2
Authority
JP
Japan
Prior art keywords
edge
noise
component
image
edge component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009172975A
Other languages
Japanese (ja)
Other versions
JP2010055604A (en
Inventor
健一 石賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009172975A priority Critical patent/JP5359646B2/en
Priority to US12/458,953 priority patent/US8120679B2/en
Publication of JP2010055604A publication Critical patent/JP2010055604A/en
Priority to US13/345,249 priority patent/US8339484B2/en
Application granted granted Critical
Publication of JP5359646B2 publication Critical patent/JP5359646B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a processing method capable of preventing ringing in edge enhancement and producing a natural edge enhancement effect. <P>SOLUTION: An image processing method for performing the edge enhancement on an original image extracts edge components based on the original image, corrects the extracted edge components to attenuate each edge component so that frequency distribution concerning intensity of the edge component approaches a Gaussian distribution of a prescribed width, and applies the edge enhancement on the original image based on the corrected edge components. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、画像のエッジ強調処理を行う画像処理方法に関する。   The present invention relates to an image processing method for performing edge enhancement processing of an image.

多重解像度を用いたエッジ強調の従来技術として、特許文献1がある。特許文献1には、多重解像度変換、例えばウェーブレット変換の場合、LH,HL,HHからなる高周波サブバンド自身の信号から特許文献1の文献中Fig.9に示されるような入出力特性が単調増加関数の非線形階調変換を通してエッジ成分を取り出し、それらのLH,HL,HHのエッジ成分を統合して原画像に加算することによりエッジ強調効果を得るような開示がある。また、本願の発明者による特許文献2では、完全系をなすLH,HL,HHの高周波サブバンドの他にLLの低周波サブバンドも用いた冗長な、ゆえに自由度の大きい周波数空間に投影して、各サブバンドでエッジ検出を行ない、それらのエッジ成分を統合して生成されたエッジ成分で原画像のエッジ強調を行う例を示している。   As a prior art of edge enhancement using multi-resolution, there is Patent Document 1. In Patent Document 1, in the case of multi-resolution conversion, for example, wavelet conversion, the input / output characteristics as shown in Fig. 9 in the document of Patent Document 1 are monotonously increased from the signal of the high frequency subband itself consisting of LH, HL, and HH There is a disclosure that obtains an edge enhancement effect by extracting edge components through nonlinear tone transformation of a function, integrating the LH, HL, and HH edge components and adding them to the original image. Further, in Patent Document 2 by the inventor of the present application, in addition to the high frequency subbands of LH, HL, and HH that form a complete system, the low frequency subband of LL is used and the projection is performed in a frequency space with a high degree of freedom. In this example, edge detection is performed on each subband, and edge enhancement of the original image is performed using edge components generated by integrating these edge components.

一方、アンシャープマスクのような実空間で行う通常のエッジ強調処理において、通常エッジ近傍でオーバーシュートやアンダーシュートを引き起こしてリンギングと呼ばれる問題を本質的に抱えることが知られている。このような問題に対処するために、例えば特許文献3では、文献中図5、図13と式23、式23´に示されるような入出力特性が単調増加関数の非線形変換を高周波成分に対して適用してから、適用後の高周波成分を平滑化画像に足し込む対策を開示している。また、特許文献4では、エッジ強調後の画像信号がエッジ強調前の局所的な画像信号の最大値と最小値に収まるようなリミッター処理を加える工夫をしている。   On the other hand, it is known that in a normal edge enhancement process performed in a real space such as an unsharp mask, an overshoot or undershoot is caused in the vicinity of the normal edge, which essentially has a problem called ringing. In order to deal with such a problem, for example, in Patent Document 3, the input / output characteristics as shown in FIGS. And then applying a high frequency component after application to the smoothed image. In Patent Document 4, a contrivance is made to add a limiter process so that the image signal after edge enhancement falls within the maximum and minimum values of the local image signal before edge enhancement.

米国特許第6,754,398号明細書U.S. Patent No. 6,754,398 国際公開第2007/114363号パンフレットInternational Publication No. 2007/114363 Pamphlet 特開2005-353102号公報JP 2005-353102 A 米国特許第5,666,443号明細書U.S. Pat.No. 5,666,443

特許文献3のリンギング対策は、文献中図6に示されるように効果を発揮するものの、その図の中に示されるように依然としてリンギング成分が残ってしまうという課題があった。特許文献1の非線形変換特性も特許文献3と同じく単調増加関数の特性であるため同様の問題を抱える。通常の実空間で行うようなアンシャープマスク処理では、この程度のわずかなリンギング成分は視覚的な不快感を与えるほどには目立たない。しかし、多重解像度を用いてエッジ強調を行う場合、多重解像度の離散性と有効面積の拡大に伴い、エッジ強調が一般に本質的に抱えるリンギング問題が顕著な現象となって、大面積のハローやタイル状のハウリングといった致命的な不快感を与える問題となって現れる。   Although the countermeasure against ringing in Patent Document 3 is effective as shown in FIG. 6 in the document, there is a problem that the ringing component still remains as shown in the figure. Since the nonlinear conversion characteristic of Patent Document 1 is a characteristic of a monotonically increasing function like Patent Document 3, it has the same problem. In the unsharp mask process as performed in a normal real space, such a slight ringing component is not so conspicuous as to give a visual discomfort. However, when edge enhancement is performed using multi-resolution, the ringing problem generally inherent in edge enhancement becomes a remarkable phenomenon as multi-resolution discreteness and effective area increase. It appears as a problem that gives fatal discomfort such as howling.

他方の特許文献4のような画像信号に対するリミッター処理は、ある信号レベルで画像構造がべったりと潰れてしまうような問題を生じ、自然な印象の画像を得ることができないという問題があった。すなわち、リンギング対策としては高品質性に欠けるという欠点があった。それを更に多重解像度へ応用するとなおさらその欠点が増幅されて見えてしまうという課題が存在した。   On the other hand, the limiter processing for the image signal as in Patent Document 4 has a problem that the image structure is crushed and collapsed at a certain signal level, and there is a problem that an image having a natural impression cannot be obtained. That is, as a countermeasure against ringing, there is a drawback that it lacks high quality. When it is further applied to multi-resolution, there is a problem that the defect is further amplified and seen.

請求項1の発明は、所定のノイズゆらぎ指標値で表されるノイズ成分を含む原画像に対してエッジ強調を行う画像処理方法であって、前記原画像をフィルタリングして、逐次的に低い解像度を持つ複数の帯域制限画像を生成し、前記各帯域制限画像において、各帯域制限画像のエッジ成分を抽出し、前記抽出された各帯域制限画像のエッジ成分を統合して、前記原画像と同じ解像度を持つエッジ成分に統合し、前記統合されたエッジ成分に対して、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、前記補正された統合エッジ成分に基づき、前記原画像に対してエッジ強調を行うことを特徴とする。
請求項3の発明は、所定のノイズゆらぎ指標値で表されるノイズ成分を含む原画像に対してエッジ強調を行う画像処理方法であって、前記原画像をフィルタリングして、逐次的に低い解像度を持つ複数の帯域制限画像を生成し、前記各帯域制限画像において、各帯域制限画像のエッジ成分を抽出し、前記抽出された各帯域制限画像のエッジ成分に対して、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、前記補正された各帯域制限画像のエッジ成分を統合して、前記原画像と同じ解像度を持つエッジ成分に統合し、前記統合されたエッジ成分に対して再度、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、前記補正された統合エッジ成分に基づき、前記原画像に対してエッジ強調を行うことを特徴とする。
請求項5の発明は、所定のノイズゆらぎ指標値で表されるノイズ成分を含む原画像に対してエッジ強調を行う画像処理方法であって、前記原画像をフィルタリングして、逐次的に低い解像度を持つ複数の低周波サブバンド画像と逐次的に低い解像度を持つ複数の高周波サブバンド画像のセットからなる、前記原画像を完全に再構築する以上に冗長な周波数空間で表現した帯域制限画像を生成し、前記各帯域制限画像において、各帯域制限画像のエッジ成分を抽出し、前記抽出された冗長な周波数表現の各帯域制限画像のエッジ成分を順次全て統合して、前記原画像と同じ解像度を持つエッジ成分に統合し、前記統合されたエッジ成分に対して、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、前記補正された統合エッジ成分に基づき、前記原画像に対してエッジ強調を行うことを特徴とする。
請求項7の発明は、所定のノイズゆらぎ指標値で表されるノイズ成分を含む原画像に対してエッジ強調を行う画像処理方法であって、前記原画像をフィルタリングして、逐次的に低い解像度を持つ複数の低周波サブバンド画像と逐次的に低い解像度を持つ複数の高周波サブバンド画像のセットからなる、前記原画像を完全に再構築する以上に冗長な周波数空間で表現した帯域制限画像を生成し、前記各帯域制限画像において、各帯域制限画像のエッジ成分を抽出し、前記抽出された各帯域制限画像のエッジ成分に対して、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、前記補正された冗長な周波数表現の各帯域制限画像のエッジ成分を順次全て統合して、前記原画像と同じ解像度を持つエッジ成分に統合し、前記統合されたエッジ成分に対して再度、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、前記補正された統合エッジ成分に基づき、前記原画像に対してエッジ強調を行うことを特徴とする。
The invention of claim 1 is an image processing method for performing edge enhancement on an original image including a noise component represented by a predetermined noise fluctuation index value, wherein the original image is filtered to sequentially reduce the resolution. A plurality of band-limited images having the same, extracting edge components of each band-limited image in each band-limited image, integrating the extracted edge components of each band-limited image, and the same as the original image The edge component having the resolution is integrated, and the edge component larger than the noise fluctuation width is attenuated for the integrated edge component by comparing the size of the edge component with the noise fluctuation index value. The edge enhancement is performed on the original image based on the corrected integrated edge component .
The invention according to claim 3 is an image processing method for performing edge enhancement on an original image including a noise component represented by a predetermined noise fluctuation index value, wherein the original image is filtered and sequentially reduced in resolution. A plurality of band-limited images having the same size, extracting an edge component of each band-limited image in each band-limited image, and the size of the edge component with respect to the extracted edge component of each band-limited image Is compared with the noise fluctuation index value so as to attenuate edge components larger than the noise fluctuation width, and the corrected edge components of each band-limited image are integrated to have the same resolution as the original image. It is integrated into an edge component, and the size of the edge component is compared with the noise fluctuation index value again with respect to the integrated edge component, thereby making it larger than the noise fluctuation width. A correction for attenuating an edge component based on the corrected synthesized edge component, and performs edge enhancement with respect to the original image.
The invention according to claim 5 is an image processing method for performing edge enhancement on an original image including a noise component represented by a predetermined noise fluctuation index value, wherein the original image is filtered and sequentially reduced in resolution. A band-limited image expressed in a redundant frequency space than the original image is completely reconstructed, consisting of a set of a plurality of low-frequency subband images having a plurality of high-frequency subband images having sequentially lower resolution. Generating and extracting edge components of each band limited image in each band limited image, and sequentially integrating all the edge components of each band limited image of the extracted redundant frequency representation to have the same resolution as the original image And by comparing the size of the edge component with the noise fluctuation index value for the integrated edge component. A correction for attenuating an edge component based on the corrected synthesized edge component, and performs edge enhancement with respect to the original image.
The invention according to claim 7 is an image processing method for performing edge enhancement on an original image including a noise component represented by a predetermined noise fluctuation index value, wherein the original image is filtered and sequentially reduced in resolution. A band-limited image expressed in a redundant frequency space than the original image is completely reconstructed, consisting of a set of a plurality of low-frequency subband images having a plurality of high-frequency subband images having sequentially lower resolution. Generating and extracting an edge component of each band limited image in each band limited image, and comparing the size of the edge component with the noise fluctuation index value for the extracted edge component of each band limited image To correct the attenuation of edge components larger than the noise fluctuation width, and sequentially integrate all the edge components of each band limited image of the corrected redundant frequency expression. The edge component having the same resolution as the original image is integrated, and the edge component larger than the noise fluctuation width is compared with the integrated edge component again by comparing the size of the edge component with the noise fluctuation index value. And performing edge enhancement on the original image based on the corrected integrated edge component .

本発明は以上のように構成するので、エッジ強調におけるリンギングを防ぎ、自然なエッジ強調効果を生む処理を提供することができる。   Since the present invention is configured as described above, it is possible to provide a process that prevents ringing in edge enhancement and produces a natural edge enhancement effect.

本発明の実施の形態である画像処理装置を示す図である。It is a figure which shows the image processing apparatus which is embodiment of this invention. パーソナルコンピュータの構成を示す図である。It is a figure which shows the structure of a personal computer. パーソナルコンピュータ1が処理する第1の実施の形態の画像処理のフローチャートを示す図である。It is a figure which shows the flowchart of the image processing of 1st Embodiment which the personal computer 1 processes. 第1の実施の形態の多重解像度に基づいたノイズ除去処理およびエッジ強調処理の流れ図を示す図である。It is a figure which shows the flowchart of the noise removal process and edge emphasis process based on the multi-resolution of 1st Embodiment. 第1の実施の形態のエッジ精錬を説明するイメージ図である。It is an image figure explaining edge refining of a 1st embodiment. 強力な減衰特性をもつ非線形関数を示す図である。It is a figure which shows the nonlinear function which has a strong damping characteristic. (a)は出力色空間と作業用色空間におけるガンマ特性を示す図であり、(b)は(a)で示される出力色空間のガンマ特性と作業用色空間におけるガンマ特性の微分比を示すグラフである。(A) is a figure which shows the gamma characteristic in output color space and work color space, (b) shows the differential ratio of the gamma characteristic of output color space shown in (a), and the gamma characteristic in work color space. It is a graph. 第2の実施の形態のノイズ除去処理およびエッジ強調処理の流れ図を示す図である。It is a figure which shows the flowchart of the noise removal process of 2nd Embodiment, and an edge emphasis process. デジタルカメラ100の構成を示す図である。1 is a diagram illustrating a configuration of a digital camera 100. FIG. 信号とノイズの関係を示す図である。It is a figure which shows the relationship between a signal and noise. 多重解像度における周波数空間の様子を示す図である。It is a figure which shows the mode of the frequency space in multi-resolution. エンハンスメント効果を見やすく表に示したものである。The enhancement effect is easy to see in the table.

−基本的考え−
初めに、実施の形態に述べるアルゴリズムを採用する必要性が生じた背景や理由、及びそれに対処する方法の基本的考えについて述べる。
-Basic idea-
First, the background and reason for the necessity of adopting the algorithm described in the embodiment and the basic idea of a method for dealing with it will be described.

<ノイズ除去処理の課題>
ノイズ除去処理は通常、edge-preserving smoothing filterと呼ばれる、大きな信号レベル差のエッジ構造と微小な振幅のノイズを区別して適応的に平滑化するノイズ除去フィルタが用いられる。このノイズ除去フィルタの代表例として、高性能なものにバイラテラル・フィルタと呼ばれるものがある。これらのノイズ除去フィルタは基本的に隣接画素との間で画素値のレベル差をノイズゆらぎ指標値と比較し、平滑化対象画素にするか否かの加重係数をそれらの比に基づいて決めてゆく。
<Problems of noise removal processing>
A noise removal filter called an edge-preserving smoothing filter is generally used for the noise removal processing, which distinguishes between an edge structure having a large signal level difference and noise having a small amplitude and performs smoothing adaptively. A typical example of this noise removal filter is a so-called bilateral filter. These noise reduction filters basically compare the level difference of the pixel value between adjacent pixels with the noise fluctuation index value, and determine the weighting coefficient for determining whether or not to make the pixel to be smoothed based on the ratio. go.

しかしながら、ノイズ除去フィルタが如何に高性能であっても、ノイズと同程度の微弱なエッジはノイズと区別をつけることができない(図10(d)参照)。その結果、ノイズ除去によってテキスチャが消失してしまう(問題1)。この他に平滑化加重係数を決める過程において急峻な段差のエッジが存在するとき(図10(c)参照)、通常の平坦部や単調な傾斜部(図10(a)(b)参照)におけるエッジとノイズの分離する加重係数と違って、段差の影響によりその輪郭成分が相対的に微小なエッジと間違われて問題1と同様な状況に陥り平滑化対象に含まれやすく、輪郭がなまってしまうという避けようのない問題が生じる。したがって、ノイズ除去によっていわゆる輪郭ボケが生じてしまう(問題2)。図10は、上記の状況を示す図である。   However, no matter how high the noise removal filter is, a weak edge comparable to noise cannot be distinguished from noise (see FIG. 10D). As a result, the texture disappears due to noise removal (Problem 1). In addition, when there is an edge of a steep step in the process of determining the smoothing weighting coefficient (see FIG. 10C), in a normal flat part or a monotonous inclined part (see FIGS. 10A and 10B). Unlike the weighting coefficient that separates the edge and noise, the contour component is mistaken for a relatively small edge due to the effect of the step, and falls into the same situation as in Problem 1 and is easily included in the smoothing target, and the contour is distorted. An inevitable problem arises. Therefore, so-called outline blurring occurs due to noise removal (Problem 2). FIG. 10 is a diagram showing the above situation.

これらの問題は主に輝度成分のノイズ除去処理の観点からの現象を言い表しているが、色差成分のノイズ除去処理の場合はこれらが微弱な色変化部の色抜け現象(問題3)や色境界部の色滲み現象(問題4)という問題を引き起こす。更に、ノイズ除去による平滑化処理に伴って、局所的な階調が全て平均レベルに集まってしまうため、例えば平均値がゼロになるような完全暗黒の状態を達しえなくなり、黒レベルが浮く、いわゆる黒浮き現象という問題も引き起こす(問題5)。これは白側についても言えることで、全体的に平滑化処理によって階調表現しうる幅が狭まって階調性が低下する。   These problems mainly describe the phenomenon from the viewpoint of the noise removal processing of the luminance component. However, in the case of the noise removal processing of the color difference component, these are the color loss phenomenon (problem 3) or the color boundary of the weak color change portion. This causes the problem of color bleeding phenomenon (problem 4). Furthermore, with the smoothing process by noise removal, all the local gradations are gathered at the average level, so for example, it becomes impossible to reach a completely dark state where the average value becomes zero, and the black level floats. This also causes a problem of so-called black floating phenomenon (Problem 5). This can also be said for the white side. As a whole, the range in which gradation can be expressed by the smoothing process is narrowed, and gradation is lowered.

すなわち、ノイズ除去の課題は主観表現と物理的関連において次のようにまとめられる。(1)輪郭ボケによる輪郭のコントラスト低下で鮮鋭感・立体感を失い(問題2)、(2)ノイズに埋もれるような微弱エッジ構造の消失によって解像力が低下し(問題1)、(3)黒浮き現象によって階調性が低下し(問題5)、(4)色が抜けることによって色再現性が低下し(問題3)、(5)色が滲むことによって色解像力が低下するといえる(問題4)。   That is, the problem of noise removal is summarized as follows in terms of subjective relation and physical relation. (1) Loss of sharpness and stereoscopic effect due to a decrease in contour contrast due to contour blur (Problem 2), (2) Loss of weak edge structure buried in noise reduces resolution (Problem 1), (3) Black It can be said that the gradation is lowered by the floating phenomenon (problem 5), (4) the color reproducibility is lowered by the loss of color (problem 3), and (5) the color resolving power is lowered by the bleeding of the color (problem 4). ).

また、これらの問題はノイズ除去処理を伴わなくても、高感度のノイズの多い画像についても共通して言える課題である。なぜならば、低感度の鮮明な画像に対して振幅の大きなノイズを加えていった場合、実被写体の輪郭のコントラストはノイズの振幅の影響によって相対的に低下し、低感度の場合よりも不鮮明に見え、テキスチャもノイズと区別がつかなくなり、ノイズの振幅が黒レベル自体を上げてしまうので黒浮きし、RGB間の無相関なゆらぎが色斑ノイズとして乗るため、その領域の色弁別分解能を下げて色特定精度(色再現性)が下がり、色ノイズが相対的に色境界部に色滲みをランダムに生じているように見せてしまう。これらは総称的にノイズ被りによるコントラスト低下ということもできる。   In addition, these problems are common to high-sensitivity and noisy images even without noise removal processing. This is because, when noise with large amplitude is added to a clear image with low sensitivity, the contrast of the contour of the actual subject is relatively lowered due to the influence of the amplitude of the noise, and is less sharp than with low sensitivity. Visible, texture is indistinguishable from noise, noise amplitude raises the black level itself, so it floats black, and uncorrelated fluctuation between RGB rides as color spot noise, lowering the color discrimination resolution of that area As a result, the color identification accuracy (color reproducibility) is lowered, and the color noise appears to cause color blur at the color boundary portion at random. These can also be referred to generically as a reduction in contrast due to noise coverage.

<ノイズ除去処理とエッジ強調処理の同時化の考え>
このような問題に対処するため、ノイズ除去を伴った場合はノイズ除去で失った程度のエッジのコントラストを回復するエッジ強調や、階調再現性を回復するための階調補正処理、あるいはコントラスト補正処理が必要となる。また、高感度撮影画像についても、ノイズ除去が行われなくてもこれらに相当する処理を加えるだけで随分と低感度撮影画像に近い鮮明性のある画像を提供することができるようになる。また、低感度撮影画像についてもノイズ被りによるコントラスト低下の影響を修復すれば、本来のあるべき鮮鋭感、解像力、階調性、色再現性を実現することができるようになる。
<Consideration of simultaneous noise removal and edge enhancement>
To deal with such problems, when noise removal is involved, edge enhancement that restores the contrast of the edge lost by noise removal, tone correction processing to restore tone reproducibility, or contrast correction Processing is required. Further, with respect to a high-sensitivity photographed image, it is possible to provide a sharp image that is much closer to a low-sensitivity photographed image by simply performing processing corresponding to these even if noise removal is not performed. Further, by correcting the influence of contrast reduction caused by noise covering on a low-sensitivity photographed image, the original sharpness, resolution, gradation, and color reproducibility can be realized.

そこで、本願発明者による国際公開第2007/114363号パンフレットと国際公開第2007/116543号パンフレットに示されるような多重解像度を用いたエッジ強調処理を行う。このエッジ強調処理が従来の多重解像度を用いたエッジ強調処理(例えば米国特許6,754,398)と本質的に違う点は、完全系をなす多重解像度の高周波サブバンド群の周波数空間に投影して抽出したエッジ成分以外に、もう一つ冗長性を持たせて逐次生成される低周波セブバンド群の周波数空間に投影して抽出したエッジ成分も両方用いて、それらを自在に調合するところにある。図11は、この多重解像度における周波数空間の様子を示す図である。なお、完全系とは周波数投影空間の画像群から原画像を完全に再構築できる意味で用いている。本当は、最低解像度の低周波サブバンドを1つだけ付加しておく必要があるが、ここでは無視して議論している。   Therefore, edge enhancement processing using multi-resolution as shown in International Publication No. 2007/114363 pamphlet and International Publication No. 2007/116543 pamphlet is performed by the present inventors. This edge enhancement process is essentially different from the conventional edge enhancement process using multi-resolution (for example, US Pat. No. 6,754,398). The edge extracted by projecting to the frequency space of the multi-resolution high-frequency subband group forming the complete system. In addition to the components, the edge components extracted by projecting onto the frequency space of the low-frequency Cebu band group that is sequentially generated with another redundancy are also used to freely mix them. FIG. 11 is a diagram showing a state of the frequency space in the multi-resolution. The complete system is used in the sense that the original image can be completely reconstructed from the image group in the frequency projection space. Actually, it is necessary to add only one low-frequency subband with the lowest resolution, but this is ignored here.

しかしながら、これらの実用上の物理的な効果が詳細に解明されていなかったため、さらに画像エンハンス処理効果を高めるための方法論の提示に踏み込むまでに至っていなかった。したがって、本発明ではこれらの物理的な効果を明らかにした上で、そこから浮かび上がる課題と対策について、エッジ強調として最も自然な印象を与えるための最善の方策を検討する。   However, since these practical physical effects have not been elucidated in detail, they have not yet come to present a methodology for further enhancing the image enhancement processing effect. Therefore, in the present invention, after clarifying these physical effects, the best measures for giving the most natural impression as the edge emphasis on the problems and countermeasures that emerge from them are examined.

<多重解像度エッジ強調処理の物理的効果の解明>
まず、冗長な多重解像度変換によるエッジ強調の物理的効果について解明する。実験的に低周波サブバンド群と高周波サブバンド群の2つの冗長な多重解像度表現された周波数投影空間でのエッジ強調効果を確認したところ、低周波サブバンド群と高周波サブバンド群の各々で抽出されたエッジ成分には以下のような優れた個別の画像エンハンスメント効果があることが分かった。
<Elucidation of physical effects of multi-resolution edge enhancement processing>
First, the physical effect of edge enhancement by redundant multi-resolution conversion is elucidated. Experimentally, the edge enhancement effect in the frequency projection space expressed by two redundant multi-resolutions of the low-frequency subband group and the high-frequency subband group was confirmed, and extracted in each of the low-frequency subband group and the high-frequency subband group. It was found that the obtained edge component has the following excellent individual image enhancement effects.

入力画像が輝度成分の場合、低周波サブバンド群の周波数空間に投影したエッジ強調では、黒の締まりや階調性を高めるコントラスト強調効果がある。いいかえると、エッジ強調処理といっても輝度成分の多重解像度の低周波サブバンド群からは階調補正処理と同じ効果が得られる。一方の輝度成分の高周波サブバンド群の周波数空間に投影したエッジ強調処理には、輪郭のコントラストを立ててノイズに埋もれたテキスチャを復元する鮮鋭感回復効果がある。   When the input image is a luminance component, edge enhancement projected on the frequency space of the low-frequency subband group has a contrast enhancement effect that enhances blackness and gradation. In other words, the same effect as the tone correction processing can be obtained from the multi-resolution low-frequency subband group of the luminance component even in the edge enhancement processing. The edge enhancement process projected onto the frequency space of one high-frequency subband group of luminance components has a sharpness restoration effect that restores the texture buried in the noise by raising the contrast of the contour.

次に入力画像が色差成分の場合、低周波サブバンド群の周波数空間に投影したエッジ強調では、大面積の平坦部領域の彩度を極めて高くするカラフルネス回復効果がある。いいかえると、色差成分の場合もエッジ強調処理とはいっても彩度強調処理と同じ効果が得られることになる。一方の色差成分の高周波サブバンド群の周波数空間に投影したエッジ強調処理には、色境界部の色滲みを低減して色境界を鮮明にしたり、色テキスチャの色構造を回復する色コントラスト復元効果がある。   Next, when the input image is a color difference component, edge enhancement projected onto the frequency space of the low frequency subband group has a colorfulness recovery effect that extremely increases the saturation of a flat area of a large area. In other words, even in the case of the color difference component, the same effect as the saturation enhancement process can be obtained even though the edge enhancement process is performed. The edge enhancement process projected on the frequency space of the high-frequency subband group of one color difference component has a color contrast restoration effect that reduces the color blur at the color boundary and sharpens the color boundary or restores the color structure of the color texture. There is.

図12は、これらのエンハンスメント効果を見やすく表に示したものである。一見すると輝度面と色差面で同じコントラストという言葉が輝度成分の場合には低周波側に、色差成分の場合には高周波側にずれて出てきている。これは、元の輝度面と色差面の画像構造の周波数特性が違うためであると考えられる。すなわち、輝度面は高周波構造が多いのに対して色差面が低周波構造が多いことから、低周波サブバンド群に投影した輝度成分のエッジ強調効果は、高周波サブバンド群に投影した色差成分のエッジ強調効果により近いものになったためであると考えられる。   FIG. 12 is a table showing these enhancement effects in an easy-to-see manner. At first glance, the term “contrast” on the luminance plane and the color difference plane is shifted to the low frequency side in the case of the luminance component, and shifted to the high frequency side in the case of the color difference component. This is considered to be because the frequency characteristics of the image structures of the original luminance plane and the color difference plane are different. That is, since the luminance plane has many high-frequency structures and the color difference plane has many low-frequency structures, the edge enhancement effect of the luminance component projected on the low-frequency subband group is the same as that of the color difference component projected on the high-frequency subband group. This is probably because the edge enhancement effect is closer.

実験的に、原画像に第1の実施の形態に述べるノイズ除去処理だけを加えた画像と、第1の実施の形態の各周波数投影面で抽出したエッジ成分を単純に多重解像度逆変換だけを行って統合エッジ成分を生成し、統合エッジ成分をノイズ除去画像に加算したエッジ強調効果を示す画像とを取得してみた。その結果、輝度成分では、実際に低周波サブバンド群によるエッジ強調ではその強度が強い場合は、ノイズ除去画像に比べ異常とも思えるほど黒の締まり効果を達成していた。また、高周波サブバンド群によるエッジ強調では、ノイズ除去画像で消失してしまった背景の黒点や白点や動物の人形の毛並みのようなテキスチャ構造を見事に回復していた。色差成分についても同様な具合に、図12に示す効果を達成していた。   Experimentally, the image obtained by adding only the noise removal processing described in the first embodiment to the original image and the edge component extracted on each frequency projection surface of the first embodiment are simply subjected to multi-resolution inverse transformation. The integrated edge component was generated to obtain an image showing the edge enhancement effect obtained by adding the integrated edge component to the noise-removed image. As a result, in the luminance component, when the edge enhancement by the low-frequency subband group is actually strong, the black tightening effect has been achieved so as to be considered abnormal compared to the noise-removed image. Also, the edge enhancement by the high frequency sub-band group successfully recovered the texture structure such as the black and white spots of the background and the fur of animal dolls that disappeared in the noise-removed image. The effect shown in FIG. 12 was achieved in the same manner for the color difference component.

<多重解像度エッジ強調処理の最適化>
このような個別の物理的効果が明らかになってから分かることは、低周波サブバンド群で抽出したエッジ成分と高周波サブバンド群で抽出したエッジ成分を周波数調合するには、何らかの法則性を設けて拘束条件を付けないと、原画像とは随分とかけ離れた見るに堪えない不自然なエッジ強調効果を生み出してしまう恐れがあるということである。また、ノイズ除去を伴う場合には、ノイズ除去の強さによってもノイズ除去の弊害によるこれらの主観的損傷度合いは違ってくる。したがって、その損傷度合いに合わせて回復を試みる必要がある。この解決策として実施の形態の中ではエッジ強調率やノイズ除去率に連動させる方策が示される。
<Optimization of multi-resolution edge enhancement processing>
It can be understood that such individual physical effects are clarified. In order to prepare the frequency of the edge component extracted in the low frequency subband group and the edge component extracted in the high frequency subband group, some kind of law is provided. If the constraint is not applied, the original image may produce an unnatural edge enhancement effect that cannot be seen far away from the original image. Further, when noise removal is involved, the degree of subjective damage due to the noise removal effect varies depending on the strength of noise removal. Therefore, it is necessary to attempt recovery according to the degree of damage. As a solution to this problem, in the embodiment, a policy linked to the edge enhancement rate and the noise removal rate is shown.

<多重解像度エッジ強調処理の課題>
次に、前述の実験で取得した画像例の中にも現れているように、多重解像度によるエッジ強調は大面積のハローやハウリングを生じさせる危険性を伴う。これは通常のアンシャープマスク処理が本質的に抱えているエッジ近傍のリンギング問題と発生要因は同じであるが、多重解像度処理であるためその弊害が大規模化して現れてしまう。
<Problems of multi-resolution edge enhancement processing>
Next, as shown in the image examples acquired in the above-described experiment, edge enhancement by multi-resolution involves a risk of causing a large area halo or howling. This is the same as the ringing problem near the edge inherent in normal unsharp mask processing, but the cause of the problem is increased due to the multi-resolution processing.

これまでにも従来の技術はこのリンギング問題に対処するため、抽出したエッジ成分に対して、入力エッジ成分と出力エッジ成分の関係が、原点近傍は正比例し、それ以外は緩やかに単調増加するような特性の非線形変換を通して抑える工夫がなされてきた。しかし、今まで以上に高品質な多重解像度のエッジ強調処理を追求するにはこれではまだまだ不十分な状況を迎えるに至ってきた。すなわち、多重解像度によるエッジ強調を実用レベルにするには、ハローやハウリング問題を完璧に封じる方策を導入する必要に迫られる。そこで、本発明ではこれらの対策を強化するために、エッジ強調処理の結果に不自然さのない、最も自然に見えるエッジ成分のあるべき姿について仮説を導入し、それに近づけるべくして解決を図る方法を示す。   To deal with this ringing problem in the past, the relationship between the input edge component and the output edge component of the extracted edge component is directly proportional to the vicinity of the origin, and the others gradually increase monotonously. Ingenuity has been devised to suppress through non-linear transformation of characteristics. However, this is still inadequate for pursuing higher quality multi-resolution edge enhancement processing than ever before. In other words, in order to bring edge enhancement by multi-resolution to a practical level, it is necessary to introduce a measure for completely closing the halo and howling problem. Therefore, in the present invention, in order to reinforce these measures, a hypothesis is introduced about the ideal appearance of an edge component that has no unnaturalness in the result of the edge enhancement processing, and a solution is made so as to approach it. The method is shown.

<エッジ強調処理の課題>
ところで、エッジ強調をするときに上述のようなリンギング問題以外に気をつけなければいけない点は、エッジ強調によってノイズ成分を増幅してしまう危険性をできるだけ避けなければいけないという点である。ノイズ除去処理におけるノイズ成分の抽出過程とエッジ強調処理におけるエッジ成分の抽出過程においては必ず、ノイズ成分の中へのエッジ成分の混入とノイズ成分の中へのエッジ成分の混入の相互混入問題が避けようのない問題として存在する。この様子を模式的に表すと下式のようになる。
Nextracted= Ntrue + eundistinguished
Eextracted= Etrue + nundistinguished
<Edge enhancement processing issues>
By the way, when performing edge emphasis, the point to be noted other than the ringing problem as described above is that the risk of amplifying noise components due to edge emphasis must be avoided as much as possible. In the noise component extraction process in the noise removal process and the edge component extraction process in the edge enhancement process, the problem of mutual mixing of the edge component into the noise component and the edge component into the noise component must be avoided. There is no such problem. This can be schematically expressed as follows.
N extracted = N true + e undistinguished
E extracted = E true + n undistinguished

本実施形態では、第2の実施の形態の流れ図に示されるように、エッジ成分はノイズ除去後の画像から抽出することによってできるだけノイズ成分の混入を防ぐ努力をしているが、それでもなお含まれてしまうのが現実である。ノイズ成分もノイズ除去フィルタの課題の中で述べたように、ノイズ除去フィルタで区別できないエッジ成分は必ずノイズ成分の中に混入してしまう。このノイズ成分の中に混入したエッジ成分が、ノイズ除去の課題で述べた問題を引き起こし、エッジ成分の中に混入したノイズ成分がエッジ強調におけるノイズ増幅の問題を引き起こす。それによって質感再現性の低いノイズ除去や質感再現性の低いエッジ強調を行う結果となってしまう。   In this embodiment, as shown in the flowchart of the second embodiment, an effort is made to prevent the noise component from being mixed as much as possible by extracting the edge component from the image after noise removal, but it is still included. It is a reality. As described in the problem of the noise removal filter, the edge component that cannot be distinguished by the noise removal filter is always mixed in the noise component. The edge component mixed in the noise component causes the problem described in the problem of noise removal, and the noise component mixed in the edge component causes the problem of noise amplification in edge enhancement. As a result, noise removal with low texture reproducibility and edge enhancement with low texture reproducibility are performed.

<エッジ強調処理の改良>
そこで、本実施形態では先に述べたエッジ成分のあるべき姿の仮説に基づいて、それに近づけることによってエッジ成分の中から不純物を取り出し純度を上げ、エッジ自身の自己精錬処理を行う。また、ノイズ成分についても同様にノイズ成分のあるべき姿の仮説を立てることが可能であり、その仮説に基づいてノイズ成分の中から不純物を取り出し純度を上げる、ノイズ自身の自己精錬処理も行う。本実施の形態では、このように各成分の不純物を除き純度を高める処理を精錬と言う。
<Improved edge enhancement processing>
Therefore, in the present embodiment, based on the above-described hypothesis of the ideal shape of the edge component, impurities are extracted from the edge component by approaching it and the purity is increased, and the edge itself is subjected to a self-refining process. Similarly, it is possible to make a hypothesis of how the noise component should be for the noise component, and based on the hypothesis, impurities are extracted from the noise component to increase the purity, and the noise itself is subjected to a self-refining process. In the present embodiment, the process for improving the purity by removing impurities of each component is called refining.

しかしながら、このような操作をしてもまだ不純物の分離が難しいのが現実である。すなわち、エッジ成分の中の大部分が本当はノイズ成分であったとしてもエッジ成分のあるべき姿のように振る舞われてしまわれば区別がつかない。ノイズ成分の中のエッジ成分についても同様のことがいえる。このような問題に対しては、次のような仮説を導入してノイズ成分とエッジ成分の相互の大きさを参照することによってその中に含まれている大きな不純物成分の量を推定するほかに対処する方法がない。   However, the reality is that it is still difficult to separate impurities even after such operations. In other words, even if most of the edge components are actually noise components, they cannot be distinguished if they behave as they should be. The same applies to the edge component in the noise component. For such problems, in addition to estimating the amount of large impurity components contained in them by introducing the following hypothesis and referring to the mutual size of the noise component and the edge component: There is no way to deal with it.

すなわち、局所的なエッジ成分が大きな値の領域ではノイズ抽出過程においてエッジ成分をノイズ成分として誤って抽出してノイズ成分の大部分がエッジ成分である可能性が高い。逆に局所的なノイズ成分が大きな値の領域ではエッジ抽出過程においてノイズ成分をエッジ成分として誤って抽出してエッジ成分の大部分がノイズ成分である可能性が高い。したがって、相互の大きさを参照して、エッジ成分とノイズ成分との間で相互精錬を行うことにより相互の純度を高めることが可能である。そのためには、ノイズ成分とエッジ成分がかなりの確度まで純度が上がっている必要がある。   That is, in a region where the local edge component has a large value, it is highly likely that the edge component is erroneously extracted as a noise component in the noise extraction process, and most of the noise component is an edge component. Conversely, in a region where the local noise component has a large value, it is highly likely that the noise component is erroneously extracted as an edge component in the edge extraction process, and most of the edge component is a noise component. Therefore, it is possible to increase mutual purity by performing mutual refining between the edge component and the noise component with reference to the mutual size. For that purpose, the purity of the noise component and the edge component needs to be improved to a considerable degree of accuracy.

エッジ成分とノイズ成分の自己精錬と相互精錬の様子は第2の実施の形態の流れ図に典型的に示される。第1の実施の形態の多重解像度を用いたエッジ成分とノイズ成分の抽出・統合過程では、この自己及び相互精錬を各解像度レベルで一度行うに留まらず、統合後のエッジ成分とノイズ成分に対しても再度繰り返し自己精錬と相互精錬の検証を行うことにより、その各々の純度を、また同時にエッジ成分からのハウリング成分の排除も確実なものとする工夫がなされる。   The state of self-refining and mutual refining of edge components and noise components is typically shown in the flowchart of the second embodiment. In the process of extracting and integrating edge components and noise components using multi-resolution according to the first embodiment, this self and mutual refining is not limited to once at each resolution level, but for the integrated edge components and noise components. Even so, by repetitively verifying the self-smelting and the mutual refining, a contrivance is made to ensure the purity of each of them and at the same time to eliminate the howling component from the edge component.

<エッジ強調処理の高性能化>
しかしながら、このようにしてエッジ成分とノイズ成分の純度を如何に高めても排除し切れない相互混入成分というのは必ず存在し、その影響を無視するわけにはいかない。すなわち、依然としてこれらがエッジ強調のノイズ増幅問題とノイズ除去のエッジなまり問題等の先に述べた課題を引き起こすのである。
<High performance edge enhancement processing>
However, there are always intermixed components that cannot be completely excluded even if the purity of the edge component and the noise component is increased in this way, and the influence cannot be ignored. That is, these still cause the above-mentioned problems such as the edge amplification noise amplification problem and the noise removal edge rounding problem.

そこで、本実施形態ではそれらの影響を事前に予測し、悪影響を最小化し、エッジ強調とノイズ除去の効果を最大化する工夫を、最後のエッジ強調率とノイズ除去率に対して、出力色空間と作業用色空間との間の階調特性の相互の微分比率で表された明るさに対するコントラスト比関数で汎関数(関数を変数とする関数)表現化する方法を導入することにより実現を図る。   Therefore, in the present embodiment, the output color space is predicted for the final edge enhancement rate and the noise removal rate with respect to the final edge enhancement rate and the noise removal rate by predicting those influences in advance, minimizing adverse effects, and maximizing the effects of edge enhancement and noise removal. This is realized by introducing a method of expressing a functional (a function having a function as a variable) with a contrast ratio function with respect to the brightness expressed by the mutual differential ratio of the gradation characteristics between the color space and the working color space. .

その様子が第2の実施の形態の流れ図に示されている。すなわち、式で表すと第1番目の式を第2番目の式に変更することに当たる。ここに、λはノイズ除去率を、ζはエッジ強調率を表し、γは線形階調Yに対する出力色空間の階調曲線γ(Y)を、Γは線形階調Yに対する作業用色空間の階調曲線Γ(Y)を表すものとする。

Figure 0005359646
This is shown in the flowchart of the second embodiment. That is, when expressed by an expression, this corresponds to changing the first expression to the second expression. Here, λ represents the noise removal rate, ζ represents the edge enhancement rate, γ represents the tone curve γ (Y) of the output color space for the linear tone Y, and Γ represents the working color space for the linear tone Y. It is assumed that the gradation curve Γ (Y) is represented.
Figure 0005359646

このコントラスト比の汎関数表現の方法は、画像全体の明るさレベルの間で、ある基準点に対してエッジ強調率とノイズ除去率を増減幅する方法と、エッジ近傍の局所的な明るさレベルの間でのみそれらを増減幅する方法の2通りがある。本実施形態ではその両方を用いることにする。この2つの考え方は、一般の階調補正技術において、画像全体の明るさのみを平均的にトーンカーブ曲線を変えることによって調整する方法(ヒストグラム均等化法とも言う)と、局所的なエッジ構造の周りでコントラストを強調し、他の領域との間で明るさレベルの大小関係が入れ替わるのも許すレチネックス処理と呼ばれる方法の各々に対応している。階調補正処理で前者をガンマ調整処理、後者をレチネックス処理と呼ぶならば、エッジ強調あるいはノイズ除去におけるガンマ調整版、レチネックス版を構築しているといえる。   This method of functional representation of the contrast ratio includes a method of increasing or decreasing the edge enhancement rate and noise removal rate with respect to a certain reference point between the brightness levels of the entire image, and a local brightness level near the edge. There are two ways to increase or decrease them only between the two. In the present embodiment, both are used. These two concepts are based on a general tone correction technique in which only the brightness of the entire image is adjusted by changing the tone curve curve on average (also referred to as a histogram equalization method) and a local edge structure. It corresponds to each of the methods called Retinex processing that emphasizes the contrast around and allows the magnitude relationship of the brightness level to be exchanged with other regions. If the former is called gamma adjustment processing and the latter is called Retinex processing in tone correction processing, it can be said that a gamma adjustment version and Retinex version for edge enhancement or noise removal are constructed.

すなわち、本実施形態で導入するエッジ強調率のコントラスト比の汎関数表現は、ガンマ調整版の場合、明るさレベルに対するエッジ強調率の増減幅特性は画像全体で一様である。一方、レチネックス版の場合、それらは画像全体では非一様であるが局所的なエッジ近傍では一様に1つの規則にのっとって増減幅がなされる。エッジ強調率の汎関数表現は、ノイズ除去とエッジ強調が同時に行われる場合、ノイズ除去で失われたエッジ成分を正確に同じようにして再現するという意味で、ノイズ除去率と同一の汎関数表現がなされるのがよいとの結論に達した。   That is, in the functional expression of the contrast ratio of the edge enhancement rate introduced in this embodiment, the increase / decrease width characteristic of the edge enhancement rate with respect to the brightness level is uniform in the entire image in the case of the gamma adjustment version. On the other hand, in the case of the Retinex version, they are non-uniform in the whole image, but are increased or decreased according to one rule uniformly in the vicinity of a local edge. The functional representation of the edge enhancement rate is the same functional representation as the noise removal rate in the sense that when noise removal and edge enhancement are performed at the same time, the edge components lost in noise removal are reproduced in exactly the same way. I came to the conclusion that it should be done.

−第1の実施の形態−(多重解像度版)
多重解像度を用いてノイズ除去とエッジ強調を同時に行う実施形態を示す。図1は、本発明の実施の形態である画像処理装置を示す図である。画像処理装置は、パーソナルコンピュータ1により実現される。パーソナルコンピュータ1は、デジタルカメラ2、CD−ROMなどの記録媒体3、他のコンピュータ4などと接続され、各種の画像データの提供を受ける。パーソナルコンピュータ1は、提供された画像データに対して、以下に説明する画像処理を行う。コンピュータ4は、インターネットやその他の電気通信回線5を経由して接続される。
-First embodiment-(Multi-resolution version)
An embodiment in which noise removal and edge enhancement are simultaneously performed using multi-resolution will be described. FIG. 1 is a diagram showing an image processing apparatus according to an embodiment of the present invention. The image processing apparatus is realized by the personal computer 1. The personal computer 1 is connected to a digital camera 2, a recording medium 3 such as a CD-ROM, another computer 4, etc., and receives various image data. The personal computer 1 performs image processing described below on the provided image data. The computer 4 is connected via the Internet and other telecommunication lines 5.

パーソナルコンピュータ1が画像処理のために実行するプログラムは、図1の構成と同様に、CD−ROMなどの記録媒体や、インターネットやその他の電気通信回線を経由した他のコンピュータから提供され、パーソナルコンピュータ1内にインストールされる。図2は、パーソナルコンピュータ1の構成を示す図である。パーソナルコンピュータ1は、CPU11、メモリ12、およびその周辺回路13などから構成され、CPU11がインストールされたプログラムを実行する。   A program executed by the personal computer 1 for image processing is provided from a recording medium such as a CD-ROM or another computer via the Internet or other electric communication line, as in the configuration of FIG. 1 is installed. FIG. 2 is a diagram illustrating a configuration of the personal computer 1. The personal computer 1 includes a CPU 11, a memory 12, a peripheral circuit 13 and the like, and executes a program in which the CPU 11 is installed.

プログラムがインターネットやその他の電気通信回線を経由して提供される場合は、プログラムは、電気通信回線、すなわち、伝送媒体を搬送する搬送波上の信号に変換して送信される。このように、プログラムは、記録媒体や搬送波などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給される。   When the program is provided via the Internet or another telecommunication line, the program is transmitted after being converted into a signal on a carrier wave carrying a telecommunication line, that is, a transmission medium. As described above, the program is supplied as a computer-readable computer program product in various forms such as a recording medium and a carrier wave.

以下、パーソナルコンピュータ1が実行する画像処理について説明する。図3は、パーソナルコンピュータ1が処理する第1の実施の形態の画像処理のフローチャートを示す図である。ステップS1では、画像データを入力する。ステップS2では、均等色・均等ノイズ空間に変換する。ステップS3では、ノイズ除去処理およびエッジ強調処理をする。ステップS4では、色空間を出力色空間へ逆変換する。ステップS5では、処理が終了した画像データを出力する。以下、各ステップの処理の詳細について説明する。   Hereinafter, image processing executed by the personal computer 1 will be described. FIG. 3 is a diagram illustrating a flowchart of image processing according to the first embodiment processed by the personal computer 1. In step S1, image data is input. In step S2, conversion to a uniform color / uniform noise space is performed. In step S3, noise removal processing and edge enhancement processing are performed. In step S4, the color space is inversely converted to the output color space. In step S5, the processed image data is output. Hereinafter, the details of the processing of each step will be described.

1.色空間変換
ステップS1で画像データ(以下、単に画像と言う)を入力すると、ステップS2において、入力画像をまず色空間変換し、ノイズ除去処理を行なうのに適した画像処理空間へ投影し直す。この画像処理空間として、国際公開第2006/064913号パンフレット(本出願人と同一発明者)に記載の均等色・均等ノイズ空間を用いる。通常、入力画像はsRGBといった標準色空間で表されていることが多い。ここでは色補正処理やガンマ補正処理がなされたsRGB画像を主な例として説明する。
1. Color Space Conversion When image data (hereinafter simply referred to as an image) is input in step S1, in step S2, the input image is first subjected to color space conversion and re-projected to an image processing space suitable for noise removal processing. As this image processing space, a uniform color / uniform noise space described in International Publication No. 2006/064913 pamphlet (the same inventor as the present applicant) is used. Usually, an input image is often expressed in a standard color space such as sRGB. Here, an sRGB image subjected to color correction processing and gamma correction processing will be described as a main example.

1−1.逆ガンマ補正
sRGB規定のガンマ特性、ないしは各カメラメーカーが固有の絵作りに使用したガンマ特性の階調変換処理を外し、元の線形階調に戻す。

Figure 0005359646
1-1. Inverse gamma correction
Remove the gamma characteristics specified by sRGB or the gamma characteristics used by each camera manufacturer to create a unique picture, and restore the original linear gradation.
Figure 0005359646

また、撮像素子にある分光感度分布特性を持つカラーフィルタが載せられた例えばBayer配列のような撮像信号に対してデモザイク処理が行われた後の線形階調のR,G,B信号を直接入力してもよい。   In addition, linear tone R, G, B signals are input directly after demosaic processing is performed on an image signal such as a Bayer array with a color filter having spectral sensitivity distribution characteristics in the image sensor. May be.

1−2.RGB色空間からXYZ色空間への変換
線形階調に戻されたsRGB画像からXYZ空間に変換する場合は、以下に示すような規格書通りの変換を行う。

Figure 0005359646
1-2. Conversion from RGB color space to XYZ color space When converting from an sRGB image returned to linear gradation to XYZ space, the following conversion is performed.
Figure 0005359646

デモザイク処理直後のセンサー分光感度分布特性を持つRGB信号の場合は、各々の分光感度分布特性に合わせたマトリックスを構成して、デバイス・インディペンデントなXYZ空間へ変換する。   In the case of RGB signals having sensor spectral sensitivity distribution characteristics immediately after demosaic processing, a matrix is formed in accordance with each spectral sensitivity distribution characteristic and converted into a device-independent XYZ space.

1−3.XYZ色空間から均等色・均等ノイズ色空間(L^a^b^)への変換
次式により、XYZ空間から擬似的に均等色配分された知覚的な属性を表す非線形階調のL^a^b^空間へ変換する。ここで定義するL^a^b^空間は、従来のいわゆる均等色空間L*a*b*に対し、均等ノイズ性を考慮して変形を加えたものであり、便宜的にL^a^b^と名付けたものである。

Figure 0005359646
1-3. Conversion from XYZ color space to uniform color / noisy color space (L ^ a ^ b ^) Non-linear gradation L ^ a representing the perceptual attribute of pseudo uniform color distribution from XYZ space by the following formula ^ b ^ Convert to space. The L ^ a ^ b ^ space defined here is a modified version of the conventional so-called uniform color space L * a * b * in consideration of uniform noise. It is named b ^.
Figure 0005359646

ここで、通常、均等色・均等ノイズ化する階調特性として

Figure 0005359646
を用いる。 Here, as a gradation characteristic that usually makes uniform color and uniform noise
Figure 0005359646
Is used.

X0,Y0,Z0は照明光によって定まる値であり、例えば、標準光D65下で2度視野の場合、X0=95.045、Y0=100.00、Z0=108.892のような値をとる。εの値は、センサーによっても異なるが、低感度設定のときはほぼ0に近い値を、高感度設定のときは0.25程度の値をとる。   X0, Y0, and Z0 are values determined by the illumination light. For example, in the case of a two-degree field under the standard light D65, X0 = 95.045, Y0 = 100.00, and Z0 = 108.892. The value of ε varies depending on the sensor, but takes a value close to 0 when the sensitivity setting is low and takes a value of about 0.25 when the sensitivity setting is high.

以下、ステップS3のノイズ除去処理およびエッジ強調処理について説明する。   Hereinafter, the noise removal processing and edge enhancement processing in step S3 will be described.

2.画像の多重解像度表現
多重解像度に基づいたノイズ除去処理およびエッジ強調処理の流れ図を図4に示す。輝度成分L^、色差成分a^、b^の各々の原画像を多重解像度表現して、ノイズ除去を行なう。原画像を順次ウェーブレット変換のAnalysis過程によって低解像度画像に分解していく(処理(1-0)(2-0)(3-0)(4-0)(5-0))。サブバンド画像が生成されるAnalysis過程をまとめて次式のように表す。

Figure 0005359646
ただし、S(x,y)はL^, a^, b^の各面に対してサブバンド画像Vij(x,y)を生成する。 2. Multiresolution Representation of Image FIG. 4 shows a flowchart of noise removal processing and edge enhancement processing based on multiresolution. The original image of each of the luminance component L ^ and the color difference components a ^, b ^ is expressed in multiple resolutions to remove noise. The original image is sequentially decomposed into low-resolution images by an analysis process of wavelet transform (processing (1-0) (2-0) (3-0) (4-0) (5-0)). The analysis process in which the subband image is generated is summarized as follows:
Figure 0005359646
However, S (x, y) generates a subband image Vij (x, y) for each surface of L ^, a ^, b ^.

なお、ウェーブレット変換とは、画像(画像データ)を周波数成分に変換するものであり、画像の周波数成分をハイパス成分とローパス成分に分割する。ハイパス成分からなるデータを高周波サブバンドと言い、ローパス成分からなるデータを低周波サブバンドと言い、LLを低周波サブバンド、LH, HL, HHを高周波サブバンドと言う。また、低周波サブバンドを低周波画像、高周波サブバンドを高周波画像と言ってもよい。さらに、各サブバンドを周波数帯域制限画像と言ってもよい。低周波サブバンドは、原画像の周波数帯域を低周波側に帯域制限した画像であり、高周波サブバンドは、原画像の周波数帯域を高周波側に帯域制限した画像である。   The wavelet transform is to convert an image (image data) into frequency components, and divides the frequency components of the image into a high pass component and a low pass component. Data consisting of a high-pass component is called a high-frequency subband, data consisting of a low-pass component is called a low-frequency subband, LL is called a low-frequency subband, and LH, HL, and HH are called high-frequency subbands. The low frequency subband may be referred to as a low frequency image, and the high frequency subband may be referred to as a high frequency image. Furthermore, each subband may be referred to as a frequency band limited image. The low frequency subband is an image in which the frequency band of the original image is band limited to the low frequency side, and the high frequency subband is an image in which the frequency band of the original image is band limited to the high frequency side.

通常の多重解像度変換は、低周波サブバンドLL成分を順次分解した高周波サブバンドを残していくだけであるが、ここではノイズ成分のサブバンド周波数帯域間での抽出漏れがないように、低周波側サブバンドLLと高周波サブバンドLH, HL, HHの両方を用いている。   Normal multi-resolution conversion only leaves the high-frequency subbands obtained by sequentially decomposing the low-frequency subband LL components, but here the low-frequency side so that there is no extraction leakage between the subband frequency bands of the noise components. Both subband LL and high frequency subbands LH, HL and HH are used.

ウェーブレット変換としては、例えば以下のような5/3フィルタを用いる。   As the wavelet transform, for example, the following 5/3 filter is used.

<ウェーブレット変換:Analysis/Decompositionプロセス>
ハイパス成分:d[n]=x[2n+1]-(x[2n+2]+x[2n])/2
ローパス成分:s[n]=x[2n]+(d[n]+d[n-1])/4
上記定義の1次元ウェーブレット変換を、横方向と縦方向に独立に2次元分離型フィルタ処理を行うことによって、ウェーブレット分解する。係数sをL面に集め、係数dをH面に集める。
<Wavelet transform: Analysis / Decomposition process>
High-pass component: d [n] = x [2n + 1]-(x [2n + 2] + x [2n]) / 2
Low-pass component: s [n] = x [2n] + (d [n] + d [n-1]) / 4
The one-dimensional wavelet transform defined above is subjected to wavelet decomposition by performing two-dimensional separation filter processing independently in the horizontal and vertical directions. The coefficient s is collected on the L plane, and the coefficient d is collected on the H plane.

<逆ウェーブレット変換:Synthesis/Reconstructionプロセス>
x[2n]=s[n]-(d[n]+d[n-1])/4
X[2n+1]=d[n]+(x[2n+2]+x[2n])/2
ただし、図4に示すように、ウェーブレット変換時のxの値には画像を表す信号を入力し、生成されたウェーブレット変換係数s,dに含まれるノイズ成分を抽出し、抽出されたノイズ成分を逆ウェーブレット時のs,dに代入してノイズ画像xを生成してゆく用い方をする。エッジ成分についても同様の用い方をする。
<Inverse wavelet transform: Synthesis / Reconstruction process>
x [2n] = s [n]-(d [n] + d [n-1]) / 4
X [2n + 1] = d [n] + (x [2n + 2] + x [2n]) / 2
However, as shown in FIG. 4, a signal representing an image is input to the value of x at the time of wavelet transform, noise components included in the generated wavelet transform coefficients s and d are extracted, and the extracted noise components are Substitute for s and d at the time of inverse wavelet to generate and use noise image x. The same method is used for the edge component.

上記多重解像度表現は5段のウェーブレット変換を用いているが、入力する原画像のサイズに応じて増減させてよい。また、多重解像度表現法として、上述のような直交ウェーブレット変換に限らず、ラプラシアン・ピラミッド表現やステアラーブル・ピラミッド表現等を用いてもよい。   The multi-resolution expression uses a 5-stage wavelet transform, but may be increased or decreased according to the size of the input original image. Further, the multi-resolution expression method is not limited to the orthogonal wavelet transform as described above, and a Laplacian pyramid expression, a steerable pyramid expression, or the like may be used.

3.仮想ノイズ除去によるノイズ抽出処理
3−1.ノイズ除去フィルタによるノイズ抽出処理
3−1−1.ノイズ除去処理
任意のノイズ除去フィルタを用いてよいが、ここでは一般に知られる高性能なバイラテラル・フィルタを改良した、国際公開第2006/068025号パンフレット(本願と同一発明者)に記載の次式の改良Bilateral Filterを用いる(処理(1-2)(2-2)(3-2)(4-2)(5-2))。

Figure 0005359646
ここで、i,jはサブバンド特定記号を表す。iは解像度の違いを、jはLL,LH,HL,HHの違いを表す。 3. 3. Noise extraction processing by virtual noise removal 3-1. Noise extraction processing by noise removal filter 3-1-1. Noise removal processing Arbitrary noise removal filters may be used. Here, the following formula described in pamphlet of International Publication No. 2006/068025 (the same inventor as the present application), which is an improvement of a generally known high-performance bilateral filter, is used. (2) (2-2) (2-2) (3-2) (4-2) (5-2)).
Figure 0005359646
Here, i and j represent subband identification symbols. i represents the difference in resolution, and j represents the difference between LL, LH, HL, and HH.

閾値σth ijは各サブバンド毎に期待されるノイズゆらぎ幅に合わせて設定し、エッジとノイズを区別しながらノイズ成分を抽出する。実空間におけるノイズゆらぎ指標値σthが決まれば、ウェーブレット変換式から誤差伝播則に基づいて各サブバンド信号へのゆらぎの伝播量を評価すれば、自動的に各々のサブバンドに最適なσth ijの値は決まる。σthの値はISO感度が高くなるに従い大きな値を設定する。例えば、ISO6400で256階調に対して実空間でのゆらぎ幅を10程度の値に設定したりする。   The threshold σth ij is set according to the expected noise fluctuation width for each subband, and noise components are extracted while distinguishing edges and noise. Once the noise fluctuation index value σth in the real space is determined, if the propagation amount of fluctuation to each subband signal is evaluated based on the error propagation law from the wavelet transform equation, the optimum σth ij for each subband is automatically set. The value is determined. The value of σth is set larger as the ISO sensitivity becomes higher. For example, the fluctuation width in real space is set to a value of about 10 for 256 gradations in ISO6400.

閾値rthの値は、ノイズ除去フィルタの範囲が解像度階層間で重なり合うように0.5〜3.0画素程度にとればよく、積分範囲もrthの2倍ないしは3倍程度にとれば十分係数値は小さな値に落ちている。一般に、他のノイズ除去フィルタであっても多重解像度表現されたサブバンド画像では3x3〜9x9程度の範囲の画素信号を参照するようなフィルタで十分なノイズ除去効果が得られる。   The threshold value rth should be about 0.5 to 3.0 pixels so that the range of the noise removal filter overlaps between resolution layers, and if the integration range is about 2 to 3 times rth, the coefficient value will be sufficiently small. falling. In general, even with other noise removal filters, a sufficient noise removal effect can be obtained with a filter that refers to pixel signals in the range of about 3 × 3 to 9 × 9 in a subband image expressed in multiple resolutions.

3−1−2.ノイズ抽出処理
各サブバンドにおいて、次式のようなノイズ抽出処理を行う(処理(1-3)(2-3)(3-3)(4-3)(5-3))。

Figure 0005359646
3-1-2. Noise extraction processing In each subband, noise extraction processing as shown in the following equation is performed (processing (1-3) (2-3) (3-3) (4-3) (5-3)).
Figure 0005359646

3−2.逐次ノイズ抽出
ノイズ成分を各サブバンド面のノイズ除去フィルタリングだけで漏れなく抽出するのは難しく、多重解像度分解による周波数帯域間で間隙を生じないように、他の解像度で抽出したノイズを参照しながら逐次的にノイズを抽出する。逐次的なノイズ除去の方法としてはAnalysis時とSynthesis時に行なう2通りの方法があるが、本実施形態ではSynthesis時の場合のみを示す。
3-2. Sequential noise extraction It is difficult to extract noise components without omission only by noise removal filtering of each subband surface, while referring to noise extracted at other resolutions so as not to generate gaps between frequency bands due to multiresolution decomposition. Extract noise sequentially. There are two sequential noise removal methods that are performed at the time of analysis and at the time of synthesis. In the present embodiment, only the case at the time of synthesis is shown.

また、ノイズ成分を正確に抽出するため、ノイズ除去の概念を仮想ノイズ除去と実際のノイズ除去の2つに分ける。仮想ノイズ除去の具体的処理は次のようになる。ノイズ抽出のためにだけ用いる仮想的なノイズ統合を行い(処理(2-4)(3-4)(4-4)(5-4))、各階層で生成される統合ノイズ成分をLLサブバンド面から減算して(処理(1-1)(2-1)(3-1)(4-1)(5-1))、LL面からノイズ成分を抽出しやすい状態にした後、上記ノイズ除去フィルタリングを行なう。   Further, in order to accurately extract noise components, the concept of noise removal is divided into two, virtual noise removal and actual noise removal. Specific processing for virtual noise removal is as follows. Performs virtual noise integration that is used only for noise extraction (Process (2-4) (3-4) (4-4) (5-4)) After subtracting from the band surface (processing (1-1) (2-1) (3-1) (4-1) (5-1)) to make it easy to extract noise components from the LL surface, the above Perform noise removal filtering.

すなわち、仮想的ノイズ統合は次式で表される。

Figure 0005359646
ただし、下層のノイズ統合により生成された1つ上の階層のLLバンドのノイズ成分と、「ノイズ抽出処理」により抽出された同じサブバンド面の冗長なノイズ成分とを合成するときには、同じLLサブバンド面上で加算を行って統合する。その様子は図4では「+」記号で表されている。 That is, the virtual noise integration is expressed by the following equation.
Figure 0005359646
However, when synthesizing the noise component of the upper LL band generated by the noise integration of the lower layer and the redundant noise component of the same subband surface extracted by the “noise extraction process”, the same LL sub Perform integration on the band surface. This is represented by the “+” symbol in FIG.

(補足説明)
図4より明らかであるが、図4で行なっている処理をより具体的に書けば、

Figure 0005359646
を行なった後に、3−1−1及び3−1−2の処理を行なう処理を繰り返すことを意味している。M=5のときは何もノイズ抽出行われていないノイズ成分を統合してくるので、N5(x,y)=0となる。 (Supplementary explanation)
As is clear from FIG. 4, if the processing performed in FIG.
Figure 0005359646
Means that the process of 3-1-1 and 3-1-2 is repeated after the process is performed. When M = 5, N5 (x, y) = 0 because noise components from which no noise is extracted are integrated.

4.エッジ抽出
仮想ノイズ除去された各サブバンド面から次式よりエッジ成分を抽出する(処理(1-5)(2-5)(3-5)(4-5)(5-5))。

Figure 0005359646
4). Edge extraction Edge components are extracted from each subband surface from which virtual noise has been removed by the following equation (processing (1-5) (2-5) (3-5) (4-5) (5-5)).
Figure 0005359646

ここで、エッジ検出フィルタとしてはラプラシアン・フィルタを用いる。ラプラシアン・フィルタとしては通常の3x3で定義される中心が8で周辺が-1の係数からなる最も単純なフィルタを用いてもよい。しかし、仮想ノイズ除去後にもなお残存するエッジを正確に抽出するため、ノイズ除去フィルタのフィルタリング範囲と連動させるのがよい。例えば、ノイズ除去フィルタの平滑化対象範囲が9x9程度の場合、ラプラシアン・フィルタも9x9程度に設定する。すなわち、ラプラシアンは、{(原画像)−(ガウスボカシ画像)}で定義すればよいので、フィルタ例として以下のようなものがある。ただし、tは転置行列を表し、一次元分離型フィルタの積で構成している。

Figure 0005359646
Here, a Laplacian filter is used as the edge detection filter. As a Laplacian filter, the simplest filter having a center defined by 3 × 3 and having a coefficient of 8 and a periphery of −1 may be used. However, in order to accurately extract edges that remain even after virtual noise removal, it is preferable to link with the filtering range of the noise removal filter. For example, when the smoothing target range of the noise removal filter is about 9x9, the Laplacian filter is also set to about 9x9. That is, the Laplacian may be defined by {(original image) − (Gaussian blur image)}, and examples of filters include the following. However, t represents a transposed matrix and is composed of products of one-dimensional separation filters.
Figure 0005359646

ここで抽出したエッジ成分は、エッジ強度の局所的な度数分布のイメージ図を描いてみると図5(a)のような分布をしている。ノイズゆらぎ幅と同程度に変動するエッジ構造が全て仮想ノイズ除去によって消失した後の面からエッジ抽出しているにもかかわらず、ゼロ近傍に最大ピークをもつ微弱なエッジが抽出されている理由は、仮想ノイズ除去後に僅かに残る微弱エッジ構造の跡形とその周りに存在する大きなエッジ成分の画像構造の様子から、その近辺にあったと推定される微弱エッジ成分を推測していることにほかならない。   The edge component extracted here has a distribution as shown in FIG. 5A when an image diagram of the local frequency distribution of the edge strength is drawn. The reason why the weak edge with the maximum peak near zero is extracted even though the edge structure that fluctuates as much as the noise fluctuation width is all extracted from the surface after disappearing by virtual noise removal From the trace of the weak edge structure that remains slightly after the removal of virtual noise and the state of the image structure of the large edge component that exists around it, the weak edge component presumed to have been in the vicinity is inferred.

5.ノイズ成分の自己精錬
ノイズ除去フィルタで抽出するノイズ成分の中には、如何なる結果のノイズ成分が抽出されるかは何の保証もない。画像構造の状況によっては特異成分が含まれてしまう。また、その含まれ方もノイズ除去フィルタの性能具合によって異なってくる。
5. Self-refining of noise components There is no guarantee what kind of noise components are extracted from among the noise components extracted by the noise removal filter. Depending on the situation of the image structure, a singular component is included. In addition, the manner in which it is included varies depending on the performance of the noise removal filter.

そこで、本来ノイズ除去フィルタが抽出ないしは平滑化対象としているノイズ成分がランダムノイズであることを思い返せば、その抽出されたノイズ成分の振る舞いも階調方向に関してポアッソン分布に起因したガウス分布特性を持っていなければ、ノイズ除去フィルタ側で何かの間違いを犯していると考えるのが妥当である。すなわち、ノイズ抽出結果をノイズらしい振る舞いをしているか統計的に検証することによって、誤って混入した特異エッジ成分を除外し、本来あるべきランダム・ノイズの姿に近づけることができる(処理(1-6)(2-6)(3-6)(4-6)(5-6))。

Figure 0005359646
Therefore, if we recall that the noise component originally extracted or smoothed by the noise removal filter is random noise, the behavior of the extracted noise component also has a Gaussian distribution characteristic due to the Poisson distribution in the gradation direction. If not, it is reasonable to think that something is wrong on the noise removal filter side. In other words, by statistically verifying whether the noise extraction result behaves like noise, it is possible to exclude erroneously mixed singular edge components and to approximate the appearance of random noise (process (1- 6) (2-6) (3-6) (4-6) (5-6)).
Figure 0005359646

これは均等ノイズ空間でノイズ抽出を行っているからこそ置くことのできる仮定である。明るい所と暗い所でノイズ振幅の増幅率の違う画像処理空間では、全ての明るさレベルでこのような対称なガウス分布をせずに非対称化し、更に明るさ毎にそれがどのような分布をするか予測が付かず、このようなスマートな処理ができない。   This is an assumption that can be placed because noise extraction is performed in a uniform noise space. In an image processing space where the amplification factor of noise amplitude differs between bright and dark areas, all brightness levels are asymmetrical without such a symmetric Gaussian distribution, and what distribution is distributed for each brightness level. It is impossible to predict whether such a smart process will be performed.

ここに、σn th ijの値はノイズ除去フィルタで用いたノイズゆらぎ指標値σth ijの値の6倍程度に設定するのがよい。すなわち、シックス・シグマを超えていれば統計的に明らかに異常だと認定することになる。   Here, the value of σn th ij is preferably set to about 6 times the value of the noise fluctuation index value σth ij used in the noise removal filter. That is, if it exceeds Six Sigma, it will be recognized as statistically abnormal.

6.エッジ成分の自己精錬
エッジ抽出過程によって抽出されたエッジ成分は、図5(a)に示されるようにリンギングやハローの要因となる度数分布から見れば特異な撹乱成分が含まれている。従来このような成分を減衰させるため、入力エッジ強度に対して出力エッジ強度が単調増加となる関数を通過させていた。しかし、抽出されたエッジ成分の真偽に関する明確なモデルと指針がないため、抽出したエッジ成分は有効に扱わねばならないという考えに基づいて単調増加関数が設定されていた。しかし、エッジ強度がいくら大きくなっても有限値を残すということはリンギングを生じさせる危険がつきまとう。
6). Self-refining of edge component The edge component extracted by the edge extraction process includes a special disturbance component as seen from the frequency distribution that causes ringing and halo as shown in FIG. Conventionally, in order to attenuate such components, a function in which the output edge strength monotonously increases with respect to the input edge strength is passed. However, since there is no clear model and guideline regarding the authenticity of the extracted edge component, a monotonically increasing function has been set based on the idea that the extracted edge component must be handled effectively. However, leaving a finite value no matter how large the edge strength is, there is a risk of causing ringing.

本実施形態では、リンギングを生じさせずに自然なエッジ強調ができるエッジ成分のモデルを立てて、その判別指針に基づいてそれ以外の成分は完全に抹消する方策をとる。なぜならば、本実施の形態が目的としているエッジ成分は、「基本的考え」のところでも述べたように、ノイズ成分によって埋もれる程度のエッジ成分をいかにして正確に推定して復元することができるかという点にあるからである。その意味で、本来存在しないはずのリンギングやハロー成分を抽出することは許されない。これは、多重解像度の各サブバンド毎に満たしていなければならない。   In this embodiment, a model of an edge component capable of natural edge enhancement without causing ringing is established, and a measure is taken to completely erase other components based on the determination guideline. This is because the edge component targeted by the present embodiment can be accurately estimated and restored by using the edge component that is buried by the noise component as described in the section “Basic idea”. It is because of that. In that sense, it is not allowed to extract ringing or halo components that should not exist. This must be met for each subband of the multi-resolution.

従って、その仮説とは、理想的な均等色・均等ノイズ空間で抽出された自然なエッジ成分はガウス分布する、というものである。したがって、図6のようなある振幅レベル以上のエッジ成分は完全に消滅するような強力な減衰特性をもつ非線形関数を通すと、エッジ成分をモデルとするエッジ成分の姿に近づけることが可能となる。エッジ成分の自己精錬を式で表せば以下のようになる(処理(1-7)(2-7)(3-7)(4-7)(5-7))。

Figure 0005359646
Therefore, the hypothesis is that natural edge components extracted in an ideal uniform color / uniform noise space are Gaussian distributed. Accordingly, when a non-linear function having a strong attenuation characteristic such that an edge component having a certain amplitude level or more as shown in FIG. 6 completely disappears is passed, it becomes possible to approximate the shape of the edge component using the edge component as a model. . The self-refining of the edge component can be expressed as follows (processing (1-7) (2-7) (3-7) (4-7) (5-7)).
Figure 0005359646

ここで、σe th ijの値は、ノイズ除去フィルタで用いたノイズゆらぎ指標値σth ijの値と全く同じ値に設定する必要がある。そうすることによってリンギング成分を排除するとともに、ノイズ除去フィルタで区別できないためにノイズ除去によって消失してしまうと予測される微弱エッジ成分を、ここで同じ量だけ再度復活して抽出することが可能になり、エッジ強調として加算したときに微弱エッジ成分の復活が可能となるからである。また、ノイズ除去処理を伴わなくても、ノイズ被りによって低下するエッジのコントラストに相当する輪郭成分の量や、ノイズ被りによって見えなくなるテキスチャ成分の量を同じ量だけ正確に抽出することができる。   Here, the value of σe th ij needs to be set to exactly the same value as the value of the noise fluctuation index value σth ij used in the noise removal filter. By doing so, the ringing component is eliminated, and the weak edge component that is predicted to disappear due to noise removal because it cannot be distinguished by the noise removal filter can be recovered again by the same amount here and extracted. This is because the weak edge component can be restored when added as edge enhancement. Even without the noise removal process, it is possible to accurately extract the same amount of the amount of the contour component corresponding to the contrast of the edge that decreases due to the noise covering and the amount of the texture component that becomes invisible due to the noise covering.

このように、均等色・均等ノイズ空間で扱った場合、エッジ成分もノイズ成分もどちらも共に本来理想的に局所領域内の度数分布はガウス分布をしているという指針に基づいて、ノイズ成分に含まれるエッジ成分によるノイズ除去での輪郭ボケを防いだり、エッジ成分に含まれるリンギング成分によるエッジ強調でのハローやハウリングの発生を防止したりすることが可能となる。また、そのガウス分布の幅をノイズゆらぎ指標値と同じ分布幅のモデルを立てることにより、ノイズの振幅幅と同程度の性質を示す微弱エッジや輪郭のコントラスト成分を抽出することが可能となる。   In this way, when handled in a uniform color / uniform noise space, both the edge component and noise component are ideally both noise components based on the guideline that the frequency distribution in the local region is ideally Gaussian. It is possible to prevent contour blurring due to noise removal due to included edge components, and to prevent occurrence of halos and howling during edge enhancement due to ringing components included in edge components. Further, by creating a model having the same Gaussian distribution width as that of the noise fluctuation index value, it is possible to extract a weak edge and a contrast component of the contour exhibiting properties similar to the noise amplitude width.

上記エッジ成分の自己精錬は、エッジ成分の強度に関する度数分布がノイズゆらぎ指標値σth ijに基づく所定幅のガウス分布に近づくように各々のエッジ成分を減衰する補正を行うことによりなされる。また、ノイズゆらぎ指標値σth ijは、前述のように各解像度の各サブバンド毎に期待されるノイズゆらぎ幅に合わせて設定される。従って、抽出された各解像度の各サブバンド(帯域制限画像)のエッジ成分は、各々のサブバンド毎のエッジ成分の強度に関する度数分布が各解像度(各帯域)に固有の所定幅のガウス分布に近づくように補正される。   The edge component self-refining is performed by correcting each edge component so that the frequency distribution related to the strength of the edge component approaches a Gaussian distribution having a predetermined width based on the noise fluctuation index value σth ij. Further, the noise fluctuation index value σth ij is set in accordance with the noise fluctuation width expected for each subband of each resolution as described above. Therefore, the extracted edge component of each subband (band-limited image) of each resolution has a frequency distribution related to the intensity of the edge component for each subband to a Gaussian distribution with a predetermined width unique to each resolution (each band). It is corrected to approach.

また、上記エッジ成分の自己精錬は、別の表現をすれば、エッジ成分自身の大きさに基づいて、エッジ成分の中に含まれる偽のエッジ成分の量を推定し、この推定結果に基づいて、抽出されたエッジ成分から偽のエッジ成分を除外して実エッジ成分を抽出している。このようにして精錬されたエッジ成分は、図5(b)のような度数分布となる。   In other words, the self-refining of the edge component estimates the amount of the false edge component contained in the edge component based on the size of the edge component itself. The real edge component is extracted by excluding the false edge component from the extracted edge component. The edge component thus refined has a frequency distribution as shown in FIG.

7.エッジによるノイズ成分の精錬(相互精錬1)
このように項目番号5と項目番号6の処理を経てきたノイズ成分とエッジ成分はかなりの確度でその純度が高まっている。しかしながら、項目番号5で自己精錬したノイズ成分の中には依然としてノイズ成分のように振る舞うエッジ成分が含まれている。このエッジ成分の除外には、信頼度の高いエッジ成分を参照してノイズ成分の中にどの程度そのような成分が含まれる状況が生じうるかを推定して排除するしかない。ここで混入しているエッジ成分は、ノイズと同程度の強度で振る舞うテキスチャ等のエッジ成分であるので、そのようなテキスチャ領域は周囲にフラクタル的に大きなエッジ構造を持っている場合が多い。従って、その領域のエッジ強度を参照すれば凡そ混入している量が推定できる。
7). Refinement of noise components by edge (mutual refining 1)
As described above, the purity of the noise component and the edge component that have been subjected to the processing of item number 5 and item number 6 is increased with considerable accuracy. However, the self-refined noise component in item number 5 still contains an edge component that behaves like a noise component. This edge component can only be excluded by estimating the extent to which a noise component can be included with reference to a highly reliable edge component. Since the edge component mixed here is an edge component such as a texture that behaves at the same intensity as noise, such a texture region often has a large fractal edge structure around it. Therefore, the amount of contamination can be estimated by referring to the edge strength of the region.

すなわち、次のような仮説に基づく。エッジ成分の強度(絶対値)が大きい領域では、ノイズ成分の大部分は混入エッジ成分である割合が高く、エッジ成分の強度(絶対値)が小さい領域ではノイズ成分の大部分は真のノイズ成分である可能性が高い。この確率モデルにもガウス分布を利用して、以下のように相互精錬を行う(処理(1-8)(2-8)(3-8)(4-8)(5-8))。同じガウス分布によるモデルを用いているので、この相互精錬によって理想のノイズ・モデルの形が崩されることはなく、より理想形に近づく。

Figure 0005359646
That is, based on the following hypothesis. In the region where the edge component strength (absolute value) is large, the majority of the noise component is a mixed edge component, and in the region where the edge component strength (absolute value) is small, most of the noise component is a true noise component. Is likely. Using this Gaussian distribution for this probabilistic model, mutual refining is performed as follows (processing (1-8) (2-8) (3-8) (4-8) (5-8)). Since a model with the same Gaussian distribution is used, the shape of the ideal noise model is not destroyed by this mutual refining, and it approaches the ideal form more.
Figure 0005359646

ここに、σne th ijの値は項目番号5で用いたσn th ijと同じく、ノイズゆらぎ指標値σth ijの6倍に設定するとよい。すなわち、そのように統計的に完璧にエッジと考えられる領域で混入エッジ成分の排除を行う。   Here, the value of σne th ij is preferably set to 6 times the noise fluctuation index value σth ij as in the case of σn th ij used in item number 5. That is, the mixed edge component is eliminated in such a region that is considered to be statistically perfectly an edge.

8.ノイズによるエッジ成分の精錬(相互精錬2)
項目番号7の説明と同じくして、項目番号6で自己精錬したエッジ成分の中にもエッジ成分のように振る舞うノイズ成分が含まれている。このノイズ成分の除外には、信頼度の高いノイズ成分を参照してエッジ成分の中にどの程度そのような成分が含まれる状況が生じうるかを推定して排除するしかない。ここで混入しているノイズ成分は、抽出したいエッジ成分と同程度の強度で振る舞うノイズ成分である。そのようなエッジ成分に混入したノイズ成分は、項目番号7で抽出されたノイズ成分でも同じ程度の大きさのノイズ成分として抽出されているはずである。
8). Refinement of edge components by noise (mutual refining 2)
Similar to the description of item number 7, the edge component self-refined in item number 6 also includes a noise component that behaves like an edge component. This noise component can only be excluded by estimating the extent to which such an edge component can be included with reference to a highly reliable noise component. The noise component mixed here is a noise component that behaves with the same intensity as the edge component to be extracted. The noise component mixed in such an edge component should be extracted as a noise component having the same level as the noise component extracted in the item number 7.

したがって、次のような仮説に基づいてエッジ成分に混入したノイズ成分の割合を推定することができる。すなわち、ノイズ成分の強度(絶対値)の大きい領域では、エッジ成分の大部分は混入ノイズ成分である割合が高く、ノイズ成分の強度(絶対値)が小さい領域ではエッジ成分の大部分は真のエッジ成分である可能性が高い。この確率モデルにもガウス分布を利用して、以下のように相互精錬を行う(処理(1-9)(2-9)(3-9)(4-9)(5-9))。同じガウス分布によるモデルを用いているので、この相互精錬によって理想のエッジ・モデルの形が崩されることもなく、より理想形に近づく。

Figure 0005359646
Therefore, it is possible to estimate the ratio of the noise component mixed in the edge component based on the following hypothesis. That is, in the area where the intensity (absolute value) of the noise component is large, the majority of the edge component is a mixed noise component, and in the area where the intensity (absolute value) of the noise component is small, most of the edge component is true. There is a high possibility of being an edge component. Using this Gaussian distribution for this probabilistic model, mutual refining is performed as follows (processing (1-9) (2-9) (3-9) (4-9) (5-9)). Since a model with the same Gaussian distribution is used, the shape of the ideal edge model is not destroyed by this mutual refining, and it approaches the ideal form more.
Figure 0005359646

ここに、σen th ijの値は項目番号6で用いたσe th ijと同じく、ノイズゆらぎ指標値σth ijと同じ値に設定する必要がある。そうすることによって、エッジ成分の中に含まれた抽出ノイズ成分でも観測されているノイズ成分を除外することができる。従って、エッジ強調によってノイズ感が増えてしまうことが防止できる。   Here, the value of σen th ij needs to be set to the same value as the noise fluctuation index value σth ij, similarly to σe th ij used in item number 6. By doing so, it is possible to exclude a noise component that is also observed in the extracted noise component included in the edge component. Therefore, it is possible to prevent the noise feeling from increasing due to edge enhancement.

上記処理は、抽出したノイズ成分の絶対値が大きければ大きいほど、エッジ成分に含まれる残存ノイズ成分の割合が大きいと推定し、エッジ成分から推定した残存ノイズ成分を除外していることを意味する。別の言い方をすると、上記処理は、抽出したノイズ成分の絶対値を引数とするガウス分布関数によって、抽出したエッジ成分の内の実エッジ成分の存在割合を推定し、推定した実エッジ成分を求めていることを意味する。また、別の言い方をすると、原画像に対してノイズ成分を抽出するときに使用するノイズゆらぎ指標値を、抽出した各画素位置におけるノイズ成分の絶対値と比較することによって、エッジ成分に含まれる残存ノイズ成分の割合を推定している。   The above processing means that the larger the absolute value of the extracted noise component is, the larger the ratio of the residual noise component included in the edge component is, and the residual noise component estimated from the edge component is excluded. . In other words, the above processing is performed by estimating the existence ratio of the actual edge component in the extracted edge component using a Gaussian distribution function with the absolute value of the extracted noise component as an argument, and obtaining the estimated actual edge component. Means that In other words, the noise fluctuation index value used when the noise component is extracted from the original image is included in the edge component by comparing it with the absolute value of the noise component at each extracted pixel position. The ratio of residual noise components is estimated.

9.実ノイズ成分の統合
各サブバンドで漏れなくノイズ成分が抽出された後、きれいに精錬されたノイズ成分を今度は、実画像へのダメージが最も少なくノイズ除去効果の高い周波数バンド間ウェイトをつけて統合する。
9. Integration of real noise components After the noise components are extracted without omission in each sub-band, the finely refined noise components are now integrated with frequency band weights that have the least damage to the real image and high noise reduction effect. To do.

周波数バンド間の重みとしては、低周波サブバンドと高周波サブバンドの間の重みkn iと解像度レベル間の重みkn jとがあり、各々を個別に与えて合成重みkn ijを最終的なそのサブバンドのノイズ成分の統合ウェイトとする。すなわち、式で表せば、

Figure 0005359646
となる。図4の重みkn ijは(重み(1-14)(2-14)(3-14)(4-14)(5-14))、低周波サブバンドと高周波サブバンドの間の重みkn iと解像度レベル間の重みkn jの2つが入っている。 As weights between frequency bands, there are weights kni between low-frequency subbands and high-frequency subbands, and weights kjj between resolution levels. The integrated weight of the noise component of the band. In other words,
Figure 0005359646
It becomes. The weight kn ij in FIG. 4 is (weight (1-14) (2-14) (3-14) (4-14) (5-14)), and the weight kn i between the low frequency subband and the high frequency subband. And a weight kn j between resolution levels.

9−1.L/Hバンド間の重みの設定
本願発明者による国際公開第2007/114363号パンフレットと国際公開第2007/116543号パンフレットによれば、実画像へのダメージが最も少なくなるようなノイズ成分の統合ウェイトは、原画像が輝度成分の場合、高周波サブバンド・ノイズの重みを大きくし、低周波サブバンド・ノイズの重みを小さくするのがよいとしている。また、原画像が色差成分の場合、低周波サブバンド・ノイズの重みを大きくし、高周波サブバンド・ノイズの重みを小さく、ないしは低周波サブバンド・ノイズの重みと同程度にするのがよいとしている。また、この低周波サブバンドと高周波サブバンドの重みは統合ノイズ成分の周波数特性を大きく変え、ノイズ除去の見栄えを大きく変えるので、そのバンド間の重みをグラフィック・ユーザー・インターフェースを通じて、特に輝度成分のバンド間重みを粒状性設定パラメータとしてユーザーに開放している。
9-1. Setting weights between L / H bands According to WO 2007/114363 pamphlet and WO 2007/116543 pamphlet by the inventor of the present application, integrated weights of noise components that minimize damage to actual images If the original image is a luminance component, it is recommended to increase the weight of the high-frequency subband noise and decrease the weight of the low-frequency subband noise. Also, if the original image is a color difference component, the weight of the low frequency subband noise should be increased, the weight of the high frequency subband noise should be decreased, or it should be the same as the weight of the low frequency subband noise. Yes. In addition, the weight of the low frequency subband and the high frequency subband greatly change the frequency characteristics of the integrated noise component and greatly change the appearance of noise removal. The band-to-band weight is open to the user as a granularity setting parameter.

しかし、この粒状性を制御するパラメータの他に、ノイズ除去率λの制御によるボケ具合(unsharpness)の設定や、ノイズ除去フィルタのノイズゆらぎ指標値σthの制御によるノイズ除去の強度(intensity)の設定をする必要がある。これは、技術に詳しくない一般ユーザーにとっては3軸の制御を理解して最良の結果を得るには手間ひまの掛かる難しい状態となっていた。そこで、本実施形態では、それらの画質への物理的効果を踏まえ、完全独立制御する必要性のないパラメータは他との連動制御することにより、容易に高画質のノイズ除去結果を得られるようにする。   However, in addition to the parameters that control the graininess, setting of the degree of blur (unsharpness) by controlling the noise removal rate λ and setting of the noise removal intensity (intensity) by controlling the noise fluctuation index value σth of the noise removal filter It is necessary to do. This is a difficult situation for general users who are not familiar with technology to understand the three-axis control and obtain the best results. Therefore, in the present embodiment, based on the physical effect on the image quality, parameters that do not need to be completely independently controlled can be easily linked with other parameters so that a high-quality noise removal result can be easily obtained. To do.

輝度成分の低周波サブバンドによるノイズ除去は、ぺったりと階調性を失った平面的な画像を生みノイズ除去の弊害が大きい。一方の輝度成分の高周波サブバンドによるノイズ除去はさらさらとした画像を生みノイズ除去の弊害が少ない。したがって、輝度成分への画質破壊が最も少ないのは低周波サブバンド・ノイズの重みを無くしたときであるが、このとき低周波サブバンドを用いないことによるノイズの抽出漏れが生じる。色差成分についても同様に、画質破壊が最も少ないのはある程度高周波サブバンド・ノイズの重みを小さくしたときであるが、このとき高周波サブバンド・ノイズの重みを下げたことによる突出状の色ノイズ残りが生じやすくなる。   Noise removal by the low-frequency sub-band of the luminance component produces a flat image that has lost its tonal characteristics and has a great detrimental effect on noise removal. On the other hand, noise removal by the high-frequency subband of the luminance component produces a smooth image and has less adverse effects of noise removal. Therefore, the image quality destruction to the luminance component is the least when the weight of the low-frequency subband noise is eliminated. At this time, noise extraction omission due to not using the low-frequency subband occurs. Similarly, for the color difference component, the image quality destruction is least when the weight of the high frequency subband noise is reduced to some extent, but at this time, the protruding color noise remaining due to the reduction of the weight of the high frequency subband noise. Is likely to occur.

これらのことを考え合わせれば、ノイズ除去率が小さいときは多少のノイズ抽出漏れがあろうとも画質破壊を無くすことを最重要視し、ノイズ除去率が大きいときは平面的になる画質破壊があろうともノイズの抽出漏れを無くすことを最重要視する設計にするのが最良の結果を生むと考えられる。ここに、諸々のパラメータを一括して連動制御するための統括ノイズ除去率λjointを導入し、L/Hバンド間のノイズ成分の統合ウェイトを以下のように制御する(処理(1-16)(2-16)(3-16)(4-16)(5-16))。ただし、λjointの値は、通常0≦λjoint≦1に設定するのが普通であるが、後のノイズ除去率やエッジ強調率の汎関数化することを踏まえて、0≦λjoint≦8程度を目安とした上限値をとり、明確な上限値への制限を設けない。   Considering these factors, when the noise removal rate is small, the most important point is to eliminate image quality destruction even if there is a slight noise extraction omission, and when the noise removal rate is large, there is planar image quality destruction. It is considered that the best results are obtained by designing the most important thing to eliminate noise extraction leakage. Here, we introduce an overall noise removal rate λjoint to control various parameters collectively and control the integrated weight of noise components between L / H bands as follows (Process (1-16) ( 2-16) (3-16) (4-16) (5-16)). However, it is normal to set the value of λjoint to 0 ≦ λjoint ≦ 1, but in consideration of the functionalization of the subsequent noise removal rate and edge enhancement rate, approximately 0 ≦ λjoint ≦ 8 is a guideline. The above upper limit is taken, and there is no limit to a clear upper limit.

λjointの設定は、パーソナルコンピュータ1のモニタ(不図示)に例えばスライドバーを有する設定画面を表示することにより行われる(処理(0-5))。ユーザーは、キーボード(不図示)やマウス(不図示)を使用して設定画面のスライドバー中のカーソルを任意の位置に操作することによりλjointの値を設定する。これにより、ユーザは簡易に上記λjointのパラメータを設定することができる。なお、カメラで処理する場合は、カメラがユーザに提供するノイズ除去の強さレベル「弱」「中」「強」などに合わせて、カメラメーカが事前に対応値を決めて設定するようにしてもよい。   The setting of λjoint is performed by displaying, for example, a setting screen having a slide bar on a monitor (not shown) of the personal computer 1 (processing (0-5)). The user sets the value of λjoint by operating the cursor in the slide bar on the setting screen to an arbitrary position using a keyboard (not shown) or a mouse (not shown). As a result, the user can easily set the parameter of the λjoint. When processing with the camera, the camera manufacturer should determine and set the corresponding value in advance according to the noise removal strength level “weak”, “medium”, “strong”, etc. provided to the user by the camera. Also good.

輝度成分の場合

Figure 0005359646
In case of luminance component
Figure 0005359646

色差成分の場合

Figure 0005359646
ただし、0≦kni≦1 (i=LL,LH,HL,LL)を満たすようにする。 For color difference components
Figure 0005359646
However, 0 ≦ k ni ≦ 1 (i = LL, LH, HL, LL) is satisfied.

上記式は一例であって、このような取り方に留まらない。通常、LLを低周波サブバンド、LH,HL,HHを高周波サブバンドとして扱っているが、LH,HLにも多少の低周波サブバンド特性があることを考慮して、例えば、輝度成分のLH,HLバンドも統括ノイズ除去率λjointに連動させて1に近い範囲で多少重みを下げられるようにしてもよい。   The above formula is an example, and it does not stop in this way. Normally, LL is treated as a low-frequency subband and LH, HL, and HH are treated as high-frequency subbands. Considering that LH and HL also have some low-frequency subband characteristics, for example, the luminance component LH Therefore, the HL band may be slightly reduced in weight within a range close to 1 in conjunction with the overall noise removal rate λjoint.

9−2.解像度レベル間の重みの設定
通常、ショットノイズに起因するノイズ成分は低周波成分から高周波成分まで一様に分布するホワイト・ノイズであると考えてよいので、解像度レベル間のノイズ統合ウェイトは全て同じ値の1に設定する。すなわち、下式となる。

Figure 0005359646
9-2. Setting weights between resolution levels Normally, noise components caused by shot noise can be considered as white noise that is uniformly distributed from low frequency components to high frequency components, so the noise integration weights between resolution levels are all the same. Set the value to 1. That is, the following formula is obtained.
Figure 0005359646

9−3.実ノイズ成分の統合処理
上述のようなノイズ除去の効果とその弊害対策の両立に最適な周波数バンド間の重みがつけられたノイズ成分を下式のように統合する(処理(1-10)(2-10)(3-10)(4-10)(5-10))。

Figure 0005359646
9-3. Integration processing of actual noise components The noise components weighted optimally between the frequency bands that are optimal for both the above-mentioned noise removal effect and its countermeasures are integrated as shown in the following equation (Process (1-10) ( 2-10) (3-10) (4-10) (5-10)).
Figure 0005359646

ただし、項目番号3の仮想ノイズ統合のときと同様に、下層から統合されてきたLLバンドのノイズ成分と元からLLバンドのノイズ抽出によって存在するノイズの2つのノイズ成分は加算することによって統合を行うものとする(処理(1-11)(2-11)(3-11)(4-11)(5-11))。その他は逆ウェーブレット変換処理を行うことによって統合する。   However, as in the case of the virtual noise integration of item number 3, the integration is performed by adding the LL band noise component integrated from the lower layer and the two noise components existing from the LL band noise extraction. (Processing (1-11) (2-11) (3-11) (4-11) (5-11)). Others are integrated by performing inverse wavelet transform processing.

このようにして抽出されるノイズ成分は、輝度面と色差面の原画像の周波数の性質に合わせて周波数調合していることから、ノイズ抽出に最適な周波数投影空間を原画像の性質に合わせて変えているといってもよい。更に、ノイズ除去率に応じてもその周波数投影空間を変更していることに相当する。   Since the noise components extracted in this way are frequency-adjusted according to the frequency characteristics of the original image of the luminance plane and the color difference plane, the optimal frequency projection space for noise extraction is matched to the characteristics of the original image. It may be said that it is changing. Further, the frequency projection space corresponds to changing the noise removal rate.

10.実エッジ成分の統合
各サブバンドでノイズに埋もれるような微弱なエッジ成分を抽出し、その中に含まれるノイズ成分やリンギング成分がきれいに精錬されたエッジ成分を、今度は、実画像のノイズ被りによるコントラスト復元やノイズ除去の弊害対策を最も自然な印象を与え、エッジ強調によるエンハンスメント効果の高い周波数バンド間ウェイトをつけて統合する。
10. Integration of real edge components We extract weak edge components that are buried in noise in each subband, and use the edge components that have been refined with the noise components and ringing components included in the subbands. The effects of contrast restoration and noise removal are combined to give the most natural impression, with weights between frequency bands that have a high enhancement effect by edge enhancement.

周波数バンド間の重みとしてはノイズ成分のときと同様に、低周波サブバンドと高周波サブバンドの間の重みke iと解像度レベル間の重みke jとがあり、各々を個別に与えて合成重みke ijを最終的なそのサブバンドのエッジ成分の統合ウェイトとする。すなわち、式で表せば、

Figure 0005359646
となる。図4の重みke ijは(重み(1-15)(2-15)(3-15)(4-15)(5-15))、低周波サブバンドと高周波サブバンドの間の重みke iと解像度レベル間の重みke jの2つが入っている。 As in the case of the noise component, there are weights ke i between the low-frequency subband and the high-frequency subband and a weight ke j between the resolution levels as weights between the frequency bands. Let ij be the integrated weight of the final edge component of that subband. In other words,
Figure 0005359646
It becomes. The weight ke ij in FIG. 4 is (weight (1-15) (2-15) (3-15) (4-15) (5-15)), the weight ke i between the low frequency subband and the high frequency subband. And the weight ke j between the resolution levels.

10−1.L/Hバンド間の重みの設定
本願発明者による国際公開第2007/114363号パンフレットと国際公開第2007/116543号パンフレットには特に周波数調合の仕方について記述はない。しかし、本実施形態の冒頭の主観量と物理的効果の解明によると、最も自然な印象を与え、エンハンスメント効果の高い周波数調合の仕方は以下のような議論から組み立てることができる。
10-1. Setting of weights between L / H bands In the pamphlet of International Publication No. 2007/114363 and the pamphlet of International Publication No. 2007/116543 by the inventor of the present application, there is no description about how to mix frequencies. However, according to the elucidation of the subjective amount and the physical effect at the beginning of the present embodiment, the frequency blending method that gives the most natural impression and has the high enhancement effect can be assembled from the following discussion.

まず、ノイズ除去を伴わない、単なる高感度撮影の感度を上げていった場合のノイズゆらぎ振幅の増幅に伴うノイズ被りによって不鮮明になっている画像を復元する場合を考えよう。この原画像は、何よりもまず、エッジ強調が全く行われていない間は、輝度成分のノイズの振幅幅によって白く霞んでしまった階調コントラストの復元も、ノイズに埋もれてしまったテキスチャの復元も、色差成分の色ノイズの被りによってくすんでしまった彩度の復元も、色ノイズの重畳によって生じた色境界の滲みボケの復元も、何もかもを最初は必要としている。したがって、多重解像度空間で低周波サブバンドと高周波サブバンドの冗長な2つの周波数帯に分解し、各々から抽出したエッジ成分によるエッジ強調効果のすべてを必要としている。   First, let us consider a case in which an image that has become blurred due to noise covering due to amplification of noise fluctuation amplitude when the sensitivity of simple high-sensitivity shooting is increased without noise removal is considered. First of all, this edge of the original image, when no edge emphasis is performed, restores gradation contrast that has become white due to the amplitude width of the noise of the luminance component, and also restores texture that has been buried in noise. First, everything needs to be restored, such as restoration of saturation that has been made dull due to the color noise of the color difference component, and restoration of blurring of the color boundary caused by the superimposition of the color noise. Therefore, all of the edge enhancement effects by the edge components extracted from each of the two resolution bands of the low-frequency subband and the high-frequency subband in the multi-resolution space are required.

ところが、ある程度までエッジ強調率を上げていくと、これらの冗長な成分のうち、一部の成分が甚大な画像破壊をもたらすことが実験的に判明した。すなわち、エッジ強調率を最大の100%に引き上げたとき、輝度面においては低周波側の統合エッジ成分によるコントラスト強調効果が異常に作用しすぎて主要な画像境界部に白く浮いたりするハローが生じ、色差面においては高周波側の統合エッジ成分による色境界の鮮明化の効果が作用しすぎて同様に主要な画像境界部に色づきが発生する。これらの周波数帯域は輝度面と色差面のそれぞれにおいて極めて感受性の高く、扱い方に注意をしなければ壊滅的な画像の崩壊をもたらす側面をもつ。   However, it has been experimentally found that, when the edge enhancement rate is increased to some extent, some of these redundant components cause significant image destruction. In other words, when the edge enhancement rate is raised to the maximum of 100%, the contrast enhancement effect by the integrated edge component on the low frequency side is excessively abnormal on the luminance surface, and a halo that floats white at the main image boundary occurs. On the color difference plane, the effect of sharpening the color boundary due to the integrated edge component on the high frequency side acts too much, and the main image boundary portion is similarly colored. These frequency bands are extremely sensitive on both the luminance side and the color difference side, and have a side effect of causing a catastrophic image collapse if care is not taken in handling.

他方、もう一方の共役な周波数帯の統合エッジ成分による画像復元効果は、エッジ強調率を強めても別段に不自然な画像破壊をもたらさない。すなわち、輝度成分における高周波側の統合エッジ成分によるテキスチャ回復効果と色差成分における低周波側の統合エッジ成分による彩度強調効果は、エッジ強調率に対して線型に増大させても自然な画像復元効果を得ることができる。ただし、これらの自然なエッジ強調効果を得るには、各々の多重解像度サブバンド面におけるエッジ成分の大きさが、元のサブバンド面がもっているノイズ成分の大きさを超えてはならない。ノイズに埋もれる範囲内でエッジ成分を重畳しなければ、エッジ成分はリンギング、ハウリング、ハロー現象として視覚的に認知されるようになる。そのときの影響は多重解像度エッジ強調であるため極めて甚大となるので、エッジ成分の低周波と高周波のバンド間の周波数調合の仕方には極めて注意を要する。   On the other hand, the image restoration effect by the integrated edge component in the other conjugate frequency band does not bring about unnatural image destruction even if the edge enhancement rate is increased. In other words, the texture restoration effect by the integrated edge component on the high frequency side in the luminance component and the saturation enhancement effect by the integrated edge component on the low frequency side in the color difference component are natural image restoration effects even if the edge enhancement rate is increased linearly. Can be obtained. However, in order to obtain these natural edge enhancement effects, the size of the edge component in each multi-resolution subband surface must not exceed the size of the noise component that the original subband surface has. If the edge component is not superimposed within the range buried in the noise, the edge component is visually recognized as a ringing, howling, and halo phenomenon. Since the effect at that time is multi-resolution edge enhancement, it is extremely enormous. Therefore, it is necessary to pay careful attention to the frequency blending method between the low frequency and high frequency bands of the edge component.

ノイズ除去を伴う場合の画像復元についても全く同様なことが成り立つ。ノイズ除去を伴う場合には更にもう1つ注意しなければならない点がある。それは、すなわち、自然なエッジ強調効果を得るには、それらのエッジ成分がノイズに埋もれる程度の振幅に収まっていなければならないのである。しかし、ノイズ除去が加えられるとノイズのゆらぎの範囲が低下してくるので、エッジ強調において不自然な作用を及ぼす成分の視覚的な許容限度の範囲が、ノイズ除去を伴わない場合よりも狭まるということである。したがって、エッジ強調率の増大に伴って悪影響を及ぼす敏感な周波数バンドは、エッジ強調率に応じて単調減少関数にする必要があるに留まらず、ノイズ除去率に応じても単調減少関数にする必要がある。   The same is true for image restoration when noise removal is involved. There is another point to be aware of when noise removal is involved. That is, in order to obtain a natural edge enhancement effect, the edge components must be within an amplitude that is buried in noise. However, if noise reduction is added, the range of noise fluctuations will be reduced, so the range of visual tolerances for components that have an unnatural effect in edge enhancement will be narrower than without noise removal. That is. Therefore, a sensitive frequency band that has an adverse effect as the edge enhancement rate increases needs to be a monotonically decreasing function depending on the edge enhancement rate, and also needs to be a monotonically decreasing function depending on the noise removal rate. There is.

これらの事実を踏まえて、次のように制御すれば最も自然な印象を与えるエンハンスメント効果の高い画像が復元することが可能となる。すなわち、エッジ強調率が小さい間は、輝度成分ではコントラスト強調とテキスチャ回復の何れにも重点を置き、色差成分においてもカラフルネス回復と色境界コントラスト鮮鋭化の何れにも重点を置く必要がある。一方で、エッジ強調率が大きくなると、輝度成分ではコントラスト強調は程々にとどめ、テキスチャ回復に重点を移す。色差成分では色境界の鮮明化は程々にとどめ、カラフルネス・彩度の回復に重点を移す。すなわち、エッジ強調率が大きくなると、ある周波数帯のエッジに掛ける係数を下げるように制御するエッジ強調率依存性を導入した。   Based on these facts, an image with a high enhancement effect that gives the most natural impression can be restored by controlling as follows. That is, while the edge enhancement rate is small, it is necessary to place emphasis on both contrast enhancement and texture recovery in the luminance component, and emphasis on both colorfulness restoration and color boundary contrast sharpening in the color difference component. On the other hand, when the edge enhancement rate is increased, contrast enhancement is moderately performed in the luminance component, and the emphasis is shifted to the restoration of the texture. With the color difference component, the sharpening of the color boundary is moderated, and the emphasis is on recovery of colorfulness and saturation. That is, the edge enhancement rate dependency is controlled to control the coefficient applied to the edge of a certain frequency band as the edge enhancement rate is increased.

また、ノイズ除去率の増大に伴って、エッジ成分を視覚的に自然な形で埋もれさせてくれるノイズ成分が減ってくるとその量に合わせて、比重を下げる必要のある側の周波数帯域は更に完全に消滅するまで減らすようにする必要がある。すなわち、エッジに掛ける係数の算出においてノイズ除去率依存性を導入した。   As the noise removal rate increases, the frequency components on the side where the specific gravity needs to be reduced further according to the amount of noise components that cause the edge components to be buried in a visually natural manner. It is necessary to reduce it until it disappears completely. That is, the noise removal rate dependency was introduced in the calculation of the coefficient applied to the edge.

これらの関係を式で表せば、以下のようにL/Hバンド間のエッジ成分の統合ウェイトを以下のように制御することになる。ここに、統括エッジ強調率ζjointを導入する。ζjointの値は、通常0≦ζjoint≦1に設定するのが普通であるが、後のエッジ強調率の汎関数化することを踏まえて、0≦ζjoint〜<8程度を目安とした上限値をとり、明確な上限値への制限を設けない。図4の処理で言えば、処理(1-17)(2-17)(3-17)(4-17)(5-17)が相当する。   If these relationships are expressed by equations, the integrated weight of the edge components between the L / H bands is controlled as follows. Here, an overall edge enhancement rate ζjoint is introduced. Normally, the value of ζjoint is normally set to 0 ≦ ζjoint ≦ 1, but in consideration of the functionalization of the edge enhancement rate later, an upper limit value about 0 ≦ ζjoint to <8 is set as a guideline. However, there is no clear upper limit. Speaking of the processing of FIG. 4, the processing (1-17), (2-17), (3-17), (4-17), and (5-17) correspond.

ζjointの設定は、パーソナルコンピュータ1のモニタ(不図示)に例えばスライドバーを有する設定画面を表示することにより行われる(処理(0-6))。ユーザーは、キーボード(不図示)やマウス(不図示)を使用して設定画面のスライドバー中のカーソルを任意の位置に操作することによりζjointの値を設定する。これにより、ユーザは簡易に上記ζjointのパラメータを設定することができる。なお、カメラで処理する場合は、カメラがユーザに提供する新たな多重解像度空間で行うエッジ強調の強さ設定レベル「弱」「中」「強」などに合わせて、カメラメーカが事前に対応値を決めて設定するようにしてもよい。   The setting of ζjoint is performed by displaying, for example, a setting screen having a slide bar on a monitor (not shown) of the personal computer 1 (processing (0-6)). The user sets the value of ζjoint by operating the cursor in the slide bar on the setting screen to an arbitrary position using a keyboard (not shown) or a mouse (not shown). As a result, the user can easily set the parameter of the ζ joint. When processing with the camera, the camera manufacturer will set the corresponding value in advance according to the strength setting level “weak”, “medium”, “strong”, etc. for edge enhancement performed in the new multi-resolution space provided to the user by the camera. May be determined and set.

輝度成分の場合

Figure 0005359646
色差成分の場合
Figure 0005359646
なお、MIN(ζjoint,1)は、ζjointと1のどちらか小さい方の値を取るという意味である。 In case of luminance component
Figure 0005359646
For color difference components
Figure 0005359646
Note that MIN (ζjoint, 1) means that the smaller value of ζjoint and 1 is taken.

これらは、0≦kei≦1(i=LL,LH,HL,HH)の条件を満たす。上記式は一例であって、このような取り方に留まらない。通常、LLを低周波サブバンド、LH,HL,HHを高周波サブバンドとして扱っているが、LH,HLにも多少の低周波サブバンド特性があることを考慮して、例えば、輝度成分のLH,HLバンドも統括エッジ強調率ζjointに連動させて1に近い範囲で多少重みを下げられるようにしてもよい。   These satisfy the condition of 0 ≦ kei ≦ 1 (i = LL, LH, HL, HH). The above formula is an example, and it does not stop in this way. Normally, LL is treated as a low-frequency subband and LH, HL, and HH are treated as high-frequency subbands. Considering that LH and HL also have some low-frequency subband characteristics, for example, the luminance component LH Therefore, the HL band may be slightly reduced in weight in the range close to 1 in conjunction with the overall edge enhancement rate ζjoint.

次に、統括エッジ強調率ζjointが1から8程度の値をとる領域について、更に自然な印象を与える多重解像度エッジ強調効果を得るための周波数調合の仕方について考察する。上記式はζjoint=0〜1の範囲で全く問題のない画像を与えるが、エッジ強調率が100%を超えてくると、本来許されているはずのノイズのゆらぎの許容範囲を超えてエッジ成分が強調され始める。すなわち、エッジ成分の強度はζjoint*keijの積の形で与えられることになるから、画像構造の崩壊をもたらす敏感な周波数帯域が、ζjoint=0〜1の領域では減速のかかった単調増加型関数であったのに対し、ζjoint=1〜8の領域で再度減速のかからない線型増加に転じてしまう。例えば、輝度のLL成分を簡単のためλjointを省いた形で書き表すと、ζjoint=0〜1の区間は、
ζjoint * (1-ζjoint/2)=-(1/2)(ζjoint-1)2+(1/2)
となり、上に凸な、ζjoint=1で極大となる2次関数の減速型の単調増加関数となっている。これに対し、ζjoint≧1ではζjoint/2で比例型に転じてしまう。なお、敏感な周波数帯域とは、ζjoint依存性を持たせたバンドであり、輝度成分で言えばLL成分、色差成分で言えばLH成分、HL成分、HH成分と言える。
Next, a frequency blending method for obtaining a multi-resolution edge enhancement effect that gives a more natural impression in a region where the overall edge enhancement rate ζjoint takes a value of about 1 to 8 will be considered. The above formula gives an image with no problem at all in the range of ζjoint = 0 to 1, but when the edge enhancement rate exceeds 100%, the edge component exceeds the allowable range of noise fluctuation that should be allowed originally Begins to be emphasized. That is, since the intensity of the edge component is given in the form of the product of ζjoint * ke ij , the sensitive frequency band that causes the collapse of the image structure is a monotonically increasing type that is slowed down in the region where ζjoint = 0-1. In contrast to the function, the linear increase increases without decelerating again in the region of ζjoint = 1-8. For example, if the LL component of luminance is expressed in a form that omits λjoint for simplicity, the interval of ζjoint = 0 to 1 is
ζjoint * (1-ζjoint / 2) =-(1/2) (ζjoint-1) 2 + (1/2)
Thus, it is a deceleration type monotonically increasing function of a quadratic function that is convex upward and has a maximum when ζjoint = 1. On the other hand, when ζjoint ≧ 1, ζjoint / 2 turns into a proportional type. The sensitive frequency band is a band having ζ joint dependency, and can be said to be an LL component in terms of luminance components, an LH component, an HL component, and an HH component in terms of color difference components.

これを防止するため、敏感な周波数帯域のエッジ強調率を掛けた後の寄与度が、ノイズのゆらぎの範囲に収まる最大許容度を与えるエッジ強調率100%時点の値で完全に止めてしまう機構を盛り込む。それに対し、ノイズのゆらぎの範囲を超えても自然なエッジ強調を実現できる周波数帯域は、エッジ強調率が100%を超えてもζjoint*keijの積の値が単調増加を許して、エッジ強調効果を提供するようにする。以下に、最適式を提示する。なお、この場合もやはり、ノイズ除去が加わると許されるエッジ強調の範囲に制限が加えられることも考慮する。 To prevent this, a mechanism that completely stops at the value at the edge enhancement rate of 100% that gives the maximum tolerance that the contribution after multiplying the edge enhancement rate of the sensitive frequency band falls within the range of noise fluctuation Include. On the other hand, the frequency band that can realize natural edge enhancement even when exceeding the range of noise fluctuation allows edge enhancement by allowing the product value of ζjoint * ke ij to monotonically increase even when the edge enhancement rate exceeds 100%. Provide an effect. The optimal formula is presented below. In this case as well, it is also considered that the range of edge enhancement permitted when noise removal is added is limited.

輝度成分の場合

Figure 0005359646
色差成分の場合
Figure 0005359646
In case of luminance component
Figure 0005359646
For color difference components
Figure 0005359646

輝度成分について、LL成分は副バンドの低周波側と位置づけられ、コントラスト強調効果があるので(敏感な周波数帯域)、それによるハローが発生しないように許容限度の範囲で完全に封じ込んでいる(エッジ強調率が1のときの値にロックしている)。一方のLH成分は通常は主バンドの高周波側と位置づけられるが、低周波側の副バンドの特性も一部で持っているので、エッジ強調率に対して線形に増大しないようにある程度抑制している。これによってエッジ強調率が800%の領域で縦横の筋構造が発生するのを防止することができる。更に、HH成分は主バンドの高周波側に相当するが、LH成分の抑止機構と滑らかに接続して自然なテキスチャ回復を生み出すように、LH成分の抑止度を考慮したエッジ強調率に対する非線形な増大特性を持たせている。   Regarding the luminance component, the LL component is positioned on the low frequency side of the subband and has a contrast enhancement effect (sensitive frequency band), so it is completely enclosed within the allowable range so that halo does not occur ( It is locked to the value when the edge enhancement rate is 1. One LH component is usually positioned on the high-frequency side of the main band, but it also has some characteristics of the sub-band on the low-frequency side, so it is suppressed to some extent so that it does not increase linearly with respect to the edge enhancement rate. Yes. As a result, it is possible to prevent vertical and horizontal stripe structures from occurring in the region where the edge enhancement rate is 800%. In addition, the HH component corresponds to the high frequency side of the main band, but a non-linear increase to the edge enhancement rate considering the degree of LH component deterrence so as to create a natural texture recovery by smoothly connecting with the LH component deterrent mechanism It has characteristics.

一方、色差成分については、主バンドであるLL成分も副バンドであるHH成分もその中間であるLH,HL成分も全てエッジ強調率100%時点における最大エッジ強調効果、すなわち、最大彩度強調と色コントラスト復元で完全に止めてしまう。これは、ノイズのゆらぎの範囲を超えてそれ以上の色差面の強調を行うと、画像の色相の変移が始まり、画像崩壊を導くからである(敏感な周波数帯域)。   On the other hand, for the color difference component, the LL component as the main band, the HH component as the subband, and the LH and HL components in the middle of them are all the maximum edge enhancement effect at the point of 100% edge enhancement rate, that is, maximum saturation enhancement. Color contrast restoration completely stops. This is because if the color difference plane is further enhanced beyond the range of noise fluctuation, the hue of the image starts to change, leading to image collapse (sensitive frequency band).

このように実験的に導かれた最適な手法は、ノイズ除去におけるノイズ除去率に応じて最適な周波数投影空間が遷移していく様子と、エッジ強調におけるエッジ強調率に応じて最適な周波数投影空間が遷移していく様子は異ならせるのがよいということになる。ただし、それはノイズ除去率やエッジ強調率に対して、高周波サブバンドと低周波サブバンドのうち副バンドの役割をする側を単調増加させるか単調減少させるかの意味で違うというだけである。ノイズ除去においてもエッジ強調においても、主バンドである輝度成分の高周波サブバンドと色差成分の低周波サブバンドは常に最大限に活用されている必要がある。副バンド側(前述した敏感な周波数帯域)は、画質破壊がないようにうまく調整して使う必要がある。   The optimal method derived experimentally in this way is the transition of the optimum frequency projection space according to the noise removal rate in noise removal and the optimum frequency projection space according to the edge enhancement rate in edge enhancement. It is better to change the state of the transition. However, it differs only in terms of whether to monotonously increase or monotonically decrease the side of the high-frequency subband and the low-frequency subband that serve as subbands with respect to the noise removal rate and edge enhancement rate. In both noise removal and edge enhancement, the high frequency subband of the luminance component and the low frequency subband of the color difference component, which are main bands, must always be utilized to the maximum. The sub-band side (the sensitive frequency band described above) needs to be used with a good adjustment so as not to destroy the image quality.

なお、図4では、重みke ij(重み(1-15)(2-15)(3-15)(4-15)(5-15))は、エッジ強調率ζjointに依存するのみのような記載であるが、上述のようにノイズ除去率λjointにも依存しているため、ノイズ除去率λjointからも矢印があると考えればよい。   In FIG. 4, the weight ke ij (weight (1-15) (2-15) (3-15) (4-15) (5-15)) is only dependent on the edge enhancement rate ζjoint. As described above, since it also depends on the noise removal rate λjoint as described above, it can be considered that there is an arrow from the noise removal rate λjoint.

10−2.解像度レベル間の重みの設定
ノイズ成分のときとは違って、解像度レベル間のエッジ統合ウェイトを全て同じ値の1に設定せずに、人間の視覚への影響を考慮した解像度レベル間の重みを設定する。
10-2. Setting the weight between resolution levels Unlike the case of noise components, the weight between resolution levels considering the effect on human vision is set without setting the edge integration weight between resolution levels to the same value of 1. Set.

ノイズ除去を各解像度で均等にホワイト・ノイズとしてノイズ除去を行った画像を見た場合、その輪郭コントラスト等の低下によるノイズ除去の弊害の影響は各解像度が同程度に潰れたようには見えず、人間の視覚特性に最も被害を及ぼすように見えるのは中周波ないしはやや高周波よりの中周波成分である。これらの輪郭が失われると最も画像が持っていた情報の見た目の喪失感が大きい。したがって、ノイズ除去においてはこれらの中周波からやや高周波よりの成分のエッジ構造の保護に最大限の力を注ぐ必要がある。   If you look at an image that has been denoised as white noise evenly at each resolution, the effects of noise removal due to a decrease in the contour contrast, etc., do not appear to have been crushed at the same resolution. The medium frequency component that seems to cause the most damage to human visual characteristics is a medium frequency component or a medium frequency component rather than a high frequency component. When these outlines are lost, the sense of loss of the appearance of the information that the image has most is large. Therefore, in noise removal, it is necessary to put the maximum effort to protect the edge structure of components from the medium frequency to slightly higher frequency.

一方、仮にエッジ強調を解像度レベル間で全て同じ値の1とした場合、低解像度側から拾ったエッジ成分の影響が及ぶ範囲は広大で、それだけハウリングやハローを生じさせる危険性が増す。また、ナイキスト周波数レベルの最高解像度レベルのエッジ成分も多少、ノイズ成分と間違われやすい性質を持つ。したがって、それらの成分は中周波数帯に比べて下げて用いるのが安全である。ゆえに、ノイズ除去において最大の防護を必要とする周波数帯とエッジ強調で最も多くの復元をしてよい周波数帯、すなわち、復元を必要とする周波数帯はぴったり一致する。   On the other hand, if edge enhancement is set to the same value of 1 between resolution levels, the range of influence of edge components picked up from the low resolution side is vast, and the risk of causing howling and halo increases accordingly. Also, the edge component of the highest resolution level at the Nyquist frequency level is somewhat apt to be mistaken for a noise component. Therefore, it is safe to use those components lower than in the middle frequency band. Therefore, the frequency band that requires the maximum protection in noise removal and the frequency band that can be restored the most by edge enhancement, that is, the frequency band that requires restoration are exactly the same.

したがって、統合エッジ成分もそこに焦点を当てた解像度レベル間の重みを設定するのが、視感度特性の回復面からいっても望ましい。最高解像度レベル側の高周波でやや強度が低く、中間周波数帯よりやや高周波よりの解像度レベルに最大強度を持ち、最低解像度レベル側の低周波でどんどん強度が低くなる特性を持った分布としては都合よくポアッソン分布がある。ここでは、5段の多重解像度変換の段数に対し、ポアッソン分布の平均値μが真ん中より少し低周波側の2.0の解像度レベルを与えるような設定例を示す。全体の解像度レベルの中では40%の位置にポアッソン分布の平均値μを通常、設定する。すなわち、以下の式のようになる。

Figure 0005359646
Therefore, it is desirable to set the weight between the resolution levels focusing on the integrated edge component also from the viewpoint of recovery of the visibility characteristic. Convenient distribution with characteristics that the intensity is slightly lower at high frequencies on the highest resolution level, the intensity is higher at the resolution level slightly higher than the intermediate frequency band, and the intensity decreases at lower frequencies on the lowest resolution level side. There is a Poisson distribution. Here, a setting example in which the average value μ of the Poisson distribution gives a resolution level of 2.0 on the low frequency side slightly lower than the middle with respect to the number of stages of multi-resolution conversion of five stages is shown. The average value μ of the Poisson distribution is usually set at 40% of the overall resolution level. That is, the following expression is obtained.
Figure 0005359646

具体的の数値は以下のようになる。ただし、式上では明示的に書き表していないが、設定した分布強度の最大値で規格化処理を入れるようにしている。

Figure 0005359646
ピーク強度が一段目と2段目の間にあり、平均値の2.0段よりやや高周波解像度に寄っていることが分かる。 Specific numerical values are as follows. However, although not explicitly written in the formula, the normalization processing is performed with the maximum value of the set distribution intensity.
Figure 0005359646
It can be seen that the peak intensity is between the first and second stages, which is slightly closer to the high frequency resolution than the average of 2.0 stages.

次に、解像度間の重みについても同様にエッジ強調率が100%を超える場合についての対応方法について考察する。エッジ強調率が100%を超えてくると、低解像度側で拾ったエッジ成分によるハウリングやハローの危険性がますます増大してくる。それは中間解像度のエッジ成分についても同様のことが当てはまるようになる。したがって、高解像度側のエッジ成分だけが最も自然な形で画像崩壊をもたらすことなくエッジ強調を行うことができるようになる。これは、多重解像度によるエッジ強調効果、すなわちコントラスト強調、テキスチャ回復、彩度強調、色コントラスト回復の効果を漸近的に実空間における輝度面のみのエッジ強調処理にうまく接続しないと、画像崩壊を防止することができないことを意味している。   Next, a method for dealing with the case where the edge emphasis rate exceeds 100% is similarly considered for the weight between resolutions. When the edge enhancement rate exceeds 100%, the risk of howling and halo due to the edge component picked up on the low resolution side increases more and more. The same applies to the edge component of intermediate resolution. Therefore, only the edge component on the high resolution side can perform edge enhancement without causing image collapse in the most natural form. This prevents image collapse if the edge enhancement effect by multi-resolution, that is, contrast enhancement, texture restoration, saturation enhancement, and color contrast restoration is not connected asymptotically to edge enhancement processing of only the luminance plane in real space. That means you can't.

このための制御方法としてポアッソン分布は極めて都合のよい特性を持っており、エッジ強調率が大きくなるに従い、ポアッソン分布の平均値を解像度レベルで1ないしは0に近づける操作をするだけで、その目的を実現できる。以下にその実現式を記述する。すなわち、ポアッソン分布の平均値の通常設定を最初に行い、エッジ強調率が100%を超える領域でその平均値が1に近づくような操作を行う。現在、扱っている多重解像度の段数がM段であるとすると、以下の式より平均値μを求めるようにする。なお、以下の式はエッジ強調率が100%以下の場合にもあてはまる式である。

Figure 0005359646
As a control method for this purpose, the Poisson distribution has very convenient characteristics.As the edge enhancement rate increases, the Poisson distribution average value can be adjusted by bringing the average value of the Poisson distribution closer to 1 or 0 at the resolution level. realizable. The realization formula is described below. That is, the normal setting of the average value of the Poisson distribution is first performed, and an operation is performed so that the average value approaches 1 in a region where the edge enhancement rate exceeds 100%. If the number of stages of multi-resolution currently being handled is M, the average value μ is obtained from the following equation. Note that the following equation is also applicable when the edge enhancement rate is 100% or less.
Figure 0005359646

エッジ強調率が100%を超えて極めて大きくなった場合の極限状態における、解像度間の重みの分布状態は以下のように高解像度側に変化することになる。M=5段の場合の例である。ここでも、エッジ強調率が大きくなった場合にのみ限らず、ノイズ除去率が大きくなったときも相対的にエッジ成分がノイズゆらぎ幅に比べて大きく見えてしまうことを考慮している。

Figure 0005359646
In the limit state when the edge enhancement rate exceeds 100% and becomes extremely large, the distribution of weights between resolutions changes to the high resolution side as follows. This is an example in the case of M = 5 stages. Here, it is considered not only when the edge enhancement rate becomes large, but also when the noise removal rate becomes large, the edge component appears relatively larger than the noise fluctuation width.
Figure 0005359646

以上のように、エッジ強調率が100%を超えるような場合、解像度間の重みの分布状態、すなわち解像度間の重みの重心位置を、エッジ強調率の大きさに応じて高解像度側に変化するようにしている。こうして、エッジ強調率が800%になっても自然なエッジ強調をすることができるようになり、画像の崩壊をもたらさない。   As described above, when the edge enhancement rate exceeds 100%, the distribution state of weights between resolutions, that is, the gravity center position of the weights between resolutions changes to the high resolution side according to the size of the edge enhancement rate. I am doing so. In this way, natural edge enhancement can be performed even when the edge enhancement rate reaches 800%, and image collapse is not caused.

ここで、通常の実空間におけるアンシャープマスクによるエッジ強調処理と本実施形態に述べている多重解像度エッジ強調処理との違いについて指摘しておく。通常のアンシャープマス処理によるエッジ強調は、低周波サブバンドに位置づけられる実空間のLL0の解像度で、原画像と7x7程度の平滑化画像との間の差分による高周波成分をとり、コアリング成分はノイズ成分として除外した後にハウリング、リンギング成分を主に抽出して、それらを強調スケーリングした後に原画像、ないしは平滑化画像に加える。すなわち、アンシャープマスクは、抽出したエッジ成分のうち、ノイズに埋もれる程度のエッジ成分はベースクリップ処理で排除してしまい、ある程度リンギングやハウリングを前提とした強度の強いエッジ成分を抽出しているだけである。   Here, the difference between the edge enhancement processing using an unsharp mask in a normal real space and the multi-resolution edge enhancement processing described in the present embodiment will be pointed out. Edge enhancement by normal unsharp mass processing takes the high-frequency component due to the difference between the original image and the smoothed image of about 7x7 at the resolution of real space LL0 located in the low-frequency subband, and the coring component is After removing it as a noise component, howling and ringing components are mainly extracted, emphasized and scaled, and then added to the original image or smoothed image. In other words, the unsharp mask removes edge components that are buried in noise from the extracted edge components by base clip processing, and only extracts strong edge components based on ringing and howling to some extent. It is.

これに対し、多重解像度によるエッジ強調は、基本的にノイズのゆらぎ程度に相当するコアリング成分を抽出し、ハウリング、リンギング成分は除外するとともに、その扱う周波数帯が、輝度面では最終的にエッジ強調率が上がってくると高周波サブバンドを主体とする点において、通常のアンシャープマスク処理によるエッジ強調と機能と役割は随分と異なっている。すなわち、多重解像度によるエッジ強調は、ノイズに埋もれる程度のエッジ成分だけを抽出することを前提としており、ノイズと同程度の強度のエッジ成分をノイズからうまく選別して取り出している。それによって、ノイズ増幅を伴わずに、かつ多重解像度で扱うことによって大きな画像改善の効果を得ることになる。ここではノイズに埋もれる程度のわずかなゆらぎのエッジ成分が重要な役割を果たしている。   In contrast, multi-resolution edge enhancement basically extracts coring components corresponding to the degree of noise fluctuation, excludes howling and ringing components, and handles the frequency band in terms of luminance. When the emphasis rate is increased, the edge emphasis, function, and role by normal unsharp mask processing are considerably different in that the high frequency subband is mainly used. That is, edge enhancement by multi-resolution is based on the premise that only edge components that are buried in noise are extracted, and edge components having the same strength as noise are well selected and extracted from noise. Thereby, a large image improvement effect can be obtained by handling with multiple resolutions without noise amplification. Here, a slight fluctuation edge component buried in noise plays an important role.

したがって、多重解像度エッジ強調によるコントラスト、テキスチャ、彩度、色コントラスト回復機能と、アンシャープマスクによるエッジ強調とは独立な機能であるため、並列に両者を同時使用しても全く問題ない。   Therefore, since the contrast, texture, saturation, and color contrast recovery functions by multi-resolution edge enhancement and the edge enhancement by unsharp mask are independent functions, there is no problem even if both are used simultaneously in parallel.

10−3.実エッジ成分の統合処理
上述のような自然な印象のエッジ強調効果を得るのに最適な周波数バンド間の重みがつけられたエッジ成分を下式のように統合する(処理(1-12)(2-12)(3-12)(4-12)(5-12))。

Figure 0005359646
10-3. Integration processing of actual edge components Edge components weighted optimally between frequency bands to obtain the edge enhancement effect of natural impression as described above are integrated as shown in the following formula (Process (1-12) ( 2-12) (3-12) (4-12) (5-12)).
Figure 0005359646

ただし、項目番号9の実ノイズ統合のときと同様に、下層から統合されてきたLLバンドのエッジ成分と元からLLバンドのエッジ抽出によって存在するエッジの2つのエッジ成分は加算することによって統合を行うものとする(処理(1-13)(2-13)(3-13)(4-13)(5-13))。その他は逆ウェーブレット変換処理を行うことによって統合する。   However, as in the case of the actual noise integration of item number 9, integration is performed by adding the edge component of the LL band integrated from the lower layer and the two edge components of the edge existing from the original LL band extraction. (Processing (1-13) (2-13) (3-13) (4-13) (5-13)). Others are integrated by performing inverse wavelet transform processing.

このようにして抽出されるエッジ成分は、輝度面と色差面の原画像の周波数の性質に合わせて周波数調合していることから、エッジ強調によるコントラスト復元に最適な周波数投影空間を原画像の性質に合わせて変えているといってもよい。また、更にエッジ強調率やノイズ除去率に応じても周波数投影空間を変更していることに相当する。   The edge components extracted in this way are frequency-mixed according to the frequency characteristics of the original image on the luminance and chrominance planes. It may be said that it is changed according to. Further, this also corresponds to changing the frequency projection space depending on the edge enhancement rate and the noise removal rate.

11.統合ノイズ成分の自己精錬
次に統合ノイズ成分に対してもう一度項目番号5と同じ考え方に基づき、次式によりノイズ成分の自己精錬を行う(処理(0-1))。すなわち、最終的に実解像度と同じレベルまで統合されてきたノイズ成分が、再度その分布形状が仮説に基づいて、均等色・均等ノイズ空間における理想的なノイズ分布であるガウス分布をしているか2重に検証を行うのである。

Figure 0005359646
11. Self-refining of integrated noise component Next, based on the same idea as item number 5 for the integrated noise component, self-refining of the noise component is performed by the following equation (processing (0-1)). That is, whether or not the noise component that has been finally integrated to the same level as the actual resolution has a Gaussian distribution that is an ideal noise distribution in the uniform color / uniform noise space based on the hypothesis again. It is important to verify.
Figure 0005359646

統合ノイズ成分に対するノイズの自己精錬には2重検証の意味以外にもう一つ重要な意味がある。それは、ノイズ成分を完全系に対して冗長な2つの低周波サブバンド群と高周波サブバンド群とからなる周波数投影空間で抽出しているので、各々のサブバンドで抽出されたノイズ成分がガウス分布していても、統合後の周波数冗長性をもつノイズ成分が再度ガウス分布するか保証がないからである。したがって、もう一度理想ノイズ分布の仮説に基づいてガウス分布形状に近づけることには非常に意味がある。   In addition to the meaning of double verification, there is another important meaning in the self-refining of noise for the integrated noise component. Because noise components are extracted in a frequency projection space consisting of two low-frequency subband groups and high-frequency subband groups that are redundant with respect to the complete system, the noise components extracted in each subband are Gaussian distributed. This is because there is no guarantee that noise components having frequency redundancy after integration will be Gaussian again. Therefore, it is very meaningful to approach the Gaussian distribution shape once more based on the ideal noise distribution hypothesis.

ここに、σN thの値は項目番号5と同じ考え方に基づき、実空間のノイズゆらぎ指標値σth の値の6倍に設定するとよい。すなわち、ノイズゆらぎ指標値に対してシックス・シグマを超える統計的に100%ノイズとは考えられないノイズ成分を排除する。   Here, the value of σ N th is preferably set to 6 times the value of the noise fluctuation index value σ th in the real space based on the same idea as the item number 5. That is, noise components that are not considered to be statistically 100% noise exceeding Six Sigma with respect to the noise fluctuation index value are excluded.

12.統合エッジ成分の自己精錬
統合エッジ成分に対しても、もう一度項目番号6と同じ考え方に基づき、次式によりエッジ成分の自己精錬を行う(処理(0-2))。すなわち、最終的に実解像度と同じレベルまで統合されてきたエッジ成分が、再度その分布形状が仮説に基づいて、均等色・均等ノイズ空間における理想的なエッジ分布であるガウス分布をしているか2重に検証を行うのである。

Figure 0005359646
12 Self-refining of the integrated edge component For the integrated edge component again, the edge component is self-refined according to the following formula based on the same concept as item number 6 (processing (0-2)). That is, whether or not the edge component finally integrated to the same level as the actual resolution has a Gaussian distribution, which is an ideal edge distribution in the uniform color / uniform noise space, again based on the hypothesis. It is important to verify.
Figure 0005359646

統合エッジ成分に対するエッジの自己精錬には2重検証の意味以外にもう一つ重要な意味が項目番号11と同じ理由である。それは、エッジ成分も完全系に対して冗長な2つの低周波サブバンド群と高周波サブバンド群とからなる周波数投影空間で抽出しているので、各々のサブバンドで抽出されたエッジ成分がガウス分布していても、統合後の周波数冗長性をもつエッジ成分が再度ガウス分布するか保証がないからである。したがって、もう一度理想エッジ分布の仮説に基づいてガウス分布形状に近づけることには非常に意味がある。   For the self-refining of the edge with respect to the integrated edge component, another important meaning is the same as the item number 11 in addition to the meaning of the double verification. Because the edge components are also extracted in the frequency projection space consisting of two low-frequency subband groups and high-frequency subband groups that are redundant with respect to the complete system, the edge components extracted in each subband are Gaussian distributed. This is because there is no guarantee that edge components having frequency redundancy after integration will be Gaussian again. Therefore, it is very meaningful to approach the Gaussian distribution shape once more based on the ideal edge distribution hypothesis.

ここに、σE thの値は項目番号6と同じ考え方に基づき、実空間のノイズゆらぎ指標値σth の値と同じ値に設定するのがよい。そうすることによってリンギング成分を排除するとともに、ノイズ除去フィルタで区別できないためにノイズ除去によって消失してしまうと予測される微弱エッジ成分を、ここで同じ量だけ再度復活して抽出することが可能になる。   Here, the value of σE th is preferably set to the same value as the value of the noise fluctuation index value σth in the real space based on the same idea as the item number 6. By doing so, the ringing component is eliminated, and the weak edge component that is predicted to disappear due to noise removal because it cannot be distinguished by the noise removal filter can be recovered again by the same amount here and extracted. Become.

13.統合エッジによる統合ノイズ成分の精錬(相互精錬3)
統合ノイズ成分に対してもう一度項目番号7と同じ考え方に基づき、次式によりノイズ成分の統合エッジ成分による相互精錬を行う(処理(0-3))。これは、近隣でエッジ強度(絶対値)の強い領域ではノイズ成分の中にエッジ成分が混入している確率が高いというモデルを、もう一度複数の解像度レベルの相関を多重的に加味した統合エッジ成分を観測することによって、単一の解像度で観測したエッジ成分だけでは見出しえなかった、近隣のエッジ状況というものを周波数の視点を変えて検証することにある。すなわち、

Figure 0005359646
13. Refining integrated noise components using integrated edges (mutual refining 3)
Based on the same idea as item number 7 for the integrated noise component once again, mutual refining by the integrated edge component of the noise component is performed by the following equation (processing (0-3)). This is a model that has a high probability that an edge component is mixed in the noise component in a region where the edge strength (absolute value) is strong in the neighborhood, and an integrated edge component that takes into account multiple correlations of multiple resolution levels once again. This is to verify the neighboring edge situation, which could not be found only by the edge component observed at a single resolution, by changing the frequency viewpoint. That is,
Figure 0005359646

ここに、σNE thの値は、項目番号7と同様の考え方に基づき、実空間のゆらぎ指標値σth の値の6倍に設定するとよい。すなわち、ノイズゆらぎ指標値に対してシックス・シグマを超える統計的に100%エッジといえる領域でノイズ成分に誤って含まれやすいエッジ成分を排除する。また、同じガウス分布による相互混入モデルを用いているので、この相互精錬によって理想のノイズ・モデルの形が崩されることもなく、より理想形に近づく。   Here, the value of σNE th is preferably set to 6 times the value of the fluctuation index value σth of the real space based on the same concept as the item number 7. That is, an edge component that is likely to be erroneously included in a noise component is excluded in a statistically 100% edge region that exceeds six sigma with respect to the noise fluctuation index value. Moreover, since the mutual mixing model by the same Gaussian distribution is used, the shape of an ideal noise model is not destroyed by this mutual refining, and it approaches the ideal form more.

14.統合ノイズによる統合エッジ成分の精錬(相互精錬4)
統合エッジ成分に対しても、もう一度項目番号8と同じ考え方に基づき、次式によりエッジ成分の統合ノイズ成分による相互精錬を行う(処理(0-4))。これは、近隣でノイズ強度(絶対値)の強い領域ではエッジ成分の中にノイズ成分が混入している確率が高いというモデルを、もう一度複数の解像度レベルの相関を多重的に加味した統合ノイズ成分を観測することによって、単一の解像度で観測したノイズ成分だけでは見出しえなかった、近隣のノイズ成分の分布状況というものを周波数の視点を変えて検証することにある。

Figure 0005359646
14 Refining integrated edge components using integrated noise (mutual refining 4)
Also for the integrated edge component, based on the same idea as the item number 8 again, mutual refining by the integrated noise component of the edge component is performed by the following equation (processing (0-4)). This is an integrated noise component that takes into account a high probability that noise components are mixed in the edge component in a region where the noise intensity (absolute value) is high in the neighborhood, and once again considers multiple resolution level correlations. Is to verify the distribution status of neighboring noise components, which could not be found only with noise components observed at a single resolution, by changing the viewpoint of frequency.
Figure 0005359646

ここに、σEN thの値は、項目番号8と同様の考え方に基づき、実空間のゆらぎ指標値σth の値と同じ値に設定するのがよい。そうすることによって、エッジ成分の中に含まれた抽出ノイズ成分でも観測されているはずのノイズ成分を除外することができる。また、同じガウス分布による相互混入モデルを用いているので、この相互精錬によって理想のエッジ・モデルの形が崩されることもなく、より理想形に近づく。   Here, the value of σEN th is preferably set to the same value as the value of the fluctuation index value σth of the real space based on the same concept as the item number 8. By doing so, it is possible to exclude a noise component that should have been observed even in the extracted noise component included in the edge component. Moreover, since the mutual mixing model by the same Gaussian distribution is used, the shape of an ideal edge model is not destroyed by this mutual refining, and it approaches the ideal form more.

なお、項目番号8で記載した言い換えの表現は、本統合ノイズによる統合エッジ成分の精錬においても同様に言える。   The paraphrased expression described in item number 8 can be similarly applied to the refining of the integrated edge component by the integrated noise.

15.仮想ノイズ除去輝度面の生成
次の項目番号16で用いるノイズのない参照輝度面を得るために、実ノイズ統合されたノイズ成分を100%用いて、一時的な仮想ノイズ除去輝度面を生成する。

Figure 0005359646
15. Generation of a virtual noise-removed luminance plane In order to obtain a noise-free reference luminance plane used in the next item number 16, a temporary virtual noise-removed luminance plane is generated using 100% of the noise component integrated with actual noise.
Figure 0005359646

ただし、場合によってはこの処理を飛ばして、ノイズ除去されていない原画像の輝度面L^(x)(上記式の右辺の第1項)で代用してもよい。   However, in some cases, this process may be skipped and replaced with the luminance plane L ^ (x) (the first term on the right side of the above equation) of the original image from which noise has not been removed.

16.実際のノイズ除去処理と実際のエッジ強調処理
実施の形態冒頭の基本的な考えの説明でも述べたように、このようにしてノイズ成分とエッジ成分の自己及び相互精錬を多重に繰り返してきたにもかかわらず、排除し切れない相互混入成分が存在する。それらによるノイズ除去処理とエッジ強調処理への弊害を最小化し、ノイズ除去とエッジ強調の効果を最大化するには、弊害と効果を事前に予測した工夫をノイズ除去率とエッジ強調率に導入する余地が残されている。
16. Actual noise removal processing and actual edge enhancement processing As described in the explanation of the basic idea at the beginning of the embodiment, self and mutual refining of noise components and edge components have been repeated in this way. Regardless, there are intermixing components that cannot be excluded. In order to minimize the negative effects on noise removal processing and edge enhancement processing and maximize the effects of noise removal and edge enhancement, introduce a device that predicts the negative effects and effects in advance to the noise removal ratio and edge enhancement ratio. There is room for it.

これまでの処理でノイズ成分とエッジ成分は均等色・均等ノイズ空間で抽出してきており、画像全面に渡って一様なノイズ除去率λと一様なエッジ強調率ζでノイズ除去とエッジ強調を行うと、均等色・均等ノイズ空間では全ての明るさレベルの階調に渡って一様にノイズ除去効果とエッジ強調効果が得られるはずである。しかし、一旦作業用色空間から出力色空間へ変換したとき、その階調特性の違いから出力空間でみた画像では、ある部分のノイズ除去効果とエッジ強調効果が実質的に弱まり、またそれらの弊害がある部分では強調されて現れてくる可能性がある。   The noise component and edge component have been extracted in uniform color and uniform noise space by the processing so far, and noise removal and edge enhancement are performed with a uniform noise removal rate λ and a uniform edge enhancement rate ζ over the entire image. In this case, the noise removal effect and the edge enhancement effect should be obtained uniformly over the gradations of all brightness levels in the uniform color / uniform noise space. However, once converted from the working color space to the output color space, the noise removal effect and edge emphasis effect of a part of the image viewed in the output space are substantially weakened due to the difference in gradation characteristics, and the adverse effects thereof. There is a possibility that it will appear highlighted in some parts.

これらの効果と弊害の増減幅の見えは、主として出力色空間の階調特性と作業用色空間の階調特性の微分比率で効いてくると考えられる。そこでこの出力色空間の階調特性γと作業用色空間の階調特性Γの微分比率で表された明るさに対するコントラスト比関数を以下のように定義する。ここに、Yは線形階調特性を表す。項目番号1で定義されたXYZ空間のYと同じである。
基準コントラスト比関数

Figure 0005359646
These effects and the appearance of the increase / decrease width of the harmful effects are considered to be mainly affected by the differential ratio between the gradation characteristics of the output color space and the gradation characteristics of the work color space. Therefore, a contrast ratio function with respect to the brightness expressed by the differential ratio between the gradation characteristic γ of the output color space and the gradation characteristic Γ of the working color space is defined as follows. Here, Y represents a linear gradation characteristic. It is the same as Y in the XYZ space defined by item number 1.
Reference contrast ratio function
Figure 0005359646

実際の例では、分子の出力色空間のガンマ曲線γ(Y)は図7(a)のAあるいはBのような曲線で表され、分母の作業用色空間のガンマ曲線Γ(Y)は図7(a)のCに描かれたような曲線で表され、Γ(Y)は項目番号1の関数f(t)の定義と同一である。また、輝度面の明るさのみをコントラスト比関数の引数として参照するので、原画像の明るさS(x,y)は項目番号1で変換されたL^(x,y)を参照することと同じである。   In an actual example, the gamma curve γ (Y) of the numerator output color space is represented by a curve such as A or B in FIG. 7A, and the gamma curve Γ (Y) of the denominator working color space is a graph. 7 (a) is represented by a curve as drawn in C, and Γ (Y) is the same as the definition of the function f (t) of item number 1. Since only the brightness of the luminance plane is referred to as an argument of the contrast ratio function, the brightness S (x, y) of the original image is referred to L ^ (x, y) converted by item number 1. The same.

図7(b)の曲線群は、コントラスト比関数の2番目に書かれた式をγとしてAとBの曲線に選んだ場合の様子を示した図であり、一本の直線は、コントラスト比関数の2番目に書かれた式をγとしてCの曲線に選んだ場合の様子を示した図である。したがって、実際のコントラスト比関数の1番目と3番目に書かれた式の曲線は横軸を線形階調YからΓ(Y)を通したスケーリングで描けばよい。すなわち、横軸がΓ(Y)の場合は、横軸の暗い部分は引き伸ばされ、明るい部分は縮められたような図となる。   The curve group in FIG. 7B is a diagram showing a state in which the second expression of the contrast ratio function is selected as the curves A and B as γ, and one straight line indicates the contrast ratio. It is the figure which showed the mode when the formula written in the 2nd of the function was chosen for the curve of C as (gamma). Therefore, the curve of the expression written in the first and third of the actual contrast ratio function may be drawn by scaling the horizontal axis from the linear gradation Y to Γ (Y). That is, when the horizontal axis is Γ (Y), the dark part of the horizontal axis is stretched and the bright part is contracted.

16−1.ノイズ除去率のコントラスト比関数による汎関数表現(処理(0-7))
1)汎関数表現1(ガンマ版)
ノイズ除去率の汎関数表現は、作業用色空間で一様なノイズ除去をしたのと同程度の見栄えを保持しつつ、出力色空間におけるノイズ除去効果が全ての明るさで均質化されることを第一の目標とする。そうすることによって、ある明るさレベルの階調コントラストが出力色空間の方が立った領域のノイズ増幅感というのは抑えられ、また階調コントラストが出力色空間の方が寝ている特定領域だけのノイズ減幅作用による不均一感というのは抑えられる。
16-1. Functional representation of denoising rate by contrast ratio function (Process (0-7))
1) Functional expression 1 (gamma version)
The functional representation of the noise removal rate maintains the same level of appearance as the uniform noise removal in the working color space, and the noise removal effect in the output color space is homogenized at all brightness levels. Is the first goal. By doing so, it is possible to suppress the noise amplification feeling in a region where the gradation contrast of a certain brightness level stands out in the output color space, and only in a specific region where the gradation contrast is sleeping in the output color space. It is possible to suppress the non-uniformity due to the noise reduction effect.

このとき、ノイズ除去率を出力ガンマ特性に合わせて増減幅する際の、増減幅の基準点の設定をどこに選択するかという問題が重要になる。輝度成分の場合、それは出力色空間で平均輝度レベル(256階調では128前後)になることを目標として設計される露出基準点にとるのがよい。これは通常、線形階調で18%グレーと呼ばれるISO規格のグレーチャート基準被写体の明るさレベルに相当する。そうすると出力色空間での輝度成分のノイズ除去の見えは、明るさ全体で平均的に一定に保たれたように見えるようになる。したがって、出力色空間への階調変換によってノイズ増幅する恐れのあった暗い部分の領域のノイズ被りによるコントラスト低下を防止し、クリアなノイズ除去結果を得ることができる。   At this time, the problem of where to select the setting of the increase / decrease width reference point when increasing / decreasing the noise removal rate according to the output gamma characteristic becomes important. In the case of a luminance component, it is preferable to take an exposure reference point designed with the goal of achieving an average luminance level (around 128 for 256 gradations) in the output color space. This usually corresponds to the brightness level of an ISO standard gray chart reference subject called 18% gray in linear gradation. Then, the appearance of noise component noise removal in the output color space appears to be kept constant on average throughout the brightness. Therefore, it is possible to prevent a decrease in contrast due to noise coverage in a dark area where noise may be amplified by gradation conversion to the output color space, and to obtain a clear noise removal result.

一方、色差成分は輝度成分より一般的に強い目のノイズ除去を必要とするため、輝度成分のようにダイナミックにノイズ除去率を操作することはできず、ノイズ除去効果を落とさずにコントラスト保持できる部分のノイズ除去を緩める形をとる。具体的には出力ガンマ特性がニー特性になる領域の飽和基準点で規格化を行なう。飽和基準点として例えば出力階調特性が256階調に対して180〜220程度になる点を選択する。するとハイライト部の色差面ノイズ除去率を弱めることになり、ハイライト部は一般に色差面では高彩度部に対応するので、高彩度部の色抜けを防止し、色再現性の高い色斑ノイズ除去効果を生む。また、輝度成分の暗部ノイズ除去効果と相まって、暗部のノイズ被りや色斑かぶりが完全に消えて、原画像よりも曇りの抜けた透明感を生み出す。   On the other hand, since the color difference component generally requires stronger noise removal than the luminance component, the noise removal rate cannot be manipulated dynamically like the luminance component, and contrast can be maintained without degrading the noise removal effect. It takes the form of loosening the noise removal of the part. Specifically, normalization is performed at a saturation reference point in a region where the output gamma characteristic becomes the knee characteristic. As the saturation reference point, for example, a point where the output gradation characteristic is about 180 to 220 with respect to 256 gradations is selected. This will weaken the color difference surface noise removal rate in the highlight area, and the highlight area generally corresponds to the high saturation area in the color difference area, thus preventing color loss in the high saturation area and eliminating color spot noise with high color reproducibility. Give birth. Further, coupled with the effect of removing the dark portion noise of the luminance component, the noise coverage and the color fogging in the dark portion are completely eliminated, and a transparent feeling that is more cloudy than the original image is generated.

これらを実現するノイズ除去率のコントラスト比関数による汎関数表現は以下の式で表される。輝度成分の場合、上記露出基準点に基づくコントラスト比を次式の分母に代入することにより規格化が行われる。また、色差成分の場合、上記飽和基準点に基づくコントラスト比を次式の分母に代入することにより規格化が行われる。   The functional representation of the noise removal rate that realizes these by the contrast ratio function is expressed by the following equation. In the case of the luminance component, normalization is performed by substituting the contrast ratio based on the exposure reference point into the denominator of the following equation. In the case of color difference components, normalization is performed by substituting the contrast ratio based on the saturation reference point into the denominator of the following equation.

輝度成分の場合

Figure 0005359646
色差成分の場合
Figure 0005359646
ここで色差成分については、色相が変化してしまうことを防止するために、以下の式で示すようにクリッピング処理を入れる。
ζ(→x) = MIN(ζ(→x),1.0) In case of luminance component
Figure 0005359646
For color difference components
Figure 0005359646
Here, for the color difference component, in order to prevent the hue from changing, clipping processing is performed as shown by the following equation.
ζ (→ x) = MIN (ζ (→ x), 1.0)

2)汎関数表現2(レチネックス版)
ノイズ除去率の汎関数表現は、もう一つ別の視点から作ることができる。すなわち、汎関数表現1では画像全体の明るさレベルの間でノイズ除去効果が均質化されることを目標としたのに対し、ここでは局所的なエッジ構造近傍の範囲内で明るさレベル間のノイズ除去効果が均質化されることを目標とする。これは、画像構造を決める重要な部分はエッジ近傍に集中しており、その周りさえノイズ除去効果が明るさに対して均質化されていれば画像全体としてのノイズ除去効果は非一様であってもその均質化作用が持つもう一つ別な側面を局所的な領域に対して最大限発揮しうる、という考えに基づく。
2) Functional expression 2 (Retinex version)
A functional representation of the denoising rate can be made from another point of view. In other words, while the functional expression 1 aims to homogenize the noise removal effect between the brightness levels of the entire image, here the brightness level between the brightness levels within the local edge structure vicinity. The goal is to make the noise removal effect uniform. This is because important parts that determine the image structure are concentrated in the vicinity of the edges, and the noise removal effect of the entire image is non-uniform as long as the noise removal effect is uniform with respect to brightness. However, it is based on the idea that another aspect of the homogenizing action can be exerted to the maximum extent in the local region.

すなわち、ノイズ除去効果の均質化にはもう一つ、ノイズ成分から分離し切れなかったエッジ成分によるエッジ構造破壊の弊害を明るさレベル間で均質化することにより、その弊害の見えの強いところの存在に伴って全体的な印象を悪くしてしまう不均一さの視覚的な欠点を減らして、弊害の見えを平均的に最小化するという意味がある。したがって、エッジ近傍で重点的にこのノイズ除去の弊害対策を実施すれば、効果的に画像の重要な構造情報を保存することができる。   In other words, the homogenization of the noise removal effect is another point where the adverse effect of edge structure destruction due to the edge component that could not be separated from the noise component is homogenized between brightness levels, so that the adverse effect is strongly visible. It means to reduce the visual defects of non-uniformity that worsen the overall impression with the existence and to minimize the appearance of harmful effects on average. Therefore, if the detrimental measures for noise removal are implemented mainly in the vicinity of the edge, the important structure information of the image can be effectively saved.

この場合も、一般的な階調特性をもつ出力色空間に対しては、明るいところで作業用色空間の階調コントラストの方が高いことに伴ってその領域に混入するエッジ成分のコントラストも強くなりやすく、その領域で弊害が起きやすい。輝度成分の場合は白い画像領域面内の構造情報が消失しやすく、色差成分の場合は高彩度部の色情報を失いやすい。   In this case as well, for output color spaces with general gradation characteristics, the contrast of edge components mixed in the area becomes stronger as the gradation contrast of the work color space is higher in bright places. It is easy to cause harmful effects in that area. In the case of the luminance component, the structural information in the white image area surface is likely to disappear, and in the case of the color difference component, the color information of the high saturation portion is likely to be lost.

したがって、以下のような式によってノイズ除去率をコントラスト比関数の汎関数表現するとよい。このとき参照するエッジ情報としては、画像構造を局所的にも大局的にもあらゆるスケールで観測する多重解像度統合エッジ成分を用いるのが最適である。また、ノイズ成分やリンギング成分がしっかりと除外されて視覚的に重要な周波数帯域が加味された統合エッジ成分Ew"(x,y)を用いるのが最もよい。   Therefore, the noise removal rate may be expressed as a functional function of the contrast ratio function by the following equation. As edge information to be referred to at this time, it is optimal to use a multi-resolution integrated edge component for observing the image structure at any scale both locally and globally. Further, it is best to use the integrated edge component Ew ″ (x, y) in which a noise component and a ringing component are firmly excluded and a visually important frequency band is added.

輝度成分の場合

Figure 0005359646
色差成分の場合
Figure 0005359646
ここで色差成分については、色相が変化してしまうことを防止するために、以下の式で示すようにクリッピング処理を入れる。
ζ(→x) = MIN(ζ(→x),1.0) In case of luminance component
Figure 0005359646
For color difference components
Figure 0005359646
Here, for the color difference component, in order to prevent the hue from changing, clipping processing is performed as shown by the following equation.
ζ (→ x) = MIN (ζ (→ x), 1.0)

ここに、σgE thの値は、実空間におけるノイズゆらぎ指標値σthに連動する値、ないしは絶対エッジ強度レベルで与えるとよい。それによって、輪郭ボケによるエッジ・コントラスト低下を防止したいエッジ強度レベルを設定することができる。   Here, the value of σgE th may be given as a value linked to the noise fluctuation index value σth in real space, or an absolute edge strength level. As a result, it is possible to set an edge strength level at which it is desired to prevent edge / contrast reduction due to outline blurring.

3)汎関数表現3(合成版)
ノイズ除去率の汎関数表現1と2は局所的に各々で効き方が違う。したがって、2つの方法を組み合わせた使い方も考えられる。その場合は基本的に2つの汎関数表現部分の積をとった汎関数表現をすればよい。
3) Functional expression 3 (composite version)
The functional representations 1 and 2 of the denoising rate are locally different in effect. Therefore, the usage which combined two methods is also considered. In that case, a functional expression may be basically obtained by taking the product of two functional expression parts.

16−2.エッジ強調率のコントラスト比関数による汎関数表現(処理(0-8))
1)汎関数表現1(ガンマ版)
エッジ強調率の汎関数表現もまた同様に、作業用色空間で一様なエッジ強調をしたのと同程度の見栄えを保持しつつ、出力色空間におけるエッジ強調効果が全ての明るさで均質化されることを第一の目標とする。そうすることによって、ある明るさレベルの階調コントラストが出力色空間の方が立った領域での作業用色空間での低いコントラストで抽出したエッジ成分によるエッジ強調不足というのは抑えられ、また階調コントラストが出力色空間の方が寝ている特定領域だけの作業用色空間での高いコントラストで抽出したエッジ成分による過剰なエッジ強調作用による不均一感というのは抑えられる。すなわち、作業用色空間の方が出力色空間よりコントラストの低い階調領域ではエッジ成分のコントラストを事前に高め、反対にコントラストが高い領域ではエッジ成分のコントラストを事前に弱める必要がある。
16-2. Functional representation of edge enhancement rate by contrast ratio function (Process (0-8))
1) Functional expression 1 (gamma version)
Similarly, the functional expression of the edge enhancement rate also maintains the same level of appearance as the uniform edge enhancement in the working color space, while the edge enhancement effect in the output color space is uniformed at all brightness levels. The first goal is to be done. By doing so, the lack of edge enhancement due to edge components extracted with low contrast in the working color space in areas where the gradation contrast of a certain brightness level stands out in the output color space is suppressed, and It is possible to suppress a feeling of non-uniformity due to an excessive edge emphasis effect due to edge components extracted with a high contrast in the working color space of only the specific region where the tonal contrast is lower in the output color space. That is, in the working color space, the contrast of the edge component needs to be increased in advance in the gradation region where the contrast is lower than that in the output color space, and on the contrary, the contrast of the edge component needs to be weakened in advance in the region where the contrast is high.

このとき、エッジ強調率を出力ガンマ特性に合わせて増減幅する際の、増減幅の基準点の設定をどこに選択するかという問題が重要になるが、ノイズ除去率のときと同じくして、輝度成分の場合、それは出力色空間で平均輝度レベル(256階調では128前後)になることを目標として設計される露出基準点にとるのがよい。そうすると出力色空間での輝度成分のエッジ強調の見えは、明るさ全体で平均的に一定に保たれたように見えるようになる。したがって、出力色空間への階調変換によってエッジ・コントラスト不足に陥る恐れのあった暗い部分の領域の、階調補正不足による黒浮き現象を防止し、階調性が原画像よりも高い、黒の締まったクリアなエッジ強調効果を得ることができる。   At this time, when increasing or decreasing the edge enhancement rate according to the output gamma characteristic, the issue of where to select the reference point for the increase / decrease width is important. In the case of a component, it should be taken as an exposure reference point designed to achieve an average luminance level (around 128 for 256 gray levels) in the output color space. Then, the appearance of edge enhancement of the luminance component in the output color space appears to be maintained constant on average throughout the brightness. Therefore, it is possible to prevent the black floating phenomenon due to insufficient gradation correction in the dark area where the edge / contrast may be insufficient due to the gradation conversion to the output color space. A clear edge emphasis effect can be obtained.

一方、色差成分は、作業用色空間と同じようなエッジ強調効果を出力色空間でも得ようとすると、輝度成分より一般的に強い目のエッジ強調を必要とする。なぜならば、色差成分は高周波のエッジ構造をあまり含まず、緩やかに変化するエッジ構造が多いため、エッジ成分が抽出しにくいことに由来する。したがって、輝度成分のようにダイナミックにエッジ強調率を操作することはできず、エッジ強調効果を落とさずにコントラスト保持できる部分だけのエッジ強調を緩める形をとる。   On the other hand, the color difference component requires edge enhancement that is generally stronger than the luminance component in order to obtain an edge enhancement effect similar to that in the work color space in the output color space. This is because the color difference component does not include a high-frequency edge structure so much, and there are many gently changing edge structures, so that it is difficult to extract the edge component. Therefore, the edge emphasis rate cannot be dynamically manipulated like the luminance component, and the edge emphasis of only the portion that can maintain the contrast without degrading the edge emphasis effect is loosened.

具体的にはノイズ除去率の場合と同じくして、出力ガンマ特性がニー特性になる領域の飽和基準点で規格化を行なう。するとハイライト部の色差面エッジ強調率を弱めることになる。ハイライト部は一般に色差面では高彩度部に対応するので、エッジ成分の抽出が容易であり、また作業用色空間の方が出力色空間よりコントラストが高いので、そのまま利用するとカラフルネスを上げ過ぎる弊害が生じる。したがって、ハイライト部のエッジ強調率を弱めることによって、高彩度部の極端な彩度強調を防止し、他の暗い領域の色コントラストとカラフルネス復元とのバランスを保った全体的に色再現性の高いエッジ強調効果を生む。また、輝度成分の暗部エッジ強調効果と相まって、暗部のノイズ被りによる黒浮きや他の領域から暗部への色滲みが完全に消え、原画像よりも黒の再現性の高い、抜けのよい鮮明感や透明感を生み出す。   Specifically, normalization is performed at the saturation reference point in the region where the output gamma characteristic becomes the knee characteristic, as in the case of the noise removal rate. As a result, the color difference surface edge enhancement ratio in the highlight portion is weakened. The highlight part generally corresponds to the high-saturation part in the color difference plane, so it is easier to extract edge components, and the work color space has a higher contrast than the output color space. Occurs. Therefore, by reducing the edge enhancement rate in the highlight area, extreme saturation enhancement in the high saturation area is prevented, and the overall color reproducibility is maintained while maintaining the balance between color contrast and colorfulness restoration in other dark areas. Produces a high edge enhancement effect. Also, combined with the dark edge enhancement effect of the luminance component, the black floating due to the noise in the dark area and the color blur from other areas to the dark area completely disappear, and the black reproducibility is higher than the original image, and the clearness is good And create transparency.

これらを実現するエッジ強調率のコントラスト比関数による汎関数表現は以下の式で表される。ノイズ除去率と同様に、輝度成分の場合、上記露出基準点に基づくコントラスト比を次式の分母に代入することにより規格化が行われる。また、色差成分の場合、上記飽和基準点に基づくコントラスト比を次式の分母に代入することにより規格化が行われる。
輝度成分の場合

Figure 0005359646
色差成分の場合
Figure 0005359646
The functional expression by the contrast ratio function of the edge enhancement rate that realizes these is expressed by the following equation. Similar to the noise removal rate, in the case of the luminance component, normalization is performed by substituting the contrast ratio based on the exposure reference point into the denominator of the following equation. In the case of color difference components, normalization is performed by substituting the contrast ratio based on the saturation reference point into the denominator of the following equation.
In case of luminance component
Figure 0005359646
For color difference components
Figure 0005359646

2)汎関数表現2(レチネックス版)
エッジ強調率の汎関数表現に関しても、もう一つ別の視点から作ることができる。すなわち、汎関数表現1では画像全体の明るさレベルの間でエッジ強調効果が均質化されることを目標としたのに対し、ここでは局所的なエッジ構造近傍の範囲内で明るさレベル間のエッジ強調効果が均質化されることを目標とする。これは、画像構造を決める重要な部分はエッジ近傍に集中しており、その周りさえエッジ強調効果が明るさに対して均質化されていれば画像全体としてのエッジ強調効果は非一様であってもその均質化作用が持つもう一つ別な側面を局所的な領域に対して最大限発揮しうる、という考えに基づく。
2) Functional expression 2 (Retinex version)
The functional representation of the edge enhancement rate can also be made from another viewpoint. In other words, while the functional expression 1 aims to homogenize the edge enhancement effect between the brightness levels of the entire image, here, the brightness level between the brightness levels within the vicinity of the local edge structure. The goal is to homogenize the edge enhancement effect. This is because important parts that determine the image structure are concentrated in the vicinity of the edges, and even if there is an edge enhancement effect that is uniform with respect to brightness, the edge enhancement effect as a whole image is non-uniform. However, it is based on the idea that another aspect of the homogenizing action can be exerted to the maximum extent in the local region.

すなわち、エッジ強調効果の均質化にはもう一つ、エッジ成分から分離し切れなかったノイズ成分によるノイズ増幅の弊害を明るさレベル間で均質化することにより、その弊害の見えの強いところの存在に伴って全体的な印象を悪くしてしまう不均一さの視覚的な欠点を減らして、弊害の見えを平均的に最小化するという意味がある。したがって、エッジ近傍で重点的にこのエッジ強調の弊害対策を実施すれば、効果的に画像の重要な構造部のコントラストを、ノイズ被りの影響から保護することができる。   In other words, the homogenization of the edge enhancement effect is another aspect where the negative effects of noise amplification due to noise components that could not be separated from the edge components are homogenized between brightness levels, so that the negative effects are strongly visible. This means that the visual defect of non-uniformity that deteriorates the overall impression is reduced, and the appearance of harmful effects is minimized on average. Therefore, if the detrimental measures for edge enhancement are implemented mainly in the vicinity of the edge, the contrast of the important structural portion of the image can be effectively protected from the influence of noise.

この場合も、一般的な階調特性をもつ出力色空間に対しては、明るいところで作業用色空間の階調コントラストの方が高いことに伴ってその領域に混入するノイズ成分のコントラストも強くなりやすく、その領域でノイズ被りの弊害が起きやすい。輝度成分の場合は白い画像領域面内の構造情報がノイズに埋もれやすく、色差成分の場合は高彩度部の色情報がノイズに埋もれやすい。   In this case as well, for the output color space with general gradation characteristics, the contrast of the noise component mixed in the area becomes stronger as the gradation contrast of the work color space is higher in a bright place. It is easy to cause adverse effects of noise covering in that area. In the case of the luminance component, the structure information in the white image region plane is easily buried in noise, and in the case of the color difference component, the color information in the high saturation portion is easily buried in noise.

したがって、以下のような式によってエッジ強調率をコントラスト比関数の汎関数表現するとよい。このとき参照するエッジ情報としては、画像構造を局所的にも大局的にもあらゆるスケールで観測する多重解像度統合エッジ成分を用いるのが最適である。また、ノイズ成分やリンギング成分がしっかりと除外されて視覚的に重要な周波数帯域が加味された統合エッジ成分Ew"(x,y)を用いるのが最もよい。   Therefore, the edge enhancement rate may be expressed as a functional function of the contrast ratio function by the following equation. As edge information to be referred to at this time, it is optimal to use a multi-resolution integrated edge component for observing the image structure at any scale both locally and globally. Further, it is best to use the integrated edge component Ew ″ (x, y) in which a noise component and a ringing component are firmly excluded and a visually important frequency band is added.

輝度成分の場合

Figure 0005359646
色差成分の場合
Figure 0005359646
In case of luminance component
Figure 0005359646
For color difference components
Figure 0005359646

ここに、σgE thの値は、実空間におけるノイズゆらぎ指標値σthに連動する値、ないしは絶対エッジ強度レベルで与えるとよい。それによって、ノイズ被りの影響によるコントラスト低下を防止したいエッジ強度レベルを与えることができる。   Here, the value of σgE th may be given as a value linked to the noise fluctuation index value σth in real space, or an absolute edge strength level. As a result, it is possible to give an edge strength level at which contrast reduction due to the influence of noise coverage is desired to be prevented.

3)汎関数表現3(合成版)
エッジ強調率の汎関数表現1と2も局所的に各々で効き方が違う。したがって、2つの方法を組み合わせた使い方も考えられる。その場合は基本的に2つの汎関数表現部分の積をとった汎関数表現をすればよい。
3) Functional expression 3 (composite version)
The functional expressions 1 and 2 of the edge enhancement rate are also locally different in effect. Therefore, the usage which combined two methods is also considered. In that case, a functional expression may be basically obtained by taking the product of two functional expression parts.

16−3.ノイズ除去処理とエッジ強調処理の実行
このようにしてノイズ除去とエッジ強調の効果の最大化と弊害の最小化が図られたノイズ除去率とエッジ強調率の汎関数表現を用いて、実際にノイズ除去処理とエッジ強調処理を行う。
16-3. Execution of noise removal processing and edge enhancement processing In this way, using the functional representation of the noise removal rate and edge enhancement rate that maximizes the effects of noise removal and edge enhancement and minimizes the effects, noise is actually reduced. Removal processing and edge enhancement processing are performed.

1)ノイズ除去処理だけの場合
ノイズ除去処理だけの場合、次式によりノイズ除去を行い(処理(0-9))、ノイズ除去後の画像を出力する(処理(0-10))。

Figure 0005359646
2)エッジ強調処理だけの場合
エッジ強調処理だけの場合、図4の処理(0-9)を行わず、次式によりエッジ強調のみを行い(不図示)、エッジ強調後の画像を出力する(不図示)。
Figure 0005359646
3)ノイズ除去処理とエッジ強調処理を同時に行う場合
ノイズ除去処理とエッジ強調処理を同時に行う場合、上記ノイズ除去処理だけの場合の処理(処理(0-9))を行った後、エッジ強調処理を行い(処理(0-11))、ノイズ除去およびエッジ強調後の画像を出力する(処理(0-12))。ノイズ除去処理とエッジ強調処理の両方を行う場合の式をまとめると次式のようになる。
Figure 0005359646
1) In the case of only noise removal processing In the case of only noise removal processing, noise removal is performed according to the following equation (processing (0-9)), and the image after noise removal is output (processing (0-10)).
Figure 0005359646
2) In the case of only the edge enhancement processing In the case of only the edge enhancement processing, the processing (0-9) in FIG. 4 is not performed, only the edge enhancement is performed by the following formula (not shown), and the image after edge enhancement is output ( Not shown).
Figure 0005359646
3) When noise removal processing and edge enhancement processing are performed simultaneously When noise removal processing and edge enhancement processing are performed simultaneously, the edge enhancement processing is performed after the processing (processing (0-9)) only for the above noise removal processing is performed. (Processing (0-11)), and output the image after noise removal and edge enhancement (Processing (0-12)). The formulas for performing both noise removal processing and edge enhancement processing are summarized as follows.
Figure 0005359646

ここに、ノイズ除去で損失を被った程度の輪郭ボケを回復したい目的でエッジ強調を行う場合は、

Figure 0005359646
のように設定するのがよい。そうするとλjointのノイズ除去率を上げるに伴ってノイズ除去効果が強くなっていく画質設計を保ったまま、ノイズ除去で失ってしまうノイズに埋もれたテキスチャをも復元しうる高性能なノイズ除去が可能となる。 Here, when performing edge enhancement for the purpose of recovering the outline blurring that has suffered a loss in noise removal,
Figure 0005359646
It is better to set as follows. As a result, it is possible to perform high-performance noise removal that can restore the texture buried in the noise lost by noise removal while maintaining the image quality design that the noise removal effect becomes stronger as the noise removal rate of λjoint increases Become.

一方、ノイズ除去を伴わずに、各ISO感度の原画像のノイズによる不鮮明感だけを取り除きたい場合は、λjoint=0、ζjoint≠0とすればよい。   On the other hand, if it is desired to remove only the unclearness due to noise in the original image of each ISO sensitivity without removing noise, λjoin = 0 and ζjoin ≠ 0 may be set.

ここで注目すべき指摘しておきたい点がある。上述のようにして物理的現象を追うことによって解明してきたノイズ除去率の汎関数表現の最適解とエッジ強調率の汎関数表現の最適解は偶然にも一致するのである。抽出エッジ成分の中に含まれる分離不可能なノイズ成分の視点に立てば、エッジ強調率の汎関数表現はエッジ成分の中に混在するノイズ成分の増幅を恐れてノイズ除去率の汎関数表現の逆数に設定する論理も考えられうる。しかし、実験的に一致する表現の方がそれに勝る結果が得られるのは、抽出エッジ成分からノイズ成分をうまく排除して真のエッジ成分に近づけたことにより、エッジ成分を純粋なエッジ成分として扱ってよく、ノイズ成分の増幅を恐れる心配がなくなった証拠と言える。したがって、処理上は各々で個別の汎関数表現を作成する手間は省ける。また、これの物理的意味は、ノイズ除去で失ったエッジ構造を正確に同じような振る舞いで元に戻そうとすると同じ関数形になるということとも無縁ではない。しかし、ノイズ除去とエッジ強調は全く独立事象であるにもかかわらず、階調方向に関しては一致する。他方のステップS10の周波数投影空間では不一致である。   Here are some points to note. The optimum solution of the functional representation of the noise removal rate and the optimum solution of the functional representation of the edge enhancement rate, which have been elucidated by following the physical phenomenon as described above, coincide by chance. From the viewpoint of inseparable noise components contained in the extracted edge components, the functional representation of the edge enhancement rate is a function of the functional representation of the denoising rate because of fear of amplification of the noise components mixed in the edge component. A logic setting to the reciprocal can also be considered. However, the experimentally matched expression gives better results because the edge component is treated as a pure edge component by eliminating the noise component from the extracted edge component and bringing it closer to the true edge component. It can be said that it is proof that there is no need to worry about amplification of noise components. Therefore, it is possible to save the trouble of creating an individual functional expression for each processing. In addition, the physical meaning of this is not related to the fact that an edge structure lost by noise removal becomes the same functional form when trying to return it to the original with exactly the same behavior. However, although noise removal and edge enhancement are completely independent events, they are consistent with respect to the gradation direction. The frequency projection space of the other step S10 is inconsistent.

17.出力色空間への変換
次に、図2のステップS4において、ノイズ除去およびエッジ強調された画像について画像処理空間から出力色空間へ変換する。出力色空間が入力色空間と同じでよい場合は、項目番号1の逆変換処理を行なう。また、異なっている場合は各入力及び出力の標準色空間の規定に従って変換すればよい。例えば、入力がAdobeRGBで出力がsRGBのような場合が考えられる。また、それだけに留まらず、出力画像に対して更に階調補正が加えられていてもよい。例えば、画像に掛けるガンマ曲線の特性を変える。そのときは事前に項目番号16−1と項目番号16−2側にその特性情報を伝えて、コントラスト比関数を事前に計算できるようにしておく。
17. Conversion to Output Color Space Next, in step S4 of FIG. 2, the image from which noise has been removed and edge-enhanced is converted from the image processing space to the output color space. If the output color space may be the same as the input color space, the inverse conversion process for item number 1 is performed. If they are different, they may be converted in accordance with the standard color space of each input and output. For example, a case where the input is AdobeRGB and the output is sRGB can be considered. In addition to that, gradation correction may be further applied to the output image. For example, the characteristic of the gamma curve applied to the image is changed. At that time, the characteristic information is transmitted to the item numbers 16-1 and 16-2 in advance so that the contrast ratio function can be calculated in advance.

18.画像出力
図2のステップS5では、以上のようにしてノイズ除去およびエッジ強調された画像データを出力する。
18. Image Output In step S5 of FIG. 2, the image data from which noise has been removed and edge-enhanced as described above is output.

以上のようにしてエッジ強調処理された画像に対して、次のような画質効果を生じる。まず、高感度撮影されてノイズ被りによってエッジのコントラストが低下し、黒浮きした画像に対して、輪郭の鮮明さを回復し、ノイズと同程度の振幅のテキスチャ構造にしっかりとコントラストをつけ、全体の鮮鋭感・立体感を上げるとともに、黒の締まりを良くしてノイズ被りによる曇りをなくし、階調表現性を豊かにすることによって透明感を上げ、色境界の滲みをなくして色コントラストを上げ、全体のノイズ被りによる彩度低下をなくして、カラフルネスを上げる効果がある。   The following image quality effect is produced on the image subjected to the edge enhancement processing as described above. First, the contrast of the edge is reduced due to high-sensitivity photography and noise coverage, the sharpness of the image is restored for the image that is black, and the texture structure with the same amplitude as the noise is firmly contrasted. In addition to improving the sharpness and three-dimensionality of the image, it improves the blackness and eliminates the cloudiness caused by the noise, and enhances the gradation expression to enhance transparency and eliminate color boundary bleeding and increase the color contrast. , The effect of raising the colorfulness by eliminating the desaturation due to the overall noise coverage.

また、同様にしてノイズ除去された画像に対してエッジ強調処理を同時化することによって、ノイズ除去で失われたエッジ構造を復元する効果が得られる。すなわち、ノイズ除去による鮮鋭感の低下を回復し、ノイズ除去によって失われたノイズと同程度に変化するテキスチャをも回復しつつ粒状性ノイズを低減し、また、暗部のノイズを抑制し、明部のノイズ被りも防止することによって階調性を上げ、色滲みと平坦部での緩やかな色構造の消失の少ない色斑ノイズ除去を実現する。   Similarly, the effect of restoring the edge structure lost by noise removal can be obtained by simultaneously performing the edge enhancement processing on the image from which noise has been removed. In other words, the reduction in sharpness due to noise removal is recovered, the graininess noise is reduced while restoring the texture that changes to the same extent as the noise lost by noise removal, and the noise in the dark part is suppressed, and the bright part is suppressed. In addition, it is possible to improve gradation and prevent color spot noise with less blurring and disappearance of a gradual color structure on a flat portion.

また、これらのエッジ強調による画像エンハンスメントとノイズ除去によるノイズ抑制を、それらの強度、すなわちエッジ強調率とノイズ除去率の強さに応じて自然な画質を保ったまま連続的に実現することができる。いいかえると、高感度撮影された画像に対する原画像をも凌ぐ良好な画質のエンハンスメント効果は、低感度撮影された画像に近づけるような自然な形でなされて、そこから踏み外すことはないことを保証する。   In addition, image enhancement by edge enhancement and noise suppression by noise removal can be continuously realized while maintaining natural image quality according to their strength, that is, the strength of the edge enhancement rate and the noise removal rate. . In other words, the enhancement effect with good image quality that surpasses the original image for high-sensitivity shot images ensures that it is done in a natural way close to that of low-sensitivity shot images and does not step out of it. .

したがって、鮮鋭感、鮮明感、立体感、透明感に代表されるような主観的な質感再現性も、解像力、色分解能、有効階調帯域幅に表されるような物理量の再現性も高いエッジ強調やノイズ除去効果を得ることができる。   Therefore, an edge with high reproducibility of physical quantities as expressed by resolving power, color resolution, and effective gradation bandwidth as well as subjective reproducibility such as sharpness, sharpness, stereoscopic effect, and transparency. Emphasis and noise removal effects can be obtained.

なお、低感度撮影画像にもノイズというものは必ず存在し、これらのエンハンスメント効果が同様にして得られることは実験的にも確認している。   Note that noise is always present in low-sensitivity shot images, and it has been experimentally confirmed that these enhancement effects can be obtained in the same manner.

−第2の実施の形態−(実空間版)
第2の実施の形態では、実空間面のままノイズ除去とエッジ強調を同時に行う実施形態を示す。
-Second embodiment-(real space version)
In the second embodiment, an embodiment is shown in which noise removal and edge enhancement are simultaneously performed in the real space plane.

第2の実施の形態の画像処理装置の構成は、第1の実施の形態と同様であるので、図1を参照し、その説明を省略する。また、パーソナルコンピュータ1が処理する第2の実施の形態の画像処理のフローチャートも、流れとしては図3と同様であるので、その説明を省略する。以下、第1の実施の形態の処理と異なる点を中心に説明をする。図8は、第2の実施の形態のノイズ除去処理およびエッジ強調処理の流れ図を示す図である。   Since the configuration of the image processing apparatus of the second embodiment is the same as that of the first embodiment, a description thereof will be omitted with reference to FIG. The flowchart of the image processing of the second embodiment processed by the personal computer 1 is also the same as that shown in FIG. Hereinafter, a description will be given focusing on differences from the processing of the first embodiment. FIG. 8 is a flowchart illustrating noise removal processing and edge enhancement processing according to the second embodiment.

1.色空間変換
第1の実施の形態の項目番号1と同じ。
1. Color space conversion Same as item number 1 in the first embodiment.

2.仮想ノイズ除去によるノイズ抽出
2−1.ノイズ除去処理
実空間面はS(x,y)で表されているので、第1の実施の形態のサブバンド面V(x,y)に対する処理をVからSに置き換えるだけでよい(処理(x-1))。ただし、積分範囲は大きくとる必要が出てくる。
2. 2. Noise extraction by virtual noise removal 2-1. Noise removal processing Since the real space plane is represented by S (x, y), the processing for the subband plane V (x, y) of the first embodiment need only be replaced from V to S (processing ( x-1)). However, it is necessary to increase the integration range.

ノイズ除去フィルタとして、σフィルタやεフィルタ等、平滑化面S'を作るノイズ除去処理の方法は何を用いても構わないが、第1の実施の形態と同じく改良型バイラテラル・フィルタの例を示しておく。

Figure 0005359646
As a noise removal filter, any method of noise removal processing for creating the smoothed surface S ′, such as a σ filter or an ε filter, may be used, but an example of an improved bilateral filter as in the first embodiment. Let me show you.
Figure 0005359646

本当にきれいなノイズ除去効果を得るにはrthの値を50程度にとってフィルタリング範囲を101x 101画素程度にするのがよいが、ここでは説明の簡略化のためrth=12にとって25x25の範囲で積分を行なうものとする。ただし、σフィルタやεフィルタの場合は、空間的な因子には無頓着なのでrthに相当するパラメータは存在せず、単に積分範囲を設定するだけである。   To get a really clean noise removal effect, it is better to set the rth value to about 50 and the filtering range to about 101x101 pixels, but here for the sake of simplification of explanation, the integration is done in the range of 25x25 for rth = 12 And However, in the case of the σ filter and the ε filter, there is no parameter corresponding to rth because it is indifferent to spatial factors, and the integration range is simply set.

2−2.ノイズ抽出処理
次式のようなノイズ抽出処理を行う(処理(x-3))。

Figure 0005359646
2-2. Noise extraction processing Noise extraction processing as shown in the following equation is performed (processing (x-3)).
Figure 0005359646

3.エッジ抽出
仮想ノイズ除去された実空間面からエッジ成分を抽出する(処理(x-3))。

Figure 0005359646
3. Edge extraction Edge components are extracted from the real space surface from which virtual noise is removed (processing (x-3)).
Figure 0005359646

ここで、エッジ検出フィルタとしてはラプラシアン・フィルタを用いる。第2の実施の形態と同じ9x9のラプラシアン・フィルタでもよいが、平滑化フィルタを25x25に設定したので、こちらも25x25程度に設定するのが望ましい。25x25のラプラシアンは、9x9のガウシアン・フィルタを3回掛けた平滑化画像と原画像の差分をとれば作成できる。すなわち、

Figure 0005359646
Here, a Laplacian filter is used as the edge detection filter. The same 9 × 9 Laplacian filter as in the second embodiment may be used, but since the smoothing filter is set to 25 × 25, it is desirable to set this also to about 25 × 25. A 25x25 Laplacian can be created by taking the difference between the original image and a smoothed image that has been multiplied by a 9x9 Gaussian filter three times. That is,
Figure 0005359646

4.ノイズ成分の自己精錬
第1の実施の形態の項目番号11と同じ式を用いて、ノイズ成分の自己精錬を行う(処理(0-1))。ただし、Nwの記号はNに置き換える。
4). Self-refining of noise components Self-refining of noise components is performed using the same equation as item number 11 in the first embodiment (processing (0-1)). However, replace Nw with N.

5.エッジ成分の自己精錬
第1の実施の形態の項目番号12と同じ式を用いて、エッジ成分の自己精錬を行う(処理(0-2))る。ただし、Ewの記号はEに置き換える。
5. Self-refining of edge components Self-refining of edge components is performed using the same equation as item number 12 in the first embodiment (processing (0-2)). However, replace the Ew symbol with E.

6.エッジによるノイズ成分の精錬(相互精錬1)
第1の実施の形態の項目番号13と同じ式を用いて、エッジによるノイズ成分の精錬を行う(処理(0-3))。ただし、Nwの記号はNに、Ewの記号はEに置き換える。
6). Refinement of noise components by edge (mutual refining 1)
Using the same equation as item number 13 in the first embodiment, noise components are refined by edges (processing (0-3)). However, replace the Nw symbol with N and the Ew symbol with E.

7.ノイズによるエッジ成分の精錬(相互精錬2)
第1の実施の形態の項目番号14と同じ式を用いて、ノイズによるエッジ成分の精錬を行う(処理(0-4))。ただし、Nwの記号はNに、Ewの記号はEに置き換える。
7). Refinement of edge components by noise (mutual refining 2)
Using the same equation as item number 14 in the first embodiment, the edge component due to noise is refined (processing (0-4)). However, replace the Nw symbol with N and the Ew symbol with E.

8.実際のノイズ除去処理と実際のエッジ強調処理
第1の実施の形態の項目番号16と同じ式を用いる(処理(0-7)(0-8)(0-9)(0-11))。ただし、Nwの記号はNに、Ewの記号はEに置き換える。また、便宜上、第1の実施の形態の項目番号15に相当する処理は省略した。
8). Actual noise removal processing and actual edge enhancement processing The same formula as item number 16 in the first embodiment is used (processing (0-7) (0-8) (0-9) (0-11)). However, replace the Nw symbol with N and the Ew symbol with E. For convenience, processing corresponding to item number 15 in the first embodiment is omitted.

9.出力色空間への変換
第1の実施の形態の項目番号17と同じ。
9. Conversion to output color space Same as item number 17 in the first embodiment.

こうして得られる画像処理結果には、第1の実施の形態の周波数投影空間の最適選択の効果の部分を除いて、第1の実施の形態と同様にノイズ成分とエッジ成分の分離性能の高い、また、それらの中に含まれる不純物成分による弊害も最小化した、高品質なノイズ除去とエッジ強調の効果が得られる。   The image processing result obtained in this way has high noise component and edge component separation performance as in the first embodiment, except for the effect of the optimal selection of the frequency projection space of the first embodiment. In addition, it is possible to obtain high-quality noise removal and edge enhancement effects that minimize the adverse effects caused by the impurity components contained therein.

―変形例―
(1)なお、上述の実施形態ではノイズ除去処理とエッジ強調処理がどちらも存在する前提で、それらを使うか否かは最後に自由選択する形式で記述したが、エッジ強調処理のみをもっと高速に実現したい場合、ノイズ除去フィルタによる平滑化処理が重い処理として障害になるので、ノイズ除去フィルタを省略して、第1の実施の形態では多重解像度表現されたサブバンド画像から直接、第2の実施の形態では原画像から直接アンシャープマスク処理によってエッジ成分を抽出するようなことも簡略な使い方としては考えられる。
-Modification-
(1) In the above-described embodiment, it is assumed that both noise removal processing and edge enhancement processing exist, and whether or not to use them is described in a form of free selection at the end, but only the edge enhancement processing is performed at a higher speed. In the first embodiment, the noise removal filter is omitted, and in the first embodiment, the second processing is directly performed from the subband image expressed in multi-resolution. In the embodiment, extracting the edge component directly from the original image by unsharp mask processing is also considered as a simple usage.

(2)なお、第1の実施の形態の項目番号5〜8,11〜15のノイズ成分とエッジ成分の自己・相互精錬、及び項目番号16のノイズ除去率とエッジ強調率の汎関数表現による演算は、ソフトウェアで実際に処理する場合はルックアップテーブルを通過させるだけなのでほとんど無視できる程度の処理時間しかかからないことを指摘しておく。 (2) It should be noted that the self-reciprocal refining of the noise components and edge components of item numbers 5 to 8 and 11 to 15 of the first embodiment and the functional representation of the noise removal rate and edge enhancement rate of item number 16 It should be pointed out that the computation takes almost negligible processing time because it only passes through the lookup table when actually processed by software.

(3)なお、上記説明の画像処理空間は最良の色空間として均等色・均等ノイズ空間を用いたが、一般的な均等色空間の場合も同様にコントラスト比関数を定義して、本発明を利用することができる。例えば、CIE定義のL*a*b*空間やL*u*v*、あるいはCIECAM02でもよく、それぞれで定義される作業用色空間の階調特性と出力色空間の階調特性からコントラスト比関数を求めればよい。 (3) Although the uniform color / uniform noise space is used as the best color space for the image processing space described above, the contrast ratio function is similarly defined in the case of a general uniform color space, and the present invention is used. Can be used. For example, the CIE-defined L * a * b * space, L * u * v *, or CIECAM02 may be used, and the contrast ratio function can be calculated from the gradation characteristics of the work color space and the gradation characteristics of the output color space defined by each. You can ask for.

(4)なお、上述の第1の実施の形態ではedge-preserving smoothing filterとして高性能な改良型バイラテラル・フィルタを用いる例で示したが、エッジとノイズとの分離度は劣るが高速・簡便に動作するノイズ除去フィルタの例として本出願人発明のWO2006/106919に示される以下のようなラプラシアン・ノイズ除去フィルタがある。この場合、実施形態で定義したノイズ成分とエッジ成分の自己及び相互精錬の機能は、元の抽出されてきた各々の成分の純度が悪いため、改良型バイラテラル・フィルタのより効果的にその性能を発揮する。 (4) In the first embodiment described above, an example of using a high-performance improved bilateral filter as the edge-preserving smoothing filter is shown. However, although the degree of separation between edges and noise is inferior, it is fast and simple. The following Laplacian noise removal filter shown in WO2006 / 106919 of the applicant's invention is an example of a noise removal filter that operates in the following manner. In this case, the self-reciprocal and mutual refining functions of the noise component and the edge component defined in the embodiment are more effective than the improved bilateral filter because the purity of each of the original extracted components is poor. Demonstrate.

輝度面のノイズ除去処理

Figure 0005359646
色差面のノイズ除去処理
Figure 0005359646
Luminance surface noise removal processing
Figure 0005359646
Color difference surface noise removal processing
Figure 0005359646

ただし、ここで定義するラプラシアンは多重解像度で利用するときは最も単純な3x3のものでよい。   However, the Laplacian defined here can be the simplest 3x3 when using multiple resolutions.

(5)なお、上述の第1の実施の形態では5段のウェーブレット変換の場合、低周波サブバンド画像群と高周波サブバンド画像群の解像度レベルをj=1,2,...,5として用いる例を示したが、実空間を低周波サブバンド画像群のj=0の解像度として扱うこともできる。その場合、j=1で行なったようなノイズ抽出処理やエッジ抽出処理を行なって、統合ノイズ成分と統合エッジ成分の各々に最後の段階で加算するようにしてもよい。そのときの解像度レベル間の重みづけは、j=0に対してノイズ成分の場合はホワイト・ノイズであるのでknj=1であり、kejの値は項目番号10−2でこの場合を想定して既に記載してある数値を用いるとよい。 (5) In the first embodiment described above, in the case of the 5-stage wavelet transform, the resolution levels of the low-frequency subband image group and the high-frequency subband image group are set as j = 1, 2,. Although an example of using it is shown, the real space can be handled as the resolution of j = 0 of the low-frequency subband image group. In that case, noise extraction processing and edge extraction processing as performed in j = 1 may be performed and added to each of the integrated noise component and the integrated edge component at the final stage. The weighting between the resolution levels at that time is knj = 1 because the noise component is white noise with respect to j = 0, and the value of kej is item number 10-2. It is good to use the numerical value already described.

(6)なお、上記実施の形態で説明した画像処理空間は最良の色空間を例示しただけであって、従来からの色空間でノイズ除去およびエッジ強調処理を行なっても何ら本発明の意義が薄れるものではない。例えば、最新の均等色空間であるCIECAM02などを用いてもよい。なお、この空間は均等ノイズ空間、あるいは、均等色空間のいずれの空間であってもよい。 (6) It should be noted that the image processing space described in the above embodiment is merely an example of the best color space, and even if noise removal and edge enhancement processing are performed in the conventional color space, the significance of the present invention is not found. It will not fade. For example, CIECAM02, which is the latest uniform color space, may be used. This space may be either a uniform noise space or a uniform color space.

(7)上記実施の形態では、エッジ成分の自己精錬において、エッジ成分の強度に関する度数分布がノイズゆらぎ指標値σth ijに基づく所定幅のガウス分布に近づくように指数関数により演算するようにした。しかし、この処理をガウス分布ではなく次式による閾値判定とするようにしてもよい。また、ノイズによるエッジ成分の精錬、ノイズの自己精錬、エッジによるノイズ成分の精錬においても同様に閾値判定でもよい。

Figure 0005359646
(7) In the above embodiment, in the self-refining of the edge component, calculation is performed by an exponential function so that the frequency distribution related to the strength of the edge component approaches a Gaussian distribution with a predetermined width based on the noise fluctuation index value σth ij. However, this processing may be threshold determination based on the following equation instead of Gaussian distribution. Similarly, threshold determination may be performed in edge component refining by noise, noise self-refining, and noise component refining by edge.
Figure 0005359646

(8)上記実施の形態では、パーソナルコンピュータ1で実現される画像処理装置の例で説明をした。しかし、上記で説明したパーソナルコンピュータ1によるノイズ除去処理を、デジタルカメラ(電子カメラ)内で行うようにしてもよい。図9は、このデジタルカメラ100の構成を示す図である。デジタルカメラ100は、撮影レンズ102、CCDなどからなる撮像素子103、CPUおよび周辺回路からなる制御装置104、メモリ105などから構成される。 (8) In the above embodiment, the example of the image processing apparatus realized by the personal computer 1 has been described. However, the noise removal processing by the personal computer 1 described above may be performed in a digital camera (electronic camera). FIG. 9 is a diagram showing the configuration of the digital camera 100. The digital camera 100 includes a photographic lens 102, an image sensor 103 including a CCD, a control device 104 including a CPU and peripheral circuits, a memory 105 and the like.

撮像素子103は、被写体101を撮影レンズ102を介して撮影(撮像)し、撮影した画像データを制御装置104へ出力する。ここでの処理が、第1の実施の形態で説明した図3のステップS1の画像データ入力に相当する。制御装置104は、撮像素子103で撮影された画像データに対して、上記で説明した各実施の形態や変形例のノイズ除去処理を行い、適切にノイズ除去されエッジ強調された画像データを適宜メモリ105に格納する。制御装置104はROM(不図示)などに格納された所定のプログラムを実行することにより、上記説明したノイズ除去処理およびエッジ強調処理を行う。   The image sensor 103 captures (captures) the subject 101 via the photographing lens 102 and outputs the captured image data to the control device 104. This process corresponds to the image data input in step S1 of FIG. 3 described in the first embodiment. The control device 104 performs the noise removal processing of each of the embodiments and modifications described above on the image data captured by the image sensor 103, and appropriately stores image data that has been appropriately noise-removed and edge-enhanced. It stores in 105. The control device 104 performs the above-described noise removal processing and edge enhancement processing by executing a predetermined program stored in a ROM (not shown) or the like.

このようにして、デジタルカメラ100内部でも、エッジ強調におけるリンギングを防ぎ、自然なエッジ強調効果を生む処理が可能となり、適切にエッジ強調された画像データをメモリ105に格納し、また、着脱可能なメモリカードなどの記録媒体に記録することができる。   In this way, even in the digital camera 100, it is possible to prevent ringing in edge enhancement and to produce a natural edge enhancement effect. Image data with appropriate edge enhancement is stored in the memory 105, and can be detached. It can be recorded on a recording medium such as a memory card.

以上説明した本実施の形態や変形例の作用効果を整理すると、以下のようになる。
(1)原画像に基づきエッジ成分を抽出し、抽出されたエッジ成分に対して、エッジ成分の強度に関する度数分布が所定幅のガウス分布に近づくように各々のエッジ成分を減衰する補正をし、補正されたエッジ成分に基づき、原画像に対してエッジ強調を行うようにした。すなわち、エッジ検出フィルタで抽出されたエッジ成分を、原画像に加算しても自然な印象を与えると考えられる本来のあるべき姿のガウス分布特性の度数分布に近づけるようにした。これにより、リンギングを防止したエッジ強調を可能とする。そして、このエッジ強調処理は、ノイズの中に埋もれる程度の微弱なエッジ成分を極めて自然な形でノイズ増幅することなく回復することができる。
The actions and effects of the present embodiment and the modifications described above are summarized as follows.
(1) Extracting edge components based on the original image, and correcting the extracted edge components to attenuate each edge component so that the frequency distribution related to the intensity of the edge components approaches a Gaussian distribution with a predetermined width, Based on the corrected edge component, edge enhancement is performed on the original image. In other words, the edge component extracted by the edge detection filter is brought close to the frequency distribution of the Gaussian distribution characteristic that is supposed to give a natural impression even if it is added to the original image. This enables edge enhancement that prevents ringing. This edge enhancement process can recover a weak edge component that is buried in the noise in a very natural form without noise amplification.

(2)原画像をフィルタリングして、逐次的に低い解像度を持つ複数のサブバンド(帯域制限画像)を生成し(ウェーブレット変換)、各サブバンド(帯域制限画像)において、各サブバンド(帯域制限画像)のエッジ成分を抽出し、抽出された各サブバンド(帯域制限画像)のエッジ成分に対して、各々のサブバンド(帯域制限画像)毎にエッジ成分の強度に関する度数分布が各帯域に固有の所定幅のガウス分布に近づくように各々のエッジ成分を減衰する補正をし、補正された各サブバンド(帯域制限画像)のエッジ成分を統合して、原画像と同じ解像度を持つエッジ成分に統合し、統合されたエッジ成分の強度に関する度数分布が所定幅のガウス分布に近づくように各々のエッジ成分を減衰する補正をし、補正された統合エッジ成分に基づき、原画像に対してエッジ強調を行うようにした。このような多重解像度を用いたエッジ強調処理を行うことにより、大規模なリンギング問題を確実に防止し、大面積のハローやハウリングも確実に防止したエッジ強調、コントラスト強調効果を得ることが可能になる。 (2) Filtering the original image to sequentially generate a plurality of subbands (band-limited images) having low resolution (wavelet transform), and each subband (band-limited image) in each subband (band-limited image) Image) edge components are extracted, and for each extracted subband (band-limited image), the frequency distribution related to the intensity of the edge component for each subband (band-limited image) is unique to each band Correction to attenuate each edge component so that it approaches a Gaussian distribution of a predetermined width, and the edge components of each corrected subband (band-limited image) are integrated into an edge component having the same resolution as the original image Integration and correction to attenuate each edge component so that the frequency distribution related to the intensity of the integrated edge component approaches a Gaussian distribution of a predetermined width, and the corrected integrated edge component Hazuki was to perform edge enhancement on the original image. By performing edge enhancement processing using such multi-resolution, it is possible to reliably prevent large-scale ringing problems and obtain edge enhancement and contrast enhancement effects that reliably prevent large-area halos and howling. Become.

(3)上記所定幅のガウス分布は、原画像のノイズゆらぎ指標値と同じ幅のガウス分布であるとした。これにより、ノイズの中に埋もれる程度の微弱なエッジ成分を極めて自然な形でノイズ増幅することなく回復することができる。 (3) The Gaussian distribution with the predetermined width is a Gaussian distribution with the same width as the noise fluctuation index value of the original image. As a result, a weak edge component that is buried in noise can be recovered in a very natural form without noise amplification.

(4)均等ノイズ空間あるいは均等色・均等ノイズ空間で上記精錬の各処理を行うようにした。ただし、原画像が多重解像度表現されているときは、各々の帯域制限画像が元の画像として含んでいる各帯域制限画像に固有のゆらぎ幅と同じ幅であるとする。これは、精錬の基本的考えを容易に実現する一元的モデルへの集約が、均等ノイズ空間や均等色・均等ノイズ空間でノイズ抽出を行っているからこそ置くことのできる仮定であるからである。 (4) Each refining process is performed in a uniform noise space or a uniform color / uniform noise space. However, when the original image is expressed in multi-resolution, it is assumed that each band-limited image has the same width as the fluctuation width unique to each band-limited image included as the original image. This is because the integration into a unified model that easily realizes the basic idea of refining is an assumption that can be made because noise extraction is performed in a uniform noise space, uniform color, and uniform noise space. .

(5)上記実施の形態では、各解像度および統合後においてそれぞれエッジ精錬処理を行うようにした。しかし、各解像度での精錬処理を省略し、統合後においてのみ精錬処理を行っても同様な効果を得ることができる。すなわち、原画像をフィルタリングして、逐次的に低い解像度を持つ複数の、低周波サブバンド画像と高周波サブバンド画像のセットからなる帯域制限画像を生成し、各帯域制限画像に対してエッジ検出を行って、各帯域制限画像のエッジ成分を抽出し、抽出された低周波サブバンド画像と高周波サブバンド画像の両方の各帯域制限画像のエッジ成分を順次統合して、原画像と同じ解像度を持つエッジ成分に統合し、統合されたエッジ成分の強度に関する度数分布が所定幅のガウス分布に近づくように各々のエッジ成分を減衰する補正をし、補正されたエッジ成分に基づき、原画像に対してエッジ強調を行うようにしてもよい。この場合、周波数の冗長性と自由度が発生するので、統合したエッジ成分に対するエッジ精錬処理は不可欠となる。 (5) In the above embodiment, the edge refining process is performed after each resolution and integration. However, the same effect can be obtained even if the refining process at each resolution is omitted and the refining process is performed only after integration. That is, the original image is filtered to generate a band-limited image composed of a set of low-frequency subband images and high-frequency subband images having sequentially low resolution, and edge detection is performed on each band-limited image. To extract the edge component of each band limited image, and sequentially integrate the edge components of each extracted band limited image of both the low frequency subband image and the high frequency subband image to have the same resolution as the original image It is integrated with the edge component, and the frequency distribution related to the intensity of the integrated edge component is corrected to attenuate each edge component so that it approaches a Gaussian distribution with a predetermined width, and based on the corrected edge component, the original image is corrected. Edge enhancement may be performed. In this case, since frequency redundancy and degree of freedom occur, the edge refining process for the integrated edge component is indispensable.

(6)所定のノイズゆらぎ指標値で表されるノイズ成分を含む原画像に対してエッジ強調を行う画像処理方法であって、原画像からエッジ成分を抽出し、前記抽出したエッジ成分を前記ノイズゆらぎ指標値と比較することによって、前記エッジ成分の中から前記ノイズ成分と同程度の微弱エッジ成分を抽出し、前記抽出した微弱エッジ成分に基づき、前記原画像に対してエッジ強調を行うようにした。これにより、このエッジ強調処理は、ノイズ除去処理で失った、ノイズ除去フィルタでは通常判別不能なノイズの中に埋もれる程度の微弱なエッジ成分を極めて自然な形でノイズ増幅することなく回復することができる。 (6) An image processing method for performing edge enhancement on an original image including a noise component represented by a predetermined noise fluctuation index value, wherein the edge component is extracted from the original image, and the extracted edge component is used as the noise. By comparing with a fluctuation index value, a weak edge component of the same level as the noise component is extracted from the edge component, and edge enhancement is performed on the original image based on the extracted weak edge component. did. As a result, this edge enhancement process can recover the weak edge components lost in the noise removal process and buried in the noise that cannot usually be determined by the noise removal filter in a very natural manner without noise amplification. it can.

(7)また、原画像をフィルタリングして、逐次的に低い解像度を持つ複数のサブバンド(帯域制限画像)を生成し、各サブバンド(帯域制限画像)のエッジ成分を抽出し、抽出された各サブバンド(帯域制限画像)のエッジ成分自身の大きさに基づいて、該エッジ成分の中に含まれる偽のエッジ成分の量を推定し、推定結果に基づいて、抽出されたエッジ成分から偽のエッジ成分を除外して各サブバンド(帯域制限画像)の実エッジ成分を抽出し、抽出された各サブバンド(帯域制限画像)の実エッジ成分を統合して、原画像と同じ解像度を持つエッジ成分に統合し、統合されたエッジ成分自身の大きさに基づいて再度、該エッジ成分の中に含まれる偽のエッジ成分の量を推定し、推定結果に基づいて、統合されたエッジ成分から偽のエッジ成分を除外して実エッジ成分を抽出し、抽出された実エッジ成分に基づき、原画像に対してエッジ強調を行うようにした。これにより上記と同様な効果を奏することができる。 (7) Also, the original image is filtered to sequentially generate a plurality of subbands (band-limited images) having low resolution, and the edge components of each subband (band-limited image) are extracted and extracted. Based on the size of the edge component itself of each subband (band-limited image), the amount of the false edge component included in the edge component is estimated, and based on the estimation result, the false value is extracted from the extracted edge component. The actual edge component of each sub-band (band-limited image) is extracted by excluding the edge component of, and the extracted real edge component of each sub-band (band-limited image) is integrated to have the same resolution as the original image Based on the size of the integrated edge component itself, the amount of the false edge component included in the edge component is estimated again, and based on the estimation result, Fake To the exclusion of components to extract the actual edge component, based on the actual edge component extracted, and to perform edge enhancement on the original image. As a result, the same effects as described above can be obtained.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。また、上記で説明した実施の形態および変形例の種々の組み合わせも、本発明の技術的思想の範囲内である限り有効である。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. Various combinations of the above-described embodiments and modifications are also valid as long as they are within the scope of the technical idea of the present invention.

1 パーソナルコンピュータ
2 デジタルカメラ
3 記録媒体
4 コンピュータ
5 電気通信回線
11 CPU
12 メモリ
13 周辺回路
100 デジタルカメラ
101 被写体
102 撮影レンズ
103 撮像素子
104 制御装置
105 メモリ
DESCRIPTION OF SYMBOLS 1 Personal computer 2 Digital camera 3 Recording medium 4 Computer 5 Electrical communication line 11 CPU
DESCRIPTION OF SYMBOLS 12 Memory 13 Peripheral circuit 100 Digital camera 101 Subject 102 Shooting lens 103 Image pick-up element 104 Control apparatus 105 Memory

Claims (8)

所定のノイズゆらぎ指標値で表されるノイズ成分を含む原画像に対してエッジ強調を行う画像処理方法であって、
原画像をフィルタリングして、逐次的に低い解像度を持つ複数の帯域制限画像を生成し、
前記各帯域制限画像において、各帯域制限画像のエッジ成分を抽出し、
前記抽出された各帯域制限画像のエッジ成分を統合して、前記原画像と同じ解像度を持つエッジ成分に統合し、
前記統合されたエッジ成分に対して、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、
前記補正された統合エッジ成分に基づき、前記原画像に対してエッジ強調を行うことを特徴とする画像処理方法。
An image processing method for performing edge enhancement on an original image including a noise component represented by a predetermined noise fluctuation index value,
Filter the original image to generate multiple bandwidth limited images with sequentially lower resolution,
In each band-limited image, the edge component of each band-limited image is extracted,
Integrating the extracted edge components of each band-limited image and integrating them into edge components having the same resolution as the original image;
Correction for attenuating an edge component larger than a noise fluctuation width by comparing the size of the edge component with the noise fluctuation index value for the integrated edge component,
An image processing method comprising performing edge enhancement on the original image based on the corrected integrated edge component .
請求項1に記載の画像処理方法において、
前記統合されたエッジ成分に対して、該エッジ成分の大きさと前記ノイズゆらぎ指標値との比を引数とするガウス分布関数の減衰係数を掛け算して、ノイズゆらぎ幅よりも大きなエッジ成分を減衰補正することを特徴とする画像処理方法。
The image processing method according to claim 1,
The edge component larger than the noise fluctuation width is corrected for attenuation by multiplying the integrated edge component by the attenuation coefficient of the Gaussian distribution function whose argument is the ratio between the size of the edge component and the noise fluctuation index value. An image processing method.
所定のノイズゆらぎ指標値で表されるノイズ成分を含む原画像に対してエッジ強調を行う画像処理方法であって、
前記原画像をフィルタリングして、逐次的に低い解像度を持つ複数の帯域制限画像を生成し、
前記各帯域制限画像において、各帯域制限画像のエッジ成分を抽出し、
前記抽出された各帯域制限画像のエッジ成分に対して、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、
前記補正された各帯域制限画像のエッジ成分を統合して、前記原画像と同じ解像度を持つエッジ成分に統合し、
前記統合されたエッジ成分に対して再度、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、
前記補正された統合エッジ成分に基づき、前記原画像に対してエッジ強調を行うことを特徴とする画像処理方法。
An image processing method for performing edge enhancement on an original image including a noise component represented by a predetermined noise fluctuation index value,
Filtering the original image to generate a plurality of band-limited images with sequentially lower resolution;
In each band-limited image, the edge component of each band-limited image is extracted,
For the extracted edge component of each band-limited image, a correction for attenuating an edge component larger than the noise fluctuation width by comparing the size of the edge component with the noise fluctuation index value,
Integrating the corrected edge components of each band-limited image, integrating them into edge components having the same resolution as the original image,
A correction for attenuating an edge component larger than the noise fluctuation width by comparing the size of the edge component with the noise fluctuation index value again for the integrated edge component,
An image processing method comprising performing edge enhancement on the original image based on the corrected integrated edge component .
請求項3に記載の画像処理方法において、
前記抽出された各帯域制限画像のエッジ成分に対して、該エッジ成分の大きさと前記ノイズゆらぎ指標値との比を引数とするガウス分布関数の減衰係数を掛け算して、ノイズゆらぎ幅よりも大きなエッジ成分を減衰補正するとともに、
前記統合されたエッジ成分に対して再度、該エッジ成分の大きさと前記ノイズゆらぎ指標値との比を引数とするガウス分布関数の減衰係数を掛け算して、ノイズゆらぎ幅よりも大きなエッジ成分を減衰補正することを特徴とする画像処理方法。
The image processing method according to claim 3.
Multiplying the extracted edge component of each band-limited image by the attenuation coefficient of a Gaussian distribution function whose argument is the ratio between the size of the edge component and the noise fluctuation index value, and larger than the noise fluctuation width. While correcting the attenuation of the edge component,
The edge component larger than the noise fluctuation width is attenuated by multiplying the integrated edge component again by the attenuation coefficient of the Gaussian distribution function using the ratio between the size of the edge component and the noise fluctuation index value as an argument. An image processing method characterized by correcting .
所定のノイズゆらぎ指標値で表されるノイズ成分を含む原画像に対してエッジ強調を行う画像処理方法であって、
前記原画像をフィルタリングして、逐次的に低い解像度を持つ複数の低周波サブバンド画像と逐次的に低い解像度を持つ複数の高周波サブバンド画像のセットからなる、前記原画像を完全に再構築する以上に冗長な周波数空間で表現した帯域制限画像を生成し、
前記各帯域制限画像において、各帯域制限画像のエッジ成分を抽出し、
前記抽出された冗長な周波数表現の各帯域制限画像のエッジ成分を順次全て統合して、前記原画像と同じ解像度を持つエッジ成分に統合し、
前記統合されたエッジ成分に対して、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、
前記補正された統合エッジ成分に基づき、前記原画像に対してエッジ強調を行うことを特徴とする画像処理方法。
An image processing method for performing edge enhancement on an original image including a noise component represented by a predetermined noise fluctuation index value,
Filtering the original image to completely reconstruct the original image comprising a set of a plurality of low frequency subband images having sequentially low resolution and a plurality of high frequency subband images having sequentially low resolution Generate a band-limited image expressed in a redundant frequency space,
In each band-limited image, the edge component of each band-limited image is extracted,
All the edge components of each band-limited image of the extracted redundant frequency representation are sequentially integrated and integrated into an edge component having the same resolution as the original image,
Correction for attenuating an edge component larger than a noise fluctuation width by comparing the size of the edge component with the noise fluctuation index value for the integrated edge component,
An image processing method comprising performing edge enhancement on the original image based on the corrected integrated edge component .
請求項5に記載の画像処理方法において、
前記統合されたエッジ成分に対して、該エッジ成分の大きさと前記ノイズゆらぎ指標値との比を引数とするガウス分布関数の減衰係数を掛け算して、ノイズゆらぎ幅よりも大きなエッジ成分を減衰補正することを特徴とする画像処理方法。
The image processing method according to claim 5,
The edge component larger than the noise fluctuation width is corrected for attenuation by multiplying the integrated edge component by the attenuation coefficient of the Gaussian distribution function whose argument is the ratio between the size of the edge component and the noise fluctuation index value. An image processing method.
所定のノイズゆらぎ指標値で表されるノイズ成分を含む原画像に対してエッジ強調を行う画像処理方法であって、
前記原画像をフィルタリングして、逐次的に低い解像度を持つ複数の低周波サブバンド画像と逐次的に低い解像度を持つ複数の高周波サブバンド画像のセットからなる、前記原画像を完全に再構築する以上に冗長な周波数空間で表現した帯域制限画像を生成し、
前記各帯域制限画像において、各帯域制限画像のエッジ成分を抽出し、
前記抽出された各帯域制限画像のエッジ成分に対して、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、
前記補正された冗長な周波数表現の各帯域制限画像のエッジ成分を順次全て統合して、前記原画像と同じ解像度を持つエッジ成分に統合し、
前記統合されたエッジ成分に対して再度、該エッジ成分の大きさを前記ノイズゆらぎ指標値と比較することによってノイズゆらぎ幅よりも大きなエッジ成分を減衰する補正をし、
前記補正された統合エッジ成分に基づき、前記原画像に対してエッジ強調を行うことを特徴とする画像処理方法。
An image processing method for performing edge enhancement on an original image including a noise component represented by a predetermined noise fluctuation index value,
Filtering the original image to completely reconstruct the original image comprising a set of a plurality of low frequency subband images having sequentially low resolution and a plurality of high frequency subband images having sequentially low resolution Generate a band-limited image expressed in a redundant frequency space,
In each band-limited image, the edge component of each band-limited image is extracted,
For the extracted edge component of each band-limited image, a correction for attenuating an edge component larger than the noise fluctuation width by comparing the size of the edge component with the noise fluctuation index value,
All the edge components of each band limited image of the corrected redundant frequency representation are sequentially integrated, and integrated into an edge component having the same resolution as the original image,
A correction for attenuating an edge component larger than the noise fluctuation width by comparing the size of the edge component with the noise fluctuation index value again for the integrated edge component,
An image processing method comprising performing edge enhancement on the original image based on the corrected integrated edge component .
請求項7に記載の画像処理方法において、
前記抽出された各帯域制限画像のエッジ成分に対して、該エッジ成分の大きさと前記ノイズゆらぎ指標値との比を引数とするガウス分布関数の減衰係数を掛け算して、ノイズゆらぎ幅よりも大きなエッジ成分を減衰補正するとともに、
前記統合されたエッジ成分に対して再度、該エッジ成分の大きさと前記ノイズゆらぎ指標値との比を引数とするガウス分布関数の減衰係数を掛け算して、ノイズゆらぎ幅よりも大きなエッジ成分を減衰補正することを特徴とする画像処理方法。
The image processing method according to claim 7.
Multiplying the extracted edge component of each band-limited image by the attenuation coefficient of a Gaussian distribution function whose argument is the ratio between the size of the edge component and the noise fluctuation index value, and larger than the noise fluctuation width. While correcting the attenuation of the edge component,
The edge component larger than the noise fluctuation width is attenuated by multiplying the integrated edge component again by the attenuation coefficient of the Gaussian distribution function using the ratio between the size of the edge component and the noise fluctuation index value as an argument. An image processing method characterized by correcting .
JP2009172975A 2008-08-01 2009-07-24 Image processing method Active JP5359646B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009172975A JP5359646B2 (en) 2008-08-01 2009-07-24 Image processing method
US12/458,953 US8120679B2 (en) 2008-08-01 2009-07-28 Image processing method
US13/345,249 US8339484B2 (en) 2008-08-01 2012-01-06 Image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008199319 2008-08-01
JP2008199319 2008-08-01
JP2009172975A JP5359646B2 (en) 2008-08-01 2009-07-24 Image processing method

Publications (2)

Publication Number Publication Date
JP2010055604A JP2010055604A (en) 2010-03-11
JP5359646B2 true JP5359646B2 (en) 2013-12-04

Family

ID=42071391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009172975A Active JP5359646B2 (en) 2008-08-01 2009-07-24 Image processing method

Country Status (1)

Country Link
JP (1) JP5359646B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101812341B1 (en) * 2011-06-24 2017-12-26 엘지이노텍 주식회사 A method for edge enhancement of image
US9214015B2 (en) * 2012-03-30 2015-12-15 Sharp Laboratories Of America, Inc. System for image enhancement
JP5633550B2 (en) * 2012-09-05 2014-12-03 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
CN117455920B (en) * 2023-12-26 2024-03-22 武汉博源新材料科技集团股份有限公司 Artificial intelligence-based milk tea cup inferior product screening method and system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991419A (en) * 1995-09-25 1997-04-04 Nec Corp Image processor
JP3700798B2 (en) * 1996-08-19 2005-09-28 富士写真フイルム株式会社 Image processing method and apparatus
KR100230391B1 (en) * 1996-11-29 1999-11-15 윤종용 Method for correcting contour components of luminance signal and circuit thereof
JP2001188910A (en) * 1999-10-22 2001-07-10 Toshiba Corp Method for extracting outline of image, method for extracting body from image, and image transmisison system using the same
JP4017312B2 (en) * 2000-03-31 2007-12-05 富士フイルム株式会社 Image processing method, image processing apparatus, and recording medium
JP4564233B2 (en) * 2003-01-31 2010-10-20 株式会社東芝 Image processing apparatus, image data processing method, and program
JP5256582B2 (en) * 2006-03-31 2013-08-07 株式会社ニコン Image processing method, image processing program, and image processing apparatus
WO2008093836A1 (en) * 2007-02-02 2008-08-07 Nikon Corporation Image processing method

Also Published As

Publication number Publication date
JP2010055604A (en) 2010-03-11

Similar Documents

Publication Publication Date Title
US8120679B2 (en) Image processing method
JP4858610B2 (en) Image processing method
JP5163489B2 (en) Image processing method, image processing program, and image processing apparatus
JP4535125B2 (en) Image processing method
JP4455897B2 (en) Image processing method, apparatus, and program
JP5352942B2 (en) Image processing method, image processing program, and image processing apparatus
US8249380B2 (en) Image processor and program
JP4766118B2 (en) Image processing method
JP5482007B2 (en) Image processing method
JP4862897B2 (en) Image processing method
EP1408448B1 (en) Image processing method, image processing apparatus, image processing program and image recording apparatus
WO2007116543A1 (en) Image processing method
TW200417241A (en) Restoration and enhancement of scanned document images
CN109389560B (en) Adaptive weighted filtering image noise reduction method and device and image processing equipment
CN103236040A (en) Color enhancement method and color enhancement device
TW201120809A (en) System and method for processing an image edge
JP5256582B2 (en) Image processing method, image processing program, and image processing apparatus
JP5359646B2 (en) Image processing method
JP5343743B2 (en) Image processing method
US20050281458A1 (en) Noise-reducing a color filter array image
JP2003076985A (en) Image processing method and device
JP5482006B2 (en) Image processing method
JP4456096B2 (en) Noise removing method, apparatus, and program
JP4053167B2 (en) Image processing method and apparatus
Saito et al. Digital camera IP-pipeline based on BV-G color-image decomposition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5359646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250