JP5372586B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP5372586B2
JP5372586B2 JP2009102207A JP2009102207A JP5372586B2 JP 5372586 B2 JP5372586 B2 JP 5372586B2 JP 2009102207 A JP2009102207 A JP 2009102207A JP 2009102207 A JP2009102207 A JP 2009102207A JP 5372586 B2 JP5372586 B2 JP 5372586B2
Authority
JP
Japan
Prior art keywords
noise
pixel
unit
edge
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009102207A
Other languages
Japanese (ja)
Other versions
JP2010252265A (en
Inventor
健人 月岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009102207A priority Critical patent/JP5372586B2/en
Publication of JP2010252265A publication Critical patent/JP2010252265A/en
Application granted granted Critical
Publication of JP5372586B2 publication Critical patent/JP5372586B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像の特定領域がエッジ部か平坦か否かを判定して画質を改善する画像処理装置に関する。 The present invention relates to an image processing apparatus that determines whether a specific area of an image is an edge portion or a flat portion and improves image quality.

従来、デジタルカメラなどにより取得された写真画像の画質を改善する方法として、ノイズ低減処理や帯域強調処理などが知られている。これらの処理には、ノイズの低減と鮮鋭感の向上を両立させるため、画像中の平坦領域とエッジ領域とで異なる処理を施す、あるいは処理のパラメータを変えるなどの方法が一般的に用いられている。   Conventionally, noise reduction processing, band enhancement processing, and the like are known as methods for improving the image quality of a photographic image acquired by a digital camera or the like. For these processes, in order to achieve both noise reduction and sharpness improvement, methods such as applying different processes to the flat area and edge area in the image or changing processing parameters are generally used. Yes.

例えば、特許文献1には、エッジ部に適した平滑化処理と、平坦部に適した平滑化処理とをエッジ部と平坦部を判別する処理の結果に応じて切り替える高画質化手法が開示されている。また、特許文献2には、エッジ部または平坦部を判別するとともに画素の孤立性をさらに算出し、エッジ部・平坦部判別結果および孤立性に基づいてシャープネス処理条件を決定して画質改善を行う手法が開示されている。この場合、これら従来例におけるエッジ部と平坦部の判別としては、判別指標として、注目点近傍のエッジ強度や局所分散、局所連結性、カラー画像であれば色相関や色チャンネル間の方向性などが用いられている。
特許第3477603号公報 特開平11−331600号公報
For example, Patent Document 1 discloses a high image quality technique that switches between a smoothing process suitable for an edge part and a smoothing process suitable for a flat part according to the result of the process of determining the edge part and the flat part. ing. Japanese Patent Application Laid-Open No. 2004-228620 further discriminates an edge portion or a flat portion and further calculates pixel isolation, and determines sharpness processing conditions based on the edge portion / flat portion discrimination result and the isolation to improve image quality. A technique is disclosed. In this case, the discrimination between the edge portion and the flat portion in these conventional examples includes, as a discrimination index, edge strength, local dispersion, local connectivity in the vicinity of the point of interest, color correlation and directionality between color channels in the case of a color image, etc. Is used.
Japanese Patent No. 3477603 Japanese Patent Laid-Open No. 11-331600

しかしながら、上述の従来例におけるエッジ部・平坦部判別法では、ノイズの量が多い場合に判別指標自体がノイズの影響を受ける可能性が大きく、正確にエッジ部と平坦部を判別できないという問題がある。また、注目画素近傍で画像の平滑化などを行ってから判別したり、判別指標自体を平滑化したりして最終的な判定指標に含まれるノイズの影響を緩和すると、微細なエッジを含むテクスチャ部を平坦部と誤判別するという問題も生じる。   However, in the edge / flat portion discrimination method in the above-described conventional example, there is a high possibility that the discrimination index itself is affected by noise when the amount of noise is large, and the edge portion and the flat portion cannot be accurately discriminated. is there. In addition, if the effect of noise included in the final determination index is reduced by performing discrimination after smoothing the image in the vicinity of the target pixel, or by smoothing the determination index itself, a texture portion including fine edges There is also a problem of misclassifying as a flat part.

本発明は上記事情に鑑みてなされたもので、ノイズの影響を受けることなく平坦部の判別を確実に行うことができ、画質の向上を実現できる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image processing apparatus that can reliably determine a flat portion without being affected by noise and can improve image quality.

請求項1記載の発明は、デジタル画像を取得する撮像系を用いてあらかじめ撮像することにより得られた画像の画素値に関する統計量と、前記画像におけるノイズの確率分布に関するパラメータの値との間に成り立つ関係を、ノイズ特性データとして保持するデータ保持手段と、前記デジタル画像内の注目画素を含む領域における画素値の分布から所定の統計量を算出する手段と、前記ノイズ特性データおよび前記所定の統計量から、前記注目画素を含む領域におけるノイズの確率分布に関するパラメータの値を算出するパラメータ算出手段と、前記パラメータの値を用いて前記ノイズの確率分布を算出し、前記注目画素を含む領域における画素値の分布と、前記パラメータの値を用いて算出された前記ノイズの確率分布とが、どの程度合致するかを示す指標値を算出する検定手段と、を具備したことを特徴としている。 The invention according to claim 1 is between a statistic relating to a pixel value of an image obtained by imaging in advance using an imaging system for acquiring a digital image and a parameter value relating to a probability distribution of noise in the image. Data holding means for holding the relationship as noise characteristic data , means for calculating a predetermined statistic from a distribution of pixel values in a region including the target pixel in the digital image, the noise characteristic data and the predetermined statistic from the amount, and calculates the parameter calculating means for calculating a value of a parameter related to the probability distribution of the noise in the region including the pixel of interest, the probability distribution of said noise by using the value of the parameter, the pixels in the region including the pixel of interest the distribution of values, and the probability distribution of the noise which is calculated using the values of the parameters, how matching A test means for calculating an index value indicating the Luke, is characterized by comprising a.

請求項2記載の発明は、請求項1記載の発明において、前記ノイズの確率分布に関するパラメータは、標準偏差又は分散であることを特徴としている。   The invention according to claim 2 is characterized in that, in the invention according to claim 1, the parameter relating to the probability distribution of noise is standard deviation or variance.

請求項3記載の発明は、請求項1記載の発明において、前記統計量は、前記注目画素を含む領域における画素値の平均または中央値であることを特徴としている。 According to a third aspect of the present invention, in the first aspect of the present invention, the statistic is an average or median of pixel values in a region including the target pixel.

請求項4記載の発明は、請求項1記載の発明において、前記ノイズ特性データは、所定の入力値に対し、前記入力値を画素値とする平坦部でのノイズの標準偏差又は分散を与えるものであり、前記パラメータ算出手段は、前記統計量を前記ノイズ特性データに対する入力値として、前記前記注目画素を含む領域におけるノイズの確率分布に関する標準偏差又は分散を前記パラメータの値として求めることを特徴としている。 According to a fourth aspect of the present invention, in the first aspect of the invention, the noise characteristic data gives a standard deviation or variance of noise in a flat portion having the input value as a pixel value with respect to a predetermined input value. , and the said parameter calculating means, the statistic as the input value for the noise characteristic data, the standard deviation or variance on the probability distribution of the noise in the region including the said target pixel as a feature to seek the value of the parameter Yes.

請求項5記載の発明は、請求項1記載の発明において、前記検定手段は、確率分布の累積分布関数の類似度を評価する検定方式であることを特徴としている。   The invention according to claim 5 is the invention according to claim 1, characterized in that the test means is a test method for evaluating the similarity of the cumulative distribution function of the probability distribution.

請求項6記載の発明は、請求項1記載の発明において、前記注目画素を含む領域における画素値の分布は、前記注目画素を含む領域内で離散的な位置の画素の画素値の分布であることを特徴としている。 According to a sixth aspect of the invention, in the first aspect of the invention, the distribution of pixel values in the region including the target pixel is a distribution of pixel values of pixels at discrete positions in the region including the target pixel. It is characterized by that.

請求項7記載の発明は、請求項1記載の発明において、前記デジタル画像の各画素における画素値は、前記撮像系を用いて撮像することにより得られた画像の画素値の線形演算により算出された新たな画素値成分から成ることを特徴としている。 Calculating invention of claim 7, in the invention according to the first aspect, pixel values definitive to each pixel of the digital image, by linear computation of pixel values of an image obtained by imaging using the imaging system It is characterized by comprising a new pixel value component.

本発明によれば、ノイズの影響を受けることなく平坦部を正確に判別することができるので、エッジ部と平坦部との判別を確実に行うことができ、エッジ強調した良質の画像を取得できる。   According to the present invention, since the flat portion can be accurately determined without being affected by noise, the edge portion and the flat portion can be reliably determined, and a high-quality image with edge enhancement can be obtained. .

また、本発明によれば、ノイズの影響を受け易いテクスチャ部も平坦部と誤認することなく判別することができるので、テクスチャ部を強調した良質の画像を取得することができる。   Further, according to the present invention, since a texture portion that is easily affected by noise can be determined without being mistaken as a flat portion, a high-quality image in which the texture portion is emphasized can be acquired.

さらに、本発明によれば、撮像系により撮像されるカラー画像についてもエッジ部やテクスチャ部を強調した良質の画像を取得できる。   Furthermore, according to the present invention, it is possible to acquire a high-quality image in which an edge portion and a texture portion are emphasized for a color image captured by an imaging system.

以下、本発明の実施の形態を図面に従い説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施の形態)
図1は、本発明の第1の実施の形態にかかる画像処理装置を適用したデジタルカメラの概略構成を示している。
(First embodiment)
FIG. 1 shows a schematic configuration of a digital camera to which the image processing apparatus according to the first embodiment of the present invention is applied.

図1において、100はデジタルカメラで、このデジタルカメラ100は、撮像系101、入力画像バッファ102、データ保持手段としてのノイズモデルテーブル103、エッジ平坦判定部104、ノイズ低減部105、エッジ強調部106及び記録部107より構成されている。   In FIG. 1, reference numeral 100 denotes a digital camera. The digital camera 100 includes an imaging system 101, an input image buffer 102, a noise model table 103 as data holding means, an edge flatness determination unit 104, a noise reduction unit 105, and an edge enhancement unit 106. And a recording unit 107.

撮像系101は、モノクロの撮像素子を備えたもので、被写体の光学像をデジタル画像に変換し、Optical Blackの補正を施した後、入力画像バッファ102に出力する。入力画像バッファ102は、撮像系101より出力されるデジタル画像を画素(x,y)ごとに記憶する。ノイズモデルテーブル103は、撮像系101で予め種々の明るさのパッチを撮影した際に得られる画像についてパッチ画像の画素値平均と標準偏差とのデータペアをノイズ特性データとして記録している。このノイズモデルテーブル103の詳細は後述する。エッジ平坦判定部104は、入力画像バッファ102内の各画素(x,y)を順次スキャンし、画素(x,y)の近傍が平坦的かエッジ的かを判定し、エッジ部で大きく平坦度で小さくなるエッジ指標E(x,y)を算出して出力する。このエッジ平坦判定部104についても詳細は後述する。ノイズ低減部105は、エッジ平坦判定部104からエッジ指標E(x,y)が入力されると、対応する画素位置(x,y)の近傍画素(対応画素の周りの所定範囲の画素)を用いて、ノイズ低減のための公知のエッジ保存平滑化処理を行う。エッジ強調部106は、不図示の内部バッファを有し、この内部バッファにノイズ低減部105から入力されるノイズ低減後の画素値を全て蓄積してエッジ強調処理を行う。そして、記録部107は、記録媒体を有し、エッジ強調部106での処理で取得されたエッジ強調結果を記録する。   The imaging system 101 includes a monochrome imaging device, converts an optical image of a subject into a digital image, performs optical black correction, and outputs the digital image to the input image buffer 102. The input image buffer 102 stores the digital image output from the imaging system 101 for each pixel (x, y). The noise model table 103 records, as noise characteristic data, a data pair of an average pixel value and a standard deviation of a patch image for an image obtained when images of various brightness are captured in advance by the imaging system 101. Details of the noise model table 103 will be described later. The edge flatness determination unit 104 sequentially scans each pixel (x, y) in the input image buffer 102 to determine whether the vicinity of the pixel (x, y) is flat or edge-like. The edge index E (x, y) that becomes smaller at is calculated and output. Details of the edge flatness determination unit 104 will be described later. When the edge index E (x, y) is input from the edge flatness determination unit 104, the noise reduction unit 105 selects a neighboring pixel (a pixel in a predetermined range around the corresponding pixel) at the corresponding pixel position (x, y). Used to perform a known edge-preserving smoothing process for noise reduction. The edge enhancement unit 106 includes an internal buffer (not shown), and performs edge enhancement processing by accumulating all the pixel values after noise reduction input from the noise reduction unit 105 in the internal buffer. The recording unit 107 includes a recording medium, and records the edge enhancement result acquired by the processing in the edge enhancement unit 106.

図2は、エッジ平坦判定部104の概略構成を示すもので、近傍バッファ110、統計量算出部111、パラメータ算出手段としての分散算出部112、検定手段としての正規性検定部113より構成されている。   FIG. 2 shows a schematic configuration of the edge flatness determination unit 104, which includes a neighborhood buffer 110, a statistic calculation unit 111, a variance calculation unit 112 as a parameter calculation unit, and a normality test unit 113 as a test unit. Yes.

近傍バッファ110は、入力画像バッファ102から読み出される座標(x,y)の画素近傍の画素値、つまり注目画素の画素値と、この注目画素の周りの所定範囲の画素値を一時記憶する。統計量算出部111は、近傍バッファ110に記憶された近傍画素の画素値より中央値(メディアン)Aを求める。分散算出部112は、ノイズモデルテーブル103のノイズ特性データを参照して、中央値Aに対応するノイズ量Noise(A)(標準偏差σ)をノイズの正規分布に関するパラメータとして求める。正規性検定部113は、近傍バッファ110内の近傍画素値の分布(観測データ)が、統計量算出部111で求められた中央値Aと分散算出部112で求められた標準偏差σより得られるノイズの正規分布N(A,σ)に近いかどうかを判定する。なお、観測データが正規分布に合致するかどうかを判定する公知の方法はいろいろあるが、ここでは、kormogolov-smirnovの方法が用いられる。   The neighborhood buffer 110 temporarily stores a pixel value in the vicinity of the pixel at coordinates (x, y) read from the input image buffer 102, that is, a pixel value of the target pixel and a pixel value in a predetermined range around the target pixel. The statistic calculator 111 obtains a median A from the pixel values of neighboring pixels stored in the neighboring buffer 110. The variance calculation unit 112 refers to the noise characteristic data in the noise model table 103 and obtains the noise amount Noise (A) (standard deviation σ) corresponding to the median A as a parameter related to the normal distribution of noise. The normality test unit 113 obtains the distribution (observation data) of the neighboring pixel values in the neighborhood buffer 110 from the median value A obtained by the statistic calculation unit 111 and the standard deviation σ obtained by the variance calculation unit 112. It is determined whether the noise is close to the normal distribution N (A, σ). There are various known methods for determining whether the observation data matches the normal distribution. Here, the kormogolov-smirnov method is used.

次に、このように構成されたデジタルカメラ100の作用を説明する。   Next, the operation of the digital camera 100 configured as described above will be described.

いま、デジタルカメラ100の図示しないシャッタが押下されると、撮像系101は被写体の光学像をデジタル画像に変換し、Optical Black補正を施した後、入力画像バッファ102に出力する。入力画像バッファ102は、撮像系101より出力されるデジタル画像を各画素(x,y)ごとに記憶する。   Now, when a shutter (not shown) of the digital camera 100 is pressed, the imaging system 101 converts the optical image of the subject into a digital image, performs optical black correction, and outputs the digital image to the input image buffer 102. The input image buffer 102 stores the digital image output from the imaging system 101 for each pixel (x, y).

次に、エッジ平坦判定部104は、入力画像バッファ102内の各画素(x,y)を順次スキャンし、画素(x,y)の近傍が平坦的かエッジ的かを判定する。そして、この判定結果によりエッジ部で大きく、平坦度で小さくなるようなエッジ指標E(x,y)を算出し、この算出したエッジ指標E(x,y)をノイズ低減部105およびエッジ強調部106に出力する。   Next, the edge flatness determination unit 104 sequentially scans each pixel (x, y) in the input image buffer 102 and determines whether the vicinity of the pixel (x, y) is flat or edge-like. Then, an edge index E (x, y) that is large at the edge portion and small at the flatness based on the determination result is calculated, and the calculated edge index E (x, y) is calculated as the noise reduction unit 105 and the edge enhancement unit. It outputs to 106.

この場合、エッジ平坦判定部104では、次のようにしてエッジ指標Eを求める。まず、座標(x,y)の画素近傍の画素値を入力画像バッファ102から読出し近傍バッファ110に記憶させる。次に、統計量算出部111で、近傍バッファ110に記憶された近傍画素の画素値に関する統計量として中央値Aを求める。また、分散算出部112は、ノイズモデルテーブル103を参照して、中央値Aに対応するノイズ量Noise(A)(標準偏差σ)を求める。さらに詳述すると、一般に撮像素子で発生するノイズは正規分布であり、標準偏差と画素値の間には、例えば図6に示すような素子固有の関係があることが知られている。そこで、ノイズモデルテーブル103に、撮像系101で予め種々の明るさのパッチを撮影した際に得られる画像について、パッチ画像の画素値平均(中央値)と標準偏差とのデータペアを記録しておく。図6中の各黒点がこれらに相当する。分散算出部112では、図6中の各黒点で決定される折れ線関数Noise(x)により中央値Aに対応するノイズ量Noise(A)、つまり標準偏差σを線形補間により求める。   In this case, the edge flatness determination unit 104 obtains the edge index E as follows. First, the pixel value near the pixel at the coordinate (x, y) is read from the input image buffer 102 and stored in the neighborhood buffer 110. Next, the statistic calculation unit 111 obtains the median A as a statistic regarding the pixel values of the neighboring pixels stored in the neighboring buffer 110. Further, the variance calculation unit 112 refers to the noise model table 103 to obtain a noise amount Noise (A) (standard deviation σ) corresponding to the median value A. More specifically, it is generally known that noise generated in an image pickup device has a normal distribution, and there is a device-specific relationship as shown in FIG. 6 between the standard deviation and the pixel value, for example. Therefore, in the noise model table 103, a data pair of the pixel value average (median value) and standard deviation of the patch image is recorded for an image obtained when images of various brightness are captured in advance by the imaging system 101. deep. Each black dot in FIG. 6 corresponds to these. In the variance calculation unit 112, the noise amount Noise (A) corresponding to the median A, that is, the standard deviation σ is obtained by linear interpolation by the polygonal line function Noise (x) determined at each black point in FIG.

最後に、正規性検定部113では、近傍バッファ110内の近傍画素の画素値の分布(観測データ)が、統計量算出部111で求められた中央値Aと分散算出部112で求められた標準偏差σとを持つノイズの正規分布N(A,σ)に近いか(又は合致するか)を公知のkormogolov-smirnovの方法を用いて判定する。この方法では、観測データの累積度数分布を計算し、この累積度数分布正規分布の累積分布関数との差の最大値を正規性の判定指標(エッジ指標E)としている。本実施の形態では、図3に示すように、近傍バッファ110内の近傍画素の画素値の累積ヒストグラムh(v)と、ノイズの正規分布N(A,σ)の累積分布関数L*S((v-A)/σ)との差分を取り、この差分の最大値をエッジ指標Eとしている。そして、このエッジ指標Eをノイズ低減部105およびエッジ強調部106に出力する。この場合、エッジ指標Eは、下式により求められる。 Finally, in the normality test unit 113, the distribution (observation data) of the pixel values of the neighboring pixels in the neighborhood buffer 110 is the median value A obtained by the statistic calculation unit 111 and the standard obtained by the variance calculation unit 112. It is determined using a known kormogolov-smirnov method whether it is close to (or matches) the normal distribution N (A, σ) of noise having a deviation σ. In this method, the cumulative frequency distribution of the observation data is calculated, and the maximum value of the difference between the cumulative frequency distribution and the normal distribution cumulative distribution function is used as a normality determination index (edge index E). In this embodiment, as shown in FIG. 3, the cumulative histogram h (v) of the pixel values of the neighboring pixels in the neighboring buffer 110 and the cumulative distribution function L * S () of the noise normal distribution N (A, σ) The difference between (vA) / σ) is taken and the maximum value of this difference is used as the edge index E. Then, the edge index E is output to the noise reduction unit 105 and the edge enhancement unit 106. In this case, the edge index E is obtained by the following equation.

E = max(|h(v)-L*S((v-A)/σ)|) mm<=v<=MM
ここでS(x)はA=0、σ=標準偏差1の正規分布N(0,1)の累積分布関数、mmおよびMMは近傍バッファ110内の画素値の最小値および最大値、Lは近傍バッファ110内の画素数である。
E = max (| h (v) -L * S ((vA) / σ) |) mm <= v <= MM
Where S (x) is the cumulative distribution function of normal distribution N (0,1) with A = 0 and σ = standard deviation 1, mm and MM are the minimum and maximum pixel values in the neighborhood buffer 110, and L is This is the number of pixels in the neighborhood buffer 110.

このようにしてエッジ平坦判定部104求められたエッジ指標Eは、ノイズ低減部105およびエッジ強調部106に出力される。   The edge index E thus obtained for the edge flatness determination unit 104 is output to the noise reduction unit 105 and the edge enhancement unit 106.

ノイズ低減部105では、エッジ平坦判定部104からエッジ指標E(x,y)が入力されると、対応する画素位置(x,y)の近傍画素を用いて、公知のエッジ保存平滑化処理を行う。具体的には、下記の式1によりノイズ低減後の画素値U(x,y)を計算する。   In the noise reduction unit 105, when the edge index E (x, y) is input from the edge flatness determination unit 104, a known edge-preserving smoothing process is performed using a neighboring pixel at the corresponding pixel position (x, y). Do. Specifically, the pixel value U (x, y) after noise reduction is calculated by the following formula 1.

U(x,y) = ΣΣ_ij wij*V(x+i,y+j)/ΣΣwij, (-N<=i,j<=N,Nは近傍サイズ) (式1)
wij = W(|V(x+i,y+j)-V(x,y)|, σ)
W(x,σ) = exp(-x*x/(σ*σ))
この場合、重み関数W(x,σ)はxが小さいほど大きくなるので、式1の計算により、V(x,y)に値の近い近傍画素V(x+i,y+j)ほど重い重み付けで平均がとられる。その結果、エッジ部では注目画素と同じ側のエッジにのっている画素のみを使って平均が取られる形となってエッジが保たれ、平坦部では全ての近傍画素に均等に近い重み付けで平均が取られる形となって平滑化がかかる。さらに、式中のσがエッジ平坦判定部104から入力されるエッジ指標Eに基づいて、図4に示すように制御される。この場合、σが小さいと重み関数W(x,σ)は大きなxに対しても小さい値をとり、xの値の変化に対する重み関数の値の変化も相対的に大きくなり、一方、σが大きいと、重み関数はxの値が多少変化しても相対的に少ししか変化せず、おおむね大きな値を取るような特性があるため、図4に示すようにエッジ指標Eが大きいエッジ部ではσを小さく、エッジ指標Eが小さい平坦部ではσを大きくすることにより、平坦部では注目画素と近傍画素の画素値の差によらず重みの均等度が増し、平滑化効果がより大きくなるとともに、エッジ部では平滑化がかからなくなり、エッジのなまりを少なくできる。
U (x, y) = ΣΣ_ij wij * V (x + i, y + j) / ΣΣwij, (-N <= i, j <= N, N is the neighborhood size) (Equation 1)
wij = W (| V (x + i, y + j) -V (x, y) |, σ)
W (x, σ) = exp (-x * x / (σ * σ))
In this case, since the weight function W (x, σ) increases as x decreases, the neighboring pixel V (x + i, y + j) whose value is close to V (x, y) is heavier according to the calculation of Equation 1. An average is taken by weighting. As a result, the edges are averaged using only the pixels on the same edge as the target pixel in the edge part, and the edges are maintained. In the flat part, all the neighboring pixels are averaged with an equal weight. Will be smoothed. Further, σ in the equation is controlled as shown in FIG. 4 based on the edge index E input from the edge flatness determination unit 104. In this case, when σ is small, the weighting function W (x, σ) takes a small value even for a large x, and the change in the value of the weighting function relative to the change in the value of x becomes relatively large, whereas σ is If the value is large, the weighting function changes relatively little even if the value of x slightly changes, and generally has a characteristic that takes a large value. Therefore, in the edge portion where the edge index E is large as shown in FIG. By increasing σ in the flat part where σ is small and the edge index E is small, weight uniformity increases in the flat part regardless of the difference between the pixel values of the target pixel and neighboring pixels, and the smoothing effect increases. In the edge portion, smoothing is not applied, and the edge rounding can be reduced.

ノイズ低減部105での計算により求められた画素(x,y)でのノイズ低減後の画素値U(x,y)は、エッジ強調部106に出力される。   The pixel value U (x, y) after noise reduction at the pixel (x, y) obtained by the calculation in the noise reduction unit 105 is output to the edge enhancement unit 106.

エッジ強調部106では、ノイズ低減部105から入力されたノイズ低減後画素値を不図示の内部バッファに蓄積する。そして、画素(x,y)でのエッジ強調処理に必要な近傍のノイズ低減画素値が全て内部バッファ内に蓄積されると、エッジ強調処理を行う。具体的には、画素(x,y)近傍のノイズ低減後の画素値U(x+i,y+j) (-M<=i,j<=M,Mは近傍サイズ)に対し、K(x,y) = ΣΣ_ij f(i,j)*U(x+i,y+j)によりエッジ成分を抽出し、エッジ強調結果T(x,y)を、下式により算出する。   The edge enhancement unit 106 accumulates the noise-reduced pixel values input from the noise reduction unit 105 in an internal buffer (not shown). Then, when all of the nearby noise reduction pixel values necessary for the edge enhancement process at the pixel (x, y) are accumulated in the internal buffer, the edge enhancement process is performed. Specifically, the pixel value U (x + i, y + j) after noise reduction in the vicinity of the pixel (x, y) (−M <= i, j <= M, M is the neighborhood size) is K Edge components are extracted by (x, y) = ΣΣ_ij f (i, j) * U (x + i, y + j), and an edge enhancement result T (x, y) is calculated by the following equation.

T(x,y) = U(x,y)+α(E)*K(x,y)
ここで、f(i,j)はエッジ抽出のためのバンドパスフィルタで、αは図5に示すエッジ強調量である。この場合、エッジ強調量αは、エッジ指標Eが小さい場合は小さく、エッジ指標Eが大きい場合は大きくすることで、平坦部ではよりノイズが弱められ、エッジ部ではよりエッジが強調される。
T (x, y) = U (x, y) + α (E) * K (x, y)
Here, f (i, j) is a bandpass filter for edge extraction, and α is an edge enhancement amount shown in FIG. In this case, the edge enhancement amount α is small when the edge index E is small and is large when the edge index E is large, so that the noise is weakened more in the flat portion and the edge is more enhanced in the edge portion.

エッジ強調部106で算出されたエッジ強調結果T(x,y)は記録部107に出力され、記録媒体に記録される。その後、全画素(x,y)について一連の処理が終了すると、デジタルカメラ100は撮像動作を終了して待機状態に入る。   The edge enhancement result T (x, y) calculated by the edge enhancement unit 106 is output to the recording unit 107 and recorded on the recording medium. Thereafter, when a series of processing is completed for all pixels (x, y), the digital camera 100 ends the imaging operation and enters a standby state.

このように、かかる実施の形態では、予め撮像系により種々の明るさのパッチを撮影して得られる画像についてパッチ画像の画素値平均(中央値)と標準偏差とのデータペアを撮像系のノイズ特性データとしてノイズモデルテーブル103に記録しておき、撮像系より取得される入力デジタル画像について近傍画素の画素値の中央値Aに対応する標準偏差σをノイズ特性データから推定し、この標準偏差σと中央値Aを持つノイズの正規分布N(A,σ)に対して近傍画素の画素値の分布が近いかを判定し、この判定により得られるエッジ指標Eに基づいてノイズ低減部105でのノイズ低減およびエッジ強調部106でのエッジ強調を実行するようにした。これにより、ノイズの影響を受けることなく平坦部を正確に判別することができるので、エッジ部と平坦部との判別を確実に行うことができ、エッジ強調した良質の画像を取得することができる。また、ノイズの影響を受け易いテクスチャ部も平坦部と誤認することなく判別することができるので、テクスチャ部を強調した良質の画像を取得することもできる。   As described above, in this embodiment, a data pair of the pixel value average (median value) and standard deviation of a patch image is obtained for an image obtained by previously capturing patches of various brightnesses by an imaging system. It is recorded in the noise model table 103 as characteristic data, and a standard deviation σ corresponding to the median value A of neighboring pixel values of the input digital image acquired from the imaging system is estimated from the noise characteristic data, and this standard deviation σ And the normal distribution N (A, σ) of the noise having the median A is determined whether the distribution of the pixel values of the neighboring pixels is close, and the noise reduction unit 105 determines whether or not the distribution of the pixel values of the neighboring pixels is close. The noise enhancement and edge enhancement by the edge enhancement unit 106 are executed. As a result, the flat portion can be accurately determined without being affected by noise, so that the edge portion and the flat portion can be reliably determined, and a high-quality image with edge enhancement can be obtained. . In addition, since a texture portion that is easily affected by noise can be determined without being mistaken as a flat portion, a high-quality image in which the texture portion is emphasized can be acquired.

なお、上述した実施の形態にはさまざまな変形例が想定できる。例えば、近傍バッファ110に読み出す近傍データは、座標(x,y)の周囲のどのような形状の領域でも良く、離散的に配置されていても良い。この場合、エッジ平坦判定部104でのエッジ平坦判定は読み出した形状の領域または離散点の覆う領域に対して行われる。   Various modifications can be assumed for the above-described embodiment. For example, the neighborhood data read to the neighborhood buffer 110 may be an area having any shape around the coordinates (x, y), and may be arranged discretely. In this case, the edge flatness determination in the edge flatness determination unit 104 is performed on the read shape region or the region covered by the discrete points.

また、エッジ指標Eを用いてノイズ低減処理とエッジ強調処理を制御する方法としては、エッジ部と平坦部を判別して処理する任意の公知手法を使用することも可能である。   Further, as a method for controlling the noise reduction processing and the edge enhancement processing using the edge index E, any known method for discriminating and processing the edge portion and the flat portion can be used.

さらに、上述の実施の形態では、モノクロ撮像系の例を述べたが、同様の処理を3板撮像系に適用することも可能である。その場合、エッジ平坦判定はR成分、G成分、B成分のそれぞれを独立のモノクロと見なして処理しても良いし、それぞれのエッジ平坦判定結果を統合した判定結果を生成しても良い。統合の方法としては、カラー画像に対して複数チャンネルの情報を利用してエッジ平坦判定を行う任意の公知手法で用いられている方法が利用できる。 Furthermore, in the above-described embodiment , an example of a monochrome imaging system has been described, but the same processing can be applied to a three-plate imaging system. In this case, the edge flatness determination may be processed by regarding each of the R component, the G component, and the B component as independent monochrome images, or a determination result obtained by integrating the edge flatness determination results may be generated. As an integration method, a method used in any known method for performing edge flatness determination using information on a plurality of channels for a color image can be used.

さらに、上述の実施の形態ではノイズの分布として正規分布を仮定したが、任意の累積分布関数を持つノイズに対しても適用可能である。その場合、適切な累積分布関数を正規分布の累積分布関数に替えてkormogolov-smirnovあるいは公知の任意の分布の検定手法を用いればよい。さらに上述した実施の形態では、確率分布としてノイズの正規分布を用いたが、ポアソン分布などの他の確率分布を用いることもできる。さらに、上述では、正規分布に関するパラメータとして標準偏差σについて述べたが、標準偏差σを二乗した分散を用いても同様に実施できる。 Further, it is assumed a normal distribution as a distribution of the form in the noise of the embodiment described above, is also applicable to noise with any cumulative distribution function. In that case, the appropriate cumulative distribution function may be replaced with the normal distribution cumulative distribution function, and kormogolov-smirnov or any known distribution test method may be used. Further, in the above-described embodiment, the noise normal distribution is used as the probability distribution, but other probability distributions such as a Poisson distribution may be used. Furthermore, in the above description, the standard deviation σ has been described as a parameter relating to the normal distribution.

(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。
(Second embodiment)
Next, a second embodiment of the present invention will be described.

図7は、本発明の第2の実施の形態にかかる画像処理装置を適用したデジタルカメラの概略構成を示すもので、図1と同一部分には同符号を付して説明を省略する。   FIG. 7 shows a schematic configuration of a digital camera to which the image processing apparatus according to the second embodiment of the present invention is applied. The same parts as those in FIG.

図7において、200はデジタルカメラで、このデジタルカメラ200は、単板撮像系201、入力画像バッファ202、ノイズモデルテーブル103、エッジ平坦判定部204、同時化部205、色変換部206、階調変換部207、YC変換部208、ノイズ低減部209、エッジ強調部210、圧縮部211及び記録部107より構成されている In FIG. 7, reference numeral 200 denotes a digital camera. The digital camera 200 includes a single-plate imaging system 201, an input image buffer 202, a noise model table 103, an edge flatness determination unit 204, a synchronization unit 205, a color conversion unit 206, a gradation. A conversion unit 207, a YC conversion unit 208, a noise reduction unit 209, an edge enhancement unit 210, a compression unit 211, and a recording unit 107 are included .

単板撮像系201は、原色Bayer撮像素子を備えた単板撮像系からなるもので、被写体の光学像をデジタル画像に変換し、Optical Blackの補正およびホワイトバランスの補正を行う。入力画像バッファ202は、ホワイトバランス後の画像を画素(x,y)ごとに記憶する。エッジ平坦判定部204は、入力画像バッファ202内の各画素(x,y)を順次スキャンし、各画素(x,y)におけるエッジ指標Ey(x,y),Ecr(x,y),Ecb(x,y)を算出する。このエッジ平坦判定部204の詳細は後述する。同時化部205は、各画素位置(x,y)で公知の補間処理を行い、各画素位置でのRGB成分であるR(x,y),G(x,y),B(x,y)を生成する。色変換部206は、同時化部205より入力されたR(x,y),G(x,y),B(x,y)に対し3×3の色変換マトリックスを適用し、適用後の結果R'(x,y),G'(x,y),B'(x,y)を出力する。階調変換部207は、色変換部206での色変換後の結果R'(x,y),G'(x,y),B'(x,y)に、所定の階調変換関数γによる階調変換をほどこし結果を出力する。YC変換部208は、階調変換部207での階調変換後の結果から輝度成分Y(x,y)と色差成分Cr(x,y),Cb(x,y)を公知の方法で計算し、この結果を出力する。 The single-plate imaging system 201 includes a single-plate imaging system including a primary color Bayer imaging device, converts an optical image of a subject into a digital image, and performs optical black correction and white balance correction. The input image buffer 202 stores the image after white balance for each pixel (x, y). The edge flatness determination unit 204 sequentially scans each pixel (x, y) in the input image buffer 202, and the edge indices Ey (x, y), Ecr (x, y), Ecb at each pixel (x, y). Calculate (x, y). Details of the edge flatness determination unit 204 will be described later. The synchronization unit 205 performs a known interpolation process at each pixel position (x, y), and R (x, y), G (x, y), B (x, y) that are RGB components at each pixel position. ) Is generated. The color conversion unit 206 applies a 3 × 3 color conversion matrix to R (x, y), G (x, y), and B (x, y) input from the synchronization unit 205, and applies The results R ′ (x, y), G ′ (x, y), and B ′ (x, y) are output. The gradation conversion unit 207 outputs a predetermined gradation conversion function γ to the results R ′ (x, y), G ′ (x, y), B ′ (x, y) after the color conversion in the color conversion unit 206. Perform gradation conversion by , and output the result. The YC conversion unit 208 calculates the luminance component Y (x, y) and the color difference components Cr (x, y), Cb (x, y) from the result after the gradation conversion by the gradation conversion unit 207 by a known method. And output this result.

ノイズ低減部209は、YC変換部208より入力された輝度成分Y(x,y)および色差成分Cr(x,y),Cb(x,y)に対し、対応するエッジ指標Ey(x,y),Ecr(x,y),Ecb(x,y)が得られた段階でノイズ低減処理を行う。エッジ強調部210は、ノイズ低減部209より入力された色差成分に対しては処理を行わずにそのまま出力し、輝度成分にのみ、上述した第1の実施の形態と同様な処理を行う。圧縮部211は、最終的な輝度成分がエッジ強調部210から入力されると、JPEGなど公知の圧縮処理を行い、この結果を記録部107に出力する。 The noise reduction unit 209 corresponds to the edge index Ey (x, y) corresponding to the luminance component Y (x, y) and the color difference components Cr (x, y), Cb (x, y) input from the YC conversion unit 208. ), Ecr (x, y), Ecb (x, y) are obtained and noise reduction processing is performed. Edge enhancement unit 210, it outputs without processing for the chrominance components input from the noise reduction unit 209, only the luminance component, performs the same processing as in the first embodiment described above. When the final luminance component is input from the edge enhancement unit 210, the compression unit 211 performs a known compression process such as JPEG, and outputs the result to the recording unit 107.

図8は、エッジ平坦判定部204の概略構成を示すもので、近傍バッファ220、RGB統計量算出部221、R-G統計量算出部227、B-G統計量算出部228、G分散算出部222、R-G分散算出部223、B-G分散算出部224、R-G生成部225、B-G生成部226、R-G正規性検定部229、B-G正規性検定部230、G正規性検定部231より構成されている。   FIG. 8 shows a schematic configuration of the edge flatness determination unit 204. The neighborhood buffer 220, the RGB statistic calculation unit 221, the RG statistic calculation unit 227, the BG statistic calculation unit 228, the G variance calculation unit 222, and the RG variance The calculation unit 223, the BG variance calculation unit 224, the RG generation unit 225, the BG generation unit 226, the RG normality test unit 229, the BG normality test unit 230, and the G normality test unit 231 are configured.

近傍バッファ220は、入力画像バッファ202から読み出される座標(x,y)の画素近傍の画素値を一時記憶する。RGB統計量算出部221は、近傍バッファ220内の画素値に対して色成分別の統計量算出を行う。本実施の形態では、統計量として各色成分ごとに中央値Ar,Ag,Abを求める。R-G統計量算出部227及びB-G統計量算出部228は、近傍バッファ220内のR-GおよびB-G成分に対する統計量として、近傍バッファ220内のR-G値の中央値ArgおよびB-G値の中央値Abgを求める。G分散算出部222は、ノイズモデルテーブル103を参照して、中央値Agに対応するノイズ量Ngである標準偏差σgをノイズの正規分布に関するパラメータとして求める。R-G分散算出部223は、同じくノイズモデルテーブル103を参照して、中央値Arに対応するR成分のノイズ量Nrを求め、座標(x,y)近傍での色差R-G成分のノイズの標準偏差σrgを計算する。B-G分散算出部224も、同様で、座標(x,y)近傍での色差B-G成分のノイズの標準偏差σbgを計算する。 The neighborhood buffer 220 temporarily stores pixel values near the pixel at the coordinates (x, y) read from the input image buffer 202. The RGB statistic calculation unit 221 calculates a statistic for each color component for the pixel values in the neighborhood buffer 220. In this embodiment, the median Ar for each color component as a statistic, Ag, seeking Ab. The RG statistic calculation unit 227 and the BG statistic calculation unit 228 obtain the median value Arg of the RG value and the median value Abg of the BG value in the neighborhood buffer 220 as statistics for the RG and BG components in the neighborhood buffer 220. The G variance calculation unit 222 refers to the noise model table 103 and obtains the standard deviation σg, which is the noise amount Ng corresponding to the median Ag, as a parameter related to the normal distribution of noise. The RG variance calculating unit 223 similarly refers to the noise model table 103 to obtain the noise amount Nr of the R component corresponding to the median Ar, and the standard deviation σrg of the noise of the color difference RG component near the coordinates (x, y). Calculate Similarly, the BG variance calculating unit 224 calculates the standard deviation σbg of the noise of the color difference BG component in the vicinity of the coordinates (x, y).

R-G生成部225及びB-G生成部226は、RGB統計量算出部221の処理が終了後、近傍バッファ220内のRおよびB画素位置でR-GおよびB-G成分を算出する。G正規性検定部231、R-G正規性検定部229及びB-G正規性検定部230は、各々近傍バッファ220内のG成分、R-G成分、B-G成分の画素値分布が正規分布に適合するかどうかの検定を行う。この検定の方法には、上述した第1の実施の形態と異なるAnderson-Darlingの方法が用いられる。   The R-G generation unit 225 and the B-G generation unit 226 calculate the R-G and B-G components at the R and B pixel positions in the neighborhood buffer 220 after the processing of the RGB statistic calculation unit 221 is completed. The G normality test unit 231, the RG normality test unit 229 and the BG normality test unit 230 respectively test whether the pixel value distributions of the G component, RG component, and BG component in the neighborhood buffer 220 match the normal distribution. I do. For this test method, an Anderson-Darling method different from the first embodiment described above is used.

次に、このように構成されたデジタルカメラ200の作用を説明する。   Next, the operation of the digital camera 200 configured as described above will be described.

いま、デジタルカメラ200の図示しないシャッタが押下されると、単板撮像系201は被写体の光学像をデジタル画像に変換し、Optical Black補正およびホワイトバランスの補正を行った後、入力画像バッファ202に出力する。この場合、カラー画像を得るには3色成分が必要だが、入力画像バッファ202に入力される画像は、図9(a)に示すように、1画素に1種類の色成分しか得られない。そのため、このときのホワイトバランス補正は、Rの得られている画素位置にホワイトバランス係数Wrをかけ、Bの得られている画素位置にホワイトバランス係数Wbをかけることで行われる。   Now, when a shutter (not shown) of the digital camera 200 is pressed, the single-plate imaging system 201 converts the optical image of the subject into a digital image, performs optical black correction and white balance correction, and then enters the input image buffer 202. Output. In this case, three color components are required to obtain a color image, but an image input to the input image buffer 202 can obtain only one type of color component per pixel as shown in FIG. 9A. Therefore, the white balance correction at this time is performed by applying the white balance coefficient Wr to the pixel position where R is obtained and applying the white balance coefficient Wb to the pixel position where B is obtained.

入力画像バッファ202にホワイトバランス補正後の画像が得られると、同時化部205では、各画素位置(x,y)ごとに公知の補間処理を行い、各画素位置のRGB成分としてR(x,y),G(x,y),B(x,y)を生成して色変換部206に出力する。色変換部206は、入力されたR(x,y),G(x,y),B(x,y)に3×3の色変換マトリックスを適用し、適用後の結果R'(x,y),G'(x,y),B'(x,y)を階調変換部207に出力する。階調変換部207では、色変換後の結果R'(x,y),G'(x,y),B'(x,y)に、所定の階調変換関数γによる階調変換をほどこし、下式に示す結果をYC変換部208に出力する。 When an image after white balance correction is obtained in the input image buffer 202, the synchronization unit 205 performs a known interpolation process for each pixel position (x, y), and R (x, y), G (x, y), and B (x, y) are generated and output to the color conversion unit 206. The color conversion unit 206 applies a 3 × 3 color conversion matrix to the input R (x, y), G (x, y), B (x, y), and the result R ′ (x, y), G ′ (x, y), and B ′ (x, y) are output to the gradation conversion unit 207. The gradation conversion unit 207 applies gradation conversion using a predetermined gradation conversion function γ to the results R ′ (x, y), G ′ (x, y), and B ′ (x, y) after color conversion. The result shown in the following expression is output to the YC conversion unit 208.

R''(x,y) = γ(R'(x,y)), G''(x,y) = γ(G'(x,y)), B''(x,y) = γ(B'(x,y)),
YC変換部208は、階調変換部207での階調変換後の結果から輝度成分Y(x,y)および色差成分Cr(x,y),Cb(x,y)を公知の方法で計算し、下式に示す結果をノイズ低減部209に出力する。
R '' (x, y) = γ (R '(x, y)), G''(x, y) = γ (G' (x, y)), B '' (x, y) = γ (B '(x, y)),
The YC conversion unit 208 calculates the luminance component Y (x, y) and the color difference components Cr (x, y), Cb (x, y) from the result after the gradation conversion by the gradation conversion unit 207 by a known method. Then, the result shown in the following expression is output to the noise reduction unit 209.

Y(x,y) = 0.3*R''(x,y)+0.6*G''(x,y)+0.1*B''(x,y)
Cr(x,y) = R''(x,y)-Y(x,y)
Cb(x,y) = B''(x,y)-Y(x,y)
一方、ここまでの処理と並行して、エッジ平坦判定部204では、入力画像バッファ202の各画素(x,y)近傍で、輝度成分と色差成分のエッジ指標Ey(x,y),Ecr(x,y),Ecb(x,y)を算出し、ノイズ低減部209およびエッジ強調部210に順次出力する。
Y (x, y) = 0.3 * R`` (x, y) + 0.6 * G '' (x, y) + 0.1 * B '' (x, y)
Cr (x, y) = R`` (x, y) -Y (x, y)
Cb (x, y) = B`` (x, y) -Y (x, y)
On the other hand, in parallel with the processing so far, the edge flatness determination unit 204 has edge indices Ey (x, y), Ecr () of the luminance component and the color difference component in the vicinity of each pixel (x, y) of the input image buffer 202. x, y), Ecb (x, y) are calculated and sequentially output to the noise reduction unit 209 and the edge enhancement unit 210.

この場合、エッジ平坦判定部204では、次のようにしてエッジ指標を求める。この場合、エッジ平坦判定部204は、座標(x,y)の画素近傍の画素値を入力画像バッファ202から近傍バッファ220に読み出す。この場合、近傍バッファ220に読み出したデータは、例えば図9(a)に示すようなものである。   In this case, the edge flatness determination unit 204 obtains an edge index as follows. In this case, the edge flatness determination unit 204 reads out the pixel value near the pixel at the coordinate (x, y) from the input image buffer 202 to the neighborhood buffer 220. In this case, the data read to the neighborhood buffer 220 is, for example, as shown in FIG.

次に、RGB統計量算出部221により近傍バッファ220内の画素値に対して色成分別の統計量として、中央値Ar,Ag,Abを求める。この状態で、G分散算出部222は、ノイズモデルテーブル103を参照して、中央値Agに対応するノイズ量Ng(標準偏差σg)を求める。また、R-G分散算出部223でも、同様にノイズモデルテーブル103を参照して、中央値Arに対応するR成分のノイズ量Nrを求め、座標(x,y)近傍での色差R-G成分のノイズの標準偏差σrgを下記から計算する。   Next, the median values Ar, Ag, and Ab are obtained by the RGB statistic calculation unit 221 as the statistic for each color component for the pixel values in the neighborhood buffer 220. In this state, the G variance calculation unit 222 refers to the noise model table 103 to obtain a noise amount Ng (standard deviation σg) corresponding to the median value Ag. Similarly, the RG variance calculating unit 223 also refers to the noise model table 103 to obtain the noise amount Nr of the R component corresponding to the median Ar, and the noise of the color difference RG component near the coordinates (x, y). The standard deviation σrg is calculated from the following.

Nr = Wr * Noise(Nr/Wr)
σrg = (Nr*Nr+Ng*Ng)^(1/2)
ここで、関数Noise(x)は、ノイズモデルテーブル103内のデータで規定される折れ線関数であり、上述した第1の実施の形態と同様に、単板撮像系201のノイズ特性を反映したものである。なお、R成分のノイズ量Nrの算出においては、単板撮像系201でホワイトバランス補正され、係数Wrがかかっているために、その影響を補正する計算がなされている。また、R-G成分のノイズ量Nrgの計算においては、R成分の標準偏差σrおよびG成分の標準偏差σgから、正規分布の加法性を用いて標準偏差σrgを計算している。
Nr = Wr * Noise (Nr / Wr)
σrg = (Nr * Nr + Ng * Ng) ^ (1/2)
Here, the function Noise (x) is a polygonal line function defined by the data in the noise model table 103, and reflects the noise characteristics of the single-plate imaging system 201 as in the first embodiment described above. It is. In calculating the noise amount Nr of the R component, since the white balance is corrected by the single-plate imaging system 201 and the coefficient Wr is applied, calculation for correcting the influence is performed. Further, in the calculation of the noise amount Nrg of the RG component, the standard deviation σrg is calculated from the standard deviation σr of the R component and the standard deviation σg of the G component using the additivity of normal distribution.

B-G分散算出部224についても、同様の計算を行い、座標(x,y)近傍での色差B-G成分のノイズの標準偏差σbgを算出する。その際は、ホワイトバランス係数としてWrのかわりにWbを用い、R成分のノイズ標準偏差σrに変えてB成分のノイズ標準偏差を計算する。 The BG variance calculation unit 224 performs the same calculation to calculate the standard deviation σbg of the noise of the color difference BG component in the vicinity of the coordinates (x, y). In this case, Wb is used instead of Wr as the white balance coefficient, and the noise standard deviation of the B component is calculated in place of the noise standard deviation σr of the R component.

RGB統計量算出部221の処理が終了すると、R-G生成部225およびB-G生成部226では、G分散算出部222での処理と並行して、図9(b)に示すように、近傍バッファ220内のR画素およびB画素位置でR-GおよびB-G成分を算出する。この場合、各々のR画素位置およびB画素位置で、周囲に4画素あるGのうち一つを選んで、差分R-GおよびB-Gを計算する。どのGを選択するかは任意で、常に右隣のGを選んでも良いし、図9(a)の斜線部分に示したように、Gを選択する位置を画素ごとに変えてもよい。一般的には、Gを選択する方向が近傍バッファ220内で一様でなく、隣接するR画素間またはB画素間で共通のGを選択しないことが望ましい。 When the processing of the RGB statistic calculation unit 221 is completed, the RG generation unit 225 and the BG generation unit 226 perform parallel processing with the G variance calculation unit 222 in the neighborhood buffer 220 as shown in FIG. RG and BG components are calculated at the R pixel and B pixel positions. In this case, at each R pixel position and B pixel position, one of four G pixels around is selected and the differences RG and BG are calculated. In either any which G to select always may choose the right G, as shown in the shaded area in FIG. 9 (a), may be changed position to select a G for each pixel. In general, the direction in which G is selected is not uniform in the neighborhood buffer 220, and it is desirable not to select a common G between adjacent R pixels or B pixels.

R-G生成部225およびB-G生成部226において近傍バッファ220内のR-GおよびB-G成分が計算されると、R-G統計量算出部227およびB-G統計量算出部228は近傍バッファ220内のR-GおよびB-G成分の統計量として、各々近傍バッファ220内のR-G値の中央値ArgおよびB-G値の中央値Abgを求める。   When the RG generation unit 225 and the BG generation unit 226 calculate the RG and BG components in the neighborhood buffer 220, the RG statistics calculation unit 227 and the BG statistics calculation unit 228 calculate the statistics of the RG and BG components in the neighborhood buffer 220. As the quantities, the median value Arg of the RG values and the median value Abg of the BG values in the neighboring buffer 220 are obtained.

ここまでの処理が終了すると、G成分、R-G成分、B-G成分各々について、単板撮像系201のノイズ特性から求めた標準偏差σg, σrg, σbgと、中央値Ag,Arg,Abgが得られるので、次に、G正規性検定部231、R-G正規性検定部229、B-G正規性検定部230において各々近傍バッファ220内のG成分、R-G成分、B-G成分の画素値分布が正規分布に適合するかどうかの検定を行う。ここでの検定の方法には、上述した第1の実施の形態と異なり、Anderson-Darlingの方法を用いる。このAnderson-Darlingの方法では、データ列v1,v2,…vNが確率分布f(x)に適合するかどうかを示す指標A2を以下のように計算する。   When the processing so far is completed, the standard deviations σg, σrg, σbg obtained from the noise characteristics of the single-plate imaging system 201 and the median values Ag, Arg, Abg are obtained for each of the G component, the RG component, and the BG component. Next, in the G normality test unit 231, the RG normality test unit 229, and the BG normality test unit 230, whether the pixel value distribution of the G component, the RG component, and the BG component in the neighborhood buffer 220 matches the normal distribution, respectively. Perform a test of whether or not. Unlike the first embodiment described above, the Anderson-Darling method is used as the test method here. In this Anderson-Darling method, an index A2 indicating whether the data string v1, v2,... VN matches the probability distribution f (x) is calculated as follows.

i) v1からvNを昇順に並べ替えu1からuNとする。   i) Rearrange v1 to vN in ascending order and let u1 to uN.

ii)S = Σ(2k-1)*(log(F(uk)+log(F(uN+1-k))/N を計算する(和は1<=k<=Nについて)
iii)A2 = -N-S
ここで、log(x)はxの自然対数、F(x)は確率分布f(x)の累積分布関数である。
ii) Calculate S = Σ (2k-1) * (log (F (uk) + log (F (uN + 1-k)) / N (sum is 1 <= k <= N)
iii) A2 = -NS
Here, log (x) is a natural logarithm of x, and F (x) is a cumulative distribution function of the probability distribution f (x).

この方法に基づいて、G正規性検定部231では近傍バッファ220内で得られているG成分の値を上記データ列v1からvNとして、正規分布N(Ag,σg)に適合するかどうかをi)からiii)によって計算し、この結果のA2をエッジ指標Eyとする。累積分布関数としては、正規分布N(Ag,σg)の累積分布関数S((x-Ag)/ σg)を用いる。(ここで、Sは平均0、標準偏差1の正規分布の累積分布関数である。)同様に、R-G正規性検定部229では近傍バッファ220内で得られているR-G成分の値を上記のデータ列v1からvNとして正規分布N(Arg,σrg)に適合するかどうかをi)からiii)によって計算し、この結果のA2をエッジ指標Ergとする。さらにB-G正規性検定部230では近傍バッファ220内で得られているB-G成分の値を上記のデータ列v1からvNとして正規分布N(Abg,σbg)に適合するかどうかをi)からiii)によって計算し、この結果のA2をエッジ指標Ebgとする。   Based on this method, the G normality test unit 231 uses the data component v1 to vN as values of the G component obtained in the neighborhood buffer 220 to determine whether or not the normal distribution N (Ag, σg) is satisfied. ) To iii), and A2 of the result is set as the edge index Ey. As the cumulative distribution function, the cumulative distribution function S ((x−Ag) / σg) of the normal distribution N (Ag, σg) is used. (Here, S is a cumulative distribution function of a normal distribution with mean 0 and standard deviation 1.) Similarly, the RG normality test unit 229 uses the value of the RG component obtained in the neighborhood buffer 220 as the above data. Whether columns v1 to vN match the normal distribution N (Arg, σrg) is calculated by i) to iii), and A2 of this result is set as the edge index Erg. Further, the BG normality test unit 230 determines whether or not the values of the BG components obtained in the neighborhood buffer 220 conform to the normal distribution N (Abg, σbg) as the above data strings v1 to vN according to i) to iii). The A2 of this result is used as the edge index Ebg.

ノイズ低減部209では、YC変換部208より入力された輝度成分Y(x,y)および色差成分Cr(x,y),Cb(x,y)に対し、G正規性検定部231、R-G正規性検定部229、B-G正規性検定部230より入力されるエッジ指標Ey(x,y), ECr(x,y), ECb(x,y)が与えられた段階でノイズ低減処理を行い、その結果をエッジ強調部210に出力する。ここでのノイズ低減処理としては第1の実施の形態で述べたと同様にエッジ保存性平滑化を施すが、輝度、色差それぞれに別々に適用し、標準偏差σの値も輝度と色差で異なる下式で表される。 In the noise reduction unit 209, the G normality test unit 231 and the RG normality are applied to the luminance component Y (x, y) and the color difference components Cr (x, y), Cb (x, y) input from the YC conversion unit 208. Noise reduction processing is performed at the stage where the edge indices Ey (x, y), ECr (x, y), ECb (x, y) input from the sex test unit 229 and the BG normality test unit 230 are given, The result is output to the edge enhancement unit 210. Here, as the noise reduction processing is performed in the same manner as edge preserving smoothing as described in the first embodiment, but the brightness, and applied separately to each color difference, the lower also the value of the standard deviation σ different luminance and color difference It is expressed by a formula.

Y'(x,y) = ΣΣ_ij wij*Y(x+i,y+j)/ΣΣwij, (-N<=i,j<=N,Nは近傍サイズ)
wij = W(|Y(x+i,y+j)-Y(x,y)|, σy)
Ck'(x,y) = ΣΣ_ij wij*Ck(x+i,y+j)/ΣΣwij,
wij = W(|Ck(x+i,y+j)-Ck(x,y)|, σck)
(-N<=i,j<=N,Nは近傍サイズ, kはrまたはb)
W(x,σ) = exp(-x*x/(σ*σ))
ここで、σy,σcは図10に示した関数βyおよびβcで、エッジ指標EyおよびEcから下式より算出される。
Y '(x, y) = ΣΣ_ij wij * Y (x + i, y + j) / ΣΣwij, (-N <= i, j <= N, N is the neighborhood size)
wij = W (| Y (x + i, y + j) -Y (x, y) |, σy)
Ck '(x, y) = ΣΣ_ij wij * Ck (x + i, y + j) / ΣΣwij,
wij = W (| Ck (x + i, y + j) -Ck (x, y) |, σck)
(-N <= i, j <= N, N is the neighborhood size, k is r or b)
W (x, σ) = exp (-x * x / (σ * σ))
Here, σy and σc are functions βy and βc shown in FIG. 10, and are calculated from the edge indices Ey and Ec according to the following equations.

σy = βy(Ey(x,y)), σcr = βc(Ecr(x,y)), σcb = βc (Ecb(x,y))
ここでの関数βy,βcは、エッジ指標が小さい場合にβcのほうが大きく、エッジ指標が大きくなるとβcのほうが小さくなる関係にある。これにより、色差成分に対しては輝度成分より極端な平滑化とコントラストの強いエッジに対する極端なエッジ保存が働き、色差成分に対するノイズ低減の特性としてより好ましい処理が実現できる。
σy = βy (Ey (x, y)), σcr = βc (Ecr (x, y)), σcb = βc (Ecb (x, y))
Here, the functions βy and βc have a relationship in which βc is larger when the edge index is small, and βc is smaller when the edge index is larger. As a result, extreme smoothing and extreme edge preservation for edges with strong contrast work for the color difference component, and processing more favorable as noise reduction characteristics for the color difference component can be realized.

エッジ強調部210では、入力された色差成分に対しては処理を行わずにそのまま出力し、輝度成分にのみ、第1の実施の形態と同一の処理を行って出力する。そして、圧縮部211では、最終的な輝度成分と色差成分がエッジ強調部210から入力されると、JPEGなど公知の圧縮処理を行い、この結果を記録部107に出力され、記録媒体に記録される。 The edge enhancement unit 210, as it is output without processing for the inputted color difference component, only the luminance component, and outputs by performing the same processing as in the first embodiment. When the final luminance component and color difference component are input from the edge enhancement unit 210, the compression unit 211 performs a known compression process such as JPEG, and the result is output to the recording unit 107 and recorded on the recording medium. The

このようにしても、撮像系により撮像されるカラー画像について第1の実施の形態と同様に、ノイズの影響を受けることなく平坦部を正確に判別することができるので、エッジ部と平坦部との判別を確実に行うことができ、エッジ強調した良質の画像を取得でき、さらにノイズの影響を受け易いテクスチャ部も平坦部と誤認することなく判別することができるので、テクスチャ部を強調した良質の画像を取得することができる。   Even in this case, as in the first embodiment, the flat portion can be accurately determined without being affected by noise in the color image picked up by the image pickup system. It is possible to reliably determine the quality of the image, to obtain a high-quality image with edge enhancement, and to distinguish a texture portion that is easily affected by noise without being misidentified as a flat portion. Images can be acquired.

なお、第2の実施の形態についても様々な変形例を想定できる。例えば、図11はエッジ平坦判定部204の処理を簡略化したもので、図8と同一部分には同符号を付している。この場合、図8に示すR-G分散算出部223、B-G分散算出部224に代えてR分散算出部241、B分散算出部242を設けるとともに、R-G正規性検定部229、B-G正規性検定部230に代えてR正規性検定部243、B正規性検定部244を設け、色差R-G,B-Gに対するエッジ平坦判定を行うかわりにR成分およびB成分のエッジ平坦判定を行い、G成分のエッジ平坦判定と総合して共通の輝度成分・色差成分に共通のエッジ指標を求める構成となっている。   Various modifications can be assumed for the second embodiment. For example, FIG. 11 shows a simplified process of the edge flatness determination unit 204, and the same parts as those in FIG. In this case, instead of the RG variance calculation unit 223 and the BG variance calculation unit 224 shown in FIG. 8, an R variance calculation unit 241 and a B variance calculation unit 242 are provided, and the RG normality test unit 229 and the BG normality test unit 230 are provided. Instead, an R normality test unit 243 and a B normality test unit 244 are provided, and instead of performing edge flatness determination for the color differences RG and BG, edge flatness determination of the R component and B component is performed. Thus, a common edge index is obtained for the common luminance component and color difference component.

この構成では、R分散算出部241でR成分のノイズの標準偏差σrを求め、R正規性検定部243において、近傍バッファ220内で得られているR成分が正規分布N(Ar,σr)に適合するかどうか検定し、指標A2をR成分のエッジ指標Erとして得る。同様に、B分散算出部242でB成分のノイズの標準偏差σbを求め、B正規性検定部244において、近傍バッファ220内で得られているB成分が正規分布N(Ab,σb)に適合するかどうか検定し、指標A2をB成分のエッジ指標Ebとして得る。最後に、最大値算出部245においてG成分、R成分、B成分のエッジ指標Eg,Er,Ebの最大値Emaxを求め、輝度成分のエッジ指標Eyおよび色差成分のエッジ指標Ecr,EcbをすべてEmaxとして、ノイズ低減部209およびエッジ強調部210に出力する。   In this configuration, the R variance calculation unit 241 obtains the standard deviation σr of the R component noise, and the R normality test unit 243 converts the R component obtained in the neighborhood buffer 220 into the normal distribution N (Ar, σr). It is tested whether or not they match, and the index A2 is obtained as the edge index Er of the R component. Similarly, the B variance calculation unit 242 obtains the standard deviation σb of the B component noise, and the B normality test unit 244 matches the B component obtained in the neighborhood buffer 220 with the normal distribution N (Ab, σb). The index A2 is obtained as the edge index Eb of the B component. Finally, the maximum value calculation unit 245 obtains the maximum values Emax of the edge indices Eg, Er, and Eb of the G component, R component, and B component, and the edge index Ey of the luminance component and the edge indices Ecr, Ecb of the color difference components are all represented by Emax. Is output to the noise reduction unit 209 and the edge enhancement unit 210.

なお、本発明は、上記実施の形態に限定されるものでなく、実施段階では、その要旨を変更しない範囲で種々変形することが可能である。   In addition, this invention is not limited to the said embodiment, In the implementation stage, it can change variously in the range which does not change the summary.

さらに、上記実施の形態には、種々の段階の発明が含まれており、開示されている複数の構成要件における適宜な組み合わせにより種々の発明が抽出できる。例えば、実施の形態に示されている全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題を解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出できる。   Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and is described in the column of the effect of the invention. If the above effect is obtained, a configuration from which this configuration requirement is deleted can be extracted as an invention.

本発明の第1の実施の形態にかかる画像処理装置を適用したデジタルカメラの概略構成を示す図。1 is a diagram showing a schematic configuration of a digital camera to which an image processing apparatus according to a first embodiment of the present invention is applied. 第1の実施の形態に用いられるエッジ平坦判定部の概略構成を示す図。The figure which shows schematic structure of the edge flat determination part used for 1st Embodiment. 第1の実施の形態でのエッジ平坦判定指標の求め方を説明する図。The figure explaining how to obtain | require the edge flatness determination parameter | index in 1st Embodiment. 第1の実施の形態に用いられるノイズ低減部での重み関数をエッジ指標に応じて求める方法を説明する図。The figure explaining the method of calculating | requiring the weighting function in the noise reduction part used for 1st Embodiment according to an edge parameter | index. 第1の実施の形態に用いられるエッジ強調部でのエッジ強調量をエッジ指標に応じて求める方法を説明する図。The figure explaining the method of calculating | requiring the edge enhancement amount in the edge enhancement part used for 1st Embodiment according to an edge parameter | index. 第1の実施の形態に用いられるノイズモデルテーブル内のデータ例を説明する図。The figure explaining the example of data in the noise model table used for 1st Embodiment. 本発明の第2の実施の形態にかかる画像処理装置を適用したデジタルカメラの概略構成を示す図。The figure which shows schematic structure of the digital camera to which the image processing apparatus concerning the 2nd Embodiment of this invention is applied. 第2の実施の形態に用いられるエッジ平坦判定部の概略構成を示す図。The figure which shows schematic structure of the edge flat determination part used for 2nd Embodiment. 第2の実施の形態に用いられる近傍バッファ内のデータ例の説明する図。The figure explaining the example of data in the neighborhood buffer used for 2nd Embodiment. 第2の実施の形態に用いられるノイズ低減部での重み関数をエッジ指標に応じて求める方法を説明する図。The figure explaining the method of calculating | requiring the weighting function in the noise reduction part used for 2nd Embodiment according to an edge parameter | index. 第2の実施の形態に用いられるエッジ平坦判定部の変形例の概略構成を示す図。The figure which shows schematic structure of the modification of the edge flat determination part used for 2nd Embodiment.

100、200…デジタルカメラ、101、201…撮像系
102…入力画像バッファ、103…ノイズモデルテーブル
104…エッジ平坦判定部、105…ノイズ低減部
106…エッジ強調部、107…記録部、110…近傍バッファ
111…統計量算出部、112…分散算出部
113…正規性検定部、202…入力画像バッファ
204…エッジ平坦判定部、205…同時化部、206…色変換部
207…階調変換部、208…YC変換部、209…ノイズ低減部
210…エッジ強調部、211…圧縮部、220…近傍バッファ
221…RGB統計量算出部、222…R分散算出部
223…R-G分散算出部、224…B-G分散算出部、225…R-G生成部
226…B-G生成部、227…R-G統計量算出部
228…B-G統計量算出部、229…R-G正規性検定部
230…B-G正規性検定部、231…G正規性検定部
241…R分散算出部、242…B分散算出部、243…R正規性検定部
244…B正規性検定部、245…最大値算出部
DESCRIPTION OF SYMBOLS 100, 200 ... Digital camera, 101, 201 ... Imaging system 102 ... Input image buffer, 103 ... Noise model table 104 ... Edge flatness determination part, 105 ... Noise reduction part 106 ... Edge emphasis part, 107 ... Recording part, 110 ... Neighborhood Buffer 111 ... Statistics calculation unit 112 ... Distribution calculation unit 113 ... Normality test unit 202 ... Input image buffer 204 ... Edge flatness determination unit 205 ... Synchronization unit 206 ... Color conversion unit 207 ... Tone conversion unit 208 ... YC conversion unit, 209 ... noise reduction unit 210 ... edge enhancement unit, 211 ... compression unit, 220 ... neighboring buffer 221 ... RGB statistic calculation unit, 222 ... R variance calculation unit 223 ... RG variance calculation unit, 224 ... BG Variance calculation unit, 225 ... RG generation unit 226 ... BG generation unit, 227 ... RG statistic calculation unit 228 ... BG statistic calculation unit, 229 ... RG normality test 230 ... BG Normality Test section, 231 ... G Normality Test unit 241 ... R variance calculation unit, 242 ... B variance calculation unit, 243 ... R Normality Test unit 244 ... B Normality Test section, 245 ... maximum value calculator

Claims (7)

デジタル画像を取得する撮像系を用いてあらかじめ撮像することにより得られた画像の画素値に関する統計量と、前記画像におけるノイズの確率分布に関するパラメータの値との間に成り立つ関係を、ノイズ特性データとして保持するデータ保持手段と、
前記デジタル画像内の注目画素を含む領域における画素値の分布から所定の統計量を算出する手段と、
前記ノイズ特性データおよび前記所定の統計量から、前記注目画素を含む領域におけるノイズの確率分布に関するパラメータの値を算出するパラメータ算出手段と、
前記パラメータの値を用いて前記ノイズの確率分布を算出し、前記注目画素を含む領域における画素値の分布と、前記パラメータの値を用いて算出された前記ノイズの確率分布とが、どの程度合致するかを示す指標値を算出する検定手段と、
を具備したことを特徴とする画像処理装置。
The relationship between the statistic relating to the pixel value of the image obtained by imaging in advance using an imaging system for acquiring a digital image and the parameter value relating to the probability distribution of noise in the image is defined as noise characteristic data. Data holding means for holding;
Means for calculating a predetermined statistic from a distribution of pixel values in a region including the target pixel in the digital image;
Parameter calculation means for calculating a value of a parameter relating to a probability distribution of noise in a region including the target pixel from the noise characteristic data and the predetermined statistic;
Using the values of the parameters to calculate the probability distribution of the noise, the the distribution of pixel values in a region including the pixel of interest, and the probability distribution of the noise which is calculated using the values of the parameters, how matching A test means for calculating an index value indicating whether to perform ,
An image processing apparatus comprising:
前記ノイズの確率分布に関するパラメータは、標準偏差又は分散であることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the parameter relating to the probability distribution of noise is standard deviation or variance. 前記統計量は、前記注目画素を含む領域における画素値の平均または中央値であることを特徴とする請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the statistic is an average or median of pixel values in a region including the target pixel. 前記ノイズ特性データは、所定の入力値に対し、前記入力値を画素値とする平坦部でのノイズの標準偏差又は分散を与えるものであり、前記パラメータ算出手段は、前記統計量を前記ノイズ特性データに対する入力値として、前記前記注目画素を含む領域におけるノイズの確率分布に関する標準偏差又は分散を前記パラメータの値として求めることを特徴とする請求項1記載の画像処理装置。 The noise characteristic data gives a standard deviation or variance of noise in a flat portion having the input value as a pixel value with respect to a predetermined input value, and the parameter calculation means calculates the statistic as the noise characteristic. as input values for the data, the image processing apparatus according to claim 1, wherein the determining of the standard deviation or variance for the probability distribution of the noise in the region including the said target pixel as the value of the parameter. 前記検定手段は、確率分布の累積分布関数の類似度を評価する検定方式であることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the test unit is a test method for evaluating a similarity of a cumulative distribution function of a probability distribution. 前記注目画素を含む領域における画素値の分布は、前記注目画素を含む領域内で離散的な位置の画素の画素値の分布であることを特徴とする請求項1記載の画像処理装置。 The distribution of the pixel values in the region including the target pixel, the image processing apparatus according to claim 1, characterized in that the distribution of the pixel values of the pixels of the discrete positions in the area including the pixel of interest. 前記デジタル画像の各画素における画素値は、前記撮像系を用いて撮像することにより得られた画像の画素値の線形演算により算出された新たな画素値成分から成ることを特徴とする請求項1記載の画像処理装置。 Pixel values definitive to each pixel of the digital image, claims, characterized in that it consists of a new pixel value component calculated by the linear operation of the pixel values of the image obtained by imaging using the imaging system The image processing apparatus according to 1 .
JP2009102207A 2009-04-20 2009-04-20 Image processing device Expired - Fee Related JP5372586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009102207A JP5372586B2 (en) 2009-04-20 2009-04-20 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009102207A JP5372586B2 (en) 2009-04-20 2009-04-20 Image processing device

Publications (2)

Publication Number Publication Date
JP2010252265A JP2010252265A (en) 2010-11-04
JP5372586B2 true JP5372586B2 (en) 2013-12-18

Family

ID=43314057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009102207A Expired - Fee Related JP5372586B2 (en) 2009-04-20 2009-04-20 Image processing device

Country Status (1)

Country Link
JP (1) JP5372586B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5863236B2 (en) * 2010-12-17 2016-02-16 キヤノン株式会社 Image processing apparatus and image processing method
WO2014070273A1 (en) * 2012-11-02 2014-05-08 Board Of Regents, The University Of Texas System Recursive conditional means image denoising
AU2014233518C1 (en) * 2013-03-15 2019-04-04 DePuy Synthes Products, Inc. Noise aware edge enhancement
JP6467178B2 (en) * 2014-09-30 2019-02-06 株式会社メガチップス Image processing apparatus and image processing method
KR102454986B1 (en) * 2017-05-23 2022-10-17 삼성디스플레이 주식회사 Spot detecting apparatus and method of detecting spot using the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006087030A (en) * 2004-09-17 2006-03-30 Olympus Corp Noise reducer

Also Published As

Publication number Publication date
JP2010252265A (en) 2010-11-04

Similar Documents

Publication Publication Date Title
US8194160B2 (en) Image gradation processing apparatus and recording
US8269862B2 (en) Image processing apparatus and image processing method
US8115833B2 (en) Image-acquisition apparatus
KR101980931B1 (en) Image processing device, image processing method, and recording medium
US8184924B2 (en) Image processing apparatus and image processing program
JP2007094742A (en) Image signal processor and image signal processing program
US8564862B2 (en) Apparatus, method and program for reducing deterioration of processing performance when graduation correction processing and noise reduction processing are performed
EP1764738A1 (en) Signal processing system and signal processing program
JP5034003B2 (en) Image processing device
WO2004019608A1 (en) Imaging system and image processing program
CN105960658B (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory storage medium that can be processed by computer
US9185265B2 (en) Image processing method and image processing apparatus for performing a tone correction to acquire a combined image
JP5781372B2 (en) Image processing apparatus and imaging apparatus
CN104869380A (en) Image processing apparatus and image processing method
US20110052053A1 (en) Digital image processing apparatus and method
JP5372586B2 (en) Image processing device
US8441543B2 (en) Image processing apparatus, image processing method, and computer program
JP2006295582A (en) Image processor, imaging apparatus, and image processing program
US8026954B2 (en) System and computer-readable medium for automatic white balancing
US8351695B2 (en) Image processing apparatus, image processing program, and image processing method
JP2012065069A (en) Defect detection and compensation apparatus, program and storage medium
US9055232B2 (en) Image processing apparatus capable of adding soft focus effects, image processing method, and storage medium
JP5277388B2 (en) Image processing apparatus and imaging apparatus
JPH09163164A (en) Image processing method and image processing unit
CN115619640A (en) Image processing method and device, terminal, chip and chip module

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130918

R151 Written notification of patent or utility model registration

Ref document number: 5372586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees