JP2019087851A - Image processing device, imaging apparatus, image processing method, image processing program, and recording medium - Google Patents

Image processing device, imaging apparatus, image processing method, image processing program, and recording medium Download PDF

Info

Publication number
JP2019087851A
JP2019087851A JP2017213823A JP2017213823A JP2019087851A JP 2019087851 A JP2019087851 A JP 2019087851A JP 2017213823 A JP2017213823 A JP 2017213823A JP 2017213823 A JP2017213823 A JP 2017213823A JP 2019087851 A JP2019087851 A JP 2019087851A
Authority
JP
Japan
Prior art keywords
sharpening
image
image processing
input image
sharpening filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017213823A
Other languages
Japanese (ja)
Other versions
JP6605009B2 (en
Inventor
義明 井田
Yoshiaki Ida
義明 井田
弘至 畠山
Hiroyuki Hatakeyama
弘至 畠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017213823A priority Critical patent/JP6605009B2/en
Priority to US16/180,263 priority patent/US11120529B2/en
Publication of JP2019087851A publication Critical patent/JP2019087851A/en
Application granted granted Critical
Publication of JP6605009B2 publication Critical patent/JP6605009B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an image processing device capable of reducing noise amplification due to sharpening while reducing a processing load.SOLUTION: An image processing unit 104 includes: first acquisition means 104a configured to acquire noise information relevant to noise characteristics in an input image which is generated by picking up using an optical system 101; second acquisition means 104b configured to acquire a sharpening filter in a real space on the basis of optical characteristics of the optical system 101; and third acquisition means 104c configured to acquire gain information of the sharpening filter on the basis of components of the sharpening filter. The image processing unit 104 performs sharpening processing on the input image on the basis of the noise information and the gain information.SELECTED DRAWING: Figure 8

Description

本発明は、撮影画像の画質を向上させる画像処理装置に関する。   The present invention relates to an image processing apparatus for improving the quality of a captured image.

光学系を用いた撮像において、被写体の1点から発生した光は光学系で生じる回折や収差等の影響を受けて、微小な広がりを持って像面に到達する。したがって撮影画像には光学系の回折や収差によるぼけが生じる。   In imaging using an optical system, light generated from one point of a subject reaches the image plane with a minute spread under the influence of diffraction or aberration generated in the optical system. Therefore, blurring occurs due to diffraction or aberration of the optical system in the photographed image.

このような画像のぼけは、点像強度分布関数(PSF,Point Spread Function)や光学伝達関数(OTF,Optical Transfer Function)等を用いた画像処理によって鮮鋭化できることが知られている。しかしながら、画像の鮮鋭化処理を行なおうとすると、画像のノイズが増幅されてしまうという問題があった。   It is known that such image blurring can be sharpened by image processing using a point spread function (PSF), a point spread function (OTF), an optical transfer function (OTF) or the like. However, when trying to sharpen an image, there is a problem that the noise of the image is amplified.

特許文献1には、画像を鮮鋭化する際のノイズの増幅を低減させるために、ノイズ特性に関する情報(ISO感度)を用いて補正効果を調節することが記載されている。   Patent Document 1 describes that information on noise characteristics (ISO sensitivity) is used to adjust a correction effect in order to reduce noise amplification when sharpening an image.

特開2017−41763号公報JP 2017-41763 A

特許文献1の方法では、2次元の画像回復フィルタのゲイン値を周波数空間において制御することで画像の補正効果を調節している。このため、画像処理に際して2次元の逆フーリエ変換を行う必要がある。したがって特許文献1の方法には、画像処理に要する負荷が増大してしまうという課題があった。   In the method of Patent Document 1, the image correction effect is adjusted by controlling the gain value of the two-dimensional image restoration filter in the frequency space. Therefore, it is necessary to perform two-dimensional inverse Fourier transform in image processing. Therefore, the method of Patent Document 1 has a problem that the load required for image processing is increased.

本発明は、処理負荷を低減させつつ鮮鋭化に伴うノイズの増幅を低減させることのできる画像処理装置を提供することを目的とする。   An object of the present invention is to provide an image processing apparatus capable of reducing amplification of noise accompanying sharpening while reducing processing load.

本発明の画像処理装置は、光学系を用いた撮影により生成された入力画像におけるノイズ特性に関するノイズ情報を取得する第1の取得手段と、前記光学系の光学特性に基づいた実空間における鮮鋭化フィルタを取得する第2の取得手段と、前記鮮鋭化フィルタの成分の二乗和に基づいて前記鮮鋭化フィルタのゲイン情報を取得する第3の取得手段と、を有し、前記入力画像に対して、前記ノイズ情報と、前記ゲイン情報に基づいて鮮鋭化処理を行うことを特徴とする。   An image processing apparatus according to the present invention comprises: a first acquisition unit for acquiring noise information on noise characteristics in an input image generated by photographing using an optical system; and sharpening in real space based on the optical characteristics of the optical system A second acquisition unit that acquires a filter; and a third acquisition unit that acquires gain information of the sharpening filter based on a sum of squares of components of the sharpening filter; Sharpening processing is performed based on the noise information and the gain information.

また、本発明の他の画像処理装置は、光学系を用いた撮影により生成された入力画像におけるノイズ特性に関するノイズ情報を取得する第1の取得手段と、前記光学系の光学特性に基づいた実空間における鮮鋭化フィルタを取得する第2の取得手段と、前記鮮鋭化フィルタの成分に基づいて、特定の周波数における前記鮮鋭化フィルタのゲイン情報を取得する第3の取得手段と、を有し、前記入力画像に対して、前記ノイズ情報と、前記ゲイン情報に基づいて鮮鋭化処理を行うことを特徴とする。   In addition, another image processing apparatus according to the present invention includes a first acquisition unit for acquiring noise information on noise characteristics in an input image generated by photographing using an optical system, and an actual based on optical characteristics of the optical system. A second acquisition unit that acquires a sharpening filter in a space; and a third acquisition unit that acquires gain information of the sharpening filter at a specific frequency based on a component of the sharpening filter; Sharpening processing is performed on the input image based on the noise information and the gain information.

本発明によれば、処理負荷を低減させつつ鮮鋭化に伴うノイズの増幅を低減させることのできる画像処理装置を実現できる。   According to the present invention, it is possible to realize an image processing apparatus capable of reducing the amplification of noise accompanying sharpening while reducing the processing load.

アンシャープマスク処理による鮮鋭化を説明する図である。It is a figure explaining sharpening by unsharp mask processing. 光学系のPSFを示す模式図である。It is a schematic diagram which shows PSF of an optical system. 回転対称なアンシャープマスクを用いた鮮鋭化処理を説明する図である。It is a figure explaining the sharpening process using rotation-symmetrical unsharp mask. 回転非対称なアンシャープマスクを用いた鮮鋭化処理を説明する図である。It is a figure explaining the sharpening processing using rotation non-symmetrical unsharp mask. 鮮鋭化フィルタのゲインを示す模式図である。It is a schematic diagram which shows the gain of a sharpening filter. 鮮鋭化処理の前後におけるMTFの模式図である。It is a schematic diagram of MTF before and behind sharpening processing. 撮像装置のブロック図である。It is a block diagram of an imaging device. 実施例1における画像処理のフローチャートである。5 is a flowchart of image processing in Embodiment 1. ゲイン情報と加重加算率の関係を示す図である。It is a figure which shows the relationship between gain information and a weighted addition rate. 実施例2における鮮鋭化フィルタの生成を説明する図である。FIG. 7 is a diagram for explaining generation of a sharpening filter in Embodiment 2. 実施例2における画像処理のフローチャートである。7 is a flowchart of image processing in Embodiment 2.

以下、本発明の画像処理装置としての画像処理部を有する撮像装置の実施形態について、添付の図面に基づいて説明する。   Hereinafter, an embodiment of an imaging device having an image processing unit as an image processing device of the present invention will be described based on the attached drawings.

本実施形態の画像処理部は、光学系を用いた撮影により生成された入力画像に対して、光学系の光学特性に基づいた鮮鋭化フィルタを用いた鮮鋭化処理としてアンシャープマスク処理を行う。まず、本実施形態の撮像装置の構成に関する説明に先立ち、本実施形態の鮮鋭化処理について述べる。   The image processing unit according to the present embodiment performs unsharp mask processing on an input image generated by photographing using an optical system, as a sharpening process using a sharpening filter based on optical characteristics of the optical system. First, prior to the description of the configuration of the imaging apparatus of the present embodiment, the sharpening processing of the present embodiment will be described.

図1は、アンシャープマスク処理による鮮鋭化の模式図である。図1(a)の実線は入力画像、破線は入力画像をアンシャープマスクでぼかした画像、点線は鮮鋭化後の画像を表している。また、図1(b)の実線は補正成分を表している。図1の各図の横軸は座標であり、縦軸は画素値または輝度値である。図1は、後述する図2の所定の方向(例えば、x方向)における断面に相当する。   FIG. 1 is a schematic view of sharpening by unsharp mask processing. The solid line in FIG. 1A represents an input image, the broken line represents an image obtained by blurring the input image with an unsharp mask, and the dotted line represents an image after sharpening. The solid line in FIG. 1 (b) represents the correction component. The horizontal axis of each drawing of FIG. 1 is a coordinate, and the vertical axis is a pixel value or a luminance value. FIG. 1 corresponds to a cross section in a predetermined direction (for example, the x direction) of FIG. 2 described later.

入力画像をf(x,y)、補正成分をh(x,y)とすると、鮮鋭化後の画像g(x,y)は次式で表すことができる。
g(x,y)=f(x,y)+m×h(x,y) (1)
Assuming that the input image is f (x, y) and the correction component is h (x, y), the image g (x, y) after sharpening can be expressed by the following equation.
g (x, y) = f (x, y) + m x h (x, y) (1)

式(1)において、mは補正の強さを変化させるための調整係数であり、調整係数mの値を変化させることにより、補正量を調整することができる。なお、mは入力画像の位置によらず一定の定数であっても良いし、入力画像の位置に応じて異ならせることにより入力画像の位置に応じて補正量を調整することもできる。また、調整係数m(x,y)は光学系の焦点距離や絞り値や被写体距離(撮影距離)といった撮影条件に応じて異ならせることもできる。   In Equation (1), m is an adjustment coefficient for changing the strength of the correction, and the amount of correction can be adjusted by changing the value of the adjustment coefficient m. Note that m may be a constant constant regardless of the position of the input image, or the correction amount may be adjusted according to the position of the input image by making it different according to the position of the input image. Further, the adjustment coefficient m (x, y) can be made different according to the imaging conditions such as the focal length of the optical system, the aperture value, and the object distance (imaging distance).

アンシャープマスクをUSM(x,y)とすると、補正成分h(x,y)は次式のように表すことができる。USM(x,y)は、例えば、座標(x,y)におけるタップ値である。
h(x,y)=f(x,y)−f(x,y)*USM(x,y) (2)
Assuming that the unsharp mask is USM (x, y), the correction component h (x, y) can be expressed by the following equation. USM (x, y) is, for example, a tap value at coordinates (x, y).
h (x, y) = f (x, y)-f (x, y) * USM (x, y) (2)

式(2)の右辺を変形して次式で表すことができる。
h(x,y)=f(x,y)*(δ(x,y)−USM(x,y)) (3)
The right side of equation (2) can be modified and expressed by the following equation.
h (x, y) = f (x, y) * (δ (x, y)-USM (x, y)) (3)

ここで、「*」はコンボリューション(畳み込み積分、積和)、「δ(x,y)」はデルタ関数である。デルタ関数とは、USM(x,y)とタップ数が等しく中心の値が1でそれ以外が0で埋まっているデータである。   Here, “*” is convolution (convolution integral, product-sum), and “δ (x, y)” is a delta function. The delta function is data in which the number of taps is equal to that of USM (x, y) and the value of the center is 1 and other values are 0.

式(2)を変形することで式(3)を表現できるため、式(2)と式(3)は等価である。よって、以下では式(2)を用いて補正成分の生成について説明する。   Because equation (3) can be expressed by modifying equation (2), equation (2) and equation (3) are equivalent. Therefore, the generation of the correction component will be described below using Equation (2).

式(2)では、入力画像f(x,y)と入力画像f(x,y)をアンシャープマスクでぼかした画像の差分をとり、この差分情報に基づいて補正成分h(x,y)を生成している。一般的なアンシャープマスク処理では、アンシャープマスクにガウシアンフィルタ、メディアンフィルタ、移動平均フィルタ等の平滑化フィルタが使用される。   In equation (2), the difference between the input image f (x, y) and the image obtained by blurring the input image f (x, y) with the unsharp mask is calculated, and the correction component h (x, y) is calculated based on this difference information. Is generated. In general unsharp mask processing, smoothing filters such as Gaussian filter, median filter, moving average filter, etc. are used for the unsharp mask.

例えば、図1(a)の実線で示す入力画像f(x,y)に対して、アンシャープマスクとしてガウシアンフィルタを使用した場合、入力画像f(x,y)をぼかした画像は図1(a)の破線で示すようになる。補正成分h(x,y)は図1(a)の実線から図1(a)の破線を減算すること得られる図1(b)の実線で示される成分となる。このように算出された補正成分を用いて、式(1)の演算を行うことによって、図1(a)の実線に示す入力画像f(x,y)を図1(a)の点線のように鮮鋭化することができる。   For example, when a Gaussian filter is used as an unsharp mask for an input image f (x, y) shown by a solid line in FIG. 1A, an image obtained by blurring the input image f (x, y) is shown in FIG. It becomes as shown by the broken line of a). The correction component h (x, y) is a component shown by the solid line in FIG. 1 (b) obtained by subtracting the broken line in FIG. 1 (a) from the solid line in FIG. 1 (a). By performing the operation of equation (1) using the correction component calculated in this manner, the input image f (x, y) shown by the solid line in FIG. 1A is shown by the dotted line in FIG. Can be sharpened.

次に、光学系で生じた回折や収差等の影響により劣化した画像に対して、アンシャープマスク処理を適用することで画像を鮮鋭化する場合について説明する。光学系を用いた撮影により生成された入力画像f(x,y)は、光学系による劣化が生じなかった場合の画像(以下、元の画像と称する)をI(x,y)、光学系のPSFをpsf(x,y)とすると、次式のように、表すことができる。
f(x,y)=I(x,y)*psf(x,y) (4)
Next, the case where an image is sharpened by applying an unsharp mask process to an image degraded by the influence of diffraction or aberration generated in an optical system will be described. An input image f (x, y) generated by photographing using an optical system is an image (hereinafter referred to as an original image) when degradation due to the optical system does not occur is I (x, y), the optical system Let psf (x, y) be the PSF of f, and can be expressed as in the following equation.
f (x, y) = I (x, y) * psf (x, y) (4)

まず、入力画像f(x,y)が元の画像I(x,y)に対して回転対称にぼけている場合について述べる。光学系が回転対称な共軸光学系であれば、画像の中心部に対応するPSFは回転対称となる。そのため、画像の中心部については回転対称なアンシャープマスクを適用することで入力画像f(x,y)を元の画像I(x,y)に近づける鮮鋭化を行うことができる。補正成分は入力画像をアンシャープマスクでぼかした画像と入力画像の差分値となるため、精度良く補正するためには、アンシャープマスクとして単純な平滑化フィルタではなく、よりpsf(x,y)に近い形状のものを使用することが好ましい。   First, the case where the input image f (x, y) is blurred in rotational symmetry with respect to the original image I (x, y) will be described. If the optical system is a rotationally symmetric coaxial optical system, the PSF corresponding to the center of the image is rotationally symmetric. Therefore, by applying a rotationally symmetric unsharp mask to the central portion of the image, it is possible to sharpen the input image f (x, y) closer to the original image I (x, y). The correction component is the difference value between the input image and the image obtained by blurring the input image with the unsharp mask. Therefore, to correct with high precision, it is not a simple smoothing filter as the unsharp mask, but more psf (x, y) It is preferable to use a shape close to.

例えば、球面収差の影響で入力画像が劣化している場合を考える。球面収差であれば画面の中心に対して回転対称に影響を及ぼすものの、ガウシアンフィルタのような平滑化フィルタは球面収差の影響を反映したPSFとは分布の形状が異なる。そのため、アンシャープマスクに光学系のPSFを使用することで入力画像を精度良く補正(鮮鋭化)することができる。   For example, consider the case where the input image is degraded due to the influence of spherical aberration. If it is a spherical aberration, it affects the rotational symmetry with respect to the center of the screen, but the smoothing filter such as the Gaussian filter has a distribution shape different from that of PSF reflecting the influence of the spherical aberration. Therefore, by using the PSF of the optical system for the unsharp mask, the input image can be corrected (sharpened) with high accuracy.

このため、本実施形態ではアンシャープマスクUSM(x,y)として光学系のPSFを用いている。図1(a)に示す入力画像f(x,y)は簡略化のために線対称な形状となっているが、画像は対称軸を有していなくとも良い。元の画像I(x,y)の形状が非対称であっても、元の画像I(x,y)に畳み込まれる劣化関数(psf(x,y)に相当する)が回転対称であれば、回転対称なアンシャープマスクを用いて鮮鋭化することができる。   Therefore, in the present embodiment, the PSF of the optical system is used as the unsharp mask USM (x, y). The input image f (x, y) shown in FIG. 1A has a line-symmetrical shape for simplification, but the image may not have an axis of symmetry. Even if the shape of the original image I (x, y) is asymmetric, if the degradation function (corresponding to psf (x, y)) to be convoluted to the original image I (x, y) is rotationally symmetric Sharpening can be performed using a rotationally symmetric unsharp mask.

次に、入力画像f(x,y)が元の画像I(x,y)に対して回転非対称にぼけている場合について述べる。光学系が回転対称な共軸光学系であっても、画像の中心部以外の位置におけるPSFは通常非対称な形状となる。図2は、xy平面における光学系のPSFの模式図であり、図2(a)は軸上のPSF、図2(b)は軸外のPSFを表している。   Next, the case where the input image f (x, y) is blurred rotationally asymmetrically with respect to the original image I (x, y) will be described. Even if the optical system is a rotationally symmetric coaxial optical system, PSFs at positions other than the center of the image usually have an asymmetrical shape. FIG. 2 is a schematic view of the PSF of the optical system in the xy plane, FIG. 2 (a) shows an on-axis PSF, and FIG. 2 (b) shows an off-axis PSF.

例えば、元の画像が理想点像の集合によって構成されているとすると、式(4)から、入力画像f(x,y)は光学系のPSFになる。図2(b)に対応する画角に理想点像があり、光学系のPSFの影響を受けて元の画像が劣化したとすれば、入力画像は図2(b)の形状のようにぼけた画像となる。このように非対称にぼけた画像に対して、アンシャープマスク処理による鮮鋭化を行う場合について説明する。   For example, assuming that the original image is composed of a set of ideal point images, from Equation (4), the input image f (x, y) becomes the PSF of the optical system. If there is an ideal point image at the angle of view corresponding to FIG. 2B and the original image is deteriorated by the influence of the PSF of the optical system, the input image is blurred as shown in the shape of FIG. Image. A description will be given of the case of performing sharpening by unsharp mask processing on an image that is asymmetrically blurred as described above.

図3、図4は非対称にぼけた画像に対してアンシャープマスク処理を行った場合について説明する図である。図3は回転対称なアンシャープマスクを用いて処理を行った場合、図4は回転非対称なアンシャープマスクを用いて処理を行った場合を示している。図3、図4の各図の縦軸は画素値または輝度値である。また、図3、図4の各図の横軸は、図2(b)のy方向に相当する。   FIG. 3 and FIG. 4 are diagrams for explaining the case where the unsharp mask processing is performed on the image which is blurred asymmetrically. FIG. 3 shows the case where processing is performed using a rotationally symmetric unsharp mask, and FIG. 4 shows the case where processing is performed using a rotationally asymmetric unsharp mask. The vertical axis of each of FIGS. 3 and 4 is a pixel value or a luminance value. Moreover, the horizontal axis of each figure of FIG. 3, FIG. 4 is corresponded to the y direction of FIG.2 (b).

図3(a)、図4(a)の実線は図2(b)のy軸方向の断面を表しており、点線はアンシャープマスクでぼかした入力画像を表している。図3の回転対称なアンシャープマスクにはガウシアンフィルタを適用し、図4の回転非対称なアンシャープマスクには光学系のPSFを適用している。   The solid lines in FIGS. 3A and 4A represent the cross section in the y-axis direction in FIG. 2B, and the dotted lines represent the input image blurred by the unsharp mask. A Gaussian filter is applied to the rotationally symmetric unsharp mask in FIG. 3, and a PSF of an optical system is applied to the rotationally asymmetric unsharp mask in FIG.

図3(b)、図4(b)は、それぞれ各アンシャープマスクでぼかされた入力画像と入力画像の差分値をプロットしたものであり、補正成分を表している。図3(a)、図4(a)において、入力画像の裾野が広くなっている方をY軸のプラス側とする。   FIGS. 3 (b) and 4 (b) are plots of the difference values between the input image and the input image blurred by each unsharp mask, and represent correction components. In FIGS. 3A and 4A, the side where the base of the input image is wider is taken as the plus side of the Y axis.

図3(a)では、実線のピーク位置に対してプラス側において入力画像と元の画像の差分値が小さく、マイナス側において入力画像と元の画像の差分値が大きくなっている。そのため、図3(b)の補正成分の中心のピーク位置に対してプラス側の極値よりもマイナス側の極値の方が小さくなっている。   In FIG. 3A, the difference between the input image and the original image is small on the plus side with respect to the peak position of the solid line, and the difference between the input image and the original image is large on the minus side. Therefore, the extremum on the minus side is smaller than the extremum on the plus side with respect to the peak position of the center of the correction component in FIG. 3B.

図3(a)と図3(b)の曲線を比較すればわかるように、プラス側の補正量が小さく、マイナス側の補正量は大きくなっている。このため、式(4)による鮮鋭化を行っても非対称なぼけを補正することはできない。図3(c)はm=1のときの鮮鋭化後の結果を示したものであり、図3(a)の実線に対して鮮鋭化はできているものの、プラス側に対してマイナス側が大きく沈んでおり、非対称なぼけは補正できていないことがわかる。   As can be understood by comparing the curves in FIG. 3A and FIG. 3B, the correction amount on the plus side is small, and the correction amount on the minus side is large. For this reason, it is not possible to correct an asymmetric blur even if sharpening is performed according to equation (4). FIG. 3 (c) shows the result after sharpening when m = 1, and although the sharpening is achieved with respect to the solid line in FIG. 3 (a), the negative side is larger than the positive side. It can be seen that the asymmetrical blur can not be corrected.

ここで、アンシャープマスクを変えずに式(4)の調整係数mを変更することで補正量を調整する場合を考える。画像のプラス側を十分に補正するために調整係数mの値を大きくすると、画像のマイナス側は補正過剰(アンダーシュート)になり、画像のマイナス側の補正量を適切になるように調整係数mの値を設定すると、画像のプラス側は補正不足となる。   Here, a case is considered in which the correction amount is adjusted by changing the adjustment coefficient m of Expression (4) without changing the unsharp mask. If the value of the adjustment coefficient m is increased to sufficiently correct the positive side of the image, the negative side of the image becomes overcorrected (undershoot), and the adjustment coefficient m is adjusted so that the amount of correction on the negative side of the image becomes appropriate. If the value of is set, the positive side of the image is undercorrected.

このように、非対称にぼけた画像に対して回転対称なアンシャープマスクを使用してアンシャープマスク処理を行っても、非対称に劣化した入力画像を鮮鋭化することは困難である。このような問題は、回転対称なアンシャープマスクとしてガウシアンフィルタ以外の回転対称なフィルタを使用しても同様に発生する。   As described above, it is difficult to sharpen the asymmetrically degraded input image even if the asymmetrically blurred image is subjected to the unsharp mask processing using the rotationally symmetric unsharp mask. Such a problem similarly occurs even if a rotationally symmetric filter other than the Gaussian filter is used as the rotationally symmetric unsharp mask.

一方、図4(a)では、実線のピーク位置に対してプラス側において入力画像と元の画像の差分値が大きく、マイナス側において入力画像と元の画像の差分値が小さくなっている。すなわち、図3(a)と反対の傾向が現れている。そのため、図4(b)の補正成分も中心のピーク位置に対してマイナス側よりプラス側の方が極値は小さくなっている。   On the other hand, in FIG. 4A, the difference value between the input image and the original image is large on the plus side with respect to the solid peak position, and the difference value between the input image and the original image is small on the minus side. That is, the opposite tendency to FIG. 3A appears. Therefore, the extremum of the correction component in FIG. 4B is smaller on the plus side than on the minus side with respect to the central peak position.

図4(a)の実線で表された入力画像に対して、図4(b)に示す補正成分を適用することで、ピーク位置に対してプラス側(ぼけが大きい方に)は補正量を大きく、マイナス側(ぼけが小さい方)は補正量を小さくすることができる。   By applying the correction component shown in FIG. 4 (b) to the input image represented by the solid line in FIG. 4 (a), the correction amount is added on the plus side (in the larger blur) to the peak position. The correction amount can be made smaller on the larger side and the negative side (the smaller the blur).

こうした非対称なアンシャープマスクの場合、入力画像のぼけ方のバランスと補正成分の補正量のバランスの傾向が一致するため、回転対称なアンシャープマスクを適用する場合に問題となる補正の過不足も起きにくくなる。図4(c)はm=1のときの鮮鋭化後の結果を示したものであり、図4(a)の実線に対して鮮鋭化できており、尚且つ図3(c)で生じていたマイナス側の沈みが改善されている。   In the case of such an asymmetric unsharp mask, since the balance tendency of the blurring of the input image and the balance of the correction amount of the correction component coincide with each other, excess or deficiency of correction which becomes a problem when applying a rotationally symmetric unsharp mask is also It becomes difficult to get up. FIG. 4 (c) shows the result after sharpening when m = 1, which can be sharpened with respect to the solid line in FIG. 4 (a), and occurs in FIG. 3 (c). The sink on the negative side has been improved.

さらに、回転対称なアンシャープマスクの場合と比べて、補正過剰になりにくくなるため、式(4)の調整係数mの値も比較的大きくとることができ、非対称性を低減しつつより鮮鋭化することができる。   Furthermore, since the correction is less likely to be overcorrected as compared with the rotationally symmetric unsharp mask, the value of the adjustment coefficient m in equation (4) can also be made relatively large, and sharpening is achieved while reducing asymmetry. can do.

また、より補正精度を向上させるためには、光学系のPSFによってより大きくぼける部分が、アンシャープマスクによっても大きくぼかされる必要がある。それゆえ、入力画像f(x,y)が元の画像I(x,y)に対して回転非対称にぼけている場合についても、アンシャープマスクとして光学系のPSFを利用することが好ましい。この場合、鮮鋭化フィルタは、成分が回転非対称に分布した2次元フィルタとなる。なお、鮮鋭化フィルタとは鮮鋭化処理において入力画像に対して畳み込み演算される係数行列であり、鮮鋭化フィルタの成分とは係数行列の成分(タップ値)である。   Further, in order to further improve the correction accuracy, it is necessary that the portion blurred more largely by the PSF of the optical system be largely blurred by the unsharp mask. Therefore, it is preferable to use the PSF of the optical system as the unsharp mask even when the input image f (x, y) is blurred rotationally asymmetrically with respect to the original image I (x, y). In this case, the sharpening filter is a two-dimensional filter in which components are distributed rotationally asymmetrically. The sharpening filter is a coefficient matrix that is convoluted with the input image in the sharpening process, and the component of the sharpening filter is a component (tap value) of the coefficient matrix.

なお、光学系のPSFは、光学系の焦点距離、光学系のF値、および被写体距離(撮影距離)を含む撮影条件ごとに異なる。また、PSFは入力画像内での位置に依っても異なる。それゆえ、鮮鋭化フィルタは、入力画像における各位置に対して撮影条件ごとに変化させることが好ましい。   The PSF of the optical system is different for each imaging condition including the focal length of the optical system, the F value of the optical system, and the subject distance (imaging distance). Also, the PSF differs depending on the position in the input image. Therefore, it is preferable to change the sharpening filter for each imaging condition with respect to each position in the input image.

次に、入力画像に含まれるノイズ成分の増幅について述べる。   Next, amplification of noise components included in the input image will be described.

通常、光学系を用いた撮像により生成された画像には、光学系のPSFによって劣化した成分の他に、ノイズによって劣化した成分が含まれる。   In general, an image generated by imaging using an optical system includes a component deteriorated by noise in addition to a component deteriorated by PSF of the optical system.

鮮鋭化処理は光学系の光学伝達関数の振幅成分であるMTF(Modulation Transfer Function)を1に近づけるような処理であるため、入力画像にノイズ成分が含まれる場合には、ノイズ成分も増幅されてしまうおそれがある。すなわち、入力画像に対して上述したような鮮鋭化処理を行うと、入力画像が鮮鋭化されるとともに入力画像に含まれるノイズ成分が目立ちやすくなってしまう。   Since the sharpening process is a process that brings the MTF (Modulation Transfer Function), which is the amplitude component of the optical transfer function of the optical system, closer to 1, the noise component is also amplified when the noise component is included in the input image. There is a risk of That is, when the above-described sharpening processing is performed on the input image, the input image is sharpened and the noise component included in the input image is easily noticeable.

このことは、式(1)、(3)を用いて次のように説明できる。   This can be explained as follows using equations (1) and (3).

式(1)、(3)より、鮮鋭化処理後の画像g(x,y)は次式のように表現することができる。
g(x,y)=f(x,y)+m×f(x,y)*{δ(x,y)−USM(x,y)} (5)
From equations (1) and (3), the image g (x, y) after the sharpening process can be expressed as the following equation.
g (x, y) = f (x, y) + m × f (x, y) * {δ (x, y) −USM (x, y)} (5)

式(5)の右辺を入力画像f(x,y)についてまとめると式(6)のようになる。
g(x,y)=f(x,y)*{δ(x,y)+m×(δ(x,y)−USM(x,y))} (6)
If the right side of equation (5) is summarized for the input image f (x, y), equation (6) is obtained.
g (x, y) = f (x, y) * {δ (x, y) + m × (δ (x, y) −USM (x, y))} (6)

式(6)において、右辺の中括弧内の項が鮮鋭化フィルタに相当する。式(6)をフーリエ変換すると、以下の式(7)を得ることができる。
G(u,v)=F(u,v)×{1+m×(1−U(u,v))} (7)
In equation (6), the term in the braces on the right side corresponds to the sharpening filter. By Fourier transforming Equation (6), the following Equation (7) can be obtained.
G (u, v) = F (u, v) × {1 + m × (1-U (u, v))} (7)

式(7)におけるG(u,v)はg(x,y)のフーリエ変換、F(u,v)はf(x,y)のフーリエ変換、U(u,v)はUSM(x,y)のフーリエ変換である。   G (u, v) in equation (7) is the Fourier transform of g (x, y), F (u, v) is the Fourier transform of f (x, y), U (u, v) is USM (x, y) y) Fourier transform.

図5に、式(7)の括弧{}内の絶対値を示す。図5の横軸が空間周波数、縦軸がゲインである。アンシャープマスクUSM(x,y)のフーリエ変換U(u,v)の実部をRe(U(u,v))、虚部をIm(U(u,v))とすると、アンシャープマスク処理におけるゲインGaは以下の式(8)で表される。   FIG. 5 shows the absolute values in parentheses {} of equation (7). The horizontal axis in FIG. 5 is the spatial frequency, and the vertical axis is the gain. Assuming that the real part of the Fourier transform U (u, v) of the unsharp mask USM (x, y) is Re (U (u, v)) and the imaginary part is Im (U (u, v)), the unsharp mask The gain Ga in the process is expressed by the following equation (8).

仮に、アンシャープマスクUSM(x,y)が回転対称なガウス分布である場合、関数U(u,v)もガウス分布となる。そのため、虚部Im(U(u,v))は0、実部Re(U(u,v))は0≦Re(U(u,v))≦1となり、ゲインGaは1≦Ga≦(1+m)となる。また、ガウス分布は分布の中心から離れるとゼロに漸近するため、実部Re(U(u,v))もゼロに近づく。そのため、高周波側になるほどゲインGaは(1+m)に漸近し、図5に示されるような曲線となる。なお、図5では、調整係数mが1である場合を表しており、高周波側ではゲインGaが2に漸近している。   If the unsharp mask USM (x, y) is a rotationally symmetric Gaussian distribution, then the function U (u, v) also has a Gaussian distribution. Therefore, the imaginary part Im (U (u, v)) is 0, the real part Re (U (u, v)) is 0 ≦ Re (U (v, v) ≦ 1 and the gain Ga is 1 ≦ Ga ≦ It becomes (1 + m). In addition, the real part Re (U (u, v)) approaches zero as the Gaussian distribution approaches zero as it leaves the center of the distribution. Therefore, as the frequency becomes higher, the gain Ga gradually approaches (1 + m), and a curve as shown in FIG. 5 is obtained. Note that FIG. 5 shows the case where the adjustment coefficient m is 1, and the gain Ga approaches 2 at the high frequency side.

アンシャープマスクUSM(x,y)として光学系のPSFを利用する場合、アンシャープマスクUSM(x,y)のフーリエ変換U(u,v)は、PSFのフーリエ変換である光学伝達関数(OTF)となる。OTFの絶対値は振幅成分MTFである。   When the PSF of the optical system is used as the unsharp mask USM (x, y), the Fourier transform U (u, v) of the unsharp mask USM (x, y) is an optical transfer function (OTF) which is a Fourier transform of PSF ). The absolute value of OTF is the amplitude component MTF.

図6は、アンシャープマスク処理による鮮鋭化前後の振幅成分MTFの変化を示す図である。図6の実線は鮮鋭化処理前の振幅成分MTF、破線は鮮鋭化後の振幅成分MTFを表す。   FIG. 6 is a diagram showing changes in the amplitude component MTF before and after sharpening by unsharp mask processing. The solid line in FIG. 6 represents the amplitude component MTF before the sharpening process, and the broken line represents the amplitude component MTF after the sharpening process.

図6は、収差等による画像劣化の振幅成分の周波数特性を示している。図6に示されるように、低周波側が高く、高周波側が低くなる。振幅成分MTFがゼロに近づくと、OTFの実部および虚部はゼロに近づき、光学系で解像できる周波数を超えるとOTFの実部および虚部はゼロとなる。このとき、ゲインGa(u,v)は式(8)より(1+m)となるため、アンシャープマスクUSM(x,y)として光学系のPSFを利用した場合でもゲインGaは図5の点線や破線で示される高周波側で増加する曲線となる。ゲインGaはPSFが回転対称の場合はどの方向(断面)でも一定となるが、PSFが回転非対称な場合は方向によって異なる。したがって、PSFが回転非対称となる軸外では、ゲインGaも回転非対称となる。また、OTFの実部および虚部はマイナスとなることもあるため、所定の周波数でゲインGaはGa>(1+m)となる場合もある。   FIG. 6 shows the frequency characteristic of the amplitude component of image degradation due to aberration or the like. As shown in FIG. 6, the low frequency side is high and the high frequency side is low. As the amplitude component MTF approaches zero, the real and imaginary parts of OTF approach zero, and beyond the frequency that can be resolved by the optical system, the real and imaginary parts of OTF become zero. At this time, since the gain Ga (u, v) is (1 + m) according to equation (8), even when PSF of the optical system is used as the unsharp mask USM (x, y), the gain Ga is a dotted line in FIG. It becomes a curve which increases on the high frequency side shown by a broken line. The gain Ga is constant in any direction (cross section) when the PSF is rotationally symmetric, but varies depending on the direction when the PSF is rotationally asymmetric. Therefore, the gain Ga is also rotationally asymmetric when the PSF is rotationally asymmetric. Further, since the real part and imaginary part of OTF may be negative, gain Ga may be Ga> (1 + m) at a predetermined frequency.

以上説明したように、アンシャープマスクUSM(x,y)としてガウス分布のような回転対称なフィルタを利用する場合であっても、光学系のPSFを利用する場合であっても、ゲインGaは低周波側から高周波側にかけて増加する曲線となる。   As described above, even when using a rotationally symmetric filter such as a Gaussian distribution as the unsharp mask USM (x, y) or using the PSF of the optical system, the gain Ga is It becomes a curve which increases from the low frequency side to the high frequency side.

鮮鋭化処理前後の振幅成分MTFを比較すると、周波数frにおいて差が最大となる。これは、図6の実線で示される鮮鋭化処理前の振幅成分MTFに、図5に示されるゲインGaが掛け合わされて鮮鋭化処理後の振幅成分MTFとなるためである。鮮鋭化処理前の振幅成分MTFが低い場合、ゲインGaが大きくても鮮鋭化による振幅成分MTFの変化は小さくなる。   When the amplitude components MTF before and after the sharpening process are compared, the difference is the largest at the frequency fr. This is because the amplitude component MTF before the sharpening process shown by the solid line in FIG. 6 is multiplied by the gain Ga shown in FIG. 5 to become the amplitude component MTF after the sharpening process. When the amplitude component MTF before the sharpening process is low, even if the gain Ga is large, the change in the amplitude component MTF due to the sharpening becomes small.

ここで、入力画像にノイズ成分が含まれる場合を考える。入力画像に含まれるノイズ成分をn(x、y)とすると、式(6)は以下の式(9)のように表すことができる。
g(x,y)=(f(x,y)+n(x,y))*{δ(x,y)+m×(δ(x,y)−USM(x,y))} (9)
Here, it is assumed that the input image contains a noise component. Assuming that the noise component contained in the input image is n (x, y), equation (6) can be expressed as equation (9) below.
g (x, y) = (f (x, y) + n (x, y)) * {δ (x, y) + m × (δ (x, y) −USM (x, y))} (9)

同様に、n(x,y)のフーリエ変換をN(u,v)とすると、式(7)は以下の式(10)のように表すことができる。
G(u,v)=(F(u,v)+N(u,v))×{1+m×(1−U(u,v))} (10)
Similarly, when the Fourier transform of n (x, y) is N (u, v), the equation (7) can be expressed as the following equation (10).
G (u, v) = (F (u, v) + N (u, v)) * {1 + m * (1-U (u, v))} (10)

式(10)よりノイズ成分を含む入力画像に対してアンシャークマスク処理を行うと、入力画像のうちノイズ以外の成分であるf(x,y)のフーリエ変換F(u,v)と、ノイズ成分N(u,v)の両方に括弧{}の部分がかかる。また、F(u,v)は、式(4)をフーリエ変換することで取得されるため、元の画像I(x,y)のフーリエ変換と光学系のOTFの積である。振幅成分MTFがゼロに近づく高周波側では、前述したようにOTFの実部および虚部はゼロに近づくため、入力画像f(x,y)のフーリエ変換F(u,v)も図6の実線で示すように同様にゼロに近づく。一方、ノイズ成分N(u,v)としてホワイトノイズのようなノイズ成分を考えると、周波数に依存することなく一様な分布となる。したがって、高周波側では、F(u,v)に対するN(u,v)の割合が大きくなるため、ノイズ成分を含む入力画像に対して、高周波側に大きなゲインをかけると鮮鋭化効果よりノイズ成分が増幅してしまう。   According to equation (10), when the unshark mask process is performed on the input image including the noise component, the Fourier transform F (u, v) of f (x, y) which is a component other than noise in the input image and the noise Parts of parentheses {} are applied to both components N (u, v). Further, since F (u, v) is obtained by Fourier transforming Equation (4), it is the product of the Fourier transform of the original image I (x, y) and the OTF of the optical system. On the high frequency side where the amplitude component MTF approaches zero, as described above, the real part and imaginary part of OTF approach zero, so the Fourier transform F (u, v) of the input image f (x, y) is also the solid line in FIG. It also approaches zero as indicated by. On the other hand, considering a noise component such as white noise as the noise component N (u, v), a uniform distribution is obtained without depending on the frequency. Therefore, at the high frequency side, the ratio of N (u, v) to F (u, v) is large. Therefore, if a large gain is applied to the high frequency side with respect to the input image including the noise component, the noise component Is amplified.

このため、入力画像を良好に補正するためには、鮮鋭化処理におけるゲインを見積もり、ゲインおよび入力画像のノイズ特性に基づいて鮮鋭化処理による鮮鋭化の度合いを調節する必要がある。   Therefore, in order to correct the input image well, it is necessary to estimate the gain in the sharpening process and adjust the degree of sharpening by the sharpening process based on the gain and the noise characteristic of the input image.

鮮鋭化フィルタのゲインは、式(8)を用いて得ることができるが、実空間の鮮鋭化フィルタを2次元フーリエ変換する必要が生じる。このため、式(8)を用いてゲインを算出する場合、計算量が多くなり、鮮鋭化処理に要する処理負荷が増大してしまう。   The gain of the sharpening filter can be obtained using equation (8), but the real-space sharpening filter needs to be two-dimensionally Fourier transformed. Therefore, when the gain is calculated using the equation (8), the amount of calculation increases and the processing load required for the sharpening process increases.

一方、予め算出されたゲインを記憶しておく場合、ゲインを得るために必要な計算量は軽減されるものの、ゲインを記憶するために記憶容量を割く必要がある。入力画像を良好に補正するためには撮影条件ごとに鮮鋭化フィルタを変化させる必要があるが、撮影条件ごとに異なる各鮮鋭化フィルタに対してゲインを記憶しようとすると、膨大な記憶容量をゲインの記憶のために割く必要が生じてしまう。   On the other hand, when the gain calculated beforehand is stored, although the amount of calculation required to obtain the gain is reduced, it is necessary to allocate a storage capacity to store the gain. Although it is necessary to change the sharpening filter for each shooting condition in order to correct the input image properly, if you try to store the gain for each sharpening filter that is different for each shooting condition, a huge storage capacity will be obtained. Needs to be allocated for the storage of

そこで、本実施形態では、後述のように、実空間の鮮鋭化フィルタからゲインを見積もり、ゲインおよび入力画像のノイズ特性に基づいて鮮鋭化処理による鮮鋭化の度合いを調節する。これによって、鮮鋭化処理に要する処理負荷を低減させつつ鮮鋭化に伴うノイズの増幅を抑制することができる。   Therefore, in the present embodiment, as described later, the gain is estimated from the sharpening filter in the real space, and the degree of sharpening by the sharpening processing is adjusted based on the gain and the noise characteristic of the input image. As a result, while reducing the processing load required for the sharpening process, it is possible to suppress the amplification of the noise accompanying the sharpening.

以上、本実施形態の画像処理部において行われる鮮鋭化処理に関して説明した。   The sharpening processing performed in the image processing unit of the present embodiment has been described above.

次に本実施形態の撮像装置の構成について述べる。   Next, the configuration of the imaging device of the present embodiment will be described.

図7を参照して、本実施形態の撮像装置100について説明する。図7は、撮像装置100の構成を示すブロック図である。撮像装置100には、本実施形態の鮮鋭化処理を行うための画像処理プログラムがインストールされており、この鮮鋭化処理は撮像装置100の内部の画像処理部(画像処理装置)104により実行される。   An imaging device 100 according to the present embodiment will be described with reference to FIG. FIG. 7 is a block diagram showing the configuration of the imaging device 100. As shown in FIG. An image processing program for performing the sharpening process of the present embodiment is installed in the imaging apparatus 100, and the sharpening process is executed by an image processing unit (image processing apparatus) 104 in the imaging apparatus 100. .

撮像装置100は、光学系101および撮像装置本体(カメラ本体)を備える。   The imaging device 100 includes an optical system 101 and an imaging device main body (camera main body).

光学系101は、絞り101aおよびフォーカスレンズ101bを備え、カメラ本体と一体的に構成されている。ただし本発明はこれに限定されるものではなく、光学系101がカメラ本体に対して着脱可能に装着される撮像装置にも適用可能である。また、光学系101はレンズなどの屈折面を有する光学素子の他、回折面を有する光学素子、反射面を有する光学素子を含んで構成されていても良い。   The optical system 101 includes an aperture 101a and a focus lens 101b, and is integrally configured with the camera body. However, the present invention is not limited to this, and is also applicable to an imaging apparatus in which the optical system 101 is detachably mounted to the camera body. The optical system 101 may be configured to include an optical element having a diffractive surface and an optical element having a reflective surface, in addition to an optical element having a refractive surface such as a lens.

撮像素子102は、CCDセンサやCMOSセンサで構成され、光学系101によって得られた被写体像(光学系101によって形成された光学像)を光電変換して撮影画像を生成する。すなわち、被写体像は、撮像素子102による光電変換でアナログ信号(電気信号)に変換される。そして、このアナログ信号はA/Dコンバータ103によりデジタル信号に変換される。このデジタル信号は画像処理部104に入力される。   The imaging device 102 is formed of a CCD sensor or a CMOS sensor, and photoelectrically converts an object image (an optical image formed by the optical system 101) obtained by the optical system 101 to generate a photographed image. That is, the subject image is converted into an analog signal (electric signal) by photoelectric conversion by the imaging device 102. Then, this analog signal is converted into a digital signal by the A / D converter 103. This digital signal is input to the image processing unit 104.

画像処理部104は、デジタル信号に対して所定の処理を行うとともに、本実施形態の鮮鋭化処理を行う。画像処理部104は、図7に示されるように、撮影条件取得部(第1の取得手段)104a、鮮鋭化フィルタ取得部(第2の取得手段)104b、ゲイン情報取得部(第3の取得手段)104cおよび処理部(処理手段)104dを備える。撮影条件取得部104aは、状態検出部107から撮像装置100の撮影条件を取得する。撮影条件とは、光学系101の絞り値、撮影距離、焦点距離を含む。状態検出部107は、システムコントローラ110から直接撮影条件を取得してもよいし光学系制御部106から取得してもよい。   The image processing unit 104 performs predetermined processing on the digital signal and performs the sharpening processing of the present embodiment. As shown in FIG. 7, the image processing unit 104 includes a photographing condition acquisition unit (first acquisition unit) 104a, a sharpening filter acquisition unit (second acquisition unit) 104b, and a gain information acquisition unit (third acquisition). Means) 104c and a processing unit (processing means) 104d. The imaging condition acquisition unit 104 a acquires imaging conditions of the imaging device 100 from the state detection unit 107. The imaging conditions include the aperture value of the optical system 101, the imaging distance, and the focal length. The state detection unit 107 may acquire the imaging conditions directly from the system controller 110 or may acquire it from the optical system control unit 106.

PSF、またはPSFの生成に必要なデータは、記憶部(記憶手段)108に保持されている。記憶部108は、例えばROMで構成される。画像処理部104で処理された出力画像は、画像記録媒体109に所定のフォーマットで保存される。液晶モニタや有機ELディスプレイで構成された表示部105には、鮮鋭化処理を行った画像に表示用の所定の処理を行った画像が表示される。ただし、表示部105に表示する画像はこれに限定されるものではなく、高速表示のために簡易処理を行った画像を表示部105に表示するようにしてもよい。   Data necessary for generating PSF or PSF is held in the storage unit (storage means) 108. The storage unit 108 is configured by, for example, a ROM. The output image processed by the image processing unit 104 is stored in the image recording medium 109 in a predetermined format. On the display unit 105 configured by a liquid crystal monitor or an organic EL display, an image obtained by performing a predetermined process for display on the image subjected to the sharpening process is displayed. However, the image displayed on the display unit 105 is not limited to this, and the image subjected to the simplified processing for high-speed display may be displayed on the display unit 105.

システムコントローラ110は撮像装置100の制御を行う。光学系101の機械的な駆動はシステムコントローラ110の指示に基づいて光学系制御部106により行われる。光学系制御部106は、所定のFナンバーとなるように絞り101aの開口径を制御する。また、光学系制御部106は、被写体距離に応じてピント調整を行うため、不図示のオートフォーカス(AF)機構や手動のマニュアルフォーカス機構により、フォーカスレンズ101bの位置を制御する。なお、絞り101aの開口径制御やマニュアルフォーカスなどの機能は、撮像装置100の仕様に応じて実行しなくてもよい。   The system controller 110 controls the imaging device 100. Mechanical driving of the optical system 101 is performed by the optical system control unit 106 based on an instruction of the system controller 110. The optical system control unit 106 controls the aperture diameter of the diaphragm 101a so as to obtain a predetermined F number. Further, the optical system control unit 106 controls the position of the focus lens 101b by an auto focus (AF) mechanism (not shown) or a manual manual focus mechanism (not shown) in order to perform focus adjustment according to the subject distance. Note that functions such as aperture diameter control of the aperture stop 101 a and manual focusing may not be performed according to the specifications of the imaging device 100.

なお、ローパスフィルタや赤外線カットフィルタ等の光学素子を光学系101と撮像素子102の間に配置してもよいが、ローパスフィルタ等の光学特性に影響を与える素子を用いる場合、鮮鋭化フィルタを作成する時点での考慮が必要になる場合がある。赤外線カットフィルタに関しても、分光波長のPSFの積分値であるRGBチャンネルの各PSF、特にRチャンネルのPSFに影響するため、鮮鋭化フィルタを作成する時点での考慮が必要になる場合がある。したがって、ローパスフィルタや赤外線カットフィルタの有無に応じて鮮鋭化フィルタを変更しても良い。   Although an optical element such as a low pass filter or an infrared cut filter may be disposed between the optical system 101 and the imaging element 102, a sharpening filter is formed when using an element such as a low pass filter that affects optical characteristics. It may be necessary to consider at the time of The infrared cut filter also needs to be considered at the time of creating the sharpening filter because it affects the PSF of the RGB channel, which is an integral value of the PSF of the spectral wavelength, particularly the PSF of the R channel. Therefore, the sharpening filter may be changed according to the presence or absence of the low pass filter or the infrared cut filter.

なお、画像処理部104はASICで構成され、光学系制御部106、状態検出部107、およびシステムコントローラ110はそれぞれCPUまたはMPUによって構成されている。また、画像処理部104、光学系制御部106、状態検出部107、およびシステムコントローラ110のうちの1つ以上を、同じCPUあるいはMPUで兼用するように構成してもよい。   The image processing unit 104 is configured by an ASIC, and the optical system control unit 106, the state detection unit 107, and the system controller 110 are each configured by a CPU or an MPU. Further, one or more of the image processing unit 104, the optical system control unit 106, the state detection unit 107, and the system controller 110 may be configured to be shared by the same CPU or MPU.

次に、画像処理部104において行われる鮮鋭化処理の実施例について説明する。   Next, an embodiment of the sharpening process performed in the image processing unit 104 will be described.

[実施例1]
図8は、実施例1の鮮鋭化処理のフローチャートである。図8のフローチャートは、画像処理部104の指示に基づいて実行される。図8において、「S」はステップを表す。また、図8のフローチャートは、コンピュータに各ステップを実行させて画像処理部104と同様の機能を発揮させるためのプログラムとしても具現化可能である。これらは図11に示すフローチャートでも同様である。
Example 1
FIG. 8 is a flowchart of the sharpening process of the first embodiment. The flowchart in FIG. 8 is executed based on an instruction from the image processing unit 104. In FIG. 8, "S" represents a step. The flowchart in FIG. 8 can also be embodied as a program for causing a computer to execute each step to exhibit the same function as the image processing unit 104. The same applies to the flowchart shown in FIG.

S101では、画像処理部104は、撮像装置100によって撮影された画像を入力画像として取得する。入力画像は、記憶部108に保存される。また、入力画像として、画像記録媒体109に保存されている画像を取得してもよい。   In S101, the image processing unit 104 acquires an image captured by the imaging device 100 as an input image. The input image is stored in the storage unit 108. Further, an image stored in the image recording medium 109 may be acquired as an input image.

S102では、撮影条件取得部104aが入力画像の撮影時の撮影条件を取得する。撮影条件とは、光学系101の焦点距離、絞り値、撮影距離等である。光学系101がカメラ本体に交換可能に装着される撮像装置の場合、撮影条件はさらにレンズIDやカメラIDを含む。撮影条件は、撮像装置から直接取得してもよいし、入力画像に付帯された情報(例えばEXIF情報)から取得してもよい。   In S102, the imaging condition acquisition unit 104a acquires imaging conditions at the time of imaging of the input image. The shooting conditions include the focal length of the optical system 101, the aperture value, the shooting distance, and the like. In the case of an imaging apparatus in which the optical system 101 is exchangeably mounted on the camera body, the imaging conditions further include a lens ID and a camera ID. The imaging conditions may be acquired directly from the imaging device or may be acquired from information attached to the input image (for example, EXIF information).

また、S102において撮影条件取得部104aは入力画像のノイズ特性に関するノイズ情報も取得する。ノイズ情報とは、入力画像に含まれるノイズの大きさと対応づけられる情報であれば良い。ノイズ情報としては、例えば、撮像素子102の感度、温度がある。また、鮮鋭化処理よりも前に入力画像に対して画像処理が行われていた場合、入力画像のノイズ特性に影響を与え得る。したがって、ノイズ情報は、鮮鋭化処理よりも前に入力画像に対して行われた画像処理に関する情報を含んでいても良い。なお、一般的な撮像装置においては上述した撮影条件と共に撮像素子の感度としてISO感度が撮影画像と共に記録されるため、ノイズ情報としてISO感度を用いることが好ましい。以下では、ノイズ情報としてISO感度を用いる例について述べる。   Further, in S102, the imaging condition acquisition unit 104a acquires noise information on noise characteristics of the input image. The noise information may be any information that can be associated with the magnitude of noise included in the input image. The noise information includes, for example, the sensitivity of the image sensor 102 and the temperature. In addition, if the image processing is performed on the input image prior to the sharpening processing, noise characteristics of the input image may be affected. Therefore, the noise information may include information on image processing performed on the input image prior to the sharpening processing. In addition, in a general imaging apparatus, ISO sensitivity is recorded as a sensitivity of the imaging device together with the above-described imaging condition together with the photographed image, so it is preferable to use the ISO sensitivity as the noise information. In the following, an example in which ISO sensitivity is used as noise information will be described.

S103では、鮮鋭化フィルタ取得部104bが記憶部108から光学系101の光学特性を取得する。ここでは光学特性としてPSFを取得する。ただし、光学特性としてOTFのようにPSFに相当するものや、PSFやOTFを近似的に表した関数の係数データなどを取得してもよい。   In S103, the sharpening filter acquisition unit 104b acquires the optical characteristics of the optical system 101 from the storage unit 108. Here, PSF is acquired as an optical characteristic. However, as an optical characteristic, one corresponding to PSF such as OTF, or coefficient data of a function that approximately represents PSF or OTF may be acquired.

S104では、鮮鋭化フィルタ取得部104bが、S102で取得した撮影条件に応じた鮮鋭化フィルタを、S103で取得した光学特性に基づいて取得する。本実施例では、式(6)中の鮮鋭化フィルタにおいて、USM(x、y)にS103で取得したPSFを用いた鮮鋭化フィルタ取得する。   In S104, the sharpening filter acquisition unit 104b acquires a sharpening filter corresponding to the imaging condition acquired in S102 based on the optical characteristic acquired in S103. In the present embodiment, in the sharpening filter in the equation (6), the sharpening filter is acquired using the PSF acquired in S103 as USM (x, y).

なお、S103で取得した撮影条件に対応したPSFが保存されていない場合には、記憶部108に記憶されているPSFの内、S103で取得した撮影条件に最も近い撮影条件に対応するPSFに基づく鮮鋭化フィルタを取得しても良い。また、S103で取得した撮影条件に近い撮影条件のPSFを補間して得たPSFに基づく鮮鋭化フィルタを取得したり、S103で取得した撮影条件に近い撮影条件のPSFに基づく鮮鋭化フィルタを補間して得た鮮鋭化フィルタを取得したりしても良い。   In addition, when the PSF corresponding to the imaging condition acquired in S103 is not stored, among the PSFs stored in the storage unit 108, the PSF corresponding to the imaging condition closest to the imaging condition acquired in S103 is used. A sharpening filter may be acquired. In addition, a sharpening filter based on PSF obtained by interpolating PSF of a shooting condition close to the shooting condition obtained in S103 is obtained, or a sharpening filter based on a PSF near the shooting condition obtained in S103 is interpolated Alternatively, the sharpening filter obtained may be acquired.

また、本実施例では光学特性に基づいて鮮鋭化フィルタを取得したが、本発明はこれに限定されない。記憶部108に光学系101の光学特性に基づいて生成された鮮鋭化フィルタを予め記憶させておき、鮮鋭化フィルタ取得部104bが記憶部108から鮮鋭化フィルタを直接取得しても良い。この場合、S103はスキップされる。   Further, although the sharpening filter is obtained based on the optical characteristics in the present embodiment, the present invention is not limited to this. The sharpening filter generated based on the optical characteristics of the optical system 101 may be stored in advance in the storage unit 108, and the sharpening filter acquisition unit 104b may directly acquire the sharpening filter from the storage unit 108. In this case, S103 is skipped.

なお、S104において、鮮鋭化フィルタ取得部104bは入力画像の複数の位置のそれぞれに対して、適用される複数の鮮鋭化フィルタを取得する。入力画像の各位置における光学特性(PSF)はそれぞれ異なるため、入力画像の各位置に対して適用される各鮮鋭化フィルタはそれぞれ異なる。   Note that in S104, the sharpening filter acquisition unit 104b acquires a plurality of sharpening filters to be applied to each of a plurality of positions of the input image. Since the optical characteristics (PSF) at each position of the input image are different, each sharpening filter applied to each position of the input image is different.

また、S104で取得される鮮鋭化フィルタは、周波数空間ではなく実空間におけるフィルタである。鮮鋭化フィルタとして周波数空間におけるフィルタを取得する場合には入力画像の鮮鋭化に際して逆フーリエ変換を行う必要が生じるが、実空間におけるフィルタを取得していれば画像に直接適用することが可能となる。このため鮮鋭化処理に要する処理負荷を低減させることができる。これによって鮮鋭化処理の演算スピードを向上させることができる。また、鮮鋭化処理に要する処理負荷が軽減されるため、比較的安価なチップで鮮鋭化処理を実現できる。これによって、製品コストの低減が図れる。   Also, the sharpening filter acquired in S104 is a filter in real space, not in frequency space. In the case of acquiring a filter in frequency space as a sharpening filter, it is necessary to perform an inverse Fourier transform when sharpening an input image, but if a filter in real space is acquired, it is possible to apply it directly to the image . Therefore, the processing load required for the sharpening process can be reduced. This makes it possible to improve the calculation speed of the sharpening process. Further, since the processing load required for the sharpening process is reduced, the sharpening process can be realized with a relatively inexpensive chip. This can reduce the product cost.

S105では、S104で取得した鮮鋭化フィルタのゲイン情報を、ゲイン情報取得部104cが取得する。ゲイン情報とは、鮮鋭化フィルタのゲインまたはゲインと同等に扱うことのできるデータに関する情報である。ゲイン情報としては、鮮鋭化フィルタの特定の周波数におけるゲインに関する情報であっても良いし、鮮鋭化フィルタのゲインを周波数に対して平均した値に関する情報であっても良い。   In S105, the gain information acquisition unit 104c acquires the gain information of the sharpening filter acquired in S104. The gain information is information on data that can be handled in the same manner as the gain of the sharpening filter. The gain information may be information on the gain at a specific frequency of the sharpening filter, or information on a value obtained by averaging the gains of the sharpening filter with respect to the frequency.

前述のように、本実施例では実空間における鮮鋭化フィルタの成分からゲイン情報を取得する。実空間の鮮鋭化フィルタからゲイン情報を取得するための方法として、パーセバルの等式を用いる方法がある。   As described above, in the present embodiment, gain information is acquired from the components of the sharpening filter in the real space. As a method for acquiring gain information from a real space sharpening filter, there is a method using Perceval's equation.

実空間における鮮鋭化フィルタをk(x,y)、k(x,y)のフーリエ変換をK(fx,fy)、k(x,y)のx方向のタップ数をNx、y方向のタップ数をNyとすると、以下のパーセバルの等式が成立する。   Sharpening filter in real space k (x, y), Fourier transform of k (x, y) K (fx, fy), tap number of k (x, y) in x direction Nx, tap in y direction Assuming that the number is Ny, the following Parseval equation holds.

すなわち、実空間における鮮鋭化フィルタの成分の二乗和を計算することで、フーリエ変換せずにゲインの周波数成分に対する二乗和の平均が算出できる。つまり、鮮鋭化フィルタのゲインの周波数に対する平均値が算出できる。   That is, by calculating the sum of squares of the components of the sharpening filter in the real space, it is possible to calculate the average of the sum of squares for the frequency components of the gain without performing Fourier transform. That is, an average value for the frequency of the gain of the sharpening filter can be calculated.

また、実空間における鮮鋭化フィルタの成分からゲイン情報を取得するための他の方法としては、以下の式(12)に示すように、実空間の鮮鋭化フィルタの成分と特定の周波数成分の積の和をとる方法がある。この場合、鮮鋭化フィルタの特定の周波数におけるゲインの値のみを算出することができる。   Also, as another method for acquiring gain information from the component of the sharpening filter in the real space, as shown in the following equation (12), the product of the component of the real space sharpening filter and a specific frequency component There is a way to take the sum of In this case, it is possible to calculate only the value of the gain at a specific frequency of the sharpening filter.


式(12)で取得できるゲインは、図6に示したゲイン特性における特定の周波数に対するゲインである。特定の周波数に対するゲインのみを算出することで2次元フーリエ変換をするよりも処理負荷を抑えてゲイン情報を取得できる。特定の周波数成分に相当する式(12)内の「exp」の部分の値は予め記憶部108に記憶させておけば良い。   The gain that can be obtained by equation (12) is the gain for a specific frequency in the gain characteristics shown in FIG. By calculating only the gain for a specific frequency, the processing load can be suppressed and gain information can be acquired rather than performing two-dimensional Fourier transform. The value of the “exp” portion in the equation (12) corresponding to the specific frequency component may be stored in the storage unit 108 in advance.

こうすることで、2次元のフーリエ変換を行うことなく周波数空間上のゲインに関する情報を取得できる。なお、式(11)や式(12)と同等の結果が得られる他の式を用いた計算によってゲインを取得しても良い。   By doing this, it is possible to obtain information on the gain in the frequency space without performing two-dimensional Fourier transform. The gain may be obtained by calculation using another equation that can obtain the same result as equation (11) or equation (12).

なお、入力画像の撮影条件におけるゲイン情報として、入力画像の撮影条件とは異なる撮影条件における値を用いたり、入力画像の撮影条件とは異なる撮影条件における値から補間したりすると、十分な精度のゲイン情報が得られない場合がある。一方、本実施例では鮮鋭化フィルタから直接ゲイン情報を取得しているため、ゲイン情報を撮影条件に関して補間する必要がない。したがって、高精度にゲイン情報を取得することができる。   In addition, when using values in shooting conditions different from the shooting conditions of the input image as gain information in the shooting conditions of the input image, or interpolating from values in the shooting conditions different from the shooting conditions of the input image, sufficient accuracy is obtained. There are cases where gain information can not be obtained. On the other hand, in the present embodiment, since gain information is obtained directly from the sharpening filter, it is not necessary to interpolate the gain information with respect to the imaging conditions. Therefore, gain information can be acquired with high accuracy.

本実施例において、ゲイン情報取得部104cはS104で取得した各鮮鋭化フィルタのゲイン情報を、各鮮鋭化フィルタの成分に基づいて取得するが、本発明はこれに限定されない。すなわち、入力画像の各画面位置に対して適用される全ての鮮鋭化フィルタについて、各鮮鋭化フィルタの成分からゲイン情報を取得する必要はない。例えば、特定の位置(第1の位置)に対する鮮鋭化フィルタ(第1の鮮鋭化フィルタ)の成分を用いて取得されたゲイン情報(第1のゲイン情報)を用いて、他の位置(第2の位置)に対する鮮鋭化処理を行っても良い。   In the present embodiment, the gain information acquisition unit 104c acquires the gain information of each sharpening filter acquired in S104 based on the components of each sharpening filter, but the present invention is not limited to this. That is, for all the sharpening filters applied to each screen position of the input image, it is not necessary to acquire gain information from the components of each sharpening filter. For example, using gain information (first gain information) acquired using a component of the sharpening filter (first sharpening filter) for a specific position (first position), another position (second Sharpening processing for the position of

具体的には、入力画像の一部の画面位置に適用される鮮鋭化フィルタについてのみ鮮鋭化フィルタの成分に基づいてゲイン情報を取得し、その他の画面位置におけるゲイン情報は、周辺の画面位置におけるゲイン情報から補間することによって取得してもよい。これによりゲイン情報を取得する際の処理負荷を軽減できる。この場合、入力画像内の画面位置に対しての補間は行われるものの撮影条件に対しての補間は行われないため、処理負荷を軽減しつつ十分精度のよいゲイン情報を取得することができる。   Specifically, gain information is acquired based on the component of the sharpening filter only for the sharpening filter applied to the partial screen position of the input image, and the gain information at the other screen positions is the peripheral screen position. You may acquire by interpolating from gain information. Thereby, the processing load at the time of acquiring gain information can be reduced. In this case, although interpolation with respect to the screen position in the input image is performed, interpolation with respect to the imaging conditions is not performed, so it is possible to obtain sufficiently accurate gain information while reducing the processing load.

S106では、S102で取得したノイズ情報と、S105で取得したゲイン情報から鮮鋭化処理における加重加算率(出力画像における入力画像の割合)を決定する。図9を用いて、加重加算率の決定方法の一例について説明する。   In S106, the weighted addition rate (proportion of the input image in the output image) in the sharpening process is determined from the noise information acquired in S102 and the gain information acquired in S105. An example of the method of determining the weighted addition rate will be described with reference to FIG.

図9は所定のISO感度におけるゲイン情報に対する加重加算率を示す図である。図9において、ゲイン情報がaより小さい場合には加重加算率を0%としている。すなわち、ゲイン情報がaより小さい場合、鮮鋭化フィルタを用いた補正後の画像(式(6)におけるg(x、y))がそのまま出力画像となる。   FIG. 9 is a view showing a weighted addition rate to gain information at a predetermined ISO sensitivity. In FIG. 9, when the gain information is smaller than a, the weighted addition rate is 0%. That is, when the gain information is smaller than a, the image after correction using the sharpening filter (g (x, y) in Expression (6)) becomes the output image as it is.

また、図9において、ゲイン情報がbより大きい場合には加重加算率を80%としている。すなわち、入力画像が8割、補正後の画像が2割の割合で加重平均された画像が出力画像となる。これは補正後の画像と補正前の画像との差分のうち2割を補正前の画像に加えることと等価であり、そのように演算してもよい。すなわち、式(6)における調整係数mの値を調節しても良い。   Further, in FIG. 9, when the gain information is larger than b, the weighted addition rate is 80%. That is, an image obtained by weighted averaging at a ratio of 80% for the input image and 20% for the image after correction is the output image. This is equivalent to adding 20% of the difference between the image after correction and the image before correction to the image before correction, and such calculation may be performed. That is, the value of the adjustment coefficient m in equation (6) may be adjusted.

このようにゲイン情報およびノイズ情報に基づいて加重加算率を決定して鮮鋭化処理を行うことで、ゲインが大きくなるような場合には補正前の入力画像の信号を多くすることができる。換言すると、ゲイン情報およびノイズ情報に基づいて、ノイズ増幅の影響が大きくなると考えられる場合には鮮鋭化処理による鮮鋭化度合いを弱めることができる。結果として、鮮鋭化処理によるノイズの増幅を、簡易な処理によって軽減することができる。   As described above, by performing the sharpening process by determining the weighted addition rate based on the gain information and the noise information, the signal of the input image before the correction can be increased when the gain becomes large. In other words, the degree of sharpening by the sharpening process can be weakened based on the gain information and the noise information when the influence of noise amplification is considered to be large. As a result, amplification of noise by the sharpening process can be reduced by a simple process.

なお、図9に示すようなゲイン情報と加重加算率の関係は、ノイズ情報と紐づけて記憶部108に記憶させていれば良い。例えば、ノイズ情報がISO感度である場合、ISO感度として取りうる値毎にゲイン情報と加重加算率の関係をテーブルデータとして記憶させれば良い。また、代表的なISO感度の値におけるaの値とa−b間の傾きを記憶させておき、記憶されていないISO感度におけるゲイン情報と加重加算率の関係は記憶された関係から算出するようにしても良い。   The relationship between the gain information and the weighted addition rate as shown in FIG. 9 may be stored in the storage unit 108 in association with the noise information. For example, when the noise information has ISO sensitivity, the relationship between the gain information and the weighted addition rate may be stored as table data for each value that can be taken as the ISO sensitivity. In addition, the values of a in typical ISO values and the inclination between a and b are stored, and the relationship between gain information and weight addition rate in unstored ISO sensitivity is calculated from the stored relationship. You may

S107では、画像処理部104が、ステップ104で取得された鮮鋭化フィルタを用いて入力画像の鮮鋭化処理を実行する。すなわち、入力画像に鮮鋭化フィルタを畳み込むことで入力画像を鮮鋭化する。   In step S107, the image processing unit 104 executes the sharpening processing of the input image using the sharpening filter acquired in step S104. That is, the input image is sharpened by convolving the sharpening filter with the input image.

なお、本実施例では、ゲイン情報およびノイズ情報に基づいて加重加算率(または調整係数m)を決定して出力画像を出力しているが、本発明はこれに限定されない。S106、S107における処理は、鮮鋭化処理によるノイズの増幅をゲイン情報およびノイズ情報に基づいて軽減するような処理であれば良い。   In the present embodiment, the weighted addition rate (or the adjustment coefficient m) is determined based on the gain information and the noise information to output the output image, but the present invention is not limited to this. The processing in S106 and S107 may be processing which reduces amplification of noise by the sharpening processing based on gain information and noise information.

[実施例2]
次に、実施例2の鮮鋭化処理について説明する。
Example 2
Next, the sharpening process of the second embodiment will be described.

実施例1では、取得した鮮鋭化フィルタのゲイン情報を取得して、同じ鮮鋭化フィルタを用いて鮮鋭化処理を実行した。これにより、鮮鋭化処理を行うフィルタに対して正確にゲイン情報を取得できる。一方、本実施例では、特定の位置(第1の位置)に対する鮮鋭化フィルタ(第1の鮮鋭化フィルタ)の成分を用いて取得されたゲイン情報(第1のゲイン情報)を用いて、他の位置(第2の位置)に対する鮮鋭化フィルタ(第2の鮮鋭化フィルタ)を取得する。そして、第2の鮮鋭化フィルタを用いて第2の位置に対する鮮鋭化処理を行う。これによって、より簡易にゲイン情報を見積もることができ、鮮鋭化処理の処理負荷をさらに低減することができる。   In the first embodiment, gain information of the acquired sharpening filter is acquired, and the sharpening process is performed using the same sharpening filter. Thereby, gain information can be accurately acquired for the filter that performs the sharpening process. On the other hand, in this embodiment, the gain information (first gain information) acquired using the component of the sharpening filter (first sharpening filter) for a specific position (first position) is used to Acquire a sharpening filter (second sharpening filter) for the position (second position) of Then, the second sharpening processing is performed using the second sharpening filter. As a result, the gain information can be estimated more easily, and the processing load of the sharpening process can be further reduced.

本実施例におけるゲイン情報の取得方法の説明に先立ち、本実施例における鮮鋭化フィルタの取得について、図10を用いて説明する。   Prior to the description of the method of acquiring gain information in the present embodiment, acquisition of the sharpening filter in the present embodiment will be described with reference to FIG.

図10(a)に、鮮鋭化フィルタが生成される入力画像上の位置を示す。図10(a)における白丸は、鮮鋭化フィルタが生成される入力画像上の位置を表している。本実施例では、入力画像上の離散的な81か所の位置に対して光学系101の光学特性に基づいて鮮鋭化フィルタを生成する。これらの生成された鮮鋭化フィルタに対して線形補間等を行うことにより、入力画像上の任意の位置の鮮鋭化フィルタを生成することができる。これにより、鮮鋭化フィルタを生成する処理負荷を低減させつつ、入力画像上の任意の位置に対して適切な鮮鋭化フィルタを適用することが可能となる。   FIG. 10A shows the position on the input image at which the sharpening filter is generated. The white circles in FIG. 10 (a) represent the position on the input image at which the sharpening filter is generated. In this embodiment, a sharpening filter is generated based on the optical characteristics of the optical system 101 for discrete 81 positions on the input image. By performing linear interpolation or the like on these generated sharpening filters, it is possible to generate sharpening filters at arbitrary positions on the input image. This makes it possible to apply an appropriate sharpening filter to any position on the input image while reducing the processing load for generating the sharpening filter.

なお、図10(a)では鮮鋭化フィルタを生成する位置を9×9=81か所としているが、処理負荷をより軽減するためにさらに位置を減らしてもよいし、より補正精度を高めるために位置を増やしてもよい。   In FIG. 10A, the position to generate the sharpening filter is 9 × 9 = 81. However, the position may be further reduced to further reduce the processing load, and to further improve the correction accuracy. Position may be increased.

また、図10(a)の白丸の各点について直接光学特性を取得し、鮮鋭化フィルタを生成することもできるが、これらの光学特性や鮮鋭化フィルタも補間により生成してもよい。図10(b)にはその例を示しており、各位置における光学特性を補間により生成する場合を示している。   The optical characteristics can be obtained directly for each point of the white circle in FIG. 10A to generate a sharpening filter, but these optical characteristics or the sharpening filter may also be generated by interpolation. The example is shown in FIG. 10 (b), which shows the case where the optical characteristic at each position is generated by interpolation.

まず、図10(b)の黒丸の位置における光学特性を取得する。一般に光学系のPSFは光軸に対して回転対称となるため、光学特性も同様に光軸に対して回転対称となる。この特徴を利用して、図10(b)では像高(入力画像の中心からの距離)が異なる複数の位置(黒丸で示した10か所)における光学特性を取得し、これらを入力画像の中心に対して回転させながら各白丸に対応する位置の光学特性を補間により生成する。そして各位置での光学特性に基づいて各位置での鮮鋭化フィルタを取得する。これにより、白丸で示す各位置に対して光学特性を取得する必要がなくなるため処理負荷やデータ量を低減することができる。   First, the optical characteristic at the position of the black circle in FIG. 10B is acquired. In general, since the PSF of the optical system is rotationally symmetric with respect to the optical axis, the optical characteristics are also rotationally symmetric with respect to the optical axis. By using this feature, in FIG. 10 (b), optical characteristics at a plurality of positions (10 places indicated by black circles) having different image heights (distance from the center of the input image) are obtained, Optical characteristics at positions corresponding to each white circle are generated by interpolation while being rotated with respect to the center. Then, based on the optical characteristics at each position, a sharpening filter at each position is acquired. As a result, it is not necessary to acquire optical characteristics for each position indicated by a white circle, so that processing load and data amount can be reduced.

なお、ここでは10か所分の光学特性から81点分の光学特性を補間により取得したが、10点分の光学特性から先に鮮鋭化フィルタを取得して鮮鋭化フィルタを補間することで81点分の鮮鋭化フィルタを取得してもよい。   Here, although 81 points of optical characteristics are obtained by interpolation from optical characteristics of 10 places, a sharpening filter is first obtained from 10 points of optical characteristics to interpolate the sharpening filter 81 A sharpening filter for points may be acquired.

次に、本実施例におけるゲイン情報の取得方法について説明する。図10(b)において、各位置に対して正確にゲイン情報を取得するには、各位置での鮮鋭化フィルタに基づいてゲイン情報を算出する必要がある。これに対して、図10(b)の黒丸における光学特性に対応する鮮鋭化フィルタを取得し、その鮮鋭化フィルタからゲイン情報を算出すれば、各像高におけるゲイン情報を取得することができる。すなわち、像高に対するゲイン情報の変化を取得することができる。   Next, a method of acquiring gain information in the present embodiment will be described. In FIG. 10 (b), in order to obtain gain information accurately for each position, it is necessary to calculate the gain information based on the sharpening filter at each position. On the other hand, gain information at each image height can be obtained by obtaining a sharpening filter corresponding to the optical characteristic of the black circle in FIG. 10B and calculating gain information from the sharpening filter. That is, it is possible to acquire the change in gain information with respect to the image height.

このように算出した各情報のゲイン情報を用いることで、図10(b)における各白丸に対応する位置において生成される鮮鋭化フィルタのゲイン情報を見積もることができる。本実施例では、各像高のゲイン情報を用いて、図10(b)における各白丸に対応する位置において生成される各鮮鋭化フィルタのゲインを調節することで、入力画像の各位置において適切な度合いで鮮鋭化処理が行われるようにしている。これによって、処理負荷を低減させつつ鮮鋭化に伴うノイズの増幅を抑制させている。   By using the gain information of each information calculated in this manner, it is possible to estimate the gain information of the sharpening filter generated at the position corresponding to each white circle in FIG. In this embodiment, the gain information of each image height is used to adjust the gain of each sharpening filter generated at the position corresponding to each white circle in FIG. Sharpening processing is performed with a certain degree. This suppresses the amplification of noise accompanying sharpening while reducing the processing load.

すなわち、実施例1では生成された各鮮鋭化フィルタに対してゲイン情報を算出していたが、本実施例では各像高に対するゲイン情報を取得し、各像高のゲイン情報を用いて入力画像の各位置に対する鮮鋭化フィルタを取得している点で実施例1と異なる。   That is, although the gain information is calculated for each sharpening filter generated in the first embodiment, the gain information for each image height is acquired in the present embodiment, and the input image is obtained using the gain information for each image height. The second embodiment differs from the first embodiment in that a sharpening filter for each position is acquired.

図10(b)の各白丸に対応する位置において生成された各鮮鋭化フィルタに対してゲイン情報を取得する場合には、81か所分のゲイン情報を式(11)や式(12)等に基づいて算出する必要がある。一方、本実施例によれば図10(b)の黒丸で示した10か所のみに対して式(11)や式(12)等に基づいてゲイン情報を算出すれば良いので、ゲイン情報を算出するための処理負荷をさらに低減させることができる。   When gain information is to be acquired for each sharpening filter generated at the position corresponding to each white circle in FIG. 10B, the gain information for 81 points is given by equation (11), equation (12), etc. It is necessary to calculate based on On the other hand, according to the present embodiment, it is sufficient to calculate the gain information based on the equation (11) or the equation (12) for only the ten places indicated by the black circles in FIG. The processing load to calculate can be further reduced.

図11は、実施例2における鮮鋭化処理のフローチャートである。図11のフローチャートは、画像処理部104の指令に基づいて実行される。   FIG. 11 is a flowchart of the sharpening process in the second embodiment. The flowchart in FIG. 11 is executed based on an instruction from the image processing unit 104.

S201〜S203はS101〜S103と同様のため説明を省略する。   Since S201 to S203 are the same as S101 to S103, the description will be omitted.

S204では、鮮鋭化フィルタ取得部104bが、図10(b)に黒丸で示した位置における光学特性(PSF)に基づいて、各黒丸の位置における鮮鋭化フィルタ(第1の鮮鋭化フィルタ)を取得する。   In S204, the sharpening filter acquisition unit 104b acquires a sharpening filter (first sharpening filter) at each black circle position based on the optical characteristic (PSF) at the position indicated by the black circle in FIG. 10B. Do.

S205では、実施例1と同様にして、各第1の鮮鋭化フィルタからゲイン情報を取得することで各像高のゲイン情報を取得する。   In step S205, as in the first embodiment, gain information of each image height is acquired by acquiring gain information from each first sharpening filter.

S206では、鮮鋭化フィルタ取得部104bが、各像高のゲイン情報、図10(a)に黒丸で示した位置におけるPSF、ノイズ情報に基づいて、各白丸の位置における鮮鋭化フィルタ(第2の鮮鋭化フィルタ)を取得する。このとき、鮮鋭化フィルタ取得部104bは、各像高のゲイン情報およびノイズ情報に基づいて、第2の鮮鋭化フィルタのゲインが所望の値になるように第2の鮮鋭化フィルタを生成する。具体的には、式(6)における調整係数mを調節することで各第2の鮮鋭化フィルタのゲインを調節する。   In S206, the sharpening filter acquisition unit 104b performs the sharpening filter (second filter) at the position of each white circle based on the gain information of each image height, the PSF at the position indicated by the black circle in FIG. Acquire the sharpening filter). At this time, the sharpening filter acquisition unit 104b generates a second sharpening filter based on the gain information and noise information of each image height so that the gain of the second sharpening filter becomes a desired value. Specifically, the gain of each second sharpening filter is adjusted by adjusting the adjustment coefficient m in Equation (6).

なお、S206で取得される第2の鮮鋭化フィルタは、各像高におけるゲイン情報およびノイズ情報に基づいてゲインが調節されていれば良い。このため、第2の鮮鋭化フィルタは種々の方法で取得することができる。例えば、黒丸で示した位置におけるPSFから白丸におけるPSFを取得し、白丸で示した位置におけるPSFと、各像高に対するゲイン情報およびノイズ情報に基づいて第2の鮮鋭化フィルタを生成しても良い。この場合、調整係数mは、各白丸の位置に対して生成される第2の鮮鋭化フィルタのそれぞれに対して決定される。   The gain of the second sharpening filter acquired in S206 may be adjusted based on the gain information and noise information at each image height. For this reason, the second sharpening filter can be obtained by various methods. For example, a PSF at a position indicated by a black circle may be obtained from PSF at a position indicated by a black circle, and a second sharpening filter may be generated based on the PSF at a position indicated by a white circle and gain information and noise information for each image height. . In this case, the adjustment factor m is determined for each of the second sharpening filters generated for each white circle position.

また、黒丸で示した位置におけるPSFと、各像高に対するゲイン情報およびノイズ情報に基づいて、黒丸で示した各位置に対して調整係数mを決定し、黒丸で示した各位置に対してゲインが調節された鮮鋭化フィルタを生成する。このゲインが調節された鮮鋭化フィルタを入力画像の中心に対して回転させ、補間することで各白丸の位置における第2の鮮鋭化フィルタを生成しても良い。この場合、各黒丸の位置に対して調整係数mを決定するのみで良い。   Also, based on the PSF at the position indicated by the black circle, and the gain information and noise information for each image height, the adjustment coefficient m is determined for each position indicated by the black circle, and the gain is determined for each position indicated by the black circle. Produces a sharpening filter with adjusted. The sharpening filter whose gain is adjusted may be rotated with respect to the center of the input image and interpolated to generate a second sharpening filter at each white circle position. In this case, it is only necessary to determine the adjustment coefficient m for each black circle position.

また、黒丸で示した位置におけるPSFと、各像高におけるゲイン情報およびノイズ情報に基づいて、黒丸で示した各位置に対して調整係数mを決定する。このようにして決定された各像高のmおよび黒丸で示した各位置におけるPSFを用いて、各黒丸で示した位置におけるmとPSF(式(6)のUSM(x,y)に相当する)の積を取得する。各黒丸で示した位置におけるmとPSFの積を入力画像の中心に対して回転させ、補間することで各白丸の位置におけるmとPSFを取得する。このように取得されたmとPSFの積を用いて第2の鮮鋭化フィルタを生成しても良い。この場合も、調整係数mは各黒丸の位置に対して決定するのみで良い。S207では、処理部104dが鮮鋭化処理を実行する。S207における鮮鋭化処理は、S206で取得された第2のフィルタを入力画像に対して畳み込むことで行われる。   Further, based on the PSF at the position indicated by the black circle and the gain information and the noise information at each image height, the adjustment coefficient m is determined for each position indicated by the black circle. Using the PSF at each position of m shown by each image height and the black circle determined in this way, m and PSF at the position shown by each black circle (corresponding to USM (x, y) in equation (6) Get the product of). The product of m and PSF at the position indicated by each black circle is rotated with respect to the center of the input image, and interpolation is performed to obtain m and PSF at each white circle position. The second sharpening filter may be generated using the product of m and PSF acquired in this manner. Also in this case, the adjustment coefficient m may only be determined for each black circle position. In step S207, the processing unit 104d executes a sharpening process. The sharpening process in step S207 is performed by convolving the second filter acquired in step S206 with the input image.

以上により、実施例1と比較してより簡易な処理によって、十分精度の良いゲイン情報を取得することができる。これによって、処理負荷をより低減させつつ鮮鋭化に伴うノイズの増幅を抑制させることができる。   As described above, it is possible to obtain sufficiently accurate gain information by simpler processing compared to the first embodiment. By this, it is possible to suppress amplification of noise accompanying sharpening while further reducing processing load.

なお、以上の各実施例では、鮮鋭化処理としてPSFを用いたアンシャープマスク処理を行うことについて述べたが、本発明はこれに限定されない。本実施形態における鮮鋭化処理は、光学系101の光学特性に基づいた鮮鋭化フィルタを用いた処理であれば良い。例えばPSFを用いないアンシャープマスク処理やエッジ強調処理であってもよい。また、ウィナーフィルタに代表される画像復元処理や、RL法に代表される反復処理型の画像復元処理であっても良い。   In each of the above embodiments, the unsharp mask processing using PSF is described as the sharpening processing, but the present invention is not limited to this. The sharpening process in the present embodiment may be a process using a sharpening filter based on the optical characteristics of the optical system 101. For example, unsharp mask processing or edge enhancement processing without using PSF may be used. Further, it may be an image restoration process represented by a Wiener filter, or an iterative process type image restoration process represented by an RL method.

なお、各実施例における鮮鋭化処理における各処理は単一の画像処理装置で行われる必要はない。例えば、各実施例における処理の一部または全部を実現するためのプログラムを、ネットワークまたは記録媒体を介して1または複数の装置からなるシステムに供給し、そのシステムあるいは装置にプログラムを実行させても良い。   Note that each processing in the sharpening processing in each embodiment does not have to be performed by a single image processing apparatus. For example, a program for realizing part or all of the processing in each embodiment may be supplied to a system consisting of one or more devices via a network or a recording medium, and the system or device may execute the program. good.

以上、本発明の好ましい実施形態及び実施例について説明したが、本発明はこれらの実施形態及び実施例に限定されず、その要旨の範囲内で種々の組合せ、変形及び変更が可能である。   Although the preferred embodiments and examples of the present invention have been described above, the present invention is not limited to these embodiments and examples, and various combinations, modifications, and changes are possible within the scope of the present invention.

104 画像処理部(画像処理装置)
104a 撮影条件取得部(第1の取得手段)
104b 鮮鋭化フィルタ取得部(第2の取得手段)
104c ゲイン情報取得部(第3の取得手段)
104 Image processing unit (image processing apparatus)
104a Shooting condition acquisition unit (first acquisition unit)
104 b Sharpening filter acquisition unit (second acquisition unit)
104c Gain Information Acquisition Unit (Third Acquisition Means)

Claims (19)

光学系を用いた撮影により生成された入力画像におけるノイズ特性に関するノイズ情報を取得する第1の取得手段と、
前記光学系の光学特性に基づいた実空間における鮮鋭化フィルタを取得する第2の取得手段と、
前記鮮鋭化フィルタの成分の二乗和に基づいて前記鮮鋭化フィルタのゲインに関するゲイン情報を取得する第3の取得手段と、を有し、
前記入力画像に対して、前記ノイズ情報と、前記ゲイン情報に基づいて鮮鋭化処理を行うことを特徴とする画像処理装置。
First acquisition means for acquiring noise information on noise characteristics in an input image generated by photographing using an optical system;
A second acquisition unit for acquiring a sharpening filter in real space based on the optical characteristics of the optical system;
And third acquisition means for acquiring gain information on a gain of the sharpening filter based on a square sum of components of the sharpening filter,
An image processing apparatus characterized by performing sharpening processing on the input image based on the noise information and the gain information.
光学系を用いた撮影により生成された入力画像におけるノイズ特性に関するノイズ情報を取得する第1の取得手段と、
前記光学系の光学特性に基づいた実空間における鮮鋭化フィルタを取得する第2の取得手段と、
前記鮮鋭化フィルタの成分に基づいて、特定の周波数における前記鮮鋭化フィルタのゲインに関するゲイン情報を取得する第3の取得手段と、を有し、
前記入力画像に対して、前記ノイズ情報と、前記ゲイン情報に基づいて鮮鋭化処理を行うことを特徴とする画像処理装置。
First acquisition means for acquiring noise information on noise characteristics in an input image generated by photographing using an optical system;
A second acquisition unit for acquiring a sharpening filter in real space based on the optical characteristics of the optical system;
And third acquisition means for acquiring gain information on the gain of the sharpening filter at a specific frequency based on the component of the sharpening filter,
An image processing apparatus characterized by performing sharpening processing on the input image based on the noise information and the gain information.
前記光学特性は、前記入力画像の撮影時の撮影条件における光学特性であることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the optical characteristic is an optical characteristic under a photographing condition at the time of photographing the input image. 前記光学特性は前記光学系の点像強度分布であることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 3, wherein the optical characteristic is a point image intensity distribution of the optical system. 前記ノイズ情報は、ISO感度であることを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 4, wherein the noise information is an ISO sensitivity. 前記鮮鋭化処理はアンシャープマスク処理であることを特徴とすることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 5, wherein the sharpening process is an unsharp mask process. 前記鮮鋭化フィルタは2次元フィルタであり、
前記鮮鋭化フィルタの成分は回転非対称に分布していることを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
The sharpening filter is a two-dimensional filter,
The image processing apparatus according to any one of claims 1 to 6, wherein the components of the sharpening filter are distributed rotationally asymmetrically.
前記第2の取得手段は、前記入力画像における複数の位置のそれぞれに対して、それぞれ異なる鮮鋭化フィルタを取得することを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 7, wherein the second acquisition unit acquires different sharpening filters for each of a plurality of positions in the input image. . 前記第3の取得手段は、前記第2の取得手段によって取得された各鮮鋭化フィルタのそれぞれに対して、それぞれの鮮鋭化フィルタの成分に基づいてゲイン情報を取得することを特徴とする請求項8に記載の画像処理装置。   The third acquisition means is characterized in that gain information is acquired for each of the sharpening filters acquired by the second acquisition means based on the components of the respective sharpening filters. 8. The image processing apparatus according to 8. 前記鮮鋭化処理は、前記入力画像と、前記鮮鋭化フィルタを用いて前記入力画像を補正した画像を、前記ノイズ情報と前記ゲイン情報に基づいて定められる割合で足し合わせることによって行われることを特徴とする請求項9に記載の画像処理装置。   The sharpening process is performed by adding the input image and an image obtained by correcting the input image using the sharpening filter at a ratio determined based on the noise information and the gain information. The image processing apparatus according to claim 9, wherein 前記第3の取得手段は、前記入力画像における第1の位置に対する鮮鋭化フィルタの成分を用いて第1のゲイン情報を取得し、
前記第1のゲイン情報および前記ノイズ情報を用いて、前記第1の位置とは異なる第2の位置に対する鮮鋭化処理を行うことを特徴とする請求項8に記載の画像処理装置。
The third acquisition unit acquires first gain information using a component of a sharpening filter for a first position in the input image;
9. The image processing apparatus according to claim 8, wherein a sharpening process is performed on a second position different from the first position using the first gain information and the noise information.
前記第2の取得手段は、前記第1のゲイン情報および前記ノイズ特性に基づいて前記第2の位置に対する鮮鋭化フィルタを取得し、
前記第2の位置に対する鮮鋭化処理は、前記第2の位置に対する鮮鋭化フィルタを用いて行われることを特徴とする請求項11に記載の画像処理装置。
The second acquisition unit acquires a sharpening filter for the second position based on the first gain information and the noise characteristic,
12. The image processing apparatus according to claim 11, wherein the sharpening processing for the second position is performed using a sharpening filter for the second position.
前記第3の取得手段は、前記入力画像内の像高の異なる複数の位置のそれぞれに対する第1の鮮鋭化フィルタの成分を用いて、前記入力画像の各像高におけるゲイン情報を取得し、
前記入力画像に対して、前記各像高におけるゲイン情報および前記ノイズ情報を用いて鮮鋭化処理を行うことを特徴とする請求項8に記載の画像処理装置。
The third acquisition means acquires gain information at each image height of the input image using components of a first sharpening filter for each of a plurality of positions of different image heights in the input image;
9. The image processing apparatus according to claim 8, wherein the sharpening process is performed on the input image using gain information and the noise information at each of the image heights.
前記第2の取得手段は、前記各像高におけるゲイン情報および前記ノイズ特性に基づいて前記入力画像における複数の位置のそれぞれに対する第2の鮮鋭化フィルタを取得し、
前記鮮鋭化処理は、前記第2の鮮鋭化フィルタを用いて行われることを特徴とする請求項13に記載の画像処理装置。
The second acquisition unit acquires a second sharpening filter for each of a plurality of positions in the input image based on the gain information at each of the image heights and the noise characteristic.
The image processing apparatus according to claim 13, wherein the sharpening process is performed using the second sharpening filter.
光学系によって形成された像を光電変換する撮像素子と、請求項1乃至14のいずれか1項に記載の画像処理装置を有することを特徴とする撮像装置。   An image pickup apparatus comprising: an image pickup element for photoelectrically converting an image formed by an optical system; and the image processing apparatus according to any one of claims 1 to 14. 光学系を用いた撮影により生成された入力画像におけるノイズ特性に関するノイズ情報を取得する第1のステップと、
前記光学系の光学特性に基づいた実空間における鮮鋭化フィルタを取得する第2のステップと、
前記鮮鋭化フィルタの成分の二乗和に基づいて前記鮮鋭化フィルタのゲイン情報を取得する第3のステップと、
前記入力画像に対して、前記ノイズ情報と、前記ゲイン情報に基づいて鮮鋭化処理を行う第4のステップと、
を含むことを特徴とする画像処理方法。
A first step of acquiring noise information on noise characteristics in an input image generated by photographing using an optical system;
A second step of acquiring a sharpening filter in real space based on the optical characteristics of the optical system;
A third step of acquiring gain information of the sharpening filter based on a sum of squares of components of the sharpening filter;
A fourth step of performing a sharpening process on the input image based on the noise information and the gain information;
An image processing method comprising:
光学系を用いた撮影により生成された入力画像におけるノイズ特性に関するノイズ情報を取得する第1のステップと、
前記光学系の光学特性に基づいた実空間における鮮鋭化フィルタを取得する第2のステップと、
前記鮮鋭化フィルタの成分に基づいて、特定の周波数における前記鮮鋭化フィルタのゲイン情報を取得する第3のステップと、
前記入力画像に対して、前記ノイズ情報と、前記ゲイン情報に基づいて鮮鋭化処理を行う第4のステップと、
を含むことを特徴とする画像処理方法。
A first step of acquiring noise information on noise characteristics in an input image generated by photographing using an optical system;
A second step of acquiring a sharpening filter in real space based on the optical characteristics of the optical system;
A third step of acquiring gain information of the sharpening filter at a specific frequency based on a component of the sharpening filter;
A fourth step of performing a sharpening process on the input image based on the noise information and the gain information;
An image processing method comprising:
請求項16または17に記載の画像処理方法をコンピュータに実行させるための画像処理プログラム。   An image processing program for causing a computer to execute the image processing method according to claim 16 or 17. コンピュータで読み取り可能であって、請求項18に記載の画像処理プログラムが記録された記録媒体。   A computer-readable recording medium on which the image processing program according to claim 18 is recorded.
JP2017213823A 2017-11-06 2017-11-06 Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium Active JP6605009B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017213823A JP6605009B2 (en) 2017-11-06 2017-11-06 Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium
US16/180,263 US11120529B2 (en) 2017-11-06 2018-11-05 Image processing apparatus, imaging apparatus, lens apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017213823A JP6605009B2 (en) 2017-11-06 2017-11-06 Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium

Publications (2)

Publication Number Publication Date
JP2019087851A true JP2019087851A (en) 2019-06-06
JP6605009B2 JP6605009B2 (en) 2019-11-13

Family

ID=66763432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017213823A Active JP6605009B2 (en) 2017-11-06 2017-11-06 Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP6605009B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081431A (en) * 2014-10-21 2016-05-16 キヤノン株式会社 Image processing method, image processor, imaging device and image processing program
JP2016218685A (en) * 2015-05-19 2016-12-22 キヤノン株式会社 Image processing device, image-capturing device, image processing method, and image processing program
JP2017103617A (en) * 2015-12-02 2017-06-08 キヤノン株式会社 Image processing apparatus, imaging device, image processing program
JP2017163282A (en) * 2016-03-08 2017-09-14 キヤノン株式会社 Image processing apparatus, optical apparatus, image processing method, image processing program, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081431A (en) * 2014-10-21 2016-05-16 キヤノン株式会社 Image processing method, image processor, imaging device and image processing program
JP2016218685A (en) * 2015-05-19 2016-12-22 キヤノン株式会社 Image processing device, image-capturing device, image processing method, and image processing program
JP2017103617A (en) * 2015-12-02 2017-06-08 キヤノン株式会社 Image processing apparatus, imaging device, image processing program
JP2017163282A (en) * 2016-03-08 2017-09-14 キヤノン株式会社 Image processing apparatus, optical apparatus, image processing method, image processing program, and recording medium

Also Published As

Publication number Publication date
JP6605009B2 (en) 2019-11-13

Similar Documents

Publication Publication Date Title
US8830351B2 (en) Image processing method and image processing apparatus for image restoration to reduce a detected color shift
US8798389B2 (en) Image processing method, image processing apparatus, and image pickup apparatus for correcting degradation component of image
US9167168B2 (en) Image processing method, image processing apparatus, non-transitory computer-readable medium, and image-pickup apparatus
JP6071974B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
EP2536126B1 (en) Image processing apparatus, image processing method, and program
US10062153B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and storage medium
JP2013172213A (en) Image processing device, image pickup device, and image processing method and program
JP6234623B2 (en) Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program
JP6594101B2 (en) Image processing apparatus, image processing method, and image processing program
CN111988517B (en) Image processing apparatus, lens apparatus, and image processing method
US10810714B2 (en) Image restoration processing utilizing settings for image correction
JP6071966B2 (en) Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program
JP6929141B2 (en) Image processing equipment, imaging equipment, image processing methods, programs, and storage media
JP6562650B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
US10013742B2 (en) Image processing apparatus, optical apparatus, image processing method, and non-transitory computer-readable storage medium
JP6605009B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium
JP7207893B2 (en) Imaging device, lens device
JP7101539B2 (en) Image processing equipment, image processing methods, and programs
JP6559011B2 (en) Image processing apparatus and image processing method
US11120529B2 (en) Image processing apparatus, imaging apparatus, lens apparatus, image processing method, and recording medium
JP2015198380A (en) Image processing system, imaging apparatus, image processing program, and image processing method
JP2017041763A (en) Image processing system and image processing method
JP2017163491A (en) Information processing device, optical device, information processing method, information processing program, and recording medium
JP2022161527A (en) Image processing method, image processing apparatus, imaging device, and program
JP2017224906A (en) Image processing method, imaging apparatus using the same, image processing system, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191015

R151 Written notification of patent or utility model registration

Ref document number: 6605009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151