JP2021027565A - Image processing method, imaging apparatus employing the same, image processing device, and image processing program - Google Patents

Image processing method, imaging apparatus employing the same, image processing device, and image processing program Download PDF

Info

Publication number
JP2021027565A
JP2021027565A JP2019146913A JP2019146913A JP2021027565A JP 2021027565 A JP2021027565 A JP 2021027565A JP 2019146913 A JP2019146913 A JP 2019146913A JP 2019146913 A JP2019146913 A JP 2019146913A JP 2021027565 A JP2021027565 A JP 2021027565A
Authority
JP
Japan
Prior art keywords
image
optical system
image processing
psf
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019146913A
Other languages
Japanese (ja)
Inventor
崇 鬼木
Takashi Oniki
崇 鬼木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019146913A priority Critical patent/JP2021027565A/en
Publication of JP2021027565A publication Critical patent/JP2021027565A/en
Pending legal-status Critical Current

Links

Abstract

To provide an image processing method capable of executing highly accurate sharpening processing while reducing the quantity of information required for the sharpening processing.SOLUTION: An image processing method includes: an acquisition step of acquiring a captured image which is generated by imaging through an optical system, and information on a point image intensity distribution function corresponding to an imaging condition of the optical system; and a processing step of performing unsharp mask processing on the captured image using a filter which is generated based on the information on the point image intensity distribution function. An accessory optical system which changes optical characteristics is attachable to and detachable from the optical system, and the filter is generated from information on the accessory optical system and the information on the point image intensity distribution function at the time when the accessory optical system is not mounted.SELECTED DRAWING: Figure 1

Description

本発明は、画像の鮮鋭化処理に関する。 The present invention relates to an image sharpening process.

従来から、元画像にアンシャープマスクを適用してぼかした画像と元画像との差分を、元画像に加算あるいは減算することで画像を鮮鋭化するアンシャープマスク処理は知られている。ぼかした画像と入力画像の差分が大きいところほど画像はより鮮鋭化される。また、特許文献1には、像高方向に配列する画素信号列に対して非対称な1次元のフィルタを適用することで光学系の点像強度分布関数(PSF:Point Spread Function)の影響を低減する方法が開示されている。 Conventionally, an unsharp mask process for sharpening an image by adding or subtracting a difference between an image blurred by applying an unsharp mask to the original image and the original image to the original image has been known. The larger the difference between the blurred image and the input image, the sharper the image. Further, in Patent Document 1, the influence of the point image intensity distribution function (PSF: Point Spread Function) of the optical system is reduced by applying an asymmetric one-dimensional filter to the pixel signal sequences arranged in the image height direction. The method of doing so is disclosed.

特開2010−81263号公報JP-A-2010-81263

しかしながら、従来のアンシャープマスク処理は、アンシャープマスクに回転対称なフィルタを利用しており、非対称収差やサジタルハロのような複雑な形状を有するPSFの影響を受けて劣化した画像を鮮鋭化することは困難である。すなわち、収差の大きいアジムス方向における収差を補正しようとすると、収差の小さいアジムス方向ではアンダーシュートが発生する。逆に、アンダーシュートを抑制すると、収差を十分に補正することができない。 However, the conventional unsharp mask processing uses a rotationally symmetric filter for the unsharp mask, and sharpens the deteriorated image under the influence of PSF having a complicated shape such as asymmetric aberration and sagittal halo. It is difficult. That is, when trying to correct the aberration in the Azimus direction having a large aberration, an undershoot occurs in the Azimus direction having a small aberration. On the contrary, if the undershoot is suppressed, the aberration cannot be sufficiently corrected.

また、上記の特許文献1の方法は、像高方向への非対称性しか考慮しておらず、補正フィルタも1次元となっているため、像高方向以外の方向への非対称性を改善することができない。なお像高方向とはメリジオナルのアジムス方向である。また、フィルタに関しても、マイナスタップ係数の個数でフィルタの非対称性を調整しており、像高方向の補正についても光学系のPSFのぼけ方とは異なるため、従来手法では十分に鮮鋭化することができない。 Further, the above-mentioned method of Patent Document 1 considers only the asymmetry in the image height direction, and the correction filter is also one-dimensional, so that the asymmetry in the direction other than the image height direction should be improved. I can't. The image height direction is the meridional direction of Azimus. Also, regarding the filter, the asymmetry of the filter is adjusted by the number of minus tap coefficients, and the correction in the image height direction is also different from the blurring of the PSF of the optical system, so the conventional method should be sufficiently sharpened. I can't.

また、レンズの焦点距離を変更するために使用するコンバージョンレンズが知られている。コンバージョンレンズを着脱あるいは挿抜することで、撮像光学系のPSFが変化するため、より高精度に鮮鋭化処理を行うためにはコンバージョンレンズの有無に応じて適切なアンシャープマスクを適用する必要がある。 Also, conversion lenses used to change the focal length of the lens are known. Since the PSF of the imaging optical system changes by attaching / detaching or inserting / removing the conversion lens, it is necessary to apply an appropriate unsharp mask depending on the presence / absence of the conversion lens in order to perform sharpening processing with higher accuracy. ..

そこで本発明は、鮮鋭化処理に必要な情報量を低減しつつ、高精度な鮮鋭化処理が実行可能な画像処理装置、撮像装置、画像処理方法、および、画像処理プログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide an image processing device, an imaging device, an image processing method, and an image processing program capable of performing high-precision sharpening processing while reducing the amount of information required for sharpening processing. And.

上記の目的を達成するために、本発明に係る画像処理方法は、
光学系を介した撮像により生成された撮影画像、及び前記光学系の撮影条件に対応する点像強度分布関数の情報を取得する取得ステップと、前記点像強度分布関数の情報に基づいて生成されたフィルタを用いて前記撮影画像に対するアンシャープマスク処理を行う処理ステップと、を有し、前記光学系は光学特性を変更するアクセサリ光学系が着脱可能であり、前記アクセサリ光学系の情報と、前記アクセサリ光学系が未装着時の前記点像強度分布関数の情報から前記フィルタを生成することを特徴とする。
In order to achieve the above object, the image processing method according to the present invention is
It is generated based on the captured image generated by imaging through the optical system, the acquisition step of acquiring the information of the point image intensity distribution function corresponding to the imaging conditions of the optical system, and the information of the point image intensity distribution function. It has a processing step of performing unsharp mask processing on the captured image using the filter, and the optical system has an accessory optical system that changes the optical characteristics, and the accessory optical system can be attached and detached. It is characterized in that the filter is generated from the information of the point image intensity distribution function when the accessory optical system is not attached.

本発明によれば、鮮鋭化処理に必要な情報量を低減しつつ、高精度な鮮鋭化処理を実行することが可能な画像処理装置、撮像装置、画像処理方法、および、画像処理プログラムの提供を実現できる。 According to the present invention, there is provided an image processing device, an imaging device, an image processing method, and an image processing program capable of performing high-precision sharpening processing while reducing the amount of information required for sharpening processing. Can be realized.

実施例1、2、3における画像処理方法を示すフローチャートFlow chart showing the image processing method in Examples 1, 2 and 3. 実施例1、4における撮像装置のブロック図Block diagram of the image pickup apparatus in Examples 1 and 4. 各実施例におけるアンシャープマスク処理による鮮鋭化の模式図Schematic diagram of sharpening by unsharp mask processing in each example 各実施例におけるxy平面上の撮像光学系のPSFの模式図Schematic diagram of PSF of the imaging optical system on the xy plane in each embodiment 各実施例における回転対称なアンシャープマスクによる鮮鋭化処理の模式図Schematic diagram of sharpening treatment by rotationally symmetric unsharp mask in each example 各実施例における回転非対称なアンシャープマスクによる鮮鋭化処理の模式図Schematic diagram of sharpening treatment by rotationally asymmetrical unsharp mask in each example 各実施例におけるアンシャープマスクの模式図と概略断面図Schematic and schematic cross-sectional views of the unsharp mask in each embodiment 各実施例におけるベイヤー配列の模式図Schematic diagram of Bayer array in each example 実施例1における画像処理部のブロック図Block diagram of the image processing unit in the first embodiment 近似PSFの等高線図Contour map of approximate PSF 各実施例における係数の算出方法を示すフローチャートFlow chart showing the calculation method of the coefficient in each embodiment 各実施例における近似PSFと設計値を示す図The figure which shows the approximate PSF and the design value in each Example 点像強度分布関数の回転処理を説明するための図Diagram for explaining the rotation processing of the point image intensity distribution function 再構成された点像強度分布関数の断面図Sectional view of the reconstructed point image intensity distribution function 実施例2における撮像装置のブロック図Block diagram of the imaging device according to the second embodiment 実施例3における撮像装置のブロック図Block diagram of the imaging device according to the third embodiment 実施例4における画像処理方法を示すフローチャートFlow chart showing the image processing method in the fourth embodiment

以下、本発明を実施するための形態について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

[入力画像]
入力画像は、撮像装置において撮像光学系(以下、単に光学系という)を介して形成された被写体像(光学像)を光電変換した撮像素子からの出力を用いて生成されたデジタル画像(撮影画像)である。このデジタル画像は、レンズや光学フィルタ等の光学素子を含む光学系の収差を含む光学伝達関数(OTF)により劣化した画像である。撮像素子は、CMOSセンサやCCDセンサ等の光電変換素子により構成される。撮像光学系は、曲率を有するミラー(反射面)を含んでもよい。また、光学系は、撮像装置に対して着脱(交換)が可能であってもよい。撮像装置において、光学系、撮像素子および撮像素子の出力を用いてデジタル画像(入力画像)を生成する信号処理回路により撮像系が構成される。
[Input image]
The input image is a digital image (captured image) generated by using the output from the image sensor obtained by photoelectrically converting the subject image (optical image) formed through the image pickup optical system (hereinafter, simply referred to as an optical system) in the image pickup device. ). This digital image is an image deteriorated by an optical transfer function (OTF) including aberrations of an optical system including an optical element such as a lens or an optical filter. The image sensor is composed of a photoelectric conversion element such as a CMOS sensor or a CCD sensor. The imaging optical system may include a mirror (reflecting surface) having a curvature. Further, the optical system may be detachable (replaceable) with respect to the image pickup apparatus. In the image pickup apparatus, the image pickup system is configured by a signal processing circuit that generates a digital image (input image) using the optical system, the image pickup element, and the output of the image pickup element.

入力画像の色成分は、例えばRGB色成分の情報を有する。色成分の扱いとしては、これ以外にもLCHで表現される明度、色相および彩度や、YCbCrで表現される輝度および色差信号等、一般に用いられている色空間を選択して用いることができる。その他の色空間としては、例えば、XYZ、Lab、Yuv、JChを用いることが可能であり、さらに色温度を用いることも可能である。 The color component of the input image has, for example, information on the RGB color component. In addition to this, as the treatment of color components, a commonly used color space such as brightness, hue and saturation expressed by LCH, brightness and color difference signal expressed by YCbCr, etc. can be selected and used. .. As other color spaces, for example, XYZ, Lab, Yuv, and JCh can be used, and further, the color temperature can be used.

入力画像や出力画像には、入力画像を生成(撮像)した際の撮像装置における光学系の焦点距離、絞り値(F値)、撮像距離、像高等の撮影条件に関する情報(以下、撮影条件情報という)を付帯させることができる。また入力画像や出力画像には、入力画像を補正するための各種の補正情報を付帯させることもできる。撮像装置から、これとは別に設けられた画像処理装置に入力画像を出力し、この画像処理装置にて画像処理を行う場合には、入力画像に撮影条件情報や補正情報を付帯させることが好ましい。撮影条件情報や補正情報は、入力画像に付帯する以外に、撮像装置から画像処理装置に直接または間接的に通信により受け渡すこともできる。 The input image and output image include information on shooting conditions such as focal length, aperture value (F value), imaging distance, and image height of the optical system in the imaging device when the input image is generated (imaging) (hereinafter, shooting condition information). ) Can be attached. Further, various correction information for correcting the input image can be attached to the input image and the output image. When an input image is output from the image pickup device to an image processing device provided separately from the image pickup device and image processing is performed by this image processing device, it is preferable to attach shooting condition information and correction information to the input image. .. In addition to being incidental to the input image, the shooting condition information and the correction information can be directly or indirectly passed from the image pickup apparatus to the image processing apparatus by communication.

[画像鮮鋭化処理]
図3は、本実施形態のアンシャープマスク処理(画像鮮鋭化処理)による鮮鋭化の模式図である。図3(A)において、実線は入力画像、破線は入力画像をアンシャープマスクでぼかした画像、点線は鮮鋭化後の画像をそれぞれ示している。図3(B)の実線は、補正成分を示している。図3(A)、(B)のそれぞれにおいて、横軸は座標、縦軸は画素値または輝度値である。図3は、後述する図4の所定の方向(例えば、X方向)における断面に相当する。
[Image sharpening process]
FIG. 3 is a schematic view of sharpening by the unsharp mask processing (image sharpening processing) of the present embodiment. In FIG. 3A, the solid line shows the input image, the broken line shows the image obtained by blurring the input image with an unsharp mask, and the dotted line shows the sharpened image. The solid line in FIG. 3B shows the correction component. In each of FIGS. 3A and 3B, the horizontal axis is the coordinates and the vertical axis is the pixel value or the luminance value. FIG. 3 corresponds to a cross section in a predetermined direction (for example, the X direction) of FIG. 4 described later.

元画像をf(x,y)、補正成分をh(x,y)とすると、鮮鋭化後の画像g(x,y)は以下の式(1)で表すことができる。
g(x,y)=f(x,y)+m×h(x,y)・・・(1)
式(1)において、mは補正の強さを変化させるための調整係数であり、調整係数mの値を変化させることにより、補正量を調整することができる。なお、調整係数mは入力画像の位置によらず一定の定数であっても良いし、入力画像の位置に応じて異ならせることにより入力画像の位置に応じて補正量を調整することもできる。また、調整係数m(x,y)は、光学系の焦点距離、絞り値、または撮影距離などの撮影条件に応じて異ならせることもできる。
Assuming that the original image is f (x, y) and the correction component is h (x, y), the sharpened image g (x, y) can be represented by the following equation (1).
g (x, y) = f (x, y) + m × h (x, y) ... (1)
In the formula (1), m is an adjustment coefficient for changing the strength of the correction, and the correction amount can be adjusted by changing the value of the adjustment coefficient m. The adjustment coefficient m may be a constant constant regardless of the position of the input image, or the correction amount can be adjusted according to the position of the input image by making it different according to the position of the input image. Further, the adjustment coefficient m (x, y) can be made different depending on the shooting conditions such as the focal length, the aperture value, and the shooting distance of the optical system.

補正成分h(x,y)は、アンシャープマスクをUSM(x,y)とすると、以下の式(2)のように表すことができる。USM(x,y)は、例えば、座標(x,y)におけるタップ値である。
h(x,y)=f(x,y)−f(x,y)*USM(x,y)・・・(2)
式(2)の右辺を変形することにより、以下の式(3)が得られる。
h(x,y)=f(x,y)*(δ(x,y)−USM(x,y))・・・(3)
式(2)、式(3)において、*はコンボリューション(畳み込み積分、積和)、δはデルタ関数(理想点像)である。「デルタ関数」とは、USM(x,y)とタップ数が等しく中心の値が1でそれ以外が0で埋まっているデータである。
The correction component h (x, y) can be expressed by the following equation (2), where the unsharp mask is USM (x, y). USM (x, y) is, for example, a tap value at coordinates (x, y).
h (x, y) = f (x, y) -f (x, y) * USM (x, y) ... (2)
By transforming the right side of equation (2), the following equation (3) can be obtained.
h (x, y) = f (x, y) * (δ (x, y) -USM (x, y)) ... (3)
In equations (2) and (3), * is a convolution (convolution integral, sum of products), and δ is a delta function (ideal point image). The "delta function" is data in which the number of taps is the same as that of USM (x, y), the center value is 1, and the other values are filled with 0.

式(2)を変形することにより式(3)を表現することができるため、式(2)と式(3)とは互いに等価である。よって、以下、式(2)を用いて補正成分の生成について説明する。 Since the equation (3) can be expressed by transforming the equation (2), the equation (2) and the equation (3) are equivalent to each other. Therefore, the generation of the correction component will be described below using the equation (2).

式(2)では、撮影画像f(x,y)と撮影画像f(x,y)をアンシャープマスクでぼかした画像との差分をとり、この差分情報に基づいて補正成分h(x,y)を生成している。一般的なアンシャープマスク処理では、アンシャープマスクにガウシアンフィルタ、メディアンフィルタ、移動平均フィルタ等の平滑化フィルタが使用される。 In the formula (2), the difference between the captured image f (x, y) and the image obtained by blurring the captured image f (x, y) with an unsharp mask is taken, and the correction component h (x, y) is taken based on this difference information. ) Is generated. In general unsharp mask processing, a smoothing filter such as a Gaussian filter, a median filter, or a moving average filter is used for the unsharp mask.

例えば、図3(A)の実線で示される撮影画像f(x,y)に対して、アンシャープマスクとしてガウシアンフィルタを使用した場合、撮影画像f(x,y)をぼかした画像は、図3(A)の破線で示されるようになる。補正成分h(x,y)は、式(2)に示すように、撮影画像f(x,y)とぼかした画像との差分であるため、図3(A)の実線から図3(A)の破線を減算することにより、図3(B)の実線で表現される成分となる。このように算出された補正成分を用いて、式(1)の演算を行うことにより、図3(A)の実線に示される撮影画像f(x,y)を図3(A)の点線のように鮮鋭化することができる。 For example, when a Gaussian filter is used as an unsharp mask for the captured image f (x, y) shown by the solid line in FIG. 3 (A), the captured image f (x, y) is blurred. 3 (A) will be indicated by the broken line. Since the correction component h (x, y) is the difference between the captured image f (x, y) and the blurred image as shown in the equation (2), the solid line in FIG. 3 (A) to FIG. 3 (A) ) Is subtracted to obtain the component represented by the solid line in FIG. 3 (B). By performing the calculation of the equation (1) using the correction component calculated in this way, the captured image f (x, y) shown by the solid line in FIG. 3 (A) is converted to the dotted line in FIG. 3 (A). It can be sharpened like this.

次に、被写体の光学像を形成する撮像光学系により劣化した画像に対して、アンシャープマスク処理を適用することで画像を鮮鋭化する場合について説明する。 Next, a case will be described in which the image is sharpened by applying the unsharp mask processing to the image deteriorated by the imaging optical system that forms the optical image of the subject.

撮像光学系を介して得られた撮影画像f(x,y)は撮影前の画像(被写体の像)をI(x,y)、撮像光学系の点光源に対する応答を表す関数である点像強度分布関数PSFをpsf(x,y)とすると、以下の式(4)のように表すことができる。
f(x,y)=I(x,y)*psf(x,y)・・・(4)
ここで、撮像光学系が回転対称な共軸光学系であれば、画像の中心部に対応するPSFは回転対称となる。そのため、画像の中心部については回転対称なUSMを適用することで撮影画像f(x,y)を元の画像I(x,y)に近づける鮮鋭化を行うことができる。補正量は撮影画像とアンシャープマスクでぼかした撮影画像との差分値となるため、精度良く補正するには、アンシャープマスクとして単純な平滑化フィルタを使用するのではなく、よりpsf(x,y)に近い形状のマスクを使用することが好ましい。例えば、球面収差の影響で撮影画像が劣化する場合、球面収差であれば回転対称に影響を与えるものの、ガウシアンフィルタのような平滑化フィルタでは球面収差の影響によるPSFとは分布の形状が異なる。そのため、回転対称にぼける影響を低減する場合であっても、撮像光学系のPSFを使用する方が精度良く補正することができる。
The captured image f (x, y) obtained through the imaging optical system is a point image which is a function representing the response of the imaging optical system to a point light source, with the image before imaging (subject image) being I (x, y). Assuming that the intensity distribution function PSF is psf (x, y), it can be expressed by the following equation (4).
f (x, y) = I (x, y) * psf (x, y) ... (4)
Here, if the imaging optical system is a rotationally symmetric co-axis optical system, the PSF corresponding to the central portion of the image is rotationally symmetric. Therefore, by applying a rotationally symmetric USM to the central portion of the image, it is possible to sharpen the captured image f (x, y) so that it approaches the original image I (x, y). Since the correction amount is the difference between the captured image and the captured image blurred by the unsharp mask, in order to correct accurately, instead of using a simple smoothing filter as the unsharp mask, psf (x, It is preferable to use a mask having a shape close to y). For example, when the captured image is deteriorated due to the influence of spherical aberration, the spherical aberration affects the rotational symmetry, but the smoothing filter such as the Gaussian filter has a different distribution shape from the PSF due to the influence of spherical aberration. Therefore, even when the influence of rotationally symmetric blurring is reduced, it is possible to correct the correction more accurately by using the PSF of the imaging optical system.

本実施形態では、アンシャープマスクUSM(x,y)にPSFを用いる。図3(A)に示される撮影画像f(x,y)は簡略化のため対称な形状となっているが、画像の形状が対称でなくてもよい。元の画像I(x,y)の形状が非対称であってもpsf(x,y)に相当する元の画像I(x,y)にかかる劣化関数が回転対称であれば、回転対称なアンシャープマスクを用いて鮮鋭化することができる。 In this embodiment, PSF is used as the unsharp mask USM (x, y). The captured image f (x, y) shown in FIG. 3A has a symmetrical shape for simplification, but the shape of the image does not have to be symmetrical. Even if the shape of the original image I (x, y) is asymmetric, if the deterioration function of the original image I (x, y) corresponding to psf (x, y) is rotationally symmetric, the rotationally symmetric Ann It can be sharpened using a sharp mask.

一方、画像の中心部以外の位置については撮像光学系が回転対称な共軸光学系であっても、PSFは通常非対称な形状となる。図4は、xy平面における撮像光学系のPSFの模式図であり、図4(A)は軸上のPSF、図4(B)は軸外のPSFをそれぞれ示している。 On the other hand, the PSF usually has an asymmetric shape at a position other than the center of the image even if the imaging optical system is a rotationally symmetric co-axis optical system. 4A and 4B are schematic views of the PSF of the imaging optical system in the xy plane, FIG. 4A shows the PSF on the axis, and FIG. 4B shows the PSF off the axis.

例えば、元の画像(被写体)が理想点像であるとすると、式(4)から撮影画像f(x,y)は撮像光学系のPSFになる。図4(B)に対応する画角に理想点像があり、撮像光学系のPSFの影響を受けて元の画像(被写体)が劣化したとすると、入力画像として得られる画像は図4(B)の形状のようにぼけた画像となる。このように非対称にぼけた画像に対して、アンシャープマスク処理による鮮鋭化を行う場合について説明する。 For example, assuming that the original image (subject) is an ideal point image, the captured image f (x, y) is the PSF of the imaging optical system from the equation (4). Assuming that there is an ideal point image at the angle of view corresponding to FIG. 4B and the original image (subject) is deteriorated due to the influence of the PSF of the imaging optical system, the image obtained as the input image is shown in FIG. 4B. The image becomes blurred like the shape of). A case where sharpening the asymmetrically blurred image by unsharp mask processing will be described.

図5および図6は非対称に劣化した画像に対するアンシャープ処理の模式図であり、図5は回転対称なアンシャープマスクを用いた場合、図6は回転非対称なアンシャープマスクを用いて処理を行った場合をそれぞれ示している。縦軸と横軸はそれぞれ図3と同様である。 5 and 6 are schematic views of unsharpening processing for an asymmetrically deteriorated image, FIG. 5 shows a rotation-symmetrical unsharpening mask, and FIG. 6 shows processing using a rotation-asymmetrical unsharpening mask. Each case is shown. The vertical axis and the horizontal axis are the same as in FIG. 3, respectively.

図5(A)および図6(A)の実線は、図4(B)のy軸方向の断面を表しており、点線はアンシャープマスクでぼかした撮影画像を表している。図5の回転対称なアンシャープマスクにはガウシアンフィルタを適用し、図6の回転非対称なアンシャープマスクには撮像装置のPSFを適用している。 The solid lines in FIGS. 5 (A) and 6 (A) represent the cross section in the y-axis direction of FIG. 4 (B), and the dotted lines represent the photographed images blurred by the unsharp mask. A Gaussian filter is applied to the rotationally symmetric unsharp mask of FIG. 5, and the PSF of the imaging device is applied to the rotationally asymmetrical unsharp mask of FIG.

図5(B)および図6(B)はそれぞれ、各アンシャープマスクでぼかした撮影画像と元の撮影画像との差分値をプロットしたものであり、補正成分を表している。便宜的に、図5(A)および図6(A)においては、撮影画像がPSFによって、よりぼけて裾野が広くなっている方をY軸のプラス側とする。 5 (B) and 6 (B) are plots of the difference values between the photographed image blurred by each unsharp mask and the original photographed image, and represent the correction components. For convenience, in FIGS. 5 (A) and 6 (A), the side in which the captured image is blurred by the PSF and has a wider base is defined as the plus side of the Y axis.

図5(A)では、実線のピーク位置に対してプラス側のぼけた画像と元の画像の差分値が小さく、マイナス側のぼけた画像と元の画像の差分値が大きくなっている。そのため、図5(B)の補正成分も中心のピーク位置に対して右側(プラス側)より左側(マイナス側)の方が極値は小さくなっている。 In FIG. 5A, the difference value between the blurred image on the plus side and the original image is small with respect to the peak position of the solid line, and the difference value between the blurred image on the minus side and the original image is large. Therefore, the extremum of the correction component in FIG. 5B is smaller on the left side (minus side) than on the right side (plus side) with respect to the central peak position.

図5(A)と図5(B)の曲線を比較すればわかるように、撮影画像のプラス側は補正成分の補正量が小さく、裾野が狭いマイナス側は補正量が大きいため、式(4)による鮮鋭化を行っても非対称なぼけを補正することはできない。 As can be seen by comparing the curves of FIGS. 5 (A) and 5 (B), the correction amount of the correction component is small on the positive side of the captured image, and the correction amount is large on the negative side with a narrow base. ) Cannot correct the asymmetrical blur even if it is sharpened.

図5(C)は、m=1のときの鮮鋭化後の結果を示したものであり、図5(A)の実線に対して鮮鋭化はできているものの、プラス側に対してマイナス側が大きく凹んでおり、非対称なぼけは補正できていないことがわかる。例えば、アンシャープマスクを変えずに式(4)の調整係数mを変更することで補正量を調整する場合を考える。画像のプラス側を十分に補正するために調整係数mの値を大きくすると、画像のマイナス側は補正過剰(アンダーシュート)になる。一方、画像のマイナス側の補正量を適切になるように調整係数mの値を設定すると、画像のプラス側は補正不足となる。 FIG. 5C shows the result after sharpening when m = 1, and although sharpening is achieved with respect to the solid line in FIG. 5A, the negative side with respect to the positive side is It can be seen that the asymmetrical blur has not been corrected due to the large dent. For example, consider a case where the correction amount is adjusted by changing the adjustment coefficient m of the equation (4) without changing the unsharp mask. If the value of the adjustment coefficient m is increased in order to sufficiently correct the positive side of the image, the negative side of the image becomes overcorrected (undershoot). On the other hand, if the value of the adjustment coefficient m is set so that the correction amount on the minus side of the image is appropriate, the correction on the plus side of the image becomes insufficient.

このように、非対称にぼけた画像に対して回転対称なアンシャープマスクを使用してアンシャープマスク処理を行っても、非対称性を改善して鮮鋭化することは困難である。このような問題は、回転対称なアンシャープマスクとしてガウシアンフィルタ以外の回転対称なフィルタを使用しても同様に発生する。 As described above, even if the unsharp mask processing is performed using the rotationally symmetric unsharp mask on the asymmetrically blurred image, it is difficult to improve the asymmetry and sharpen the image. Such a problem also occurs when a rotationally symmetric filter other than the Gaussian filter is used as the rotationally symmetric unsharp mask.

一方、図6(A)では、実線のピーク位置に対してプラス側がぼけた画像と元画像の差分値が大きく、マイナス側がぼけた画像と元の画像の差分値が小さくなっており、この傾向は図5(A)と逆になっている。そのため、図6(B)の補正成分も中心のピーク位置に対して左側(マイナス側)より右側(プラス側)の方が極値は小さくなっている。図6(A)の実線で表された撮影画像に対して、このような補正成分を適用すると、ピーク位置に対してプラス側のぼけが大きい方には補正量が大きく、そしてマイナス側のぼけが小さい方には補正量が小さくなる。このような非対称なアンシャープマスクの場合、入力画像のぼけ方のバランスと補正成分の補正量のバランスの傾向が一致するため、回転対称なアンシャープマスクを適用する場合に問題となる補正の過不足も起きにくくなる。 On the other hand, in FIG. 6A, the difference value between the image with the positive side blurred and the original image is large with respect to the peak position of the solid line, and the difference value between the image with the negative side blurred and the original image is small. Is the opposite of FIG. 5 (A). Therefore, the extremum of the correction component in FIG. 6B is smaller on the right side (plus side) than on the left side (minus side) with respect to the central peak position. When such a correction component is applied to the captured image represented by the solid line in FIG. 6 (A), the correction amount is larger on the side where the positive side blur is larger than the peak position, and the negative side blur is large. The smaller the value, the smaller the correction amount. In the case of such an asymmetrical unsharp mask, the tendency of the balance of the blur of the input image and the balance of the correction amount of the correction component match, so that the overcorrection that becomes a problem when applying the rotationally symmetric unsharp mask Shortages are less likely to occur.

図6(C)はm=1のときの鮮鋭化後の結果を示したものであり、図6(A)の実線に対しても鮮鋭化できており、かつ図5(C)で目立ったマイナス側とプラス側の凹みのバランスの差が改善している。さらに、回転対称なアンシャープマスクの場合と比べて、補正過剰になりにくくなるため、式(4)の調整係数mの値も比較的大きくとることができ、非対称性を低減しつつより鮮鋭化することができる。また、より精度良く補正を行うには、補正成分の補正量のバランスはぼけた画像と元の画像との差分となるため、撮像光学系のPSFによってより大きくぼけた部分が、アンシャープマスクによって他の部分に比べてもよりぼかされる必要がある。このように、さらに精度によく補正するには、アンシャープマスクとして撮像光学系のPSFを利用することが理想的である。 FIG. 6 (C) shows the result after sharpening when m = 1, and the solid line in FIG. 6 (A) was also sharpened and was conspicuous in FIG. 5 (C). The difference in balance between the dents on the minus side and the dent on the plus side has improved. Further, since the correction is less likely to be excessive as compared with the case of the rotationally symmetric unsharp mask, the value of the adjustment coefficient m in the equation (4) can be made relatively large, and the asymmetry is reduced and sharpened. can do. Further, in order to perform correction with higher accuracy, the balance of the correction amount of the correction component is the difference between the blurred image and the original image, so that the portion largely blurred by the PSF of the imaging optical system is covered by the unsharp mask. It needs to be more blurred than the other parts. As described above, in order to correct the correction more accurately, it is ideal to use the PSF of the imaging optical system as an unsharp mask.

以上、画像鮮鋭化処理としてPSFを用いたアンシャープマスクの例を示したが、PSFは、ウィナーフィルタに代表される画像復元処理や、RL法に代表される反復処理型の画像復元処理に用いてもよい。また、近年研究が進んでいるDL(ディープラーニング)の学習画像の生成に用いることもできる。 The example of the unsharp mask using PSF as the image sharpening process has been shown above, but PSF is used for the image restoration process represented by the Wiener filter and the iterative processing type image restoration process represented by the RL method. You may. It can also be used to generate DL (deep learning) learning images, which have been studied in recent years.

[係数データ]
アンシャープマスクUSMの生成に用いる係数について説明する。
[Coefficient data]
The coefficients used to generate the unsharp mask USM will be described.

前述のように各実施例では撮像光学系のPSFをアンシャープマスクとして用いる。このとき、撮像光学系のPSFは像高、焦点距離、F値および撮像距離等の撮像条件によって変化するため、鮮鋭化を行う際には撮像条件に応じたアンシャープマスクを生成する必要がある。撮像条件によって変化するPSFに応じてアンシャープマスクを変形させるために、すべての組み合わせを計算しておき、撮像条件に対応するPSFを選択する方法も考えられる。しかし、このような手法はアンシャープマスクを適用する際の処理速度やデータを保持しておくための記録容量の観点からも好ましくない。 As described above, in each embodiment, the PSF of the imaging optical system is used as an unsharp mask. At this time, since the PSF of the imaging optical system changes depending on the imaging conditions such as the image height, focal length, F value, and imaging distance, it is necessary to generate an unsharp mask according to the imaging conditions when sharpening. .. In order to deform the unsharp mask according to the PSF that changes depending on the imaging condition, it is conceivable to calculate all the combinations and select the PSF corresponding to the imaging condition. However, such a method is not preferable from the viewpoint of the processing speed when applying the unsharp mask and the recording capacity for holding data.

このため各実施例では、撮像光学系のPSFを近似するための係数のデータを保持しておき、アンシャープマスクを作成する際に該係数のデータを用いてPSFを再構成(近似)する。これにより、保持すべきデータ量を低減しつつ、鮮鋭化の効果を最大限とすることを可能としている。各実施例では、PSFを近似してアンシャープマスクを作成する方法として、以下に説明するように、連続関数とその係数のデータを用いる。 Therefore, in each embodiment, the coefficient data for approximating the PSF of the imaging optical system is retained, and the PSF is reconstructed (approximate) using the coefficient data when creating the unsharp mask. This makes it possible to maximize the effect of sharpening while reducing the amount of data to be retained. In each embodiment, as a method of approximating the PSF to create an unsharp mask, data of a continuous function and its coefficient are used as described below.

まず、撮像光学系のPSFの近似に用いる連続関数について説明する。先に説明したように、天文物理学の分野において測光した天体をフィッティングする際には、Moffat関数と呼ばれる次式(5)に示す関数P(x,y)がよく利用される。 First, a continuous function used for approximating the PSF of the imaging optical system will be described. As described above, when fitting a photometric celestial body in the field of astrophysics, a function P (x, y) shown in the following equation (5) called a Moffat function is often used.

ここで、式(5)のα,βは係数であり、特にβ=1のときをローレンツ関数と呼ぶ。例えば式(5)を用いてPSFをモデル化する場合、計測あるいは計算により算出したPSFの分布に対して式(5)でフィッティングすることで、これらの係数α,βを求める。そして、算出した係数α,βと式(5)を用いることでPSFをモデル化することができる。このように、式(5)でも近似的なPSFを作成することはできるものの、式(5)は座標x,yに対して回転対称な分布のみを表現可能な関数である。そのため、式(5)を用いて回転非対称な分布やN回回転対称性を有する分布(Nは整数)を作成することはできない。 Here, α and β in the equation (5) are coefficients, and particularly when β = 1, it is called a Lorentz function. For example, when the PSF is modeled using the equation (5), these coefficients α and β are obtained by fitting the distribution of the PSF calculated by measurement or calculation with the equation (5). Then, the PSF can be modeled by using the calculated coefficients α and β and the equation (5). As described above, although the approximate PSF can be created by the equation (5), the equation (5) is a function capable of expressing only the rotationally symmetric distribution with respect to the coordinates x and y. Therefore, it is not possible to create a rotation asymmetric distribution or a distribution having N rotation symmetry (N is an integer) using the equation (5).

式(5)を変形した関数として、楕円形状(2回回転対称性を有する分布)を表現できるElliptical Moffat関数と呼ばれる式(6)(および(6a))で示す関数がある。 As a modified function of the equation (5), there is a function represented by the equations (6) (and (6a)) called an Elliptical Moffat function capable of expressing an elliptical shape (distribution having two-fold rotational symmetry).

式(6)中のα,β,γは係数である。式(6a)は角度θの回転行列である。式(6)と式(6a)とをまとめると、次式(7)のように表現することができる。 Α, β, and γ in equation (6) are coefficients. Equation (6a) is a rotation matrix with an angle θ. The equation (6) and the equation (6a) can be summarized as the following equation (7).

式(7)において、a,b,c,σ,βは係数である。なお、式(7)を用いる場合において楕円形状を保つためには、係数a,b,cに関して、b−ac<0の関係を満たす必要がある。 In equation (7), a, b, c, σ, and β are coefficients. In addition, in order to maintain the elliptical shape when the equation (7) is used, it is necessary to satisfy the relationship of b 2-ac <0 with respect to the coefficients a, b, and c.

これら式(7)(または式(6))を用いることで式(5)の関数では表現できない楕円形状の分布も再現することができるため、式(5)の関数を用いる場合に比べて補正の精度は向上する。しかし、撮像光学系のPSFにフィッティングに式(7)の関数を用いても、非対称収差やサジタルハロのような複雑な形状を再現することができない。すなわち、式(7)では、回転対称やN回回転対称性を有する分布は表現できるものの、回転非対称な分布を表現することができない。 By using these equations (7) (or equations (6)), it is possible to reproduce the elliptical distribution that cannot be expressed by the function of equation (5), so it is corrected compared to the case of using the function of equation (5). The accuracy of is improved. However, even if the function of the equation (7) is used for fitting the PSF of the imaging optical system, it is not possible to reproduce a complicated shape such as asymmetric aberration or sagittal halo. That is, in the equation (7), although a distribution having rotational symmetry or N-fold rotational symmetry can be expressed, a rotationally asymmetric distribution cannot be expressed.

そこで、各実施例では、撮像光学系の非対称収差やサジタルハロのような複雑な形状のPSFを再現可能な関数として次式(8)((8a)〜(8c))に示す関数を用いる。
x≧0かつy≧0において、
Therefore, in each embodiment, the functions shown in the following equations (8) ((8a) to (8c)) are used as functions that can reproduce PSF having a complicated shape such as asymmetric aberration of the imaging optical system and sagittal halo.
At x ≧ 0 and y ≧ 0,

x≧0かつy<0において、 When x ≧ 0 and y <0,

式(8)において、a,b,c,d,e,σ,βは係数である。なお、式(8)についても、式(7)の場合と同様に、係数a,b,cに関して、b−ac<0の関係を満たす必要がある。 In equation (8), a, b, c, d, e, σ, and β are coefficients. As in the case of the equation (7), the equation (8) also needs to satisfy the relationship of b 2-ac <0 with respect to the coefficients a, b, and c.

図10(A)〜(F)には、式(8)をベースとした関数で表現できる分布形状の例を示している。図10(A)はXY座標において回転対称な分布を示しており、式(5)〜式(8)のいずれの関数でも表現できる。撮像光学系が共軸系であり、像点が光軸上であればPSFも回転対称となるため、式(5)〜式(8)のいずれの関数を用いても図10(A)の分布形状を表現することができる。 10 (A) to 10 (F) show an example of a distribution shape that can be expressed by a function based on the equation (8). FIG. 10A shows a rotationally symmetric distribution in XY coordinates, and can be expressed by any of the functions of equations (5) to (8). If the imaging optical system is a co-axis system and the image point is on the optical axis, the PSF is also rotationally symmetric. Therefore, any function of equations (5) to (8) can be used in FIG. 10 (A). The distribution shape can be expressed.

図10(B),(C)には、X軸とY軸に楕円の長軸と短軸が重なる楕円形状の分布(以下、楕円分布という)を示している。これらの楕円分布は、式(5)の関数では表現できず、式(6)〜(8)の関数のいずれかを用いることで近似精度は向上する。図10(D)には、X軸とY軸に楕円の長軸と短軸が重ならない場合の楕円分布を示しており、式(5)や式(6)の関数ではこの楕円分布を表現することはできない。この楕円分布は、式(7),(8)の関数いずれか用いることで良好な精度で近似することができる。 10 (B) and 10 (C) show an elliptical distribution (hereinafter referred to as an elliptical distribution) in which the major axis and the minor axis of the ellipse overlap on the X-axis and the Y-axis. These elliptical distributions cannot be expressed by the function of equation (5), and the approximation accuracy is improved by using any of the functions of equations (6) to (8). FIG. 10 (D) shows an elliptical distribution when the major axis and the minor axis of the ellipse do not overlap the X-axis and the Y-axis, and the functions of equations (5) and (6) express this elliptical distribution. You can't. This elliptical distribution can be approximated with good accuracy by using any of the functions of Eqs. (7) and (8).

図10(E),(F)には、Y軸に関して(つまりはX方向において)対称で、X軸に関して(つまりはY方向において)非対称な分布形状を示している。図10(E)の分布形状は、図10(D)に示す楕円分布のうちY軸より+X側の部分をY軸に関して−X側に鏡映した分布に相当する。また、図10(F)の分布形状は、長軸がY軸に重なり、短軸がX軸に重ならない楕円分布のうちX軸よりも上側の部分をY軸に関して鏡映し、かつX軸より下側の部分を同心半円形状とした分布に相当する。式(5)〜(7)の関数では図10(E),(F)のように線対称な分布形状を表現することはできない。一方、本実施例で用いる式(8)の関数は回転非対称な分布も表現可能な関数であり、図10(E),(F)に示す分布形状も精度良く近似することができる。 FIGS. 10 (E) and 10 (F) show a distribution shape that is symmetric with respect to the Y axis (that is, in the X direction) and asymmetric with respect to the X axis (that is, in the Y direction). The distribution shape of FIG. 10 (E) corresponds to a distribution in which the portion of the elliptical distribution shown in FIG. 10 (D) on the + X side of the Y axis is mirrored on the −X side with respect to the Y axis. Further, in the distribution shape of FIG. 10 (F), the portion of the elliptical distribution in which the long axis overlaps the Y axis and the short axis does not overlap the X axis is mirrored with respect to the Y axis and is more than the X axis. It corresponds to a distribution in which the lower part has a concentric semicircular shape. The functions of equations (5) to (7) cannot express a line-symmetrical distribution shape as shown in FIGS. 10 (E) and 10 (F). On the other hand, the function of the equation (8) used in this embodiment is a function capable of expressing a rotationally asymmetric distribution, and the distribution shapes shown in FIGS. 10 (E) and 10 (F) can be accurately approximated.

前述したように、撮像光学系の光軸上の像点におけるPSFは回転対称な分布形状となるが、光軸に直交する平面(像面)内における光軸上以外の像点ではPSFは回転対称な分布形状になるとは限らない。しかし、撮像光学系が共軸光学系である場合は、光軸上以外の像点であっても、像面内で像点と光軸とを結ぶ直線が伸びる方向(メリジオナル方向)に対して直交する方向(サジタル方向)においてはその像点上のPSFは対称な分布形状を持つ。このように撮像光学系のPSFは回転対称な分布形状を有するとは限らないもののサジタル方向においては対称性を有する。このため、式(8)のx方向(図10(E),(F)中のX方向)をサジタル方向とし、y方向(図10(E),(F)中のY方向)をメリジオナル方向に一致させることで複雑な非対称収差に対応することができる。 As described above, the PSF at the image point on the optical axis of the imaging optical system has a rotationally symmetric distribution shape, but the PSF rotates at an image point other than the optical axis in the plane (image plane) orthogonal to the optical axis. It does not always have a symmetrical distribution shape. However, when the imaging optical system is a co-axis optical system, even if the image point is not on the optical axis, the straight line connecting the image point and the optical axis extends in the image plane (meridional direction). In the orthogonal direction (sagittal direction), the PSF on the image point has a symmetrical distribution shape. As described above, the PSF of the imaging optical system does not always have a rotationally symmetric distribution shape, but has symmetry in the sagittal direction. Therefore, the x direction (X direction in FIGS. 10 (E) and 10 (F)) of the equation (8) is the sagittal direction, and the y direction (Y direction in FIGS. 10 (E) and (F)) is the meridional direction. It is possible to deal with complicated asymmetric aberrations by matching with.

次に、式(8)における各係数について詳細に説明する。 Next, each coefficient in the equation (8) will be described in detail.

式(8)の係数のうち、係数a,b,cは、図10(D)に示すようにX軸とY軸に長軸と短軸が重ならない楕円分布を生成するための係数である。そして、これらの係数a,b,cを制御することにより、楕円分布のX方向とY方向での非対称性を制御することができる。さらに、図10(E),(F)に示したように、X軸とY軸以外に長軸および短軸のうち少なくとも一方を設定した楕円分布をY軸に関してのみ対称化したサジタルハロのような他の関数では表現が困難な収差も表現することができる。 Of the coefficients of the equation (8), the coefficients a, b, and c are coefficients for generating an elliptical distribution in which the major axis and the minor axis do not overlap on the X axis and the Y axis as shown in FIG. 10 (D). .. Then, by controlling these coefficients a, b, and c, the asymmetry of the elliptical distribution in the X direction and the Y direction can be controlled. Further, as shown in FIGS. 10 (E) and 10 (F), like a sagittal halo in which an elliptical distribution in which at least one of a long axis and a short axis is set in addition to the X axis and the Y axis is symmetric only with respect to the Y axis. Aberrations that are difficult to express with other functions can also be expressed.

係数dは、Y方向(特定方向)において楕円分布を非対称化するための係数であり、この係数dを制御することでメリジオナル方向において非対称な形状となる収差に対応することができる。例えばコマ収差はこの係数dを制御することで、より近似精度を向上させることができる。 The coefficient d is a coefficient for asymmetricalizing the elliptical distribution in the Y direction (specific direction), and by controlling this coefficient d, it is possible to deal with an aberration having an asymmetrical shape in the meridional direction. For example, for coma aberration, the approximation accuracy can be further improved by controlling this coefficient d.

係数e,σ,βは、楕円分布の拡がりを制御するための係数である。近似する楕円分布の拡がりが大きい場合は係数σを大きくし、近似する楕円分布の形状がピーク付近で急激に変化する場合は係数βを大きくすることで、近似精度を向上させることができる。係数eは、楕円分布の拡がりを制限するための係数である。係数e=0の場合は式(8)より楕円分布は周辺側でP(x,y)=0に漸近する。このため、楕円分布の拡がりが小さい場合は係数eをe>0とすることで近似精度を向上させることができる。 The coefficients e, σ, and β are coefficients for controlling the spread of the elliptical distribution. The approximation accuracy can be improved by increasing the coefficient σ when the spread of the elliptical distribution to be approximated is large, and increasing the coefficient β when the shape of the elliptical distribution to be approximated changes rapidly near the peak. The coefficient e is a coefficient for limiting the spread of the elliptical distribution. When the coefficient e = 0, the elliptical distribution gradually approaches P (x, y) = 0 on the peripheral side from the equation (8). Therefore, when the spread of the elliptical distribution is small, the approximation accuracy can be improved by setting the coefficient e to e> 0.

なお、撮像光学系のPSFを近似するために、楕円分布はP(x,y)≧0とする必要がある。このため、e>0とした場合は、周辺部ではP(x,y)<0となるが、その場合はクリップしてP(x,y)=0とすればよい。 The elliptical distribution needs to be P (x, y) ≥ 0 in order to approximate the PSF of the imaging optical system. Therefore, when e> 0, P (x, y) <0 in the peripheral portion, but in that case, it may be clipped and P (x, y) = 0.

次に、係数データの算出方法について、図11のフローチャートを用いて説明する。 Next, the method of calculating the coefficient data will be described with reference to the flowchart of FIG.

図11において、Sはステップを示す。このことは、後述する他のフローチャートについても同じである。各実施例では、撮像光学系101の設計値を用いて、アンシャープマスクの生成に用いる係数を算出する。 In FIG. 11, S indicates a step. This also applies to other flowcharts described later. In each embodiment, the design value of the imaging optical system 101 is used to calculate the coefficient used for generating the unsharp mask.

まずステップS1において、係数を算出するために必要となる情報を取得する。具体的には、係数を算出する対象となる撮像画像を生成するための撮像時の撮像条件およびPSFの近似における係数の目標値を取得する。 First, in step S1, the information required for calculating the coefficient is acquired. Specifically, the imaging conditions at the time of imaging for generating the captured image for which the coefficient is calculated and the target value of the coefficient in the approximation of PSF are acquired.

次にステップS2において、ステップS1で取得した撮像条件に対応する撮像光学系101の設計値のデータから撮像光学系101のPSF(以下、設計PSFという)を算出する。図12には、ステップS2で算出される設計PSFと後述するステップS4で生成される近似PSFの断面を示す。図12に示すように、ステップS2で算出される設計PSFは分割数(タップ数)がN、間隔Doで離散化されている。設計PSFのサイズ(カーネルサイズ)は、図12から明らかなように間隔Doとタップ数Nの積で表すことができる。つまり、離散化された設計PSFは、間隔Do、タップ数Nおよびカーネルサイズのうちいずれか2つが分かれば残りの1つも一意に決まる。例えば、間隔Do=2.0μmでタップ数N=11とすると、カーネルサイズはDo×(N−1)=20μmとなる。また、Do×Nをカーネルサイズと呼んでもよく、この場合は22μmとなる。また、間隔Doはフィッティングする際のピッチとなるため、実在する撮像素子の画素ピッチよりも小さい方がよい。予め小さい画素ピッチでフィッティングしておくことで、様々な画素ピッチの撮像素子に対しても対応することができる。 Next, in step S2, the PSF of the imaging optical system 101 (hereinafter referred to as the design PSF) is calculated from the data of the design values of the imaging optical system 101 corresponding to the imaging conditions acquired in step S1. FIG. 12 shows a cross section of the design PSF calculated in step S2 and the approximate PSF generated in step S4 described later. As shown in FIG. 12, the design PSF calculated in step S2 is discretized with the number of divisions (number of taps) being N and the interval Do. The size (kernel size) of the design PSF can be expressed by the product of the interval Do and the number of taps N, as is clear from FIG. That is, in the discretized design PSF, if any two of the interval Do, the number of taps N, and the kernel size are known, the remaining one is also uniquely determined. For example, if the interval Do = 2.0 μm and the number of taps N = 11, the kernel size is Do × (N-1) = 20 μm. Further, Do × N may be called a kernel size, and in this case, it is 22 μm. Further, since the interval Do is the pitch at the time of fitting, it is preferable that the interval Do is smaller than the pixel pitch of the actual image sensor. By fitting with a small pixel pitch in advance, it is possible to support image sensors with various pixel pitches.

なお、フィッティングに撮像光学系101の設計値のデータを用いているが、チャート等を撮像して撮像画像から撮像光学系101のPSFを推定したデータを用いてもよい。 Although the data of the design value of the imaging optical system 101 is used for the fitting, the data obtained by estimating the PSF of the imaging optical system 101 from the captured image by imaging a chart or the like may be used.

次にステップS3では、PSFを近似する際に用いる係数a,b,c,d,e,σ,βの初期値を設定する。各係数はこの後の処理で更新されるため、このステップS3では初期値として仮の値を設定する。 Next, in step S3, the initial values of the coefficients a, b, c, d, e, σ, and β used when approximating the PSF are set. Since each coefficient is updated in the subsequent processing, a tentative value is set as an initial value in this step S3.

次にステップS4では、係数を式(8)に代入してPSFを近似することで、近似PSFを作成する。本処理では設計値に対してフィッティングを行うことで最適な係数を導出するため、近似PSFを離散化する。離散化における分割数や間隔はステップS2で算出した設計PSFに合わせる。 Next, in step S4, an approximate PSF is created by substituting the coefficient into the equation (8) and approximating the PSF. In this process, the approximate PSF is discretized in order to derive the optimum coefficient by fitting the design value. The number of divisions and the interval in discretization are adjusted to the design PSF calculated in step S2.

次にステップS5では、ステップS2で算出した設計PSFとステップS4で作成した近似PSFとのずれを評価する。設計PSFと近似PSFのずれを評価する際の指標としては、例えば、設計PSFと近似PSFとの差分の二乗平均平方根を計算してこれを評価値Eとして用いる。評価値Eが小さいほど近似PSFが設計PSFに近いことを意味する。 Next, in step S5, the deviation between the design PSF calculated in step S2 and the approximate PSF created in step S4 is evaluated. As an index for evaluating the deviation between the design PSF and the approximate PSF, for example, the root mean square of the difference between the design PSF and the approximate PSF is calculated and used as the evaluation value E. The smaller the evaluation value E, the closer the approximate PSF is to the design PSF.

続いてステップS6では、ステップS5で算出した評価値EとステップS1で取得した目標値を用いて判定を行う。評価値Eには、設計PSFと近似PSFとのずれに関する情報だけでなく、近似PSFの係数に関する情報を含ませてもよい。本実施例ではPSFを近似するための関数(モデル)として式(8)を用いるが、前述したように係数a,b,cはb−ac<0の関係を満たす必要がある。このため、係数a,b,cがこの関係を満たさず、b−ac≧0となった場合は、望ましい結果が得られないため、評価値Eが大きくなるよう重みを付けることでより効率的にフィッティングを行うことができる。他にも各係数の取り得る範囲の制約がある場合には、同様に評価値Eを変化させることで、フィッティングの効率化や精度向上を図ることができる。 Subsequently, in step S6, a determination is made using the evaluation value E calculated in step S5 and the target value acquired in step S1. The evaluation value E may include not only information on the deviation between the design PSF and the approximate PSF, but also information on the coefficients of the approximate PSF. In this embodiment, the equation (8) is used as the function (model) for approximating the PSF, but as described above, the coefficients a, b, and c must satisfy the relationship of b 2-ac <0. Therefore, if the coefficients a, b, and c do not satisfy this relationship and b 2- ac ≧ 0, the desired result cannot be obtained. Therefore, it is more efficient to weight the evaluation value E so as to be large. Fitting can be performed. If there are other restrictions on the range in which each coefficient can be taken, the efficiency and accuracy of fitting can be improved by changing the evaluation value E in the same manner.

本ステップでは、このように算出した評価値Eと予め設定された目標値とを比較し、評価値Eが目標値以下となればフィッティング、つまりは近似PSFの生成を完了し、該近似PSFを得た係数のデータを出力する。評価値Eが目標値を超えている場合はまだ十分にフィッティングができていないため、ステップS7に進む。 In this step, the evaluation value E calculated in this way is compared with the preset target value, and if the evaluation value E is equal to or less than the target value, fitting, that is, generation of the approximate PSF is completed, and the approximate PSF is obtained. Output the obtained coefficient data. If the evaluation value E exceeds the target value, the fitting has not been sufficiently completed, and the process proceeds to step S7.

ステップS7では、係数を変更(更新)する。このとき、更新する係数は1つのみでもよいし複数であってもよい。係数を更新した後、ステップS4に戻り、再度近似PSFを算出し、さらにステップS5で評価値Eを算出する。そして、ステップS6において評価値Eが目標値以下に収束するまでステップS4からステップS7の処理を繰り返す。 In step S7, the coefficient is changed (updated). At this time, the number of coefficients to be updated may be only one or a plurality. After updating the coefficient, the process returns to step S4, the approximate PSF is calculated again, and the evaluation value E is calculated in step S5. Then, the processes of steps S4 to S7 are repeated until the evaluation value E converges to the target value or less in step S6.

なお、係数の更新前の評価値Eに対して更新後の評価値Eが小さくならなければ更新前の係数に戻ってステップS4からの処理をやり直してもよいし、また局所解から抜け出すためにステップS3まで戻り、再度初期値を設定してもよい。 If the evaluation value E after the update is not smaller than the evaluation value E before the update of the coefficient, the coefficient before the update may be returned and the processing from step S4 may be repeated, or in order to escape from the local solution. You may return to step S3 and set the initial value again.

以上の係数算出処理により、種々の撮像光学系(交換可能な場合)101に対する、かつ様々な撮像条件に対するPSFを予め係数化し、そのデータを記憶部120に格納しておくことができる。このように事前に近似PSFの係数を算出しておくことで、鮮鋭化処理の段階では算出された係数のデータを取得するだけで撮像光学系101や撮像条件に応じた近似PSFを再構成(再現)することができる。 By the above coefficient calculation process, PSFs for various imaging optical systems (when interchangeable) 101 and for various imaging conditions can be previously coefficient-coded and the data can be stored in the storage unit 120. By calculating the coefficient of the approximate PSF in advance in this way, the approximate PSF according to the imaging optical system 101 and the imaging conditions can be reconstructed simply by acquiring the data of the calculated coefficient at the stage of sharpening processing ( Can be reproduced).

以下、具体的な実施例について説明する。 Hereinafter, specific examples will be described.

まず、図2を参照して、本発明の実施例1における撮像装置について説明する。 First, the image pickup apparatus according to the first embodiment of the present invention will be described with reference to FIG.

図2は、本実施例における撮像装置(交換レンズ118、コンバージョンレンズ119、カメラ本体120)のブロック図である。カメラ本体120には、入力画像(撮影画像)の鮮鋭化処理(画像処理方法)を行うプログラムがROM(メモリ)やハードディスクドライブなどの記憶部109にインストールされており、鮮鋭化処理は画像処理部105(画像処理装置)により実行される。また、記憶部109ではなく画像処理部105の内部に記憶部を設け、その記憶部に本実施例の画像処理方法のプログラムをインストールしておくこともできる。また、プログラムに対応する回路を設計しておき、その回路を動作させることで鮮鋭化処理を実行させてもよい。 FIG. 2 is a block diagram of the imaging device (interchangeable lens 118, conversion lens 119, camera body 120) in this embodiment. In the camera body 120, a program for sharpening an input image (captured image) (image processing method) is installed in a storage unit 109 such as a ROM (memory) or a hard disk drive, and the sharpening processing is performed by the image processing unit. It is executed by 105 (image processing device). Further, a storage unit may be provided inside the image processing unit 105 instead of the storage unit 109, and the program of the image processing method of the present embodiment may be installed in the storage unit. Further, a circuit corresponding to the program may be designed and the sharpening process may be executed by operating the circuit.

交換レンズ118は、撮像光学系101、光学系制御部107、記憶部112、レンズCPU113、および接点ユニット114を備える。また、撮像光学系101は、絞り101aおよびフォーカスレンズ101bを備えて構成されている。本実施例では、交換レンズ118はカメラ本体120あるいはコンバージョンレンズ119に対して交換可能な構成としているが、これに限定されるものではなく、カメラ本体と一体的に構成される撮像装置にも適用可能である。記憶部112は書き換え可能な不揮発性メモリである。記憶部112に記憶されるデータは、主に交換レンズ118特有の光学的な特性を示す情報で、カメラ本体120はこの情報を交換レンズ118から取得し、更にこの情報を元に撮影された画像の補正を行っている。 The interchangeable lens 118 includes an imaging optical system 101, an optical system control unit 107, a storage unit 112, a lens CPU 113, and a contact unit 114. Further, the imaging optical system 101 includes a diaphragm 101a and a focus lens 101b. In this embodiment, the interchangeable lens 118 is configured to be interchangeable with respect to the camera body 120 or the conversion lens 119, but the present invention is not limited to this, and is also applicable to an imaging device integrally configured with the camera body. It is possible. The storage unit 112 is a rewritable non-volatile memory. The data stored in the storage unit 112 is mainly information indicating optical characteristics peculiar to the interchangeable lens 118, and the camera body 120 acquires this information from the interchangeable lens 118 and further captures an image based on this information. Is being corrected.

撮像光学系101のPSFを再構成するために必要となる係数データや調整係数mなどのPSFに関する情報が記憶部112に記憶されている。これらの情報は、接点ユニット114、115、116、117を介して、交換レンズ118からカメラ本体120へ通信により送信される。カメラ本体120は、交換レンズ118から送信されたPSFに関する情報からフィルタを生成して補正処理を実行し、鮮鋭化画像を生成する。また、PSFに関する情報はカメラ本体側の記憶部109に格納しておいてもよい。交換レンズ装着した際、初期通信時に記憶部112に格納された係数データ等をレンズCPU113及びカメラCPUを介して記憶部109に転送し格納することもできる。本実施例において、記憶部112あるいは記憶部109に格納されている係数データや調整係数などPSFに関する情報は、交換レンズ118の撮像光学系101に対応した情報となる。コンバージョンレンズ119を装着することにより、アクセサリ光学系102によって光学系全体の光学性能が変化するが、撮像光学系101に対応した係数データからアクセサリ光学系102による性能変化後のPSFを再構成する。PSFの再構成処理の詳細については後述する。 Information about the PSF such as coefficient data and adjustment coefficient m required for reconstructing the PSF of the imaging optical system 101 is stored in the storage unit 112. This information is transmitted by communication from the interchangeable lens 118 to the camera body 120 via the contact units 114, 115, 116, 117. The camera body 120 generates a filter from the information about the PSF transmitted from the interchangeable lens 118, executes the correction process, and generates a sharpened image. Further, the information about the PSF may be stored in the storage unit 109 on the camera body side. When the interchangeable lens is attached, the coefficient data or the like stored in the storage unit 112 at the time of initial communication can be transferred to the storage unit 109 via the lens CPU 113 and the camera CPU and stored. In this embodiment, the information about the PSF such as the coefficient data and the adjustment coefficient stored in the storage unit 112 or the storage unit 109 is the information corresponding to the imaging optical system 101 of the interchangeable lens 118. By attaching the conversion lens 119, the optical performance of the entire optical system is changed by the accessory optical system 102, but the PSF after the performance change by the accessory optical system 102 is reconstructed from the coefficient data corresponding to the imaging optical system 101. The details of the PSF reconstruction process will be described later.

レンズCPU113は、交換レンズ118とカメラ本体120との間で通信を行うための通信回路(通信手段)、リセット例外処理、A/D、タイマー、入出力ポート、内蔵ROM、および、内蔵RAMなどの機能を有する。通信回路は、交換レンズ118とカメラ本体120との間で、撮影モード(動画撮影モード、静止画撮影モード)に応じた制御情報を含む通信方式で通信を行う。光学系制御部107は、交換レンズ1の内部の各構成要素を制御するレンズ制御手段であり、レンズCPU113の指示に基づいて、通信回路を介して得られた制御情報を用いてレンズや絞りなどの光学素子の駆動制御を行う。接点ユニット8は、交換レンズ118とカメラ本体120との間で通信を行うための複数の金属接点を備え、レンズCPU113とカメラCPU110とを電気的に接続する接続手段である。尚、図2に示すように、交換レンズ118とカメラ本体120との間にコンバージョンレンズ119を配置する場合においても、無い場合と同様にレンズCPU113とカメラCPU110とを電気的に接続することが可能である。 The lens CPU 113 includes a communication circuit (communication means) for communicating between the interchangeable lens 118 and the camera body 120, reset exception handling, A / D, timer, input / output port, built-in ROM, built-in RAM, and the like. Has a function. The communication circuit communicates between the interchangeable lens 118 and the camera body 120 by a communication method including control information according to the shooting mode (moving image shooting mode, still image shooting mode). The optical system control unit 107 is a lens control means for controlling each component inside the interchangeable lens 1, and is a lens, an aperture, or the like using control information obtained via a communication circuit based on an instruction from the lens CPU 113. Drive control of the optical element of. The contact unit 8 is a connection means that includes a plurality of metal contacts for communicating between the interchangeable lens 118 and the camera body 120, and electrically connects the lens CPU 113 and the camera CPU 110. As shown in FIG. 2, even when the conversion lens 119 is arranged between the interchangeable lens 118 and the camera body 120, the lens CPU 113 and the camera CPU 110 can be electrically connected as in the case where the conversion lens 119 is not provided. Is.

コンバージョンレンズ119は、アクセサリ光学系102、接点ユニット115、116を備える。コンバージョンレンズ119を交換レンズ118とカメラ本体120の間に配置することで、アクセサリ光学系102の倍率分、撮像光学系101の焦点距離を変更することができる。たとえばアクセサリ光学系102が2倍のテレコンバータであれば、撮像光学系101の焦点距離が2倍に拡張される。図2では、交換レンズ118とカメラ本体120の間にコンバージョンレンズ119を1つ配置しているが、複数個配置すること可能であり、連結して配置することが可能である。接点ユニット115、116は、交換レンズ118とカメラ本体120との間で通信を行うための複数の金属接点を備え、レンズCPU113とカメラCPU110とを電気的に接続する接続手段である。コンバージョンレンズ119内に記憶部を配置してアクセサリ光学系102の情報を保持しておき、その情報をレンズCPU113、カメラCPU110に送信してもよい。尚、図2では、コンバージョンレンズ101cは撮像光学系101の撮像素子側に配置しているが、物体側(被写体側)に装着するタイプのコンバージョンレンズを用いてもよい。 The conversion lens 119 includes an accessory optical system 102 and contact units 115 and 116. By arranging the conversion lens 119 between the interchangeable lens 118 and the camera body 120, the focal length of the imaging optical system 101 can be changed by the magnification of the accessory optical system 102. For example, if the accessory optical system 102 is a double teleconverter, the focal length of the imaging optical system 101 is doubled. In FIG. 2, one conversion lens 119 is arranged between the interchangeable lens 118 and the camera body 120, but a plurality of conversion lenses 119 can be arranged and can be connected and arranged. The contact units 115 and 116 include a plurality of metal contacts for communicating between the interchangeable lens 118 and the camera body 120, and are connection means for electrically connecting the lens CPU 113 and the camera CPU 110. A storage unit may be arranged in the conversion lens 119 to hold the information of the accessory optical system 102, and the information may be transmitted to the lens CPU 113 and the camera CPU 110. In FIG. 2, the conversion lens 101c is arranged on the image sensor side of the image pickup optical system 101, but a conversion lens of a type mounted on the object side (subject side) may be used.

カメラ本体120は、光学ローパスフィルタ103、撮像素子104、画像処理部105、表示部106、状態検知部108、記憶部109、画像記録媒体110、カメラCPU111、接点ユニット117を備える。 The camera body 120 includes an optical low-pass filter 103, an image sensor 104, an image processing unit 105, a display unit 106, a state detection unit 108, a storage unit 109, an image recording medium 110, a camera CPU 111, and a contact unit 117.

撮像素子104は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal−Oxide Semiconductor)などの二次元撮像素子である。撮像素子104は、撮像光学系101、アクセサリ光学系102、光学ローパスフィルタ103を介して得られた被写体像(光学像、結像光)を光電変換して撮影画像を生成する。被写体像は、撮像素子104により光電変換が行われてアナログ信号(電気信号)に変換され、このアナログ信号は不図示のA/Dコンバータによりデジタル信号に変換され、このデジタル信号は画像処理部105に入力される。 The image pickup device 104 is a two-dimensional image pickup device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor). The image pickup element 104 generates a photographed image by photoelectrically converting a subject image (optical image, imaging light) obtained via the image pickup optical system 101, the accessory optical system 102, and the optical low-pass filter 103. The subject image is photoelectrically converted by the image pickup element 104 and converted into an analog signal (electrical signal), and this analog signal is converted into a digital signal by an A / D converter (not shown), and this digital signal is converted into a digital signal by the image processing unit 105. Is entered in.

画像処理部105は、このデジタル信号に対して所定の処理を行うとともに所定のアンシャープマスク処理を行う画像処理手段である。なお、本実施例では、カメラ本体の画像処理部が鮮鋭化処理を行っているが、パーソナルコンピュータ(PC)や専用の装置が画像処理装置として鮮鋭化処理を行ってもよい。 The image processing unit 105 is an image processing means that performs predetermined processing on the digital signal and also performs predetermined unsharp mask processing. In this embodiment, the image processing unit of the camera body performs the sharpening process, but a personal computer (PC) or a dedicated device may perform the sharpening process as the image processing device.

画像処理部105は、状態検知部108から撮像装置の撮影条件(撮像条件情報)を取得する。撮像条件情報とは、絞り、撮影距離、または、ズームレンズの焦点距離などに関する情報である。状態検知部108は、カメラCPU111から直接に撮像条件情報を取得することができるが、これに限定されるものではない。例えば、撮像光学系101に関する撮像条件情報は、光学系制御部107からレンズCPUを介して取得することもできる。 The image processing unit 105 acquires the imaging conditions (imaging condition information) of the imaging device from the state detection unit 108. The imaging condition information is information related to the aperture, the shooting distance, the focal length of the zoom lens, and the like. The state detection unit 108 can acquire imaging condition information directly from the camera CPU 111, but is not limited to this. For example, the imaging condition information regarding the imaging optical system 101 can be acquired from the optical system control unit 107 via the lens CPU.

画像処理部105は図9に示すように、取得部1051、再構成処理部1052、鮮鋭化処理部1053を有しており、入力画像に対して画像鮮鋭化処理を行う。 As shown in FIG. 9, the image processing unit 105 has an acquisition unit 1051, a reconstruction processing unit 1052, and a sharpening processing unit 1053, and performs image sharpening processing on the input image.

画像処理部105で処理された出力画像は、記憶部109に所定のフォーマットで保存される。記憶部109は、撮像光学系101の撮影条件と撮像光学系のPSFとの関係を記憶する記憶手段としても機能する。アンシャープマスク処理を実行する画像処理装置が画像処理部105とは別に設けられている場合、カメラCPU111は撮影画像と対応付けて収差情報を記憶してもよい。 The output image processed by the image processing unit 105 is stored in the storage unit 109 in a predetermined format. The storage unit 109 also functions as a storage means for storing the relationship between the imaging conditions of the imaging optical system 101 and the PSF of the imaging optical system. When an image processing device that executes unsharp mask processing is provided separately from the image processing unit 105, the camera CPU 111 may store aberration information in association with the captured image.

表示部106は、鮮鋭化処理後に表示用の所定の処理を行って得られた画像を表示することができる。表示部106には、高速表示のために簡易処理を行って得られた画像を表示してもよい。 The display unit 106 can display an image obtained by performing a predetermined process for display after the sharpening process. An image obtained by performing simple processing for high-speed display may be displayed on the display unit 106.

以上の一連の処理は、カメラCPU111により制御される。 The above series of processes is controlled by the camera CPU 111.

撮像光学系101には、ローパスフィルタや赤外線カットフィルタ等の光学素子を設けてもよい。ローパスフィルタ等、PSFに影響を与える光学素子を用いる場合は、アンシャープマスクを作成する時点でこの光学素子の影響を考慮すれば、より高精度な鮮鋭化処理が可能である。赤外カットフィルタを設ける場合も、分光波長のPSFの積分値であるRGBチャンネル(RGB色成分)のそれぞれのPSF、特にRチャンネルのPSFに影響を与えるため、アンシャープマスクを作成する時点でその影響を考慮することが好ましい。 The imaging optical system 101 may be provided with an optical element such as a low-pass filter or an infrared cut filter. When an optical element that affects PSF, such as a low-pass filter, is used, more accurate sharpening processing can be performed by considering the influence of this optical element at the time of creating the unsharp mask. Even if an infrared cut filter is provided, it affects the PSF of each RGB channel (RGB color component), which is the integral value of the PSF of the spectral wavelength, especially the PSF of the R channel. Therefore, at the time of creating the unsharp mask, It is preferable to consider the effect.

次に、図1を参照して、本実施例の画像処理方法について説明する。 Next, the image processing method of this embodiment will be described with reference to FIG.

図1は、本実施例の画像処理方法を示すフローチャートである。 FIG. 1 is a flowchart showing an image processing method of this embodiment.

図1のフローチャートは、コンピュータに各ステップの機能を実行させるためのプログラム(画像処理プログラム)として具現化することが可能である。これは他の実施例のフローチャートにおいても同様である。図1の各ステップは、カメラCPU111の指示に基づいて、画像処理部105により実行される。 The flowchart of FIG. 1 can be embodied as a program (image processing program) for causing a computer to execute the function of each step. This also applies to the flowcharts of other examples. Each step of FIG. 1 is executed by the image processing unit 105 based on the instruction of the camera CPU 111.

まずステップS11において、画像処理部105(取得部1051)は、光学系を介して生成された撮影画像を入力画像として取得する。入力画像として使用する補正対象としての色成分データは、例えば、デモザイキング後のGチャンネルの画像データである。ただし、RチャンネルやBチャンネルの画像データや、RGBの全てのチャンネルの画像データ、またはデモザイキング前の画像データであってもよい。
図8は、離散的な規則配列であるベイヤー配列の模式図である。例えば、単純にRGBの各チャンネルのデータをそのまま抜き出して、色ごとに入力画像として使用してもよく、または、特定のチャンネルのみ入力画像として使用してもよい。また、図8に示されるように、GチャンネルをG1、G2の2つに分け、4チャンネルとして取り扱ってもよい。Gチャンネルを2つに分けることで、R、G1、G2、Bのそれぞれを抜き出した画像データは解像度が等しくなるため、処理やデータ加工がしやすくなる。
First, in step S11, the image processing unit 105 (acquisition unit 1051) acquires a captured image generated via the optical system as an input image. The color component data as the correction target used as the input image is, for example, the image data of the G channel after demoizing. However, the image data of the R channel or the B channel, the image data of all the RGB channels, or the image data before demoizing may be used.
FIG. 8 is a schematic diagram of a Bayer array, which is a discrete regular array. For example, the data of each RGB channel may be simply extracted as it is and used as an input image for each color, or only a specific channel may be used as an input image. Further, as shown in FIG. 8, the G channel may be divided into two, G1 and G2, and treated as four channels. By dividing the G channel into two, the image data extracted from each of R, G1, G2, and B has the same resolution, which facilitates processing and data processing.

続いて、ステップS12において、画像処理部105(取得部1051)は、アクセサリ光学系102に関する情報を含む撮影条件情報を交換レンズ118より取得する。表1は、レンズID(識別ID)の値とレンズの状態の対応を示している。表1には、コンバージョンレンズの装着状況により3種類のレンズIDの値を示しているが、各値は例示である。本実施例では、レンズIDをアクセサリ光学系102の情報として取得する。レンズIDは記憶部112に格納されており、カメラ側で取得する際はレンズCPU113からカメラCPU111に送信される。記憶部112に格納されているレンズIDは、コンバージョンレンズの装着により更新される。コンバージョンレンズが装着されると、不図示の検出手段がそれを検出してレンズCPUがそれを認識し、記憶部112内のレンズIDを更新する。コンバージョンレンズの状態は撮影中には変化せず、初期通信時に得られるレンズIDはコンバージョンレンズの情報を常に正しく表すことができる。また、表1の対応表は記憶部109に格納されており、カメラCPU111は取得したレンズIDの値からレンズの状態を認識することができる。尚、本実施例では、レンズIDを交換レンズ118より取得しているが、本ステップで取得する情報はコンバージョンレンズの種類や倍率を特定できればよく、コンバージョンレンズの有無や倍率、焦点距離等の情報を取得してもよい。 Subsequently, in step S12, the image processing unit 105 (acquisition unit 1051) acquires imaging condition information including information regarding the accessory optical system 102 from the interchangeable lens 118. Table 1 shows the correspondence between the value of the lens ID (identification ID) and the state of the lens. Table 1 shows the values of three types of lens IDs depending on the mounting condition of the conversion lens, and each value is an example. In this embodiment, the lens ID is acquired as information of the accessory optical system 102. The lens ID is stored in the storage unit 112, and is transmitted from the lens CPU 113 to the camera CPU 111 when the lens ID is acquired on the camera side. The lens ID stored in the storage unit 112 is updated by mounting the conversion lens. When the conversion lens is attached, the detection means (not shown) detects it, the lens CPU recognizes it, and the lens ID in the storage unit 112 is updated. The state of the conversion lens does not change during shooting, and the lens ID obtained during the initial communication can always correctly represent the information of the conversion lens. Further, the correspondence table in Table 1 is stored in the storage unit 109, and the camera CPU 111 can recognize the state of the lens from the acquired value of the lens ID. In this embodiment, the lens ID is acquired from the interchangeable lens 118, but the information acquired in this step only needs to be able to specify the type and magnification of the conversion lens, and information such as the presence / absence of the conversion lens, the magnification, and the focal length. May be obtained.

ステップS13において、画像処理部105(取得部1051)は、撮像条件に応じた撮像光学系101のPSFの再構成に用いる式(8)の関数(所定の関数)の係数a、b、c、d、e、σ、βのデータを取得する。たとえば、コンバージョンレンズ119が1.4倍のテレコンバータであった場合、ステップS12において取得されるレンズIDは02となる。この場合、本ステップで取得される係数データは、テレコンバータを含めた光学系に対応するPSFの情報でなく、撮像光学系101のPSFに対応した係数データである。すなわち、ステップS12において取得されるレンズIDが表1のいずれの番号であっても、記憶部112あるいは記憶部109より取得する係数データは同一となる。 In step S13, the image processing unit 105 (acquisition unit 1051) has the coefficients a, b, c of the function (predetermined function) of the function (predetermined function) of the formula (8) used for reconstructing the PSF of the imaging optical system 101 according to the imaging conditions. Acquire the data of d, e, σ, and β. For example, if the conversion lens 119 is a 1.4x teleconverter, the lens ID acquired in step S12 is 02. In this case, the coefficient data acquired in this step is not the information of the PSF corresponding to the optical system including the teleconverter, but the coefficient data corresponding to the PSF of the imaging optical system 101. That is, regardless of which number in Table 1 the lens ID acquired in step S12 is, the coefficient data acquired from the storage unit 112 or the storage unit 109 is the same.

なお、ある像点に対応する近似PSFを生成するためには、必ずしもこれら全ての係数のデータを取得する必要はない。例えば光軸上のPSFであれば、前述した回転対称な形状となるため、a=c、b=0、d=1となる。 It is not always necessary to acquire the data of all these coefficients in order to generate the approximate PSF corresponding to a certain image point. For example, in the case of PSF on the optical axis, since the shape is rotationally symmetric as described above, a = c, b = 0, and d = 1.

また、係数βはべき乗の項であるため、係数βをPSFに応じて変化できるようにすると処理負荷が増大する。このため、β=1と固定してもよい。このように係数βを固定すると、係数βを有する場合に比べて表現できる形状が減るものの、記憶部112、または記憶部109に保持する係数データ量の削減や処理負荷の低減を図ることができる。 Further, since the coefficient β is a term of power, if the coefficient β can be changed according to the PSF, the processing load increases. Therefore, β = 1 may be fixed. When the coefficient β is fixed in this way, the shape that can be expressed is reduced as compared with the case where the coefficient β is provided, but the amount of coefficient data held in the storage unit 112 or the storage unit 109 can be reduced and the processing load can be reduced. ..

また、近似精度を向上させるため、係数を追加してもよい。例えば分布の拡がりが小さく、ピークが高くなるようなPSFに対しては、連続関数で高精度にフィッティングするのは難しいため、PSFのピークあるいはピーク付近の値を直接、係数として設定してもよい。このように、分布が急激に変化する領域を直接、係数として設定することにより、関数で再現する領域をそれ以外の領域とすることができ、近似精度を向上させることが可能となる。また、ステップS13において、画像処理部105(取得部1051)は、係数データだけでなく、鮮鋭化処理を実行する際に用いる調整係数mを取得してもよい。 Further, in order to improve the approximation accuracy, a coefficient may be added. For example, for a PSF with a small distribution spread and a high peak, it is difficult to fit with high accuracy using a continuous function, so the peak of the PSF or a value near the peak may be set directly as a coefficient. .. In this way, by directly setting the region where the distribution changes rapidly as a coefficient, the region reproduced by the function can be set as another region, and the approximation accuracy can be improved. Further, in step S13, the image processing unit 105 (acquisition unit 1051) may acquire not only the coefficient data but also the adjustment coefficient m used when executing the sharpening process.

次に、図7を参照して、アンシャープマスクUSMについて説明する。 Next, the unsharp mask USM will be described with reference to FIG. 7.

図7(A)はアンシャープマスクの模式図、図7(B)はアンシャープマスクの概略断面図である。 FIG. 7A is a schematic view of the unsharp mask, and FIG. 7B is a schematic cross-sectional view of the unsharp mask.

アンシャープマスクUSMは、撮像光学系の収差特性や要求される鮮鋭化の精度に応じてそのタップ数が決定される。図7(A)に示されるアンシャープマスクUSMは、一例として、11×11タップの二次元のマスクである。また、図7(A)では、各タップ内の値(係数)を省略しているが、アンシャープマスクUSMの一断面を図7(B)に示す。図7(B)において、実線がアンシャープマスクUSMの断面であり、横軸はタップ、縦軸はタップの値である。アンシャープマスクUSMの各タップの値(係数値)の分布は、収差により広がった信号値(撮像光学系のPSF)の分布が理想的である。 The number of taps of the unsharp mask USM is determined according to the aberration characteristics of the imaging optical system and the required sharpening accuracy. The unsharp mask USM shown in FIG. 7A is, for example, a two-dimensional mask with 11 × 11 taps. Further, although the values (coefficients) in each tap are omitted in FIG. 7A, one cross section of the unsharp mask USM is shown in FIG. 7B. In FIG. 7B, the solid line is the cross section of the unsharp mask USM, the horizontal axis is the tap value, and the vertical axis is the tap value. Ideally, the distribution of the value (coefficient value) of each tap of the unsharp mask USM is the distribution of the signal value (PSF of the imaging optical system) spread by the aberration.

本実施例において、画像処理部105は、係数データを用いて近似PSFを生成し、近似PSFに対応するアンシャープマスクUSMを生成する。このため、撮像光学系のPSFに対応するデータを直接保持する場合と比べて、補正精度を維持したまま保持すべきデータ量を大幅に削減することができる。例えば、図7に示されるように、11×11タップのアンシャープマスクUSMであれば、121個のタップ値のデータを持つ必要がある。RGBに対するデータを別々に保持する場合にはその3倍になるため、363個のタップ値のデータを保持しなければならない。一方、係数を保持する場合、式(8)の係数は7個であり、RGBに対する係数を別々に保持する場合であっても21個となる。このように、係数のデータを保持することで保持データ量を削減することができる。 In this embodiment, the image processing unit 105 generates an approximate PSF using the coefficient data, and generates an unsharp mask USM corresponding to the approximate PSF. Therefore, as compared with the case where the data corresponding to the PSF of the imaging optical system is directly held, the amount of data to be held while maintaining the correction accuracy can be significantly reduced. For example, as shown in FIG. 7, an 11 × 11 tap unsharp mask USM needs to have data of 121 tap values. When the data for RGB is held separately, the data is tripled, so that the data of 363 tap values must be held. On the other hand, when the coefficients are held, the coefficients in the equation (8) are 7, and even when the coefficients for RGB are held separately, the number is 21. In this way, the amount of retained data can be reduced by retaining the coefficient data.

続いて、ステップS14において、画像処理部105(再構成処理部2052)は、ステップS12で取得した撮影情報、及びステップS13にて取得した係数データを用いてPSFを再構成する(再構成処理)。PSFは、係数データと係数データを算出する際に利用した関数である式(8)に基づいて再構成され、本実施例は再構成したPSFをアンシャープマスクして利用する。図14は、再構成された点像強度分布関数PSFの断面図であり、アンシャープマスクとして図の領域Aの部分を再現させようとする場合には、少し広めの領域Bでフィッティングし、係数を生成してもよい。これにより、交換レンズなどにより、後からタップ数やピッチを変更した場合に、領域を増やす方向にも変更することが可能となる。 Subsequently, in step S14, the image processing unit 105 (reconstruction processing unit 2052) reconstructs the PSF using the shooting information acquired in step S12 and the coefficient data acquired in step S13 (reconstruction processing). .. The PSF is reconstructed based on the coefficient data and the equation (8) which is a function used when calculating the coefficient data, and in this embodiment, the reconstructed PSF is used with an unsharp mask. FIG. 14 is a cross-sectional view of the reconstructed point image intensity distribution function PSF. When trying to reproduce the portion of the figure region A as an unsharp mask, fitting is performed in a slightly wider region B and the coefficients are May be generated. As a result, when the number of taps or the pitch is changed later by using an interchangeable lens or the like, it is possible to change the direction to increase the area.

本実施例において、式(8)のような連続関数を離散化する際のサンプリングピッチはステップS12で取得したレンズIDにより決まる。 In this embodiment, the sampling pitch when discretizing the continuous function as in the equation (8) is determined by the lens ID acquired in step S12.

レンズIDが01であった場合は撮像光学系101のみの状態、つまり撮像装置が交換レンズ118とカメラ本体120で構成する状態となる。ステップS13で取得される係数データは、撮像光学系101に関する情報でありレンズIDが01の状態に対応している。そのため、ステップS12において、取得されたレンズIDが01であった場合はそのまま再構成を実施することができる。基本的に、生成されるアンシャープマスクの1つのタップの大きさは、画像を取得した際の撮像素子の一画素の大きさに一致させる必要があるため、一意的に決定される場合にはセンサの画素サイズに合うように生成する。本処理のように、係数からアンシャープマスクを再構成する場合、係数を増やせばその分鮮鋭化の際の補正精度も向上するため、要求精度に合わせて係数の生成および再構成を行うことが好ましい。次に、レンズIDが02であった場合、撮像装置は交換レンズ118、コンバージョンレンズ119(テレコンバータ1.4倍)、カメラ本体120で構成されている。 When the lens ID is 01, the image pickup optical system 101 is the only state, that is, the image pickup device is composed of the interchangeable lens 118 and the camera body 120. The coefficient data acquired in step S13 is information about the imaging optical system 101 and corresponds to the state where the lens ID is 01. Therefore, in step S12, if the acquired lens ID is 01, the reconstruction can be performed as it is. Basically, the size of one tap of the generated unsharp mask needs to match the size of one pixel of the image sensor when the image is acquired, so if it is uniquely determined, Generate to match the pixel size of the sensor. When the unsharp mask is reconstructed from the coefficient as in this process, the correction accuracy at the time of sharpening is improved by increasing the coefficient, so it is possible to generate and reconstruct the coefficient according to the required accuracy. preferable. Next, when the lens ID is 02, the image pickup apparatus is composed of an interchangeable lens 118, a conversion lens 119 (teleconverter 1.4 times), and a camera body 120.

レンズIDが02の場合もステップS13で取得する係数データは撮像光学系101に対応した情報が取得されるため、アクセサリ光学系102による光学性能の変化は考慮されていないデータとなる。そのため、レンズIDが02の場合は、レンズIDが01の場合と同じようにそのまま再構成を行うと、撮像素子104上に形成されるPSFとは大きく乖離した近似PSFとなってしまう。よって、コンバージョンレンズ119が装着された状態であっても、撮像素子104上に形成されるPSFを高精度に再現するため、ステップS13で取得した係数データを元にレンズIDに応じた調整を行う。もしアクセサリ光学系が無収差であったとすると、撮像素子104上に形成されるPSFは撮像光学系で発生する収差がコンバージョンレンズ119の倍率分だけ拡大される。 Even when the lens ID is 02, the coefficient data acquired in step S13 is the information corresponding to the imaging optical system 101, so that the change in the optical performance due to the accessory optical system 102 is not taken into consideration. Therefore, when the lens ID is 02, if the reconstruction is performed as it is as in the case where the lens ID is 01, the PSF formed on the image sensor 104 will be an approximate PSF that is significantly different from the PSF formed on the image sensor 104. Therefore, even when the conversion lens 119 is attached, in order to reproduce the PSF formed on the image sensor 104 with high accuracy, adjustment is performed according to the lens ID based on the coefficient data acquired in step S13. .. If the accessory optical system is aberration-free, the aberration generated in the image pickup optical system of the PSF formed on the image pickup element 104 is magnified by the magnification of the conversion lens 119.

レンズIDが02であれば、表1からコンバージョンレンズ119は1.4倍のテレコンバータであることが識別される。コンバージョンレンズ119が特定されることで、アクセサリ光学系の倍率の情報を一意に求めることができる。 If the lens ID is 02, Table 1 identifies that the conversion lens 119 is a 1.4x teleconverter. By identifying the conversion lens 119, it is possible to uniquely obtain information on the magnification of the accessory optical system.

表1では、レンズIDとレンズの状態を記載しているが、同じように倍率情報についてもレンズIDとの対応関係を記憶部112または記憶部109に格納しておいてもよい。次に得られたアクセサリ光学系の倍率情報とステップS13で取得してきた係数データを用いてアンシャープマスクを生成する。レンズIDが01の場合は画素サイズに合うように再構成を行ったが、レンズIDが02の場合はアクセサリ光学系102の倍率分PSFを拡大しながら離散化を実施する。つまり、画素サイズの間隔で離散化するのではなく、画素サイズを1/1.4倍縮小した間隔で離散化する。こうすることで、再構成されるPSFはアクセサリ光学系102の倍率分拡大され、コンバージョンレンズ119による光学特性の変化を考慮したアンシャープマスクを生成することができる。 Although Table 1 shows the lens ID and the state of the lens, similarly, the correspondence relationship between the lens ID and the lens ID may be stored in the storage unit 112 or the storage unit 109 for the magnification information. Next, an unsharp mask is generated using the magnification information of the accessory optical system obtained and the coefficient data acquired in step S13. When the lens ID is 01, the reconstruction is performed so as to match the pixel size, but when the lens ID is 02, discretization is performed while expanding the PSF by the magnification of the accessory optical system 102. That is, instead of discretizing at the pixel size interval, the pixel size is discretized at an interval reduced by 1 / 1.4 times. By doing so, the reconstructed PSF is magnified by the magnification of the accessory optical system 102, and an unsharp mask can be generated in consideration of the change in the optical characteristics due to the conversion lens 119.

また、図2のように交換レンズ118とカメラ本体120の間に配置するリアコンバータータイプのコンバージョンレンズの場合、撮像光学系101のF値も変化する。倍率1.4倍のテレコンバータであれば約1段、倍率2.0倍のテレコンバータであれば2段分暗い方に変化する。そのため、ステップS13でコンバージョンレンズ119によって変化した後のF値に対応した係数データを取得してもよい。ステップS12において撮像光学系101の撮影条件を取得した際、得られたF値がF2.8であった場合は一段絞るとF4.0となる。このとき、ステップS13で取得される係数データがF2.8ではなく、F4.0の撮像光学系101に対応したデータであれば、上記のようなリアコンバーターによるF値の変化にも対応することができる。ステップS12おいて取得されたレンズIDが03であった場合については、レンズIDが02の場合とほぼ同様の流れで再構成を実施することができるため、詳細説明は割愛する。 Further, in the case of a rear converter type conversion lens arranged between the interchangeable lens 118 and the camera body 120 as shown in FIG. 2, the F value of the imaging optical system 101 also changes. A teleconverter with a magnification of 1.4 times changes to about 1 step, and a teleconverter with a magnification of 2.0 times changes to darker by 2 steps. Therefore, the coefficient data corresponding to the F value after the change by the conversion lens 119 in step S13 may be acquired. When the imaging conditions of the imaging optical system 101 are acquired in step S12, if the obtained F value is F2.8, it becomes F4.0 when the aperture is stopped down by one step. At this time, if the coefficient data acquired in step S13 is not F2.8 but data corresponding to the imaging optical system 101 of F4.0, it also corresponds to the change of the F value by the rear converter as described above. Can be done. When the lens ID acquired in step S12 is 03, the reconstruction can be performed in almost the same flow as in the case where the lens ID is 02, so detailed description thereof will be omitted.

図13(A)は、生成したアンシャープマスクの位置と入力画像との関係を示している。白丸は作成するアンシャープマスクの位置を示しており、図13(A)のように入力画像を分割して81点分のアンシャープマスクを生成する。そして、これらのアンシャープマスクに対して線形補間などを行うことにより、入力画像における任意の位置のアンシャープマスクを生成することができ、PSFの像高変化への対応が可能となる。ここで、分割数については、図13(A)では9×9としているが、軽量化のため減らしてもよいし、より精度を重視して増やしてもよい。また、図13(A)の白丸の各点について直接PSFを取得するのではなく、補間により生成してもよい。 FIG. 13A shows the relationship between the position of the generated unsharp mask and the input image. The white circles indicate the positions of the unsharp masks to be created, and as shown in FIG. 13A, the input image is divided to generate 81 unsharp masks. Then, by performing linear interpolation or the like on these unsharp masks, it is possible to generate an unsharp mask at an arbitrary position in the input image, and it is possible to respond to changes in the image height of the PSF. Here, the number of divisions is 9 × 9 in FIG. 13 (A), but it may be reduced for weight reduction or increased with more emphasis on accuracy. Further, the PSF may not be directly acquired for each point of the white circle in FIG. 13 (A), but may be generated by interpolation.

図13(B)はその一例を示しており、各位置におけるアンシャープマスクを補間により生成する場合を表している。図13(B)の黒点は、ステップS14にて作成するアンシャープマスクの位置を示している。一般的に撮像光学系のPSFは光軸に対して回転対称となるため、アンシャープマスクも同様に回転対称になる。この特徴を利用して、図13(B)の例では、画像の中心から下方向に10点分のアンシャープマスクを生成しておき、これらを画像の中心に対して回転しながら各白丸に対応する位置のアンシャープマスクを補間により生成する。これにより、入力画像の各位置におけるアンシャープマスクを一つ一つ作成する必要がなくなるため、処理負荷を低減することができる。像高に対する対応については以上となる。 FIG. 13B shows an example thereof, and shows a case where an unsharp mask at each position is generated by interpolation. The black dots in FIG. 13B indicate the positions of the unsharp masks created in step S14. In general, the PSF of the imaging optical system is rotationally symmetric with respect to the optical axis, so that the unsharp mask is also rotationally symmetric. Utilizing this feature, in the example of FIG. 13B, 10 unsharp masks are generated downward from the center of the image, and these are rotated with respect to the center of the image to form each white circle. An unsharp mask at the corresponding position is generated by interpolation. This eliminates the need to create unsharp masks at each position of the input image one by one, so that the processing load can be reduced. That is all for the correspondence to the image height.

続いて、ステップS15において、画像処理部105(鮮鋭化処理部1053)は、ステップS14にて生成したアンシャープマスクUSMを用いて、撮影画像の鮮鋭化処理を実行する。本実施例では、アンシャープマスクUSMに撮像光学系のPSFを用いているため、入力画像の周辺部に見られるような撮像光学系の非対称なPSFによって劣化した画像であっても、入力画像を精度良く補正し鮮鋭化することができる。 Subsequently, in step S15, the image processing unit 105 (sharpening processing unit 1053) executes the sharpening process of the captured image using the unsharp mask USM generated in step S14. In this embodiment, since the PSF of the imaging optical system is used for the unsharp mask USM, even if the image is deteriorated by the asymmetrical PSF of the imaging optical system as seen in the peripheral portion of the input image, the input image is displayed. It can be corrected and sharpened with high accuracy.

鮮鋭化処理後の画像g(x,y)は、式(1)、(3)より、以下の式(9)、(10)、(11)のように表現することができる。 The image g (x, y) after the sharpening process can be expressed as the following equations (9), (10), and (11) from the equations (1) and (3).

g(x,y)=f(x,y)+m×{f(x,y)−f(x,y)*USM(x,y)}…(9)
g(x,y)=f(x,y)+m×f(x,y)*{δ(x,y)−USM(x,y)}…(10)
g(x,y)=f(x,y)*{δ(x,y)+m×(δ(x,y)−USM(x,y))}…(11)
ここで、便宜的に式(11)の中括弧{}の部分を鮮鋭化フィルタと呼ぶことにする。鮮鋭化フィルタは、アンシャープマスクUSMおよび調整係数mを用いて生成することができる。調整係数mは、画像のノイズや鮮鋭化の補正過剰や補正不足を考慮して値を決定される。ステップS15において、鮮鋭化処理部1054は、ステップS14にて生成したアンシャープマスクUSMを用いて、式(11)に基づき入力画像に対して鮮鋭化処理を実行する。
g (x, y) = f (x, y) + m × {f (x, y) -f (x, y) * USM (x, y)} ... (9)
g (x, y) = f (x, y) + m × f (x, y) * {δ (x, y) -USM (x, y)} ... (10)
g (x, y) = f (x, y) * {δ (x, y) + m × (δ (x, y) -USM (x, y))} ... (11)
Here, for convenience, the part of the curly braces {} in the equation (11) is called a sharpening filter. The sharpening filter can be generated using the unsharp mask USM and the adjustment factor m. The value of the adjustment coefficient m is determined in consideration of image noise, overcorrection of sharpening, and undercorrection. In step S15, the sharpening processing unit 1054 executes sharpening processing on the input image based on the equation (11) using the unsharp mask USM generated in step S14.

本実施例において、アンシャープマスクUSMは、入力画像に関して図13(A)に示されるように離散的に保持されている。このため、図13(A)の白丸以外の位置で鮮鋭化処理を行うには、対応するアンシャープマスクUSMあるいは鮮鋭化フィルタが必要になる。本実施例では、離散的に生成したアンシャープUSMを線形補間することにより、任意の位置で鮮鋭化処理を行うことが可能である。具体的には、ある位置に対応したアンシャープマスクUSMをその位置近傍4点の白丸に対応したアンシャープマスクを線形補間することで生成し、式(11)に基づいて鮮鋭化処理を実施する。これにより、画像内の任意の位置での鮮鋭化処理が可能となり、画像内の鮮鋭化効果も連続的に変化するため、より自然な鮮鋭化画像が生成することができる。また、線形補間はアンシャープマスクUSMではなく、鮮鋭化フィルタで行ってもよい。 In this embodiment, the unsharp mask USM is discretely held with respect to the input image as shown in FIG. 13 (A). Therefore, in order to perform the sharpening process at a position other than the white circle in FIG. 13A, a corresponding unsharp mask USM or a sharpening filter is required. In this embodiment, the sharpening process can be performed at an arbitrary position by linearly interpolating the discretely generated unsharp USM. Specifically, an unsharp mask USM corresponding to a certain position is generated by linearly interpolating an unsharp mask corresponding to four white circles near the position, and sharpening processing is performed based on the equation (11). .. As a result, sharpening processing can be performed at an arbitrary position in the image, and the sharpening effect in the image also changes continuously, so that a more natural sharpening image can be generated. Further, linear interpolation may be performed by a sharpening filter instead of the unsharp mask USM.

なお本実施例では、式(11)に基づく鮮鋭化処理について説明したが、式(9)または式(10)を用いて鮮鋭化処理を実行してもよく、いずれの場合も同様の効果を得ることができる。式(9)または式(10)は、入力画像に補正成分を加算する形で表現されているが、これは調整係数mが正の場合であり、調整係数mが負の場合は減算になる。このように、調整係数mの符号の違いによるもので本質的には同じことを意味するため、調整係数mの符号によって変えれば演算はどちらであっても構わない。 In this embodiment, the sharpening treatment based on the formula (11) has been described, but the sharpening treatment may be performed using the formula (9) or the formula (10), and the same effect can be obtained in either case. Obtainable. Equation (9) or Equation (10) is expressed by adding a correction component to the input image, but this is the case where the adjustment coefficient m is positive, and when the adjustment coefficient m is negative, it is subtraction. .. As described above, since the difference in the sign of the adjustment coefficient m means essentially the same, it does not matter which operation is performed as long as it is changed according to the sign of the adjustment coefficient m.

本実施例では、撮像光学系のPSFに対応する式(8)およびその係数から生成した近似PSFをアンシャープマスクUSMに用いている。このため、入力画像の周辺部にみられるような撮像光学系の非対称なPSFによる劣化に対しても精度良く鮮鋭化することができる。 In this embodiment, the equation (8) corresponding to the PSF of the imaging optical system and the approximate PSF generated from the coefficients are used for the unsharp mask USM. Therefore, it is possible to accurately sharpen the deterioration of the imaging optical system due to the asymmetric PSF, which is seen in the peripheral portion of the input image.

さらに、本実施例では、撮像光学系101に対応した係数データのみ保持しておき、係数データとアクセサリ光学系102の情報からアクセサリ光学系による光学性能の変化を含めた近似PSFを再構成する。表1に示すように、撮像装置が3つの状態をとる場合、単純にそれぞれの状態に対応した係数データを用意しようとすれば、約3倍のデータを保持しなければならない。本実施例では、アクセサリ光学系に関する倍率、またはその情報を特定することのできるレンズIDから近似PSFを再構成するため、格納する係数データは別々に用意する場合に比べて1/3にデータ量を削減することができる。 Further, in this embodiment, only the coefficient data corresponding to the imaging optical system 101 is retained, and the approximate PSF including the change in the optical performance due to the accessory optical system is reconstructed from the coefficient data and the information of the accessory optical system 102. As shown in Table 1, when the imaging device takes three states, if it is simply intended to prepare coefficient data corresponding to each state, it is necessary to hold about three times as many data. In this embodiment, since the approximate PSF is reconstructed from the magnification related to the accessory optical system or the lens ID capable of specifying the information, the coefficient data to be stored is 1/3 of the data amount as compared with the case where they are separately prepared. Can be reduced.

本実施例の画像処理方法を用いることにより、鮮鋭化処理に必要な情報量を低減しつつ、高精度な鮮鋭化処理を実行することが可能となる。 By using the image processing method of this embodiment, it is possible to execute high-precision sharpening processing while reducing the amount of information required for sharpening processing.

本発明の実施例2である撮像装置について説明する。 The image pickup apparatus according to the second embodiment of the present invention will be described.

図15は実施例2における撮像装置のブロック図である。 FIG. 15 is a block diagram of the imaging device according to the second embodiment.

本実施例の撮像装置は、交換レンズ218、コンバージョンレンズ219、カメラ本体220で構成され、交換レンズ218のみが実施例1と異なり、その他の構成は実施例1の撮像装置と共通である。 The image pickup apparatus of this embodiment includes an interchangeable lens 218, a conversion lens 219, and a camera body 220. Only the interchangeable lens 218 is different from the first embodiment, and the other configurations are the same as those of the first embodiment.

交換レンズ218は、撮像光学系201、光学系制御部207、記憶部212、レンズCPU213、接点ユニット214、内臓エクステンダー201c(テレコンバータ)を備える。また、撮像光学系201は、絞り201aおよびフォーカスレンズ201bを備えて構成されている。内臓エクステンダー201cは、交換レンズ218の鏡筒に設けられたレバーなどの操作部をユーザーが機械的に操作することにより光路に挿抜される。内臓エクステンダー201cを挿入することにより、撮像光学系201の焦点距離を1.4倍や2.0倍などへ変更することが可能である。また、内臓エクステンダー201cが挿入された場合、不図示の検出部あるいは光学系制御部207により検出され、レンズCPU213を介して記憶部212に格納されているレンズIDを更新する。その他の構成については、実施例1と共通であるため、説明は省略する。 The interchangeable lens 218 includes an imaging optical system 201, an optical system control unit 207, a storage unit 212, a lens CPU 213, a contact unit 214, and a built-in extender 201c (teleconverter). Further, the imaging optical system 201 is configured to include an aperture 201a and a focus lens 201b. The built-in extender 201c is inserted into and removed from the optical path by the user mechanically operating an operation unit such as a lever provided on the lens barrel of the interchangeable lens 218. By inserting the built-in extender 201c, it is possible to change the focal length of the imaging optical system 201 to 1.4 times, 2.0 times, or the like. When the built-in extender 201c is inserted, it is detected by a detection unit (not shown) or an optical system control unit 207, and the lens ID stored in the storage unit 212 is updated via the lens CPU 213. Since other configurations are the same as those in the first embodiment, the description thereof will be omitted.

本実施例の画像処理方法については、図1に示す実施例1のフローチャートとステップS12及びステップS14が異なるため、それぞれ順に説明する。 Since the flowchart of the first embodiment shown in FIG. 1 and steps S12 and S14 are different from each other, the image processing method of the present embodiment will be described in order.

ステップS12では、画像処理部205はアクセサリ光学系202、及び内臓エクステンダー201cに関する情報を含む撮影条件情報を交換レンズ218より取得する。表2は、本実施例におけるレンズID(識別ID)の値とレンズの状態の対応を示している。表2には、コンバージョンレンズの装着状況により6種類のレンズIDの値を示しているが、各値は例示である。レンズIDは記憶部212に格納されており、カメラ側で取得する際はレンズCPU213からカメラCPU211に送信される。表2の対応表は記憶部209に格納されており、カメラCPU211は取得したレンズIDの値からレンズの状態を認識することができる。 In step S12, the image processing unit 205 acquires imaging condition information including information regarding the accessory optical system 202 and the built-in extender 201c from the interchangeable lens 218. Table 2 shows the correspondence between the value of the lens ID (identification ID) and the state of the lens in this embodiment. Table 2 shows the values of six types of lens IDs depending on the mounting status of the conversion lens, and each value is an example. The lens ID is stored in the storage unit 212, and is transmitted from the lens CPU 213 to the camera CPU 211 when acquired by the camera side. The correspondence table in Table 2 is stored in the storage unit 209, and the camera CPU 211 can recognize the state of the lens from the acquired value of the lens ID.

ステップS14では、画像処理部205は、ステップS12で取得した撮影情報、及びステップS13にて取得した係数データを用いてPSFを再構成する。PSFは、係数データと係数データを算出する際に利用した関数である式(8)に基づいて再構成され、本実施例は再構成したPSFをアンシャープマスクして利用する。本実施例において、式(8)のような連続関数を離散化する際のサンプリングピッチはステップS12で取得したレンズIDにより決まる。レンズIDが01以外の場合は、内臓エクステンダー201c及びアクセサリ光学系202の倍率分PSFを拡大しながら離散化を実施する。たとえば、レンズIDが06であり、内臓エクステンダーの倍率が2.0倍であったとすると、撮像光学系201の焦点距離は4.0倍に変更される。よって、離散化する際の画素ピッチは画素サイズを1/4倍縮小した間隔で離散化すればよい。また、実施例1で説明したように、撮像光学系201のF値も変化も考慮する場合は、内臓エクステンダー201cとアクセサリ光学系202の倍率の積の分だけF値が暗くなるため、そのことを考慮して係数データを取得してもよい。 In step S14, the image processing unit 205 reconstructs the PSF using the shooting information acquired in step S12 and the coefficient data acquired in step S13. The PSF is reconstructed based on the coefficient data and the equation (8) which is a function used when calculating the coefficient data, and in this embodiment, the reconstructed PSF is used with an unsharp mask. In this embodiment, the sampling pitch when discretizing the continuous function as in the equation (8) is determined by the lens ID acquired in step S12. When the lens ID is other than 01, discretization is performed while expanding the PSF by the magnification of the built-in extender 201c and the accessory optical system 202. For example, if the lens ID is 06 and the magnification of the built-in extender is 2.0 times, the focal length of the imaging optical system 201 is changed to 4.0 times. Therefore, the pixel pitch at the time of discretization may be discretized at intervals obtained by reducing the pixel size by 1/4 times. Further, as described in the first embodiment, when considering the change in the F value of the imaging optical system 201, the F value becomes darker by the product of the magnification of the built-in extender 201c and the accessory optical system 202. The coefficient data may be acquired in consideration of.

本実施例では、内臓エクステンダーを有する交換レンズに対して、撮影条件に対応した近似PSFを生成する必要があるため、表2に示すように焦点距離のバリエーションも多くなる。特にこのような場合には、各レンズ状態に対応した係数データを生成し、記憶部に保持しておく必要がないため、本実施例の画像処理方法を用いることで大幅にデータ量を削減することができる。 In this embodiment, since it is necessary to generate an approximate PSF corresponding to the imaging conditions for the interchangeable lens having the built-in extender, there are many variations in the focal length as shown in Table 2. In particular, in such a case, it is not necessary to generate coefficient data corresponding to each lens state and store it in the storage unit. Therefore, the amount of data can be significantly reduced by using the image processing method of this embodiment. be able to.

本発明の実施例3である撮像装置について説明する。 The image pickup apparatus according to the third embodiment of the present invention will be described.

図16は実施例3における撮像装置のブロック図である。 FIG. 16 is a block diagram of the imaging device according to the third embodiment.

本実施例の撮像装置は、交換レンズ318、コンバージョンレンズ319、カメラ本体320で構成される。実施例3のコンバージョンレンズ319は交換レンズ318の物体側(被写体側)に装着され、ワイドコンバータ、テレコンバータ、クローズアップレンズ等の光学特性を変更するアクセサリ光学系302を有する。コンバージョンレンズ319が装着された場合、接点ユニット314、315を介してレンズCPU313に情報が送信され、レンズCPU313は記憶部312に格納されているレンズIDを更新する。また、コンバージョンレンズ319を装着すると、光学特性が変化するので撮像光学系301単体で発生する収差が変化する。特に、撮像光学系301がズームレンズの場合、広いズーム範囲で画面中心から周辺までに亘って高い光学性能を維持することは困難である。例えば、ズームレンズにワイドコンバータを装着した場合、広角端の性能を優先して設計するために、広角端以外のズーム域では画面中心から球面収差が発生して光学性能を低下させる。 The image pickup apparatus of this embodiment includes an interchangeable lens 318, a conversion lens 319, and a camera body 320. The conversion lens 319 of the third embodiment is mounted on the object side (subject side) of the interchangeable lens 318, and has an accessory optical system 302 that changes optical characteristics such as a wide converter, a teleconverter, and a close-up lens. When the conversion lens 319 is attached, information is transmitted to the lens CPU 313 via the contact units 314 and 315, and the lens CPU 313 updates the lens ID stored in the storage unit 312. Further, when the conversion lens 319 is attached, the optical characteristics change, so that the aberration generated by the imaging optical system 301 alone changes. In particular, when the imaging optical system 301 is a zoom lens, it is difficult to maintain high optical performance from the center of the screen to the periphery in a wide zoom range. For example, when a wide-angle converter is attached to a zoom lens, spherical aberration is generated from the center of the screen in a zoom range other than the wide-angle end in order to give priority to the performance at the wide-angle end, which deteriorates the optical performance.

尚、レンズID等のアクセサリ光学系に関する情報の更新はユーザーの入力操作によって行ってもよい。その他の構成は実施例1の撮像装置と共通であるため、説明は省略する。 Information about the accessory optical system such as the lens ID may be updated by a user input operation. Since other configurations are common to the image pickup apparatus of the first embodiment, the description thereof will be omitted.

本実施例の画像処理方法については、図1に示す実施例1のフローチャートとステップS12及びステップS14が異なるため、それぞれ順に説明する。 Since the flowchart of the first embodiment shown in FIG. 1 and steps S12 and S14 are different from each other, the image processing method of the present embodiment will be described in order.

ステップS12では、画像処理部305はアクセサリ光学系302に関する情報を含む撮影条件情報を交換レンズ318より取得する。表3は、本実施例におけるレンズID(識別ID)の値とレンズの状態の対応を示している。表3には、コンバージョンレンズの装着状況により5種類のレンズIDの値を示しているが、各値は例示である。レンズIDは記憶部312に格納されており、カメラ側で取得する際はレンズCPU313からカメラCPU311に送信される。表3の対応表は記憶部309に格納されており、カメラCPU311は取得したレンズIDの値からレンズの状態を認識することができる。 In step S12, the image processing unit 305 acquires imaging condition information including information regarding the accessory optical system 302 from the interchangeable lens 318. Table 3 shows the correspondence between the value of the lens ID (identification ID) and the state of the lens in this embodiment. Table 3 shows the values of five types of lens IDs depending on the mounting status of the conversion lens, and each value is an example. The lens ID is stored in the storage unit 312, and is transmitted from the lens CPU 313 to the camera CPU 311 when the lens ID is acquired on the camera side. The correspondence table in Table 3 is stored in the storage unit 309, and the camera CPU 311 can recognize the state of the lens from the acquired value of the lens ID.

ステップS14では、画像処理部305は、ステップS12で取得した撮影情報、及びステップS13にて取得した係数データを用いてPSFを再構成する。PSFは、係数データと係数データを算出する際に利用した関数である式(8)に基づいて再構成され、本実施例は再構成したPSFをアンシャープマスクして利用する。本実施例において、式(8)のような連続関数を離散化する際のサンプリングピッチはステップS12で取得したレンズIDにより決まる。レンズIDが01以外の場合は、アクセサリ光学系302によって撮像光学系301の光学性能が低下するため、その分撮像光学系301単体のPSFよりもコンバージョンレンズ319を装着した際のPSFの方が分布は広がる。そのため、本実施例では、撮像素子の画素サイズよりも小さい間隔で離散化を実施することにより、光学性能が低下したPSFを再構成する。このように、画素サイズよりも小さい間隔で離散化するため、そのまま画素サイズで離散化するよりも補正精度は向上し、かつ格納する係数データは撮像光学系301単体に対応したデータのみで済むため、データ量を削減することができる。 In step S14, the image processing unit 305 reconstructs the PSF using the shooting information acquired in step S12 and the coefficient data acquired in step S13. The PSF is reconstructed based on the coefficient data and the equation (8) which is a function used when calculating the coefficient data, and in this embodiment, the reconstructed PSF is used with an unsharp mask. In this embodiment, the sampling pitch when discretizing the continuous function as in the equation (8) is determined by the lens ID acquired in step S12. If the lens ID is other than 01, the optical performance of the imaging optical system 301 deteriorates due to the accessory optical system 302. Therefore, the PSF when the conversion lens 319 is attached is distributed more than the PSF of the imaging optical system 301 alone. Spreads. Therefore, in this embodiment, the PSF having deteriorated optical performance is reconstructed by performing discretization at intervals smaller than the pixel size of the image sensor. In this way, since the discretization is performed at intervals smaller than the pixel size, the correction accuracy is improved as compared with the discretization by the pixel size as it is, and the coefficient data to be stored is only the data corresponding to the imaging optical system 301 alone. , The amount of data can be reduced.

次に、実施例4の撮像装置について説明する。 Next, the image pickup apparatus of Example 4 will be described.

本実施例の撮像装置は、実施例1の撮像装置と同様の構成を有する。 The image pickup apparatus of this embodiment has the same configuration as the image pickup apparatus of Example 1.

図17は、本実施例の画像処理方法を示すフローチャートである。 FIG. 17 is a flowchart showing an image processing method of this embodiment.

本実施例における鮮鋭化処理については、ステップS41、ステップS42、ステップS45は図1に示したステップS11、ステップS12、ステップS15と同様の処理を行うため説明を省略する。 Regarding the sharpening process in this embodiment, the description thereof will be omitted because step S41, step S42, and step S45 perform the same process as step S11, step S12, and step S15 shown in FIG.

ステップS43において、画像処理部105は撮像光学系101に対応したPSFデータを取得する。本実施例では、係数データから再構成を行って近似PSFを生成するのではなく、すでに離散化されているPSFデータを再度離散化することにより、各レンズ状態に対応した近似PSFを生成する。よって、本ステップでは記憶部112、あるいは記憶部109に格納された撮像光学系101に対応したPSFデータを取得する。 In step S43, the image processing unit 105 acquires PSF data corresponding to the imaging optical system 101. In this embodiment, the approximate PSF corresponding to each lens state is generated by re-discretizing the PSF data that has already been discretized, instead of reconstructing the coefficient data to generate the approximate PSF. Therefore, in this step, PSF data corresponding to the imaging optical system 101 stored in the storage unit 112 or the storage unit 109 is acquired.

次に、ステップS44において、ステップS42で取得した撮影情報およびステップS43で取得したPSFデータを用いて近似PSFを再構成する。図14において、領域BをステップS43で取得してきたPSFデータの範囲、領域Aを再構成後の近似PSFデータとする。ステップS42において、取得したレンズIDが01の場合、コンバージョンレンズ119が装着されていない状態であるため、ステップS43で取得したPSFデータをそのまま近似PSFデータとして使用する。次に、レンズIDが02あるいは03であった場合、アクセサリ光学系の倍率に応じた調整処理を行う。レンズIDが02の場合はPSFデータに対して1.4倍のアップサンプリングを行い、レンズIDが03の場合は2倍のアップサンプリングを行う。アップサンプリングによってサンプリング間隔はレンズIDが02の場合は1/1.4、レンズIDが03の場合は半分になる。また、アップサンプリングを実施する際は、補間処理が必要になるためバイリニア法やバイキュービック法など既存の補間処理を適用する。次に、アップサンプリングされたPSFデータから所望のタップ数のデータを抜き出す。たとえば、再構成前後でタップ数を変えない場合、図14において、レンズIDが02の場合は領域Bに対して領域Aは、1/1.4、レンズIDが03の場合は半分になる。尚、領域及びタップ数は再構成前後で必ずしも一致させなくてもよく、必要に応じて変更してもよい。また、先にアップサンプリングを実施する場合について説明したが、領域選択を先に行ってもよい。この場合、例えばレンズIDが03であれば、領域Bのうち領域Bの半分の領域を領域Aとして、その領域Aに対してアップサンプリングを行う。こうすることで、必要な領域のみアップサンプリングを行うため、処理負荷を低減することができる。 Next, in step S44, the approximate PSF is reconstructed using the shooting information acquired in step S42 and the PSF data acquired in step S43. In FIG. 14, the area B is the range of the PSF data acquired in step S43, and the area A is the approximate PSF data after reconstruction. If the acquired lens ID is 01 in step S42, the conversion lens 119 is not attached, so the PSF data acquired in step S43 is used as it is as approximate PSF data. Next, when the lens ID is 02 or 03, adjustment processing is performed according to the magnification of the accessory optical system. When the lens ID is 02, the PSF data is upsampled 1.4 times, and when the lens ID is 03, the PSF data is upsampled twice. By upsampling, the sampling interval is 1 / 1.4 when the lens ID is 02 and halved when the lens ID is 03. In addition, when performing upsampling, interpolation processing is required, so existing interpolation processing such as the bilinear method or bicubic method is applied. Next, the data of a desired number of taps is extracted from the upsampled PSF data. For example, when the number of taps is not changed before and after the reconstruction, in FIG. 14, when the lens ID is 02, the area A is 1 / 1.4 with respect to the area B, and when the lens ID is 03, the area A is halved. The area and the number of taps do not necessarily have to match before and after the reconstruction, and may be changed as necessary. Further, although the case of performing upsampling has been described earlier, the area selection may be performed first. In this case, for example, if the lens ID is 03, half of the area B is set as the area A, and upsampling is performed on the area A. By doing so, the processing load can be reduced because only the necessary area is upsampled.

以上、本発明の実施例について説明したが、本発明はその要旨の範囲内で種々の変形及び変更が可能である。 Although the examples of the present invention have been described above, the present invention can be modified and modified in various ways within the scope of the gist thereof.

105 画像処理部、151 取得部、
1152 再構成処理部、1153 鮮鋭化処理部
105 image processing unit, 151 acquisition unit,
1152 Reconstruction processing unit, 1153 Sharpening processing unit

Claims (12)

光学系を介した撮像により生成された撮影画像、及び前記光学系の撮影条件に対応する点像強度分布関数の情報を取得する取得ステップと、前記点像強度分布関数の情報に基づいて生成されたフィルタを用いて前記撮影画像に対するアンシャープマスク処理を行う処理ステップと、を有し、前記光学系は光学特性を変更するアクセサリ光学系が着脱可能であり、前記アクセサリ光学系の情報と、前記アクセサリ光学系が未装着時の前記点像強度分布関数の情報から前記フィルタを生成することを特徴とする画像処理方法。 It is generated based on the captured image generated by imaging through the optical system, the acquisition step of acquiring the information of the point image intensity distribution function corresponding to the imaging conditions of the optical system, and the information of the point image intensity distribution function. It has a processing step of performing unsharp mask processing on the captured image using the filter, and the optical system has an accessory optical system that changes the optical characteristics, and the accessory optical system can be attached and detached. An image processing method characterized in that the filter is generated from the information of the point image intensity distribution function when the accessory optical system is not attached. 前記フィルタは2次元のデータを持つフィルタであることを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the filter is a filter having two-dimensional data. 前記フィルタは回転非対称な分布を有することを特徴とする請求項1又は請求項2に記載の画像処理方法。 The image processing method according to claim 1 or 2, wherein the filter has a rotationally asymmetric distribution. 前記処理ステップにおいて前記点像強度分布関数の近似に使用される係数データを用いて再構成された前記点像強度分布関数に基づきフィルタを生成することを特徴とする請求項1乃至請求項3の何れか一項に記載の画像処理方法。 The first to third claims, wherein a filter is generated based on the point image intensity distribution function reconstructed using the coefficient data used for approximating the point image intensity distribution function in the processing step. The image processing method according to any one of the items. 前記アクセサリ光学系の情報はアクセサリ光学系の倍率であることを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理方法。 The image processing method according to any one of claims 1 to 4, wherein the information of the accessory optical system is a magnification of the accessory optical system. 前記アクセサリ光学系の情報はアクセサリ光学系の識別IDであることを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理方法。 The image processing method according to any one of claims 1 to 4, wherein the information of the accessory optical system is an identification ID of the accessory optical system. 前記アクセサリ光学系は前記光学系の焦点距離を変更するコンバージョンレンズであることを特徴とする請求項1乃至請求項6の何れか一項に記載の画像処理方法。 The image processing method according to any one of claims 1 to 6, wherein the accessory optical system is a conversion lens that changes the focal length of the optical system. 前記フィルタは前記撮影画像の位置に応じた調整係数により調整されることを特徴とする請求項1乃至請求項7の何れか一項に記載の画像処理方法。 The image processing method according to any one of claims 1 to 7, wherein the filter is adjusted by an adjustment coefficient according to the position of the captured image. 前記撮影条件は、像高、焦点距離、F値、および撮影距離のうち少なくとも一つを含むことを特徴とする請求項1乃至請求項9の何れか一項に記載の画像処理方法。 The image processing method according to any one of claims 1 to 9, wherein the shooting conditions include at least one of an image height, a focal length, an F value, and a shooting distance. 撮像装置により撮影された撮影画像を、点像強度分布関数に基づいて生成されたフィルタを用いて補正する画像処理装置であって、
前記撮影画像を鮮鋭化する鮮鋭化手段を有し、
請求項1乃至請求項9の何れか一項に記載の画像処理方法を用いることを特徴とする画像処理装置。
An image processing device that corrects a captured image taken by an imaging device using a filter generated based on a point image intensity distribution function.
It has a sharpening means for sharpening the photographed image, and has
An image processing apparatus according to claim 1, wherein the image processing method according to any one of claims 1 to 9 is used.
撮像装置により撮影された撮影画像を、点像強度分布関数に基づいて生成されたフィルタを用いて補正する画像処理プログラムであって、
前記撮影画像を鮮鋭化する鮮鋭化工程を有し、
請求項1乃至請求項9の何れか一項に記載の画像処理方法を用いることを特徴とする画像処理プログラム。
An image processing program that corrects a captured image captured by an imaging device using a filter generated based on a point image intensity distribution function.
It has a sharpening process for sharpening the photographed image.
An image processing program characterized by using the image processing method according to any one of claims 1 to 9.
撮像光学系を介して得られた被写体像を光電変換する撮像素子を有し、
前記撮像素子から取得された撮影画像を、点像強度分布関数に基づいて生成されたフィルタを用いて補正する撮像装置であって、
前記撮像素子から得られる撮影画像を処理する画像処理部を有し、
請求項1乃至請求項9の何れか一項に記載の画像処理方法を用いることを特徴とする撮像装置。
It has an image sensor that photoelectrically converts the subject image obtained via the image pickup optical system.
An image pickup device that corrects a captured image acquired from the image pickup device by using a filter generated based on a point image intensity distribution function.
It has an image processing unit that processes a captured image obtained from the image sensor.
An image pickup apparatus according to claim 1, wherein the image processing method according to any one of claims 1 to 9 is used.
JP2019146913A 2019-08-09 2019-08-09 Image processing method, imaging apparatus employing the same, image processing device, and image processing program Pending JP2021027565A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019146913A JP2021027565A (en) 2019-08-09 2019-08-09 Image processing method, imaging apparatus employing the same, image processing device, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019146913A JP2021027565A (en) 2019-08-09 2019-08-09 Image processing method, imaging apparatus employing the same, image processing device, and image processing program

Publications (1)

Publication Number Publication Date
JP2021027565A true JP2021027565A (en) 2021-02-22

Family

ID=74663341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019146913A Pending JP2021027565A (en) 2019-08-09 2019-08-09 Image processing method, imaging apparatus employing the same, image processing device, and image processing program

Country Status (1)

Country Link
JP (1) JP2021027565A (en)

Similar Documents

Publication Publication Date Title
EP2860694B1 (en) Image processing apparatus, image processing method, image processing program, and non-transitory computer-readable storage medium
JP5409589B2 (en) Image processing method, image processing program, image processing apparatus, and imaging apparatus
JP6440766B2 (en) Image processing method, image processing apparatus, imaging apparatus, program, and storage medium
JP6625144B2 (en) Image processing method and imaging apparatus, image processing apparatus, image processing program, storage medium, and lens device using the same
JP6234623B2 (en) Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program
CN106817535B (en) Image processing apparatus, image capturing apparatus, and image processing method
JP6071860B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP6071966B2 (en) Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program
JP5730036B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program.
JP6821526B2 (en) Image processing method, image processing device, imaging device, and program
JP7301601B2 (en) Image processing device, imaging device, lens device, image processing system, image processing method, and program
JP6562650B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6598886B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, storage medium, and lens apparatus
JP5645981B2 (en) Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium
JP2021027565A (en) Image processing method, imaging apparatus employing the same, image processing device, and image processing program
JP7005162B2 (en) Image processing method, image processing device, image pickup device, program, and storage medium
JP2018107541A (en) Image processing apparatus, imaging device, image processing method, and image processing program
JP7207893B2 (en) Imaging device, lens device
BR102014025196A2 (en) image processing apparatus, image capture apparatus, image processing method and non-transient computer readable storage media

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125