JP6124849B2 - Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program - Google Patents
Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program Download PDFInfo
- Publication number
- JP6124849B2 JP6124849B2 JP2014178610A JP2014178610A JP6124849B2 JP 6124849 B2 JP6124849 B2 JP 6124849B2 JP 2014178610 A JP2014178610 A JP 2014178610A JP 2014178610 A JP2014178610 A JP 2014178610A JP 6124849 B2 JP6124849 B2 JP 6124849B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- optical system
- captured image
- processing
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 50
- 238000003672 processing method Methods 0.000 title description 16
- 230000003287 optical effect Effects 0.000 claims description 69
- 238000000034 method Methods 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 40
- 238000005315 distribution function Methods 0.000 claims description 17
- 230000000873 masking effect Effects 0.000 claims 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 14
- 230000004075 alteration Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 12
- 238000001914 filtration Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000003707 image sharpening Methods 0.000 description 5
- 229920013655 poly(bisphenol-A sulfone) Polymers 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
- Color Television Image Signal Generators (AREA)
Description
本発明は、画像の鮮鋭化処理に関する。 The present invention relates to an image sharpening process.
元画像にアンシャープマスクを適用してぼかした画像と元画像との差分を、元画像に加算あるいは減算することで画像を鮮鋭化するアンシャープマスク処理は知られている。ぼかした画像と入力画像の差分が大きいところほど画像はより鮮鋭化される。また、特許文献1は、像高方向に配列する画素信号列に対して非対称な1次元のフィルタを適用することで光学系の点像強度分布関数(PSF:Point Spread Function)の影響を低減する方法を提案している。 An unsharp mask process for sharpening an image by adding or subtracting the difference between the original image and the image blurred by applying an unsharp mask to the original image is known. The larger the difference between the blurred image and the input image, the sharper the image. Further, Patent Document 1 reduces the influence of a point spread function (PSF) of an optical system by applying an asymmetric one-dimensional filter to pixel signal sequences arranged in the image height direction. Proposed method.
しかしながら、従来のアンシャープマスク処理は、アンシャープマスクに回転対称なフィルタを利用しており、非対称収差やサジタルハロのような複雑な形状のPSFの影響を受けて劣化した画像を鮮鋭化することは困難である。即ち、収差が大きく発生しているアジムス方向の収差を補正しようとすると収差の小さなアジムス方向ではアンダーシュートが発生し、逆にアンダーシュートを抑制すると収差が十分に補正できない。 However, the conventional unsharp mask processing uses a rotationally symmetric filter for the unsharp mask, and it is not possible to sharpen a deteriorated image due to the influence of a PSF having a complicated shape such as asymmetric aberration or sagittal halo. Have difficulty. That is, if an attempt is made to correct an aberration in the azimuth direction in which a large amount of aberration occurs, an undershoot occurs in the azimuth direction in which the aberration is small. Conversely, if the undershoot is suppressed, the aberration cannot be corrected sufficiently.
また、特許文献1の方法は、像高方向への非対称性しか考慮しておらず、補正フィルタも1次元となっているため、像高方向以外の方向への非対称性を改善することができない。像高方向とはメリジオナルのアジムス方向である。さらに、フィルタに関しても、マイナスタップ係数の個数でフィルタの非対称性を調整しており、像高方向の補正についても光学系のPSFのぼけ方とは異なるため、従来手法では十分に鮮鋭化することができない。 In addition, the method of Patent Document 1 only considers asymmetry in the image height direction, and the correction filter is also one-dimensional. Therefore, asymmetry in directions other than the image height direction cannot be improved. . The image height direction is the azimuth direction of meridional. Furthermore, with regard to the filter, the asymmetry of the filter is adjusted by the number of minus tap coefficients, and the correction in the image height direction is also different from the method of blurring the PSF of the optical system. I can't.
本発明は、鮮鋭化効果に優れた画像処理装置、撮像装置、画像処理方法、および、画像処理プログラムを提供することを例示的な目的とする。 An object of the present invention is to provide an image processing device, an imaging device, an image processing method, and an image processing program that are excellent in a sharpening effect.
本発明の画像処理装置は、光学系を介した撮像により生成された撮影画像を取得し、前記光学系の撮影条件に対応する前記光学系の点像強度分布関数の情報に基づいて生成されたフィルタを用いて前記撮影画像に対するアンシャープマスク処理を行う処理手段を有し、前記撮影画像に対するアンシャープマスク処理に用いられるフィルタは、2次元のタップのデータが回転非対称に分布しているフィルタを含むことを特徴とする。 The image processing apparatus of the present invention acquires a captured image generated by imaging through an optical system, and is generated based on information on a point spread function of the optical system corresponding to the imaging condition of the optical system. And a processing unit that performs an unsharp mask process on the captured image using a filter, and the filter used for the unsharp mask process on the captured image is a filter in which two-dimensional tap data is distributed rotationally asymmetrically. It is characterized by including .
本発明によれば、鮮鋭化効果に優れた画像処理装置、撮像装置、画像処理方法、および、画像処理プログラムを提供することができる。 According to the present invention, it is possible to provide an image processing device, an imaging device, an image processing method, and an image processing program that are excellent in a sharpening effect.
図3は、本実施形態のアンシャープマスク処理(画像鮮鋭化処理)による鮮鋭化の模式図であり、図3(A)の実線は入力画像、破線は入力画像をアンシャープマスクでぼかした画像、点線は鮮鋭化後の画像を表し、図3(B)の実線は補正成分を表している。図3の横軸は座標であり、縦軸は画素値または輝度値である。図3は、後述する図4の所定の方向(例えば、X方向)における断面に相当する。 FIG. 3 is a schematic diagram of sharpening by unsharp mask processing (image sharpening processing) of the present embodiment. The solid line in FIG. 3A is an input image, and the broken line is an image obtained by blurring the input image with an unsharp mask. The dotted line represents the sharpened image, and the solid line in FIG. 3B represents the correction component. In FIG. 3, the horizontal axis represents coordinates, and the vertical axis represents pixel values or luminance values. FIG. 3 corresponds to a cross section in a predetermined direction (for example, the X direction) of FIG. 4 described later.
元画像をf(x,y)、補正成分をh(x,y)とすると、鮮鋭化後の画像g(x,y)は次式で表すことができる。 When the original image is f (x, y) and the correction component is h (x, y), the sharpened image g (x, y) can be expressed by the following equation.
g(x,y)=f(x,y)+m×h(x,y)・・・(1)
数式(1)では、補正信号h(x,y)は定数倍されて入力画像であるf(x,y)に加算されている。数式(1)において、mは定数であり、mの値を変化させることにより、補正量を調整することができる。なお、mは入力画像の位置によらず一定の定数であっても良いし、入力画像の位置に応じて異ならせた調整係数m(x,y)を用いることにより入力画像の位置に応じて補正量を調整することもできる。また、定数mや調整係数m(x,y)は光学系の焦点距離や絞り値や被写体距離といった撮影条件に応じて異ならせることもできる。定数mの代わりに調整係数m(x,y)を用いることができることは以下の説明においても同様である。
g (x, y) = f (x, y) + m × h (x, y) (1)
In Equation (1), the correction signal h (x, y) is multiplied by a constant and added to the input image f (x, y). In Equation (1), m is a constant, and the correction amount can be adjusted by changing the value of m. Note that m may be a constant regardless of the position of the input image, or may be adjusted according to the position of the input image by using an adjustment coefficient m (x, y) that varies depending on the position of the input image. The correction amount can also be adjusted. In addition, the constant m and the adjustment coefficient m (x, y) can be varied according to the photographing conditions such as the focal length, aperture value, and subject distance of the optical system. The adjustment factor m (x, y) can be used instead of the constant m in the following description.
補正成分h(x,y)はアンシャープマスクをUSMとすると、次式のように表すことができる。USM(x,y)は、例えば、USMのある座標(x,y)におけるタップ値である。 The correction component h (x, y) can be expressed as the following equation when the unsharp mask is USM. USM (x, y) is, for example, a tap value at a certain coordinate (x, y) of USM.
h(x,y)=f(x,y)−f(x,y)*USM(x,y)・・・(2)
数式(2)の右辺を変形して次式で表すことができる。
h (x, y) = f (x, y) -f (x, y) * USM (x, y) (2)
The right side of Formula (2) can be transformed and expressed by the following formula.
h(x,y)=f(x,y)*(δ(x,y)−USM(x,y))・・・(3)
ここで、*はコンボリューション(畳み込み積分、積和)、δはデルタ関数(理想点像)である。「デルタ関数」とは、USM(x,y)とタップ数が等しく中心の値が1でそれ以外が0で埋まっているデータである。
h (x, y) = f (x, y) * (δ (x, y) −USM (x, y)) (3)
Here, * is convolution (convolution integration, sum of products), and δ is a delta function (ideal point image). The “delta function” is data in which the number of taps is equal to USM (x, y) and the center value is 1 and the rest are filled with 0.
数式(2)を変形することで数式(3)を表現できるため、数式(2)と数式(3)は等価である。よって、以下、数式(2)を用いて補正成分の生成について説明する。 Since Formula (3) can be expressed by modifying Formula (2), Formula (2) and Formula (3) are equivalent. Therefore, the generation of the correction component will be described below using Equation (2).
数式(2)では、撮影画像f(x,y)と撮影画像f(x,y)をアンシャープマスクUSMでぼかした画像の差分をとり、この差分情報に基づいて補正成分h(x,y)を生成している。一般的なアンシャープマスク処理では、アンシャープマスクUSMにガウシアンフィルタ、メディアンフィルタ、移動平均フィルタ等の平滑化フィルタが使用される。 In Equation (2), a difference between an image obtained by blurring the captured image f (x, y) and the captured image f (x, y) with an unsharp mask USM is calculated, and a correction component h (x, y) is based on the difference information. ) Is generated. In general unsharp mask processing, a smoothing filter such as a Gaussian filter, a median filter, or a moving average filter is used for the unsharp mask USM.
例えば、図3(A)の実線で示す撮影画像f(x,y)に対して、アンシャープマスクUSMとしてガウシアンフィルタを使用した場合、撮影画像f(x,y)をぼかした画像は図3(A)の破線で示すようになる。補正成分h(x,y)は、数式(2)に示すように、撮影画像f(x,y)とぼかした画像の差分となるため、図3(A)の実線から図3(A)の破線を減算することで図3(B)の実線で表現される成分となる。このように算出された補正成分を用いて、数式(1)の演算を行うことによって、図3(A)の実線に示す撮影画像f(x,y)を図3(A)の点線のように鮮鋭化することができる。 For example, when a Gaussian filter is used as the unsharp mask USM for the captured image f (x, y) shown by the solid line in FIG. 3A, an image obtained by blurring the captured image f (x, y) is shown in FIG. As indicated by the broken line in FIG. Since the correction component h (x, y) is the difference between the captured image f (x, y) and the blurred image as shown in the equation (2), the correction component h (x, y) is changed from the solid line in FIG. By subtracting the broken line, the component represented by the solid line in FIG. By using the correction component calculated in this way and performing the calculation of Expression (1), the captured image f (x, y) shown by the solid line in FIG. 3A is represented by the dotted line in FIG. Can be sharpened.
次に、被写体の光学像を形成する撮影光学系により劣化した画像に対して、アンシャープマスク処理を適用することで画像を鮮鋭化する場合について説明する。撮影光学系を介して得られた撮影画像f(x,y)は撮影前の画像(被写体の像)をI(x,y)、撮影光学系の点光源に対する応答を表す関数であるPSFをpsf(x,y)とすると、次式のように、表すことができる。 Next, a description will be given of a case where an image is sharpened by applying unsharp mask processing to an image deteriorated by a photographing optical system that forms an optical image of a subject. A photographed image f (x, y) obtained through the photographing optical system is an image (image of a subject) before photographing I (x, y), and a PSF which is a function representing a response to the point light source of the photographing optical system. Assuming psf (x, y), it can be expressed as the following equation.
f(x,y)=I(x,y)*psf(x,y)・・・(4)
ここで、撮影光学系が回転対称な共軸光学系であれば、画像の中心部に対応するPSFは回転対称となる。そのため、画像の中心部については回転対称なUSMを適用することで撮影画像f(x,y)を元の画像I(x,y)に近づける鮮鋭化を行うことができる。補正量は撮影画像とアンシャープマスクでぼかした撮影画像の差分値となるため、精度良く補正するためにはアンシャープマスクUSMは単純な平滑化フィルタを使用するのではなく、よりpsf(x,y)に近い形状のマスクを使用した方がよい。例えば、球面収差の影響で撮影画像が劣化する場合、球面収差であれば回転対称に影響を与えるものの、ガウシアンフィルタのような平滑化フィルタでは球面収差の影響によるPSFとは分布の形状が異なる。そのため、回転対称にぼける影響を低減する場合であっても、撮影光学系のPSFを使用する方が精度良く補正することができる。
f (x, y) = I (x, y) * psf (x, y) (4)
Here, if the photographing optical system is a rotationally symmetric coaxial optical system, the PSF corresponding to the center of the image is rotationally symmetric. Therefore, it is possible to sharpen the captured image f (x, y) closer to the original image I (x, y) by applying a rotationally symmetric USM to the center of the image. Since the correction amount is a difference value between the photographed image and the photographed image blurred with the unsharp mask, the unsharp mask USM does not use a simple smoothing filter to correct with high accuracy, but more psf (x, It is better to use a mask having a shape close to y). For example, when a captured image deteriorates due to the influence of spherical aberration, the spherical symmetry affects rotational symmetry, but a smoothing filter such as a Gaussian filter has a distribution shape different from that of PSF due to the influence of spherical aberration. For this reason, even when the effect of blurring in rotational symmetry is reduced, correction using the PSF of the photographing optical system can be performed with higher accuracy.
本実施形態はUSMにPSFを用いる。図3(A)に示す撮影画像f(x,y)は簡略化のため対称な形状となっているが、画像の形状が対称でなくてもよい。元の画像I(x,y)の形状が非対称であってもpsf(x,y)に相当する元の画像I(x,y)にかかる劣化関数が回転対称であれば、回転対称なUSMを用いて鮮鋭化することができる。 In this embodiment, PSF is used for USM. Although the captured image f (x, y) illustrated in FIG. 3A has a symmetric shape for simplification, the shape of the image may not be symmetric. Even if the shape of the original image I (x, y) is asymmetric, if the deterioration function applied to the original image I (x, y) corresponding to psf (x, y) is rotationally symmetric, the rotationally symmetric USM Can be used to sharpen.
一方、画像の中心部以外の位置については撮影光学系が回転対称な共軸光学系であっても、PSFは通常非対称な形状となる。図4は、xy平面における撮影光学系のPSFの模式図であり、図4(A)は軸上のPSF、図4(B)は軸外のPSFを表している。 On the other hand, at positions other than the center of the image, the PSF usually has an asymmetric shape even if the photographing optical system is a rotationally symmetric coaxial optical system. 4A and 4B are schematic views of the PSF of the photographing optical system on the xy plane, where FIG. 4A shows an on-axis PSF and FIG. 4B shows an off-axis PSF.
例えば、元の画像(被写体)が理想点像であったとすると、数式(4)から撮影画像f(x,y)は撮影光学系のPSFになる。図4(B)に対応する画角に理想点像があり、撮影光学系のPSFの影響を受けて元の画像(被写体)が劣化したとすれば、入力画像として得られる画像は図4(B)の形状のようにぼけた画像となる。このように非対称にぼけた画像に対して、アンシャープマスク処理による鮮鋭化を行う場合について説明する。 For example, if the original image (subject) is an ideal point image, the photographed image f (x, y) is the PSF of the photographing optical system from Equation (4). If there is an ideal point image at the angle of view corresponding to FIG. 4B and the original image (subject) has deteriorated due to the influence of the PSF of the photographing optical system, the image obtained as the input image is as shown in FIG. The image is blurred like the shape of B). A case where sharpening by unsharp mask processing is performed on such an asymmetrically blurred image will be described.
図5、図6は非対称に劣化した画像に対するアンシャープ処理の模式図であり、図5は回転対称なアンシャープマスクを用いた場合、図6は回転非対称なアンシャープマスクを用いて処理を行った場合を示している。縦軸と横軸は図3と同様である。 5 and 6 are schematic diagrams of unsharp processing for an asymmetrically deteriorated image. FIG. 5 shows a case where a rotationally symmetric unsharp mask is used, and FIG. 6 shows that processing is performed using a rotationally asymmetric unsharp mask. Shows the case. The vertical axis and the horizontal axis are the same as those in FIG.
図5(A)、図6(A)の実線は図4(B)のy軸方向の断面を表しており、点線はアンシャープマスクでぼかした撮影画像を表している。図5の回転対称なアンシャープマスクにはガウシアンフィルタを適用し、図6の非回転対称なアンシャープマスクには撮像装置のPSFを適用している。 The solid lines in FIGS. 5A and 6A represent the cross section in the y-axis direction of FIG. 4B, and the dotted line represents a captured image blurred with an unsharp mask. A Gaussian filter is applied to the rotationally symmetric unsharp mask in FIG. 5, and the PSF of the imaging device is applied to the non-rotationally symmetric unsharp mask in FIG.
図5(B)、図6(B)は、それぞれ各アンシャープマスクでぼかした撮影画像と元の撮影画像の差分値をプロットしたものであり、補正成分を表している。便宜的に、図5(A)、図6(A)においては、撮影画像がPSFによって、よりぼけて裾野が広くなっている方をY軸のプラス側とする。 FIG. 5B and FIG. 6B are plots of the difference values between the captured image blurred with each unsharp mask and the original captured image, and represent correction components. For convenience, in FIGS. 5 (A) and 6 (A), the captured image is more blurred and widened by PSF, and the positive side of the Y-axis is assumed.
図5(A)では、実線のピーク位置に対してプラス側のぼけた画像と元の画像の差分値が小さく、マイナス側のぼけた画像と元の画像の差分値が大きくなっている。そのため、図5(B)の補正成分も中心のピーク位置対して右側(プラス側)より左側(マイナス側)の方が極値は小さくなってしまっている。 In FIG. 5A, the difference value between the plus-side blurred image and the original image with respect to the peak position of the solid line is small, and the difference value between the minus-side blurred image and the original image is large. Therefore, the extreme value of the correction component in FIG. 5B is also smaller on the left side (minus side) than on the right side (plus side) with respect to the center peak position.
図5(A)と図5(B)の曲線を比較すればわかるように、撮影画像のプラス側は補正成分の補正量が小さく、裾野が狭いマイナス側は補正量が大きいため、数式(4)による鮮鋭化を行っても非対称なぼけを補正することはできない。例えば、アンシャープマスクを変えずに数式(4)の定数mを変更することで補正量を調整する場合を考える。画像のプラス側を十分に補正するために定数mの値を大きくすると、画像のマイナス側は補正過剰(アンダーシュート)になり、画像のマイナス側の補正量を適切になるように定数mの値を設定すると、画像のプラス側は補正不足となる。 As can be seen by comparing the curves in FIG. 5A and FIG. 5B, the correction amount of the correction component is small on the plus side of the photographed image and the correction amount is large on the minus side with a narrow base, so Asymmetric blur cannot be corrected even if sharpening is performed. For example, let us consider a case where the correction amount is adjusted by changing the constant m in Expression (4) without changing the unsharp mask. If the value of the constant m is increased to sufficiently correct the positive side of the image, the negative side of the image becomes overcorrected (undershoot), and the value of the constant m is adjusted so that the correction amount on the negative side of the image is appropriate. If is set, the plus side of the image is undercorrected.
このように、非対称にぼけた画像に対して回転対称なアンシャープマスクを使用してアンシャープマスク処理を行っても、非対称性を改善して鮮鋭化することは困難である。このような問題は、回転対称なアンシャープマスクとしてガウシアンフィルタ以外の回転対称なフィルタを使用しても同様に発生する。 As described above, even if unsharp mask processing is performed on an asymmetrically blurred image using a rotationally symmetric unsharp mask, it is difficult to improve the asymmetry and sharpen the image. Such a problem similarly occurs even when a rotationally symmetric filter other than a Gaussian filter is used as a rotationally symmetric unsharp mask.
一方、図6(A)では、実線のピーク位置に対してプラス側がぼけた画像と元画像の差分値が大きく、マイナス側がぼけた画像と元の画像の差分値が大きくなっており、この傾向は図5(A)と逆になっている。そのため、図6(B)の補正成分も中心のピーク位置対して左側(マイナス側)より右側(プラス側)の方が極値は小さくなっている。 On the other hand, in FIG. 6A, the difference value between the image blurred on the plus side and the original image with respect to the peak position of the solid line is large, and the difference value between the image blurred on the minus side and the original image is large. Is the reverse of FIG. Therefore, the extreme value of the correction component in FIG. 6B is also smaller on the right side (plus side) than on the left side (minus side) with respect to the center peak position.
図6(A)の実線で表された撮影画像に対して、こうした補正成分を適用すれば、ピーク位置に対してプラス側のぼけが大きい方には補正量が大きく、そしてマイナス側のぼけが小さい方には補正量が小さくなる。 If such a correction component is applied to the photographed image represented by the solid line in FIG. 6A, the correction amount is larger when the plus side blur is larger than the peak position, and the minus side blur is present. The smaller the value, the smaller the correction amount.
こうした非対称なアンシャープマスクの場合、入力画像のぼけ方のバランスと補正成分の補正量のバランスの傾向が一致するため、回転対称なアンシャープマスクを適用する場合に問題となる補正の過不足も起きにくくなる。さらに、回転対称なアンシャープマスクの場合と比べて、補正過剰になりにくくなるため、数式(4)の定数mの値も比較的大きくとることができ、非対称性を低減しつつより鮮鋭化することができる。また、より精度良く補正を行うためには、補正成分の補正量のバランスはぼけた画像と元の画像の差分となるため、撮影光学系のPSFによってより大きくぼけた部分が、アンシャープマスクによって他の部分に比べてもよりぼかされる必要がある。このように、さらに精度によく補正するには、アンシャープマスクとして撮影光学系のPSFを利用することが理想的である。 In the case of such an asymmetric unsharp mask, the tendency of the balance of the blur of the input image and the balance of the correction amount of the correction components coincide, so there is an excess or deficiency of correction that becomes a problem when applying a rotationally symmetric unsharp mask. It becomes difficult to get up. Furthermore, since it becomes difficult to overcorrect as compared with the rotationally symmetric unsharp mask, the value of the constant m in Equation (4) can also be made relatively large, and sharpening while reducing asymmetry. be able to. Further, in order to perform correction with higher accuracy, the balance of the correction amount of the correction component is the difference between the blurred image and the original image. Therefore, the portion more greatly blurred by the PSF of the photographing optical system is caused by the unsharp mask. It needs to be more blurred than the other parts. Thus, in order to correct with higher accuracy, it is ideal to use the PSF of the photographing optical system as an unsharp mask.
続いて、後述の各実施例において利用するフィルタと補正信号、そして各実施例のアンシャープマスク処理について説明する。 Subsequently, filters and correction signals used in each embodiment described later, and unsharp mask processing in each embodiment will be described.
実施例1では、数式(1)、(2)により導かれる以下の式を用いて鮮鋭化を実行する。 In the first embodiment, sharpening is performed using the following expressions derived from Expressions (1) and (2).
g(x,y)=f(x,y)+m×{f(x,y)−f(x,y)*USM(x,y)}・・・(5)
実施例2では、数式(1)、(3)により導かれる以下の式を用いて鮮鋭化を実行する。
g (x, y) = f (x, y) + m × {f (x, y) −f (x, y) * USM (x, y)} (5)
In the second embodiment, sharpening is performed using the following equations derived from Equations (1) and (3).
g(x,y)=f(x,y)+m×f(x,y)*{δ(x,y)−USM(x,y)}・・・(6)
実施例3では、数式(6)をさらに変形した以下の式を用いて鮮鋭化を実行する。
g (x, y) = f (x, y) + m × f (x, y) * {δ (x, y) −USM (x, y)} (6)
In the third embodiment, sharpening is performed using the following expression obtained by further modifying Expression (6).
g(x,y)=f(x,y)*{δ(x,y)+m×(δ(x,y)−USM(x,y))}・・・(7)
また、数式(7)は次式のように変形することもできる。
g (x, y) = f (x, y) * {δ (x, y) + m × (δ (x, y) −USM (x, y))} (7)
Further, the formula (7) can be modified as the following formula.
g(x,y)=f(x,y)*{(1+m)×δ(x,y)−m×USM(x,y)}・・・(8)
実施例3では、数式(7)を用いて鮮鋭化を実行しているが、数式(8)を用いても同様に鮮鋭化を実行することができる。
g (x, y) = f (x, y) * {(1 + m) × δ (x, y) −m × USM (x, y)} (8)
In the third embodiment, sharpening is performed using Expression (7). However, sharpening can be similarly performed using Expression (8).
なお、PSFは、光学系を介して形成される像の像高、光学系の焦点距離、F値、および被写体距離を含む撮影条件ごとに異なる。以下の実施例では撮影条件として像高を例に説明しているが、光学系の焦点距離、F値、および被写体距離に対して異なる収差情報を取得し、それに基づいてアンシャープマスクを生成してもよい。 The PSF differs depending on the photographing conditions including the image height of the image formed through the optical system, the focal length of the optical system, the F value, and the subject distance. In the following embodiments, the image height is described as an example of the photographing condition. However, different aberration information is acquired for the focal length, F value, and subject distance of the optical system, and an unsharp mask is generated based on the acquired aberration information. May be.
図1は、実施例1の撮像装置100のブロック図である。撮像装置100には、入力画像の鮮鋭化処理(画像処理方法)を行うプログラムが記憶手段120にインストールされており、鮮鋭化処理は撮像装置100の画像処理部104(画像処理装置)により実行される。記憶手段120は、ROMやハードディスクドライブなどから構成されるが、後述する記録部108が兼ねてもよい。 FIG. 1 is a block diagram of an imaging apparatus 100 according to the first embodiment. In the imaging apparatus 100, a program for performing a sharpening process (image processing method) of an input image is installed in the storage unit 120, and the sharpening process is executed by the image processing unit 104 (image processing apparatus) of the imaging apparatus 100. The The storage unit 120 includes a ROM, a hard disk drive, and the like, but may also serve as the recording unit 108 described later.
撮像装置100は、撮影光学系101(レンズ)および撮像装置本体(カメラ本体)を備えて構成されている。撮影光学系101は、絞り101aおよびフォーカスレンズ101bを備え、撮像装置本体と一体的に構成されている。ただし本実施例は、これに限定されるものではなく、撮影光学系101が撮像装置本体に対して交換可能に装着される撮像装置にも適用可能である。 The imaging apparatus 100 includes a photographic optical system 101 (lens) and an imaging apparatus main body (camera main body). The photographing optical system 101 includes a diaphragm 101a and a focus lens 101b, and is configured integrally with the imaging apparatus main body. However, the present embodiment is not limited to this, and can also be applied to an image pickup apparatus in which the photographing optical system 101 is mounted to the image pickup apparatus body in a replaceable manner.
撮像素子102は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal−Oxide Semiconductor)などの二次元撮像素子である。撮像素子102は、撮影光学系101を介して得られた被写体像(結像光)を光電変換して撮影画像を生成する。被写体像は、撮像素子102により光電変換が行われてアナログ信号(電気信号)に変換され、このアナログ信号はA/Dコンバータ103によりデジタル信号に変換され、このデジタル信号は画像処理部104に入力される。 The image sensor 102 is a two-dimensional image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor). The image sensor 102 photoelectrically converts a subject image (imaging light) obtained via the photographing optical system 101 to generate a photographed image. The subject image is photoelectrically converted by the image sensor 102 and converted into an analog signal (electrical signal). The analog signal is converted into a digital signal by the A / D converter 103, and the digital signal is input to the image processing unit 104. Is done.
画像処理部104は、このデジタル信号に対して所定の処理を行うとともに所定のアンシャープマスク処理を行う画像処理手段である。なお、本実施例では、撮像装置の画像処理部が鮮鋭化処理を行っているが、パーソナルコンピュータ(PC)や専用の装置が画像処理装置として鮮鋭化処理を行ってもよい。 The image processing unit 104 is an image processing unit that performs predetermined processing on the digital signal and performs predetermined unsharp mask processing. In this embodiment, the image processing unit of the imaging apparatus performs the sharpening process. However, a personal computer (PC) or a dedicated device may perform the sharpening process as the image processing apparatus.
画像処理部104は、状態検知部107から撮像装置100の撮像条件情報を取得する。撮像条件情報とは、絞り、撮影距離、または、ズームレンズの焦点距離などに関する情報である。状態検知部107は、システムコントローラ106から直接に撮像条件情報を取得することができるが、これに限定されるものではない。例えば、撮影光学系101に関する撮像条件情報は、撮影光学系制御部105から取得することもできる。 The image processing unit 104 acquires imaging condition information of the imaging device 100 from the state detection unit 107. The imaging condition information is information related to an aperture, a shooting distance, a focal length of a zoom lens, and the like. The state detection unit 107 can acquire imaging condition information directly from the system controller 106, but is not limited to this. For example, the imaging condition information regarding the imaging optical system 101 can be acquired from the imaging optical system control unit 105.
続いて、画像処理部104では入力画像に対して画像鮮鋭化処理を行う。画像処理部104は、点像強度分布選択部(PSF選択部)201、補正信号生成部202、補正信号適用部203を有する。但し、画像処理部104が画像処理装置として構成される場合、撮像装置100のシステムコントローラ106は、撮影画像と対応付けて収差情報を記憶してもよい。そして、その場合は、画像処理装置は、補正信号生成部202と補正信号適用部203を有して、PSF選択部201を有しなくてもよい。 Subsequently, the image processing unit 104 performs an image sharpening process on the input image. The image processing unit 104 includes a point image intensity distribution selection unit (PSF selection unit) 201, a correction signal generation unit 202, and a correction signal application unit 203. However, when the image processing unit 104 is configured as an image processing apparatus, the system controller 106 of the imaging apparatus 100 may store aberration information in association with the captured image. In that case, the image processing apparatus may include the correction signal generation unit 202 and the correction signal application unit 203 and may not include the PSF selection unit 201.
画像処理部104で処理された出力画像を、記録部108に所定のフォーマットで保存する。また、記録部108は、撮影光学系101の撮影条件と撮影光学系のPSFとの関係を記憶する記憶手段としても機能する。
画像表示部112は、画像鮮鋭化処理後に表示用の所定の処理を行って得られた画像を表示することができる。画像表示部112には、高速表示のために簡易処理を行って得られた画像を表示してもよい。
The output image processed by the image processing unit 104 is stored in the recording unit 108 in a predetermined format. The recording unit 108 also functions as a storage unit that stores the relationship between the imaging conditions of the imaging optical system 101 and the PSF of the imaging optical system.
The image display unit 112 can display an image obtained by performing a predetermined display process after the image sharpening process. The image display unit 112 may display an image obtained by performing simple processing for high-speed display.
以上の一連の処理は、システムコントローラ106によって制御される。システムコントローラ106は、マイクロコンピュータ、CPU(プロセッサ)として構成される。また、撮影光学系101の機械的な駆動は、システムコントローラ106の指示に基づいて、撮影光学系制御部105により行われる。 The series of processes described above is controlled by the system controller 106. The system controller 106 is configured as a microcomputer and a CPU (processor). The photographing optical system 101 is mechanically driven by the photographing optical system control unit 105 based on an instruction from the system controller 106.
撮影光学系101には、ローパスフィルタや赤外線カットフィルタなどの光学素子を挿入してもよい。ローパスフィルタなどのPSFの特性に影響を与える光学素子を用いる場合、アンシャープマスクを作成する時点でこの素子の影響を考慮すれば、より高精度な画像鮮鋭化処理が可能である。赤外カットフィルタにおいても、分光波長のPSFの積分値であるRGBチャンネル(RGB色成分)の各PSF、特にRチャンネルのPSFに影響するため、アンシャープマスクを作成する時点でその素子の影響を考慮することがより好ましい。 An optical element such as a low-pass filter or an infrared cut filter may be inserted into the photographing optical system 101. When using an optical element that affects the characteristics of the PSF, such as a low-pass filter, a higher-accuracy image sharpening process can be performed if the influence of this element is taken into consideration when the unsharp mask is created. The infrared cut filter also affects each PSF of the RGB channel (RGB color component) that is an integral value of the PSF of the spectral wavelength, particularly the PSF of the R channel. It is more preferable to consider.
次に、図2を参照して、本実施例における画像処理方法について説明する。図2は、本実施例の全体的な流れを示すフローチャートであり、「S」は「ステップ(工程)」を表す。図2に示すフローチャートは、コンピュータに各ステップの機能を実行させるためのプログラム(画像処理プログラム)として具現化が可能である。これは他のフローチャートにおいても同様である。図2の各ステップは、システムコントローラ106の指示に基づいて、画像処理部104により行われる。 Next, an image processing method in the present embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing the overall flow of this embodiment, and “S” represents “step (process)”. The flowchart shown in FIG. 2 can be embodied as a program (image processing program) for causing a computer to execute the function of each step. The same applies to other flowcharts. Each step in FIG. 2 is performed by the image processing unit 104 based on an instruction from the system controller 106.
まず、撮影画像を入力画像として取得し(S11)、続いて、PSF選択部201は入力画像の撮影条件に対応した撮影光学系のPSFを記録部108より取得する(取得ステップS12)。PSF選択部201が取得するPSFの情報は、2次元のタップのデータや、PSFの構成要素となる複数の1次元のタップのデータや、係数であってもよい。 First, a captured image is acquired as an input image (S11), and then the PSF selection unit 201 acquires the PSF of the imaging optical system corresponding to the imaging condition of the input image from the recording unit 108 (acquisition step S12). The PSF information acquired by the PSF selection unit 201 may be two-dimensional tap data, a plurality of one-dimensional tap data that is a constituent element of the PSF, or a coefficient.
次に、補正信号生成部202は、S12で取得したPSFの情報を用いてアンシャープマスク及び補正信号を生成する(生成ステップS13)。 Next, the correction signal generation unit 202 generates an unsharp mask and a correction signal using the PSF information acquired in S12 (generation step S13).
ここで、図7を参照して、アンシャープマスクについて説明する。アンシャープマスクは撮影光学系の収差特性や要求される鮮鋭化の精度に応じてそのタップ数が決定される。図7(a)のアンシャープマスクは、一例として、11×11タップの2次元のマスクである。また、図7(a)では、各タップ内の値(係数)を省略しているが、このアンシャープマスクの一断面を図7(b)に示す。図7(b)において、横軸はタップ、縦軸はタップの値である。 Here, the unsharp mask will be described with reference to FIG. The number of taps of the unsharp mask is determined according to the aberration characteristics of the photographing optical system and the required sharpening accuracy. The unsharp mask of FIG. 7A is a two-dimensional mask of 11 × 11 taps as an example. In FIG. 7A, values (coefficients) in each tap are omitted. FIG. 7B shows a cross section of this unsharp mask. In FIG. 7B, the horizontal axis represents the tap, and the vertical axis represents the tap value.
アンシャープマスクの各タップの値(係数値)の分布は、収差により広がった信号値(撮影光学系のPSF)の分布が理想的である。このようにPSFの情報を用いてアンシャープマスクを生成してもよいし、PSF選択部201が取得したPSFをそのままアンシャープマスクとして使用してもよい。補正信号生成部202におけるアンシャープマスクを用いて補正信号を生成する場合、補正信号生成の処理については後述する。 The distribution of the values (coefficient values) of each tap of the unsharp mask is ideally a distribution of signal values (PSF of the imaging optical system) spread due to aberration. As described above, the unsharp mask may be generated using the PSF information, or the PSF acquired by the PSF selection unit 201 may be used as it is as the unsharp mask. When the correction signal is generated using the unsharp mask in the correction signal generation unit 202, the correction signal generation processing will be described later.
次に、補正信号適用部203は、S13で生成された補正信号を用いて入力画像に対して鮮鋭化処理を実行する(鮮鋭化ステップS14)。S14における詳細な処理の内容についても後述する。 Next, the correction signal application unit 203 performs a sharpening process on the input image using the correction signal generated in S13 (sharpening step S14). Details of the processing in S14 will also be described later.
図8(a)は、本実施例の詳細な処理の流れをフローチャートである。図8(a)の各ステップは、システムコントローラ106の指示に基づいて、画像処理部104により行われる。 FIG. 8A is a flowchart showing the detailed processing flow of this embodiment. Each step in FIG. 8A is performed by the image processing unit 104 based on an instruction from the system controller 106.
まず、撮影画像を入力画像として取得する(S111)。ここでは、入力画像として使用する補正対象としての色成分データは、例えば、デモザイキング後のGチャンネルの画像データである。但し、RチャンネルやBチャンネルの画像データや、RGBすべてのチャンネルの画像データ、あるいはデモザイキング前の画像データであってもよい。 First, a captured image is acquired as an input image (S111). Here, the color component data as the correction target used as the input image is, for example, image data of the G channel after demosaicing. However, R channel and B channel image data, RGB channel image data, or image data before demosaicing may be used.
図9は、離散的な規則配列であるベイヤー配列の模式図である。例えば、単純にRGBの各チャンネルのデータをそのまま抜き出して、色ごとに入力画像として処理してもよいし、ある特定のチャンネルのみ入力画像として使用してもよい。あるいは図9に示すように、GチャンネルをG1、G2の2つにわけ、4チャンネルとして取り扱ってもよい。このようにGチャンネルを2つに分けることで、R、G1、G2、Bのそれぞれを抜き出した画像データは解像度が等しくなるため、処理やデータ加工がしやすくなる。 FIG. 9 is a schematic diagram of a Bayer array that is a discrete regular array. For example, the RGB channel data may be extracted as they are and processed as input images for each color, or only a specific channel may be used as the input image. Alternatively, as shown in FIG. 9, the G channel is divided into two, G1 and G2, and may be handled as four channels. By dividing the G channel into two in this way, the image data extracted from each of R, G1, G2, and B have the same resolution, so that processing and data processing are facilitated.
次に、PSF選択部201は入力画像に対応した撮影光学系のPSFの情報を記録部108より取得する(S112)。PSF選択部201が取得するPSFの情報は、2次元のタップのデータや、PSFの構成要素となる複数の1次元のタップのデータや、係数であってもよい。2次元のデータを複数の1次元のデータで分解する方法としては、例えば、特異値分解定理などがある。こうした定理を用いて分解された主成分を記録部108に記録しておき、撮影条件に応じてPSFの主成分に対応するこれら複数の1次元のタップデータを取得してきてもよい。 Next, the PSF selection unit 201 acquires the PSF information of the photographing optical system corresponding to the input image from the recording unit 108 (S112). The PSF information acquired by the PSF selection unit 201 may be two-dimensional tap data, a plurality of one-dimensional tap data that is a constituent element of the PSF, or a coefficient. As a method of decomposing two-dimensional data into a plurality of one-dimensional data, for example, there is a singular value decomposition theorem. The principal component decomposed using such a theorem may be recorded in the recording unit 108, and the plurality of one-dimensional tap data corresponding to the principal component of the PSF may be acquired according to the photographing conditions.
PSFは像高によって変化するため、補正精度を高めるためには、像高に応じてアンシャープマスクを変化させることが好ましいが、記録部108に記録するデータ容量はコストアップをもたらす。そこで、本実施例は、アンシャープマスクを像高ごとに変化させるために、入力画像を複数の領域に分割し、領域ごとに少なくとも2点の像高におけるPSFの情報を用いて補間処理を行うことで中間に相当するアンシャープマスクを生成している。補間方法の詳細については後述のS114において説明する。 Since the PSF changes depending on the image height, it is preferable to change the unsharp mask in accordance with the image height in order to increase the correction accuracy, but the data capacity to be recorded in the recording unit 108 increases the cost. Therefore, in this embodiment, in order to change the unsharp mask for each image height, the input image is divided into a plurality of regions, and interpolation processing is performed using PSF information at at least two image heights for each region. Thus, an unsharp mask corresponding to the middle is generated. Details of the interpolation method will be described later in S114.
次に、入力画像の領域の分割について説明する。図10は入力画像の模式図であり、便宜上入力画像の長辺方向をx軸、短辺方向をy軸とし、画像の中心を座標の原点とする。本実施例は、図10に示すように、一例として、入力画像を領域Aから領域Gの8つの領域に分割し、各領域の周辺部、および原点の点像強度分布関数の情報を取得する。 Next, division of an input image area will be described. FIG. 10 is a schematic diagram of an input image. For convenience, the long side direction of the input image is the x axis, the short side direction is the y axis, and the center of the image is the origin of coordinates. In this embodiment, as shown in FIG. 10, as an example, the input image is divided into eight regions from region A to region G, and information on the point image intensity distribution function at the periphery and the origin of each region is acquired. .
次に、補正信号生成部202はS112で取得したPSFを用いてフィルタリング処理を行う(S113)。本実施例は、PSFをアンシャープマスクとして使用し、入力画像にアンシャープマスクをコンボリューション処理(畳み込み積分、積和)する。S112で取得したPSFは周辺8つ中心1つの計9つあるため、それぞれに対応したアンシャープマスクによりぼけた入力画像、つまりアンシャープマスクをフィルタリングした画像データは9つできることになる。 Next, the correction signal generation unit 202 performs a filtering process using the PSF acquired in S112 (S113). In this embodiment, PSF is used as an unsharp mask, and an unsharp mask is convolved (convolution integration, product sum) with an input image. Since there are a total of nine PSFs acquired at S112, one at the center of the periphery, nine input images blurred by the corresponding unsharp mask, that is, nine image data obtained by filtering the unsharp mask can be obtained.
次に、補正信号生成部202はS113で生成した、アンシャープマスクをフィルタリングした複数の画像データ用いて像高方向の補間処理を行い、1つのアンシャープマスクでフィルタリングされた画像データを生成する(補間ステップS114)。 Next, the correction signal generation unit 202 performs interpolation processing in the image height direction using a plurality of image data filtered in the unsharp mask generated in S113, and generates image data filtered with one unsharp mask ( Interpolation step S114).
図11を参照し、像高方向の補間処理について説明する。図11において、原点に対して領域Cがある方向をx軸の正の方向、領域Aがある方向をy軸の正の方向とすると、図11は、x軸y軸がともに正となる入力画像の第1象限の領域を示している。ここで、P0は原点、P1、P2、P3はそれぞれ領域A、領域B、領域Cの周辺像高とし、S112においてPSF選択部201が各像高P0、P1、P2、P3のPSFを取得したとする。 The image height direction interpolation processing will be described with reference to FIG. In FIG. 11, assuming that the direction in which the region C is located with respect to the origin is the positive direction of the x axis and the direction in which the region A is present is the positive direction of the y axis, FIG. The area of the first quadrant of the image is shown. Here, P0 is the origin, P1, P2, and P3 are the peripheral image heights of region A, region B, and region C, respectively. In S112, the PSF selection unit 201 acquires the PSFs of the image heights P0, P1, P2, and P3. And
図11において、白丸で表された点Pnは画像内の任意の点(像高)を表しており、領域B内の点Pnは点P0と点P2のPSFの情報を用いて、S113で作成したアンシャープマスクを入力画像にフィルタリング処理したデータを使用する。同様に、領域A及び領域C内の点Pnはそれぞれ点P0と点P1、点P0と点P3の像高に対応するアンシャープマスクを、S113において入力画像にフィルタリング処理したデータを使用する。 In FIG. 11, a point Pn represented by a white circle represents an arbitrary point (image height) in the image, and the point Pn in the region B is created in step S113 using the PSF information of the points P0 and P2. The data obtained by filtering the unsharp mask to the input image is used. Similarly, the point Pn in the region A and the region C uses the data obtained by filtering the unsharp mask corresponding to the image heights of the points P0 and P1, and the points P0 and P3 into the input image in S113.
続いて、領域内の2つの像高から任意の点Pnにおけるフィルタリング処理したデータに相当する補間データの生成について説明する。図11に示すように、領域B内に点Pnがあり、原点P0からの距離がd0、点P2からの距離がd2であるとする。また、S113において、点P0、P2に対応するPSFを用いてフィルタリングした入力画像をそれぞれF0、F2とすると、任意の点Pnに相当する補間データFnは、次式のようになる。 Next, generation of interpolation data corresponding to data subjected to filtering processing at an arbitrary point Pn from two image heights in the region will be described. As shown in FIG. 11, it is assumed that there is a point Pn in the region B, the distance from the origin P0 is d0, and the distance from the point P2 is d2. In S113, if the input images filtered using the PSFs corresponding to the points P0 and P2 are F0 and F2, respectively, the interpolation data Fn corresponding to an arbitrary point Pn is expressed by the following equation.
Fn=F0×(1−d0)+F2×d2・・・(9)
このような補間処理を行うことで、各領域内の任意の像高における補間データを生成することができ、S113おいて生成された複数の画像データから1つの画像データが生成される。このようにして生成された画像データは、像高に応じて異なるPSFを用いて入力画像をフィルタリング処理する場合よりもデータ量を少なくすることができるので、処理速度を改善することができる。
Fn = F0 * (1-d0) + F2 * d2 (9)
By performing such interpolation processing, interpolation data at an arbitrary image height in each region can be generated, and one image data is generated from the plurality of image data generated in S113. Since the image data generated in this way can be reduced in data amount compared to the case where the input image is filtered using different PSFs depending on the image height, the processing speed can be improved.
なお、数式(9)は第1象限の領域Bに関する計算式となっているが、他の領域、他の象限についても同様な演算を行うことにより補間処理後のデータを作成することができる。また、像高の補間に使用する計算式は数式(9)に限らず、計算式に2次曲線を使用したり、あるいは各フィルタリングした入力画像に対してある定数を掛けることで重み付けしてもよい。 Although Equation (9) is a calculation formula for the first quadrant region B, the data after the interpolation processing can be created by performing similar calculations for other regions and other quadrants. Further, the calculation formula used for the interpolation of the image height is not limited to the formula (9), and the calculation formula may be weighted by using a quadratic curve or multiplying each filtered input image by a certain constant. Good.
次に、補正信号生成部202は、S114で生成した補間データを用いて補正信号を生成する(S115)。本実施例において、補正成分は数式(2)で示されるものであり、入力画像とS114で生成した補間データの差分をとることで生成される。 Next, the correction signal generation unit 202 generates a correction signal using the interpolation data generated in S114 (S115). In the present embodiment, the correction component is represented by Expression (2), and is generated by taking the difference between the input image and the interpolation data generated in S114.
次に、補正信号適用部203は、S115で生成した補正信号を入力画像に適用することによって画像を鮮鋭化する(S116)。本実施例において、補正信号の適用処理は数式(1)に対応し、画像のノイズや鮮鋭化の補正過剰や補正不足を考慮して定数mの値を決定する。このようにして決定した定数m、S115で生成した補正信号、そして入力画像を使用し、鮮鋭化処理を行う。 Next, the correction signal applying unit 203 sharpens the image by applying the correction signal generated in S115 to the input image (S116). In this embodiment, the correction signal application processing corresponds to Equation (1), and the value of the constant m is determined in consideration of image noise, sharpening overcorrection and undercorrection. Using the constant m determined in this way, the correction signal generated in S115, and the input image, sharpening processing is performed.
数式(1)は第1項と第2項を加算する形で表現されているが、これは定数mが正の場合であり、定数mが負の場合は減算になる。このように、本実施例の鮮鋭化処理では補正信号を入力画像に適用する際、適用処理が加算あるいは減算となるが、定数mの符号の違いによるもので本質的には同じことを意味するため、定数mの符号によって変えれば演算はどちらであっても構わない。本実施例では、撮影光学系のPSFをアンシャープマスクに用いているため、入力画像の周辺部にみられるような撮影光学系の非対称なPSFによって劣化した画像であっても、入力画像を精度良く補正し鮮鋭化することができる。 Formula (1) is expressed by adding the first term and the second term. This is a case where the constant m is positive, and subtraction is performed when the constant m is negative. As described above, in the sharpening process of the present embodiment, when the correction signal is applied to the input image, the application process is addition or subtraction, which is essentially the same because of the difference in the sign of the constant m. Therefore, the calculation may be performed as long as it is changed according to the sign of the constant m. In this embodiment, since the PSF of the photographic optical system is used as an unsharp mask, the input image is accurate even if the image is deteriorated by the asymmetric PSF of the photographic optical system as seen in the peripheral portion of the input image. Correct and sharpen well.
本実施例では、像高方向の補間をフィルタリング後に行ったが、補正信号に対して行ってもよいし(図8(b))、鮮鋭化後の画像に対して行ってもよい(図8(c))。 In this embodiment, the interpolation in the image height direction is performed after filtering, but may be performed on the correction signal (FIG. 8B) or may be performed on the sharpened image (FIG. 8). (C)).
図8(b)においては、入力画像に設定された複数の領域のそれぞれについて少なくとも2点の像高における点像強度分布関数を取得し、複数の点像強度分布関数に基づいて複数の補正信号を生成する。そして、複数の補正信号を像高方向に補間処理を行って1つの補正信号を生成し、この1つの補正信号を、前記入力画像に適用することによって入力画像を鮮鋭化する。図8(c)においては、入力画像に設定された複数の領域のそれぞれについて少なくとも2点の像高における点像強度分布関数を取得し、複数の点像強度分布関数に基づいて複数の補正信号を生成する。そして、複数の補正信号をそれぞれ前記入力画像に適用することによって複数の鮮鋭化後の画像を取得し、複数の鮮鋭化後の画像を像高方向に補間処理を行って1つの鮮鋭化後の画像を生成する。 In FIG. 8B, point image intensity distribution functions at image heights of at least two points are acquired for each of a plurality of regions set in the input image, and a plurality of correction signals are obtained based on the plurality of point image intensity distribution functions. Is generated. Then, an interpolation process is performed on the plurality of correction signals in the image height direction to generate one correction signal, and the input image is sharpened by applying the one correction signal to the input image. In FIG. 8C, a point image intensity distribution function at an image height of at least two points is acquired for each of a plurality of regions set in the input image, and a plurality of correction signals are obtained based on the plurality of point image intensity distribution functions. Is generated. Then, a plurality of sharpened images are obtained by applying a plurality of correction signals to the input image, respectively, and a plurality of sharpened images are interpolated in the image height direction to obtain a single sharpened image. Generate an image.
図8(b)は、補正信号を生成した後に像高方向の補間処理を行う場合の詳細な処理の流れを示したフローチャートである。S121、S122、S123はS111、S112、S113にそれぞれ対応する。図8(a)に対して、S114、S115の処理が異なるため、図8(b)においてそれらの処理に対応するS124、及びS125について説明する。 FIG. 8B is a flowchart showing a detailed processing flow when interpolation processing in the image height direction is performed after the correction signal is generated. S121, S122, and S123 correspond to S111, S112, and S113, respectively. Since the processes of S114 and S115 are different from those in FIG. 8A, S124 and S125 corresponding to those processes in FIG. 8B will be described.
S124において、補正信号生成部202はS123で入力画像に対してアンシャープマスクをフィルタリングしたデータから補正信号を生成する。補正信号は入力画像とフィルタリングしたデータを用いて、数式(2)に基づいて、入力画像とフィルタリングしたデータの差分をとることで生成される。このような処理により生成された補正信号はS123で生成したデータ分だけ生成される。 In S124, the correction signal generation unit 202 generates a correction signal from the data obtained by filtering the unsharp mask on the input image in S123. The correction signal is generated by taking the difference between the input image and the filtered data based on Equation (2) using the input image and the filtered data. The correction signal generated by such processing is generated for the data generated in S123.
次に、S125において、補正信号生成部202はS124で生成した複数の補正信号を用いて像高方向の補間処理を実行する。S125で実行される補間処理は補間する対象が変わるものの、基本的な処理の流れはS114における補間処理と同様である。S114では、S112で取得したPSFをアンシャープマスクとして入力画像に畳み込んだデータを像高方向に補間している。 Next, in S125, the correction signal generation unit 202 performs an image height direction interpolation process using the plurality of correction signals generated in S124. Although the interpolation process executed in S125 changes the object to be interpolated, the basic process flow is the same as the interpolation process in S114. In S114, the data convolved with the input image using the PSF acquired in S112 as an unsharp mask is interpolated in the image height direction.
一方、S125では入力画像とアンシャープマスクを入力画像に畳み込んだデータの差分を補正信号とし、その補正信号を像高方向に補間処理を行う。数式(2)におけるf(x,y)*USMを像高方向に補間するのがS114であり、h(x,y)を像高方向に補間するのがS125となる。 On the other hand, in S125, the difference between the input image and the data obtained by convolving the unsharp mask with the input image is used as a correction signal, and the correction signal is subjected to interpolation processing in the image height direction. In S114, f (x, y) * USM in Equation (2) is interpolated in the image height direction, and h (x, y) is interpolated in the image height direction in S125.
よって、S114におけるf(x,y)*USMのデータをh(x,y)に置き換えることでS125の処理、つまり補正信号を像高方向に補間処理を実現することができる。このようにして補正信号を補間処理した後の補正信号のデータを用いて、S126において補正信号適用部203は入力画像に対して補正信号を適用する。S126における補正信号の適用処理についてはS116と同様な処理になるため、詳細な説明は割愛する。 Therefore, by replacing the data of f (x, y) * USM in S114 with h (x, y), the processing of S125, that is, the interpolation processing of the correction signal in the image height direction can be realized. In step S126, the correction signal application unit 203 applies the correction signal to the input image using the correction signal data after the correction signal is interpolated in this manner. Since the correction signal application processing in S126 is the same as that in S116, detailed description thereof is omitted.
次に、図8(c)を参照して、補正信号を適用した後の入力画像に対して像高方向の補間を行う場合の処理の流れを説明する。S131、S132、S133、S134はS121、S122、S123、S124にそれぞれ対応する。 Next, with reference to FIG. 8C, the flow of processing when performing interpolation in the image height direction on the input image after applying the correction signal will be described. S131, S132, S133, and S134 correspond to S121, S122, S123, and S124, respectively.
図8(b)に対してS125、及びS126の処理が異なるため、それらの処理に対応するS135、及びS136について説明する。S135において、補正信号適用部203はS134で生成した補正信号を用いて、入力画像に対して鮮鋭化処理を行う。S134で生成した補正信号はS132で選択されたPSFを用いて作成された複数のアンシャープマスクの分だけ生成される。よって、S135では数式(1)に基づいてS134で生成された複数の補正信号をそれぞれ入力画像に適用することで、鮮鋭化処理を行う。 Since processing of S125 and S126 is different from that in FIG. 8B, S135 and S136 corresponding to these processing will be described. In S135, the correction signal application unit 203 performs a sharpening process on the input image using the correction signal generated in S134. The correction signals generated in S134 are generated for the plurality of unsharp masks created using the PSF selected in S132. Therefore, in S135, the sharpening process is performed by applying each of the plurality of correction signals generated in S134 to the input image based on Expression (1).
次に、S136において、S135で生成した複数の鮮鋭化画像を像高方向に補間処理する。S136で実行される補間処理は補間する対象が変わるものの、基本的な処理の流れはS114、あるいはS125における補間処理と同様である。S125とS136を比較すると、数式(1)におけるh(x,y)を像高方向に補間するのがS125であり、g(x,y)を像高方向に補間するのがS136となる。よって、S125におけるh(x,y)のデータをg(x,y)に置き換えることでS136の処理、つまり鮮鋭化後の画像を像高方向に補間処理を実現することができる。 Next, in S136, the plurality of sharpened images generated in S135 are subjected to interpolation processing in the image height direction. Although the interpolation process executed in S136 changes the object to be interpolated, the basic process flow is the same as the interpolation process in S114 or S125. Comparing S125 and S136, S125 interpolates h (x, y) in the formula (1) in the image height direction, and S136 interpolates g (x, y) in the image height direction. Therefore, by replacing the data of h (x, y) in S125 with g (x, y), it is possible to realize the processing of S136, that is, the interpolation processing of the sharpened image in the image height direction.
実施例2の撮像装置は、実施例1の撮像装置と同様の構成を有する。実施例2は、図8に示す画像処理方法の代わりに図12に示す画像処理方法を使用する点で実施例1と相違する。図12は、実施例2の画像処理方法を示すフローチャートであり、各ステップは、システムコントローラ106の指示に基づいて、画像処理部104より行われる。 The imaging apparatus according to the second embodiment has the same configuration as the imaging apparatus according to the first embodiment. The second embodiment is different from the first embodiment in that the image processing method shown in FIG. 12 is used instead of the image processing method shown in FIG. FIG. 12 is a flowchart illustrating the image processing method according to the second embodiment. Each step is performed by the image processing unit 104 based on an instruction from the system controller 106.
本実施例は、補正信号の生成方法が実施例1と異なる。S211、S212はS111、S112と同様である。実施例1は、数式(2)に基づいて補正信号を生成するのに対し、本実施例は、数式(3)に基づいて補正信号を生成する。本実施例の補正信号生成部202で補正信号を生成する際に、まず理想点像とPSF選択部201が選択してきたPSFの差分をとり、フィルタを生成する(S213)。次に、補正信号生成部202は、生成したフィルタを入力画像に対して入力画像を畳み込むことで補正信号を生成する(S214)。S215、S216、S217はS114、S115、S116と同様であるため、説明を割愛する。これにより、数式(6)に基づく鮮鋭化処理を実行することができる。 The present embodiment is different from the first embodiment in the generation method of the correction signal. S211 and S212 are the same as S111 and S112. The first embodiment generates a correction signal based on the formula (2), whereas the present embodiment generates a correction signal based on the formula (3). When a correction signal is generated by the correction signal generation unit 202 of the present embodiment, first, a filter is generated by taking the difference between the ideal point image and the PSF selected by the PSF selection unit 201 (S213). Next, the correction signal generation unit 202 generates a correction signal by convolving the input image with the generated filter (S214). Since S215, S216, and S217 are the same as S114, S115, and S116, description thereof is omitted. Thereby, the sharpening process based on Formula (6) can be performed.
なお、像高方向の補間に関しては、実施例1で示すように、補正信号の段階で実行してもよいし、補正信号を入力画像に適用して鮮鋭化した段階で像高方向の補間を実行してもよい。 The interpolation in the image height direction may be performed at the correction signal stage as shown in the first embodiment, or the image height direction interpolation is performed at the stage where the correction signal is applied to the input image and sharpened. May be executed.
実施例3の撮像装置は、実施例1の撮像装置と同様の構成を有する。実施例3は、図8に示す画像処理方法の代わりに図13に示す画像処理方法を使用する点で実施例1と相違する。図13は、実施例3の画像処理方法を示すフローチャートであり、各ステップは、システムコントローラ106の指示に基づいて、画像処理部104より行われる。 The imaging apparatus according to the third embodiment has a configuration similar to that of the imaging apparatus according to the first embodiment. The third embodiment is different from the first embodiment in that the image processing method shown in FIG. 13 is used instead of the image processing method shown in FIG. FIG. 13 is a flowchart illustrating the image processing method according to the third embodiment. Each step is performed by the image processing unit 104 based on an instruction from the system controller 106.
本実施例は、補正信号の生成方法や補正信号の適用方法が実施例1、2と異なり、本実施例は、数式(7)に基づいてフィルタを生成し、入力画像に対して生成したフィルタを適用する。よって、図13のフローチャートの中で処理の内容が実施例1、2と異なるところはS313のフィルタの生成、S314のフィルタの適用になる。S311、S312はS111、S112と同様である。 The present embodiment differs from the first and second embodiments in the method of generating a correction signal and the method of applying the correction signal. In the present embodiment, a filter is generated based on Expression (7) and generated for an input image. Apply. Therefore, in the flowchart of FIG. 13, the processing contents differ from those in the first and second embodiments are the generation of the filter in S313 and the application of the filter in S314. S311 and S312 are the same as S111 and S112.
本実施例では、S312で選択したPSFをアンシャープマスクとして利用し、数式(7)の中括弧の部分に相当するフィルタを生成する(S312)。なお、本実施例では、補正信号生成部202が生成する補正信号はフィルタである。次に、補正信号適用部203は、S313において生成したフィルタを入力画像に畳み込みを行い、鮮鋭化する(S314)。本実施例の鮮鋭化処理では、予め撮影光学系のPSFをアンシャープマスクとして生成したフィルタ(補正信号)を、撮影画像に対して一度の畳み込みで鮮鋭化することができる。 In the present embodiment, the PSF selected in S312 is used as an unsharp mask, and a filter corresponding to the curly bracket portion of Expression (7) is generated (S312). In the present embodiment, the correction signal generated by the correction signal generation unit 202 is a filter. Next, the correction signal applying unit 203 convolves the input image with the filter generated in S313 and sharpens it (S314). In the sharpening process of the present embodiment, a filter (correction signal) generated in advance using the PSF of the photographing optical system as an unsharp mask can be sharpened with a single convolution with respect to the photographed image.
以上、本発明の実施例について説明したが、本発明はその要旨の範囲内で種々の変形及び変更が可能である。 Although the embodiments of the present invention have been described above, the present invention can be variously modified and changed within the scope of the gist thereof.
本発明の画像処理方法は、撮像装置や専用の画像処理装置に適用することができる。 The image processing method of the present invention can be applied to an imaging apparatus or a dedicated image processing apparatus.
104…画像処理部、201…点像強度分布関数選択部(取得手段)、202…補正信号生成部(生成手段)、203…補正信号適用部(鮮鋭化手段) DESCRIPTION OF SYMBOLS 104 ... Image processing part 201 ... Point image intensity distribution function selection part (acquisition means), 202 ... Correction signal generation part (generation means), 203 ... Correction signal application part (sharpening means)
Claims (18)
前記撮影画像に対するアンシャープマスク処理に用いられるフィルタは、2次元のタップのデータが回転非対称に分布しているフィルタを含むことを特徴とする画像処理装置。 A captured image generated by imaging through the optical system is acquired, and the captured image is obtained using a filter generated based on the information of the point spread function of the optical system corresponding to the imaging condition of the optical system. Having processing means for performing unsharp mask processing;
The filter used for unsharp mask processing on the captured image includes a filter in which two-dimensional tap data is distributed rotationally asymmetrically .
前記フィルタを前記撮影画像に適用した画像と、前記撮影画像との差分をとることによって補正信号を生成する生成手段と、
前記生成手段が生成した前記補正信号を定数倍して前記撮影画像に加算することによって、または、前記生成手段が生成した前記補正信号を前記撮影画像の位置に応じた調整係数を用いて調整して前記撮影画像に加算することによって、前記撮影画像を鮮鋭化する鮮鋭化手段と、
を有することを特徴とする請求項1または2に記載の画像処理装置。 The processing means includes
Generating means for generating a correction signal by taking a difference between an image obtained by applying the filter to the captured image and the captured image;
The correction signal generated by the generation unit is multiplied by a constant and added to the captured image, or the correction signal generated by the generation unit is adjusted using an adjustment coefficient according to the position of the captured image. Sharpening means for sharpening the captured image by adding to the captured image;
The image processing apparatus according to claim 1 or 2, characterized in that it has a.
前記点像強度分布関数と理想点像との差分情報に基づいて生成されたフィルタを、前記撮影画像に畳み込み積分することによって補正信号を生成する生成手段と、
前記生成手段が生成した前記補正信号を定数倍して前記撮影画像に加算することによって、または、前記生成手段が生成した前記補正信号を前記撮影画像の位置に応じた調整係数を用いて調整して前記撮影画像に加算することによって、前記撮影画像を鮮鋭化する鮮鋭化手段と、
を有することを特徴とする請求項1または2に記載の画像処理装置。 The processing means includes
Generating means for generating a correction signal by convolving and integrating the filter generated based on the difference information between the point image intensity distribution function and the ideal point image into the captured image;
The correction signal generated by the generation unit is multiplied by a constant and added to the captured image, or the correction signal generated by the generation unit is adjusted using an adjustment coefficient according to the position of the captured image. Sharpening means for sharpening the captured image by adding to the captured image;
The image processing apparatus according to claim 1 or 2, characterized in that it has a.
前記点像強度分布関数と理想点像との差分情報を定数倍して前記理想点像に加算することによって、または、前記差分情報を前記撮影画像の位置に応じた調整係数を用いて調整して前記理想点像に加算することによって、フィルタを生成する生成手段と、
前記生成手段が生成した前記フィルタを、前記光学系を介した撮像により生成された撮影画像に畳み込み積分することによって前記撮影画像を鮮鋭化する鮮鋭化手段と、
を有することを特徴とする請求項1または2に記載の画像処理装置。 The processing means includes
The difference information between the point image intensity distribution function and the ideal point image is multiplied by a constant and added to the ideal point image, or the difference information is adjusted using an adjustment coefficient corresponding to the position of the captured image. Generating means for generating a filter by adding to the ideal point image;
Sharpening means for sharpening the captured image by convolving and integrating the filter generated by the generating means with the captured image generated by imaging through the optical system;
The image processing apparatus according to claim 1 or 2, characterized in that it has a.
1と定数の和と理想点像の積と、前記点像強度分布関数と前記定数の積との差分情報に基づいて、または、前記撮影画像の位置に応じた調整係数と1の和と理想点像の積と、前記点像強度分布関数と前記調整係数の積との差分情報に基づいて、フィルタを生成する生成手段と、
前記生成手段が生成した前記フィルタを、前記撮影画像に畳み込み積分することによって前記撮影画像を鮮鋭化する鮮鋭化手段と、
を有することを特徴とする請求項1または2に記載の画像処理装置。 The processing means includes
Based on the difference information between the product of the sum of 1 and the constant and the ideal point image, and the product of the point image intensity distribution function and the constant, or the sum of the adjustment coefficient according to the position of the captured image and the ideal of 1 Generating means for generating a filter based on difference information between a product of point images and a product of the point image intensity distribution function and the adjustment coefficient;
Sharpening means for sharpening the captured image by convolving and integrating the filter generated by the generating means with the captured image;
The image processing apparatus according to claim 1 or 2, characterized in that it has a.
前記処理手段は、補正対象の色成分について補間した画像に対してアンシャープマスク処理を行うことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 The photographed image is image data that is discretely regularly arranged for each color component,
The processing means, the image processing apparatus according to any one of claims 1 to 7, characterized in that the unsharp mask processing on the image obtained by interpolating the color components of the correction target.
前記処理手段は、前記撮影画像の複数の領域と対応する点像強度分布関数から得られる複数の画像データを用いて像高方向に補間処理を行って1つの画像データを生成し、該1つの画像データを用いて前記補正信号を生成することを特徴とする請求項3または4に記載の画像処理装置。 The processing means has acquisition means for acquiring information of the point image intensity distribution function of the optical system based on imaging conditions of the optical system, and the acquisition means is for a plurality of regions set in the captured image. Obtain point spread function at at least two image heights for each,
The processing means performs interpolation processing in the image height direction using a plurality of image data obtained from a point image intensity distribution function corresponding to a plurality of regions of the photographed image, and generates one image data. the image processing apparatus according to claim 3 or 4, characterized in that to generate the correction signal with the image data.
前記処理手段は、複数の点像強度分布関数に基づいて複数の補正信号を生成し、該複数の補正信号を像高方向に補間処理を行って1つの補正信号を生成し、前記1つの補正信号を、前記撮影画像に適用することを特徴とする請求項3または4に記載の画像処理装置。 The processing means has acquisition means for acquiring information of the point image intensity distribution function of the optical system based on imaging conditions of the optical system, and the acquisition means is for a plurality of regions set in the captured image. Obtain point spread function at at least two image heights for each,
The processing means generates a plurality of correction signals based on a plurality of point image intensity distribution functions, performs an interpolation process on the plurality of correction signals in the image height direction, generates one correction signal, and generates the one correction signal. the image processing apparatus according to signals, in claim 3 or 4, characterized in that applied to the captured image.
前記処理手段は、複数の点像強度分布関数に基づいて複数の補正信号を生成し、前記複数の補正信号をそれぞれ前記撮影画像に適用することによって複数の鮮鋭化後の画像を取得し、前記複数の鮮鋭化後の画像を像高方向に補間処理を行って1つの鮮鋭化後の画像を生成することを特徴とする請求項3または4に記載の画像処理装置。 The processing means has acquisition means for acquiring information of the point image intensity distribution function of the optical system based on imaging conditions of the optical system, and the acquisition means is for a plurality of regions set in the captured image. Obtain point spread function at at least two image heights for each,
The processing means generates a plurality of correction signals based on a plurality of point image intensity distribution functions, obtains a plurality of sharpened images by applying the plurality of correction signals to the captured image, respectively, the image processing apparatus according to claim 3 or 4, characterized in that to generate the image after a single sharpening performs interpolation processing an image after a plurality of sharpening the image height direction.
前記撮像素子から得られる撮影画像を処理する画像処理部と、を有し、
前記画像処理部は、前記光学系の撮影条件に対応する前記光学系の点像強度分布関数の情報に基づいて生成されたフィルタを用いて前記撮影画像に対するアンシャープマスク処理を行い、
前記撮影画像に対するアンシャープマスク処理に用いられるフィルタは、2次元のタップのデータが回転非対称に分布しているフィルタを含むことを特徴とする撮像装置。 An image sensor that photoelectrically converts an optical image of a subject formed by the optical system;
An image processing unit that processes a captured image obtained from the imaging element;
The image processing unit performs an unsharp mask process on the captured image using a filter generated based on information of a point spread function of the optical system corresponding to the imaging condition of the optical system,
The filter used for unsharp mask processing on the captured image includes a filter in which two-dimensional tap data is distributed rotationally asymmetrically .
前記光学系の撮影条件に対応する前記光学系の点像強度分布関数の情報に基づいて生成されたフィルタを用いて前記撮影画像に対するアンシャープマスク処理を行うステップと、
を有し、
前記撮影画像に対するアンシャープマスク処理に用いられるフィルタは、2次元のタップのデータが回転非対称に分布しているフィルタを含むことを特徴とする画像処理方法。 Obtaining a captured image generated by imaging through an optical system;
Performing an unsharp mask process on the captured image using a filter generated based on information of a point spread function of the optical system corresponding to the imaging condition of the optical system;
Have
The filter used for unsharp mask processing on the captured image includes a filter in which two-dimensional tap data is distributed rotationally asymmetrically .
光学系を介した撮像により生成された撮影画像を取得するステップと、
前記光学系の撮影条件に対応する前記光学系の点像強度分布関数の情報に基づいて生成されたフィルタを用いて前記撮影画像に対するアンシャープマスク処理を行うステップと、
を含む処理を実行させるための画像処理プログラムであって、
前記撮影画像に対するアンシャープマスク処理に用いられるフィルタは、2次元のタップのデータが回転非対称に分布しているフィルタを含むことを特徴とする画像処理プログラム。 On the computer,
Obtaining a captured image generated by imaging through an optical system;
Performing an unsharp mask process on the captured image using a filter generated based on information of a point spread function of the optical system corresponding to the imaging condition of the optical system;
An image processing program for executing processing including
The image processing program characterized in that the filter used for unsharp mask processing on the captured image includes a filter in which two-dimensional tap data is distributed rotationally asymmetrically .
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014178610A JP6124849B2 (en) | 2013-10-09 | 2014-09-03 | Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program |
CN201410515307.5A CN104580879B (en) | 2013-10-09 | 2014-09-30 | Image processing equipment, image pick up equipment and image processing method |
CN201710802678.5A CN107623816A (en) | 2013-10-09 | 2014-09-30 | Image processing equipment, image pick up equipment and image processing method |
RU2014140323A RU2631521C2 (en) | 2013-10-09 | 2014-10-06 | Image processing device, image shooting device, image processing method and permanent machine-readable medium |
US14/508,199 US9563941B2 (en) | 2013-10-09 | 2014-10-07 | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium |
EP14188071.6A EP2860694B1 (en) | 2013-10-09 | 2014-10-08 | Image processing apparatus, image processing method, image processing program, and non-transitory computer-readable storage medium |
EP17166511.0A EP3223234A1 (en) | 2013-10-09 | 2014-10-08 | Image processing apparatus, image pickup apparatus, image processing method, image processing program, and non-transitory computer-readable storage medium |
EP19192863.9A EP3605451A1 (en) | 2013-10-09 | 2014-10-08 | Image processing apparatus, image pickup apparatus, image processing method, image processing program, and non-transitory computer-readable storage medium |
BR102014025196-0A BR102014025196A2 (en) | 2013-10-09 | 2014-10-09 | image processing apparatus, image capture apparatus, image processing method and non-transient computer readable storage media |
US15/267,792 US9747672B2 (en) | 2013-10-09 | 2016-09-16 | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013211503 | 2013-10-09 | ||
JP2013211503 | 2013-10-09 | ||
JP2014178610A JP6124849B2 (en) | 2013-10-09 | 2014-09-03 | Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017005372A Division JP6234623B2 (en) | 2013-10-09 | 2017-01-16 | Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015097380A JP2015097380A (en) | 2015-05-21 |
JP2015097380A5 JP2015097380A5 (en) | 2016-06-30 |
JP6124849B2 true JP6124849B2 (en) | 2017-05-10 |
Family
ID=53374473
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014178610A Active JP6124849B2 (en) | 2013-10-09 | 2014-09-03 | Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program |
JP2017005372A Active JP6234623B2 (en) | 2013-10-09 | 2017-01-16 | Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017005372A Active JP6234623B2 (en) | 2013-10-09 | 2017-01-16 | Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6124849B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7155499B2 (en) | 2017-04-26 | 2022-10-19 | Tdk株式会社 | LAMINATED ELECTRONIC COMPONENT AND MANUFACTURING METHOD THEREOF |
US11599973B2 (en) | 2019-05-24 | 2023-03-07 | Canon Kabushiki Kaisha | Image processing apparatus, lens apparatus, and image processing method for sharpening processing |
JP7367722B2 (en) | 2021-03-30 | 2023-10-24 | 株式会社村田製作所 | Coil parts and their manufacturing method |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6448526B2 (en) * | 2015-12-02 | 2019-01-09 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, and image processing program |
JP6625144B2 (en) * | 2018-01-05 | 2019-12-25 | キヤノン株式会社 | Image processing method and imaging apparatus, image processing apparatus, image processing program, storage medium, and lens device using the same |
JP7101539B2 (en) * | 2018-05-22 | 2022-07-15 | キヤノン株式会社 | Image processing equipment, image processing methods, and programs |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4577565B2 (en) * | 2005-03-03 | 2010-11-10 | ソニー株式会社 | Image processing method, image processing apparatus, program, and photographing apparatus |
JP2010219683A (en) * | 2009-03-13 | 2010-09-30 | Sony Corp | Image processing device, image processing method, and program |
US8330825B2 (en) * | 2010-02-22 | 2012-12-11 | Eastman Kodak Company | Zoom lens system characterization for image sharpening |
WO2011122284A1 (en) * | 2010-03-31 | 2011-10-06 | キヤノン株式会社 | Image processing device and image capturing apparatus using same |
JP5367053B2 (en) * | 2011-02-28 | 2013-12-11 | キヤノン株式会社 | Image processing apparatus, image processing program, image processing method, and imaging apparatus |
JP5274623B2 (en) * | 2011-07-04 | 2013-08-28 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing program, and image processing method |
JP5344647B2 (en) * | 2011-08-01 | 2013-11-20 | キヤノン株式会社 | Image processing method, image processing apparatus, and image processing program |
-
2014
- 2014-09-03 JP JP2014178610A patent/JP6124849B2/en active Active
-
2017
- 2017-01-16 JP JP2017005372A patent/JP6234623B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7155499B2 (en) | 2017-04-26 | 2022-10-19 | Tdk株式会社 | LAMINATED ELECTRONIC COMPONENT AND MANUFACTURING METHOD THEREOF |
US11599973B2 (en) | 2019-05-24 | 2023-03-07 | Canon Kabushiki Kaisha | Image processing apparatus, lens apparatus, and image processing method for sharpening processing |
JP7367722B2 (en) | 2021-03-30 | 2023-10-24 | 株式会社村田製作所 | Coil parts and their manufacturing method |
Also Published As
Publication number | Publication date |
---|---|
JP2015097380A (en) | 2015-05-21 |
JP6234623B2 (en) | 2017-11-22 |
JP2017073828A (en) | 2017-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6234623B2 (en) | Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program | |
EP2860694B1 (en) | Image processing apparatus, image processing method, image processing program, and non-transitory computer-readable storage medium | |
JP6440766B2 (en) | Image processing method, image processing apparatus, imaging apparatus, program, and storage medium | |
CN106170051B (en) | Image processing apparatus, image pickup apparatus, and image processing method | |
JP6071966B2 (en) | Image processing method, imaging apparatus using the same, image processing apparatus, and image processing program | |
JP2016081431A (en) | Image processing method, image processor, imaging device and image processing program | |
JP6448526B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP6071860B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
JP6562650B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
CN111988517B (en) | Image processing apparatus, lens apparatus, and image processing method | |
JP6768312B2 (en) | Image processing equipment, optical equipment, image processing methods, image processing programs, and recording media | |
RU2631521C2 (en) | Image processing device, image shooting device, image processing method and permanent machine-readable medium | |
JP2016201600A (en) | Image processing apparatus, imaging device, image processing method, image processing program, and storage medium | |
JP7101539B2 (en) | Image processing equipment, image processing methods, and programs | |
US20240135508A1 (en) | Image processing method, image processing apparatus, image processing system, imaging apparatus, and storage medium | |
RU2656009C1 (en) | Image processing device, image survey device, image processing method and continuous automated data medium | |
JP2021027565A (en) | Image processing method, imaging apparatus employing the same, image processing device, and image processing program | |
JP2020025225A (en) | Imaging apparatus and lens device | |
JP2019087851A (en) | Image processing device, imaging apparatus, image processing method, image processing program, and recording medium | |
JP2017224906A (en) | Image processing method, imaging apparatus using the same, image processing system, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160511 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160511 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20160511 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170404 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6124849 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |