JP2015198380A - Image processing system, imaging apparatus, image processing program, and image processing method - Google Patents

Image processing system, imaging apparatus, image processing program, and image processing method Download PDF

Info

Publication number
JP2015198380A
JP2015198380A JP2014076008A JP2014076008A JP2015198380A JP 2015198380 A JP2015198380 A JP 2015198380A JP 2014076008 A JP2014076008 A JP 2014076008A JP 2014076008 A JP2014076008 A JP 2014076008A JP 2015198380 A JP2015198380 A JP 2015198380A
Authority
JP
Japan
Prior art keywords
image
optical system
image processing
shooting
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014076008A
Other languages
Japanese (ja)
Other versions
JP2015198380A5 (en
Inventor
佐藤 新
Arata Sato
新 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014076008A priority Critical patent/JP2015198380A/en
Publication of JP2015198380A publication Critical patent/JP2015198380A/en
Publication of JP2015198380A5 publication Critical patent/JP2015198380A5/ja
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To perform highly accurate image processing by using information on an image height where an image is focused.SOLUTION: The image processing system includes: a storage section 308 for storing information on an optical transfer function or a point spread function of an imaging apparatus for each photographing condition for each image height where an image is focused; and image processing means for processing an image by using information on an optical transfer function or a point spread function for which a photographing condition of the image photographed through the imaging apparatus and an image height where an image is focused coincide with the photographing condition stored in the storage section and an image height where the image is focused.

Description

本発明は、画像処理装置、撮像装置、画像処理プログラム、および画像処理方法に関する。   The present invention relates to an image processing device, an imaging device, an image processing program, and an image processing method.

像面湾曲の大きいレンズでは、画面中心部と画面周辺部の光軸方向の結像位置が異なるため、画面中心部に合焦した状態で画面中心部のMTFピーク位置を撮像面として撮影画像を取り込むと、画面中心部に比べて画面周辺部の解像力が低下する。同様に、画面周辺部で合焦させて画面周辺部のMTFピーク位置を撮像面として撮影画像を取り込むと、画面中心部で合焦した場合と比べて画面周辺部の解像力は向上するが、画面中心部の解像力は低下する。   In a lens with a large field curvature, the imaging position in the optical axis direction differs between the center of the screen and the periphery of the screen. When captured, the resolving power at the periphery of the screen is lower than that at the center of the screen. Similarly, when the captured image is captured using the MTF peak position of the screen periphery as the imaging surface by focusing on the screen periphery, the resolution of the screen periphery is improved compared to the case of focusing on the screen center. The resolving power at the center is reduced.

そこで、特許文献1は、画面中心部の結像位置と画面周辺部の結像位置の中間で画像を取得し、画像取得像面での回復フィルタで画像回復する方法を提案している。特許文献2は画面領域を被写体の距離情報をもとに分割し、分割した領域ごとに対応する画像回復フィルタを用いて回復する方法を提案している。   Therefore, Patent Document 1 proposes a method of acquiring an image at an intermediate position between an image forming position at the center of the screen and an image forming position at the periphery of the screen, and recovering the image with a recovery filter on the image acquisition image plane. Patent Document 2 proposes a method of dividing a screen region based on subject distance information and recovering it using an image restoration filter corresponding to each divided region.

特開2011−124692号公報JP 2011-124692 A 特開2011−211663号公報JP 2011-2111663 A

しかしながら、特許文献1では、本来ユーザが意図する画面内の位置にピントが合わないという課題がある。   However, in Patent Document 1, there is a problem that the position in the screen originally intended by the user cannot be focused.

本発明は、合焦している像高の情報を用いて高精度な画像処理を行うことが可能な画像処理装置、撮像装置、画像処理プログラム、および画像処理方法を提供することを例示的な目的とする。   The present invention illustratively provides an image processing device, an imaging device, an image processing program, and an image processing method capable of performing highly accurate image processing using information on the image height that is in focus. Objective.

本発明の画像処理装置は、撮影光学系の撮影条件と合焦している像高ごとに補正データを記憶する記憶手段と、前記撮影光学系を介して撮像された画像の撮影条件と合焦している像高が、前記記憶手段に記憶された前記撮影条件および前記合焦している像高と一致する補正データを使用して前記画像を処理する画像処理手段と、を有することを特徴とする。   The image processing apparatus according to the present invention includes a storage unit that stores correction data for each image height focused on a shooting condition of a shooting optical system, and a focus on the shooting condition of an image captured through the shooting optical system. And image processing means for processing the image using correction data that matches the shooting conditions stored in the storage means and the focused image height. And

本発明によれば、合焦している像高の情報を用いて高精度な画像処理を行うことが可能な画像処理装置、撮像装置、画像処理プログラム、および画像処理方法を提供することができる。   According to the present invention, it is possible to provide an image processing device, an imaging device, an image processing program, and an image processing method capable of performing highly accurate image processing using information on the image height that is in focus. .

本発明の概念の説明するための概略図である。It is the schematic for demonstrating the concept of this invention. 図1の点像強度分布関数を説明するための概略図である。It is the schematic for demonstrating the point image intensity distribution function of FIG. 本発明の撮像装置のブロック図である。It is a block diagram of the imaging device of the present invention. 本発明のフローチャートである。(実施例1)3 is a flowchart of the present invention. (Example 1) 本発明のフローチャートである。(実施例2)3 is a flowchart of the present invention. (Example 2) 本発明のフローチャートである。(実施例3)3 is a flowchart of the present invention. (Example 3)

図1は、本発明の概念を説明するための概略図であり、横軸はデフォーカス方向、縦軸は中心MTFピーク像面における位置である。図1(a)はユーザが画面中心部の焦点検出点を選択した場合を示し、図1(b)はユーザが画面周辺部の焦点検出点を選択した場合を示している。焦点検出点は、例えば、後述する図3に示す、背面の液晶ディスプレイなどの表示部305の撮影画面に表示され、自動焦点調節(AF)において、焦点検出を行う領域である。一般に、複数の焦点検出領域が画面に表示され、不図示の選択手段を介してユーザによって選択される。   FIG. 1 is a schematic diagram for explaining the concept of the present invention, in which the horizontal axis represents the defocus direction, and the vertical axis represents the position on the central MTF peak image plane. FIG. 1A shows a case where the user selects a focus detection point at the center of the screen, and FIG. 1B shows a case where the user selects a focus detection point at the periphery of the screen. The focus detection point is, for example, an area that is displayed on a photographing screen of a display unit 305 such as a liquid crystal display on the back as shown in FIG. In general, a plurality of focus detection areas are displayed on the screen and are selected by a user via a selection unit (not shown).

図2は、図1の点像強度分布関数(PSF:Point Spread Function)を説明するための概略図であり、横軸Sはサジタル方向を表し、縦軸Mはメリディオナル方向を表している。   FIG. 2 is a schematic diagram for explaining the point spread function (PSF) of FIG. 1, wherein the horizontal axis S represents the sagittal direction and the vertical axis M represents the meridional direction.

デジタルカメラ等の撮像装置により被写体を撮像して得られる画像には、撮影光学系の球面収差、コマ収差、像面湾曲、非点収差等に起因するボケが含まれる。このボケは、無収差で回折の影響もない場合に被写体の一点から出た光束が撮像面上で再度一点に集まるべきものが、ある広がりをもって像を結ぶことで発生し、光学的に、PSFにより表される。また、このボケはピントずれによるボケとは異なる。   An image obtained by imaging a subject with an imaging device such as a digital camera includes blur due to spherical aberration, coma aberration, field curvature, astigmatism, and the like of the photographing optical system. This blur occurs when the light beam emitted from one point of the subject should be collected again at one point on the imaging surface when there is no aberration and there is no influence of diffraction. Is represented by Further, this blur is different from the blur due to the focus shift.

カラー画像における色にじみも、撮影光学系の軸上色収差、色の球面収差、色のコマ収差が原因であるものに関しては、光の波長ごとのボケ方の相違ということができる。また、横方向の色ずれも、撮影光学系の倍率色収差が原因であるものに関しては、光の波長ごとの撮像倍率の相違による位置ずれ又は位相ずれということができる。   The color blur in the color image can also be said to be a difference in the blurring method for each wavelength of light with respect to the axial chromatic aberration, the spherical spherical aberration, and the color coma aberration of the photographing optical system. Also, the lateral color misregistration can be referred to as a positional misalignment or a phase misalignment due to a difference in imaging magnification for each wavelength of light when the lateral chromatic aberration is caused by the chromatic aberration of magnification of the photographing optical system.

従来、光学系の収差により劣化した画像を回復する技術(以下、画像回復処理とする)が知られている。画像回復処理として、光学系のOTF(OpticalTransfer Function:光学伝達関数)またはこれとフーリエ変換の関係にある光学系のPSFの情報を用いる方法がある。   Conventionally, a technique for recovering an image deteriorated due to aberration of an optical system (hereinafter referred to as an image recovery process) is known. As an image restoration process, there is a method of using optical system OTF (Optical Transfer Function) or PSF information of the optical system that is related to Fourier transform.

OTFは、実部と虚部を持ち、一般的には2次元のデータとして記憶手段に格納される。一般的な画像回復処理では、RGBのごとにOTFデータを用意するので、1像高のOTFデータは、x方向のタップ数×y方向のタップ数×2(実部、虚部)×3(色成分)となる。また、OTFやPSFは、光学系を介して形成される像の像高、光学系の焦点距離、F値、および被写体距離を含む撮影条件ごとに異なる。   The OTF has a real part and an imaginary part, and is generally stored in the storage means as two-dimensional data. In general image restoration processing, OTF data is prepared for each of RGB, so the OTF data of one image height is the number of taps in the x direction × the number of taps in the y direction × 2 (real part, imaginary part) × 3 ( Color component). Further, OTF and PSF differ depending on photographing conditions including the image height of the image formed through the optical system, the focal length of the optical system, the F value, and the subject distance.

OTFは、収差の周波数成分情報であり、複素数で表される。OTFの絶対値、すなわち振幅成分をMTF(Modulation Transfer Function)といい、位相成分をPTF(Phase Transfer Function)という。MTFおよびPTFはそれぞれ収差による画像劣化の振幅成分および位相成分の周波数特性である。   OTF is aberration frequency component information and is represented by a complex number. The absolute value of the OTF, that is, the amplitude component is referred to as MTF (Modulation Transfer Function), and the phase component is referred to as PTF (Phase Transfer Function). MTF and PTF are frequency characteristics of an amplitude component and a phase component of image degradation due to aberration, respectively.

位相成分を位相角とすると次式が成立する。ここで、Re(OTF)、Im(OTF)はそれぞれ、OTFの実部と虚部である。   When the phase component is a phase angle, the following equation is established. Here, Re (OTF) and Im (OTF) are a real part and an imaginary part of the OTF, respectively.

PTF=tan−1(Im(OTF)/Re(OTF)) (1)
このように、撮影光学系のOTFは画像の振幅成分と位相成分に劣化を与えるため、劣化画像は被写体の各点がコマ収差のように非対称にぼけた状態になっている。
PTF = tan −1 (Im (OTF) / Re (OTF)) (1)
Thus, since the OTF of the photographing optical system deteriorates the amplitude component and the phase component of the image, the deteriorated image is in a state where each point of the subject is asymmetrically blurred like coma aberration.

また、倍率色収差は光の波長ごとの結像倍率の相違により結像位置がずれ、これを撮像装置の分光特性に応じて、例えば、RGBの色成分として取得することで発生する。RGB間で結像位置がずれることで像の広がりが発生するだけでなく、各色成分内で波長ごとの結像位置のずれ、すなわち位相ずれによっても像の広がりが発生する。このため、PSFを主光線(撮影光学系の瞳の中心を通る光線)と直交する各方向(アジムス方向)の1次元断面で見たときに、収差の位相劣化成分はPSFに非対称性を発生させる。また、振幅劣化成分はアジムス方向ごとのPSFの広がりの大きさに影響する。   Further, lateral chromatic aberration is caused by shifting the imaging position due to the difference in imaging magnification for each wavelength of light, and acquiring this as, for example, RGB color components in accordance with the spectral characteristics of the imaging device. The spread of the image not only occurs due to the shift of the image formation position between RGB, but also spreads due to the shift of the image formation position for each wavelength within each color component, that is, the phase shift. Therefore, when the PSF is viewed in a one-dimensional section in each direction (azimuth direction) orthogonal to the principal ray (the ray passing through the center of the pupil of the imaging optical system), the phase deterioration component of the aberration generates asymmetry in the PSF. Let Further, the amplitude deterioration component affects the size of the PSF spread for each azimuth direction.

実空間における画像上の座標を(x,y)とし、光学系による劣化を受ける前の原画像をf(x,y)、PSFをh(x,y)、劣化画像(入力画像)をg(x,y)とすると、次式が成立する。但し、*はコンボリューションである。   The coordinate on the image in the real space is (x, y), the original image before being deteriorated by the optical system is f (x, y), the PSF is h (x, y), and the deteriorated image (input image) is g. Assuming (x, y), the following equation is established. However, * is convolution.

g(x,y)=h(x,y)*f(x,y) (2)
数式2にフーリエ変換を施し、実空間(x,y)から周波数空間(u,v)への変換を行うと次式が成立する。ここで、F(u,v)はf(x,y)のフーリエ変換、G(u,v)はg(x,y)のフーリエ変換、H(u,v)はh(x,y)のフーリエ変換であり、OTFである。
g (x, y) = h (x, y) * f (x, y) (2)
When Fourier transform is applied to Equation 2 to convert from real space (x, y) to frequency space (u, v), the following equation is established. Here, F (u, v) is the Fourier transform of f (x, y), G (u, v) is the Fourier transform of g (x, y), and H (u, v) is h (x, y). Fourier transform of OTF.

G(u,v)=H(u,v)・F(u,v) (3)
劣化画像から元の画像を得るために、両辺をHで除算する。
G (u, v) = H (u, v) · F (u, v) (3)
In order to obtain the original image from the degraded image, both sides are divided by H.

G(u,v)/H(u,v)=F(u,v) (4)
F(u,v)を逆フーリエ変換して実面に戻すことで、元の画像f(x,y)に相当する回復画像が得られる。ここで、H−1を逆フーリエ変換したものをRとすると、以下の式のように実面での画像に対するコンボリューション処理を行うことで、同様に元の画像を得ることができる。
G (u, v) / H (u, v) = F (u, v) (4)
A restored image corresponding to the original image f (x, y) is obtained by performing inverse Fourier transform on F (u, v) and returning it to the actual surface. Here, assuming that the result of inverse Fourier transform of H −1 is R, the original image can be similarly obtained by performing convolution processing on the actual image as in the following equation.

g(x,y)*R(x,y)=f(x,y) (5)
R(x,y)を、画像回復フィルタという。画像が2次元のとき、通常は画像回復フィルタも画像の各画素に対応したタップ(セル)を有する2次元フィルタとなる。一般に、画像回復フィルタのタップ数が多いほど回復精度が向上する。画像回復フィルタは、少なくとも収差の特性を反映している必要があるため、従来の水平/垂直方向においてそれぞれ3タップ程度のエッジ強調フィルタ(ハイパスフィルタ)とは一線を隔する。画像回復フィルタはOTFに基づいて作成されるため、振幅成分および位相成分の劣化をともに高精度に補正することができる。
g (x, y) * R (x, y) = f (x, y) (5)
R (x, y) is referred to as an image restoration filter. When the image is two-dimensional, the image restoration filter is usually a two-dimensional filter having taps (cells) corresponding to each pixel of the image. Generally, the recovery accuracy improves as the number of taps of the image recovery filter increases. Since the image restoration filter needs to reflect at least aberration characteristics, it is separated from the conventional edge enhancement filter (high-pass filter) of about 3 taps in the horizontal / vertical direction. Since the image restoration filter is created based on the OTF, both the amplitude component and the phase component can be corrected with high accuracy.

図1(a)では、画面中心部の焦点検出点が選択され、中心MTFピーク像面で画像を取り込んだ場合を示している。図2(a)は、図1(a)のAで示す画面中心部のPSF、図2(b)は、図1(a)のBで示す画面周辺部のPSFをそれぞれ示している。   FIG. 1A shows a case where a focus detection point at the center of the screen is selected and an image is captured on the central MTF peak image plane. 2A shows the PSF at the center of the screen indicated by A in FIG. 1A, and FIG. 2B shows the PSF at the periphery of the screen indicated by B in FIG. 1A.

図1(b)では、画面周辺部の焦点検出点が選択され、周辺部MTFピーク像面で画像を取り込んだ場合を示している。図2(c)は、図1(b)のCで示す画面中心部のPSF、図2(d)は、図1(b)のDで示す画面周辺部のPSFである。   FIG. 1B shows a case where a focus detection point at the peripheral portion of the screen is selected and an image is captured on the peripheral MTF peak image plane. 2C is a PSF at the center of the screen indicated by C in FIG. 1B, and FIG. 2D is a PSF at the periphery of the screen indicated by D in FIG. 1B.

焦点検出点が画面中心部に配置されている場合は、図1(a)に示す撮影状態で画像を取り込み、図2の(a)(b)に示す、対応するPSFを用いて精度良く画像回復することができる。   When the focus detection point is located at the center of the screen, the image is captured in the shooting state shown in FIG. 1A, and the image is accurately obtained using the corresponding PSF shown in FIGS. 2A and 2B. Can be recovered.

しかし、近年、焦点検出点が画面周辺部にまで拡大されてきたため、図1(b)に示す撮影状態で画像を取り込む機会が増えている。これに従来の画像回復を行うと図2(c)(d)に示すPSFを図2(a)(b)に示すPSFを用いて画像処理で補正することになる。この結果、画面中心部では、実際のPSFよりも狭いPSFを用いて補正することになり、画像周辺部では、実際のPSFよりも広いPSFを用いて補正することになるため、画像回復精度が低下する。   However, in recent years, since the focus detection point has been expanded to the periphery of the screen, the opportunity to capture an image in the shooting state shown in FIG. When conventional image restoration is performed on this, the PSF shown in FIGS. 2C and 2D is corrected by image processing using the PSF shown in FIGS. 2A and 2B. As a result, correction is performed using a PSF that is narrower than the actual PSF at the center of the screen, and correction is performed using a PSF that is wider than the actual PSF at the periphery of the image. descend.

本実施形態では、ユーザが選択した焦点検出点(合焦している像高)に応じて画像処理に使用する補正データ、例えば、OTFまたはPSFの情報を変更し、高精度の画像処理を実現する。デフォーカス方向に大量の補正データを保持すると実装負荷が高くなるため、補正データは像面湾曲の範囲内、即ち、像面湾曲量が閾値以上である範囲で用いる。像面湾曲量が閾値未満である撮影光学系の場合には、焦点検出点の選択に基づく補正データの変化の影響が少ないために、本実施形態を適用しなくても画像処理精度を維持することができる。   In the present embodiment, correction data used for image processing, for example, OTF or PSF information is changed according to the focus detection point (focused image height) selected by the user, thereby realizing high-accuracy image processing. To do. When a large amount of correction data is held in the defocus direction, the mounting load increases. Therefore, the correction data is used within the field curvature range, that is, the range where the field curvature amount is equal to or greater than the threshold value. In the case of a photographing optical system in which the amount of field curvature is less than a threshold value, the effect of changes in correction data based on the selection of a focus detection point is small, so that image processing accuracy is maintained without applying this embodiment. be able to.

撮影光学系による画像劣化を画像処理にて高精度に補正する別の方法を以下に示す。   Another method for correcting image degradation due to the photographing optical system with high accuracy by image processing will be described below.

まず、入力画像に対しアンシャープマスクを適用することでぼかした画像データと元の入力画像の差分をとり、この差分データを元の入力画像に対して加算あるいは減算することで画像の鮮鋭化を実現するアンシャープマスク処理がある。アンシャープマスクには平滑化フィルタ等の画像をぼかすためのフィルタが使用されており、ぼかした画像と入力画像の差分が大きいところほど画像はより鮮鋭化される。   First, the difference between the blurred image data and the original input image is obtained by applying an unsharp mask to the input image, and the difference data is added to or subtracted from the original input image to sharpen the image. There is an unsharp mask process to be realized. A filter for blurring an image such as a smoothing filter is used for the unsharp mask. The larger the difference between the blurred image and the input image, the sharper the image.

アンシャープマスク処理は、アンシャープマスクに回転対称なフィルタを使用するため、非対称収差やサジタルハロのような複雑な形状のPSFの影響を受け劣化した撮影画像に対しては正しく鮮鋭化できない。この結果、収差が大きく発生しているアジムス方向の収差を補正しようとすると収差の小さなアジムス方向ではアンダーシュートが発生してしまう。逆にアンダーシュートを抑制すると収差が十分に補正できない。   Since the unsharp mask process uses a rotationally symmetric filter for the unsharp mask, a sharpened image cannot be sharpened correctly due to the influence of a PSF having a complicated shape such as asymmetric aberration or sagittal halo. As a result, if an attempt is made to correct an aberration in the azimuth direction where a large amount of aberration is generated, an undershoot occurs in the azimuth direction where the aberration is small. Conversely, if undershoot is suppressed, the aberration cannot be corrected sufficiently.

従来のアンシャープマスク処理は、メリディオナルのアジムス方向である像高方向以外の方向の非対称性について改善することができない。また、マイナスタップ係数の個数でフィルタの非対称性を調整しており、像高方向の補正についても光学系のPSFのぼけ方とは異なるため、十分に鮮鋭化することができない。   Conventional unsharp mask processing cannot improve asymmetry in directions other than the image height direction, which is the meridional azimuth direction. Further, the asymmetry of the filter is adjusted by the number of minus tap coefficients, and the correction in the image height direction is different from the method of blurring the PSF of the optical system, so that it cannot be sufficiently sharpened.

そこで、本実施形態は、撮影条件および合焦している像高に応じたPSFをアンシャープマスクに用いることで高精度なアンシャープマスク処理を提供する。   Therefore, the present embodiment provides highly accurate unsharp mask processing by using a PSF corresponding to the imaging conditions and the focused image height for the unsharp mask.

別の画像処理方法として、カラー画像に対して色にじみを軽減する色にじみ処理がある。撮影光学系の色収差により、画像の明るい部分の周囲に本来存在しない色(色にじみ)が生じる場合がある。可視光撮像では、撮影光学系の中心波長である緑から離れた部分で色にじみが起きやすく、青や赤或いは双方が混じった紫色のアーチファクトがにじみ状に生じ、パープルフリンジとも呼ばれる。   As another image processing method, there is color blur processing for reducing color blur on a color image. Due to chromatic aberration of the photographing optical system, a color (color blur) that does not originally exist around a bright portion of an image may occur. In visible light imaging, color blur is likely to occur in a portion away from green, which is the central wavelength of the imaging optical system, and purple or blue artifacts in which blue, red, or both are mixed are blurred and are also called purple fringes.

撮影光学系の色収差は、異なる分散を持つレンズを複数組み合わせることにより、ある程度抑えることができるが、近年の撮像素子の高解像度化と撮影光学系の小型化の要求から、撮影光学系のみで十分に抑えることは困難になっている。そこで、画像処理によるアーチファクトの抑制が求められている。   The chromatic aberration of the photographic optical system can be reduced to some extent by combining multiple lenses with different dispersions. However, due to the recent demands for higher resolution image sensors and smaller photographic optical systems, only the photographic optical system is sufficient. It is difficult to keep it down. Therefore, suppression of artifacts by image processing is required.

色収差は、横色収差(倍率色収差)と縦色収差(軸上色収差)に分けられる。横色収差は結像位置が波長により像面に沿う方向にずれる現象であり、縦色収差は結像位置が波長により光軸に沿う方向にずれる現象である。   Chromatic aberration is divided into lateral chromatic aberration (magnification chromatic aberration) and longitudinal chromatic aberration (axial chromatic aberration). Lateral chromatic aberration is a phenomenon in which the imaging position shifts in the direction along the image plane depending on the wavelength, and longitudinal chromatic aberration is a phenomenon in which the imaging position shifts in the direction along the optical axis due to the wavelength.

横色収差は、原色系のデジタル撮像系であれば、R(赤)、G(緑)、B(青)の各色プレーンに対し、異なる歪曲を加える幾何変換により補正することができる。   In the case of a primary color digital imaging system, lateral chromatic aberration can be corrected by geometric transformation that adds different distortions to the R (red), G (green), and B (blue) color planes.

可視光域の中心波長を担うGプレーンで合焦した画像に対し、縦色収差は、可視光域端部となるRプレーンやBプレーンでは被写体に焦点が合わず不鮮明な画像(ピンボケ画像)となって現れ、横色収差のような幾何変換では補正できない。色にじみ処理は、主に白とび(予め設定した信号の飽和領域)周辺に生じる特性を利用し、Gプレーンの飽和している領域を探索し、その周辺の領域の画素を積分して補正量を算出し、補正する。   In contrast to the image focused on the G plane that bears the center wavelength of the visible light region, the longitudinal chromatic aberration is unfocused on the subject on the R and B planes at the end of the visible light region, resulting in a blurred image (out-of-focus image). It cannot be corrected by geometric transformation such as lateral chromatic aberration. Color blur processing uses characteristics that occur mainly around whiteout (preset signal saturation area), searches for a saturated area in the G plane, integrates the pixels in the surrounding area, and corrects the amount Is calculated and corrected.

色にじみは白とび周辺で大きく発生するが、白とびしていない領域にも観察者にとって違和感のある色にじみは生じる。撮影したカラー画像における色プレーンの画素値が単調増加或いは単調減少している領域を色にじみ発生領域と判定し、色にじみを除去してもよい。   Although color blurring occurs largely in the vicinity of whiteout, a color blur that is uncomfortable for an observer also occurs in an area where whiteout does not occur. An area in which the pixel value of the color plane in the photographed color image is monotonously increasing or monotonously decreasing may be determined as a color blur generation area and the color blur may be removed.

色にじみは撮影光学系の収差により発生するため、コマ収差などの非対称な収差を持つ撮影光学系では、被写体に対して色にじみが発生する方向や発生しない方向が存在する。   Since color blur occurs due to aberrations of the photographing optical system, in a photographing optical system having asymmetric aberrations such as coma aberration, there are directions in which color blur occurs and does not occur with respect to the subject.

被写体の色が色にじみと同系色の場合、本来は色にじみが発生しない方向でも被写体の色を色にじみとして誤判定し、被写体本来の色を除去してしまうという問題が発生する。   When the color of the subject is similar to the color blur, there is a problem that the subject color is erroneously determined as a color blur even in a direction where the color blur is not originally generated, and the original color of the subject is removed.

そこで、本実施形態では、カラー画像の色にじみ補正処理の際、各色プレーンの画素値の単調増加或いは単調減少判定と撮影光学系の色にじみ発生方向の情報を用いることで、被写体本来の色を除去する弊害を低減し、色にじみ処理を補正してもよい。   Therefore, in the present embodiment, when performing color fringing correction processing of a color image, the original color of the subject is determined by using the monotonic increase or monotonic decrease determination of the pixel value of each color plane and the information on the direction of color fringing of the photographing optical system. It is also possible to correct the color fringing process by reducing the harmful effects to be removed.

色にじみ処理では、色にじみを軽減するための補正量を領域ごとに推定し、推定された複数の領域の複数の補正量を平滑化し、平滑化された補正量を使用して色にじみを軽減する画像処理を行ってもよい。ここで、推定される補正量は、推定されるにじみ量を補正するためのものであり、推定にじみ量は、撮影条件とユーザが選択した焦点検出点(合焦している像高)によって相違する。このため、推定される補正量も撮影条件と合焦している像高によって相違する。   In color blur processing, the amount of correction for reducing color blur is estimated for each area, the multiple correction amounts for the estimated areas are smoothed, and the smoothed correction amount is used to reduce color blur. Image processing may be performed. Here, the estimated correction amount is for correcting the estimated blur amount, and the estimated blur amount differs depending on the photographing condition and the focus detection point (focused image height) selected by the user. To do. For this reason, the estimated correction amount also differs depending on the image height in focus with the imaging conditions.

以下、本発明の各実施例の画像処理方法について説明する。また、各実施例の画像処理方法を表すフローチャートにおいて、「S」はステップ(工程)を表す。各実施例の画像処理方法は、専用の画像処理装置、図3に示す撮像装置、パーソナルコンピュータ(PC)、ネットワーク上のサーバ等において実行される。   The image processing method of each embodiment of the present invention will be described below. In the flowchart showing the image processing method of each embodiment, “S” represents a step. The image processing method of each embodiment is executed by a dedicated image processing apparatus, the imaging apparatus shown in FIG. 3, a personal computer (PC), a server on a network, or the like.

画像処理装置は、記憶手段と画像処理手段を有する。記憶手段は、補正データ(撮影光学系のOTFまたはPSFの情報や色にじみを軽減するための補正量)を、撮影条件と合焦している像高ごとに記憶する。画像処理手段は、撮影光学系を介して撮像された画像の撮影条件と合焦している像高が、記憶手段に記憶された撮影条件および合焦している像高と一致する補正データを使用して画像を処理する。   The image processing apparatus has storage means and image processing means. The storage means stores correction data (OTF or PSF information of the photographing optical system and a correction amount for reducing color blur) for each image height focused on the photographing condition. The image processing means obtains correction data in which the image height in focus with the shooting conditions of the image taken via the shooting optical system matches the shooting conditions stored in the storage means and the focused image height. Use to process images.

画像処理手段は、数式2や3のh(x,y)やH(u,v)を使用した画像回復処理を行ってもよいし、取得したPSFをアンシャープマスクに用いたアンシャープマスク処理を行ってもよい。あるいは、画像処理手段は、推定される補正量を使用して(平滑化を行った後で)色にじみを軽減してもよい。   The image processing means may perform image restoration processing using h (x, y) or H (u, v) in Equations 2 and 3, or unsharp mask processing using the acquired PSF as an unsharp mask. May be performed. Alternatively, the image processing unit may reduce the color blur using the estimated correction amount (after smoothing).

画像処理手段はコンピュータ(プロセッサ)によって実現可能である。この場合、各フローチャートはコンピュータに各ステップの機能を実現させるためのプログラム(画像処理プログラム)として具現化が可能である。   The image processing means can be realized by a computer (processor). In this case, each flowchart can be embodied as a program (image processing program) for causing a computer to realize the function of each step.

図3は、本実施形態の画像処理方法を実行する撮像装置のブロック図である。撮像装置は、デジタルスチルカメラ、デジタルビデオカメラ、デジタル顕微鏡、内視鏡などを含む。撮像装置は、撮影光学系301、撮像素子302、A/D変換器303、画像処理部304、表示部305、撮影光学系制御部306、状態検知部307、記憶部308、画像記録媒体309、システムコントローラ310、選択手段311を有する。   FIG. 3 is a block diagram of an imaging apparatus that executes the image processing method of the present embodiment. The imaging device includes a digital still camera, a digital video camera, a digital microscope, an endoscope, and the like. The imaging apparatus includes an imaging optical system 301, an imaging element 302, an A / D converter 303, an image processing unit 304, a display unit 305, an imaging optical system control unit 306, a state detection unit 307, a storage unit 308, an image recording medium 309, A system controller 310 and selection means 311 are included.

撮影光学系301は、被写体の光学像を撮像面に形成する。撮像素子302は、撮影光学系301が形成した光学像を光電変換する。A/D変換器303は、撮像素子302から出力されるアナログ電気信号をデジタル信号に変換する。   The imaging optical system 301 forms an optical image of a subject on the imaging surface. The image sensor 302 photoelectrically converts the optical image formed by the imaging optical system 301. The A / D converter 303 converts an analog electric signal output from the image sensor 302 into a digital signal.

画像処理部304は、本実施形態の画像処理方法をデジタル信号に施し、取得部304aと補正部304bを有する。取得部304aは、状態検知部307が取得した情報を取得する。補正部304bは、取得部304aが取得した情報に対応する補正データを記憶部308から取得し、これを利用して画像処理を行う。画像処理部304は、撮影光学系301を介して撮像された画像の撮影条件と合焦している像高が、記憶部308に記憶された撮影条件および合焦している像高と一致する補正データを使用して画像を処理する画像処理手段として機能する。   The image processing unit 304 applies the image processing method of the present embodiment to a digital signal, and includes an acquisition unit 304a and a correction unit 304b. The acquisition unit 304a acquires information acquired by the state detection unit 307. The correction unit 304b acquires correction data corresponding to the information acquired by the acquisition unit 304a from the storage unit 308, and performs image processing using the correction data. The image processing unit 304 has an image height that is in focus with the image capturing condition of the image captured through the image capturing optical system 301 and the image capturing condition that is stored in the storage unit 308 and the image height that is in focus. It functions as an image processing means for processing an image using the correction data.

撮影光学系を介して撮像された画像の撮影条件と合焦している像高が、記憶部308に記憶された撮影条件および合焦している像高と一致しない場合、画像処理部304は、対応する補正データを補間によって生成する。   When the image height that is in focus with the image capturing condition of the image captured through the image capturing optical system does not match the image capturing condition stored in the storage unit 308 and the image height that is in focus, the image processing unit 304 Corresponding correction data is generated by interpolation.

表示部305は、画像処理部304によって処理された画像を表示する液晶ディスプレイなどである。表示部305は、画面内に複数の焦点検出点を表示し、ユーザはその中で合焦すべき焦点検出点を選択手段311によって選択する。複数の焦点検出点は、像高や位置が異なるように画面上に配列されている。   The display unit 305 is a liquid crystal display that displays the image processed by the image processing unit 304. The display unit 305 displays a plurality of focus detection points on the screen, and the user selects a focus detection point to be focused on by using the selection unit 311. The plurality of focus detection points are arranged on the screen so as to have different image heights and positions.

撮影光学系制御部306は、システムコントローラ310の命令に基づいて、撮影光学系301の不図示のフォーカスレンズ、絞り、ズームレンズ、像ぶれ補正レンズの駆動を制御する。   The photographing optical system control unit 306 controls driving of a focus lens, a diaphragm, a zoom lens, and an image blur correction lens (not shown) of the photographing optical system 301 based on a command from the system controller 310.

状態検知部307は、撮影光学系制御部306から撮影状態の情報(焦点距離、F値、被写体距離など)を受信する。記憶部308は画像処理に使用される補正データを、撮影条件と合焦している像高ごとに記憶する記憶手段として機能する。   The state detection unit 307 receives shooting state information (focal length, F value, subject distance, etc.) from the shooting optical system control unit 306. The storage unit 308 functions as a storage unit that stores correction data used for image processing for each image height focused on the shooting condition.

画像記録媒体309は、画像処理部304によって処理された画像を記録する。システムコントローラ310は、撮像装置の各部の動作を制御し、例えば、撮影光学系制御部306に、絞り、ズームポジション、フォーカス位置などを指示する。   The image recording medium 309 records the image processed by the image processing unit 304. The system controller 310 controls the operation of each unit of the imaging apparatus, and instructs the imaging optical system control unit 306, for example, the aperture, zoom position, focus position, and the like.

撮影光学系を介して撮像された画像の合焦している像高が、記憶部308に記憶された合焦している像高に一致しない場合には、画像処理手段は補正データを補間によって生成してもよい。   If the focused image height of the image captured through the imaging optical system does not match the focused image height stored in the storage unit 308, the image processing means interpolates the correction data by interpolation. It may be generated.

図4は、実施例1のフローチャートを示している。本実施例は、画像処理として画像回復処理を用いる。   FIG. 4 shows a flowchart of the first embodiment. In this embodiment, image restoration processing is used as image processing.

まず、画像処理手段は、入力画像を取得する(S10)。入力画像は補正データを用いて画像処理される前に取得されればよく、この順番には限定されない。次に、画像処理手段は、入力画像を取得した撮影時の撮影光学系の撮影情報、合焦箇所情報を取得する(S12)。合焦箇所情報とは、焦点検出点が画面内のどこにあるか(合焦している像高)を表す情報である。次に、画像処理手段は、取得した撮影情報、合焦箇所情報に対応する補正データを記憶手段のデータベースから取得する(S14)。次に、画像処理手段は、取得した補正データを用いて入力画像に画像回復処理を行う(S16)。画像回復処理に用いるフィルタは、特許文献2に開示されているような撮影光学系のOTFを用いて作成してもよい。   First, the image processing means acquires an input image (S10). The input image may be acquired before the image processing is performed using the correction data, and the order is not limited. Next, the image processing means acquires shooting information and focusing point information of the shooting optical system at the time of shooting that acquired the input image (S12). The in-focus location information is information indicating where the focus detection point is in the screen (image height in focus). Next, the image processing means acquires correction data corresponding to the acquired photographing information and in-focus position information from the database of the storage means (S14). Next, the image processing means performs an image restoration process on the input image using the acquired correction data (S16). The filter used for the image restoration process may be created using an OTF of a photographing optical system as disclosed in Patent Document 2.

図5は、実施例2のフローチャートを示している。本実施例は、画像処理としてエッジ強調処理を用いる。エッジ強調処理は、画質改善効果は画像回復処理ほどではないが、保存に必要なデータ量が画像回復処理よりも少なくなる。   FIG. 5 shows a flowchart of the second embodiment. In this embodiment, edge enhancement processing is used as image processing. Although the edge enhancement process is not as effective as the image restoration process, the amount of data required for storage is smaller than that of the image restoration process.

まず、画像処理手段は、入力画像を取得する(S20)。入力画像は補正データを用いて画像処理される前に取得されればよい。次に、画像処理手段は、入力画像を取得した撮影時の撮影光学系の撮影情報、合焦箇所情報を取得する(S22)。次に、画像処理手段は、取得した撮影情報、合焦箇所情報に対応する補正データを記憶手段のデータベースから取得する(S24)。次に、画像処理手段は、取得した補正データを用いて入力画像にエッジ強調処理を行う(S26)。   First, the image processing means acquires an input image (S20). The input image may be acquired before image processing is performed using the correction data. Next, the image processing means acquires shooting information and focus location information of the shooting optical system at the time of shooting when the input image is acquired (S22). Next, the image processing means acquires correction data corresponding to the acquired photographing information and in-focus location information from the database of the storage means (S24). Next, the image processing means performs edge enhancement processing on the input image using the acquired correction data (S26).

図6は、実施例3のフローチャートを示している。本実施例は、画像処理として色にじみ処理を用いる。   FIG. 6 shows a flowchart of the third embodiment. In this embodiment, color blur processing is used as image processing.

まず、画像処理手段は、シャッターを押す(S30)。次に、画像処理手段は、撮影時の撮影光学系の撮影情報、合焦箇所情報を取得する(S32)。次に、画像処理手段は、取得した撮影情報、合焦箇所情報に対応する補正データを記憶手段のデータベースから取得する(S34)。次に、画像処理手段は、入力画像を取得する(S36)。次に、画像処理手段は、取得した補正データを用いて入力画像に色にじみ処理を行う(S38)。   First, the image processing means presses the shutter (S30). Next, the image processing means acquires shooting information and focus location information of the shooting optical system at the time of shooting (S32). Next, the image processing means acquires correction data corresponding to the acquired photographing information and in-focus location information from the database of the storage means (S34). Next, the image processing means acquires an input image (S36). Next, the image processing means performs a color blur process on the input image using the acquired correction data (S38).

以上、本実施例について説明したが、本発明は本実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although the present Example was described, this invention is not limited to a present Example, A various deformation | transformation and change are possible within the range of the summary.

本発明の画像処理装置はカメラなどの撮像装置が撮影した画像を回復する用途に適用することができる。   The image processing apparatus of the present invention can be applied to a use for recovering an image taken by an imaging apparatus such as a camera.

304…画像処理部(画像処理手段)、308…記憶部(記憶手段) 304: Image processing unit (image processing unit), 308: Storage unit (storage unit)

Claims (10)

撮影光学系の撮影条件と合焦している像高ごとに補正データを記憶する記憶手段と、
前記撮影光学系を介して撮像された画像の撮影条件と合焦している像高が、前記記憶手段に記憶された前記撮影条件および前記合焦している像高と一致する補正データを使用して前記画像を処理する画像処理手段と、
を有することを特徴とする画像処理装置。
Storage means for storing correction data for each image height in focus with the shooting conditions of the shooting optical system;
Use correction data in which the image height in focus with the shooting conditions of the image taken through the shooting optical system matches the shooting conditions and the in-focus image height stored in the storage means Image processing means for processing the image;
An image processing apparatus comprising:
前記撮影光学系を介して撮像された画像の撮影条件と合焦している像高が、前記記憶手段に記憶された前記撮影条件および前記合焦している像高と一致しない場合、前記画像処理手段は、前記撮影光学系を介して撮像された画像の撮影条件と合焦している像高に対応する補正データを補間によって生成することを特徴とする請求項1に記載の画像処理装置。   When the image height in focus with the shooting condition of the image taken through the shooting optical system does not match the shooting condition stored in the storage unit and the focused image height, the image The image processing apparatus according to claim 1, wherein the processing unit generates correction data corresponding to an image height in focus with a shooting condition of an image taken through the shooting optical system by interpolation. . 前記撮影光学系の像面湾曲量が閾値以上である場合に、前記画像処理手段は前記画像を処理し、前記撮影光学系の像面湾曲量が閾値未満である場合に、前記画像処理手段は前記画像を処理しないことを特徴とする請求項1または2に記載の画像処理装置。   When the field curvature amount of the photographing optical system is greater than or equal to a threshold, the image processing means processes the image, and when the field curvature amount of the photographing optical system is less than the threshold, the image processing means The image processing apparatus according to claim 1, wherein the image is not processed. 前記撮影条件は、焦点距離、F値、および被写体距離を含むことを特徴とする請求項1乃至3のうちいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the photographing condition includes a focal length, an F value, and a subject distance. 前記補正データは、前記撮影光学系の光学伝達関数または点像強度分布関数の情報を含み、
前記画像処理手段は、前記光学伝達関数または前記点像強度分布関数を用いた画像回復処理を行うことを特徴とする請求項1乃至4のうちいずれか1項に記載の画像処理装置。
The correction data includes information on the optical transfer function or point spread function of the photographing optical system,
5. The image processing apparatus according to claim 1, wherein the image processing unit performs image restoration processing using the optical transfer function or the point spread function.
前記補正データは、前記撮影光学系の光学伝達関数または点像強度分布関数の情報を含み、
前記画像処理手段は、前記点像強度分布関数をアンシャープマスクに用いたアンシャープマスク処理を行うことを特徴とする請求項1乃至4のうちいずれか1項に記載の画像処理装置。
The correction data includes information on the optical transfer function or point spread function of the photographing optical system,
5. The image processing apparatus according to claim 1, wherein the image processing unit performs an unsharp mask process using the point image intensity distribution function as an unsharp mask. 6.
前記撮影光学系を介して撮像された画像はカラー画像であり、
前記補正データは前記カラー画像に対して色にじみを軽減するための補正量を含み、
前記画像処理手段は、前記補正量を推定し、推定された補正量に基づいて色にじみを軽減することを特徴とする請求項1乃至4のうちいずれか1項に記載の画像処理装置。
The image captured through the imaging optical system is a color image,
The correction data includes a correction amount for reducing color bleeding on the color image,
5. The image processing apparatus according to claim 1, wherein the image processing unit estimates the correction amount, and reduces color blur based on the estimated correction amount. 6.
被写体の光学像を形成する撮影光学系と、
合焦すべき像高を選択する選択手段と、
前記撮影光学系の撮影条件と合焦している像高ごとに補正データを記憶する記憶手段と、
前記撮影光学系を介して撮像された画像の撮影条件と前記選択手段によって選択された前記像高が、前記記憶手段に記憶された前記撮影条件および前記合焦している像高と一致する補正データをを使用して前記画像を処理する画像処理手段と、
を有することを特徴とする撮像装置。
A photographing optical system for forming an optical image of a subject;
A selection means for selecting an image height to be focused;
Storage means for storing correction data for each image height in focus with the imaging conditions of the imaging optical system;
Correction that the imaging condition of the image captured through the imaging optical system and the image height selected by the selection unit match the imaging condition stored in the storage unit and the focused image height Image processing means for processing the image using data;
An imaging device comprising:
記憶手段に、撮影光学系の撮影条件と合焦している像高ごとに補正データを記憶させ、
前記撮影光学系を介して撮像された画像の撮影条件と合焦している像高が、前記記憶手段に記憶された前記撮影条件および前記合焦している像高と一致する補正データを使用して前記画像を処理することを特徴とする画像処理方法。
In the storage means, correction data is stored for each image height in focus with the shooting conditions of the shooting optical system,
Use correction data in which the image height in focus with the shooting conditions of the image taken through the shooting optical system matches the shooting conditions and the in-focus image height stored in the storage means And processing the image.
コンピュータを、
記憶手段に、撮影光学系の撮影条件と合焦している像高ごとに補正データを記憶させる手段、
前記撮影光学系を介して撮像された画像の撮影条件と合焦している像高が、前記記憶手段に記憶された前記撮影条件および前記合焦している像高と一致する補正データを使用して前記画像を処理する手段、
として機能させるための画像処理プログラム。
Computer
Means for storing correction data for each image height focused on the photographing conditions of the photographing optical system in the storage means;
Use correction data in which the image height in focus with the shooting conditions of the image taken through the shooting optical system matches the shooting conditions and the in-focus image height stored in the storage means Means for processing the image;
Image processing program to function as
JP2014076008A 2014-04-02 2014-04-02 Image processing system, imaging apparatus, image processing program, and image processing method Pending JP2015198380A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014076008A JP2015198380A (en) 2014-04-02 2014-04-02 Image processing system, imaging apparatus, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014076008A JP2015198380A (en) 2014-04-02 2014-04-02 Image processing system, imaging apparatus, image processing program, and image processing method

Publications (2)

Publication Number Publication Date
JP2015198380A true JP2015198380A (en) 2015-11-09
JP2015198380A5 JP2015198380A5 (en) 2017-05-18

Family

ID=54547835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014076008A Pending JP2015198380A (en) 2014-04-02 2014-04-02 Image processing system, imaging apparatus, image processing program, and image processing method

Country Status (1)

Country Link
JP (1) JP2015198380A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017118293A (en) * 2015-12-24 2017-06-29 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP6164564B1 (en) * 2016-03-14 2017-07-19 リアロップ株式会社 Image processing apparatus, image processing method, recording medium, program, and imaging apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281613A (en) * 1996-04-15 1997-10-31 Fuji Photo Film Co Ltd Device and method for photographic processing
JP2011217363A (en) * 2010-03-16 2011-10-27 Panasonic Corp Imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281613A (en) * 1996-04-15 1997-10-31 Fuji Photo Film Co Ltd Device and method for photographic processing
JP2011217363A (en) * 2010-03-16 2011-10-27 Panasonic Corp Imaging apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017118293A (en) * 2015-12-24 2017-06-29 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP6164564B1 (en) * 2016-03-14 2017-07-19 リアロップ株式会社 Image processing apparatus, image processing method, recording medium, program, and imaging apparatus
WO2017158690A1 (en) * 2016-03-14 2017-09-21 リアロップ株式会社 Image processing device, image processing method, recording medium, program, and image capture device
US10291844B2 (en) 2016-03-14 2019-05-14 Realop Corporation Image processing apparatus, image processing method, recording medium, program and imaging-capturing apparatus

Similar Documents

Publication Publication Date Title
JP6327922B2 (en) Image processing apparatus, image processing method, and program
RU2523028C2 (en) Image processing device, image capturing device and image processing method
JP5824297B2 (en) Image processing apparatus and method, and imaging apparatus
JP5818586B2 (en) Image processing apparatus and image processing method
JP5709911B2 (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus
JP5528173B2 (en) Image processing apparatus, imaging apparatus, and image processing program
KR101536162B1 (en) Image processing apparatus and method
JP6045185B2 (en) Image processing apparatus, image processing method, and program
JP2016213702A (en) Image processing system, control method thereof, and control program
JP2010087672A (en) Image processing method, image processing apparatus, and imaging device
US9911183B2 (en) Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium
JP4891301B2 (en) Image processing method, image processing apparatus, and imaging apparatus
JP6929141B2 (en) Image processing equipment, imaging equipment, image processing methods, programs, and storage media
JP2019036115A (en) Image processing method, image processing device, imaging device, and program
JP2010086139A (en) Image processing method, image processing apparatus, and image pickup apparatus
JP2015198380A (en) Image processing system, imaging apparatus, image processing program, and image processing method
JP5645981B2 (en) Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium
JP6436840B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP2017050662A (en) Image processing system, imaging apparatus, and image processing program
JP6537228B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP5344647B2 (en) Image processing method, image processing apparatus, and image processing program
CN112073603A (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6486076B2 (en) Image processing apparatus and image processing method
US20240135508A1 (en) Image processing method, image processing apparatus, image processing system, imaging apparatus, and storage medium
JP2015109681A (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180814